Seite 1 von 1
Wie maßgebend ist die Anzahl der Prozessorkerne wirklich...
Verfasst: Fr 15. Mär 2013, 21:31
von Marco83
Jetzt mal eine Frage von mir als mehr oder minder Computer Laie die mich schon länger interessiert.
Ich möchte einfach bei gewissen Diskussionen auch endlich mal mitreden können!
Viele Hersteller in der Computerbranche, also sei es PC´s, Smartphone´s, Tablet´s usw. schmeißen ja gerne mit technischen Daten
nur so um sich. Es wird eigentlich fast immer nach dem Motto "Mehr ist besser" die CPU´s und der Arbeitsspeicher immer weiter aufgerüstet.
Nun möchte ich einfach mal wissen, wie entscheidend das ganze für die Praxis wirklich ist, bzw. welche Vor und auch Nachteile sich dadurch ergeben.
Als Beispiel möchte ich einfach mal zwei Smartphone´s aufzeigen.
Gerät A hat einen Dual Core Prozessor mit 1 Ghz und Gerät B meinetwegen einen Quard Core oder gar Octa Core mit 1,5 Ghz.
Ist jetzt automatisch das Gerät B besser, nur weil es (theoretisch) die deutlich höhere Taktfrequenz aufweist?
Bedeutet Dual Core in diesem Fall dann 2x 1Ghz und Octa dann automatisch 8x1,5 Ghz also das 6 fache der "Leistung"?
Wenn ja, warum schneiden in Benchmark Test´s unter Umständen Geräte mit vermeintlich deutlich schwächeren CPU´s besser ab
als die, die auf dem Papier weit überlegen sind?
Benchmark Test´s geben doch die maximal erzielbare Arbeitsgeschwindigkeit des jeweiligen Gerätes an, oder nicht?
Ich denke Dani und auch andere User hier im Forum können mir da bestimmt weiterhelfen...

Verfasst: Fr 15. Mär 2013, 21:58
von dubdidu
Es kommt immer wieder auf die Leistung des Gesamtsystems an. Bei PCs z.B. ist es oft so, dass die Festplatte das langsamste Teil im System ist. Was bringt es Dir, wenn der Prozessor fix ist, aber noch Zeit braucht um die Daten auf die HDD zurückzuschreiben... das lässt sich beliebig fortführen. Wie weit ist das Betriebssystem optimiert und wie gut sind die Treiber oder wie effizient sind die Prozessoren aufgebaut und ins Betriebssystem eingebunden etc...
Oder eine hohe MP-Anzahl bei Digitalkameras... relevanter ist die Optik und die Größe des Sensors im Verhältnis zu den MP. Mehr MP bedeutet im Umkehrschluss nicht, dass es besser ist...
Genauso, was bringen Dir 1.000 PS bei einem Fronttriebler mit 155er Asphalttrennscheiben, die die Leistung nicht auf die Straße bringen können...
Verfasst: Sa 16. Mär 2013, 08:45
von DanielaE
@marco:
Ad 1: Benchmarks sind nützlich, solange man sich dessen bewußt ist, was da gemessen wird und klar ist, daß das Meß-Szenario für den geplanten Einsatzfall relevant ist. Üblicherweise kann Otto Normalbürger beides nicht einschätzen oder benennen.
Ad 2: Mehr Cores bzw. Hardware-Threads bringen nur dann etwas, wenn das OS sinnvolles mit anzufangen weiß und auch darauf ausgelegt ist. Anderenfalls kann das sogar meßbar schaden (Beispiele: Windows XP oder manches MacOS auf modernen Quadcore-CPUs mit Hyperthreading und ggf. sogar noch NUMA). Die jeweils modernsten Versionen der verschiedenen OS sind hier typischerweise klar im Vorteil.
Ad 3: Mehr Cores dienen vor allem dazu, die Verlustleistung in Zaum zu halten. Die Core-Inflation bei den ARM-Prozessoren (Phones, Tablets) gibt es nur aus diesem Grund. Hier geht man inzwischen so weit, daß jeder logisch verfügbare Prozessorkern jeweils doppelt in zwei verschiedenen Prozeßtechnologien und Kernarchitekturen implementiert wird (big.LITTLE Konzept). Je nach Last arbeitet dann der eine oder der andere Kerntyp - oder auch garnicht, wenn hochkarätiges Powergating implementiert und vom OS genutzt wird. Damit wird es möglich, immer die minimale Menge an Energie für eine aktuell anstehende Aufgabe einzusetzen und somit entweder längere Batterielaufzeiten oder kleinere bzw. leichtere Geräte ohne merkliche Abstriche an die Schwuppdizität (gefühlte Geschwindigkeit) zu ermöglichen: der Kunde möchte zwar immer mehr Funktionalität mit sich herumtragen, hat aber im Allgemeinen Einwände gegen die Garstufe
well done seiner Finger
Ad 4: Festplatten sind so gut wie nie limitierende Faktoren, außer es geht um viele parallele Zugriffe auf eine Unmenge an Dateien gleichzeitig. Wer nicht gerade Softwareentwickler ist hat dieses Anwendungsszenario typischerweise gerade mal beim Start des OS. Ansonsten werden Latenzen und Bandbreiten über eine ausgeklügelte Hierarchie von Caches und Schreibpuffern weitgehend versteckt. Es gibt Benchmarks, die hier Unterschiede aufzeigen können, aber diese Benchmarks sind in 99,99% der Fälle irrelevant (die übrigen 0,01% Fälle sind die Stammtischdiskussionen

) Auch hier helfen mehr CPU-Cores bis zu einem gewissen Grad.
Ad 5: im Phone/Tablet-Bereich ist Stand der Technik - querbeet über alle OS - eine butterweiche Bedienoberfläche, welche aber vor allem ein Ergebnis zunehmender Reife der OS und der verstärkte Einsatz leistungsfähiger
GPUs ist. Entscheidend für die Schwuppdizität ist deshalb weniger eine einzelne Maßzahl wie Kern-Anzahl oder maximale Taktrate, sondern das Gesamtpaket. Wenn die beteiligten Komponenten gut aufeinander abgestimmt sind, freut sich der Anwender. Anderenfalls freut sich vor allem die Marketingabteilung.
Wer sich tiefer in diese Materie einarbeiten möchte, dem seien zwei Artikel von Herb Sutter empfohlen: "The free lunch is over" und "Welcome to the jungle".
PS: dieser Beitrag wurde ohne den Mißbrauch unschuldiger Akzentzeichen
´ als Auslassungszeichen
' verfaßt und ist frei von grammatikalisch falschen Apostrophe'n.
Verfasst: Sa 16. Mär 2013, 10:03
von Loewengrube
DanielaE hat geschrieben:(...) dieser Beitrag wurde ohne den Mißbrauch unschuldiger Akzentzeichen ´ als Auslassungszeichen ' verfaßt und ist frei von grammatikalisch falschen Apostrophe'n.

Verfasst: Sa 16. Mär 2013, 10:55
von Agena
DanielaE hat geschrieben:Ad 4: Festplatten sind so gut wie nie limitierende Faktoren, (...)
Dem möchte ich doch etwas widersprechen: Die CPU's machen Berechnungen in µsekunden, und wenn etwas von der HDD gelesen werden soll ist eine mittlere Zugriffszeit von 8ms eine gefühlte Ewigkeit für den Prozessor. Eine SSD kann hier gewaltige Verbesserung bringen, sofern es bemerkt wird: Eine Verbesserung von 50ms auf 15ms wird wohl niemand bemerken. Aber wenn statt 5sec nur noch 1.5sec benötigt werden macht es doch einen Unterschied für die Schwuppdizität.
Verfasst: Sa 16. Mär 2013, 11:21
von DanielaE
Deswegen der zweite Halbsatz, den du nicht mitzitiert hast. Selbstverständlich gibt es Einsatzfälle, in denen eine SSD um Klassen besser ist als eine Magnetplatte. Ich selbst möchte das nicht mehr missen. Aber das Vorkommen dieser Fälle ist bei den meisten Anwendern doch sehr übersichtlich. Doch egal: der Einbau einer SSD in ein bestehendes System ist eine fast todsichere Möglichkeit, sich ein dümmlich-breites Grinsen ins Gesicht zu tackern.

Verfasst: Sa 16. Mär 2013, 11:45
von dubdidu
Es ist aber nun mal so, dass die Festplatten (keine SSD) die begrenzende Komponente in einem PC ist... der Prozessor schläft regelmäßig vor sich her...
Verfasst: Sa 16. Mär 2013, 15:07
von Agena
jetzt sind wir bei deinen 0.01% und den Stammtischdiskussionen...

Beim Surfen oder Office-Betrieb merkt man keinen Unterschied ob eine HDD oder SSD am Werke ist. Aber wenn sich die Programme um Faxtor X schneller öffnen, fällt das jedem auf, dazu braucht man keinen Benchmark deuten. Sogar meine Schwester freut sich das ihr Ultrabook so schnell hochfährt, obwohl sie nicht weiß was alles dahinter steckt. Eine SSD in meinen Firmenrechner würde mir im Jahr knapp einen ganzen Arbeitstag an Warterei ersparen, nur weil die Kiste mit dem Hochfahren und Starten der ersten Programme so beschäftigt ist.
Re: Wie maßgebend ist die Anzahl der Prozessorkerne wirklich
Verfasst: Sa 16. Mär 2013, 15:27
von dubdidu
Schafft Euch einen Mac an. Den brauchste gar nicht mehr runterfahren. Genau von den Schreib- und Lesezugriffen rede ich.
Verfasst: Sa 16. Mär 2013, 15:49
von Pretch
Versteh die Diskussion garnich. Jeder der mal einen Rechner mit SSD aufgerüstet hat weiß daß er damit deutlich snapier läuft. Bestätigt ja jeder hier auf die eine oder andere Weise.
Daß man das bei den Windows Kisten vor allem beim hochfahren merkt liegt sicher dran daß die dort eben normalerweise ewig rödeln. Das setzt sich aber in der kompletten Bedienung fort.
Im Haushalt meiner Schwester gibts zwei identische MacBook Pro, ihrs und das ihres Mannes. Seins haben wir mit ner SSD ausgestattet.
Richtig bemerkbar macht sich das nur bei großen Dateien, aber auch sonst ist es immer einen Tick schneller, was sich jedoch beim zügigen Arbeiten viel besser anfühlt.
Verfasst: Sa 16. Mär 2013, 17:39
von Marco83
Danke für Deinen Beitrag Dani
Und das tatsächlich komplett ohne unschuldiger Akzentzeichen und Apostrophen...

Verfasst: So 17. Mär 2013, 10:50
von MrMetz
Genauso wie eine langsame HDD u. U. einen schnellen Prozessor ausbremst, wird aber auch eine schnelle SSD durch einen langsamen Prozessor ausgebremst. Daher liest man sehr oft die Empfehlung eine SSD erst ab einem Dual Core Prozessor nachzurüsten. Bei vielen Netbooks mit Atom-CPU macht es beispielsweise keinen wirklichen Sinn (außer in Spezialfällen).
Ich will auf eine SSD nicht mehr verzichten. Es ist schon ein Unterschied, ob der Virenscanner über eine Stunde am Arbeiten ist (HDD) oder das komplette System innerhalb von 15 min durchscannt (SSD).
Letztlich hängt die Frage ob SSD oder nicht, Anzahl der Prozessorkerne und Größe des Arbeitsspeichers immer vom Einsatzzweck und auch vom Geldbeutel ab. Und das Gesamtsystem ist entscheidet, wie ja bereits geschrieben wurde.
- Die verwendetet Software muss von der Leistungsfähigkeit der Hardware profitieren können. Leider können viele Windows-Programme immer noch nur einen Kern sinnvoll verwenden. Bei einem 32 bit OS ist bei max. 4 GB Arbeitsspeicher schluss, egal wie viel mehr eingebaut ist.
- Für Spiele ist meist die Graphikkarte entscheidender als der Prozessor. Auch neuere Anwendungsprogramme verwenden Funktionen der Graphikkarte (Hardware-Bescheunigung beim Abspielen von HD-Videos, Verschlüsselungsfunktionen etc.). Nützt naturlich nur etwas, wenn die Hardware es kann und die Software es auch verwendet. Auch ein langsamer Prozessor kann eine schnelle Graphikkarte ausbremsen und umgekehrt.
- Viele Berechnungen (z.B. Videocodierung) wurden früher per Software gemacht. Heute übernehmen das oft sezielle Hardwareschaltungen in Prozessor oder Graphikchip, die speziell dafür optimiert sind und die Berechnungen wesentlich schneller und effizienter ausführen können.
- Prozessoren einer neueren Generation sind oft trotz gleicher Kernzahl und Taktfrequenz effizienter und schneller/leistungsfähiger (z.B. wegen spezieller Codierschaltugen und besseren Stromsparfunktionen).
- Benchmarks zielen oft auf spezielle Funktionen ab (CPU-lastig, Graphik-lastig, Speicher), können beim Vergleich verschiedener Systeme helfen, sagen aber aus meiner Sicht nicht viel über den tatsächlichen Einsatzzweck aus. Brauche ich für meine Programme wirklich so leistungsfähige Hardware?
- Ein moderner Computer langweilt sich die meiste Zeit. Die geballte Rechenkraft wird nur selten abgerufen. Daher reicht für die meisten Anwender schon ein 5 Jahre alter PC locker aus. Beim Neukauf sollte die Energieeffizienz im Leerlauf/Standby entscheidener sein als die maximale Rechenleistung (natürlich je nach Anwendungsfall). Aus Umweltgesichtspunkten lohnt es aber nicht ein altes System zu ersetzten nur weil das neue etwas effizienter ist (Ressourcenverbrauch bei Herstellung und Transport).
- Gerade bei Mobilgeräten spielt das Gesamtsystem eine wichtige Rolle. Leistungsfähigkeit (flüssige Bedienoberfläche), lange Akkulaufzeit und natürlich Größe/Gewicht sind hier wichtige Spannungsfelder. Hier den richtigen Kompromiss zu finden geht oft nur mit Tricks und dem geziehlten Weglassen von Funktionen.