Testbericht Wer hat den neuen Mac Pro - Computer Performance Test zum vergleichen?

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.
Der neue (noch nicht erhältliche) Dell-Monitor mit der gleichen 5K-Auflösung soll ebenfalls 2.500 $ kosten. Aber eben nur der Monitor, ohne den Rechner mit drin. Und ob der dann auch ein mit der Frontscheibe laminiertes und im Werk kalibriertes Display haben wird, ist fraglich.
 
Kommentar
Anzeigen
Was mich gerade noch interessiert, vielleicht kann mir das ja jemand logisch beantworten...auch wenn mir klar ist, dass es hierfür noch keine Bestätigung geben kann.

Wie ist das nun, wenn man Lightroom z.B. offen hat, haben nun auf der rechten Seite mehr Einstellungsregler Platz, da ja 10 Pixel nun dichter beieinander sind oder werden die Regler gleich gross bleiben weil sie hochskaliert werden?
 
Kommentar
Was mich gerade noch interessiert, vielleicht kann mir das ja jemand logisch beantworten...auch wenn mir klar ist, dass es hierfür noch keine Bestätigung geben kann.

Wie ist das nun, wenn man Lightroom z.B. offen hat, haben nun auf der rechten Seite mehr Einstellungsregler Platz, da ja 10 Pixel nun dichter beieinander sind oder werden die Regler gleich gross bleiben weil sie hochskaliert werden?

Nach meinem Verständnis bleiben bei Retina Schriften und Bedienelemente gleich groß (also gut benutzbar) während die hohe Auflösung für Grafikinhalte benutzt wird um dort maximale Schärfe und Brillianz zu erlauben.

(Natürlich wird auch bei Schriften und Bedienelementen Antialiasing gemacht, dass diese auch schick glatt und scharf aussehen.)
 
Kommentar
Was mich gerade noch interessiert, vielleicht kann mir das ja jemand logisch beantworten...auch wenn mir klar ist, dass es hierfür noch keine Bestätigung geben kann.

Wie ist das nun, wenn man Lightroom z.B. offen hat, haben nun auf der rechten Seite mehr Einstellungsregler Platz, da ja 10 Pixel nun dichter beieinander sind oder werden die Regler gleich gross bleiben weil sie hochskaliert werden?
Ich hatte, was auch Wuxi schrieb, hier im Thread schon kurz vor Vorstellung des 5k iMacs erklärt.

Man kann, glaub ich, über nen Hack (QuickRes) die Retina-Auflösung auch in volle 5k umstellen und bekommt dann die winzigen Bedienelemente der hohen Auflösung. Ich rate davon aber ab, rate also zur "Best for Retina" Einstellung.

Es ist also eine lokale Entscheidung der Software, wie sie die volle Auflösung von Retina verfügbar macht. Meines Wissens nutzt z.B. Lightroom im Image-Fenster die volle Retina-Auflösung, aber ob bei 1:1 oder 2:1, habe ich nie ausprobiert (arbeite nur mit ext. Monitoren).

Logisch wäre, dass LR ab 1:1 nicht mehr die volle Retina Auflösung nutzt, damit das Bild in gleicher Größe im Vergleich zu einem Nicht-Retina Display angezeigt wird. Denn die Idee von Retina ist ja, dass die Anzeige schärfer und nicht kleiner im Vergleich zu älterer Technologie ausfällt. Das steht sicher so auch in den Apple Programmierrichtlinien. Frage ist halt, ob Adobe es tatsächlich so macht. Frage wäre dann auch, ob Noise-Reduction Preview dann auch schon ab 2:1 geht. Kann ja vielleicht jemand hier beantworten ;)
 
Kommentar
Wie verhält es sich denn bei unterschiedlichen Prozessorarchitekturen? Unterscheiden sich die 3GHz eines i7 mit denen eines Xeon prozessors oder z.b eines i7 Haswell?
Die 3 GHz unterscheiden sich nicht zwischen den Architekturen, 3GHz sind 3 GHz. Welche Leistung aus einer Prozessorarchitektur herausgekitzelt wird hängt von sehr vielen Faktoren ab.

  1. Verwendet die Anwendung die unterschiedlichen architektonischen Verbesserungen optimal aus? (Es nutzt nichts ,wenn eine Architektur den AVX Befehlsatz hat und die SW ihn nicht verwendet)
  2. CPI = Clocks per Instructions. Wieviele Taktzyklen werden für eine Instruktion benötigt? Hängt von der Balance HW und Microcode ab (den Intel für die CPU Familien unterschiedlich gestaltet)
  3. ILP = Instruction Level Paralellism. Wieviele Maschinenbefehle kann der Scheduler einer CPU gleichzeitig absetzen (Wenn zum Beispiel 2 Additionseinheiten vorhanden sind, oder 2 Speichercontroller)
  4. Issuing rate vs. throughput. Praktisch alle CPUs haben eine Pipelinearchitektur. Nicht umsonst geben die technischen Unterlagen die Rate an, wie oft ein bestimmter Befehl gestartet werden kann und den zweiten Wert, wie lange er braucht, bis er fertig ist
  5. Branch prediction and Branch miss cache. Programme habe recht häufig Verzweigungen. Wieviele Instruktionen schaut die Instruktionseinheit voraus um die Wahrscheinlichkeit der Verzweigung feststellen zu können.
  6. Threadlevel parallelism. Wie gut geht die CPU mit parallelen Threads in einem Programm um?
  7. Bandbreiten der verschiedenen Speicherhierachiestufen (Register/L1/L2/L3/MainMemory)
  8. Effizienz systemimmanenter Caches (zBsp virtuelle Speicherverwaltung, I/O Addressmapping)
  9. Bei Dual und Multisocketsystemen, die Effizienz der NUMA Verbindungen und Verwaltung (bei Intel QPI)
  10. Die Verschlechterung der Rechenleistung bei durchsatzbezogenen Aufgaben wenn Hyperthreading eingeschaltet ist (Bei HPC Anwendung stellt man üblicherweise Hyperthreads ab. Die Speicherbandbreite pro Core ist eh schon grausam schlecht. Mit Hyperthreading wird es noch schlimmer)
  11. Das Thermalmanagement und Leistung. Moderne CPUs regeln die Taktfrequenz dynamisch nach Last/Energieverbrauch und Temperatur. Spendiere deiner CPU einen effizienteren Kühler und die Leistung geht bis zu 30% hinauf wenn es eine anspruchsvolle Anwendung ist. LR ist in diesem Sinne nicht anspruchsvoll)
  12. Sleepstates beeinflussen die Performance. Die verschiedenen Sleepstates der Intel CPU's C0/C1/C2//C3/... benötigen eine Aufwachzeit. Bei Benchmarks drehen sie manche ab. Bei variabler CPU Auslastung kann das 10-15% ausmachen
  13. usw usf.
Um auf deine Frage zurück zukommen:

Die XEON Prozessoren mit der gleichen Mikroarchitektur wie die i7 CPUs sind in weiten Teilen auf gleicher Leistungsebene, der größte Unterschied ist hier im I/O Bereich zu sehen (zBsp die dynamische Cache Partitionierung, die nur XEON CPUs haben)

CPUs mit moderner Mikroarchitektur sind aufgrund der o.a. Faktoren typischerweise bei gleicher Taktfrequenz flotter

Der Haupteinschränkungsfaktor ist die Qualität der Anwendungssoftware. Das Betriebsystem kann einer Anwendung 32 CPU Kerne anbieten. Wenn die Anwendung nur 4 verwendet, dann sind es halt nur 4. Kümmert sich der Anwendungsprogrammierer nicht um die CPU Affinität, dann fliegen die 4 Threads laufend von einer CPU zur anderen. Damit ist das Cache Trashing verbunden, daß zusätzlich sehr viel Leistung kostet.

Die negativen Auswirkungen auf die Leistung einer Anwendung auf einem NUMA System (zBsp 2 CPU Sockets mit jeweils eigenem Speicher) möchte ich hier gar nicht anführen.

Deshalb sind Softwarepakete die auf hohe Leistung ausgelegt so programmiert, daß sie zum Start die HW genau analysieren und dann entsprechend ihre Algorithmen dynamisch an die HW anpassen. Zbsp. checken Datenbanken welchen LRU Level hat der L1 Cache und wie breit ist eine Cachezeile die er verwalte, wie hoch ist die Latenz beim Schreiben und Lesen im Verhältnis zu den anderen Cachebenen und Hauptspeicher. Abhängig von diesen Werten werden die zu bearbeiteten Datenmengen so gestückelt und geblockt, daß sie optimal in die jeweils beste Cacheebene passen.

Um auf parallelen Systemen die maximale Leistung zu erzielen führt kein Weg an expliziter Parallelisierung im Anwendungsprogramm vorbei. Da kann das Betriebsystem noch so toll und effizient sein.

Der o.a. Test ist ein Durchsatztest, Benutzer sollten hier abwägen wie hoch der interaktive Teil ihrer Arbeit am PC/Mac ist, der hier nicht gemessen wird(Design for Latency). Ich meine die "Schwuppzität" die mit derzeitigen Anwendung a la LR eher mit hochgetakteten CPUs und vgls wenig Kernen (4 reichen) als mit 48 Kernen kommen. Die wären für hohen Durchsatz bei entsprechender SW besser geeignet.

Die Systembottlenecks außerhalb der CPU (Motherboard, SSD Anbindung und dgl) lasse ich mal aussen vor.

Zu den Beschränkungen von Benchmarkprogrammen nur eine kleine Anektode. Bei meinen Projekten vor 2 Jahren die ich zu Hause durchführte konnte mit einer Ausnahme kein einziges SSD Benchmarkprogramm (Crystal DiskMark, Anvil, ...) die Leistung meines 48 drive SSD Arrays erfassen. Die Benchmarkwerte waren ggü der realen Leistung um den Faktor 10 daneben. Lasst euch von Benchmarks nicht meschugge machen :)

Liebe Grüße,
Andy
 
Kommentar
Ich hatte, was auch Wuxi schrieb, hier im Thread schon kurz vor Vorstellung des 5k iMacs erklärt.

Man kann, glaub ich, über nen Hack (QuickRes) die Retina-Auflösung auch in volle 5k umstellen und bekommt dann die winzigen Bedienelemente der hohen Auflösung. Ich rate davon aber ab, rate also zur "Best for Retina" Einstellung.

Es ist also eine lokale Entscheidung der Software, wie sie die volle Auflösung von Retina verfügbar macht. Meines Wissens nutzt z.B. Lightroom im Image-Fenster die volle Retina-Auflösung, aber ob bei 1:1 oder 2:1, habe ich nie ausprobiert (arbeite nur mit ext. Monitoren).

Logisch wäre, dass LR ab 1:1 nicht mehr die volle Retina Auflösung nutzt, damit das Bild in gleicher Größe im Vergleich zu einem Nicht-Retina Display angezeigt wird. Denn die Idee von Retina ist ja, dass die Anzeige schärfer und nicht kleiner im Vergleich zu älterer Technologie ausfällt. Das steht sicher so auch in den Apple Programmierrichtlinien. Frage ist halt, ob Adobe es tatsächlich so macht. Frage wäre dann auch, ob Noise-Reduction Preview dann auch schon ab 2:1 geht. Kann ja vielleicht jemand hier beantworten ;)

Nur damit ich dies nun richtig verstehe: ein 12MP grosses Bild könnte z.B. in Originalgrösse auf dem Bildschirm angezeigt werden und man hätte noch etwas Platz aussen herum? Der Monitor hat ja etwas über 14 MP
 
Kommentar
Lasst euch von Benchmarks nicht meschugge machen :)

Liebe Grüße,
Andy

Danke für deine Ausführlichen Erklärungen. Ich persönlich lege auch nicht unendlich viel Wert auf Benchmarks, es ging mir hier eher darum mal ein bisschen meinen Computer mit anderen vergleichen zu können, um mir so meinen Kaufentscheid etwas genauer zu überlegen :)

Gruss
Edi
 
Kommentar
Der o.a. Test ist ein Durchsatztest, Benutzer sollten hier abwägen wie hoch der interaktive Teil ihrer Arbeit am PC/Mac ist, der hier nicht gemessen wird(Design for Latency). Ich meine die "Schwuppzität" die mit derzeitigen Anwendung a la LR eher mit hochgetakteten CPUs und vgls wenig Kernen (4 reichen) als mit 48 Kernen kommen.

Andy, danke für deine Ausführungen.

Bzgl. der Darlegungen ist einigen hier im Thread das Dargelegte allerdings durchaus bekannt, und mir ist bewusst, dass es in Wien zum Thema geballte Kompetenz gibt. Insofern vielen Dank.

Allerdings ist der o.a. Benchmark (von mir) bewusst so ausgewählt, weil er eben besagte "Schwuppzität" misst. LR arbeitet eben den Export-Job NICHT parallel, sondern seriell ab. Das ist auch gar nicht so dumm, geht man davon aus, dass der Anwender parallel zum Export weiterarbeitet. Und ist daher ein gutes Maß, wie schnell LR auf einen einzelnen interaktiven Verarbeitungsschritt reagiert. Nutzt LR hierfür mehrere Threads, um die Pixel des ImagePanes zu rendern, so würde sich dies aucvh im Export zeigen und der Benchmark bleibt ein gutes Maß. Es zeigt sich, dass LR sowohl beim Export als auch interaktiven Arbeiten nur 2-4 Threads nutzt.

Damit ist die Tabelle oben genau für deine Schwuppzität relevant.

Für andere Aufgaben, wie z.B. 4k-Schnitt, würde sich eine andere Rangfolge ergeben.
 
Kommentar
Hallo Falk,
danke für deine Erklärungen.

Darf ich dich ersuchen den Test mal nur mit einem aktiven Kern zu machen. Wie verändert sich die Laufzeit?

Bei Windows kann man beim Start die Coreanzahl wie folgt festlegen.
Msconfig -> start tab -> Erweiterungen -> Core Anzahl eingeben -> neu starten.

Das Verhältnis würde mich interessieren.

Vielen Dank,
Andy
 
Kommentar
Hi Andy, bei meinem alten Core Duo wohl nicht so interessant, unter MacOSX müsste ich auch erst die genaue Befehlszeile suchen.

Aber weiter oben im Thread (Post #44) gibt es Beispiele mit Lastprofilen/Core und Angaben des Speedup, wenn man mehrere LR-Exporte parallel fährt. Daraus lässt sich die Single Core Performance berechnen. Rechnerisch ergibt sich so 1/2.45 des gelisteten Benchmarkwertes, in der Praxis wird er wegen Turboboost und Speicherbandbreite signifikant besser ausfallen.
 
Kommentar
AW: Lightroom Benchmark Tabelle

Habe den Test grade nochmal mit Mac OS X 10.10. wiederholt. Ergebnis nahezu identisch. 7s Unterschied hören sich jedenfall nicht nach grossen optimierungen im Betriebssystem an.

--->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8---
Lightroom Benchmark Tabelle 128 D800/e RAWs zu JPG
Laufzeit (sec)
|
Hardware
|
Software​
|
OS​
|
Quelle​

438 | Win7-PC 2014 4core 4.7ghz i7 (Devil's Canyon) 16GB SSD | LR 5.6 | | soundwave |
516 | (0.74*A) nMP MacPro Late 2013 6core 3.5GHz D500 16GB SSD | LR 5.3 | | tony-hart.com
560 | Win-PC 2012 i7 3,5GHz 4core 32GB 256GB SSD | LR 5.6 | Win7-64bit | seamaster
565 | MacPro 2013 6core 3.5GHz D500 64GB SSD | PS/ACR | | macperformanceguide.com
579 | (0.83*A) iMac 27" Late 2013 4core 3.5GHz NVIDIA 8GB SSD | LR 5.3 | | tony-hart.com
628 | 4core i7-4770k 3.5GHz 32GB SSD | LR 5.6 |Win 8.1| jw500
662 | rMBP 15" Late 2013 2.6GHz 16GB SSD | PS/ACR | | macperformanceguide.com
697 | (1.00*A) iMac 27" Mid 2011 4core 3.4GHz Radeon 16GB SSD | LR 5.3 | | tony-hart.com
725 | (=1.05A) iMac 27" Mid 2011 4core 3.4GHz Radeon 6970M/1GB 16GB HDD | LR 5.6 | OSX 10.10 | kafenio
732 | (=1.05A) iMac 27" Mid 2011 4core 3.4GHz Radeon 6970M/1GB 16GB HDD | LR 5.6 | OSX 10.9 | kafenio
732 | MacPro 2013 4core 3.7GHz D300 64GB SSD | PS/ACR | | macperformanceguide.com
842 | iMac 27'' 2009 4Core 2.93Ghz i7 12GB 1TB SSD | LR 5.6 | | boxershorts
916 | MBPr 13" Early 2013 3,0GHz i7 8GB, 512GB SSD | LR 5.6 | OSX 10.9.5 | seamaster
2533 | MBP 15" Mid 2010 2.7GHz Nvidia330M 8GB SSD | LR 5.6 | OSX 10.8.5 | falconeye
3661 | MBP 13" Early 2011 2.7GHz 16GB | LR | | Burkard

305 | nMP 2013 6core 3,5GHz XEON E5 16GB, 512GB SSD | Aperture 3.5.1 | OSX 10.9 | Wuxi
538 | iMac 27" Mid 2010, 4Core 2,8GHz i7, ATI HD5670, 24GB RAM, 750GB SSD | Aperture 3.5.1 | OSX 10.9.5 | Latte |
--->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8----->8---[/QUOTE]
 
Kommentar
AW: Lightroom Benchmark Tabelle

7s Unterschied hören sich jedenfall nicht nach grossen optimierungen im Betriebssystem an.

Das Betriebssystem ist ja auch kaum involviert ;)
Man kann hier also nicht auf Optimierungen oder ihre Abwesenheit schliessen.

Wenn jemand optimieren müsste, dann Adobe. Und da ich auch so manches Mal als Berater für Performancetuning herhalten musste, sage ich, dass da noch viel Potential steckt, auch ohne Nutzung der GPUs.

Wenn das Rendern von 128 D800E Images auf einer 4 GHz 4 Core Maschine 500s braucht, so sind dies (Adam Riese) 1720 Cycles je Pixel. Dies ist ein erschreckend hoher Wert, zumal alle nichtlokalen Operationen (Demosaicing, Schärfung, Noise Reduction) einen kleinen Radius haben, überschaubar und gut optimierbar sind. Mit GPU-Unterstützung dieser nichtlokalen Operationen (GPU haben heute für so etwas die 100-fache Leistung) wäre eine Beschleunigung um den Faktor 100-1000 denkbar, wobei dann die Speicher- und IO-Bandbreiten dies wohl auf den Faktor 10 deckeln würden ...

Hier mal ein Beispiel. Mein eigener Denoiser vs. dem in LR (der beim Export noch gar nicht aktiv ist).

(click for full 100% crop)​

Auf meiner Gurke benötigt mein Denoiser (LumoLabs Denoise) trotz Java 11s (ohne Lesen der 200MB Tiff-Datei), der LR-Export je Bild 20s. Das Bild oben soll nur zeigen, dass beide in etwa das gleiche tun, beide auch viel besser als LR bis Version 2. Von meinem Code weiss ich genau, wie viel schneller ich den machen könnte ...
 
Kommentar
-Anzeige-
Zurück
Oben Unten