Danke für die Darstellung. Ich hatte das mal vor Ewigkeiten ausgerechnet und war auch auf den Faktor 100.000 gekommen, dabei ging es aber wohl um die Zugriffszeit nicht die Transferrate (wie Du völlig richtig schreibst).
Das Zugriffsmuster bei PS-Scratchdisks schätze ich aber eher als sequentiell ein.
Dann habe ich aber gesehen, dass Festplatten inzwischen nicht mehr mit 2 oder 20 MB/s arbeiten sondern mit erstaunlichen 100 MB/s.
Das Speicherinterface eines modernen Prozessors, kann, wie Du schreibst inzwischen gut 8 Gigabit Pro Sekunde durchsetzen, also Ein Gigabyte/s oder ein Faktor 10 zur Festplatte. Die Festplatten sind inzwischen so flott geworden, dass man das sATA-Interface prophylaktisch schon auf 3 GBit/s aufbohren musste.
So kommt meine Überlegung zu Stande, dass die Scratchdisk eines älteren Rechners eventuell der Flaschenhals für die PS-Performance darstellt.
Meine Applikationen haben durchaus schon einmal die 40-GB-Scratchdisk komplett gefüllt (besonders die Panoramasoftware ist da ganz prima drin). Und auch Photoshop schaufelt einige Gigabytes, wenn man mit großen Dateien arbeitet (selbst wenn man den undo-buffer auf 2 Schritte begrenzt).
Danke noch mal
Frank
Das Zugriffsmuster bei PS-Scratchdisks schätze ich aber eher als sequentiell ein.
Dann habe ich aber gesehen, dass Festplatten inzwischen nicht mehr mit 2 oder 20 MB/s arbeiten sondern mit erstaunlichen 100 MB/s.
Das Speicherinterface eines modernen Prozessors, kann, wie Du schreibst inzwischen gut 8 Gigabit Pro Sekunde durchsetzen, also Ein Gigabyte/s oder ein Faktor 10 zur Festplatte. Die Festplatten sind inzwischen so flott geworden, dass man das sATA-Interface prophylaktisch schon auf 3 GBit/s aufbohren musste.
So kommt meine Überlegung zu Stande, dass die Scratchdisk eines älteren Rechners eventuell der Flaschenhals für die PS-Performance darstellt.
Meine Applikationen haben durchaus schon einmal die 40-GB-Scratchdisk komplett gefüllt (besonders die Panoramasoftware ist da ganz prima drin). Und auch Photoshop schaufelt einige Gigabytes, wenn man mit großen Dateien arbeitet (selbst wenn man den undo-buffer auf 2 Schritte begrenzt).
Danke noch mal
Frank
AndyE schrieb:Frank,
das war leider in der Vergangenheit nicht wahr, ist es heute nicht und wird morgen noch viel weniger sein.
Lass es mich erklären.
Es gibt 2 wesentliche Datenraten:
Sequentiell: Eine gute Platte hat heutzutage eine Leserate von ca. 100MB/sec wenn die Daten wirklich hintereinander auf der Platte liegen.
Random(zufällig): Eine Desktopplatte schaft ca. 50-60 Zugriffe pro Sekunde, die zufällig über der Oberfläche verteilt sind. Wenn bei jedem dieser Zugriffe 64KB übertragen werden, fällt die Leserate der Platte auf 3-4 MB/s zusammen.
Der in diesem Thread besprochene Quad Prozessor (Q6600) hat eine maximale Speicherbandbreite von 8,5 GB/sec. Somit hast Du im besten Fall (weniger als 1% aller Festplattenzugriffe) ein Verhältnis von ca. 85:1. Der Großteil aller Zugriffe auf der Platte ist über die Oberfläche verteilt. Dabei ist das Verhältnis ca. 2000:1
Noch schlimmer ist es bei der Zugriffszeit(von der Anfrage bis zum ersten Datensatz): Hier hat sich bei den Festplatten in den letzten Jahren so gut wie gar nichts getan - es wird immer mehr zum Flaschenhals der HD Leistung. Ein Datensektor von der Platte zu lesen dauert im Durchschnitt ca. 9-10ms, das erste Datenbyte aus dem RAM ca. 50ns. Verhältnis hier 200.000:1
Warum glaubst du gibt es mittlerweile die ganzen Cache Speicher?
Viele Analysten behaupten, daß bei gegenwärtigen Technolgietrend die Platten immer mehr den ehemaligen Magnetbändern ähnlich werden und die Flashdisk in Zukunft die Rolle der heutigen Harddisks übernehmen werden.
LG,
Andy
PS: Wir haben in der Firma einen Datenbankserver mit ca. 500 Platten (alles 15k rpm). Erst bei dieser Anzahl kommt es zu einer Sättigung der 4 Dual Core Xeons und des Hauptspeichersubsystems (gilt zumindest für diese Datenbankanwendung).