D700, bin ich der einzige der nicht alles toll findet?

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.
Anzeigen
Deshalb, ihr lieben Cam-Hersteller, wie wäre es mal mit einer autarken Zusatzkarte für den Rechenknecht, die die RAW-Konvertierung kameralike in Sekundenbruchteilen erledigt?

Ich meine irgendwo gelesen zu haben, daß Apple Aperture in der neuen Version die GPU der Grafikkarte zu solchen Zwecken mit nutzt. Das dürfte auch der einzige sinnvolle Ansatz in der Richtung sein, wobei Apple natürlich den Vorteil minimaler Vielfalt bei der Zielhardware hat.

Maik
 
Kommentar
Wer die Abschaffung von proprietären RAW-Formaten fordert, der fordert auch, dass den Herstellern die Möglichkeit genommen wird, Alleinstellungsmerkmale in ihre hauseigene Software zu packen. Das hemmt die Innovationsfreude und schadet letztendlich den Endkunden.

Größere Archive hast Du vermutlich auch noch nicht gesehen, denn sonst würdest Du nicht so einen Mist von Dir geben, denn auch wenn nichts plötzlich verschwindet, so ist die Notwendigkeit Archive zu konvertieren, nur weil der Support abgekündigt wurde eine nicht gerade triviale Aufgabe.
Zum Thema gehemmte Innovationfreude: Da quakt man auch einfach mal wieder unreflektiert das Marketinggefasel nach: Man kann sehr wohl offene Standards unterstützen und gleichzeitig innovativ sein sein, wenn man das denn will. Um mir ein DIA anzusehen, habe ich auch keine Speziallampe benötigt - trotzdem wird einem heute eine zweifelhafte Software aufgenötigt, um seine Daten zu sichten.

Und mal nebenbei bemerkt: Ein Scanner liefert auch keine NEFs - trotzdem überbieten sich da die Hersteller mit Features und Innovationen recht kontinuierlich und das obwohl die Interfacespezifikationen direkt an Dritthersteller abgetreten werden, damit die Hardware auch unterstützt werden kann.

Aber über geeignete Archivierungsverfahren zu diskutieren würde imho hier zu sehr OT gehen, deshalb lassen wir das jetzt an dieser Stelle.

BTW:
Ich arbeite so lange im IT-Bereich wie es den IT-Bereich gibt
Ist das beginnender Altersstarrsinn oder einfach nur Ignoranz?

Gruß,

Krusty
 
Kommentar
Um mir ein DIA anzusehen, habe ich auch keine Speziallampe benötigt - trotzdem wird einem heute eine zweifelhafte Software aufgenötigt, um seine Daten zu sichten.

Danke, dass Du mit diesem "Vergleich" mal Dein Knowhow-Niveau klar gestellt hast. Vielleicht führst Du Dir nochmal Deine eigene Signatur zu Gemüte?

Maik
 
Kommentar
Ich meine irgendwo gelesen zu haben, daß Apple Aperture in der neuen Version die GPU der Grafikkarte zu solchen Zwecken mit nutzt. Das dürfte auch der einzige sinnvolle Ansatz in der Richtung sein, wobei Apple natürlich den Vorteil minimaler Vielfalt bei der Zielhardware hat.

Maik


Früher gab es z.B. math. Coprozessoren und aus der Praxis kenne ich diverse Lösungen, die ohne dedizierte Zusatzkarten auf PC/MAC-Basis schlichtweg untragbar wären.

In Hinblick auf Sonys neuen 24 Mpix Sensor dürfte demnächst wohl die beste PC- bzw. MAC-Basis mit dem Rücken an der Wand stehen und genervte User den nächtlichen Batchbetrieb neu erfinden ... egal, meine D2h hat damit garantiert keine Probleme und bei Fuji geht es mit durchaus vertretbaren Abstrichen auch ohne ;)
 
Kommentar
In Hinblick auf Sonys neuen 24 Mpix Sensor dürfte demnächst wohl die beste PC- bzw. MAC-Basis mit dem Rücken an der Wand stehen

Frage, wie werden denn derzeit die Daten einer Hasselblad mit 39MP oder die zukünftigen 50 verarbeitet? Mit nem Supercomputer?
 
Kommentar
Früher gab es z.B. math. Coprozessoren und aus der Praxis kenne ich diverse Lösungen, die ohne dedizierte Zusatzkarten auf PC/MAC-Basis schlichtweg untragbar wären.

Ist mir durchaus bekannt. Ich hab damals zu Amiga-Zeiten auch Transputer programmiert (T800). Die Coprozessoren sind ja heutzutage in jedem Hauptprozessor mit drin und werden daher auch von jeder Software, die nicht mit integer auskommt, einfach benutzt. MMX/SSE/2/3 Erweiterungen waren die nächsten Verbesserungen zur Parallelisierbarkeit und jetzt ist die multicore-Phase angebrochen.

Die Verarbeitung von Bilddaten läßt sich hervorragend parallelisieren, was Spezialprozessoren verzichtbar macht. Wenn Du heute bei Apple einen Mac Pro kaufst, hat der standardmäßig schon 8 Kerne. Derzeit hat die Softwareindustrie ihre Lernphase, mehr als 1-2 Kerne auch auszunutzen, weil man da ganz anders programmieren muß. Wenn die Phase vorbei ist, sind wir vermutlich bei 16 cores im Standard-PC angekommen, und alles wird gut.

Um ein Spezialboard mit FPGAs oder DSPs für Bildbearbeitung zu nutzen, muß man auch ziemlich viel Arbeit in die Softwareseite stecken. Das lohnt sich nicht bei der zu erwartenden Stückzahl. Wird nicht passieren. Aber dass die Rechner immer mehr CPU-Kerne bekommen, hat sich rumgesprochen, und auch bei Nikon gibt es von Version zu Version da Verbesserungen. Mehr als 4 Kerne kann CNX2 derzeit noch nicht auslasten, aber hier man darf hoffen.

Maik
 
Kommentar
Um mir ein DIA anzusehen, habe ich auch keine Speziallampe benötigt - trotzdem wird einem heute eine zweifelhafte Software aufgenötigt, um seine Daten zu sichten.

Um aus dem belichteten Film mal schöne Dias zu machen ist auch proprietäre Chemie und etwas drumherum nötig.

Die Jpegs die am Ende deiner Bearbeitungskette (zu deutsch Workflow) stehen kannst du auch auf fast jedem elektronischen Gerät ansehen...:)


Gruß

Stefan
 
Kommentar
Frage, wie werden denn derzeit die Daten einer Hasselblad mit 39MP oder die zukünftigen 50 verarbeitet? Mit nem Supercomputer?

Nicht die Pixelmenge alleine machts, sondern auch die Güte der Umsetzung und hier sind der Softwareentwicklung verständliche Grenzen gesetzt, wenn der Kunde nicht überstapaziert werden soll. Schnellere Konverter als CNX wären sicherlich nicht das Thema, aber zugleich auch bessere?
 
Kommentar
Nicht die Pixelmenge alleine machts, sondern auch die Güte der Umsetzung und hier sind der Softwareentwicklung verständliche Grenzen gesetzt, wenn der Kunde nicht überstapaziert werden soll. Schnellere Konverter als CNX wären sicherlich nicht das Thema, aber zugleich auch bessere?

Dann hat das ja nichts mit dem 24 MP Sensor von Sony zu tun, sondern der CNX. :confused:

Also ich glaube, das mein Mac mit Aperture weder mit den Hassidaten Probleme hat noch mit den Sony...
 
Kommentar
Seit gestern besitze ich das Wundertier, und der erste Eindruck ist großartig. Seit ich digital fotografiere (anfangs mit einer Minolta Dimage A1, seit 2 Jahren mit einer Nikon D200, parallel dazu mit bisher 3 kleinen Taschenknipsen) habe ich erstmals das Gefühl, wieder einen richtigen Fotoapparat in der Hand zu halten. Eine Kamera, die den Fotografen beim Fotografieren unterstützt, anstatt ihn einzuschränken. Die Kombination aus Sucher und Einstellscheibe ist wieder so gut wie von "analogen" Vollformatkameras gewohnt, die elektronische Scharfstellhilfe erfüllt ihren Zweck, das Gehäuse liegt gut der Hand und macht einen grundsoliden, gut verarbeiteten Eindruck. Ja, es ist "made in Japan" !!

Was die gefürchtete Vignettierung und mögliche Probleme mit der Randschärfe angeht, so habe ich einen kurzen Quick-and-Dirty-Test mit meinem alten Nikkor 1.2/55 mm AI gemacht. Ich besitze die letzte Version dieses Objektivs, die von 1976 bis 1978 gebaut wurde. Als Testobjekte mussten eine weiße Wand (für die Vignettierung) und mein Sicherungskasten (für die Schärfe) herhalten.

Ja, bei Offenblende 1.2 vignettiert das Nikkor 1.2/55 mm AI an der D700, was niemanden überraschen wird, der dieses Objektiv kennt. Ab Blende 2.8 zeigen die Bilder auf dem rückwärtigen Bildschirm der Kamera keine Vignettierung mehr.

Und an der Schärfe (getestet im Nahbereich mit Blitzlicht, um Verwacklungsunschärfen auszuschließen) gibt es offenbar ebenfalls nichts zu meckern. Das Objektiv scheint bei Blende 2.8 feiner aufzulösen als der Chip, denn beim Betrachten mit der Lupenfunktion wurde auf dem rückwärtigen Bildschirm der D700 die Pixelstruktur des Chips sichtbar, bevor die Strukturen meines Testbildes begannen, unscharf zu werden.

Sobald ich ein paar Tage mit dem Gerät unterwegs war und eine ausreichende Menge von Bildergebnissen zur Verfügung habe, werde ich meine Erfahrungen in einem eigenen Thread veröffentlichen. Keine Sorge, ich werde auch Tests mit Superweitwinkeln (Nikkor 4/18 mm AI und Sigma 2.8/14 mm HSM EX) durchführen.

Fürs erste bin ich auf jeden Fall begeistert von der Kamera und bereue den Kaufpreis nicht. DX ist Geschichte - Nikon sei Dank.

Grüßle
Uwe
 
Kommentar
hallo uwe,

zur beurteilung der vignettierung dürfte ein weitwinkel (24mm? 35mm?) interessanter sein. mir ist klar, daß man dabei die WW-typische unvermeidbare vignettierung berücksichtigen muß, aber ... 55mm ist ja schon fast tele, was soll da noch groß vinettieren. :p

bin gespannt auf deine ersten bilder im netz.

grüße, sebastian
 
Kommentar
Dann hat das ja nichts mit dem 24 MP Sensor von Sony zu tun, sondern der CNX. :confused:

Also ich glaube, das mein Mac mit Aperture weder mit den Hassidaten Probleme hat noch mit den Sony...

Das hat etwas mit der Dateigröße (Raw ca. 30MB bei 24MP) zu tun und des daraus resultierenden Arbeitsvolumen des Prozessors bei Bildbearbeitung. Mit dem Rücken an der Wand denke ich nicht, aber mit nicht aktueller Hardware könnte man täglich Zeit beim Eieruhrgucken verlieren.
 
Kommentar
Das hat etwas mit der Dateigröße (Raw ca. 30MB bei 24MP) zu tun und des daraus resultierenden Arbeitsvolumen des Prozessors bei Bildbearbeitung. Mit dem Rücken an der Wand denke ich nicht, aber mit nicht aktueller Hardware könnte man täglich Zeit beim Eieruhrgucken verlieren.

Mit solchen Dateien, die beim Scannen von MF Negativen mit Vuescan häufig vorkommen hat selbst mein 4 Jahre altes Powerbook keinerlei Probleme.
 
Kommentar
Früher gab es z.B. math. Coprozessoren und aus der Praxis kenne ich diverse Lösungen, die ohne dedizierte Zusatzkarten auf PC/MAC-Basis schlichtweg untragbar wären.


Der derzeit leistungsfähigste Coprozessor im PC ist die Grafikkarte. Für einen Softwarehersteller, der den Massenmarkt bedienen will, ist die Verbreitung ebenfalls maßgebend. NVidia hat mit CUDA eine zwar recht gewöhnunsgbedürftige, aber gute Architektur zum anprogrammieren. ATI hat mit CTM einen anderen Ansatz(weniger verbreitet). Für die eingebauten Multicore CPUs baut Intel fleißig mit Ct an einer eigenen Bibliothek und Microsoft hat mit F# und den Parallel.NET Extensions ebenfalls einen eigenen Ansatz. Nicht zu vergessen, daß mit OpenMP noch ein weiterer "Standard" existiert.

Adobe hat angekündigt, in einer zukünftigen Version von Photoshop NVidia's CUDA zu verwenden, wenn solche eine Grafikkarte im Rechner steckt.

Der größte Nachteil von Rechenleistung auf Zusatzkarten ist nicht die theoretische maximale Leistung, sondern praktische Dinge, wie maximale Datentransferrate vom PC zur Karte und sonstiger Overhead. Da kann von den möglichen 100x Beschleunigung mal schnell nur mehr die doppelte tatsächliche Gesamtleistung überbleiben.

Wie Maik schon geschrieben hat: Die (Massen) Zukunft liegt in der Lernkurve der Softwareindustrie mit den Multicore CPUs besser umgehen zu können. Es reicht nicht, wenn das Betriebssystem 64 CPUs sieht und verwalten kann. Das Problem muß parallelisierbar sein, der entsprechende Algorithmus dekompostierbar, korrekt und skalierbar sein. Dieses Gebiet der Informatik heißt Computational Science (nicht Computerscience). Das große Problem aller Softwarehersteller ist, daß es viel zu wenige Leute mit entsprechender Ausbildung am Markt gibt. Ca. 50-60 Personen schließen weltweit pro Jahr ihr Studium mit einem Dr./PhD in diesem Gebiet ab.


LG, Andy

PS: Für die Software Geeks hier im Forum - weiterführende Info's (bitte nach Links in Google suchen):

Parallele Sprachen: Silk++, HPF,....
Funktionale Sprachen: F#, Erlang, Haskell ...
Programmbibliotheken: OpenMP, MPI, Ct, Parallel .NET Extensions , ....
General Purpose GPU: NVidia's CUDA, ATI's CTM

...und das Testen von parallelen Softwarelösungen steht noch in den Kinderschuhen ....
 
Kommentar
Mit solchen Dateien, die beim Scannen von MF Negativen mit Vuescan häufig vorkommen hat selbst mein 4 Jahre altes Powerbook keinerlei Probleme.

Kommt darauf an, was man mit den Dateien macht und was man unter einem Problem versteht. Wenn man immer wieder wenn auch nur wenige Sekunden warten muss summiert sich das sehr schnell.
 
Kommentar
Das hat etwas mit der Dateigröße (Raw ca. 30MB bei 24MP) zu tun und des daraus resultierenden Arbeitsvolumen des Prozessors bei Bildbearbeitung. Mit dem Rücken an der Wand denke ich nicht, aber mit nicht aktueller Hardware könnte man täglich Zeit beim Eieruhrgucken verlieren.

Und die Hassidaten sind kleiner, trotz 39 MP?

Lt. Hassiwebseite durschnittlich 50MB!
 
Kommentar
Kommt darauf an, was man mit den Dateien macht und was man unter einem Problem versteht. Wenn man immer wieder wenn auch nur wenige Sekunden warten muss summiert sich das sehr schnell.

Schon richtig, aber deswegen stehen die heutigen Rechner ja noch nicht mit dem Rücken an der Wand...
 
Kommentar
-Anzeige-
Zurück
Oben Unten