Topaz Gigapixel AI

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

Lichtschachtsucher

NF-Premium Mitglied
Premium
Registriert
Ich habe ein 30 Jahre altes Foto vor Jahren eingescannt. Neulich in meinem Club wurden die Topaz Programme besprochen und jetzt habe ich es mit Lightroom und Topaz Gigapixel AI nochmals überarbeitet:
Das Bild ist vor rund 30 Jahren auf dem Doi Intanon entstanden, mit 2565m der höchste Berg Thailands.

Das Original mit 1140x1716 Pixel und 1,11 MB, dann die SW Bearbeitung mit 2208x3350 Pixel und 3,24 MB.
Es ist in meinen Augen schon klasse was mit AI alles machbar ist.

Original

comp_img325.jpg

SW Bearbeitung und mit Gigapixel AI vergrößert


comp_2.0.jpg
 
Anzeigen
Ich hab das Programm auch schon als Testversion genutzt. Mit Bildern in 36 MP und 42 MP und mit guten Objektiven. Die Rechendauer auf einem i5 10te Generation mit einer Quadro P620 Grafik: 15 bis 30 Minuten pro Bild. Als Vergleich habe ich das gleiche RAW mit Capture One konvertiert und auf möglichst hohe Details bearbeitet. was tiefe ISO vorausetzt, klar. Motive: Landschafts und weit entfernte Stadt. Wie erwartet konnte auch Topaz keine zusätzlichen Details finden. Wo es aber glänzt: Erkannte, eher regelmässige Strukturen sauber und klar machen. Mit C1 hat das Dach eine Struktur, voll mit Artefakten. Mit Topas werden ziemlich saubere Ziegel draus. Ein weit entferntes Fenster hat mit C1 sehr unregelmässige Seiten wegen der Artefakte, Topas bringt glatte Kanten raus. Hilfreich wird das primär dann, wenn man unter 150 bis 180 Pixelreihen pro Zoll in der Ausbelichtung kommt. Dann werden die Artefakte einer auf Details optimierten Belichtung irgendwann von Nahem betrachtet halt sehr sichtbar. Aber: 150 Pixelreihen pro Zoll, das ist schon bei einer D810 mit 36 MP Format A0! Hab es dann sein gelassen, weil ich nie so gross drucke. Wenn man da ran wollte, müsste man wohl auch erst in HW investieren. Vorallem in eine sehr schnelle Grafikkarte, denn 15 bis 30 Minuten rechnen pro Bild ist mir zu viel.
 
Kommentar
Gigapixel nutze ich seit längerem, um stärker gecropte Bilder wieder auf eine erträgliche Größe zu bringen. Oder ich rechne damit sehr große Panos runter, damit ich sie bei Flickr problemlos hochladen kann. Praktischerweise werden die mit GP bearbeiteten Bilder kompakter. Die GraKa ist momentan noch die Bremse, die für PS eigentlich völlig ausreichende 1050TI mit 4 GB RAM quält sich schon etwas.
 
2 Kommentare
Lichtschachtsucher
Lichtschachtsucher kommentierte
Für die vielen neuen AI Funktionen wie entrauschen, schärfen, vergrößern usw. habe ich mir eine neue GraKa eingebaut. Der Sprung von der GTX 1050ti zur RTX3060ti brachte eine dreifach schnellere Geschwindigkeit. Ein ISO 6400, 45 MP Bild mit 70% Entrauschung dauert ungefähr 12s.
Eine Kollege kaufte sich die RTX4070, klagt aber dass die Perfomance kaum besser als vorher sei, ich kann mir vorstellen dass noch verschiedene Einstellungen der Energiefunktionen und die Leistungskonfiguration der GraKa eine nicht unerhebliche Rolle spielen..
 
P
pulsedriver kommentierte
Da kommt man mit Notebooks halt an die Grenze. Vorallem, wenn es nicht ein normales Gaming Notebook sein darf, weil man noch einen Bildschirm mit 2560 Pixel oder ga 3840 Breite will, grosser Helligkeit von 500 Nits oder mehr und vorallem mit gutem Farbraum. Da landet man dann rasch im Bereich einer mobilen Workstation. Als ich mein P15v gekauft habe, hätte man da auch dickere Quadro Karten haben können als die P620. Selbst wenn man nur 100% DCI-P3 nimmt ist man mit hellem, gut auflösendem Display mit einer RTX-4707 bei gegen 3000 wie z.B.ein Ausus ROG G18 Stix mit 32 GB RAM und 1 TB SSD, mit einer RTX-3060 geht auch ab 2200 was mit gleich viel RAM und SSD, wie ROG Flow X16. Bei Lenovo, Dell,.. wo man sich die Workstations selber zusammenstellen kann, landet man dann auch eher über 3000.
 
Ein 45MP Sensor hat Crop-Reserven von Faktor 1,7 bis 2,0x mit KI-Vergrößerungssoftware (wovon es schon einige Programme gibt) kann man dann das Bild wieder locker auf 20 MP hochrechnen und große Ausdrucke machen.

Konverter werden überflüssig und zwischen den Objektiven kann man Lücken in der Brennweite recht einfach durch Croppen überbrücken. So lässt sich z.B. ein Tamron 20-40/2.8 mit dem Tamron 70-180/2.8 kombinieren, die Lücke zwischen 40-70 lässt sich wegcroppen, obenrum kommt man durch Croppen auch noch locker bis in den 250mm Bereich. D.h. man hat einen Brennweitenbereich von 20-250/2.8-4 und die Objektive wiegen zusammen trotzdem nur 1200g.
 
1 Kommentar
P
pulsedriver kommentierte
Das mache ich schon lange ohne Gigapixel Software. Wichtig ist dabei vorallem, dass die Bereich trotzdem durch echte Brennweiten abgedeckt sind, die man häufig braucht und diejenigen, wo man maximales Freistellpotenzial braucht. Bei mir ist das z.B. das 35mm - die Brennweite nutze ich am meisten und will sie daher sicher nicht croppen. Und eine Brennweite im Bereich 85 bis 135mm mit genug Licht.
Aktuell fahre ich mit 30 MP und Faktor 1.7 bei den Sprüngen für Landschaft schon ganz gut, muss selten stark croppen. Bei mir 15-35, 60, 100-400.
Oder an der Nikon Z5 mit nur 24 MP: 14, 24, 35, 50, 105 mm und ein 2x TC für das 105mm. Oben sogar Sprünge Faktor 2. Auch das kenne ich schon länger, an der D810 hab ich längere Zeit Tamron 17-35 OSD, 50/1.4 und 105mm genutzt. Das klappt an der Stelle gut, weil ich zwischen 50 und 105mm selten brauche. Das kann ich dann entweder croppen oder mache halt mal ein einreihiges Pano mit dem 105mm. Letzteres geht nun dank C1 22 sehr gut. Man kann neu die RAW direkt stichten und bekommt ein DNG, das man wie gewohnt verarbeiten kann. Und wo die überganänge auch dann nicht sichtbar werden, wenn man heftig bearbeitet, z.B. Grauverlauf per EBV drüber oder Nutzer der HDR Regler. So ein Pano geht sogar für Portrait, solange die Person in ein Bild passt und die Bilder daneben nur Umgebung drauf bringen. Und so ein Pano ist auch auf meinem Notebook schnell erstellt, das geht vielleicht 10 oder 15 Sekunden.

Klar, mit Gigapixel Software könnte man noch was mehr croppen. Dann sind eben Dinge wie 14, 35, 85, 200mm oder ein Supertele wie das 200-600mm denkbar. Bedingt dann aber wie ich weiter oben schrieb leistungsfähige Grafik Hardware. Oder man hat nicht mehr den Anspruch, jedes Bild, das man behält, auch fertig zu bearbeiten. Ich halte das jedoch so und wenn z.B. 1/3 der Bilder wegen starkem Croppen durch diese Software optimiert werden soll, dann muss das auch in maximal einer Minute pro Bild durch sein.
 
@Lichtschachtsucher:

Topaz Gigapixel verwendet aber anscheinend leider genau soviel Schmierfett (Glättung) wie Topaz DeNoise. Mir ist schon klar, daß das vermutlich anders nicht zu machen ist, irgendwo leiden halt auch die Details. Bei DeNoise ist die Software halt immer noch nicht so intelligent (trotz "AI" im Namen), bei gescannten/abfotografierten Analogbildern wirklich nur Filmkorn genau zu detektieren und andere Details unbehelligt zu lassen. Es gibt einen Schieberegler, mit dem sich Details erhalten lassen, doch wenn ich den weiter aufdrehe, ist die Entkörnung/Entrauschung nicht mehr so gut.

Es wundert aber, daß der Auflösungserhöher "Gigapixel" bspw. aus Gesichtern auch solche Porzellangesichter macht wie Topaz DeNoise.

Bezüglich Entkörnung bin ich dazu übergegangen, nur noch die Nik-Collection zu verwenden, ich "entkörne" mit DFine, das entkörnt zumindest soweit, daß ich das Filmkorn bei normaler Ausgabegröße bzw. bei normalem Betrachtungsabstand nicht mehr sehe (bei 1:1 bzw. 100% allerdings schon noch), und schärfe danach mit einem der Schärfungswerkzeuge aus der Nik-Collection ganz leicht die Kanten nach, ohne daß die vorherige, leichte Entkörnung leidet. Gesichter bzw. das ganze Bild bleiben natürlich.

Wie man beim Erhöhen der Auflösung (Gigapixel) verhindern kann, daß allzu glattgebügelte Porzellangesichter entstehen, weiß ich allerdings nicht.

Viele Grüße

von

Christoph
 
Kommentar
-Anzeige-
Zurück
Oben Unten