Adobe Super Resolution – Intelligenztest

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

bassheiner

Sehr aktives NF Mitglied
Registriert
Das aktuelle Adobe Camera Raw (ACR) Update 13.2 beinhaltet das neue Feature Super Resolution bzw. Super Auflösung.
Super Resolution verdoppelt die Kantenlänge eines RAW-Files, also letztlich die die Auflösung eines Bildes vervierfacht.
Um dies in ausgezeichneter Qualität zu erreichen, soll angeblich künstliche Intelligenz im Hintergrund werkeln.

Musste ich natürlich auch ausprobieren. Dazu habe ich meine alte D100 (Baujahr 2002) aus meinem kleinen Kameramuseum
wieder ans Tageslicht befördert und wollte mal sehen, ob ich von dem 6MP-File einen 24MP-File zaubern kann, der es mit
dem 24MP-File aus der D7100 aufnehmen kann.

Dazu habe das AF-S NIKKOR 70-200mm f/2.8G ED VR II auf mein Stativ gesetzt, und dasselbe Motiv einmal mit der D100 und
einmal mit der D7100 aufgenommen. Für beide Kameras hatte ich die gleiche Einstellung gewählt:
Manuell, ISO 200, Blende 1:8, 1/800 Sek, VR aus.
Anschließend die beiden Fotos mit ACR in JPGs umgewandelt, wobei ich das D100 Foto vorab mit dem neuen Tool vergrößert
und etwas aufgehellt habe. Das D7100 Bild war doch einiges heller. Ansonsten gabs keine weiteren Eingriffe.

Und so sieht das Resultat aus:

Zuerst das auf ca. 24MP aufgepumpte Bild aus der D100:
full


Und hier 24MP aus der D7100:
full


Wer möchte, kann sich die beiden Fotos in originaler Größe unter https://img.gg/Zo59gez auf Nikon Image Space
ansehen oder runterladen. Um es vorwegzunehmen, das Ergebnis aus der D100 ist nicht schlecht, aber um von
der D100 eine D7100 zu zaubern, hats nicht ganz gereicht.

Aber zum Thema künstliche Intelligenz gibt’s eine Frage, die mich wirklich ernsthaft interessiert, nämlich,
ob sich künstliche Intelligenz auch irren kann.

Grüße aus HB
Heiner
 
Anzeigen
Habe im anderen Thread (den Du, nebenbei bemerkt, auch durchaus hierfür hättest nutzen können ;) ) ja einen ähnlich gelagerten Test gemacht. Und bin ziemlich begeistert von dem Feature. Das Problem ist, dass man hier unter Forenbedingungen nicht wirklich viel erkennen kann.

Allerdings habe ich mir Deine Bilder runtergeladen (kann man schon machen wenn man sie nur einzeln anklickt) und wie meine Beispiele im "Fast Stone Image Viewer" nebeneinander verglichen incl. Reinzoomen. Und kann Deine Meinung tatsächlich nicht nachvollziehen. Schlechter ist das D100 Bild meines Erachtens nicht. Im Gegenteil. Wenn ich mir eins aussuchen müßte, würde ich sogar dieses nehmen. Gibt so einige Parameter im Bild, die ich bei ihm besser finde. U.a. sind die Buchstaben und Zahlen der Schriften im Bild auf zwar niedrigem Niveau, aber auf dem ursprünglich hochskalierten Bild der D100 sogar noch minimal besser zu lesen. Fast überall finde ich dessen Foto eine Winzigkeit detaillierter. Sieht man vor allem, wenn man weiter reinzoomt. Etwas höher gesättigt und damit augenschmeichelnder ist es sowieso. Aber das ist natürlich Geschmacksache.
 
3 Kommentare
bassheiner
bassheiner kommentierte
Sorry, Deinen Test hatte ich bis jetzt nicht gesehen, aber eben nachgeholt.
Evtl. hätte ich mich klarer ausdrücken sollen. Ich finde, dass im D100 Foto in
der 100% Ansicht ein leichtes Rauschen zu erkennen ist. Dies fällt bei der
D7100 Version ein Stück geringer aus.
Mich interessiert noch, ob die Software bei wiederholter Anwendung immer exakt auf
das gleiche Ergebnis kommt. Werde ich morgen mal testen.
Beste Grüße
Heiner
 
ernst.w
ernst.w kommentierte
Nachdem ich deinen Thread gerade noch finde (Handy), hier eine Antwort, die dich interessiert:

Ja, KI kann irren, eigentlich könnte man auch sagen „irrt“. Denn KI rechnet Wahrscheinlichkeit und niemals Wahrheit, so subjektiv die auch immer sein mag.
 
falconeye
falconeye kommentierte

Mich interessiert noch, ob die Software bei wiederholter Anwendung immer exakt auf
das gleiche Ergebnis kommt.
Das hat noch niemand beantwortet?

Ein klassischer Deep Learning Algorithmus verhält sich bei Inferenz (und das ist beim Hochskalieren der Fall) absolut deterministisch.

Inwiefern Adobe da noch irgendwelche Zufälle reinfabriziert, weiss ich nicht, das hätte dann aber nichts mit Deep Learning zu tun.

Allerdings werden sich die Ergebnisse mit jedem Update ändern, denn dabei wird Adobe sicher das gespeicherte Netz updaten. Aber das kennt man ja schon vom Context-aware Fill.

Ferner ist AI nicht-linear. D.h., schon das Verändern eines Pixels könnte das Ergebnis signifikant ändern.
 
AI - Super Resolution steht gerade erst am Anfang und wird in den nächsten Jahren stetig verbessert werden und gehört irgendwann zum üblichen Repertoire der Bildbearbeitung.

Haben damit Kameras mit mehr als 24 MP ausgedient, weil man auch am 24MP Sensor einen Crop auf 10 MP machen kann und dann das Bild für einen Druck einfach auf 50-60 MP hochrechnet? Das wäre dann natürlich ein schwerer Schlag gegen die Kamerahersteller, die ja auch zukünftig Kameras mit mehr Pixel zu höheren Preisen verkaufen wollen.

Wenn das AI-Aufblasen der Auflösung tatsächlich reproduzierbare Ergebnisse bringen, die sich letztendlich kaum von Aufnahmen mit 60/80/100MP-Sensoren unterscheiden, werden Kameras, wie eine Alpha 7R IV wohl kaum noch nachgefragt.

Fotoequipment verschiebt sich immer mehr von Feinmechank-Optik über Elektronik hin zu Software dominerten Produkten.
 
P
P.Gnagflow kommentierte
Jjjein, denn ich habe da ein Detail gesehen welches mir zu denken gibt: wenn Du Dir mal das weiße Schild mit schwarzer Schrift, gleich unterhalb der Krankabine anschaust, dann kannst Du bei genügender Vergrößerung des Bildauschnittes oben rechts unter dem "r" von Tragk... bei dem D7100-Bild einen Rost(?)punkt sehen. Der gleiche Punkt in dem verbesserten D100-Bild ist verändert. Er ist zu einem Strich mit Verbindung zum "r" geworden. Hier ist also etwas hinzugedichtet worden, was ganz offensichtlich nicht den Tatsachen entspricht und somit der Bildinhalt in aus meiner Sicht unzulässiger Weise verändert worden. Dies ist nunmal nur eine Stelle, über die ich zufällig gestolpert bin. Wie oft so etwas in einem Bild vorkommt, nicht entdeckt und für bare Münze genommen wird, kann man nur vermuten. Zumal das Auffinden nur im direkten Vergleich möglich ist. Ich sehe darin einmal mehr ein Abrücken der Photographie von der Wiedergabe dessen was ist bzw. war, hin zum Wunschkonzert.

In der naturwissenschaftlichen Dokumentation würde ich so ein Bild strikt ablehnen, wobei ich ein Problem darin sehe, eine solche Darstellung als Ergebnis von Bearbeitung zu erkennen. Das andere Leute anders darüber denken und sich einen feuchten Kehricht um derartige Bedenken scheren ist mir klar. Wenn es bloß um eine aufgehübschte Darstellung von Bildern mit wenig inhaltlicher Dokumentation geht, ist das ja auch egal und ich würde für den Zweck lediglich besserer Vergrößerbarkeit einer Druckvorlage eine solche Bearbeitung in Ausnahmefällen auch durchaus selbst anwenden. Aber das zu verallgemeinern und hochauflösende Phototechnik dadurch quasi als ersetzbar und obsolet zu erklären, halte ich für abwegig und grundfalsch im Ansatz.
 
A
applemus kommentierte
Wir sind ja gerade erst am Anfang, wir schnuppern quasi gerade an dieser Entwicklung... Aus naturwissenschaftlicher Sicht sicherlich korrekt, wird aber sonst 99,99 Prozent aller Fotografen/Bildbearbeiter nicht groß interessieren. Jedes Foto bildet eine veränderte Realität ab. Jede Bildbearbeitung verändert nochmals die abgebildetet "Realität" usw. Das Schild, ganz ehrlich, würde doch niemanden interessieren, der inhaltliche Zusammenhang und der Kontext bleibt ja erhalten. Wäre das Schild nach der Hochrechnung jetzt gelb, wäre das für mich natürlich ein NoGo. Ansonsten muss man die Leistung dieses Tools doch entsprechend würdigen, auch wenn ich kein großer Adobe-Fan bin.
 
P
P.Gnagflow kommentierte


... Das Schild, ganz ehrlich, würde doch niemanden interessieren ....

Das Schild interessiert auch mich nicht. Ich meine aber, das was mich interessiert, hinreichend genau dargestellt zu haben. Noch einmal: ich lehne nicht die Anwendung einer solchen Bearbeitung ab, sondern die Meinung, eine solche Software könne ein hochauflösendes Original ersetzen. Dabei interessiert überhaupt nicht(!) ob 99,99 % den Unterschied sehen (wollen) oder nicht.
 
Metalhead
Metalhead kommentierte
Nun, wirklich blöd wäre das Ganze natürlich, wenn man beispielsweise ein Landschaftsfoto aufnimmt mit einem Waldrand am Horizont, und nach der vervierfachenden Super Resolution Bearbeitung sind auf einmal ein paar mehr Bäume im Bild. So ist es aber nunmal nicht damit. ;)
 
falconeye
falconeye kommentierte

In der naturwissenschaftlichen Dokumentation würde ich so ein Bild strikt ablehnen
Das lässt sich so allgemein nicht sagen.

Ein AI Algorithmus berechnet das gemäß Bayes’scher Logik wahrscheinlichste Bild ausgehend von den Rohdaten. Oft interessiert dich genau dies in der Naturwissenschaft. Z.B. weicht das veröffentlichte Bild des Schwarzen Loches in M87 stark von den Rohdaten ab, ist aber das wahrscheinlichste Bild. Die Mathematik dahinter ist publiziert.

In deinem Kommentar unterstellst Du, dass man die Wahl zwischen einer AI Interpolation und einer besseren Auflösung hat. Due hat man oft nicht. Und dann ist eine AI Interpolation mit bekanntem Predikator besser als ein Mensch, der ja ebenfalls überall Muster erkennt, z.B. Gesichter auf Marsfelsen ...

Die Frage ist vielmehr: Ist die interpolierende AI “superhuman”? Inzwischen ist sie es oft. Und dann ist dein Kommentar obsolet.
 
Eine Resample-Funktion kann schon sehr nützlich sein. Je nach verwendetem Algorithmus kann der Bildeindruck in den Details erheblich gesteigert werden. Das hilft beispielsweise beim hochaufgelöstem Druck aus nur mäßigen Vorlagen.

Die Interpolation kann durchaus den Anspruch erheben neue Informationen "hergezaubert" zu haben.

Hier ein Beispiel. In diesem Beitrag ein 100 % Ausschnitt aus dem mäßigen Original mit geringer Auflösung und unten im Folgebeitrag der gleiche 100 % Ausschnitt aus einem um den Faktor 5 (linear) bzw. 25 (Pixelzahl) hochgerechneten Bild.

700_0511_b_Orig.jpg

Grüße - Bernhard
 
Zuletzt bearbeitet:
Kommentar
Hier das hochgesampelte Bild (100 % Crop):

700_0511_b_5x.jpg

Eine spezielle Adobe-Software braucht man dazu aber definitiv nicht.

Grüße - Bernhard
 
Zuletzt bearbeitet:
4 Kommentare
Metalhead
Metalhead kommentierte
Nun, wenn alles so schwammig und unscharf wird, dann kann diese Software dann für mich aber nix. Wie ich Dir schon im anderen Thread antwortete ja, es gab sowas schon früher. Aber deren Ergebnisse waren zumeist nicht besonders.
 
BernhardJ
BernhardJ kommentierte
Man kann immer noch "von Hand" nachschärfen bzw. die Kannten im Kontrast etwas anheben.
Wie gesagt, so ein Hochgesampeltes (und etwas nachgeschärftes Bild) sieht in etwas größeren Druckformaten eindeutig besser aus als das niedriger aufgelöste Original.
 
falconeye
falconeye kommentierte

Nein, AI Skalierung entspricht nicht einer normalen interpolierenden Skalierung mit anschließender Schärfung, auch keiner Dekonvolution.

Allerdings sind die Softwarepakete am Markt recht unterschiedlich leistungsfähig (das neue PS Feature liegt eher im Mittelfeld) und der Erfolg hängt hochgradig nichtlinear vom Input ab, weshalb ein Testen sehr aufwändig oder unseriös ist.
 
BernhardJ
BernhardJ kommentierte
Ja, das ist mir klar, dass hier noch eine "KI"-Software darüber läuft, welche versucht auf unterschiedlichste Weise Inhalte "herbeizuzaubern".
Du schreibst es aber selber, dass es eher unseriös ist, sich darauf zu verlassen. Ich meine, dass der Zugewinn an "guten" und seriösen Bildinformationen durch die KI hier im Vergleich zu der normalen Interpolation zur Zeit eher marginal ausfällt.
 
ich lehne nicht die Anwendung einer solchen Bearbeitung ab, sondern die Meinung, eine solche Software könne ein hochauflösendes Original ersetzen.
Doch kann es, für bestimmte Anwendungen und wo einfach kein besser aufgelöstes Bild vorhanden ist.

Grüße - Bernhard
 
BernhardJ
BernhardJ kommentierte
Es ist wie gesagt von der Anwendung bzw. Art der Präsentation abhängig, ob man mit einer interpolierten Hochskalierung den Gesamteindruck verbessern kann. In manchen Fällen ist es eindeutig ein Zugewinn an Bildeindruck, welcher durch Zufügen von Zwischen-Informationen durch Interpolation entsteht.
 
P
P.Gnagflow kommentierte
Das ist vollkommen richtig, aber es ändert nichts an der Tatsache dass eine Verbesserung des Bildeindrucks nichts mit einem Zugewinn an Bilddetails, also Erhöhung der Bildauflösung zu tun hat. Auffüllen von fehlenden Pixeln durch interpolierte Werte bringt keine zusätzlichen Details, woher sollten die auch kommen?
 
BernhardJ
BernhardJ kommentierte
Da kann man sich dann vortrefflich streiten, wie "Zugewinn an Bilddetails" definiert werden soll/kann/muss... ;)
 
P
P.Gnagflow kommentierte
Nein, da kann man sich überhaupt nicht streiten! Real existierende Bilddetails werden entweder erkannt oder eben nicht, und wenn nicht, dann kann Interpolation aus umgebenden Strukturen diese auch nicht herbeizaubern.
 
BernhardJ
BernhardJ kommentierte
Siehste, man kann sich streiten. ;)

Ganz einfaches Beispiel: Wenn aus nur wenigen Klötzchen irgendwie eine Linie interpoliert wird (und - oh Wunder - es in Wirklichkeit auch eine Linie war), dann ist es sehr wohl ein Zugewinn an Bilddetails die "herbeigezaubert" wurden. Das macht übrigens unser Gehirn mit jedem Bild ständig. Wieso solle es dann auch keine KI schaffen?
 
Ich finde die Idee von Adobe zum intelligenten Aufblasen von Fotos sehr interessant, wäre für mich insbesondere für Crops meiner 20MP-Fotos interessant. ABER LEIDER bietet Adobe diese Version von ACR nicht mehr als Standaloneversion an.
Schade, da ich es baw. nicht plane, von LR6 und PSE15 in die Abo-Lösung umzusteigen, werde ich wohl auch baw. auf dieses Feature verzichten müssen.
VG Holger :mask:
 
4 Kommentare
bassheiner
bassheiner kommentierte
Oder alternativ jemanden fragen, ob er evtl. das 'intelligente Aufblasen' übernehmen kann.
Also wenn Du mich nicht grade mit hunderten Fotos überhäufst ...
Beste Grüße
Heiner
 
Bremenfrosch
Bremenfrosch kommentierte
Danke, Heiner, das Angebot werde ich bestimmt mal wahrnehmen! Derzeit arbeite ich daran, meine Tele-Fotos auch ohne elktronischen Schnickschnack noch ordentlich croppen zu können. Die Gelegentheit kommt! :love:
VG Holger :mask:
 
BernhardJ
BernhardJ kommentierte
Man mus kein spezielles Adobe-Programm haben, um es zu bewerkstelligen. Ist ein alter Hut den viele Programme anbieten.
 
shovelhead
shovelhead kommentierte
Es ist ja nicht so, dass nur Adobe so eine Software/Funktion bietet....
 
Nochmals, es wird da doch nix durch diese Funktion hineingebracht, was in Wirklichkeit nicht da war. Vereinfacht ausgedrückt, in einem Foto wird beispielsweise irgendetwas dargestellt mit 20 roten Pixeln. Durch die Super Resolution Funktion wird das gleiche dann mit 80 roten Pixeln dargestellt, die Größe dieses Objektes also vervierfacht wie insgesamt das ganze Foto. Die Schwierigkeit bei all dem ist halt, bei Millionen von verschiedenen Farben dieser Pixel bei benachbarten diese Vervierfachung so hinzubekommen, dass es im Gesamtbild noch stimmig erscheint und scharf und ohne Artefakte etc. Und dafür sorgt dann die neue künstliche Intelligenz im Programm. Um beim Beispiel zu bleiben, die roten Pixel haben ja wahrscheinlich nicht alle exakt den gleichen roten Farbton sondern sind nuancierter. Und da muß dann das Programm erkennen, wo die etwas helleren roten Pixel hinkommen und wo die dunkleren Incl. aller farblichen Abstufungen damit das vergrößerte Bild noch stimmig ist.
 
BernhardJ
BernhardJ kommentierte
Und diese angebliche KI muss man dann teuer erwerben? Ich schätze den Vorteil gegenüber den üblichen älteren Modi als eher marginal ein.
Die beste KI sitzt immer noch zwischen den Ohren... ;)
 
Christian B.
Christian B. kommentierte
Muss man nicht. Die wird mit einem kostenlosen Update mitgeliefert.
 
falconeye
falconeye kommentierte

Die beste KI sitzt immer noch zwischen den Ohren...
Auf Superhuman KIs trifft dies nicht zu (dies ist ein Fachbegriff). Im Bereich der Bildverarbeitung wurde für viele Aufgaben inzwischen Superhuman Level erreicht. Oder bekanntlich auch bei Schach und Go.
 
falconeye
falconeye kommentierte
Das trifft dann mathematisch exakt nicht mehr zu, wenn parallel zur Skalierung auch entrauscht wird. Das ist oft der Fall, aber meist parametrisierbar.
 
BernhardJ
BernhardJ kommentierte
Bei Interpretation von Bildinhalten und Wahrnehmung bei Bildpräsentation wird noch lange keine "Superhuman"-Software an die menschliche Sehgewohnheiten und Bedürfnisse und die menschliche kreative Bildbearbeitung heranreichen. Nicht alles was automatisch schnell gerechnet werden kann, sieht dann zum Schluß auch gut aus.
 
Nochmals, es wird da doch nix durch diese Funktion hineingebracht, was in Wirklichkeit nicht da war.

Ich frage mich schon warum ich mir die Mühe mache, in Kommentar #3.3 genau zu beschreiben dass genau dies offensichtlich nicht(!) zutrifft?
 
1 Kommentar
Metalhead
Metalhead kommentierte
Das Du Dich scheinbar angesprochen fühlst tut mir leid, ist aber auch nicht mein Problem.;)
 
Vielleicht wären ein paar mehr praktische Beispiele hilfreicher als theoretische Exkurse.

Ich hatte hier ja schon ein Beispiel mit Topaz Gigapixel AI gepostet, das übrigens i.d.R. besser abschneidet als das neue PS Feature:

1616922543954.jpeg
Hier der Originalthread dazu mit Originalbildern -> https://www.nikon-fotografie.de/com...e-iii-1-4x-300-mm-pf-d500.298632/post-2789260

Was ihr seht, ist NICHT ein Vergleich Original vs. Hochskaliert. Das hier ist viel spannender ;)
Vielmehr: Links: 1600mm (400mm +4.0x GigaPixelAI) 100%. Rechts: 1680mm (400mm +1.4x TC + 3.0x GigaPixelAI) 100% Ausschnitt. Hardware: D850, TC14iii und das aktuelle 80-400 bei 400mm.

Bei effektiv 1600mm mit einer 45MP Kamera hat man i.d.R. einfach kein alternatives Bild mit scharfer Originalauflösung.

Was bei diesem Vergleich für mich so spannend war: die Nutzung des TC hat für das blosse Auge geringfügig bessere Auflösung geliefert, für den AI Algorithmus jedoch das entscheidende Plus an Input, um Auflösung auf einem ganz anderen Level zu erkennen. Die Nutzung des TC war hier mitnichten obsolet (von wegen AI skalierbar). Sondern im Gegenteil: dadurch wurde AI Skalierbarkeit einer anderen Liga ermöglicht. AI Resizing macht bessere Kameras oder Objektive nicht obsolet, sondern ggfs. überhaupt erst praxistauglich (das Bild oben war aus der Hand).

So krasse Ergebnisse liefert das neue PS Feature übrigens (noch?) nicht.
 
Zuletzt bearbeitet:
2 Kommentare
BernhardJ
BernhardJ kommentierte
Sprichst Du hier womöglich von zwei mit unterschiedlicher Technik aufgenommenen Bildern die auch unterschiedlich bearbeitet wurden?
Das hier eindeutig etwas anderes rauskommt ist trivial. Das ist leider auch nicht das, was hier diskutiert wird.
 
falconeye
falconeye kommentierte

Ich spreche hier von KI-Skalierung. Ausgangspunkt war in beiden Fällen das gleiche Motiv aus gleichem Abstand mit gleichem Objektiv. Die Unterschiede hätten marginal ausfallen müssen, taten es aber nicht. Darum ging es mir, denn das ist ein Merkmal des KI-Skalierens.
 
Interessant ist einzig, wie der Algorithmus arbeitet, respektive in wie vielen Layern gerechnet wird. Wie soll der neue "Zwischenpunkt" gestaltet werden? Einfach genau so, wie die Punkte links und rechts, oben und unten? Das ist die beste Variante inmitten einer einfarbigen Fläche.

Was wenn wir uns an einer Kontrastkante befinden? Nehmen wir eine vertikale Kante, dann können wir die Punkte oben und unten sicher kopieren, nicht aber die links und rechts, denn nur eine der beiden Seiten passt jetzt noch.

Oder der Punkt liegt inmitten einer Gradation die von oben nach unten verläuft. Zwischen welchen Werten soll interpoliert werden, und erlaubt uns die Farbtiefe einen Zwischenwert oder müssen wir einen von zwei bestehenden Werten annehmen? Und welchen?

In den drei Beispielen hier oben bin ich davon ausgegangen, dass ein neuer Punkt in der Mitte einer 3*3 Matrix gebildet werden soll. Das war schwierig, aber noch Übersichtlich. Jetzt stellen wir uns vor, dass wir linear in jede Richtung jeden zweiten Punkt neu bilden wollen. Die Bildkanten werden also Linear verdoppelt, die Fläche wird vervierfacht.

Um dieser Rechnung Herr zu werden, kann man die Bildfläche wieder in unzählige, überlappende 3*3 Käsekästchen aufteilen und individuell berechnen wie zuvor. Danach sucht man nach Inkonsistenz und korrigiert diese: an der vertikalen Kontrastkante wurde mal die linke, dann die rechte Referenz gewählt, wodurch die Kante flau und weich wirkt. Im Vergleich mit dem Original wird dann festgestellt, dass immer der gleiche Wert gewählt werden soll. Das wird richtig spannend, wenn die Kante nicht 100% vertikal oder horizontal verläuft, sondern in einem Winkel von z.B. 9° ... oder noch besser: die Kante ist leicht gebogen und gar nicht gerade!

Jetzt käme der dritte Layer: wie sehen die Kontraste insgesamt im Bild aus, und wie gleichmässig sind Gradationen?
Im vierten Durchgang korrigieren wir Gradationen, dann schauen wir bei #5 wieder, ob die korrigierten Gradationen irgendwelche Kanten aufgeweicht haben und ... da capo al fine. Eigentlich könnte man ewig an dem Photo weiter rechnen.

KI erkennt anhand einer Anzahl von Vorgaben (Presets) Strukturen im Bild und vermeidet damit das zufällige zuschlagen eines Wertes an einer Kontrastkante. Die Wimper wird als ganze Einheit erkannt und "Im Zweifel" wird dem neuen Pixel/Bildpunkt der Wert zugeschlagen, der die Kontrastkanten der Wimper insgesamt erhält. Die zufällige Auswahl wird unterdrückt, die Wimper wird als solche zusammengerechnet.

Oder der Zweig in am Baum
Oder der Grashalm
Oder die Fahrradspeiche
Oder ...

KI ist so gut wie die Parameter und Presets, die ihr mit auf den Weg gegeben werden ...
 
1 Kommentar
BernhardJ
BernhardJ kommentierte
Ich möchte Deinen letzten Satz ergänzen:
"KI ist so gut oder so schlecht, wie die Parameter und Presets, die ihr mit auf den Weg gegeben werden ..." ;)
 
Hier das hochgesampelte Bild (100 % Crop):

Eine spezielle Adobe-Software braucht man dazu aber definitiv nicht.
Ne, aber hierfür braucht man eine Nicht-Adobe Software schon ... ;)

700_0511_b_Orig-architectural-scale-5_00x-gigapixel (1).jpg

übrigens war dein Original-Bild nicht 100%, sondern 500% - und leider auch nicht pixelgenau ausgeschnitten :(

P.S. dein Original hatte übrigens noch Demosaicing Artefakte, die ich so in meiner Defaulteinstellung nicht berücksichtige, da anderer Sensor oder anderer RAW-Converter. Die bekommt man auch noch weg.
 
Zuletzt bearbeitet:
3 Kommentare
BernhardJ
BernhardJ kommentierte
Aus welchem Bild wurde das hier gerechnet? Aus dem Original oder aus dem Hochskalierten?

Übrigens, dies hier sieht summa summarum m.M.n. deutlich schlechter aus als mein einfach hochskaliertes.

Beide meine Beispiel-Bilder sind 900x900 Pixel groß und somit das Maximum, was die Forum-Software darstellen kann. Dass das Originalbild nur 180x180 Pixel groß ist, sollte hier klar sein und nur so (einfach vergrößert) dargestellt, damit man die Unterschiede sieht.
Ob hier etwas pixelganau ausgeschnitten wurde oder nicht, ist hier völlig wurscht.
 
falconeye
falconeye kommentierte

Ich habe aus deinem pixeligen 900x900 das 180px Original rekonstruiert, was ein wenig tricky ist, da Du nicht auf 5er-Pixelgrenzen abgeschnitten hattest :(

Im übrigen, wenn Du so wenig Wert auf Schärfe legst, kannst Du die Parameter auch weniger aggressiv wählen und erhältst ein natürlicheres Ergebnis, das dann vollständig frei von Artefakten ist. Aber bei gutem Original ohne solche Demosaicing-Fehler geht es durchaus auch mit den Einstellungen oben, bzw. man muss ein wenig nachretuschieren bei den Farbfehlern.

In deiner einfach nur unscharfen Version bleibt vom Hebel unten links im Bild übrigens nichts mehr übrig, während er in meiner skalierten Version überhaupt erst richtig erkennbar wird, sogar mit Schattenwurf. Da kriegst Du auch mit Nachschärfen nichts mehr gerettet.
 
Zuletzt bearbeitet:
BernhardJ
BernhardJ kommentierte
Das ist Geschmacksache bzw. eine Sache der Verwendung. Schärfe ist mitnichten das Wichtigste. Die Farbartefakte in Deiner Interpretation finde ich furchtbar. Das von Hand nachretuschieren? Für das ganze Bild? Guter Scherz... Bei der grünen Front sind auch kaum noch die senkrechten Linien zwischen den Brettern zu erkennen, während in meiner Hochskalierung sie noch einigermaßen sichtbar sind.

Was ich damit sagen will, man kann nicht alles mit einer einzigen "KI" erschlagen, denn alles hat hier Vor- und Nachteile die sehr unterschiedlich ausfallen können.
 
Übrigens hier das "optische" Ursprungsbild in der höheren Ursprungs-Auflösung mit 100 % Ausschnitt:

700_0511_Ursprung.jpg

Da sieht man dann eindeutig, dass die ganzen Hochrechnereien (ob "KI" oder auch etwas einfachere Interpolationen) an vielen Stellen noch ziemliche Krücken sind.

Grüße - Bernhard
 
Zuletzt bearbeitet:
2 Kommentare
falconeye
falconeye kommentierte
Danke. Natürlich ersetzt auch KI keine echte Auflösung. Und: "noch ziemliche Krücken" ... da wird sich so viel nicht mehr ändern. Man wird die Artefakte wegbekommen, auch das kann eine KI lernen. Aber darüber hinaus gibt es Bayes'sche Priors. die sich halt nicht ändern. Unten links war ein Hebel z.B. wahrscheinlicher als eine Lampe, obwohl das wegen der fehlenden Pixel am Rand des Ausschnitts auch im Original nicht erkennbar gewesen wäre.

Anders als Du finde ich erstaunlich, wie nah die gerechnete Version, der schließlich 96% ihrer Pixel fehlten!, am Ende am Original ist. Beim Scrollen durch den Thread würde es dir gar nicht weiter auffallen ...
 
BernhardJ
BernhardJ kommentierte
Wie gesagt, ich finde meine "unscharfe" Interpretation ansprechender. Zumal es nur einen kleinen Ausschnitt aus dem Gesamtbild darstellt und in Summe stimmiger erscheint und eindeutig weniger Farbartefakte enthält. Alles Geschmackssache.
Wenn sich da wie Du sagst bei der KI nicht mehr viel ändern wird, dann kann ich persönlich sehr gut drauf verzichten.
 
Übrigens hier das "optische" Ursprungsbild in der höheren Ursprungs-Auflösung mit 100 % Ausschnitt:
Grüße - Bernhard
Ich habe jetzt das Originalbild neu auf 20% herunterskaliert, mit der Methode "bilinear".

Die Default-Methode (bikubisch-schärfer) darf nicht verwendet werden, da sie mathematisch nicht das abbildet, was ein Sensor aufnehmen würde.

Damit ergibt sich bei erneutem Hochskalieren um 500% dies:

700_0511_small-standard-scale-5_00x-gigapixel.jpg

Natürlich auch noch nicht das Original, aber das hat ja auch 25x mehr Pixel ...
 
3 Kommentare
BernhardJ
BernhardJ kommentierte
Das ist ja noch furchtbarer als Deine vorherige Rechnung.
 
falconeye
falconeye kommentierte

Das kommt auf das Detail an, was Du betrachtest. Für Pixelpeeping bei 25x hat halt nicht jeder die Nerven :D
 
BernhardJ
BernhardJ kommentierte
Pixelpeepen? Nee, damit hat es nichts mehr zu tun. Hier sieht ein Blinder mit Krückstock, Tomaten auf den Augen und Scheuklappen, dass an den ursprünglich geraden Linien nichts mehr stimmt. Hier liegt die KI mehr als voll daneben... :cool:
 
@falconeye
Was mich jetzt interessieren würde, wie sieht denn das Bild aus, wenn Du meine einfache Hochskalierung mit den 900x900 Pixeln nachträglich durch Deine Software jagst. Vielleicht wäre dann das "zweistufig" bearbeitete Ergebnis ansprechender?

Grüße - Bernhard
 
2 Kommentare
falconeye
falconeye kommentierte
Deine einfache Hochskalierung hat Information vernichtet und meine Software müsste Schärfen, nicht Skalieren. Dafür gibts auch Software, aber andere. Erfahrungsgemäß liefert Interpolieren + Schärfen (egal wie) deutlich schlechtere Resultate als AI-Skalieren.

Und wie gesagt, ich kann es nicht ausprobieren, denn Topaz Gigapixel AI schärft nicht.
 
HaDiDi
HaDiDi kommentierte
....als AI-Skalieren.

Wir stehen da gerade erst am Anfang. Trotzdem ist es beeindruckend, welche Fortschritte z.B. Luminar in den letzten 36 Monaten mit seinen AI-Filtern gemacht hat. Eine ähnlich rasante Entwicklung erwarte ich auch beim Hochskalieren. In 2-3 Jahren ist das dann ein "üblicher" Arbeitsschritt für die Bilder, die man größer ausdrucken will. Da hat man dann ein 30MP Foto auf 12MP gecroppt/beschnitten und bläst es dann für den Druck auf 40MP auf.
 
...nun hier meine Software, das Bild #13 zuerst auf 200% vergrössert, dann auf 1200Px wg. Forum verkleinert.

700_0511_Ursprung_200_1200hoch.jpg
 
Zuletzt bearbeitet:
3 Kommentare
falconeye
falconeye kommentierte
Hallo Peter,

Bild #13 ist das Original. Für die Bildvergleiche (dieses Motivs) hier im Thread musst Du es zuerst auf 20% verkleinern und anschl. wieder x5 vergrößern, ggfs. zweimal 2x. Was Du zeigst, ist im im wesentlichen einfach nur das Original, neudeutsch auch "Ground Truth" genannt.
 
peterkdos
peterkdos kommentierte


...bitte lesen.

Zuerst habe ich es auf 200% vergrössert, da aber dann der Rahmen des Forums gesprengt wurde, musste ich auf 1200 Px verkleinern.

Das ist kein Original sondern ein manipuliertes Bild.

Diese Software benutze ich schon lange für Plakate.

Verzeihung, aber die vorgeschlagene Routine zu nutzen, das kann nur in einem Forum geboren sein...nichts was in der Praxis zu benutzen wäre.
 
Zuletzt bearbeitet:
BernhardJ
BernhardJ kommentierte
@peterkdos
Kannst Du bitte Deine Software (welche ist es denn?) direkt auf das Bild in #4 anwenden?
Dann sehen wir wirklich, ob die gut ist.
 
Moin,
ich kann mir nicht vorstellen, dass ein Algorithmus leistungsfähiger ist als ein zumindest gutes Objektiv. Kleine Korrekturen werden sicherlich durch mathematische Modelle durchgeführt werden können. Dass aber auf diesem Wege aus einem 12-MP-Chip ein 40- oder 80-MP-Chip gezaubert werden kann - für mich nicht vorstellbar. Operationen zum Auffüllen von Leerflächen, weil einfach keine Information vorhanden ist, sind einfach physikalische Grenzen gesetzt. Gute Mechanik bzw. gutes Glas kann durch Rechenoperationen nicht ersetzt werden.
 
E
Emc2 kommentierte

ne bassheimer, wir sind nicht am Untergang des Universums gelandet. Sondern an der Tatsache, dass es Grenzen gibt - auch bzgl. der Entwicklung des Universums. Lange nach meinem Werk fiel mir eine weitere unumstößliche Grenze ein: Die absolute Temperatur, minus 273,15°C, 0° K - bei dieser Temperatur gibt es keine Molekularbewegung mehr, nichts geht mehr, kälter geht auch nicht....
 
BernhardJ
BernhardJ kommentierte
Das alles gilt aber womöglich nur für unser altes, kleines, beschränktes Weltall. In anderen Universen kann das ganz anders aussehen... ;)
 
falconeye
falconeye kommentierte

Aktuelle Ideen zu Multiversen (egal, ob Many-Worlds Interpretation der QM, oder Multiversen-Blasen) sind bestenfalls so physikalisch fundiert, wie die Ideen zur Natur der alten Griechen. Philosophie halt, aber keinesfalls Physik. Ich persönlich halte beide Ansätze übrigens für phantasielose Spekulationen von Außenseitern der Physik.

Phantasielos übrigens, weil da jeder gute Theoretische Physiker nach kurzem Nachdenken selbst drauf kommt und gleichzeitig intuitiv spürt, dass es so einfach nicht sein kann. Und man ausserdem keinen Schritt weiter wäre. Da kann man auch gleich den lieben Gott in die Theorie einbauen ;)

Nein, es geht kein Weg am harten Weg vorbei: Und das ist eine mathematisch widerspruchsfreie und physikalisch korrekte Theorie der Quantengravitation. Und da fehlen scheinbar noch ein paar Jahrhunderte harter mathematischer Arbeit. Den Ansatz, den ich persönlich für aktuell am spannendsten halte, ist der Aufsatz von Stephen Wolfram's "Theory of Everything".

Das schreibe ich hier nur, weil ich Physiker bin und es einige vielleicht interessiert, wie ich zu diesen Dingen stehe. Ansonsten natürlich OT.
 
Zuletzt bearbeitet:
BernhardJ
BernhardJ kommentierte
"Phantasielose Spekulationen"?
Nö, würde ich so nicht sehen. Es bedarf schon eine Menge abstraktes Denken, damit man hier nicht nur den alten, bewiesenen Kram sieht, der relativ eingeschränkt daher kommt. Gerade unsere ungezügelte Phantasie hat uns schon immer sehr weit in großer Breite gebracht, auch wenn manche Ideen es nicht ganz durch die Realitätsprüfung geschafft haben. Ohne Science Fiction würden so einige technische Errungenschaften und physikalische Gesetze unentdeckt bleiben.
 
falconeye
falconeye kommentierte

Nö, würde ich so nicht sehen
Du scheinst keine Theoretischen Physiker von Weltklasse persönlich zu kennen. Wenn ich Phantasielos sage, meine ich es auch so. Denn deren Phantasie bewegt sich in völlig anderen Sphären ausserhalb normaler Vorstellungskraft. Ein Theoretischen Physiker, der keine Weltklasse hat, ist Max Tegmark. Um mal die Meßlatte zu legen.
 
..... die Streifen von Zebras waren nach Upscaling um die Augen anders orientiert, als anderswo, obwohl das auf den Vorlagen beim besten Willen nicht erkennbar war. Ich dachte erst an einen Fehler der KI. Dann hab ich mir aber echte Zebras angeschaut und siehe da: die Streifen um ihre Augen haben eine charakteristische Orientierung. Der AI-Upscaler hatte das wohl gelernt. Wenn einem Objektiv die Auflösung für die Augenstreifen fehlt, kann es die aber einfach auch nicht wiedergeben.

Einige nennen das "Fake Detail". Aber nach Bayes' Logik ist es das nicht, es ist lediglich "Most likely Detail". Fake Detail ist es erst, wenn ich dem Zebra die Streifen verkehrt rum aufmale ;)
Moin!

Naja, dann gehen auch die Polizei und die Gerichte - und in der Folge die Bürger ja goldenen Zeiten entgegen. Wenn wo Fingerabdrücke mit herkömmlichen Methoden nicht gelesen werden können, weil vielleicht verwischt o.ä., dann setzen wir in Zukunft KI ein. Die weiß ja dass dort Papillarlinien hingehören. Sie sucht also unter Milliarden von ihr bekannten Vorlagen das aus was der KI am besten gefällt und am besten passt und schon haben wir einen Täter gefunden. Der Verurteilung steht dann auch nichts im Wegen, weil "Fake" ist das ja per Definition erst dann, wenn die Papillarlinien falsch positioniert werden. Ist doch prima!? Nee, vielleicht doch nicht? Ich glaube irgendwie gefällt zumindest mir so eine Aussicht nicht.

Bei aller Bewunderung für diese Technologie bleibt es, auch wenn die Zebras grundsätzlich charakteristische Linien im Pelz haben - was mir übrigens nicht Neues ist - dennoch eine Fälschung, weil das betreffende Tier zwar so aussehen könnte, aber nicht sicher nachweisbar so aussah. Eine Fälschung ist übrigens erst dann eine richtige Fälschung, wenn man sie möglichst nie als solche erkennt. Im anderen Fall ist es bestenfalls stümperhafter Krampf. Aber wir leben ja seit mindestens gut vier Jahren im Zeitalter alternativer Fakten.

Nee, geh´ mir wech! Da kann ich nur sagen:"Gute Nacht!"

Wolfgang
 
5 Kommentare
ernst.w
ernst.w kommentierte
Wie ich schon schrieb: KI erzeugt keine Wahrheit, sondern berechnet Wahrscheinlichkeiten. Solange das klar ist...

Dass auch ohne und lange vor KI Dokumente gefälscht wurden, ist auch klar?
 
P
P.Gnagflow kommentierte
Zitat:"Dass auch ohne und lange vor KI Dokumente gefälscht wurden, ist auch klar?"

Nein, was Du nicht sagst. Hätte ich jetzt aber nicht vermutet. Es gibt aber auch schlechte Menschen .... da tun sich ja Abgründe auf!

Lieber Ernst, ich sehe es schon als einen gravierenden Unterschied an, ob jemand eine Fälschung in vollem Bewusstsein seiner Unehrlichkeit anfertigt und gegebenenfalls dafür belangt wird oder ob derjenige definitionsgemäß (s.o.) keine Fälschung produziert, sondern eine mehr oder weniger anerkannte alternative Wahrheit - und dann dafür Bewunderung erntet, was für sich genommen nach meinem Verständnis von Tatsache und Wahrheit schon reichlich eigenartig ist.
 
falconeye
falconeye kommentierte
Wolfgang, grundsätzlich gebe ich dir recht, aber wir müssen zwischen Dokumentation und Kunst unterscheiden - was wir beide bei unseren Beiträgen nicht getan haben.

Was Du sagst, trifft auf Dokumentation zu, was ich meinte, auf Kunst.

Als Fotograf betrachte ich die Fotografie vor allem als Möglichkeit künstlerischen Ausdrucks, ich fotografiere vor allem für mein Vergnügen. Da betrachte ich die Manipulation nicht-wesentlicher Details halt als legitim. Das fing doch schon mit dem “Abwedeln” an ...

EDIT
Eine Fälschung entsteht erst durch die Behauptung, keine zu sein. Sonst ist es eine Replika oder was auch immer. Fake Detail wäre es also dann, wenn der Fotograf claimt, pixelgenaue Details zu zeigen. Das tut er i.d.R. ja nicht. Schon gar nicht, wenn er retuschiert, was gängige Praxis ist. Das teuerste Foto der Welt (Rhein II) ist massiv manipuliert.

Im Bereich KI gibt es diverse Fake Technolgien, z.B. die Deep Fake Videos. Dies sind echte Fakes, weil sie unwahrscheinliche Bilder zeigen.
 
Zuletzt bearbeitet:
P
P.Gnagflow kommentierte

Zitat:"Wolfgang, grundsätzlich gebe ich dir recht, aber wir müssen zwischen Dokumentation und Kunst unterscheiden - was wir beide bei unseren Beiträgen nicht getan haben.

Was Du sagst, trifft auf Dokumentation zu, was ich meinte, auf Kunst."


O.K. wenn wir uns so einigen können will ich das akzeptieren. Allerdings ist es aus meiner Sicht in Zukunft zwingend erforderlich Wege zu finden, die hier im Sinne der Wahrheitsfindung Spreu vom Weizen zu trennen in der Lage sind.

Ich komme nunmal aus der wissenschaftlich-technischen Knipserei. Sie ist seit rund 40 Jahren mein täglich Brot, meine Leidenschaft und zeigt mir immer wieder dass es nichts braucht außer der Realität um den Betrachter der kleinsten Vorgänge und Strukturen in Natur und Technik zum Staunen und zur Bewunderung zu bringen. Wo sich die Realität in dieser Vielfalt zeigt, ist photographische Kunst auf die perfekte Beherrschung des Handwerks, das Auffinden des repräsentativsten Ausschnitts, auf die Wahl des richtigen Moments reduziert. Mehr bedarf es nicht und alles andere ist in meinen Augen abwegig.
 

Anhänge

  • Meduse 3D.jpg
    Meduse 3D.jpg
    300 KB · Aufrufe: 26
Zuletzt bearbeitet:
P
P.Gnagflow kommentierte
Nur mal so, um zu zeigen wovon ich schreibe: Die angehängte winzige Meduse eines marinen Polypen kann man sich mit einer Rot/Cyan 3D Brille auch räumlich anschauen.
 
Macht es doch nicht so kompliziert, AI, Mustererkennung, etc. ist noch eine recht junge Wissenschaft, bis man da an irgendwelche Grenzen stößt, werden wohl noch ein paar Dekaden vergehen.
 
4 Kommentare
P
P.Gnagflow kommentierte
Ich wusste nicht, dass es kompliziert wird wenn man auf sich entwickelnde Miststände aufmerksam macht. Noch dazu welche, die im Grunde jedem unangenehm auffallen sollten, der sich mit Dokumentation - in meinem Fall wissenschaftlich-technischer Photographie - beschäftigt, da sie dem ganz grundsätzlichen Prinzip der Realitätstreue und Zuverlässigkeit zuwider laufen. Kann natürlich sein dass Anwender in anderen Bereichen des täglichen Lebens nicht so "kleinlich" sind.
 
falconeye
falconeye kommentierte

Dokumentation - in meinem Fall wissenschaftlich-technischer Photographie
Wolfgang, da Du hierfür der Experte bist, interessiert mich ehrlich deine Meinung zu einem verwandten Thema:

Der medizinischen Fotografie mit von der AI markierten oder hervorgehobenen Anomalien, wie Krebsgewebe etc. Wie stehst Du dazu, ist das eine positive Entwicklung? Die AI kann ja Fehler machen, aber andererseits kleinste Tumorzeichen vielleicht erkennen, die sonst übersehen würden. Der Arzt kann ja immer noch zwischen AI-enhanced und normal wechseln.

Siehst Du also AI innerhalb der wissenschaftlich-technischen Fotografie grundsätzlich negativ, oder hängt es vom konkreten Fall ab?
 
P
P.Gnagflow kommentierte
Naja, Experte?? Wohl eher nicht so richtig. Ich bin kein Medizinmann, schon garkein Pathologe, auch wenn ich ein paar Jahre in einer großen Pathologie gearbeitet habe.

Wenn AI wirklich im Präparat beispielsweise Tumorgewebe erkennt, was u.U. in Verbindung mit der Telepathologie mittelfristig technisch machbar, sinnvoll und vielleicht auch wünschenswert wäre, so wird das meiner Kenntnis nach aktuell immer auch zu Fuß, d.h. am Mikroskop von einem Pathologen kontrolliert und ginge meines Wissens Stand heute nie einfach mal so unkommentiert als Diagnose durch. Das wäre wohl auch nicht zu verantworten, weil gerade bei der Tumordiagnose vom Urteil des Pathologen insbesondere auch beim Schnellschnitt, also einer Biopsie während der OP sehr viel, u.U. der Verlust eines Organs, damit womöglich Lebensqualität oder gar das Leben eines Patienten abhängt. Ein Irrtum muss hier maximal ausgeschlossen werden, Fehler sind in diesem Zusammenhang keine Option, nie.

Daher kenne ich es auch nicht anders als dass jeder ankommende Fall unter dem Mikroskop des Pathologen landet und nicht eindeutige Fälle mit Kollegen diskutiert und später auch auf den regelmäßigen Konferenzen, die in großen Kliniken alle paar Tage stattfinden, vorgestellt und besprochen werden. Auch gehört zu einer solchen Diagnose eine nicht unerhebliche Erfahrung und ich denke nicht dass Softwaretechnologien so weit sind diese zu ersetzen. Ergänzen ja, keine Frage ... gerade hier wird sich in den nächsten Jahren sicher noch einiges tun, nur wird man gerade bei der Krebsdiagnose und ähnlich kritischen Themen bis auf weiteres auf eine manuelle Kontrolle nicht verzichten dürfen.

Einen positiven Aspekt kann man aber wohl schon jetzt anführen: Der softwarebasierten Auswertung von Präparaten/Bildern fehlt die Subjektivität einer manuellen Auswertung, was ich erst einmal als Fortschritt auf dem Weg zur Fehlerfreiheit ansehe.

Aber - nur meine Ansicht!

Freundliche Grüße

Wolfgang
 
BernhardJ
BernhardJ kommentierte
Da eine Bildbearbeitungs-KI auch nicht fehlerhaft und allwissend ist, haben wir hier damit ebenfalls eine zusätzliche wertvolle Subjektivität (Meinung) die (von Menschen) gegen geprüft werden müsste, wenn sie im wissenschaftlichen oder dokumentarischen Bereich eingesetzt wird. Daher sehe ich den Einsatz auch in der Wissenschaft als sehr hilfreich.
 
2 Kommentare
falconeye
falconeye kommentierte
Hatte ich gerade noch hinzugefügt - will dir aber nicht die Pointe klauen und habs wieder gelöscht ;)
 
P
P.Gnagflow kommentierte
Abwedeln im Photolabor bringt aber keine Details in das Positiv die im Negativ nicht vorhanden sind, sondern macht nur sichtbar was durch Unzulänglichkeiten (u.U. des Laboranten) nicht zu sehen war.
Die Höhlenzeichnung ist kaum als Dokumentation zu werten, sondern war - wenn man den Interpretationen der Historiker glauben darf - als ein Mittel der Zauberei und Beschwörung von Jagdglück gedacht. Diesem Zweck gemäß eher idealisierend, den Wünschen und weniger den Tatsachen entsprechend. Also ein schon ein bisschen was anderes und daher könnte es zwar hinken - der einen oder anderen Darstellung fehlt ja auch mal ein Bein - ist deshalb aber nicht zwingend auch ein Vergleich.
 
Zuletzt bearbeitet:
-Anzeige-
Zurück
Oben Unten