Information Linux für Bildbearbeitung


pixelschubser2006

Sehr aktives Mitglied
Zunächst mal vielen Dank an Shovelhead für diesen ausfürlichen Info-Thread. Es ist immer wieder interessant zu lesen wie sich Linux im Alltag auch auf dem Desktop schlagen kann. Ein paar Anmerkungen habe ich aber schon:

Du schreibst, Linux wäre das schnellste Betriebsystem, mit dem Verweis auf die Supercomputer. Das muss man relativieren. Der Hauptgrund warum es dort im Einsatz ist, liegt in der Skalierbarkeit. In Punkto Geschwindigkeit auf dem Desktop zählen für mich ganz andere Maßstäbe, insbesondere auch der subjektive Geschwindigkeitseindruck. Und da muss ich leider feststellen, daß die Vorteile von Linux nicht mehr wirklich gegeben sind. Auf einem älteren, aber durchaus brauchbaren Rechner der 3 GHz-Klasse mit 1 GB Ram lässt sich Windows 8 installieren und läuft echt brauchbar. Eine gängige Linux-Distri wie Ubuntu mit Gnome wird da mitunter schon zäh. Und fairerweise muss man auch sagen daß dem Windows PC oft mit der Installation eines Security-Paketes die Leistung geraubt wird. Das muss man zwar praxisnah beurteilen, da unter Linux derzeit noch nicht notwendig, aber wenn es auch dort mal soweit ist mit der Virenbedrohung dann werden die Karten neu gemischt.

Jedenfalls sind für mich bei der Beurteilung der Geschwindigkeit Fragen relevant wie "wie lange braucht mein Videoschnittprogramm zum rendern" oder wie schnell kann ich 100 Raws per batch verarbeiten. Es kann durchaus sein sein daß Linux da nachwievor die Nase vorne hat aber das müsste man wirklich mit genauen Definitionen vergleichen.

Auf jeden Fall gibt es eine Menge Dinge unter Linux an denen sich Windows orientieren sollte. Alleine die praktischen Updatefunktionen. Eine Wohltat im vergleich zu den nervigen Adobe-Updates.

Übrigens finde ich es peinlich daß es viele Hersteller nicht schaffen ihre Software so zu entwickeln, daß eine Portierung auf Linux oder Unix möglich ist. Zumal ich mir vorstellen kann, daß ein Großteil der Arbeit für Mac OS bereits erledigt wurde. Umgekehrt sieht das anders. Kleine Klitschen wie die entwicklergruppen zahlreicher Linux-Proggis können das offenbar viel besser. Und krempeln dabei gehörig den Markt auch auf Windows PC durcheinander. Man muss nur mal schauen wieviele FOSS-Software aus dem Linux-Lager kommt, die unter Windows ebenfalls sehr bekannt ist. Gimp zum Beispiel!

[MENTION=49919]shovelhead[/MENTION]: Wie muss ich das mit den virtuellen Maschinen verstehen? Hostest Du auf Deinem Grafik-Rechner auch diverse virtuelle Server? Das fände ich ziemlich ungewöhnlich. Schließlich teilt man seine Leistung nicht gerne...

Trotzdem ist Linux in viel
 
Kommentar

dampfbetrieben

Aktives und bekanntes NF-Mitglied
Obwohl ich kein Informatiker bin, habe ich hier den Eindruck, dass hier einiges durcheinander läuft.

Die Geschwindigkeit, mit der Videos gerendert oder Raws im Batch verarbeitet werden hängt nun massgeblich von der verwendeten Software ab. Natürlich mag das OS den Datendurchsatz beeinflussen, aber vom Gefühl her würde ich sagen, dass erst einmal die Applikation für die Verarbeitungsgeschwindigkeit verantwortlich ist.

Alte Rechner laufen auch/gerade sehr flüssig mit einer Linux Distro. Vielleicht nimmt man dann nicht das schön bunte Gnome oder KDE als GUI sondern etwas passenderes, xfce z.B.. Die Stärke von Linux ist ja gerade, dass man selber entscheiden kann, wie man arbeiten möchte bzw. wie umfangreich das System sein soll. Insofern hat man hier schon eine Skalierbarkeit bei der Auswahl in der Installation.

Ob Linux DAS schnellste OS ist, spielt doch keine Rolle für einen "Normalanwender". Um in diesen Bereich der Superlativen vorzudringen, bedarf es ziemlich intensiver Systemkenntnisse um das System so fein und perfekt abzustimmen um in diesen Bereich zu kommen. Für Windows versuchen zahllose "Fachzeitschriften" mit "Tips und Tricks für ein schnelleres Windows" genau diesen Unsinn voranzutreiben.
Für mich als Anwender ist dieser Bereich vollkommen uninteressant. Das System muss gefühlt flüssig laufen und ich muss die Möglichkeit haben, die Software auf die vorhandene Hardware abzustimmen (oder anders herum, wie in meinem Fall). Ob ich dann in irgendwelchen belanglosen Benchmarks 2 Ms schneller oder langsamer bin...so what!
Ich will nicht sagen, dass dieser Bereich nicht interessant ist, aber ich habe keine Zeit für ein weiteres Hobby. Ein System extrem auf Leistung zu züchten, ist einfach eine Wissenschaft für sich und Bedarf mehr Zeit als ich bereit bin für die letzten 10% Leistung auszugeben.

Gruss
Michael
 
Kommentar

pixelschubser2006

Sehr aktives Mitglied
Das was Du schreibst ist zweifellos mehr als richtig. Vergleichen kann man nur mit Software die auf beiden Systemen läuft. Und selbst dann muss sich im Klaren sein, dass die Software mitunter selbst Unterschiede in der Performance erzeugt. So oder so scheitert es ein wenig in der Vergleichbarkeit der Applikationen.
Das was Du über die verschiedenen Desktop-Umgebungen schreibst stimmt auch, allerdings bezeifel ich den Einfluss auf die Performance beim Arbeiten.
In der Windows-Welt merkt man das klar. Entscheidend ist hier weniger die verwendete Windows-Version sondern die Anwendung. Nimm einen Rechner mit 3 Ghz und genug Ram für moderne OS, sagen wir 2 GB, wird nach der Neuinstalltion ein Windows 7 oder 8 gefühlt nicht wirklich langsamer sein als
ein XP mit allen Updates.
Letztendlich will ich aber auf keinen Fall irgendwas schlechtreden, im Gegenteil. Im mag Linux und experimentiere häufig damit. Und wirklich dramatisch ist das Thema Performance auch nicht mehr, da inzwischen ja selbst der Zweitrechner vieler Anwender einen Dualcore-Prozessor hat, auf dem Windos 8 stramm funktioniert.

Die Sache mit den System-Optimierungen sehe ich genauso wie Du. Für mich zählt ausreichend Leistung für meine aktuelle Anwndung und 100% Stabilität. Für den Rest habe ich auch keine Zeit.

.
Obwohl ich kein Informatiker bin, habe ich hier den Eindruck, dass hier einiges durcheinander läuft.

Die Geschwindigkeit, mit der Videos gerendert oder Raws im Batch verarbeitet werden hängt nun massgeblich von der verwendeten Software ab. Natürlich mag das OS den Datendurchsatz beeinflussen, aber vom Gefühl her würde ich sagen, dass erst einmal die Applikation für die Verarbeitungsgeschwindigkeit verantwortlich ist.

Alte Rechner laufen auch/gerade sehr flüssig mit einer Linux Distro. Vielleicht nimmt man dann nicht das schön bunte Gnome oder KDE als GUI sondern etwas passenderes, xfce z.B.. Die Stärke von Linux ist ja gerade, dass man selber entscheiden kann, wie man arbeiten möchte bzw. wie umfangreich das System sein soll. Insofern hat man hier schon eine Skalierbarkeit bei der Auswahl in der Installation.

Ob Linux DAS schnellste OS ist, spielt doch keine Rolle für einen "Normalanwender". Um in diesen Bereich der Superlativen vorzudringen, bedarf es ziemlich intensiver Systemkenntnisse um das System so fein und perfekt abzustimmen um in diesen Bereich zu kommen. Für Windows versuchen zahllose "Fachzeitschriften" mit "Tips und Tricks für ein schnelleres Windows" genau diesen Unsinn voranzutreiben.
Für mich als Anwender ist dieser Bereich vollkommen uninteressant. Das System muss gefühlt flüssig laufen und ich muss die Möglichkeit haben, die Software auf die vorhandene Hardware abzustimmen (oder anders herum, wie in meinem Fall). Ob ich dann in irgendwelchen belanglosen Benchmarks 2 Ms schneller oder langsamer bin...so what!
Ich will nicht sagen, dass dieser Bereich nicht interessant ist, aber ich habe keine Zeit für ein weiteres Hobby. Ein System extrem auf Leistung zu züchten, ist einfach eine Wissenschaft für sich und Bedarf mehr Zeit als ich bereit bin für die letzten 10% Leistung auszugeben.

Gruss
Michael
 
Kommentar

dampfbetrieben

Aktives und bekanntes NF-Mitglied
Das was Du über die verschiedenen Desktop-Umgebungen schreibst stimmt auch, allerdings bezeifel ich den Einfluss auf die Performance beim Arbeiten.

Ja, grundsätzlich hast Du da wahrscheinlich recht. Zum tragen kommt die Umgebung erst auf einem "knappen" System. Wenn RAM eher bescheiden bemessen und der Prozessor eher schwachbrüstig ist, merkt man es auch beim Arbeiten, wenn die GUI durch 1000 Eye-Candy Effekte beim Fensterwechsel besticht und im Hintergrund 20 Wetter -und Börsenwidgets werkeln. Ich habe jetzt bewusst übertrieben um meinen Standpunkt zu verdeutlichen :D


Neben der reinen Performance kommt aber zunehmend (wieder) die Handhabbarkeit/"Usability" eines Systems zum tragen. Gestern habe ich mich noch mit einem Freund über Windows 8 unterhalten. Mir gefällt es sehr gut, dass sich das System m.Mg. nach sehr schön über Tastatur steuern lässt . Ihm gefällt es so in der vorhandenen Form gar nicht. Unter Linux, speziell Ubuntu, war die Unify Oberfläche stark in der Kritik, weil sie sich einfach anders anfühlt und anders verhält als viele es über die Jahre von Gnome gewohnt waren. Der Unterschied hier ist aber wieder einmal: Bei Linux hat man die freie Wahl.

Ich sehe es sehr pragmatisch: Ähnlich wie bei Kameras gibt es keine schlechten Systeme/OS mehr. Je nach Anforderung und Geldbeutel kann man sich sein System inkl. Software aussuchen.
Auch einer der Gründe, warum ich mich selber quäle und so erpicht darauf bin, mein Bilder-Archiv Plattform-unabhängig zu halten, auch wenn es unbequem ist. Sollte ich mit Win 8 auf keinen grünen Zweig kommen, bin ich innerhalb eines Nachmittags wieder beim Pinguin.
 
Kommentar

xf00741

Unterstützendes Mitglied
Nun, ich werde versuchen die Top 100 Supercomputer hier zu mir einfliegen zu lassen, um das selbst nochmal zu überprüfen.
Du hast mich nicht verstanden. Nur weil Linux auf den Supercomputern genutzt wird (die nur wegen der Unmengen von Procs so schnell sind), heisst es noch lange nicht, dass es das schnellste OS auf einem PC ist. Dafür hätte ich gerne einen Beleg gehabt, denn meine Recherchen im Internet haben leider keinen Vergleich gefunden.

Das tut Linux aber schneller, als Andere; es reicht, auf einem PC einfach mal mehrere OS parallel zu installieren, und dann die Zeit zu nehmen, die für einen grösseren Aufgabenkatalog gebraucht wird.
Siehe weiter oben. Ich antworte mal in Deinem Stil: Es ist kein Problem mal eben alle relevanten OS (dann auch noch identische Software um die Vergleich durchzuführen) auf einem PC / Mac zu installieren, insbesondere bei bei den kostenpflichtigen. Wäre das so einfach, dann hätte ich im Internet bestimmt auch Vergleichswerte gefunden (OK, vielleicht suche ich auch nur nach den falschen Begriffen).

Ich weis nicht, ob der GIMP schneller oder langsamer als PS ist (und habe das auch noch nie gehört, aber irgendwann ist ja immer das erste Mal).
Ich hatte damals die entsprechenden Zeiten gestoppt. Daher meine Frage ob Dir da was bekannt ist.

Ich werde das Thema Linux im Auge behalten und vielleicht werkelt dann auf meiner nächsten Kiste auch wieder Linux. Ja, ich hatte schon diverse Linux-Distributionen am laufen und für meine wichtigsten Anwendungen waren sie nicht zu gebrauchen und langsamer. Daher habe ich in den letzten vier Jahren keinen Gedanken mehr daran verschwendet.

Dazu kommt noch, dass bei meiner letzten Linux-Installation (irgendeine Ubunto-Version) nach einem Update nix mehr ging (nachdem die Distri monatelang problemlos lief) und ich Stunden damit verbracht habe, das wieder auf Vordermann zu bringen. Das habe ich im Laufe meiner Linux-Experimente (seit Ende der 90er-Jahre) mehrfach gehabt, bei Windows, OS/2 und OS-X hingegen nie. Auch das ist ein Punkt, den man beachten sollte: Wie einfach kann man das System pflegen und vor alle reparieren, wenn man mal was zerschossen hat.

Nun ist das Thema für mich aber erledigt.

Nix für ungut und viele Grüsse
Jörg
 
Kommentar

pixelschubser2006

Sehr aktives Mitglied
Da fasst Du ein heisses Eisen an. Das ist nämlich exakt der wichtigste Punkt, warum ich Linux nicht produktiv einsetze. Sogar vorm Einsatz als Fileserver zurückschrecke.
Ich erinnere mich an ein Szenario von 2005 bei einem Linux Server, den ich in Betrieb hatte. Es tauchte ein Festplattenfehler auf, den man unter Windows mit Scandisk oder spätestens mit Checkdisk in den Griff bekommen hätte. Die Maschine startete auch nicht mehr. Ich habe rd. 3 Stunden gebraucht, trotz eines Stapels Linux Bücher, um den Fehler zu beheben. Es gab nämlich ein Tool welches in seinem Sinn Checkdisk vergleichbar war und dessen Anwendung auch ähnlich einfach funktionierte. Dummerweise brauchte ich Stunden der Recherche um dieses bordeigene Tool aufzuspüren. Und solange sich Linux-Programmierer in solchen Basics nicht einig sind, bleibt es für die User zu verwirrend.
Aber man lernt dazu. So gibt es mittlerweile Installationsscripte die per Doppelklick starten u.ä. Und eben die genial einfache Updateprozedur. Zumindest unter Ubuntu / Gnome. Vermutlich sind andere Distiris an dieser Stelle vergleichbar bis identisch.
Jedenfalls führt die Vielfalt zu einem gewissen Chaos und das ist schade. Was übrigens besser als ihr Ruf sind: Gnome 3 und die Unity Shell. Genaugenommen wird hier aufgegriffen was sich mit Windows Vista im Startmenü schon anbahnte: Es sind nur Verknüpfungen direkt erreichbar die das System für wichtig hält, im Gegenzug klappt der Programm- oder Dateiaufruf per Suche und Tastatur verfdammt gut Ergo muss man sich mit sowas mal beschäftigen. Sicher kann man einiges besser machen aber katastrophal schlecht ist es nicht. Vor allem ist es nicht mutiger als Windows 8 mit seinen neuen krassen Usability-Methoden... (die auch nicht grundsätzlich schlecht finde...
Alles in allem ist mir Linux in mancherlei Hinsicht zu unberechenbar, speziell wenn es mal hakt. Somit kann ich Deine Aussage nur 100% unterschreiben.


Dazu kommt noch, dass bei meiner letzten Linux-Installation (irgendeine Ubunto-Version) nach einem Update nix mehr ging (nachdem die Distri monatelang problemlos lief) und ich Stunden damit verbracht habe, das wieder auf Vordermann zu bringen. Das habe ich im Laufe meiner Linux-Experimente (seit Ende der 90er-Jahre) mehrfach gehabt, bei Windows, OS/2 und OS-X hingegen nie. Auch das ist ein Punkt, den man beachten sollte: Wie einfach kann man das System pflegen und vor alle reparieren, wenn man mal was zerschossen hat.
Jörg
 
Kommentar

Klaus Harms

Administrator
Teammitglied
Danke für den tollen Betrag und die Mühe, die Du Dir gemacht hast.

Ich habe das Ding mal oben aufgehangen!
 
Kommentar

dslrknipser

Aktives NF Mitglied
Da fasst Du ein heisses Eisen an. Das ist nämlich exakt der wichtigste Punkt, warum ich Linux nicht produktiv einsetze. Sogar vorm Einsatz als Fileserver zurückschrecke.
Ich erinnere mich an ein Szenario von 2005 bei einem Linux Server, den ich in Betrieb hatte. Es tauchte ein Festplattenfehler auf, den man unter Windows mit Scandisk oder spätestens mit Checkdisk in den Griff bekommen hätte. Die Maschine startete auch nicht mehr. Ich habe rd. 3 Stunden gebraucht, trotz eines Stapels Linux Bücher, um den Fehler zu beheben. Es gab nämlich ein Tool welches in seinem Sinn Checkdisk vergleichbar war und dessen Anwendung auch ähnlich einfach funktionierte. Dummerweise brauchte ich Stunden der Recherche um dieses bordeigene Tool aufzuspüren. Und solange sich Linux-Programmierer in solchen Basics nicht einig sind, bleibt es für die User zu verwirrend......
naja, aus meiner Sicht würde ich kein System produktiv einsetzen, bei dem ich mich nicht auskenne und ich nicht mal weiss, dass in den man-pages aus dokumentiert ist und zusätzlich im Netz eine grosse Community hilfsbereit weiterhiflt.

Zum "heissen Eisen" Systemstabilität muss man sagen, das die Linux-Distros von meist ehrenamtlich arbeitenden Entwicklern betreut wird und das demenstprechend schon mal Fehler passieren können. Wenn ich mich also in Linux eingearbeitet habe, weiss ich, dass ich vor einem Update bei der Communtity / Distro im Netz nachschauen kann ob es Update Warnings gibt und od diese Warnings für mich relevant sind. Falls doch mal was schief geht kann man im Handumdrehen ein Backup wieder einspielen....
Aber dass war jetzt alles etwas "Off-Topic"....

,
vielen Dank für den guten Info-Beitrag. Bisher habe ich rawtherapee benutz und war aber nicht glücklich damit. So ahbe ich auf einem Win-Rechner CNX ausprobiert und bin "leider" von CNX, vor allem wegen der U-Points begeistert.
Leider konnte ich CNX weder mit den besch... mono-libs noch mit wine zum laufen bringen. In virtualbox gehts.
Darktable werde ich mir mal anschauen. Nochmals dank dafür.

Gruss,
Markus
 
Kommentar

shovelhead

Sehr aktives Mitglied
[MENTION=11345]pixelschubser2006[/MENTION]

ich bin irgendwann von debian auf das debian-basierte unbuntu (damals mit Gnome 2) umgestiegen, weil mir die Distribution als Desktop-Lösung noch einfacher daherkam. Das habe ich bis etwa 2011 auch nie bereut. Seit aber Unity als GUI vorgeschrieben wurde (und selbst bei Gnome-Shell und Gnome 3 dennoch Unity Upragdes mit installiert werden) bin ich auf XfCE umgestiegen, welches selbst debian inzwischen als Standard-Desktop vorschlägt. Mir ist die Idee fremd, dass es eine Hierarchie der Direktzugriffe gibt - ich möchte an Alles genau gleich schnell dran kommen. Dafür verzichte ich gern auf ressourcenfressende Bildschirm-Gimmicks und Widgets.

Als ich im Dezember meinen neuen Rechner aufgesetzt habe, bin ich dann wieder zu xubuntu zurückgekehrt (ubuntu mit XfCE). Und - ja - ich habe nur einen Rechner (ein i5 Ultrabook mit 16GB RAM) und mache damit ALLES. Sogar gelegentliches Server Hosting unterwegs.

[MENTION=5054]xf00741[/MENTION]
mir ist es noch nie passiert, unter Linux irgendetwas nicht ans Laufen zu bekommen, und ich habe auch noch nie einen Systemabsturz mit Datenverlust erlebt. Deshalb nutze ich es ja auch. Auf Kisten mit Windows hört man davon allerdings häufiger - bis hin zur alten Weisheit, dass Updates unter Windows fast immer schief laufen, und man deshalb besser neu installieren soll.

Ich konvertiere recht häufig Video Dateien mit Avidemux. Dessen Geschwindigkeit erstaunt häufig meine Bunken, wenn wir zusammen an einem Kajak-Porno herumfummeln. Vermutlich liegt die vergleichsweise hohe Geschwindigkeit daran, dass ich auf die GUI verzichte und das Programm in der Konsole ausführe. Das ist für Mausabhängige ungewohnt, braucht aber weniger Ressourcen. Ob ein solcher Konverter unter Windows oder OS-X auch schneller wäre, wenn man ihn ohne grossen Klickibunti Zirkus aufrufen könnte? Wer kann das schon sagen, denn die Wahlmöglichkeit ist nicht gegeben. Die hast du nur unter GNU/Linux und PC-BSD.
 
Kommentar

pixelschubser2006

Sehr aktives Mitglied
Systemstabilität sehe ich nicht als heißes Eisen an - denn die ist wirklich gut. Allerdings habe ich allgemein mit Windows in dieser Richtung auch keine nennenswerten Probleme.
Dokumentation ist ja schön und gut - aber bei meinem Problem drängte a) die Zeit und b) hatte ich ja schon eine ganze Menge. Nämlich in Form von Büchern. Im übrigen bin ich kein Freund davon, etwas ohne Sinn und Verstand anders zu machen. Nun kann Microsoft das auch ganz gut, aber besagte Festplattensystemtools sind bei denen aus Anwendersicht nun schon seit beinahe Jahrzehnten identisch. Das könnte man bei Linux durchaus auch so aufgreifen.

naja, aus meiner Sicht würde ich kein System produktiv einsetzen, bei dem ich mich nicht auskenne und ich nicht mal weiss, dass in den man-pages aus dokumentiert ist und zusätzlich im Netz eine grosse Community hilfsbereit weiterhiflt.

Zum "heissen Eisen" Systemstabilität muss man sagen, das die Linux-Distros von meist ehrenamtlich arbeitenden Entwicklern betreut wird und das demenstprechend schon mal Fehler passieren können. Wenn ich mich also in Linux eingearbeitet habe, weiss ich, dass ich vor einem Update bei der Communtity / Distro im Netz nachschauen kann ob es Update Warnings gibt und od diese Warnings für mich relevant sind. Falls doch mal was schief geht kann man im Handumdrehen ein Backup wieder einspielen....
Aber dass war jetzt alles etwas "Off-Topic"....

,
vielen Dank für den guten Info-Beitrag. Bisher habe ich rawtherapee benutz und war aber nicht glücklich damit. So ahbe ich auf einem Win-Rechner CNX ausprobiert und bin "leider" von CNX, vor allem wegen der U-Points begeistert.
Leider konnte ich CNX weder mit den besch... mono-libs noch mit wine zum laufen bringen. In virtualbox gehts.
Darktable werde ich mir mal anschauen. Nochmals dank dafür.

Gruss,
Markus
 
Kommentar

Wocket

Sehr aktives Mitglied
[MENTION=49919]shovelhead[/MENTION]: Auch von mir nochmal ein Dankeschön für den gelungenen Beitrag!:up:

Ich nutze Linux als Produktiv-System schön länger, als ich fotografiere. Von daher war eigentlich immer klar, dass ich nicht ohne signifikanten Druck die für mich aus vielen Gründen angenehmere Umgebung verlassen möchte. Die Gründe erläutere ich lieber nicht, da es wie die Geschwindigkeitsdiskussion, vom Kernthema ablenkt.

Zur Konvertierung und Bearbeitung meiner Raw-Dateien nutze ich derzeit primär AfterShot Pro (ASP) und gelegentlich Gimp für aufwendigere Retuschen. Den Vorgänger von ASP, der gute alte Klassiker Bibble, habe ich bereits in Version 4 genutzt und war umso mehr von den Bearbeitungs- und Workflow-Konzepten in Version 5 angetan. Das so oft gehypte (und IMHO überschätzte) LR(* war und ist für mich keine echte Alternative. Nun gehört Bibble aber seit einiger Zeit dem Software-(Beerdigungs-)Unternehmen Corel an, die das Potential in Bibble wohl nie verstanden haben, wie ich fürchte.

Umso erfreulicher sind die ganz aktuellen Entwicklungen in Darktable. Ein Killer-Feature in ASP waren und sind für mich die Ebenen, die sehr flexibel lokale Bearbeitungen auf großen und kleinen Bereichen des Bildes zulassen, so dass Gimp umso seltener als zweiter Bearbeitungsschrit notwendig war. Die Darktable Entwickler implementieren derzeit eine vergleichbare Funktionalität. Wenn man sich die Mühe macht, die Entwicklerversion aus dem Git (in den "masks*"-Branches) zu kompilieren, kann man schon so einiges sehen und ausprobieren. Sehr spannend!
Schon im Master-Branch der Git-Version ist die Möglichkeit zur mehrfachen Verwendung der Module implementiert. Dies ist zum einen Grundlage für die Verwendung in lokalen Anpassungen, zum anderen aber beispielsweise anwendbar mit den vielseitigen Überblendmethoden, die bereits in den aktuellen stabilen DT-Versionen auf Helligkeits- oder Farbbereiche eingegrenzt werden können. Ich sehe da insbesondere eine Menge kreatives Potential, was so IMHO bei anderen Konvertern nicht gegeben ist -- und das Potential wächst :D
Auch wenn ich mich nur schwerlich mit dem LR-artigen, Datenbank-zentrierten Konzept von DT anfreunden kann, so bin ich doch in der Summe schwer begeistert und könnte mir vorstellen, nach und nach zu wechseln.

RawTherapee (wurde ja schon erwähnt) und Photivo, nutze ich gerne zur Bearbeitung von Scans. DT habe ich dafür noch nicht probiert, kommt aber noch.

Ach ja... falls noch nicht bekannt: Das tot-gesagte, ehemals kommerzielle LightZone erfährt eine Wiedergeburt als Open-Source-Prjekt: Ich bin gespannt, wo deren Reise hin geht.

(* Für interessierte: Offenbar läuft LR 4 mittlerweile ziemlich gut unter Wine:
 
Kommentar

berlinerbaer

Unterstützendes Mitglied
ich habe mir gerademal einen Schlüssel für die Freischaltung von Lightzone 3.9 besorgt, einfach nur googeln, mehr will ich dazu nicht äußern. Der Schlüssel für Lightzone 3.8 funktioniert ebenso wie für die Version 3.9.

Das Programm selbst hier:
den direkten Link für den Schlüssel darf ich ja hier nicht öffentlich einbringen; ich bin mir auch nicht klar, ob das überhaupt rechtens ist, dass derartige Freischaltungsschlüssel im Netz angeboten werden, auch wenn diese Seiten Lightzone 3.8 als "Zombie" bezeichnen und so tun, als ob man hier nur Grabpflege betreibe..

Wenn dieses Programm weiter verfolgt werden wird, dann wird es ufraw, rawtherapee oder darktable in jeder Beziehung übertreffen. Ich bin ja erstaunt darüber, dass auch alle neueren NEFs (bis hin zur D600 und zur Nikon 1V2) von diesem Programm unterstützt werden. Der einzige Wermutstropfen - zumindest für mich - ist die Tatsache, dass es keine deutsche Oberfläche gibt und ich mir mühsam "Spikzettelchen" erarbeiten und neben die Tastatur legen mußte.

Das ist ein Spitzenprogramm und wenn Corel weiter so pennt, dann schaffen die mit AfterShotPro das, was sie fast immer geschafft haben, sie haben dann wiedermal wie schon etliche Male ein sehr gutes Programm aufgekauft und es dann in die Bedeutungslosigkeit zurück geschlampert.

Gruss
vom Bären
 
Kommentar

tuti167

Unterstützendes Mitglied
Danke für diesen sehr guten Beitrag!!!

Das Thema farbmanagemnt hast Du allerdings außen vor gelassen. Deshaln diese kloeine Ergänzung.

FM ist immer noch die Achillesszene von Linux:

"Die Farbmanagement-Unterstützung unter Linux ist, zumindest von Seiten des Betriebssystems, noch nicht der Rede wert. Zwar gibt es erste Ansätze, aber die werden von den gängigen Anwendungsprogrammen noch nicht unterstützt.
Das heißt nicht, dass man unter Linux kein Farbmanagement einsetzen könnte, aber es ist dort noch zu 100 % Sache der verwendeten Anwendungsprogramme. Bestimmte Feinheiten, z. B. die automatische Anwendung getrennter Profile für mehrere Monitore, gehen in Linux systembedingt nicht. (Fairerweise muss man zugeben, dass das auch mit den meisten Windows-Programmen noch nicht richtig klappt.)

Für den Benutzer der augenfälligste Unterschied zu MacOS und Windows ist, dass er auch das Monitorprofil in jedem Programm direkt wählen muss.
Aber auch die Kalibrierung und Profilierung des Monitors unterliegt schon besonderen Hürden, denn die Hersteller der bekannten Farbmessgeräte liefern keine Linux-Software mit, und ausgereifte freie Kalibrierungsprogramme sind schwer zu finden. Am besten erstellt man das Monitorprofil auf derselben Hardware unter einem parallel installierten Windows und übernimmt es dann ins Linux-System. Hilfsprogramme fürs Schreiben von Kalibrierungsdaten in die Grafikkarten-LUT sind für Linux erhältlich; alternativ könnte man eine "Profilierung ohne Kalibrierung" wählen, um die Frage der Kalibrierungsdaten gleich zu umgehen."

Das schließt die Verwendung von Widegarmut hardwarekalibrierbaren Schirmen und 2 Schirme an einer Anwenndung leider aus.
 
Kommentar

rayadagio

Unterstützendes Mitglied
Aber auch die Kalibrierung und Profilierung des Monitors unterliegt schon besonderen Hürden, denn die Hersteller der bekannten Farbmessgeräte liefern keine Linux-Software mit, und ausgereifte freie Kalibrierungsprogramme sind schwer zu finden.
Spyder 3 und Argyll CMS haben bei mir prima funktioniert.
 
Kommentar

shovelhead

Sehr aktives Mitglied
Erwähnt hatte ich aber, dass der GIMP eine Schnittstelle zum Farbmanagement bietet und die Spyder geräte ganz ausgezeichnet mit Argyll CMS zusammenarbeiten

# apt-get install argyllcms dispcalgui
Damit hast du dann auch gleich die graphische Oberfläche zu Argyll
es gibt ja immer wieder Leute, die glauben, dass Mäuschenschubsen ein Zeichen von Fortschritt wäre.

Ich weis NICHT, ob das im Multi-Monitor Setup ein Problem darstellt, und kann es mir eigentlich auch nicht vorstellen. Ich habe in meinem Notebook zwei VGA KArten und arbeite immer auf drei Arbeitsflächen. Auch die inaktiven Arbeitsflächen haben "Action", das kann man leich sehen, wenn man in die Arbeitsflächenverwaltung schaut. Daher wüsste ich nicht, wieso CMS nicht Systemweit klappen sollte.

Wie gesagt nutze ich selbst aber kein CMS. Ich drucke selbst gar nicht, nur einmal im Jahr lasse ich Kalender fertigen, und diese kommen seit vier Jahren genau so an, wie ich mir die Farben vorgestellt habe. Kein Farbton dominiert oder kippt, und die Helligkeit und Kontrastwerte des Monitors kann man auf 1000 Seiten anhand des 27 oder 45-teiligen weiss-zu-schwarz Balkens einregeln.
 
Kommentar

tuti167

Unterstützendes Mitglied
[MENTION=49919]shovelhead[/MENTION]

hi,
das war jetzt auch keine kritik an dir. im gegenteil klasse artikel. ich wollte nur darauf hinweisen, das das fm unter linux seine grenzen hat.

a nur auf applikationebene möglich, nicht im system inetriert
b multimonitorlösungen funktionieren nicht
c hardwarekalibrierbare schirme werden nicht unterstützt ( an meinem bsp. SV3090 und SV 301). also nur profilierugen möglich, keine kalibrierungen.

unterstützt wird ja auch das IONE pro wie ich gerade gelesen habe. prima dann muß man nicht auf spider zeugs zurückgreifen.

sollte man halt alles im voraus beachten, ansonsten kauft man sich vielleicht tolle schirme und hat dann ein problem.

lg
frank
 
Kommentar

shovelhead

Sehr aktives Mitglied
Keine Panik - ich nehms nicht persönlich. Die überwiegende Mehrheit glaubt ohnehin, dass Sachen, für die nicht im Fernsehen geworben wird, nix taugen. Da legt man sich als Unix-Advokat schnelle eine dicke Haut zu.
 
Kommentar

Wocket

Sehr aktives Mitglied
AW: AW: Linux für Bildbearbeitung

a nur auf applikationebene möglich, nicht im system inetriert
Wie meinst du das? Profile können im X-Server geladen werden und Programme können diese abrufen. In Darktable z.B. ist das der Standardweg.

b multimonitorlösungen funktionieren nicht
Also ich habe zwei Monitore mit unterschiedlichen Profilen. Geht einfach einzustellen z.B. mit dem gnome color manager. Hier sollten allerdings Programme colord unterstützen (In dt ist das der Fall) damit eine automatische Zuordnung erfolgen kann.
 
Kommentar

tuti167

Unterstützendes Mitglied
Keine Panik - ich nehms nicht persönlich. Die überwiegende Mehrheit glaubt ohnehin, dass Sachen, für die nicht im Fernsehen geworben wird, nix taugen. Da legt man sich als Unix-Advokat schnelle eine dicke Haut zu.
du mußt dir ne dicke haut zulegen, weil der pro7 idiot sich sachlich auf deinen thread eingelassen hat. nette art konversation zu betreinben, aber nicht meine!!!

nur zu deiner info, ich halte sehr viel von unix deviraten, bin aber auf grund meines wissens bezüglich fm nicht verblendet genug etwas durchaus gutes mit scheuklappen über den klee zu loben. schwachstellen bleiben schwachstellen auch wenn man sie ignoriert.

so ich bin aus dem thema draußen, das niveau darf ohne mich weiterghen.
 
Kommentar

F.-P.

Nikon-Clubmitglied
Schöner Beitrag, insbesondere weil mir nicht bekannt war, dass Linux mittlerweile auch Farbmanagement beherrscht. Da ich noch nicht weis, ob ich weiter bei OS-X bleibe (Mac Pros sind ja recht teuer, dürfen demnächst in der jetzigen Form in Europa nicht mehr verkauft werden und ein Nachfolger ist nicht in Sicht.) wäre eine gut laufende Alternative für mich sehr interessant.

Eine andere Frage. ist GIMP immer noch so langsam? Ich hatte das früher mal unter Windows und Linux und da waren einige Funktionen im Vergleich zum alten Photoshop 4.x und der CS1 grottenlangsam.

Was ich aber anzweifle ist Deine Aussage, das Linux das schnellste OS der Welt ist. Kannst Du das belegen? Die Tatsache, dass die schnellsten Supercomputer auf einem Linux-Kernel aufsetzen hat nix mit der Geschwindigkeit von Linux zu tun, sondern mit der Tatsache, dass Linux so extrem viele Prozessoren parallel steuern kann. Die hohe Rechengeschwindigkeit dieser Rechner resultiert aus den parallel geschalteten Prozessoren und nicht aus dem Betriebssystem.

Windows und OS-X z.B. sind dafür gar nicht vorgesehen und weil nicht quelloffen, kann auch keiner dabei gehen und den Code so zu erweitern, dass auch tausende von Procs angesprochen werden können, so wie es bei Linux möglich ist.

Gruss
Jörg
Habe Linux Nadja Mint seit gestern auf meinem Notebook.
Will es ausprobieren um es eventuell auf meinen neuen Rechner zu ziehen.
Nutze GIMP als Bildbearbeitungsprogramm schon recht lange.
Was ich sagen kann ist das GIMP auf der LINUX Partition um ein vielfaches schneller startet. Die Bearbeitung muss ich noch prüfen. Erst einmal mit dem System einarbeiten.

[MENTION=59041]Scho[/MENTION]velhead:
Danke für den genialen Thread. Bestärkt mich ein wenig in meiner Entscheidung.:up:
 
Kommentar

Um antworten zu können musst du eingeloggt sein.

Hast du dein Passwort vergessen?
Du hast noch kein Benutzerprofil? Jetzt registrieren
Oben Unten
LiveZilla Live Chat Software