zur Startseite

Druckausgabe von https://www.bilddateien.de/
bilddateien.de - alles, was mich fotografisch bewegt - Bernhard Albicker

darktable 3: RGB oder Lab? Welche Module? Hilfe!

veröffentlicht am 26.01.2020 - aktualisiert am 29.01.2020 in * PROGRAMME * SOFTWARE *

Inhaltsverzeichnis

 

Unsere Kameras werden immer besser - damit ist weniger die Pixel-Auflösung gemeint, sondern insbesondere der nutzbare Dynamikbereich, der bei den besten Modellen bereits bei über 12 Lichtwerten (EV) liegt. Das hat Auswirkungen auf die RAW-Bearbeitung und damit auch auf die dazu notwendigen Programme, hier: darktable.

Hier folgt die Übersetzung eines Artikels des Entwicklers Aurelien Pierre, das Original findet sich auf darktable.fr:


8 janvier 2020 Aurélien PIERRE Tutoriels

Darktable konvergiert langsam zu einem szenenbezogenen RGB-Workflow. Warum passiert das? Was beinhaltet es? Wie verändert es die Nutzung? Die Antworten hier…

Dieser Artikel beginnt mit 3 Abschnitten einer theoretischen Einführung in den Lab-Farbraum, die Sie nicht im Detail verstehen müssen, um den Rest zu verstehen.

Lab, was ist das?

Der CIE Lab-Farbraum wurde 1976 von der Internationalen Beleuchtungskommission (CIE) veröffentlicht, in einem 1931 mit dem XYZ-Raum eingeleiteten Prozess der mathematischen Darstellung der Farbwahrnehmung eines durchschnittlichen Menschen. Es zielt darauf ab, die Lichtinformation (Kanal L) von der Farbinformation (Kanäle a und b) zu entkoppeln und berücksichtigt die nichtlinearen Korrekturen, die das menschliche Gehirn über das lineare Signal der Netzhaut vornimmt. Der Lab-Raum ist vom CIE XYZ-Raum abgeleitet, der die physiologische Reaktion von 3 der 4 Arten von lichtempfindlichen Zellen in der Netzhaut (den Zapfen) darstellt.

XYZ steht also für das, was in der Netzhaut passiert, und Lab steht für das, was im nächsten Schritt im Gehirn passiert. Aber beide sind Modelle, d.h. Versuche, die Realität zu beschreiben, aber nicht die Realität selbst. Zwischen einem Modell und der Realität gibt es immer eine mehr oder weniger große Abweichung, die mit der Arbeit der Forscher und der Verfeinerung der Modelle abnimmt. Zudem bildet ein Modell die Realität oft nur unter bestimmten Bedingungen ab, die den Gültigkeitsbereich des Modells definieren.

Und was den Gültigkeitsbereich betrifft, während XYZ so ziemlich die ganze Zeit funktioniert, funktioniert Lab nur so lange, wie das Bild einen Kontrast von weniger als 100:1, einen Dynamikbereich von 6,5 EV hat. Im Entstehungskontext der Einführung des Lab-Raumes arbeiteten wir 1976 mit gescannten Negativen, und Farbnegative haben einen Dynamikbereich von etwa 6-7 EV. 6,5 EV ist auch der statische Kontrast der Netzhaut, und kurz nach 1976 stellten wir fest, dass das Gehirn ständig HDR-Fusionen durchführte, von mehreren Bildern pro Sekunde, so dass der statische Kontrast nicht viel Sinn macht.

Was ist der Zweck des CIE-Lab? Um den Wahrnehmungsunterschied zwischen 2 Farben (das Delta E) vorherzusagen und damit eventuell Gamut-Anpassungen bei der Konvertierung eines Bildes von einem Farbraum in einen anderen vorzunehmen. Man kann dann versuchen, den Farbraum auf die nächstliegende Farbe im Zielraum umzurechnen, indem man Strategien anwendet, die das Delta E numerisch minimieren.

Die großen Nachteile des Lab-Raumes sind :

Was macht Lab in darktable?

Die ursprüngliche Idee war es, eine getrennte Manipulation von Leuchtkraft und Farbigkeit zu ermöglichen. Im Jahr 2009, dem Jahr, in dem das Projekt ins Leben gerufen wurde, hatten die Kameras einen Dynamikbereich, der ziemlich nahe am Gültigkeitsbereich des Lab-Raumes lag, so dass die Idee alles andere als dumm war, zumal darktable damals keine Maskierungsmöglichkeit hatte.

Die Vorteile :

  1. Da Lab ein Referenzraum ist, also unabhängig vom Display-Farbraum, lassen sich Presets sehr einfach übertragen.
  2. Lab setzt das mittlere Grau (18%) auf 50%, so dass die Benutzer-Oberfläche intuitiver ist (das mittlere Grau befindet sich z.B. in der Mitte des Tonkurvendiagramms).

Probleme :

  1. Der Dynamikbereich heutiger Kameras liegt weitgehend außerhalb der Gültigkeitsbedingungen des Lab, und die Mängel dieses Farbraums sind umso offensichtlicher. Mit einem Dynamikbereich von 10 bis 14 EV ist jede neuere Kamera standardmäßig mit HDR ausgestattet, und Lab ist nicht dafür gemacht.
  2. Das Drücken von Pixeln in den Lab-Raum ist sehr riskant, besonders wenn es um Compositing und Bildfusion mit aufgeweichten Masken geht. Wir werden darauf zurückkommen, aber es hat mit dem nächsten Problem zu tun.
  3. Lab ist nicht geeignet für physikalisch realistische Korrekturen, wie z.B. Unschärfen, Entwackeln, Entrauschen und alle Filter, die einen optischen Effekt simulieren oder korrigieren.

Kurz gesagt, Lab war ein Jugendfehler. Trotzdem scheinen alle anderen Fotobearbeitungsprogramme standardmäßig in nichtlinearen RGB-Räumen (mit Gamma am Anfang der Pipe (Verarbeitungskette)) zu arbeiten, was im Grunde das gleiche ist.

Lab, wie funktioniert das?

Wir gehen von einem klassischen linearen RGB-Raum aus, zum Beispiel dem Sensorraum. Wir wandeln das lineare RGB in XYZ um. Für die Zwecke der Demonstration können wir hier den XYZ-Raum als einen RGB-Raum betrachten, dessen Primärfarben ein wenig manipuliert wurden (aber er verhält sich gleich). XYZ ist ein linearer Raum.

Wir wechseln dann von XYZ zu Lab, indem wir eine “Art Gammakorrektur” auf den Luminanzkanal (von Y zu L) und eine Rotation auf den Kanälen a und b anwenden. Kurz gesagt, ohne ins Detail zu gehen, ist Lab mathematisch gesehen “ein bisschen wie” die Anwendung eines Gamma 2,44 auf lineares RGB. Sagen wir, es wirft die gleichen praktischen Probleme auf: es ist stark nichtlinear.

Um für diejenigen, die nicht alles verfolgt haben, noch einmal zusammenzufassen:
Lab funktioniert nicht für kontrastreiche Bilder, funktioniert nicht so gut für Bilder mit mäßigem Kontrast und kodiert Pixelwerte auf wahrnehmungsbezogene, nicht-physische Weise, was für den Rest dieses Artikels ein Problem darstellen wird.
Lab wurde nie dafür gebaut, Retuschen durchzuführen, sondern nur für die Untersuchung des menschlichen Sehens.

Detaillierung: Ich habe hier den Begriff “Gamma” oder “Gammakorrektur” falsch verwendet. Streng genommen ist eine Gammafunktion die spezifische (technische) elektro-optische Übertragungsfunktion (EOTF) von Röhrenschirmen der alten Schule, die eine Leistungsfunktion mit einem Exponenten zwischen 1,8 und 2,2 ist. Heutzutage bezeichnet man fälschlicherweise jede Leistungsfunktion, die für die Kodierung von technischen ganzen Zahlen oder für künstlerische Helligkeitsanpassungen verwendet wird, als “Gamma”, was verwirrend ist. Jede Kodierungsübertragungsfunktion (mit oder ohne Leistungsfunktion) sollte OETF (Opto-Elektrische Übertragungsfunktion) genannt werden und wird nur dazu verwendet, die Grenzen von 8-Bit-Ganzzahl-Dateiformaten zu umgehen. Alle künstlerischen leistungsähnlichen Helligkeitskorrekturen sollten als Gradationskurve bezeichnet werden. Selbst wenn die Operation dieselbe ist, hat sie nicht dieselbe Bedeutung und sollte nicht an derselben Stelle in der Verarbeitungs-Pipe angewendet werden. Aber die ICC-Nomenklatur bezeichnet weiterhin “Gamma” als den Exponenten, der zur Kodierung/Dekodierung von RGB-Pixeln verwendet wird, wenn ganzzahlige Dateiformate verwendet werden. Deshalb vermischen wir hier nicht zusammenhängende Konzepte unter einem Dachnamen, nur weil die Mathematik dasselbe schreibt. Aber bei der Kommunikation mit Leuten außerhalb der Branche ist es oft einfacher, den falschen Namen zu verwenden, so dass jeder irgendwie versteht, auch wenn es die Verwirrung fortsetzt.
Übrigens sind potenzartige EOTF völlig unnötig, solange man Fließkommaarithmetik und Dateiformat (32 Bit TIFF, PFM, OpenEXR…) verwendet.

Grenzen von nicht-linearen Räumen in der Bildverarbeitung

Zunächst: was bedeutet “linear”?
Wenn y in Bezug auf x linear ist, bedeutet dies, dass es eine Beziehung zwischen x und y der Form y = a * x + b gibt, wobei a und b reale Konstanten sind. Linear, d.h. proportional von einem Wert zum nächsten zugüglich/abzüglich einer Konstanten.

Wenn wir also über den linearen RGB-Raum sprechen, meinen wir, dass die RGB-Werte proportional zu etwas sind. Aber proportional wozu?

Einfach gesagt, der Sensor zählt die [Photonen] (https://de.wikipedia.org/wiki/Photon), die er empfängt. Jedes Pixel enthält also Informationen über das an diesem Ort aufgenommene Lichtspektrum in Form von 3 Intensitäten (rot, grün, blau). Der Proportionalitätskoeffizient a zwischen der Anzahl der Photonen und dem RGB-Endwert entspricht der ISO-Empfindlichkeit des Sensors. Die Konstante b repräsentiert die Rauschschwelle des Sensors. Das RGB-Signal ist daher proportional zur Energie der vom Sensor der Kamera aufgenommenen Lichtemission.

Aus der Sicht der menschlichen Wahrnehmung sind diese Intensitäten proportional zur Höhe der physikalischen Energie der Lichtemission bedeutungslos. Tatsächlich wendet das Gehirn eine logarithmische, nichtlineare Korrektur an, die der Lab-Raum, vereinfacht gesagt, durch eine Kubikwurzel annähert, was bedeutet, dass wir eine erhöhte Empfindlichkeit für geringes Licht und eine reduzierte Empfindlichkeit für helles/starkes Licht haben.

Alle optischen Operationen, die während der Bilderfassung durchgeführt werden, wie z.B. Unschärfe der Linse, Rauschen oder die Wirkung eines Farbfilters, der der Linse hinzugefügt wird, werden jedoch direkt auf die Photonen angewendet. Um die Linsenunschärfe zu beseitigen oder zu simulieren, müssen wir daher an der linearen RGB-Information arbeiten, die dem Photon am nächsten kommt.

Sehen Sie selbst, welches dieser beiden computergenerierten Bokeh (Original unten) Ihnen am natürlichsten erscheint (siehe auch ein [spektakuläreres Beispiel von Chris Bejon] (https://chrisbrejon.com/cg-cinematography/chapter-9-compositing/#exposure-control-by-dof)).

Linsenunschärfe in sRGB angewendet

Linsenunschärfe in linearem RGB angewendet und dann in sRGB kodiert

Originalfoto: Hanny Naibaho

Beobachten Sie besonders, wie die dunklen Silouetten (unten links) in den hellen Hintergrund übergehen, oder den Kontrast der an den hellen Punkten gebildeten Blendenfünfecke.

Ein weiteres Beispiel, mit einer einfachen Unschärfe auf glatten Oberflächen: Welche dieser Abstufungen finden Sie besser gelungen?

Links: Unschärfe in linearem RGB, dann Kodierung in sRGB | Rechts: Kodierung in sRGB, dann Unschärfe

Diese beiden Beispiele wurden mit Krita erzeugt, das sowohl in linearem als auch in nichtlinearem RGB arbeiten kann und über Anpassungsebenen einschließlich einer physikalisch realistischen Linsenunschärfe verfügt.

Aber diese Art von Problem wird in der gleichen Weise in darktable auftreten, sobald Sie Schärfen, Hochpass-, Tiefpaß-Module und überlagerte und/oder weichgezeichnete gezeichnete und/oder parametrische Masken verwenden.

Unschärfe, Defokussierung oder alles, was mit der Optik verbunden ist, muss in linearem RGB arbeiten. Es gibt kein mathematisches Modell, das korrekte Gradienten in RGB, das für die Anzeige (mit einem “Gamma”) kodiert ist, oder in Lab, aufgrund der Nichtproportionalität zur Lichtenergie, ermöglicht.

Dies ist auch das Problem, das sich mit dem Modul Farbzonen auf der Ebene der Verschmelzung der Zonen ergibt (auch wenn eine Optimierung, eingeführt unter dem Modus “Unschärfe”, es erlaubt, das Elend etwas besser zu verbergen), und das scharfe und klare Übergänge erzeugt.

Das einzige darktable-Modul, das im Lab-Raum arbeitet, um eine Unschärfe zu erzeugen, ist der lokale Laplace-Filter des lokalen Kontrasts. Der Grund dafür ist, dass man Tonkurven durchläuft, die auf eine mehrstufige Frequenztrennung angewendet werden, blabla, komplizierte Wörter, blabla … kurz gesagt, der Preis, den man dafür zahlen muss, damit es funktioniert, ist, dass es hyperlastig in den Berechnungen und die Theorie Rock'n Roll ist. Und … selbst wenn die Unschärfe stabil ist, geht sie mit einer unfreundlichen Entsättigung einher, die sich in ein schlammiges Grau-Blau verwandelt, wenn man die Schieberegler etwas weiter bewegt.

* : und nur weil Probleme nicht ständig sichtbar sind, bedeutet das nicht, dass sie nicht ständig existieren. Man kann sie bis zu einem gewissen Grad mit mathematischen Tricks (Schwellenwerte, Deckkraft usw.) verstecken, aber sie werden immer im ungünstigsten Moment herauskommen. Glauben Sie mir, ich weiß genau, wo ich drehen muss, damit es klappt.

Die Vorteile der linearen RGB-Behandlung

Sie werden mir sagen: “Solange ich nicht verwische oder nur mit Farbe arbeite, kann ich immer noch Lab verwenden”.

Das ist teilweise richtig, aber selbst in diesen Fällen führt die Arbeit in linearem RGB zu einfacheren und schnelleren Algorithmen, die viel extremere Anpassungen tolerieren, ohne dass es zu solch lästigen Nebenwirkungen kommt. Auch hier gilt, dass Lab keine hohen Dynamikbereiche unterstützt, so dass darauf geachtet werden sollte, Lab-Module nach dem HDR-Tonemapping zu verwenden.

Genau genommen ist die einzige Anwendung, bei der Lab benötigt wird, das Gamut Mapping, wenn der Farbraum vor dem Senden des Bildes in eine Datei oder auf den Bildschirm geändert wird. Und selbst dort haben wir seit 1976 viel bessere Räume (IPT-HDR, JzAzBz) gefunden, um dies im HDR und mit nahezu perfekter Farbtonlinearität zu tun.

Der aktuelle Zustand von darktable

Mit dem Erscheinen von darktable 3.0 wurde die Standard-Pipeline (d.h. die Reihenfolge der Grundmodule) um Filmisch RGB herum neu gestaltet. Es gibt 4 wesentliche Schritte in dieser Pipeline:

  1. das demosaic-Modul, das die Rohdatei (die an jedem Pixelort nur die Leuchtdichte einer einzelnen Farbe R, G oder B enthält) in ein Bild (mit vollständigen RGB-Daten für jeden Pixelort) konvertiert,
  2. das Modul Eingangsfarbprofil, das den RGB-Raum des Sensors in einen Standard-Arbeitsfarbraum umwandelt,
  3. das Modul Filmisch RGB (oder die Basiskurve), das zwischen linearem Raum (proportional zur Lichtenergie) und nichtlinearem (wahrnehmungsmäßig komprimiertem) Raum übersetzt,
  4. das Modul Ausgabefarbprofil, das vom Standardarbeitsraum in den RGB-Raum des Bildschirms oder der Bilddatei konvertiert.

Beachten Sie, dass der Basiskurven-Ansatz standardmäßig beibehalten wird, da er eine mehr oder weniger genaue Annäherung an die JPEG-Wiedergabe der Kamera ermöglicht, sobald die Software geöffnet wird, was von vielen Benutzern bevorzugt zu werden scheint. Dennoch wurde die Basiskurve als Teil von darktable 3.0 innerhalb der Pixelpipe bis kurz vor das Filmisch RGB-Modul zurückgeschoben, was sie sicher für die Farben macht, die von den früher angeordneten Modulen ausgegeben werden. Das Basiskurvenmodul wurde auch mit einem Farberhaltungsmodus versehen, der ähnliche Ergebnisse wie Filmisch RGB erzeugt. Folglich besteht der Unterschied zwischen Basiskurve und Filmisch RGB in darktable 3.0 nur noch in der Ergonomie und in der Fähigkeit, sehr schwaches Licht wiederzugewinnen. Filmisch RGB ist etwas komplexer zu verstehen, aber schneller einzurichten (wenn man es einmal richtig verstanden hat), und ist mächtiger, wenn man in tiefem Schatten arbeitet.

Module, die in linearem RGB arbeiten und linear ausgegeben werden (so dass die Pipeline nach ihnen linear bleibt), sind:

  1. Belichtung,
  2. Weißabgleich,
  3. Kanal-Mixer,
  4. Tonwert-Equalizer (der teilweise linear ist).

Der Vorteil der Durchführung linearer Operationen besteht darin, dass sie die Chrominanz des Bildes nicht beeinflussen (weil die Änderung der Luminanz die Chrominanz intakt lässt) und die Energieproportionalität des Signals erhalten bleibt. Diese Module müssen vor dem Filmisch RGB-Modul oder der Basiskurve positioniert werden, und es wird empfohlen, die Belichtung und den Tonwert-Equalizer vor dem Eingangsfarbprofil zu positionieren. Sie können sicher und ohne Einschränkung verwendet werden. Beachten Sie, dass hier ein Schwachpunkt beim Tonwert-Equalizer besteht, der die lokale Linearität (innerhalb der Bildbereiche), nicht aber die gesamte Linearität (zwischen den Zonen) bewahrt. Er entspricht dem, was passieren würde, wenn wir mit einer Taschenlampe auf die Bühne gehen und die Objekte in der Szene mit der Hand nachleuchten würden, so dass wir die physikalische Kohärenz des Signals beibehalten.

Die Module, die in linearem RGB arbeiten und nichtlineare, aber chrominanzfreundliche Operationen durchführen (vorausgesetzt, dass der sog. Ad-hoc-Modus 1) aktiviert ist), sind :

  1. RGB-Kurven,
  2. RGB-Stufen.

1) Ad-hoc ist lateinisch für “speziell für diesen Zweck entwickelt”. RGB-Stufen und -Kurven können das Chroma (die Farbe) erhalten, sofern Sie deren “Chroma-Erhaltungsmodus” aktiviert haben.

Die Einhaltung der Chrominanz wird durch Erhaltungsmodi erreicht, die die RGB-Verhältnisse am Eingang und Ausgang des Moduls so einschränken, dass sie identisch bleiben. Beachten Sie, dass RGB-Kurven und RGB-Stufen je nach Absicht vor oder nach Filmisch RGB verschoben werden können, in jedem Fall führen sie nichtlineare Operationen durch. Achten Sie jedoch darauf, dass Sie die Abschwächung von Masken nicht auf spätere Module anwenden, da die Linearität nicht mehr gewährleistet ist.

Module, die in linearem RGB arbeiten und nichtlineare und nichtchromatische Operationen durchführen, sind:

  1. Tonmapping, (wir werden darauf zurückkommen)
  2. Farbbalance,
  3. LUT 3D.

Die Farbbalance ist für die Anwendung auf lineare RGB-Daten konzipiert, die nicht kontrastkorrigiert sind, d.h. vor dem Filmisch RGB-Modul, vor Tonwertkurven usw. Sie bewahrt nicht die Chrominanz, da ihr Zweck ausdrücklich darin besteht, sie kreativ anzupassen. Dasselbe gilt für LUT 3D, dessen Hauptzweck die Emulation von Silberfilm-Emulsionen ist.

Ich erinnere die Leser hier daran, dass es sich bei Filmisch RGB um eine Kompression des Dynamikbereichs handelt, vom hohen Dynamikbereich der Kamera bis zum niedrigen Dynamikbereich des Bildschirms. Es handelt sich nicht um eine Tonkurve, die eine künstlerische Korrektur vornehmen soll, sondern um eine Abbildung von Tönen, um die Sensordaten in den verfügbaren Bildschirmraum zu pressen, wobei versucht wird, die Details so weit wie möglich zu schützen (von denen wir a priori annehmen, dass sie sich in den mittleren Tönen befinden) und eine gewisse optische Lesbarkeit im Bild zu erhalten.

Vor dem Filmisch RGB-Modul finden wir im linearen Kanal immer noch Module, die im Lab-Raum arbeiten, aber lineare Operationen durchführen, die (streng genommen) in linearem RGB durchgeführt werden sollten:

  1. Kontrast-Equalizer,
  2. Hochpass
  3. Tiefpass
  4. Schärfen
  5. Rauschunterdrückung (nicht-lokales Mittel)

Diese Module müssen in Zukunft angepasst werden, um in einem linearen Yxy-Raum (abgeleitet von CIE XYZ) arbeiten zu können, weil es ein Fehler ist, sie in Lab arbeiten zu lassen. Die Arbeit ist relativ einfach, weil Yxy die Luminanz (Y-Kanal) und die Chrominanz (x- und y-Kanäle) mit einer ähnlichen Logik wie Lab zerlegt, abzüglich der nichtlinearen Transformation. In der Zwischenzeit können Sie sie weiterhin verwenden, aber in Maßen. Beim Kontrast-Equalizer ist zu beachten, dass er eine kantenempfindliche Wavelet-Trennung verwendet, was den Einsatz recht umständlich macht, aber sehr effektiv zur Vermeidung von Halos ist, selbst wenn man bedenkt, dass er im Lab-Raum arbeitet.

Nach Filmisch RGB, im nichtlinearen Verarbeitungspfad, befinden sich alle anderen Lab-Module, da sie einen Raum mit geringem Dynamikbereich benötigen. Einige dieser Module können auch auf xyY konvertiert und in Zukunft vor Filmisch RGB RGB migriert werden (insbesondere der Orton-Effekt, Körnung und Fülllicht). Beachten Sie auch, dass das Vignettierung-Modul wie bisher am Ende der Leitung belassen wurde, obwohl es in RGB arbeitet. Wahrscheinlich wäre es besser, wenn es vor Filmisch RGB oder sogar vor dem Eingabeprofil wäre, aber sein Code ist überraschend komplex für das, was es tut, und ich hatte noch nicht die Zeit, das Durcheinander zu entwirren, um zu verstehen, was seine Arbeitsannahmen sind.

Nicht empfohlene Module

Diese Module werden aufgrund grundlegender Designfehler nicht empfohlen, basierend auf meiner persönlichen Meinung, die auf meiner praktischen und theoretischen Erfahrung in der Bildbearbeitung beruht, und im Sinne einer Rationalisierung des Arbeitsablaufs mit einer minimalen Anzahl von Schritten. Nichts hindert Sie daran, sie weiterhin zu verwenden, zumal mir die Benutzer regelmäßig (oft ausgefallene) Anwendungen vorstellen, an die ich nicht gedacht habe. Aber hier geht es darum, Ihnen die Schlüssel zum bestmöglichen Ergebnis so schnell wie möglich und mit einem Minimum an Aufwand zu geben.

Lokales Tonemapping

Das lokale Tonemapping kodiert die logarithmischen RGB-Werte intern (sie werden dann bei der Ausgabe dekodiert, dort kein Problem), dann wendet es eine bilaterale Unschärfe auf diese logarithmischen Werte an. Wie oben gesehen, ist die Theorie klar: Eine Unschärfe auf allem Nichtlinearen erzeugt Halos und Streifen. Und wie bereits erwähnt, ist der nützliche Einstellbereich dieses Moduls sehr klein, so dass sich die Benutzer daran gewöhnt haben, die Ausgabe des Moduls mit geringer Deckkraft zusammenzuführen. Um es klar zu sagen: Das ist nur das Verstecken des Elends.

Bevorzugen Sie den Tonwert-Equalizer.

Tone-Mapping (global)

Dieses Modul arbeitet im Lab-Farbraum, um HDR-Kompression durchzuführen, und wenn Sie meine Erläuterungen verfolgt haben, werden Sie verstehen, dass dies ein Widerspruch in sich ist. Außerdem - und das ist wichtig - wird der Weißwert automatisch vom Maximum im Bild aus angepasst, so dass sich die Gesamthelligkeit des Bildes je nach Größe des Exports aufgrund des Glättungseffekts der Einstellung zur Maßstabsveränderung (Interpolation) ändern kann. Zu erwarten ist: ein helleres oder dunkleres JPEG als die Vorschau in der Dunkelkammer.

Bevorzugen Sie Filmisch RGB

Schatten und Spitzlichter

Auch dieses Modul arbeitet im Lab-Farbraum, um eine HDR-Komprimierung durchzuführen und verwendet Gaußsche oder beidseitige Unschärfe, um helle und schwache Lichter zu isolieren. In der Praxis erzeugt es recht schnell Halos, sobald man die Parameter verändert (auch wenn die bilaterale Unschärfe die Probleme etwas abschwächt), und es neigt sogar dazu, (als Nebeneffekt) lokalen Kontrast in den Lichtern hinzuzufügen, für Wolken mit einem starken HDR-Look. Bei den schwachen Lichtern, die ein wenig hart eingesetzt werden, sind es die Farben, die sich in ein Blaugrau verwandeln. Auf jeden Fall lässt es Sie gerade dann im Stich, wenn Sie dieses Modul am meisten brauchen, in der Praxis funktioniert es nur bei kleineren Korrekturen.

Bevorzugen Sie den Tonwert-Equalizer.

Tiefpassfilter

Der Tiefpassfilter ist eigentlich eine einfache Unschärfe. Viele Leute verwenden ihn, um den Kontrast zu invertieren und dann in eine Überlagerung oder weiches/hartes/lineares Licht zu verschmelzen, um den Dynamikbereich zu komprimieren. Dies ist eigentlich genau das, was das Schatten- und Spitzlichtmodul bereits in weniger Schritten für den Benutzer erledigt. Wie oben erwähnt, arbeitet der Tiefpass im Lab-Raum, wenn es um die Unschärfe geht … Rechnen Sie mit dem Schlimmsten.

Bevorzugen Sie den Kontrast-Equalizer für Unschärfe oder den Tonwert-Equalizer für lokale Dynamikbereich-Kompression.

Hochpassfilter

Viele Leute nutzen den Hochpass, indem sie ihn im Überblendmodus weiches/hartes/lineares Licht zur Erhöhung der Schärfe einsetzen. Das ist eigentlich genau das, was das Schärfe-Modul bereits tut. Der Hochpass wird durch die Subtraktion einer Unschärfe (Tiefpass) vom Originalbild erzeugt, so dass wir das gleiche Problem wie beim Tiefpass haben, weil er immer noch in Lab arbeitet.

Bevorzugen Sie den Kontrast-Equalizer für feine Schärfe oder den lokalen Kontrast für allgemeine Schärfe.

Schärfe verbessern

Das Schärfe-Modul war ursprünglich dazu gedacht, Sensoren mit optischer Tiefpassfilterung und teilweise Glättung durch Demosaicing zu korrigieren. Erstens: Da dieses Modul im Lab-Raum arbeitet, braucht man es nicht viel zu forcieren, um Halos zu erzeugen. Zweitens ist die interne Schärfungsmethode (durch [unscharf maskieren] (https://de.wikipedia.org/wiki/Unscharfmaskierung)) ziemlich archaisch und wirkt selbst im RGB-Modus schnell künstlich. Drittens ist angesichts der Schärfe der modernen Optik, der Tatsache, dass viele Sensoren keine Tiefpassfilter mehr haben und dass die meisten Fotos mit einem Verkleinerungsverhältnis von mindestens 8:1 (24 MP-Sensoren auf 3 MP-Bildschirm) exportiert werden, die Schärfung auf Pixelebene praktisch nutzlos geworden. Im Allgemeinen würde der Digitalfotograf des 21. Jahrhunderts davon profitieren, wenn er sich bzgl. der Schärfe beruhigen würde, es wäre für alle gut.

Bevorzugen Sie den Kontrast-Equalizer zur Ablenkung der Optik über die vorgesehenen Voreinstellungen oder den lokalen Kontrast für die allgemeine Schärfe.

Monochrom

Das monochrome Modul arbeitet in Lab, in dem es einen gewichteten Beitrag bestimmter Farben zur Dichte des Schwarzes festlegt, um Farbe in Grautöne umzuwandeln. Das Problem besteht darin, dass die Schnittstelle recht empfindlich auf die Einstellungen reagiert und eine kleine Korrektur große Veränderungen hervorrufen und den Gesamtkontrast auf eher unschöne Weise aufbrechen kann. In der Praxis ist es ziemlich schwierig, ein Ergebnis vorherzusagen, und dieses Modul führt oft zu einer Menge mühsamer Mikro-Einstellungssitzungen.

Die Idee eines gewichteten Beitrags der Farben zur Dichte von Schwarz kommt vom Silberfilm, der sich genau so verhält. Aber, wie Sie es kommen sahen, funktioniert der Film im Lab-Raum nicht und ist physikalisch nicht realistisch. Diese Idee wird auf physikalisch realistische Weise im Modul Kanalmixer aufgegriffen, wo mehrere Emulsionsvoreinstellungen von kommerziellem Silberfilm angeboten werden, um einen Graukanal zu erzeugen. Beachten Sie, dass für die Genauigkeit der Koeffizienten der Farbraum der Betriebsart (im Modul Eingangsprofil) auf REC 709 linear eingestellt werden muss, da sonst die Einstellungen angepasst werden müssen.

Für Schwarzweiß, das auf der menschlichen Wahrnehmungshelligkeit (linear) basiert, senken Sie einfach die Eingangs- oder Ausgangssättigung im Modul Farbbalance auf 0 % (Rechtsklick auf den Cursor und Eingabe von 0 auf der Tastatur - die Einstellung ist nur bis zu 50 % in der Schnittstelle voreingestellt).

Bevorzugen Sie den Kanalmixer für einen Silberfilm-Ansatz oder die Farbbalance für einen Wahrnehmungsansatz.

Fülllicht / Überstrahlung / Zonensystem

Diese drei Module zielen darauf ab, einen Teil des Bildes neu zu beleuchten und versuchen, die Korrektur in Intensität und Raum durch Unschärfe des Bildes zu mildern. Aber da sie im Lab arbeiten … nun, ich werde es nicht noch einmal sagen. Die Ergebnisse sind einfach immer schlecht, außer bei sehr weichen Einstellungen, was bedeutet, dass Sie diese Module nicht wirklich brauchen konnten.

Bevorzugen Sie das Belichtungsmodul mit Masken oder den Tonwert-Equalizer.

Farbkorrektur

Jede Fotografie hat mindestens zwei Lichtquellen: eine direkte Quelle (Lampe, Sonne, Kerze) und eine reflektierte Quelle (Wände, Wolken, Böden, Decke). Häufig stimmt der Weißabgleich dieser beiden Quellen nicht überein. In der Praxis hat das menschliche Sehvermögen das Zeug dazu, dies zu korrigieren, aber nicht die Kamera. Daher muss eine separate Weißabgleichskorrektur für helles Licht (das normalerweise direktes Licht erhält) und schwaches Licht (das normalerweise reflektiertes Licht erhält) vorgenommen werden.

Das bietet Ihnen das Modul Farbkorrektur, wieder in Lab, wieder mit einer fragwürdigen Oberfläche, wieder mit gemischten und unnatürlichen Ergebnissen, sobald Sie die Anpassung drücken. Wenn man jedoch darüber nachdenkt, kann der Weißabgleich auf Diskussionen über das Lichtspektrum reduziert werden, insbesondere um die Intensität der Korrektur zu steuern.

Mit dem Modul Farbbalance können Sie dies viel schneller einstellen, und zwar nicht nur für Schatten und Lichter, sondern auch für Mitteltöne. Mit Hilfe der Pipetten rechts neben den Farbschiebereglern können Sie auch direkt zu neutralen Tönen im Bild (für Schwarz, Grau und Weiß) gehen und die Software die Komplementärfarbe berechnen lassen. Weitere Einzelheiten finden Sie im Handbuch.

Bevorzugen Sie die Farbbalance.

Velvia

Velvia arbeitet in RGB und arbeitet nach einer Logik, die der Sättigung der Farbbalance sehr ähnlich ist. An der Oberfläche riecht es gut. Nur ist seine kolorimetrische Gleichung in der Tat nicht wahrnehmbar korrekt, was bedeutet, dass sie nicht nur die Sättigung (was wir von ihr verlangen), sondern auch den Farbton und die Helligkeit (was lästig wird) ändert. Die Pille wird herumgereicht und als kreativer Velvia-Effekt bezeichnet, der den gleichnamigen Film von Fuji reproduzieren soll. Das Problem ist, dass das Modul für nichtlineares RGB optimiert zu sein scheint. Es ist also die Art von Modul, dessen Ergebnisse typischerweise nicht vorhersehbar sein müssen.

Bevorzugen Sie die Farbbalance.

Werte / RGB Stufen

Die beiden laufen, wie sie sollten, kein Problem damit. Aber wenn Sie sich den Code anschauen, können Sie sehen, dass er den Neigung/Offset/Stärke-Modus der Farbbalance exakt dupliziert. Der Weißpunkt wird durch eine einfache Belichtungskorrektur, wie den Neigungsfaktor oder sogar … die Belichtung des __Belichtung__smoduls, skaliert. Der Schwarzpunkt wird durch Hinzufügen einer Konstanten, wie z.B. des Offset-Faktors oder der Schwarzpunktkorrektur des __Belichtung__smoduls, skaliert. Der Graupunkt wird durch eine Potenzfunktion (fälschlicherweise Gamma genannt) angepasst, genau wie der Stärkefaktor der Farbbalance. Es sind nicht nur die gleichen Funktionen, es ist genau die gleiche Mathematik. Der Unterschied liegt also nur in der Ergonomie, aber auch in der Tatsache, dass die Farbbalance Ihnen den numerischen Wert der Einstellungen gibt, wodurch sie leichter von einem Bild auf ein anderes oder von einer Software auf eine andere übertragen werden können.

Wenn Sie bereits die Farbbalance verwenden, ist es nicht notwendig, ein zusätzliches Stufenmodul hinzuzufügen. Beenden Sie Ihre Retusche im gleichen Modul.

Farbkurve / RGB Kurve

Diese funktionieren auch gut, aber wenn man ihre klassische Verwendung in Betracht zieht … sind sie wirklich nützlich? Gewöhnlich werden sie verwendet, um Helligkeit zu erhöhen/zu verringern, was genau das ist, was passiert, wenn man das Grau der Stufen oder die Stärke der Farbbalance, oder den Kontrast, der entweder durch Verringern/Vergrößern des Intervalls zwischen Weiß und Schwarz (auf lineare Weise) oder durch Anwenden einer nichtlinearen Helligkeitskompression, die wiederum über die Farbbalance verfügbar ist, einstellt.

Die Ergonomie der Kurven stellt in einem linearen RGB-Workflow ein echtes Problem dar, da man davon ausgeht, dass das Mittelgrau in der Mitte des Diagramms liegt, und daher davon ausgeht, dass man in nichtlinearem RGB arbeitet, bei dem das Grau auf 50% erhöht wurde. Bei einer linearen Kodierung wird ein mittlerer Grauwert von 18% erwartet (aber in der Praxis ist das oft nicht standardisiert), und die Steuerung des Kontrasts um diesen nicht auf den Graphen zentrierten Wert herum wird in der Bedienungsoberfläche schwierig. Darüber hinaus nimmt die Kurvendarstellung ein begrenztes RGB-Signal zwischen den Werten 0 und 100% an … 100% von was? Der Leuchtdichte des weißen Bildschirms. In einem linearen Arbeitsablauf kann das HDR-Signal aber von 0 bis unendlich reichen, und erst auf der Ausgabe-Ebene (nach filmisch) wird jeder Helligkeitswert auf einen Wert zwischen 0 und 100 % des Bildschirm-Weißwertes angepasst.

Der Kontrast der Farbbalance ist mit diesem unbegrenzten Ansatz kompatibel, und zwar über den Regler Kontraststützpunkt, der die Auswahl der Kontrast-Referenz (also quasi des “Drehpunktes”, ermöglicht. So wird oberhalb des Drehpunktes die Helligkeit erhöht, unterhalb des Drehpunktes wird sie verringert, der Drehpunkt selbst bleibt jedoch unverändert. Der Anzeige-Workflow (in Lab oder nicht-linearer RGB) geht immer von der impliziten Annahme aus, dass Grau 50% beträgt, und erlaubt es Ihnen nicht, diesen Wert zu ändern.

Bevorzugen Sie die Farbbalance.

Kontrast / Helligkeit / Sättigung

Lab-Modul, das wiederum die Module für Werte, Kurven und Farbbalance dupliziert und gleichzeitig eine Reihe unerwünschter Farbeffekte hinzufügt.

Farbbalance bevorzugen.

Module, die mit Vorsicht zu verwenden sind

Von diesen Modulen kann nicht abgeraten werden, da es derzeit keinen präzisen Ersatz gibt, aber sie sollten mit Vorsicht eingesetzt werden, da sie unvorhersehbar sein und viel Zeitverlust verursachen können.

Lebendigkeit

Lebendigkeit arbeitet im Lab-Raum, indem es eine Sättigungskorrektur anwendet, die bereits gesättigte Pixel abschwächt, um eine Übersättigung zu vermeiden, aber auch dazu neigt, Farben abzudunkeln. Das Ergebnis ist alles andere als hässlich, das Problem ist, dass man nicht kontrollieren kann, wie stark die Verdunkelung für den Betrag, der wieder gesättigt wird, ist.

Bevorzugen Sie Farbbereiche mit einer Sättigungsauswahl.

Farbbereiche

Dieses Modul wäre großartig, wenn die Verschmelzung zwischen den Schattenzonen allmählicher erfolgen würde. Es gibt jetzt zwei Modi (stark, der alte, und gleichmäßig, der neue), die versuchen, dieser Herausforderung auf zwei verschiedene Arten zu begegnen, mit Ergebnissen, die für den neuen zu diskret sind, und mit Übergängen, die für den alten zu abrupt sind. Ein weiteres Mal arbeitet es im Lab-Raum, während ähnliche Funktionen bei Capture One HSL oder HSV zu verwenden scheinen, und dies könnte der Anfang der Spur sein, um zu erklären, warum es weit zurückliegt.

In einigen Fällen ist es vorteilhaft, Farbbereiche durch das Modul Farbbalance zu ersetzen, bei dem die parametrische Maskierung zur Isolierung der Schatten, auf die Sie wirken wollen, verwendet werden kann. Dann sollte die Verfeinerung der geführten parametrischen Filtermaske in schwierigen Fällen helfen. Im Übrigen erlaubt uns die Farbbalance, den Farbton, die Sättigung und die Helligkeit exakt gleich zu verändern.

Beachten Sie jedoch, dass das Modul Farbbalance, obwohl es intern in RGB arbeitet, die Masken in Lab zusammenführt, da dieses Modul älter ist als die Möglichkeit, 100 % RGB-Module zu verwenden, und intern von Lab nach RGB konvertiert. Wir arbeiten noch immer daran…

Farbbalance bevorzugen.

Vignettierung

Das Hinzufügen einer Vignette um ein Bild herum ist nicht kompliziert: Sie müssen nur die Belichtung und schließlich die Sättigung mit einer gezeichneten Maske allmählich verringern. Das Modul Vignettierung führt jedoch unverständliche schwarze Magie aus, die viel komplizierter ist, mit einer internen Homogenisierung, die bei guter Ausführung überflüssig wäre. Das Ergebnis ist selten natürlich, der Übergang in der Leuchtkraft ist im Vergleich zu einer echten Vignette zu heftig.

Bessere Ergebnisse erhalten Sie mit einer Instanz des __Belichtung__smoduls, das auf -0,5 EV eingestellt ist, einer kreisförmigen Maske mit einem großen Übergangsbereich, deren Polarität vertauscht ist, möglicherweise in Verbindung mit einem Modul zur Farb-Entsättigung(?), an das Sie die gleiche Maske wie in Belichtung (über eine gerasterte Maske) übergeben.

Bevorzugen Sie das Belichtungs- (und optional ein Farbentsättigungs-)Modul.

Masken-Mischmodi nicht empfohlen

Nur wenige Leute wissen das, aber die [Mischmodi] (https://en.wikipedia.org/wiki/Blend_modes) aufhellen, abdunkeln, überlagern, weiches Licht, strahlendes Licht, lineares Licht, Punktlicht, erwarten implizit den Graupunkt bei 50 % und sind daher vollständig Erben des Display-Workflows. Man muss sich nur die Gleichungen ansehen, um dies zu erkennen. Sie werden die Pixel also unterschiedlich behandeln, je nachdem, ob sie über oder unter 50% liegen. Denken Sie daran, dass der lineare RGB-Workflow den Graupunkt bei 18% (oder sogar weniger) hält. Diese Zusammenführungsmodi werden sich daher in den linearen Teilen der Pipeline unvorhersehbar verhalten.

Im linearen RGB haben Sie nur Mischmodi, die auf arithmetischen Operationen (Addition, Multiplikation, Division, Subtraktion, Durchschnitt), auf Maximal-/Minimal-Vergleichen (Bildschirm) oder auf Kanaltrennung (Farbton, Farbe, Chroma usw.) basieren.

Beachten Sie, dass der Multiplikationsmodus einer der leistungsstärksten im linearen RGB ist. Um beispielsweise den Kontrast eines Bildes auf natürliche Weise zu verbessern, verwenden Sie einfach eine Instanz des Belichtungsmoduls, das durch Multiplikation überblendet wird, stellen Sie die Belichtung zwischen 2 und 3 EV und die Deckkraft zwischen 10% und 50% ein. Mit der Belichtung wird dann der Drehpunkt des Kontrasts und mit der Deckkraft die Intensität des Effekts gesteuert. Das ist schnell, einfach und effektiv.

Ein minimaler Arbeitsablauf für einen Einsteiger

In darktable können Sie zwischen 77 Modulen wählen, die es Ihnen ermöglichen, dasselbe auf viele verschiedene Arten zu tun. Aber es ist oft eine Illusion der Wahl, denn viele von ihnen haben ebenso viele Nachteile wie Vorteile. Wenn Sie den Quellcode der oben nicht empfohlenen Module öffnen, werden Sie feststellen, dass fast alle von ihnen auf die Jahre 2010-2011 datiert sind und dass wir sie beibehalten mussten, um das Versprechen einzuhalten, mit den alten Versionen kompatibel zu bleiben.

Sie können praktisch mindestens 80% Ihrer Bearbeitung auf 4 Module reduzieren:

  1. Belichtung
  2. Weißabgleich
  3. Farbbalance
  4. Filmisch RGB

Der Grund, warum diese so mächtig sind, ist, dass sie eigentlich extrem einfach sind, wenn man sich ihre Gleichungen ansieht:

2) Color Decision List = Farbentscheidungsliste, alias Neigung/Offset/Stärke-Modus in der Farbbalance.

Mit diesen 4 Modulen haben Sie alles, was Sie brauchen, um ein sichtbares Bild zu erzeugen, um Farbmetrikbelange zu korrigieren, um Kontraste zu erzeugen und um eine künstlerische Absicht hinzuzufügen. Denken Sie daran, die Basiskurve zu deaktivieren, wenn Sie Filmisch RGB verwenden.

Dann, je nach Bedarf, vervollständigen Sie das Ganze mit den folgenden Modulen:

Einige dieser Module sind von ungekannter Macht und werden weitgehend nicht genutzt:

  1. Das __Belichtung__smodul mit seinen Masken kann alle Optionen der HDR-Abbildungen, der Schatten und Lichter, des Tonwert-Equalizers, der Tonkurven und sogar des lokalen Kontrasts (in gewissem Umfang) ersetzen, die bei der multiplizierten Zusammenführung verwendet werden.
  2. Das Kanalmixer-Modul kann alle Ihre Gamut-Probleme, einschließlich Blaulichtprobleme, überwinden, ohne ein falsches Eingangsprofil zu verwenden, aber es kann auch Gras in Schnee oder Sommerbäume in Herbstbäume verwandeln.
  3. Mit der Farbbalance können Sie die Farben eines Films nachahmen, ungleichmäßige Weißbalance ausgleichen, Hautrötungen entfernen, Reliefs betonen, Split-Tonungen erzeugen oder Ihren Bildern ein apokalyptisches Gefühl verleihen.

Um schließlich nur eine minimale und vernünftige Auswahl an Modulen in der Schnittstelle anzuzeigen, öffnen Sie rechts neben " Weitere Module " die Liste der Voreinstellungen und wählen Sie " Bereich: Allzweck “.

darktable screenshot

Darktable ist viel einfacher, wenn man versteht, dass man nicht alle 77 Module gleichzeitig verwenden muss …

Wenn Sie Zweifel an der Reihenfolge der Module haben, sollten Sie wissen, dass die Standardreihenfolge für die Version 3.0 global durchdacht wurde, und abgesehen von einigen Unsicherheiten über die beste Position der Vignettierungs- oder Monochrom-Module ist der Rest in Theorie und Praxis ziemlich solide.

Schlussfolgerung

Das Verschieben von Pixelwerten in die eine oder andere Richtung ist die eine Sache. Korrekturen so zusammenzuführen, dass sie sich diskret in das Ganze einfügen, ist eine andere. Wir haben gesehen, dass Lab oder nichtlineares RGB die Pixel mehr oder weniger korrekt schieben kann, aber es ist immer das Zusammenfügen und Unschärfen, das die Zeche bezahlt. Es stellt sich heraus, dass es unter der Haube von darktable eine Menge Unklarheiten gibt, manchmal dort, wo wir sie nicht erwarten. Besonders problematisch ist es beim Compositing, also dem Einfügen eines Bildes in ein anderes, die Hintergründe auszutauschen, ohne den Vordergrund zu beeinträchtigen, zum Beispiel. Und genau diese Art der Manipulation ist es, die die Filmindustrie seit etwa zwanzig Jahren dazu veranlasst hat, sich in Richtung einer linearen Darstellung der Szene zu bewegen.

Darktable zahlt für 10 Jahre Open-Source-Design. Open-Source-Design bedeutet, dass jeder in seinem Texteditor loslegen kann, um Dinge zu programmieren, bevor er die Mathematik auf ein Blatt Papier geschrieben und überprüft hat, ob die Theorie stimmt oder ob das zu lösende Problem eindeutig formuliert ist. Es gibt manchmal positive Überraschungen, oft aber auch grundlegende Fehler, wie z.B. Farbraumfehler bei linearen Übertragungsfunktionen, die in nichtlinearen Räumen angewendet werden, oder HDR-Anpassungen, die in SDR-Räumen angewendet werden. Diese Art von Fehlern kommt auch bei Gimp, Krita, Blender usw. vor. Da die Bildverarbeitung nicht das Risiko birgt, jemanden zu töten, erlauben wir uns eine Laxheit, die in der Medizin oder im Bauwesen nicht tolerierbar wäre.

Die Theorie gibt Anwendern und Entwicklern gleichermaßen die Möglichkeit, sich mit Buttons auszustatten, und sie muss schon bald aufhören, wenn wir in den nächsten 10 Jahren nicht mehr im Kreis laufen wollen. Alles, was auf dem Papier funktioniert, funktioniert in der Praxis nicht immer, aber alles, was auf dem Papier nicht funktioniert, wird in der Praxis garantiert scheitern. Tatsache ist, dass Abstraktion und Mathematik den Menschen Angst machen, während sie es viel leichter machen, komplexe Probleme zu lösen. Was die Leute erschrecken sollte, ist das Fehlen eines klaren mathematischen Modells zur Beschreibung der Realität, die in der Software manipuliert wird, denn die Software kann nichts anderes als Berechnungen durchführen und könnte daher genauso gut fehlerfrei sein.

Die Lehre, die aus all dem gezogen werden muss, besteht darin, mehr Zeit mit der Erforschung und Prüfung der auf Papier verfügbaren Theorie zu verbringen, bevor man sich an den Code macht. Es geht darum, das Problem genauer zu definieren und den Rahmen der Lösung klarer zu umreißen, bevor man sich auf die erste gefundene Lösung stürzt und etwas kodiert. Und es soll auch von dem inspiriert werden, was das Filmgeschäft tut, denn sie arbeiten mit mehr Zwängen als die Fotografie, was sie zwingt, strenger und letztlich intelligenter zu sein.

darktable befindet sich also in einer Übergangsphase. Sie ist lang, manchmal schmerzhaft, es gibt viele kleine Dinge, die an verschiedenen Stellen geändert werden müssen, und sie lässt Nutzer, die sich nach Kohärenz sehnen, herummurren. Zumindest wissen Sie jetzt das Wie und Warum. Sie wissen auch, was für Sie dabei herausspringt. Ich hoffe, dies wird Ihnen helfen, voranzukommen.

Beschränken Sie sich als neuer Benutzer auf die oben empfohlenen Module und wagen Sie sich weiter, wenn Sie beginnen, sich vertraut zu fühlen. Für bisherige Benutzer haben die neuen Module viel zu bieten, aber die alten Module im Lab-Raum sind noch immer relevant für moderate kreative Effekte und können mit dem Wissen um ihre Gefahren eingesetzt werden.

Die Werkzeugkiste für die lineare Bearbeitung wächst. Auf der Tagesordnung :

Nun, es gibt mehr Arbeit als Menschen, die das tun können, also wünschen Sie uns viel Glück, vergessen Sie nicht, uns zu unterstützen, und Ihnen allen ein gutes neues Jahr 2020!

Der Autor

Aurélien PIERRE

Porträtfotograf in Nancy-Metz. Spezialist für Berechnung, Modellierung und digitale Simulation für die Bildverarbeitung (Entrauschen, Entfärbung, Farbmanagement) und Wärmetechnik. Filmisch-Modul, Tone-Equalizer, Farbbalance und die neue themenbezogene Benutzeroberfläche für Darktable 3.0. Darktable-Benutzer seit 2010. darktable ist mein Job, [denken Sie darüber nach, mir bei der Entwicklung zu helfen] (https://fr.liberapay.com/aurelienpierre/).

Urheberrecht

Dieser Artikel wird gemäß den Bedingungen der darktable FR-Site (Texte und Fotos) unter den Bedingungen der Creative Commons Attribution-Share Alike License 4.0 International (CC BY-SA 4.0) zur Verfügung gestellt.

6476 Worte - Lesezeit: 31 Minute(n)

 

weitere Artikel

Bild zum Artikel

darktable 3.0 - Änderungen und neue Features

darktable 3.0 ist veröffentlicht. Es gab eine Menge Änderungen und neuer Features - und ein Team der französischen darktable-Community hat die etwas spröden Release-Notes um einen anschaulichen Artikel ergänzt.

Bild zum Artikel

sRAW, mRAW - die kleinen RAW-Formate der Nikon D500

Nachdem Nikon von der D810 zur D850 den Aufbau der kleinen RAW-Formate komplett geändert hatte, wollte ich sehen, wie diese Formate bei der D500 aussehen

Bild zum Artikel

Weißabgleich-Einstellungen kameraspezifisch für darktable ermitteln

Praktisch alle Digitalkameras bieten unterschiedliche Voreinstellungen für den Weißabgleich an. Hier soll es darum gehen, wie darktable als RAW-Konverter in die Lage versetzt werden kann, diese Einstellungen im Weißabgleichsmodul anzubieten

Bild zum Artikel

Verwirrung über Nikon D850 RAW-Formate

Nikon ermöglicht in der D850 die Nutzung von RAW-Files unterschiedlicher Größen (sRAW, mRAW und volle Größe) - doch unterschiedliche Programme zeigen unterschiedliche Kantenlängen an. Was ist da los?