• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Dumme Frage zum D850 Dynamikumfang

TobiF

Themenersteller
Hallo zusammen,

bitte entschuldigt, dass ich hier mal eine dumme Frage stellen muss:

So wie ich das im Hinterkopf habe ist der Dynamik-Umfang vom Menschlichen Auge (20 Blenden) noch deutlich höher, als von aktuellen Digital-Sensoren (14 Blenden).

Wenn ich Fotos mit der D850 erstelle, dann kann ich aus Schatten mit nachträglicher EBV noch relativ viele Bildinformationen rausholen.

Ich würde das so interpretieren, dass die Kamera noch Dynamik Reserven hat, die aber im Bild nicht direkt widergegeben werden. (Die Schatten sind ja zunächst überwiegend schwarz).

Wo ist mein Denkfehler ?

Warum nutzt die Kamera diese Dynamik-Reserven nicht direkt im Bild ?
Warum muss ich das per EBV machen ?

Ich gehe davon aus, dass das was aus der Kamera raus kommt, schon richtig ist. Und der Fehler beim Nutzer liegt.
Ich habs nur noch nicht verstanden.

Verzerre ich mit dem hochziehen der Schatten die Realität ?

Viele Grüße
Tobi F.
 
Wo ist mein Denkfehler ?
Ich würde sagen er liegt ein wenig dort: Es ist gar nicht so einfach festzulegen, was "das Bild" überhaupt ist.
Eine RAW-Datei ist schonmal kein Bild. Und es gibt auch keine feste Vorschrift, wie daraus ein Bild gemacht zu werden hat. Das hängt nämlich von den Einstellungen ("Reglern") des RAW-Konvertes ab. Ein aus dem RAW entwickeltes JPG ist ein Bild. Dieses JPG selbst besitzt aber einen viel geringeren Dynamikumfang als das RAW. Und es wird auf einem Display dargestellt, welches auch einen geringeren Dynamikumfang hat.


Warum nutzt die Kamera diese Dynamik-Reserven nicht direkt im Bild ?
Das hängt ein bisschen davon ab, wie die Kamera eingestellt ist. Bei aktuellen Nikons (also auch deiner D850) lassen sich die Picture-Styles schon so einstellen, dass Schatten stark aufgehellt und Lichter stark abgedunkelt werden.
Aber wäre das die Standard-Einstellung, würde das Ergebnis wahrscheinlich in zu vielen Fällen zu künstlich aussehen.


Verzerre ich mit dem hochziehen der Schatten die Realität ?
Du passt das Bild damit ein wenig deinen menschlichen Sehgewohnheiten an. Aber ja, du verzerrst die Realität, weil du damit die Helligkeitsverhältnisse änderst.
Hätten das benutzte Bilddateiformat und das Display irgendeinen Dynamikumfang von 14 oder mehr "Blenden", dann wäre das Bedürfnis dieses Schattenhochziehens vermutlich gar nicht da.
 
Warum nutzt die Kamera diese Dynamik-Reserven nicht direkt im Bild ?
Warum muss ich das per EBV machen ?

Jedes Fotomotiv hat eine andere Dynamik. Die Kamera bearbeitet die Fotos mit einem Durchschnittswert. Sie nimmt keine Rücksicht darauf, ob das Motiv wenig Kontrast oder viel hat. Mit der EBV kann man auf die tatsächliche Dynamik reagieren und das Foto anpassen.

Das ist wie beim Weißabgleich. Der automatische Weißabgleich passt oft ganz gut, aber manchmal will man mehr ins rötliche gehen, weil es der empfundenen Stimmung besser gerecht wird. Die Kamera hat selbst keine Gefühle.
 
Je nach Helligkeit der Bildbereiche stehen unterschiedlich viele Tonwerte zur Verfügung. Für dunklere Bereiche werden dann die Abstufungen gröber. Praktischerweise belichtet man immer so, dass man die Tonwertkurve im Histogramm möglich weit nach rechts zieht. Ansonsten können Farbverfälschungen, Rauschen u.ä. im Bild auftauchen. JPGs können auch nur 8 Bits pro Farbkanal speichern, was auch nochmals wichtige Bildinformationen kappt.
 
Warum nutzt die Kamera diese Dynamik-Reserven nicht direkt im Bild ?
Warum muss ich das per EBV machen ?

Weil die meisten Käufer sonnst diese Kamera nach den ersten Testbildern zurückgeben würden, wenn defaultmäßig im OOC-JPEG der komplette Dynamikumfang wiedergegeben werden würde.

Nimmt man ein gleichmäßig beleuchtetes Motiv (Sonne im Rücken) bei dem schwärzeste Stelle 2% Reflektieren, und hellste Weiß 98% reflektiert, so hat die Szenerie ein Dynamikumfang von 5,62 Blenden. Ein Abzug der alle 14 Blenden des Sensors wiedergibt wäre das ein gematsche zwischen hellgrau und mittelgrau....

Deshalb haben die Hersteller die OOC-JPEG meist um 7 Blenden, wobei in den Schultern dann noch etwas mitgenommen wird, so daß für alltägliche Motive erstmal ein knackiges Bild aus der Kamera kommt. Damit bedient man die großen Käufermengen.

Diejenige die das letzte Quäntchen herausholen wollen, der greift eh zu EBV. An meinen Olympus Kameras gibt es eine möglichkeit indirekt die Gradation der JPEG Engine zu verstellen. Ich habe die meist ganz flach, weil mir dann das Histogramm am meisten Informationen bringt.
Dafür sehen die Vorschaubilder oft sehr flau aus. Ich weis, daß ich das im RAW Entwicklungsprozess eh individuell verändere. Würde jemand die Galerie auf meiner Speicherkarte ansehen, würde er sich sehr wahrscheinlich mit grausen abwenden.
 
Warum nutzt die Kamera diese Dynamik-Reserven nicht direkt im Bild ?
Warum muss ich das per EBV machen ?

Die ca. 14 EV Dynamic hat sie im RAW, RAW ist aber nunmal kein fertiges Bild und ein fertiges 8 Bit JPG kann nunmal keine 14 EV darstellen, zumal es die meisten Ausgabegeräte auch nicht können.

Irgendjemand muss also entscheiden ob und wie die 14 EV im JPG "gestaucht" werden sollen. Und das kann nunmal schlecht die Kamera für Dich entscheiden.
 
Wow, ich bin zunächst einmal total begeistert.
Das sind genau die Antworten, die ich mir erhofft hatte.
Eure Hinweise haben mich schon einmal auf den richtigen Gedankengang gebracht. Ich werde mich damit noch ein wenig auseinander setzen (müssen), um für mich denn passenden Workflow zu finden. Wo ich vielleicht an der Kamera, beim Fotogarfieren oder mit Picture Settings ansetze, und wo ich weiterhin die EBV verende.

Es freut mich sehr, dass ich mit der Frage nicht abgewatscht wurde, (D850 haben wollen, aber keine Ahnung von Fotografie,... )

:)

Gute Nacht zusammen.
 
Warum nutzt die Kamera diese Dynamik-Reserven nicht direkt im Bild ?

Wenn du eine Szene mit viel Kontrastunterschieden hast (also ein großer Unterschied zwischen hellen und dunklen Bereichen besteht), würde ich die Kamera so für die JPEG-Ausgabe (was am Kamera-Bildschirm für die Wiedergabe genutzt wird) einstellen:

- lichterbetonte Belichtungsmessung (highlight-weighted Metering) verwenden und mit dem Fokuspunkt auf die hellste Stelle im Bild zielen
- Active D-Lighting auf Maximal stellen (statt "Automatisch")
- Picture Control für den Bildstil auf "Standard" oder "Neutral"
- ISO im niedrigen Bereich halten

Im RAW hast du 14-Bit Dynamikumfang in der Nachbearbeitung, kannst also sehr viele Informationen aus den Schattenbereichen holen. Ein JPEG hat nur 8-Bit, also 256 verschiedene Stufen was Farb- und Helligkeitsbereiche angeht. Die meisten Bildschirme können auch nur 8-Bit darstellen. Es gibt ein paar Computer-Displays und Grafikkarten mit 10-Bit Ausgabe.

Eine weitere Möglichkeit besteht den HDR-Modus der Kamera zu nutzen, allerdings werden hier mehrere Aufnahmen erstellt. Da Nikon so viel Dynamikumfang aus einem einzelnen Bild holen kann (bei ISO 100 oder ISO 64) ohne in Rauschen zu versinken, kann man sich auch fast das Erstellen von Belichtungsreihen sparen.

Es kommt immer darauf an welche Ergebnisse du erzielen möchtest und wie groß die Kontrastunterschiede ausfallen. Landschaftsfotografen nutzen beispielsweise auch Grauverlaufsfilter vor dem Objektiv, wenn die Sonne direkt frontal von vorne im Bild fotografiert werden soll. Man kann sich das wie eine Teilabdunklung einer Sonnenbrille vorstellen.
 
Zuletzt bearbeitet:
finde die frage überhaupt nicht dumm.

kann ich aus Schatten mit nachträglicher EBV noch relativ viele Bildinformationen rausholen

dabei spreizt du einfach die Tonwerte, also "fast ganz dunkel" im Raw bildest du ab auf "relativ dunkel" im fertigen Bild.

Das ist dann deutlicher sichtbar. Die Information bleibt aber gleich, nur sieht man sie besser.

das Spreizen der Tonwerte macht die Kamera auch, nur halt nach Schema F, anhand der eingebauten Gradationskurve, also einer Vorschrift, wie die Tonwerte im Raw auf's fertige Bild abgebildet werden. Oft passt das ja auch ganz gut. In der EBV kannst du halt die Gradationskurve beeinflussen.
 
Dank dieses Threads ist mir der technische Hintergrund deutlich klarer geworden.

Vermutlich werde ich in Zukunft RAW + Jpg aufnehmen.
Und JPG dann mit Active D-Lightning bei Bedarf auf H stellen.
Damit erwarte ich mir OOC schon mal ganz gute Ergebnisse für JPG.

Und für die "best of" einer Serie kann ich im Detail aus RAW genau die Gradationskurve auf 8bit zusammenstauchen, so wie ich es brauche.

(Stimmt das soweit ?)

Am Besten noch Active D-Lightning auf eine Fn Taste gelegt.

Hm....
 
(...)
So wie ich das im Hinterkopf habe ist der Dynamik-Umfang vom Menschlichen Auge (20 Blenden) noch deutlich höher, als von aktuellen Digital-Sensoren (14 Blenden).

Wenn ich Fotos mit der D850 erstelle, dann kann ich aus Schatten mit nachträglicher EBV noch relativ viele Bildinformationen rausholen.
(...)
Wo ist mein Denkfehler ?

Warum nutzt die Kamera diese Dynamik-Reserven nicht direkt im Bild ?
Warum muss ich das per EBV machen ?
(...)
Verzerre ich mit dem hochziehen der Schatten die Realität ?

(...)

Erst mal:
Das mit den angeblichen 20+ EV Dynamikumfang des Auges stimmt so leider nicht. Das Auge kann zwar in einem großen Bereich wahrnehmen - hat aber eigentlich bei einer Szene (also fixierter Blick) immer nur einen "Dynamikumfang" von ca. 5 bis 7 EV, je nach Helligkeitsbereich und Auge. Mehr kann die Netzhaut eben nicht auf einmal. Dazu hat das Auge nur einen sehr minimalen Scharfbereich (< 5° Blickwinkel), alles andere am Rand wird zwar wahrgenommen - aber ist eben unscharf. Sobald man irgendwo anders hin schaut in der Szene passt sich das Auge wieder komplett neu an, sowohl bei der Schärfe als eben auch am Helligkeitsempfinden. Und das Ganze passiert dann auch noch nichtlinear. Das Auge ist eben keine Fotokamera - sondern ein "Videosystem".

[Hintergrund:
Das menschliche Auge kann so zwar im Bereich von -10EV (dunkle Nacht ohne Mond, nur Sternenlicht) bis 15+EV sehen. Aber das geht nur deshalb, weil das Auge und das Gehirn sich entsprechend anpasst. Auf einem Gletscher/Schneefeld in der prallen Mittagssonne kann man deswegen noch etwas erkennen, weil sich die Pupille auf eine Mindestgröße verkleinert (entspricht dann ca. f/12 bis f/13). Und weil das Auge bzw. Gehirn sich an die Helligkeit auch adaptieren kann, was aber sehr schnell geht (< 1 Minute). Kommt man dann wieder aus dem hellen in einen dunklen Bereich (normal heller Raum innen), dann sieht man aber erst mal kurz nicht all zu viel, man ist erst mal "geblendet" und sieht eventuell sogar Nachbilder. Erst nach einer kurzen Zeit (auch so <1 Minute) hat sich das Auge dann wieder an die Dunkelheit angepasst und die Pupille ist geweitet. Genau das gleiche passiert auch, wenn man von einer normal hellen Umgebung in eine dunkle Umgebung kommt. Um dann in einer dunklen Umgebung (helles Mondlicht, -1EV) wieder etwas zu sehen muss sich das Auge wieder anpassen, was ein bis zwei Minuten dauern kann. Und um in wirklich dunkler Umgebung wieder etwas zu sehen, da muss sich das Auge erneut anpassen, auch weil hier nicht mehr die Farbempfindlichen Zapfen-, sondern die lichtempfindlicheren Stäbchensensoren zum Einsatz kommen. Und erst nach so 20 bis 30+ Minuten Adaption an die enstprechende Dunkelheit von z.B. -5EV oder weniger sieht man dann wieder vollständig, bei maximal geöffneter Pupille (entspricht dann irgendwo f/5 bis f/2, im Alter öffnet sich die Pupille weniger weit...). Wenn auch nur in schwarzweiß und leicht unscharf. Dafür kann man dann nach einer entsprechenden Adaption und ohne große Lichtverschmutzung des Himmels auch die Milchstraße in einer Neumondnacht wunderbar sehen.
Das Auge kann aber z.B. nicht gleichzeitig bei Nacht den normal hell beleuchteten Innenraum (7EV) und dazu noch die nächtliche Szenerie draußen vor dem Fenster erkennen (-1EV), da ist für das Auge draußen kein wirkliches Detail mehr erkannbar, alles ist "schwarz". Erst wenn man innen das Licht dimmt, dann kann man dann draußen wieder was erkennen. ]


Das Auge kann so in einer fixierten Szene deutlich weniger Dynamik wahrnehmen als die meisten modernen Kameras mit ihren bis zu 14 EV aufzeichnen können. Und genau deswegen nutzen die Kameras beim Erstellen der jpeg normal auch nicht die vollen 14 EV Dynamikumfang um z.B. die Schatten durch eine Betonung mehr aufzuhellen. Sondern versuchen lediglich einen möglichst "natürlichen Eindruck" des Bildes zu bekommen. Bei dem auch mal Details im Schatten "versinken". Da werden dann schon auch mal 10EV aus dem Bild genutzt (in 8-bit jpeg kann man dank nichtlinearer Gammakurven Problemlos 11EV darstellen..) - aber Schatten werden meist nur sehr dezent aufgehellt von der Dynamik. Wenn nämlich die Schatten zu sehr hoch gezogen werden um dort Details zu sehen, dann wirken Bilder gern mal etwas unnatürlich, das sieht man vor allem bei vielen "Urbex-" und Social-Media Landschaftsbildern, bei denen dann Tonemapping & co. auch gern mal bisschen bis massiv übertrieben wird. Wobei die Bilder am Ende auch mal direkt nach optischem Müll aussehen. Das ist dann diese verzerrte Realität, die du angesprochen hast.

Was das für dich für die Praxis bedeutet:
Wenn du OOC jpeg mit der Kamera machst um das Bild direkt zu haben, dann musst du immer das hinnehmen, was die Ingenieure da an Bildprofilen eingebaut haben - oder du verwendest hier eigene, angepasste Bildprofile, die du z.B. mit dem Picture Control Utility 2 bearbeitet und in die Kamera geladen hast. Mit dieser Software kannst du dann nicht nur Helligkeit und Kontrast verändern (wie in den jpeg-Profilen der Kamera), sondern auch direkt die Belichtungskurven verändern. Damit kannst du dann die Schatten generell leicht aufhellen. Aber die Kamera ist eben immer nur eine Dummautomatik, die nicht wirklich selbst mitdenken kann auch wenn man mit ein bisschen Auseinandersetzung mit den Kameraprofilen/Picture Controls schon ganz gute Ergebnisse bekommen kann. Nur hat man am Ende 8-bit jpeg, die verlustbehaftet komprimiert sind. Und zwar so für sich gut aussehen, für die weitere Bearbeitung aber nicht mehr so gut geeignet sind, weil du dabei dann z.B. Artefakte und Banding im Bild bekommen kannst.
Die wirkliche volle Kontrolle über das Bild kriegst du aber nur, wenn du es nicht als jpeg, sondern am besten als 14-bit lossless RAW fotografierst und dann die ganzen Einstellungen, die beim JPEG OOC die Kamera für dich macht, selbst am RAW-Konverter machst. Hier kannst du dann nicht nur die ganze Grundbelichtung ändern, sondern auch Schatten hochziehen, mit dem Nikon-Konverter kann man auch das D-Lighting noch nachträglich anwenden, verschiedene Kamera jpeg-Profile ausprobieren usw. Um das Bild erst dann am Ende in das verlustbehaftete und komprimierte 8-bit jpeg-Format umzuwandeln.

Ich selbst fotografiere so eigentlich fast nur noch in RAW und mache den Rest dann zu hause am Rechner, da hat man dann seine 20+ jepg auch mit drei, vier Klicks erzeugt, wenn man nicht viel am Bild ändern will. (Der Nikon-Konverter ist da in der Funktion auch nicht anders als die Kamera). Und individuell anpassen einzelner Bilder geht dann auch immer noch. Die jpegs OOC sind eigentlich nur dann notwendig, wenn man die Bilder direkt braucht um sie z.B. so schnell wie möglich an eine Bildagentur zu schicken oder wenn man generell keine Lust hat sie noch schnell am PC umzuwandeln. (Vergleichbar mit dem "Film ohne weitere Angaben" entwickeln lassen am Discounter früher).

"Interpretationen der Realität" sind aber bei Varianten, sowohl die von dir nach deinen Vorgaben entwickelten als auch die von der Kamera nach den Bildvorstellungen eines Nikon-Ingenierus entwickelten Bilder.
 
@felix_hh, auch von mir ein herzliches Dankeschön, dass Du Dir die Mühe gemacht hast und diese umfangreiche Antwort geschrieben hast.

Dass das menschliche Auge nicht direkt überall 20EV verarbeiten kann, hatte ich mir schon gedacht. Aber es ist doch auch so, dass das Auge die Szenerie an verschiedenen Punkten betrachtet und dabei immer individuell anpasst.
Bei einem Foto geht das halt nicht.
Und wenn man sich hinterher das Bild anschaut, wandert der Blick ja auch hin- und her...
 
Re: Dumme Frage zum Belichtungsumfang

Aber es ist doch auch so, daß das Auge die Szenerie an verschiedenen Punkten betrachtet und dabei immer individuell anpaßt. Bei einem Foto geht das halt nicht.
Doch, natürlich geht das auch bei einem Foto. Was glaubst du, wozu die Bildbearbeitung da ist!?
 
AW: Re: Dumme Frage zum Belichtungsumfang

Aber es ist doch auch so, dass das Auge die Szenerie an verschiedenen Punkten betrachtet und dabei immer individuell anpasst.
Bei einem Foto geht das halt nicht.

Doch, natürlich geht das auch bei einem Foto. Was glaubst du, wozu die Bildbearbeitung da ist!?

Was das Auge beim Abtasten einer Szenerie macht entspricht mehr dem Vorgehen beim erstellen eines HDR aus mehreren Belichtungen, als an den Highlight und Shadow Reglern in der EBV zu drehen. Irgendwie ist das jetzt so etwas dazwischen.
 
@felix_hh, auch von mir ein herzliches Dankeschön, dass Du Dir die Mühe gemacht hast und diese umfangreiche Antwort geschrieben hast.

Dass das menschliche Auge nicht direkt überall 20EV verarbeiten kann, hatte ich mir schon gedacht. Aber es ist doch auch so, dass das Auge die Szenerie an verschiedenen Punkten betrachtet und dabei immer individuell anpasst.
Bei einem Foto geht das halt nicht.
Und wenn man sich hinterher das Bild anschaut, wandert der Blick ja auch hin- und her...

Bei dem Ganzen kommt es mehr oder weniger auf die "gefühlte mittlere Helligkeit der Szenerie" an. Und durch die wird eben z.B. die Öffnung der Pupille beeinflusst. Und die weitere Anpassung der Augen von hellem Licht auf dunkle Umgebung dauert wie gesagt ein bisschen. Da ändert der schnelle Blick nicht so viel.

Wenn du im Hochsommer (>100 000 Lux) in einen kaum beleuchteten Kellerraum gehst (50 Lux), dann ist das erst mal ein "finsteres Loch" für dich. Und in den Ecken siehst du kurz auch mal nicht alle Staubflusen. Wenn du da aber eine Weile bist, dann ist das im Raum wieder eine "normale Helligkeit". Und dir fällt auf, dass der Staubsauger doch mal wieder bemüht werden sollte...
 
So besonders viel mehr als 14 Schritte Dynamik gehen meines Wissens auch gar nicht in einem Foto. Das liegt einfach daran, das Optiken nicht wie das Auge nur ein einziges optisches Element haben, sondern eben viele. Und egal wie gut diese vergütet sind, ein bisschen Streulicht gibt es dann eben trotzdem. Dieses Steulicht begrenzt dann die maximal mögliche Dynamik.

Die D800/D810/D850 sind daher schon relativ nahe an der technisch sinnvollen Grenze. Man kann noch ein bisschen mehr mit HDR herausholen, aber unbegrenzt geht das eben auch nicht.
 
WERBUNG
Zurück
Oben Unten