• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Berauschende Entrauschung

Für einen Abzug auf Briefmarkengröße reicht es definitiv. ;)

Mach mal bitte einen Crop vom Kopf des Hörnchens.
 
Kannst du bitte die Bilder, einmal in Vollansicht und einmal jeweils einmal als 100%-Ausschnitt hier im Forum hochladen?, auf Google kann ich die Bilder nicht zuordnen, außerdem ist ein Google-Account erforderlich um die Bilder herunterzuladen.


Am Dienstag komme ich wieder in die Wohnung mitm Rechner mit LR. Per Klick auf das "i" im Kreis sollten die Details mit den Metadaten angezeigt werden.


Das kann auch nicht funktionieren da - zumindest bei Canon - die TTartisan rein mechanische Objektive ohne jeden elektrischen Kontakt zur Kamera sind. Somit weiß die Kamera gar nicht, dass überhaupt ein Objektiv dran steckt.


Ist bei rein analogen Objektiven und Sony nicht anders, keine Metadaten vom Objektiv in den Bildern. Aber PureRAW 2 könnte es wie Lightroom, PhotoDirector oder showFoto machen: die automatische Auswahl des Objektivkorrekturprofils ist durch den Nutzer übersteuerbar. So kann der Nutzer dem Programm sagen welches Glas verwendet worden ist wenn es nicht in den Metadaten ist oder eine Falscherkennung vorliegt.


Nein, macht die Kamera nicht. Davon abgesehen, wenn Du Dir das Bild anschaust, bei dem m@sche einen WB auf beiden Bildern benutzt hat, siehst Du immer noch Unterschiede. Das Problem dabei ist, daß es einen Farbstich in den Tiefen gibt, der quasi in die helleren Bereiche "ausblasst". Man braucht also einen maskierten WB, abhängig von den Farbwerten. Der Farbstich kommt übrigens vom hochskalierten Rauschen (Rauschen äußert sich in verschiedenen Artefakten, nicht nur den "Krümeln").


Das Laub ist im Herbst mehr rötlich, mehr so wie auf dem OOC JPG und nicht grün-gelb wie im RAW (der Farbstich in diese Richtung wurde von PureRAW 2 sogar noch verstärkt). So toll das Programm im Entfernen vom Rauschen und Nachschärfen ist, bei den Farben macht es bei manchen Bildern eine Verschlimmbesserung.


@das_teufelchen Das Oachkatzl mit seinem buschigen Oachkatzlschwoaf sieht auch auf meinen großen PC-Bildschirm (Full HD, 30 Zoll oder sowas) noch super aus (y)
 
@das_teufelchen Das Oachkatzl mit seinem buschigen Oachkatzlschwoaf sieht auch auf meinen großen PC-Bildschirm (Full HD, 30 Zoll oder sowas) noch super aus (y)

Die Auflösung der Kamera übertrifft Full HD um ein Vielfaches.

Ist es ein Problem mal ein Detail hochzuladen?

Im Prinzip drehen wir uns nur im Kreis mit der Diskussion und ich habe hier noch nichts gesehen was mich an der Entrauschungssoftware überzeugen könnte.
 

Natürlich kann er noch eine Detailansicht hochladen.

Ich finde, hier https://www.dslr-forum.de/showpost.php?p=16405565&postcount=107 sieht man schon, dass die Software das Rauschen von ISO 6400 gut entfernt.
 
Rauschen entfernen ist keine Kunst.
Das ist es erst in Kombination mit dem Erhalt der Details und das Foto was du verlinkst hat eben keine Details, weil es von Grund auf unscharf ist.

Nochmal: Was spricht dagegen das Hörnchen im Detail zu zeigen?
 
Nochmal: Was spricht dagegen das Hörnchen im Detail zu zeigen?

Man kann doch einfach das Bild in Originalgröße öffnen, dann mit der Lupe draufklicken und man hat auch die 100% Ansicht.

https://abload.de/img/ps5_8833_dx0-12yd7d.jpg

Wie du schon sagst, Rauschen kriegt man ganz gut weg, aber der Detailerhalt ist halt irgendwann zunehmend schwieriger. In dem Beispiel vom Eichhörnchen sieht man das ja auch.
edit: Nicht, dass ich jetzt falsch interpretiert werde - es ist richtig beeindruckend was da inzwischen möglich ist. Was ich sagen wollte ist einfach, dass trotz allem erkennbar weniger knackig feine Details drin sind als es bei moderaten bis mittleren vierstelligen ISO der Fall gewesen wäre.
 
Zuletzt bearbeitet:
Die Kamera treibt doch genau das selbe Spiel. Es erfolgt keine analoge Signalverstärkung.
Wie rodinal schon schrieb, tun sie das eben doch. Sonst hätte ich keine 3 Blenden Raum in die Schatten bei ISO6400 bei meiner A7s. Auf Sensordatenblättern liest man sowas wie "gain" und umschließt dann üblicherweise einen Bereich, z.B. 0-30dB o.ä. Das ist die analoge Verstärkung.

Posterisation konnte ich bei 12-bit oder 14-bit Raws beim Hochziehen in der EBV noch nicht beobachten. Die Reserve liegt hier in der ja so oder so letztlich nur 8-bit breiten Ausgabe ans Sichtgerät.
Nur gibt es in der Kette nichtlineare Anteile, d.h. Du brauchst mehr als 8 bit, um das sauber abbilden zu können. Davon abgesehen wärst Du nicht der erste, der von Posterization quasi gebissen wird, ohne es wahrzunehmen. Ich komme aus der Ära der Computer, die begrenzte Farbanzahlen hatten, und da lernt man, im Verbund mit dem weitläufig benutztem Dithering, solche Sachen trotz Krümelmüll zu sehen. Wer etwas feinfühliger beim Bearbeiten ist, stolpert da auch irgendwann darüber.
 
Man kann doch einfach das Bild in Originalgröße öffnen, dann mit der Lupe draufklicken und man hat auch die 100% Ansicht.

https://abload.de/img/ps5_8833_dx0-12yd7d.jpg

Ok danke, jetzt kann ich es auch größer machen. (y)
Also berauschend finde ich das Ergebnis jetzt nicht.

Statt Rauschen hat man jetzt Fragmente im Hintergrund und das Hörnchen ist alles andere als scharf oder detailreich.
Nur die Baumrinde sieht gut aus.


Anscheinend bin ich blind.
Iso100 entrauschen?
Wenn ich zwischen den beiden Bildern hin- und herschalte sehe ich keinen relevanten Unterschied. Nur der Zaun vorne verändert sich ein bisschen.
 
Iso100 entrauschen?

Ähm...jeder Konverter entrauscht ootb...egal welche ISO! ;)

Zudem sind die Schatten aufgehellt und da leiden aufgrund des Rauschens bei jeder Kamera die Details. (Selbst bei ner R6)

Wenn ich zwischen den beiden Bildern hin- und herschalte sehe ich keinen relevanten Unterschied. Nur der Zaun vorne verändert sich ein bisschen.

Die Geländer der Häuser sind signifikant besser rekonstruiert, das Rauschen in den einfarbigen Flächen geringer...und im Vordergrund ist der Zaun nicht nur ein "bisschen" verändert.
Das ist mit dem traditionellen Demosaicer und Denoiser einfach nur komplett zermatschter Pixelbrei, was man auch an den Büschen ringsrum erkennen kann. :ugly:

Deswegen jage ich mittlerweile ausnahmslos jedes Bild durch DeepPrime...mit angepasster Stärke allerdings.
Was traditionelle Konverter diesbezüglich abliefern ist im Vergleich schlicht und ergreifend in jeder Beziehung schlechter.
Du gewinnst damit locker 1-2 ISO Stufen verglichen mit ner konventionellen Entrauschung.

Aber wenn du objektiv schlechtere Verfahren bevorzugst....bitte sehr.
 
Zuletzt bearbeitet:
... Davon abgesehen, wenn Du Dir das Bild anschaust, bei dem m@sche einen WB auf beiden Bildern benutzt hat, siehst Du immer noch Unterschiede. Das Problem dabei ist, daß es einen Farbstich in den Tiefen gibt, der quasi in die helleren Bereiche "ausblasst". Man braucht also einen maskierten WB, abhängig von den Farbwerten. Der Farbstich kommt übrigens vom hochskalierten Rauschen (Rauschen äußert sich in verschiedenen Artefakten, nicht nur den "Krümeln").

Möchtest du das „hochskalierte Rauschen“ etwas genauer erläutern?

Die Lichtmenge war bei beiden Aufnahmen gleich – gleiches Licht(*), gleiche Blende und gleiche Belichtungszeit, nur die ISO war unterschiedlich eingestellt, 400 vs 6400. Folglich sind die Spannungen die die Sensel liefern auch gleich. Woher dann eine Farbverschiebung bei der nachfolgenden Signalverstärkung (ISO) – analog oder digital – herkommen soll, erschließt sich mir noch nicht. Die Relationen der Farbwerte zueinander bleiben doch gleich. Erst ein nachfolgender Weißabgleich bei JPG kann eine Farbverschiebung bringen. Wenn aber der Weißabgleich bei beiden Bilder auf einen festen Wert - z.B. Tageslicht - eingestellt ist, sollte bei beiden RAW-Aufnahmen nach Anpassen der „Belichtung“ um +4 EV das gleiche Ergebnis herauskommen.

(*) Allerdings ist das Testszenario auch ungünstig, die LED-Lampe pulsiert vermutlich mit 100Hz,
die Perspektive und der Fokus sind auch nicht identisch.

...
Nein. Ich hatte sehr explizit von Bittiefen geschrieben, und da gibt es Gründe dafür. Um es mal sehr einfach darzustellen: Wenn Du die Farbwerte z.B. mit 4 multipliziert, ist das (sehr grob vereinfacht) ungefähr so, als ob Du 2 Blenden aufhellst. Mit 4 multiplizieren heißt aber, daß es keine Zwischenwerte mehr gibt, d.h. vereinfacht gibt es nur noch 0, 4, 8, 12 usw. Eine Kamera mit 2 Blenden höherem ISO liefert Dir aber genau diese Zwischenwerte, d.h. da gibt es auch 5, 7, 10 usw. Bei 4 Blenden reden wir von 0, 16, 32, ... Wie lange kann man dieses Spiel treiben, bevor es sichtbar wird? Ich hatte Posterization erwähnt, oder?

Quantisieren durch den AD-Wandler bedeutet, dass Zwischenwerte immer fehlen, es gibt nur diskrete ganzzahlige Werte – das führt zu Quantisierungsfehlern(Quantisierungsrauschen).
Beim Multiplizieren werden die Relationen trotzdem immer beibehalten, der Abstand der diskreten Werte wird um den Multiplikator größer.

Die Frage ist, ob die dabei entstehenden Lücken im Histogramm nur mit RawDigger gemessen werden können, oder ob diese Lücken auch im Endprodukt sichtbar werden.

Bei Sony ist zu den Kamerasensoren zum Parameter „Gain“ (analoge Signalverstärkung vor dem AD-Wandler) in den Datenblättern folgendes zu finden:
Der Gain liegt zwischen 24 und 36 dB, je nach Sensor, das sind dann 4 bis 6 EV-Stufen (eine EV-Stufe entspricht 6 dB).
D.h. die höheren ISO-Werte müssen digital erzeugt werden, was dann zu den Lücken im RawDigger-Histogramm führt. Das ist m.E. aber nicht wirklich praxisrelevant.
 
Ähm...jeder Konverter entrauscht ootb...egal welche ISO! ;)

Ich sehe in den beiden Bildern aber nichts was rauschen würde.

Das Bild ...dpm_cr.jpg ist schärfer als das ...hq_cr.jpg
Das wars.

Hier geht es doch ums Rauschen, oder nicht?
Wenn du bei der R6 mit iso100 die Tiefen um 2 Blenden aufhellst rauscht immer noch nichts.

Aber wenn du objektiv schlechtere Verfahren bevorzugst....bitte sehr.

Wie Anfangs schon geschrieben entrausche ich überhaupt nicht. Außer Farbrauschen wenn es sowas gibt.
 
Die Lichtmenge war bei beiden Aufnahmen gleich – gleiches Licht(*), gleiche Blende und gleiche Belichtungszeit, nur die ISO war unterschiedlich eingestellt, 400 vs 6400. Folglich sind die Spannungen die die Sensel liefern auch gleich. Woher dann eine Farbverschiebung bei der nachfolgenden Signalverstärkung (ISO) – analog oder digital – herkommen soll, erschließt sich mir noch nicht. Die Relationen der Farbwerte zueinander bleiben doch gleich. Erst ein nachfolgender Weißabgleich bei JPG kann eine Farbverschiebung bringen. Wenn aber der Weißabgleich bei beiden Bilder auf einen festen Wert - z.B. Tageslicht - eingestellt ist, sollte bei beiden RAW-Aufnahmen nach Anpassen der „Belichtung“ um +4 EV das gleiche Ergebnis herauskommen.


Habe den Baum heute nochmal bei Tageslicht gesehen. Die Blätter sind wirklich rot wie im OOC JPG und nicht grün wie im RAW oder gelb-grün wie im RAW nach PureRAW 2. Auch bei der Katze auf der Bank ist mir schon aufgefallen, dass rot-orange im OOC JPG (so wie es in Echt ist) in den RAWs sehr nach (gelb-)grün abdriftet und PureRAW 2 das noch verstärkt.
 
Habe den Baum heute nochmal bei Tageslicht gesehen. Die Blätter sind wirklich rot wie im OOC JPG und nicht grün wie im RAW oder gelb-grün wie im RAW nach PureRAW 2. Auch bei der Katze auf der Bank ist mir schon aufgefallen, dass rot-orange im OOC JPG (so wie es in Echt ist) in den RAWs sehr nach (gelb-)grün abdriftet und PureRAW 2 das noch verstärkt.
Wenn das Auge(oder die Kamera) einen Gegenstand betrachtet, dann sieht das Auge(oder die Kamera) das vom Gegenstand reflektierte Licht, das wiederum von Farbspektrum der Beleuchtung (direkt und indirekt beleuchtet) abhängt.
Wenn die Beleuchtung aber kein Tageslicht(-Spektrum) ist, dann bekommt der Gegenstand einen Farbstich, also eine Abweichung vom Tageslicht zum vorhandenen (Kunst-)Licht.

Ein krasses Beispiel ist die Beleuchtung mit Natriumdampflampen (Wellenlänge ca. 589nm), da sieht alles nur noch orange aus – da ist dann hinsichtlich von Farbe nichts mehr zu retten, außer einer schwarz-weiß-Ausarbeitung.

Wenn das Farbspektrum der Beleuchtung sehr ungleichmäßig ist, z.B. wie bei weißen LEDs, dann ist das durch einen Weißabgleich (in der Kamera oder der EBV) nicht vollständig korrigierbar, da würde nur eine Kalibrierung der Kombination Licht + Objektiv + Sensor helfen. Das so erstellte „Kameraprofil“ kann dann in der EBV zu Farbkorrektur verwendet werden.
 
Möchtest du das „hochskalierte Rauschen“ etwas genauer erläutern?
Ausleserauschen formt, grob gesehen, im Histogramm eine Glockenkurve um den Schwarzwert, und dann kommt das unvermeidliche Schrotrauschen noch hinzu, was ja bei niedrigeren Signalwerten relativ stärker ist als bei größeren.

Die Bayermatrix ist RGGB, d.h. Grün durch sein 2-maliges Auftreten rauscht also weniger als Rot und Blau. Rot und Blau ergibt Violett, wobei das natürlich vom Weißabgleich aber auch der Lichtsituation vor Ort abhängig ist. Wenn man jetzt stärker rauschende Bildanteile in den sichtbaren Bereich zieht, und die Glockenkurve durch einen höheren ISO eh schon ausgeprägter ist, was glaubst Du, was da als erstes zu sehen sein wird? Ein Farbstich im Schwarz durch Rot und Blau. In Deinem WB-korrigiertem Bild hast Du das Problem also nur von Blau nach Rot verschoben.

Über die Jahre habe ich die Erfahrung gemacht, daß man ca. 1 Blende "in die Schatten" als Puffer braucht, damit eine Kamera noch ordentliche Farben produziert. Danach, egal ob das jetzt durch Hochziehen im Nachgang oder "Überdrehen" des ISO-Reglers in der Kamera ist, darfst Du Dich mit einer häßlichen Farbkorrektur herumplagen.

Wer jetzt etwas mitgedacht hat, wird auch schnell klar, daß selbst nach einer erfolgreichen Korrektur des Farbstichs ein weiteres Problem ins Haus steht: Man hat dann einen "Schleier" oder "Nebel" über dem Bild, sowas wie "crushed blacks".

Quantisieren durch den AD-Wandler bedeutet, dass Zwischenwerte immer fehlen, es gibt nur diskrete ganzzahlige Werte – das führt zu Quantisierungsfehlern(Quantisierungsrauschen).
Beim Multiplizieren werden die Relationen trotzdem immer beibehalten, der Abstand der diskreten Werte wird um den Multiplikator größer.
Richtig. Und man versucht halt, den vollen Eingangsbereich eines A/D-Wandlers auszunutzen, weshalb vor einem A/D-Wandler ein Verstärker sitzt. Der entkoppelt auch das Eingangssignal vom A/D-Wandler, weil der A/D-Wandler eine Last darstellt, die das Signal potentiell verzerren kann. Man kommt also um einen Verstärker nicht drumherum, und da liegt es nahe, den gleich etwas flexibler zu gestalten.

Die Frage ist, ob die dabei entstehenden Lücken im Histogramm nur mit RawDigger gemessen werden können, oder ob diese Lücken auch im Endprodukt sichtbar werden.
Die Frage ist nicht einfach zu beantworten, weil es einiges an Komplexität beinhaltet. "Es kommt darauf an." Komplexere Bildinhalte mit viel Struktur können das Problem gerne mal "unsichtbar" machen, während z.B. Flächen mit sanften Verläufen derartige Probleme auf brutale Art sichtbar machen können.

Um mal das Beispiel von oben weiterzuführen: Diese "crushed blacks" kann man absenken, also in echtem Schwarz ersaufen lassen, aber sobald tonal feinere Strukturen in dem Bereich zu finden sind, läuft man sehr schnell in häßliche Probleme genau dieser Art. Minimale Änderungen an Einstellparametern führen da zu starken visuellen Änderungen, was ein starkes Indiz für Posterization bzw. stark verkleinerten Werteraum/Tonalitäten ist. Deshalb auch das "feinfühliger beim Bearbeiten" bei der Antwort zu Floyd Pepper. Klar, sowas kann auch am verwendetem Algorithmus liegen, samt der Art, wie die Parameter dafür funktionieren; aber es fällt halt schon auf, wenn sich Bildanteile nicht wie sonst üblich verhalten.

In einer 1:1-Ansicht kann man sowas auch sehen lernen. Ich habe viele Jahre "Seherfahrung", was Dithering anbelangt, und da fallen solche Dinge eben schneller auf, wenn man sich Fotos mal genauer anschaut. Wie gesagt, bei komplexeren Strukturen kann sowas durch Kleinskalierung (partiell) vertuscht werden, bei eher flächigen Angelegenheiten sieht man sowas eher, vor allem dann, wenn man Vergleichsbilder hat.

Letztendlich spielen da immer die eigenen Qualitätsansprüche bzw. die der Kunden eine Rolle, und das ist extrem breit gefächert, zumal die Tendenz eher zu mehr Auflösung als "Tiefe" (tonale Auflösung) geht und vielen visuelle Artefakte aufgrund fehlender "Tiefe" eher egal sind, solange sie sich in einem bestimmten Rahmen bewegen. Von daher eben die initiale Antwort: Es kommt darauf an.
 
Deswegen jage ich mittlerweile ausnahmslos jedes Bild durch DeepPrime...mit angepasster Stärke allerdings.
Was traditionelle Konverter diesbezüglich abliefern ist im Vergleich schlicht und ergreifend in jeder Beziehung schlechter.
DeepPrime ist halt Mustererkennung und -ersetzung. Das fährt also einen ganz anderen Ansatz. Und DxO hat noch einiges mehr an Gehirnschmalz da reingesteckt. Trotzdem sollte man halt vorsichtig sein, weil unser Sehsystem unheimlich leistungsfähig ist. Es gab mal auf DPReview ein Review zu DxO PureRAW. Ein Bespiel davon: Adobe Camera RAW (ACR), und ACR + PureRAW. Vergleiche die mal visuell auf Gesamtansicht, und da wird natürlich das Rauschen bei nur ACR zu sehen sein, aber man sieht halt auch einiges mehr an visuellen Details, die im PureRAW quasi "weggeworfen" wurden. Umgekehrt sind nach der DxO-Behandlung die Farben ausgeprägter. Wie Du schon angedeutet hast, gibt es irgendwo eine Art Optimum, was halt subjektiv ist, aber -- meiner Meinung nach -- von vielen eher zuviel Richtung Entrauschung getrieben wird.
 
Kannst du bitte die Bilder, einmal in Vollansicht und einmal jeweils einmal als 100%-Ausschnitt hier im Forum hochladen?, auf Google kann ich die Bilder nicht zuordnen, außerdem ist ein Google-Account erforderlich um die Bilder herunterzuladen.
Wenn ich mir den Schriftzug "ÖLLER" mit dem Logo dahinter, von den Bildern ansehe, spricht das nicht gerade für DXO DeepPrime.


Hier noch ein Testvorschlag, der sich jetzt eigentlich schon fast erübrigt hat:

Zwei Aufnahmen machen, mit dem gleichen Sujet, bei gleicher Beleuchtung und gleicher Perspektive(Stativ verwenden) und gleicher Blende(wg. Schärfentiefe).
Beide Aufnahmen quasi korrekt (noch besser nach ETTR) belichten.
Die erste Aufnahme bei Basis-ISO und langer Belichtungszeit,
die zweite Aufnahme mit (sehr)hoher ISO und entsprechend kurzer Belichtungszeit.
Die zweite Aufnahme soll sichtbares Rauschen zeigen.

Beide Aufnahmen mit DXO DeepPrime entrauschen.
Bei der ersten Aufnahme solle die Entrauschung nur wenig Einfluss auf die Details haben, bei der zweiten Aufnahme sollte KI ihre Kreativität entfalten.

Beide entrauschten Aufnahmen in der 400%-Ansicht am Monitor vergleichen. Jetzt sollte zu erkennen sein, ob diese Art der Entrauschung den eigenen Ansprüchen genügt.
 
Danke für Klärung des „hochskaliertem Rauschen“.

Ausleserauschen formt, grob gesehen, im Histogramm eine Glockenkurve um den Schwarzwert, und dann kommt das unvermeidliche Schrotrauschen noch hinzu, was ja bei niedrigeren Signalwerten relativ stärker ist als bei größeren.

Die Bayermatrix ist RGGB, d.h. Grün durch sein 2-maliges Auftreten rauscht also weniger als Rot und Blau. Rot und Blau ergibt Violett, wobei das natürlich vom Weißabgleich aber auch der Lichtsituation vor Ort abhängig ist. Wenn man jetzt stärker rauschende Bildanteile in den sichtbaren Bereich zieht, und die Glockenkurve durch einen höheren ISO eh schon ausgeprägter ist, was glaubst Du, was da als erstes zu sehen sein wird? Ein Farbstich im Schwarz durch Rot und Blau. In Deinem WB-korrigiertem Bild hast Du das Problem also nur von Blau nach Rot verschoben.
...
Das funktioniert sogar mit Darkframes, es braucht dazu gar keine Photonen, es genügt das
Dunkelstromrauschen (freisetzen von Elektronen durch Wärme).

...
Wer jetzt etwas mitgedacht hat, wird auch schnell klar, daß selbst nach einer erfolgreichen Korrektur des Farbstichs ein weiteres Problem ins Haus steht: Man hat dann einen "Schleier" oder "Nebel" über dem Bild, sowas wie "crushed blacks".
...
"crushed blacks" musste ich erst mal googeln, das scheint jetzt trendy zu sein. ;)

...
Richtig. Und man versucht halt, den vollen Eingangsbereich eines A/D-Wandlers auszunutzen, weshalb vor einem A/D-Wandler ein Verstärker sitzt. Der entkoppelt auch das Eingangssignal vom A/D-Wandler, weil der A/D-Wandler eine Last darstellt, die das Signal potentiell verzerren kann. Man kommt also um einen Verstärker nicht drumherum, und da liegt es nahe, den gleich etwas flexibler zu gestalten.
...
Bei diskreten AD-Wandlern ist der PGA oft schon integriert.
 
WERBUNG
Zurück
Oben Unten