• In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2025.
    Thema: "Plastik (Kunststoff)"

    Nur noch bis zum 30.04.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Bayer - Lichtenergieausnutzung

Dukesim

Themenersteller
Hallo!

Ich habe eine Frage bezüglich der altbewährten und aktuellen Sensortechnik.
Was mir bekannt ist(bitte um Berichtigung, falls das doch falsch ist):
-Pixel einer Digicam mit Bayer-Sensor sind zu 50% grün, 25% rot, 25% blau und werden dann beim endgültigen Bild zu Pixeln mit allen drei Farben interpoliert.
-Die Empfindlichkeit der einzelnen Pixel für bestimmte Farben wird durch einen vorgesetzten Filter realisiert, die jeweils nur die eine Farbe durchlassen, welche der Pixel messen soll.

Nun ein Punkt, den ich für mich noch nicht endgültig klären konnte:

Heißt dieser Umstand der Filter, dass 50 bis 75% der Lichtenergie, die die Sensoroberfläche erreicht einfach dissipiert und nicht zur Gewinnung von Bildinformation verwendet wird?

Ich bin deswegen so stutzig, weil es doch sehr ineffizient und unvollkommen klingt.
 
Jein.

Theoretisch wird nur 50-75% der Bildinformationen verarbeitet. Aber durch die interpolation der nebeneinander liegenden Pixel wird dies wieder kompensiert. Da man einfach davon aus geht das 2 nebeneinander liegende Pixel keine großen Farb bzw. Helligkeits unterschiede Aufweisen.
 
Ich bin deswegen so stutzig, weil es doch sehr ineffizient und unvollkommen klingt.
So ist es! Dabei liefert der Photoeffekt im Prinzip Beides: Helligkeit und Farbe. Nur schafft es die Halbleitertechnik bis heute anscheinend nicht effizient, beide Größen für jedes Pixel auszuwerten. Ein Sensor, der Beides könnte, wäre unmittelbar der King im Ring!

Zu Bomber90: Deine Interpolation ändert nichts. Sie wird auch nicht für die Farbinterpolation verwendet, weil sonst alle Farben ergrauten... Sie dient der Aufwertung der Auflösung des Sensors.

Gruß, Wolfgang
 
Die Foveon-Sensoren können doch für jedes Pixel Helligkeit und Farbe bestimmen.

Im Videobereich gibts Kameras die über einen Strahlteiler das Bild in die drei Farben aufteilen und dann mit drei einzelnen Sensoren auswerten.

Ich weiß allerdings jetzt nicht wie gut die Effizienz bei beiden im Vergleich zu Sensoren mit Bayer-Pattern ist.
 
Man sieht sehr schön auch an der Leica Monochrom das fast die hälfte des Lichts am Bayer-Filter absorbiert wird.
Und ja das können die Foveon Sensoren allerdings wird da auch noch etwas nachgeholfen, denn das Licht geht ja fließend durch (Absorptionstiefe verschiendener Wellenlängen im Silizium), d.h. es bleiben auch immer noch andere Wellenlängen an Pixeln hängen die da eigetnlich unerwünscht sind.
 
Zuletzt bearbeitet:
Die Foveon-Sensoren können doch für jedes Pixel Helligkeit und Farbe bestimmen.
Jein, dort liegen die "Filter" quasi übereinander und der unterste Sub-Pixel bekommt ebenfalls viel weniger Licht.

Da ja beim Bayer-Sensor 4 Sub-Pixel zusammengerechnet werden, erhälts Du auch wieder die Gesamthelligkeit. Es wird kein Licht "verschwendet", da nicht mehr Lichtmenge jeder einzelnen Farbe im weißen Licht vorhanden ist.
 
Zuletzt bearbeitet:
Jein, dort liegen die "Filter" quasi übereinander und der unterste Sub-Pixel bekommt ebenfalls viel weniger Licht.

Da ja beim Bayer-Sensor 4 Sub-Pixel zusammengerechnet werden, erhälts Du auch wieder die Gesamthelligkeit. Es wird kein Licht "verschwendet", da nicht mehr Lichtmenge jeder einzelnen Farbe im weißen Licht vorhanden ist.

Das stimmt nicht wirklich was du da sagst. Erstens gibt es kein "weißes" Licht und 2. beruht der Foveon Sensor auf den von mir oben beschriebenm Prinzip.
 
Jein, dort liegen die "Filter" quasi übereinander und der unterste Sub-Pixel bekommt ebenfalls viel weniger Licht.

Da ja beim Bayer-Sensor 4 Sub-Pixel zusammengerechnet werden, erhälts Du auch wieder die Gesamthelligkeit. Es wird kein Licht "verschwendet", da nicht mehr Lichtmenge jeder einzelnen Farbe im weißen Licht vorhanden ist.

Das stimmt nicht. Beim Bayer-Sensor wird das einfallende Licht auf 4 Pixel verteilt, und davon wird ein Teil durch die Filterschicht ausgefiltert (was in diesem Fall heißt: diese Photonen erreichen den eigentlichen Sensor gar nicht).

Die "Filter" beim Foveon arbeiten anders: dort besteht das Filtern darin, dass je nach Wellenlänge in unterschiedlichen Tiefen Photoelektronen erzeugt werden, die dann am Ende alle gemessen werden. Wenn du also die Ergebnisse aller Schichten zusammenrechnest, kommt du auf ein höheres Ergebnis als beim Bayer-Sensor, wo Photonen "ungenutzt" im Farbfilter hängen bleibem.

Es ist allerdings richtig, dass nicht alle "roten" Photonen die unterste Schicht erreichen. Dadurch dürfte das Farbrauschen des Foveons auch nicht besser sein als das eines Bayer-Sensors, das Luminanzrauschen allerdings schon.

L.G.

Burkhard.
 
Im Videobereich gibts Kameras die über einen Strahlteiler das Bild in die drei Farben aufteilen und dann mit drei einzelnen Sensoren auswerten.

Ich weiß allerdings jetzt nicht wie gut die Effizienz bei beiden im Vergleich zu Sensoren mit Bayer-Pattern ist.

Wenn man keinen einfachen Strahlteiler, sondern ein Dichroitisches Prisma nimmt, dann ist die Effizienz natürlch höher als beim Bayer-Sensor und vergleichbar mit dem Foveon, weil dann kein Farbfilter Licht schluckt. Wenn (wie im Wikipedia-Artikel erwähnt) weitere Farbfilter verwendet werden, um die Farbqualität zu verbessern, dann relativiert sich der Vorteil entsprechend.

L.G.

Burkhard.
 
Danke für die konstruktiven Antworten.

Auf Foveon und 3-CCD(mit "Dichroitischem Prisma") bin ich bei meiner Recherche auch gekommen.

So wie ich es verstehe ist Foveon eine Bauweise die theoretisch weniger bis garkeine Energie verliert, da Energie nicht teilweise abgeschirmt, sondern in drei Stufen, nur zumessende Lichtanteile abgezweigt werden.

In der Praxis sieht man bei high-ISO aber eher einen großen Nachteil zu aktuellen Bayer-Sensoren(massives Rauschen bei SIGMA Sensoren).
Woran liegt es, das?
-Weil doch zu viel Licht in den oberen Schichten hängen bleibt und die unteren Schichten stärker verstärken müssen.
-Weil die Elektronik noch nicht so weit ist(Bei Bayer gab es ja auch eine große Entwicklung)?
-Weil durch den schichtweisen Aufbau die Wärmeentwicklung größer bzw. die Wärmeabfuhr kleiner und dadurch die Temperatur in den mittleren schichten größer wird(Wärmerauschen)?

3-CCD ist sehr interessant aber von der Baugröße für Fotoapparate eher weniger geeignet. Daten zur Energieeffizienz wären aber trotzdem interessant.

Welche Ideen gibt es/gab es/habt Ihr persönlich noch um diesen Umstand der unnötigen Dissipation zu vermeiden? Eventuell bei irgendwelchen Sonderanwendungen?

Worum es letztendlich geht ist, dass man theoretisch etwas mehr als eine Blende kleiner bei gleichbleibendem Rauschen erreichen könnte, da man die ganze Lichtenergie verwendet, die am Sensor ankommen.
Ob das praktisch irgendwie sinnvoll oder wünschenswert ist soll hier ausdrücklich nicht das Thema sein.
 
Welche Ideen gibt es/gab es/habt Ihr persönlich noch um diesen Umstand der unnötigen Dissipation zu vermeiden? Eventuell bei irgendwelchen Sonderanwendungen?

Man kann alternative Farbpattern benutzen, zB statt 2x grün nur 1x grün und das andere Pixel weiß machen. Damit gewinnt man zwar Signal, aber wenn man davon ausgeht, dass so ein Filter die Hälfte des Lichts filtert und man das nur bei einem von 4 Pixeln macht, dann bekommt man gerade mal 1/8 mehr Signal. Andere Pattern mit mehr weiß führen dann zu schlechterer Farbauflösung.

http://en.wikipedia.org/wiki/Bayer_filter#.22Panchromatic.22_cells
 
Heißt dieser Umstand der Filter, dass 50 bis 75% der Lichtenergie, die die Sensoroberfläche erreicht einfach dissipiert und nicht zur Gewinnung von Bildinformation verwendet wird?
Im Prinzip ja, das wurde ja schon geklaert. Aber deine quantitative Abschaetzung ist fragwuerdig. Zur genauen Quantifizierung muesste man die spektrale Wellenlaengenverteilung des Lichts mit der spektralen Absorptionsfunktion falten. Nach Wichtung nach spektraler Energieeffizienz der Photodioden und Integration ueber das komplette Spektrum koennte man dann den wirklichen Verlust berechnen. Die Farbfilter sind relativ breitbandig, daher nehme ich an, dass der wirkliche Effizienzverlust relativ gering ist, im Bereich von 40-50%.

Man kann alternative Farbpattern benutzen, zB statt 2x grün nur 1x grün und das andere Pixel weiß machen.
Da wuerdest du nicht so viel gewinnen. Du nimmst ja einen der Farbpixel mit dem schwaechsten Farbfilter (der gruene laesst noch sehr viel von roten und blauen Informationen durch) heraus.
Gleichzeitig duerfte der Luminanzkanal dann sehr schnell clippen, was entweder geringere Dynamik oder starkes Farbrauschen in den Tiefen erzeugen muesste.
 
Wie ich schon schrieb, liefert der Photoeffekt zwei Größen während der Belichtung, von denen nur eine genutzt wird:

- genutzt wird die Anzahl freierer Ladungsträger, die durch den Photoeffekt aus dem Halbleiter befreit werden. Dies ergibt später eine Helligkeit.
- die freien Ladungsträger bekommen aber auch eine kinetische Energie, die abhängig von der Frequenz und damit der Farbe der einfallenden Photonen sind. Gelänge es, diese zusätzlich und unabhängig von der Anzahl zu messen, wäre das Problem gelöst.

Da ich kein Halbleitermensch bin, weiß ich nicht, warum das nicht geht...
Gruß, Wolfgang
 
Im Prinzip ja, das wurde ja schon geklaert. Aber deine quantitative Abschaetzung ist fragwuerdig. Zur genauen Quantifizierung muesste man die spektrale Wellenlaengenverteilung des Lichts mit der spektralen Absorptionsfunktion falten. Nach Wichtung nach spektraler Energieeffizienz der Photodioden und Integration ueber das komplette Spektrum koennte man dann den wirklichen Verlust berechnen. Die Farbfilter sind relativ breitbandig, daher nehme ich an, dass der wirkliche Effizienzverlust relativ gering ist, im Bereich von 40-50%.

(...)

Stimmt, das ist ein wichtiger Punkt, den man genauer klären sollte: Wie viel Energie geht tatsächlich bei den verwendeten Filtern verloren.

Hier stehen wohl zwei "Theorien" gegenüber:
-Eine genaue Trennung der Wellenlängen zu bestimmten, genau abgegrenzten Bereichen
-Eine der natürlichen Empfindlichkeit der Zapfen im Auge nachempfundene Kennlinie der Filter-Sensor-Kombinationen mit fließenden Übergängen und Überlappungen
 
Hier stehen wohl zwei "Theorien" gegenüber:
-Eine genaue Trennung der Wellenlängen zu bestimmten, genau abgegrenzten Bereichen
-Eine der natürlichen Empfindlichkeit der Zapfen im Auge nachempfundene Kennlinie der Filter-Sensor-Kombinationen mit fließenden Übergängen und Überlappungen
Die erste "Theorie" ist völliger Unsinn. Stell dir mal vor, du fotografierst mit so steilflankigen Filtern einen Regenbogen (d. h. ein Spektrum mit monochromatischem Licht). Dann würde im roten Bereich des Regenbogens nur der Rotsensor ansprechen, im mittleren Bereich nur der Grünsensor und irgendwann nur der Blausensor. Wie soll man aus dieser Information die Zwischenfarben (z. B. Gelb, Cyan) rekonstruieren? Das geht nur, wenn bei Gelb sowohl der Rot- als auch der Grünsensor ansprechen. Aus dem Verhältnis der beiden Messungen kann man dann ableiten, ob die ursprüngliche Farbe Rot, Orange, Gelb, Hellgrün, … war.

Die besten Ergebnisse erhält man, wenn die Filter der Spektralempfindlichkeit der Zapfenzellen im Auge nachempfunden werden (Stichwort: Metamerie).

L.G.

Burkhard.
 
Da ich kein Halbleitermensch bin, weiß ich nicht, warum das nicht geht...
Weil du dann unterschiedlich große Bandlücken bräuchtest. Von Fertigungsproblemen und Elektromigration mal abgesehen, würdest du dann mit dem gleichen Problem kämpfen wie der Foveon X3: der sauberen Trennung der Signale, insbesondere unter Überlaufen der kleinsten Bandlücke. Nur dass wir es hier eben mit Potential- statt räumlichen Ebenen zu tun hätten.
 
Weil du dann unterschiedlich große Bandlücken bräuchtest.
Ich muss kein Halbleitermensch sein, um ein Gedankenexperiment durchzuführen. Die Auswertung der Signale muss sich dann nicht mehr auf 3 Grundfarben als "Kanäle" beschränken, sondern wir führen eine A/D Wandlung ähnlich dem Elektronenzählen für die Helligkeit ein:

Bestimme außer der Anwesenheit des Elektrons für die Helligkeitsbestimmung auch seine kinetische Energie (in eV, Elektronenvolt). Addiere diese und dividiere durch die Anzahl der Elektronen. Somit erhält man eine mittlere Energie, die wie die Anzahl der Elekronen digitalisiert abgespeichert wird - nicht nur in 3 Stufen (RGB) sondern mit 8 oder mehr Bit...

Somit verdoppelt sich die Größe des RAW: 14Bit für die Helligkeit und 14Bit für die Farbe. Beides für jedes Pixel.

Meinjanur so als Gedankenspielerei.
Gruß, Wolfgang
 
Das klappt so nicht: Du kannst in den Dimensionen einer Kamera nicht die "Anzahl der Elektronen" messen, da das Einzelereignis unter die Messschwelle fällt. Im Endeffekt hast du nur die eingetroffene Gesamtenergie.
 
WERBUNG
Zurück
Oben Unten