• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Panasonic - Patent 3-Schichten-Sensor?

Hmm, aber schneller als 30-40 Sekunden darf es schon abgehen.:devilish:

30-40 Sekunden sind zu lang. Wenn wir mal eine der üblichen DSLRs nehmen mit ca. 3 Bildern/s,
das würde dann für einen 4er Multishot ca. 1.2 Sekunden dauern, sofern Spiegelschlag notwendig.
Ohne Spiegelschlag könnte das noch schneller gehen. Das einzige was die Kamera für dieses
Feature verteuern wird, ist die x-y-Verstellung des Sensors z.B. mit Piezoaktuatoren. Kameras mit
eigebauter Stabilisierung am Sensor könnten für das Multishotfeature sogar diese Funktion missbrauchen.
 
Dann sehe ich ein Spektrum.
 
Öhm.. ein Spektrum ist ein Frequenzbereich, additive & subtraktive Farben gibt es nur in der Abstraktion der Farblehre (real gibt es nur die Farbmischung) und Kamera und Monitor machen sich genauso wie das Auge die additive Farbmischung zunutze.

Ich komme mal zum Punkt: Das menschliche Auge nimmt das Farbspektrum mit 3 Zapfentypen wahr, welche bestimmte Empfindlichkeitskurven über einen bestimmten Wellenlängenbereich aufweisen. Ein Kamerasensor kann Farben besonders "naturgetreu" aufnehmen, wenn seine Einzelsensoren ähnliche Kurven aufweisen - oder eben durch die Überlagerung von mehr Einzelsensoren (wie z.B. zusätzliches "emerald green") möglichst genau nachbilden. Ob das aber 4, 5, 6, 7 oder sonst wie viele sind, ist dabei völlig beliebig und ausschließlich von den einzelnen Empfindlichkeitskurven abhängig. Die 7 Regenbogenfarben, welche wir sehen, sind nämlich auch nur Frequenzbereiche die noch dazu kulturell bestimmt sind.

Eine Stufe zurück: Da für einen "realistischen" Farbeindruck auch die Wiedergabe so beschaffen sein muss, dass sie dem ursprünglichen Emissionsspektrum entspricht (was mit Medien subtraktiver Farbmischung wie Papier besonders problematisch ist) ist es mit mehr Sensoren in der Kamera nicht getan.

Noch eine Stufe zurück: da ein Foto einen 4-dimensionalen Raum in bloßen 2 Dimensionen mit auch noch begrenztem Dynamikumfang aufzeichnet, ist jenseits spezieller dokumentatorischer Fotos die Idee der möglichst "realistischen" Wiedergabe evtl. ohnehin zu verwerfen.

Kommen wir aber zur Anzahl der Farbsensoren zurück: Zumindest der 3-Schichten-Sensor von Foveon zeichnet sich durch Empfindlichkeitskurven aus, die relativ nah an denen des menschlichen Auges liegen. Obwohl es also "nur" 3 Schichten sind, trägt das sehr zum "realistischen Look" von mit dem Foveon-Chip gemachten Fotos bei (von den ganzen technischen Problemen mal abgesehen). Wenn Panasonic (und all die anderen Hersteller) ähnliche Empfindlichkeitskurven in ihren 3-Schichten-Sensoren haben, reichen diese 3 "Farben" also tatsächlich (fast) aus.
 
Öhm.. ein Spektrum ist ein Frequenzbereich, additive & subtraktive Farben gibt es nur in der Abstraktion der Farblehre (real gibt es nur die Farbmischung) und Kamera und Monitor machen sich genauso wie das Auge die additive Farbmischung zunutze.

Ich komme mal zum Punkt: Das menschliche Auge nimmt das Farbspektrum mit 3 Zapfentypen wahr, welche bestimmte Empfindlichkeitskurven über einen bestimmten Wellenlängenbereich aufweisen. Ein Kamerasensor kann Farben besonders "naturgetreu" aufnehmen, wenn seine Einzelsensoren ähnliche Kurven aufweisen - oder eben durch die Überlagerung von mehr Einzelsensoren (wie z.B. zusätzliches "emerald green") möglichst genau nachbilden. Ob das aber 4, 5, 6, 7 oder sonst wie viele sind, ist dabei völlig beliebig und ausschließlich von den einzelnen Empfindlichkeitskurven abhängig. Die 7 Regenbogenfarben, welche wir sehen, sind nämlich auch nur Frequenzbereiche die noch dazu kulturell bestimmt sind.

Eine Stufe zurück: Da für einen "realistischen" Farbeindruck auch die Wiedergabe so beschaffen sein muss, dass sie dem ursprünglichen Emissionsspektrum entspricht (was mit Medien subtraktiver Farbmischung wie Papier besonders problematisch ist) ist es mit mehr Sensoren in der Kamera nicht getan.

Noch eine Stufe zurück: da ein Foto einen 4-dimensionalen Raum in bloßen 2 Dimensionen mit auch noch begrenztem Dynamikumfang aufzeichnet, ist jenseits spezieller dokumentatorischer Fotos die Idee der möglichst "realistischen" Wiedergabe evtl. ohnehin zu verwerfen.

Kommen wir aber zur Anzahl der Farbsensoren zurück: Zumindest der 3-Schichten-Sensor von Foveon zeichnet sich durch Empfindlichkeitskurven aus, die relativ nah an denen des menschlichen Auges liegen. Obwohl es also "nur" 3 Schichten sind, trägt das sehr zum "realistischen Look" von mit dem Foveon-Chip gemachten Fotos bei (von den ganzen technischen Problemen mal abgesehen). Wenn Panasonic (und all die anderen Hersteller) ähnliche Empfindlichkeitskurven in ihren 3-Schichten-Sensoren haben, reichen diese 3 "Farben" also tatsächlich (fast) aus.


Deine Ausführung ist soweit völlig korrekt und in Ordnung und für die drei Grundfarben R, G und B in den meisten Fällen
völlig ausreichend.

Aber: Gelb hat z.B. eine eigencharakteristische Wellenlänge und wird z.B. in den Sensoren oder bei der Wiedergabe auf
Monitoren mit den Grundfarben Rot und Grün zusammengemischt. Das ist insoweit völlig ok - aber wehe, wenn im
aufzunehmenden Bild die diskreten Farben bzw Wellenlängen für Rot, Grün und Gelb sich auf einmal überlagern. Diese
genaue Trennung und Reproduktion ist dann mit den üblichen Mitteln nicht mehr möglich, ebenso leidet der wiedergegebene
Farbeindruck !

Sharp hat z.B. bei einen seiner neuesten LCD-TVs neben den Pixeln R,G, und B auch die Grundfarbe Gelb als viertes Sub-Pixel
hinzugefügt und verbessert besonders in diesem Bereich die Wiedergabe. Aber leider fehlt noch die entsprechende
Modifikation auf der Aufnahmeseite ...

Bei Erderkundungssatelliten z.B. ist es seit Jahren üblich, nicht nur R, G und B aufzuzeichnen - hier werden Multipektral-
aufnahmen erstellt, die sogar Orange, Gelb, Cyan, Magenta, und einige verschiedene wichtige Grün- und Blau-Wellenlängen
differenzieren.

Obwohl das Auge nur mit drei verschiedenen Zapfentypen ausgestattet ist, werden Wellenlängen deutlich differenzierter
wahrgenommen als dies bei den handelsüblichen Aufnahme - und Niedergabegeräten der Fall ist. Rot, Grün und Blau alleine
reichen für einen HiFi-Farbeindruck längst nicht aus. 6 differenzierte Wellenlängen wären notwendig.

Im Moment ist es wohl noch zu teuer, die aktuelle Kameratechnik aus den Satelliten in unsere DSLRs zu holen. In 10-20 Jahren
sollte es langsam so weit sein. Dann müssen auch die Displays entsprechend angepasst werden.
 
Zuletzt bearbeitet:
Gelb ist tatsächlich insofern ein Problem, als dass das menschliche Auge durch die recht dicht beeinanderliegenden Kurven für Rot und Grün dort am feinsten differenzieren kann. Da die heute marktüblichen Aufnahme- und Wiedergabegeräte leider Absorptions-/Emissionskurven haben, die vom menschlichen Auge ungefähr so weit weg sind wie Senfgurkentorte von Eierkuchensalat, bringt ein zusätzliches Gelb da natürlich einiges. Sollten sich die Kurven den Zapfenempfindlichkeiten annähern (wie z.B. beim Foveon X3), wäre das nicht mehr nötig.

Inwiefern Erderkundungssatelliten im sichtbaren Wellenlängenbereich separieren, ist mir nicht bekannt. Fakt ist aber natürlich, dass auch außerhalb des sichtbaren Bereichs (z.B. in IR) mit erfasst und in Falschfarben dargestellt wird und so z.B. Vegetation sehr einfach erkannt werden kann.

Inwiefern für einen "Hifi"-Farbeindruck nun 6 Farben vonnöten sind, kann ich trotzdem nicht nachvollziehen. Einerseits, weil "Farben" in der technischen Praxis meist auch bereits ein bestimmtes Spektrum umfassen und nicht für eine bestimmte Wellenlänge stehen und weil zweitens die menschliche Farbwahrnehmung mathematisch gesprochen eine deduktive Abbildung eines n-dimensionalen Spektralraumes auf einen 3 (4)-dimensionalen Wahrnehmungsraum (L/M/S-Zapfen, Stäbchen) ist. Verwendet man die gleiche Abbildung (Absorptions-/Emissionskurve), kommt man mit eben jenen 3 (4) Koeffizienten dieses Wahrnehmungsraumes aus, ohne dass das Auge einen Unterschied sieht. 5, 6 oder gar 7 verschiedene Farbsensoren sind dann gar nicht nötig (und auch sowohl im Bayer-Raster als auch im Mehrschichtensensor wohl technisch eher problematisch).

Interessant fände ich dagegen, wenn es im Bayer Pattern neben RGB kein 2. G, sondern stattdessen einen Luminanzsensor mit erhöhter Sensitivität im UV-nahen Blaubereich (analog den Stäbchen im Auge) geben würde. Geeignete Wiedergabegeräte vorausgesetzt, könnte ein Monitor damit glaubwürdig "Zwielicht" simulieren. Ich glaube, Forschungen in die Richtung gibt es bereits.
 
Zuletzt bearbeitet:
Interessant fände ich dagegen, wenn es im Bayer Pattern neben RGB kein 2. G, sondern stattdessen einen Luminanzsensor mit erhöhter Sensitivität im UV-nahen Blaubereich (analog den Stäbchen im Auge) geben würde. Geeignete Wiedergabegeräte vorausgesetzt, könnte ein Monitor damit glaubwürdig "Zwielicht" simulieren. Ich glaube, Forschungen in die Richtung gibt es bereits.

Sehr interessanter Ansatzpunkt ! Aber bedenke bitte, dass das spektrale Empfindlichkeitsmaximum der
Stäbchen von der Beleuchtungsstärke abhängt, bzw, unterscheidet sich von Tag zu Nacht. Das macht die
Sache etwas komplizierter.
 
Aber bedenke bitte, dass das spektrale Empfindlichkeitsmaximum der Stäbchen von der Beleuchtungsstärke abhängt, bzw, unterscheidet sich von Tag zu Nacht. Das macht die Sache etwas komplizierter.
Nach meinem Wissensstand ist die Empfindlichkeitskurve der Stäbchen fest; die Verschiebung des Helligkeitsempfindens zwischen Tag und Nacht (Purkinje-Effekt) entsteht dadurch, dass sich je nach Lichteinfall die Gewichtung zwischen Zapfen (photopisches Sehen) und Stäbchen (Skotopisches Sehen) verschiebt.
 
Servus Leute!

Hier hab ich mal etwas Senf dazu: :)
Nach meinem Wissensstand ist die Empfindlichkeitskurve der Stäbchen fest; die Verschiebung des Helligkeitsempfindens zwischen Tag und Nacht (Purkinje-Effekt) entsteht dadurch, dass sich je nach Lichteinfall die Gewichtung zwischen Zapfen (photopisches Sehen) und Stäbchen (Skotopisches Sehen) verschiebt.
Kurz und einfach ausgedrückt sind die Stäbchen als Mechanismen der Netzhaut für die SW-Wahrnehmung und die Zäpfchen für die Farbwahrnehmung verantwortlich. In den Zäpfchen befinden sich zusätzlich Pigmente (je ein R-, G- und B-Pigment) die je nach Helligkeit stärker oder schwächer Farbinformation wahrnehmen können. Dh. wenn es dunkler wird werden Farben automatisch abgeschwächt. Ein weiterer Effekt (beruhend auf der Verteilung der Stäbchen/Zäpfchen auf der Netzhaut) ist, dass wir nachts an der Stelle des zentralen Sehens (Fovea Centralis - daher auch der Name des Sensors, schätz ich mal) schwächer sehen als bspw. unmittelbar daneben. An der Fovea Centralis liegen ausschließlich Zäpfchen.

Aus diesem Grund würde ich als Kamerahersteller auf jeden Fall einen 3-Schichten-Sensor á la Foveon bevorzugen, da damit natürlichere Farbeindrücke und bessere Kontraste entstehen. Dass dadurch bei höheren ISO-Werten Rauschen entstehen kann ist dabei eigentlich kein Wunder und stört mich ehrlich gesagt eigentlich auch nicht weiter.

Interpolation á la Bayer stellt immer einen Verlust an Informationen dar.

Die Frage ist nur wieviel Farbinformation verloren geht und wieviel der Mensch überhaupt wahrnehmen kann. Dh. wieviel kann verloren gehen um den Eindruck nicht zu schmälern. Insgesamt erinnert das an die Digitalisierung von akkustischen Signalen. Darüber lässt sich vermutlich ewig diskutieren.

Ich halte die Entscheidung für den Sensor also im Grunde für eine Geschmackssache.

LG
-augedesbetrachters-
 
Ein weiterer Effekt (beruhend auf der Verteilung der Stäbchen/Zäpfchen auf der Netzhaut) ist, dass wir nachts an der Stelle des zentralen Sehens (Fovea Centralis - daher auch der Name des Sensors, schätz ich mal) schwächer sehen als bspw. unmittelbar daneben. An der Fovea Centralis liegen ausschließlich Zäpfchen.
Weswegen man nachts zum scharf sehen am zu betrachtenden Objekt "vorbeigucken" muss (natürlich bei gleicher Fokussierung), richtig. ;)

Ich halte die Entscheidung für den Sensor also im Grunde für eine Geschmackssache.
Das ohnehin. :)
 
Weswegen man nachts zum scharf sehen am zu betrachtenden Objekt "vorbeigucken" muss (natürlich bei gleicher Fokussierung), richtig. ;)
Exactamente! (y)

Bei Sigma heißt das zwar Her(r)kunft des Namen(s), aber Sigma/Foveon ist eben ...special...


http://www.sigma-sd.com/SD15/de/inside.html
Na wenn es der Herr Kunft so sagt. :cool: Na klasse, dann hab ich sogar richtig getippt. War aber auch nicht so schwer, möchte ich anmerken. :)

LG
-augedesbetrachters-
 
WERBUNG
Zurück
Oben Unten