• In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2025.
    Thema: "Plastik (Kunststoff)"

    Nur noch bis zum 30.04.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Sensor ohne Bayermatrix möglich?

knipser eins

Themenersteller
Ich kenn mich nicht sooo gut aus wenn es um die genau Funktion des Kamerasensors geht, aber wenn ich richtig informiert bin funktionieren die gängigen Sensoren alles sehr ähnlich.
Sprich sie bestehen aus einzelnen Pixel über denen die sogenannte Bayermatrix liegt. In der Regel werden jeweils vier Pixel zu einem Bildpunkt zusammengefasst und von je einer roten, einer blauen und zwei grünen Linsen(?) abgedeckt. Aufgrund dieser Viererpakete muss das aufgenommene Bild in seiner Auflösung hochgerechnet werden um am Ende die reale Auflösung des Sensors zu erhalten. Deshalb sind auch keine 100%ig harten Pixelkanten im finalen Bild möglich.
Ist das soweit halbwegs richtig?

Wenn das so sein sollte dann Frage ich mich warum gibt es keine reinen Schwarz/Weiß bzw. Hell/Dunkel Digitalkameras. Wäre das denn kein Vorteil für Leute die eh nur S/W fotografieren wollen. Wenn die Pixel ohne diese Bayermatrix verwendet werden würden, dann müsste man das Bild doch nicht mehr hochrechnen und könnte ohne Probleme die reale Sensorauflösung für das Bild benutzen.
 
Ist das soweit halbwegs richtig?

Nein. Es wird keine Auflösung interpoliert sondern nur die Farbinformation.

Wäre ja auch ziemlich dämlich die vorhandene Auflösung (denn die Helligkeitsinformation ist ja trotz Bayermatrix in der Nennauflösung vorhanden!) zu vierteln um sie anschließend wieder hochzurechnen. :ugly:

Es kommt dabei zwar zu einem Auflösungsverlust, weil jeder der vier Pixel in einem bestimmten Bereich des Spektrums blind ist, aber dieser Auflösungsverlust beträgt keine 75% wie es nach deiner Schilderung wäre, sondern "nur" ca. 20-30% je nach Motiv.

Eine reine S/W-DSLR ohne Primärfarbfilter gab es mal von Kodak in den 90er Jahren, hat sich aber wohl nicht sonderlich gut verkauft.
 
Hi!

Ist das soweit halbwegs richtig?
Halbwegs. :)

Der Sensor wird in seiner Gesamtheit als "Bayer-Sensor" bezeichnet. Er besteht aber aus zwei Teilen: einem Filter mit der von Dir angesprochenen Bayer-Matrix, und aus dem eigentlichen Sensor, also den lichtempfindlichen "Pixeln". Letztere sind erst einmal grundsätzlich farb-unempfindlich ('schwarz-weiß'), und darüber hinaus für ein relativ breites Spektrum (Wellenlängen) empfänglich, z.B. auch Infrarot-Licht.

Aufgrund dieser Viererpakete muss das aufgenommene Bild in seiner Auflösung hochgerechnet werden um am Ende die reale Auflösung des Sensors zu erhalten. Deshalb sind auch keine 100%ig harten Pixelkanten im finalen Bild möglich.
Die reale Auflösung reduziert sich aufgrund des Bayer-Filters, weil jedes Pixel nun nur noch einen Teil der Gesamtinformation beiträgt. Die einzelnen Pixel werden miteinander verrechnet (Interpolation), um so die vollständige Farbinformation eines 'virtuellen' Pixels zu erhalten. Daraus resultiert letztlich dann eine geringere effektive Auflösung des Gesamtsystems. Zugleich ist dies ein Problem, weil es bei scharfen Farbkanten und feinen Strukturen zu Fehlern führen kann (wie zum Beispiel "Moiré"). Deswegen liegt meist ein weiterer "Antialiasing"-Filter über dem Sensor, der wie ein leichter Weichzeichner wirkt.

Bei digitalen Bildsensoren sind "harte Kanten" auf Pixelebene zumeist auch gar nicht erwünscht - solche 'Pixel-Treppchen' wirken (zumindest in der 1:1-Ansicht) auf den Betrachter i.d.R. nämlich sehr störend.

Wenn das so sein sollte dann Frage ich mich warum gibt es keine reinen Schwarz/Weiß bzw. Hell/Dunkel Digitalkameras. Wäre das denn kein Vorteil für Leute die eh nur S/W fotografieren wollen. Wenn die Pixel ohne diese Bayermatrix verwendet werden würden, dann müsste man das Bild doch nicht mehr hochrechnen und könnte ohne Probleme die reale Sensorauflösung für das Bild benutzen.
Es gibt Ansätze in diese Richtung, z.B. den Foveon-Sensor. Ein breiterer (= wirtschaftlich lohnender) Markt für reine S/W-Digitalkameras dürfte aber wohl kaum existieren. Dennoch ist so etwas für Spezial-Anwendungen durchaus sinnvoll - z.B. im Bereich Astrofotografie.

Siehe auch: "Echte" digitale Schwarz-Weiß-Fotografie?

Gruß, Graukater
 
Hasselblad geht noch einen ganz anderen Ansatz. Die belichten offenbar mehrfach auf den selben Sensor. Ob dabei die Matrix verschoben wird oder jeweils ein anderer Filter davorgeschoben wird, verraten sie nicht.
 
Vielen Dank für die Antworten. Dann habe ich das wohl tatsächlich nur halbwegs verstanden. Aber nun bin ich schlauer :top:
 
Nein. Es wird keine Auflösung interpoliert sondern nur die Farbinformation.

..........

Wenn das so ist, wieso wird dann ein einzelnes Hotpixel als Stern abgebildet?

Das AA-Filter hat ja hier nix beigetragen, trotzdem werden auch die Nachbarpixel in der Helligkeit mit einbezogen.


Gruß messi
 
http://www.cambridgeincolour.com/tutorials/camera-sensors.htm

Auf der Seite wird erklärt wie die einzelnen Pixel "entstehen" das sollte auch erklären, warum ein Hotpixel als Kreuz erscheint.

Der Foveon hat afaik eine deutlich geringere Auflösung als ein CCD oder CMOS mit Bayermatrix und deswegen werden beim Foveon die Bilder interpoliert.

Ich mein dass ich vor kurzem auch von einer preparierten 30D ohne Bayermatrix gelesen habe. Das schwarz weiß Bild was da raus kommt war deutlich schärfer.
 
Der Foveon hat afaik eine deutlich geringere Auflösung als ein CCD oder CMOS mit Bayermatrix und deswegen werden beim Foveon die Bilder interpoliert.

Nö, bei Foveon wird nicht interpoliert, bei Bayer schon.

Ein Monitor mit der Auflösung 1920x1080 Pixel hat ca. 2 Megapixel (2073600). Jedes dieser Pixel besteht aus drei Subpixeln für rot, grün und blau. Der Monitor hat also insgesamt 6 Millionen Subpixel.
Ein Bayer-Sensor mit der Auflösung 1920x1080 wird zwar auch mit "2 Megapixel" tituliert, hat aber in Wirklichkeit nur 2 Millionen Subpixel, die dann auf 6 Millionen Subpixel (2 "echte" Megapixel) hochinterpoliert werden.
Ein Foveon-Sensor mit 1920x1080 hat von vorne herein "echte" 2 Megapixel, also zwei Millionen Pixel von denen jedes aus jeweils drei Subpixeln besteht. Da muss nichts mehr interpoliert werden. Allerdings wird das in der Werbung dann mit "6 Megapixel" tituliert, um besser mit Bayer-Sensoren konkurrieren zu können: ein "6 MP" (6 Mill. Subpixel) Bayer-Sensor und ein 2 MP (2 Mill. Vollpixel) Foveon-Sensor haben beide die gleiche Anzahl effektiver Subpixel, nämlich 6 Millionen. Das Bild des Bayer-Sensors sieht dabei auf Monitoren größer aus, weil es eben hochinterpoliert wird.
 
Zuletzt bearbeitet:
hm ok :)
was ich meinte ist, dass die Bilder die raus kommen hochgerechnet werden.

http://thepubliceyeblog.blogspot.com/2008/02/foveon-vs-bayer-ist-dreilagig-wirklich.html schrieb:
Die Auflösung des Foveon-Sensors wird üblicherweise “schöngerechnet”, indem die Pixelzahl des Sensors einfach mit 3 (Farblayern) multipliziert wird.
Tatsächlich (ich erspare mir die Rechenformel) dürfte die realistische Auflösung einer SD14/DP1 eher bei 8 bis 10MP, als den angegebenen 14MP liegen.

Beruht aber nur auf ein paar Zeilen die ich hier und da immer mal wieder gelesen habe, ob das stimmt weiß ich nicht.
 
Das ist aus 'Anwendersicht' aber auch ziemlich uninteressant. Mich kümmert es eher weniger, wieviele Pixel jetzt tatsächlich hinter den Filtern meines Sensors ihr Dasein fristen - ich möchte wissen, wieviele 'effektive' Bildpunkte mir die Kamera liefert, und ob sie dies in einer guten Qualität tut (Farbwiedergabe, Kontrastumfang, optisches Auflösungsvermögen). Es zählt, was 'hinten raus' kommt.

SD14 und DP1 liefern Bilder mit 2.652x1.768 bzw. 2.640x1.760 Pixeln, also jeweils rund 4,7 Megapixel. Davon, dass irgendwer den Sensor mit 14 MP angibt, hat man doch in der Praxis herzlich wenig...

Gruß, Graukater
 
Gute Astrokameras haben üblicherweise keinen Filter (der würde zuviel Licht schlucken), weil es da eben wirklich auf die max. mögliche Helligkeit ankommt.

Farbbilder werden dann üblicherweise aus ein paar Bildern zur Helligkeit in voller Auflösung, und einigen Farbbildern (Filtervorsätze) in halber oder viertel Auflösung erstellt, indem Pixel zusammengefasst werden (da sich die Farbe von Pixel zu Pixel nur langsam verändert; der Farb_ton_ ist wichtig, die Farb_helligkeit_ kann man über die s/w Helligkeitsbilder besser errechnen, so reduziert sich zB. das Farbrauschen deutlich).


Beim Rumknipsen mit der Kamera wär das aber ein bisschen viel Aufwand.
 
"Echte" 6 MPixel-Bilder erzeuge ich, indem ich 24 MPixel Bilder nachträglich auf halbe Größe skaliere.
 
Zuletzt bearbeitet:
Ein Monitor mit der Auflösung 1920x1080 Pixel hat ca. 2 Megapixel (2073600). Jedes dieser Pixel besteht aus drei Subpixeln für rot, grün und blau. Der Monitor hat also insgesamt 6 Millionen Subpixel.
Oder auch mehr, oder weniger, je nachdem welche Technik verwendet wird. Zwingend drei Farben müssen es nicht sein.

ein "6 MP" (6 Mill. Subpixel) Bayer-Sensor und ein 2 MP (2 Mill. Vollpixel) Foveon-Sensor haben beide die gleiche Anzahl effektiver Subpixel, nämlich 6 Millionen. Das Bild des Bayer-Sensors sieht dabei auf Monitoren größer aus, weil es eben hochinterpoliert wird.

Aufnahme und Wiedergabe sind zwei paar Schuhe, und ein Aufnahmesensor ist kein umgedrehtes Wiedergabepanel. Während man beim Foveon noch von Subpixeln reden kann, weil die drei Schichten tatsächlich wie solche funktionieren, ist dies bei einem Sensor mit Bayer-Matrix eben nicht möglich, weil die Informationen eines einzelnen Pixels zur Ergänzung der Informationen einer größeren Zahl anderer Pixel herangezogen wird. Hier einfach über die Grundannahme, ein Pixel entsteht aus drei Pixeln, eine vergleichbare Basis zu schaffen ist nicht möglich. Das zeigen auch entsprechende Bildvergleiche.

Und zum TO:
Ich hätte gern eine solche reine Schwarz-Weiß-Kamera in der alltäglichen Photographie. Nur ist die Nachfrage insgesamt, wie hier ja schon erwähnt, wohl doch viel zu klein.
 
Es gibt die Möglichkeit den Bayer-Filter einer DSLR zu entfernen.
Dann hat man wieder eine monochrome Bildaufnahme.
Allerdings muß dann der RAW Konverter wohl auch angepaßt werden.

Eine Option wären Industriekameras, da kann man einfach eine monochrome Kamera kaufen - muß dann aber mit Labtop zur Bildbetrachtung, Steuerung der Kamera und Speicherung arbeiten. Zudem sind die meist etwas teuer.
Wollte ich mal antesten..
 
WERBUNG
Zurück
Oben Unten