...Für das IPhone gilt das definitiv nicht, gerade eben noch mal zwei Bilder verglichen, der Vorteil der hohen Auflösung ist sehr deutlich, auch bei wenig Licht.
Es ist beim iPhone 14Pro sicher ein Auflösungsvorteil der 48MP gegenüber den 12MP zu erkennen.
Dennoch ist der Hauptsensor ein Quad-Bayer-Sensor.
Sony hält sich, ebenso wie Samsung bedeckt, wenn es um die wirkliche Auflösung bei maximaler Pixelzahl geht.
Dass man vor den Sensor dann einfach mal mechanisch einen klassischen Bayer-Filter statt des Quad-Filters schiebt, dass kann man wohl 100%ig ausschließen.
Also bleibt nur eine geschickte "Signalverarbeitung" der Helligkeitsinformation hinter den Quad-Filtern.
Hier beschreibt Sony das QBC (Quad Bayer Coding):
https://www.sony-semicon.com/en/technology/mobile/quad-bayer-coding.html
Die "Pixel Arrangement Conversation" wird im Artikel klar als nachgelagerte Signalverarbeitung per Rechen-Algorithmen beschrieben.
Wobei diese nachgelagerte Signalverarbeitung bei Sony nicht mit einfacher Software erfolgt, sondern per "in Silikon gegossener" Hardware- Signalverarbeitung. Damit wird eine schnelle und energieeffiziente Umwandlung erreicht.
Aber egal wie, sollten wir uns bitte nichts vormachen:
- für den klassischen Bayer-Sensor kann man im Idealfall nach dem Demosaicing mit einer Auflösung des RGB-Bitmaps von ca. 60...70% der Sensorauflösung rechnen
- beim Quad-Sensor würde mein "Bauchgefühl-Schätzometer" auf maximal 30...40% der Sensorauflösung tippen
Was aber auf jeden Fall mehr ist als die Auflösung beim Binning
Und bei der Beschäftigung mit der Problematik fange ich langsam an zu vermuten, warum bei hoher Auflösung kein wirklich echtes RAW = Sensorabbild ausgegeben wird.
Das Demosaicing solcher Sensoren ist mit Sicherheit eine "Raketenwissenschaft". Da werden sich die Sensorhersteller nicht in die Karten schauen lassen.
Da wird dann im Smartphone ein "Pseudo-RAW" gekocht. Natürlich mit einigen durchaus schätzenswerten Zutaten. Jedenfalls bei Apple
Gruß
ewm
Zuletzt bearbeitet: