• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Wie funktioniert Pixelbinning-RAW?

beiti

Themenersteller
Es gibt Kamerasensoren, die laut Werbung 48 oder 64 Megapixel Auflösung haben, aber die dazugehörigen Kameras geben standardmäßig nur 12 bzw. 16 Megapixel aus. Das wird erklärt mit einem Pixelbinning von jeweils 2 x 2 Pixeln, das für höhere Qualität bzw. höhere Lichtempfindlichkeit sorgen soll.
Ich selber kenne das Prinzip neuerdings von meinem Moto G30, aber der gleiche Sensor kommt bestimmt auch in anderen Kameras vor. Irgendwo im Netz gab es Hinweise, es sei ein Sony-Sensor.

Solange es sich auf die JPEG-Ausgabe bezieht, kann ich mir das Binning gut vorstellen. Im Grunde braucht man dazu nicht mal eine spezielle Technik: Einfach runterskalieren auf halbe Auflösung und gut. Ich sehe nicht, wozu der Sensor da etwas Spezielles können müsste.

Nun gibt mein Moto G30 aber auch Rohdateien (DNG) in 16 MP Größe aus, und das kann ich mir nicht so wirklich erklären. Wenn man vier Pixel zusammenfasst, hat man doch keine separaten Pixel für Rot, Grün und Blau mehr. Also jedes Pixelpaket hat bereits volle Farbinformationen (in grün sogar doppelt). Wie schaffen die es, daraus wieder eine "rohe" Bilddatei zu machen?
Lustigerweise bietet das G30 auch einen HighRes-Modus an, in dem tatsächlich die vollen 64 MP ausgegeben werden – dann aber nur in JPEG. Also an 64-MP-Rohdaten kommt man nicht ran.

Hat jemand eine Erklärung?

PS: Für den Fall, dass jemand eine Analyse anstellen will, habe ich hier eine solche DNG-Datei (30,7 MB) hochgeladen.
 
Moto G30:
..new Samsung Tetrapixel 0.7µm sensor designs, this one in 1/1.97" size. It bins 4 pixels into 1, resulting in a 16MP default image size..

Tetrapixel Design -> Samsung ISOCELL-Reihe?! Nach den Angaben bei GSM Arena wäre es dann ein S5KGW3 ISOCELLPlus.

S5KGW3 9280X6944 (64M) 0.7um 1/1.97" ISOCELL Plus MIPI 4 Lane RAW Tetrapixel Super-PD

The Moto G30's Ultra-res mode is where you go to capture 64MP images. While it does appear to demosaic its Quad Bayer sensor straight to 64MP (unlike the Moto G10, which we're fairly convinced upscales its 12MP images to the nominal 48MP), we do not see a considerably more detail in the 64MP shots.

Man könnte jetzt die Frage stellen, ob es 64Mpix sind, aber das Bayer-Raster halb so groß ist, anstatt, wie wir es kennen, über jeden Sensel verteilt. Bei 64MPix sind es 2x2-Grün - was dann beim "Runterdenken" dann eigentlich nur ein 16mpix-1.4mikro-Sensor ist, wo die Sensoren nochmal aufgeteilt sind. Deswegen dieses schöne Buzzword "Quad-Bayer".. Weil sie aber einzeln ausgelesen werden können, könnte zumindest auf Luma-Ebene eine höhere Auflösung rausgekitzelt werden. Vielleicht machen sie damit auch den Phasen-AF. Und im Hinterkopf haben - Fotosensoren in Smartphones haben idR Speicher und auch schon den Bildprozessor on-die - sprich, die Smartphone-CPU fragt nur an "gib mir 64Mpix-Foto" und die Bild-Hardware antwortet "kann ich nur in jpg, bittesehr, hier die Datei". Demosaicing, Color-Correction (und h.264-Encoding für Video) wird schon am/neben dem Sensor (aber nicht in der CPU) ausgeführt. Der Befehlssatz des Bildsensors gestattet kein 64Mpix-Raw-Output, so scheint es.

Kurzum, ich sehe eigentlich einen 16Mpix-Sensor - der aus welchen Gründen auch immer, zB AF - nochmal unterteilt wurde. Diese 64Mpix sind mM Buzzwording.

mfg chmee
 
Zuletzt bearbeitet:
Aus dem 64Mpix-Sensor, meines Verständnisses nach, Ja. Was natürlich auch nicht ganz richtig ist, weil Bayer-Sensordata nach RGB immer 2/3 der Daten errechnen muss.


▉ ▉ ▉ ▉
▉ ▉ ▉ ▉
▉ ▉ ▉ ▉
▉ ▉ ▉ ▉

4x4 Sensel bei 2x2 Bayer.

Nachtrag: ..we do not see a considerably more detail in the 64MP shots. - Rein rechnerisch ließe sich aus den 64Mpix, wie schon geschrieben, eine höhere Luma-Auflösung erzielen. Da könnte man jetzt sinnieren, warum es kaum sichtbar ist. Vielleicht, weil im Code über RGB-Algorithmen/Matrizen gerechnet wurde? Man müsste ja nen hochauflösenden Lumakanal synthetisieren und den später über die gröberen Farbinformationen im YUV-Modus hinzufügen. Wie gesagt, das ist jetzt Kaffeesatzleserei. Tatsache aber, die 64Mpix können bildlich keinen signifikanten Vorteil herausholen. Vielleicht hast Du andere Ergebnisse..
 
Zuletzt bearbeitet:
Mein Eindruck ist, dass man mit dem 64-MP-Modus durchaus ein bisschen was rausholt, wenn genug Licht da ist. Ich habe das in Verbindung mit einer Scanner-App getestet (wo ja am Ende eh nur Schwarzweiß rauskommt – insofern vielleicht nicht allgemeingültig), aber auch mit normalen Motiven bei Sonnenschein.

Hier zum Beispiel meine ich zu sehen, dass der HiRes-Modus Vorteile hat:
Testbild 16MP (6,7 MB)
Testbild 64MP (16,5 MB)

Allerdings habe ich nur zehn Minuten später in einem Wald fotografiert, und da sind die 64-MP-Bilder im Vergleich zu den 16-MP-Bildern bereits etwas verwaschen (vermutlich Spuren der Rauschminderung).

Was mir auch noch aufgefallen ist: Das Auslösen ist im HiRes-Modus deutlich stärker verzögert. Also nicht nur das Speichern hinterher, sondern schon vom Drücken des Auslösers bis zur Aufnahme gibt es eine Pause von etwas über 1 Sekunde.
 
Das spricht für meine Annahme, dass Schwarz/Weiss, Luma-Kontraste noch verbessert werden können, wenn es aber farbig wird, übernimmt das grobe Bayer-Raster die Auflösung. In die Bilder geschaut. Kann man kaum noch unterscheiden, was beim 64MPix Synthese ist und wo noch Realdaten sein könnten :) Ne Mischung aus Treppchen, weichem Upscaling und NR..

Gartenhäuschen. Rotes Dach, Demosaicing-Treppchen. Die Pflanzen davor weichgespült mit HighPass oder NR. Finde im Bild nix, was die 64Mpix unterstreicht.
 
Zuletzt bearbeitet:
Diese Weichspülerei ist ja heute leider Standard für Kameras mit kleinen Sensoren. Mit echten 64 MP hat das Ergebnis sicher nichts mehr zu tun, aber ich sehe zumindest im direkten Vergleich ein paar kleine Vorteile. Ob die jetzt nur durch Rechentricks zustande gekommen sind, ist für mich schwer zu sagen.
 
Hallo!

Ein interessantes Thema und Bildvergleich. Ich finde, dass das 64MP Bild teilweise doch mehr Details zeigt: An der rot-weiß-gestreiften Markise und der Lampe darunter. Dagegen überzeugt mich das 16MP Bild in den dunklen Bereichen mehr: Linke Seite des Holzschuppens im Schatten.

Es könnte sein, dass die Tetra-Sensel stärker belichtet werden können (bevor sie voll sind) als ein einzelnes Sensel gleicher Größe und dass darin der eigentliche Vorteil des 64MP Sensors liegt. In diesem Zusammenhang noch eine Frage: Bietet die verwendete Kamera keine 50 ISO (so wie ich es von Samsung kenne)?
 
@klt39
Das rechnerische Zusammenfassen von 4 Senseln entspricht einer Verbesserung der SNR um 2 Blenden. Sprich, Du kannst dunklere Partien aufhellen, da Du (rechnerisch) die Untergrenze Daten/Rauschen verbessert hast.

Auf dem gleichen Balkon, wo auch die rot-weiße Markise ist, da sind diese stehenden Solarlampen in den Blumenkästen. Die beiden mittleren leiden doch ganz schön unter den Algorithmen.

Ich werf auch Beispielbilder dazu. Xiaomi Mi9 SE, Sony IMX586 mit 48 Megapixel.

12 und 48Mpix als jpg. 48Mpix, 21MB - 12Mpix, 6.2MB
 
Zuletzt bearbeitet:
Nein, der Bereich geht nur von 100 bis 3200.

Das ist merkwürdig. Die hohe Auflösung lebt ja von "viel Licht".

@klt39
Auf dem gleichen Balkon, wo auch die rot-weiße Markise ist, da sind diese stehenden Solarlampen in den Blumenkästen. Die beiden mittleren leiden doch ganz schön unter den Algorithmen.

Tatsächlich. Ich habe mir heute den Samsung S5KGW1 (bietet sogar 32 ISO, 0,8µm Pitch, 64MP Tetra-Cells) ausgeliehen und ein paar Aufnahmen mit f/1,8 gemacht. Bei den Antennen auf den Dächern ergab sich das selbe Problem. Ansonsten überzeugen mich die Tetra-Cells mit 64MP. Bei 32 ISO (und schönem Wetter) hat man schon einen deutlichen Auflösungsvorteil gegenüber den 16MP.
 
gerne Beispielbilder. Mich kann das Quad-Sensel/Tetra-Cell-Prinzip noch nicht überzeugen. Alles hängt mM von den Algorithmen ab, und dann kommt man schnell zum Gedanken, dass ein neuronales Netz (AI,KI-wieauchimmer) jedes Bild ohne Artefakte hochskalieren kann.

mfg chmee
 
Samsung S5KGW1 (bietet sogar 32 ISO, 0,8µm Pitch, 64MP Tetra-Cells)
Interessant, wie unterschiedlich die Hersteller mit den Angaben umgehen. Ich habe jetzt ein bisschen gerechnet.

Für die Hauptkamera meines Moto G30 lautet die Herstellerangabe: 64-MP-Sensor | 16-MP-Ausgabe (ƒ/1,7, 1,4 µm), Quad-Pixel-Technologie
Wenn ich davon ausgehe, dass sich der Pixelpitch auf 16 MP bezieht, komme ich bei einer Auflösung von 4608 x 3456 (lt. Lightroom) auf 6,45 x 4,84 mm. Das ergibt eine Diagonale von 8,06 mm – was in der üblichen Rechnung für Kamerasensoren (wo 1 Inch 16 mm entspricht) ziemlich genau 1/2″ ist. Das könnte stimmen.

Wenn Samsung keinen Winzig-Sensor verbaut, wird dort der Pixelpitch von 0,8 µm eher für die vollen 64 MP gelten. Also dann 1,6 µm für die 16 MP Quadpixel. Dann liegen wir irgendwo bei 1/1,74″ Sensorgröße. Könnte auch stimmen.

Auf jeden Fall sind es dann unterschiedliche Sensoren.
Warum die Kamera des G30 nie unter ISO 100 geht (noch nicht mal im UltraRes-Modus), verstehe ich aber auch nicht.
 
Wenn Samsung keinen Winzig-Sensor verbaut, wird dort der Pixelpitch von 0,8 µm eher für die vollen 64 MP gelten. Also dann 1,6 µm für die 16 MP Quadpixel. Dann liegen wir irgendwo bei 1/1,74″ Sensorgröße. Könnte auch stimmen.

Das sind genau die Daten des von mir verwendeten Samsung S5KGW1.

Mich kann das Quad-Sensel/Tetra-Cell-Prinzip noch nicht überzeugen. Alles hängt mM von den Algorithmen ab, und dann kommt man schnell zum Gedanken, dass ein neuronales Netz (AI,KI-wieauchimmer) jedes Bild ohne Artefakte hochskalieren kann.

Ich habe gerade gesehen, dass der Samsung S5KGW1 (Tetracell) einen Bruder hat, den S5KGW2 mit normalem Bayer-Filter und 64 MP. Dieser wird bei den teureren Geräten verbaut. Es sieht so aus, als sei Samsung vom Tetra-Cell-Prinzip auch nicht so überzeugt.
 
Die Frage, ob sie (a) 64Mpix-DNG von sich aus auch nach außen geben wollen bzw. (b) der Prozessor auf die 64MP abgestimmt ist (wie schon zuvor, also Ja) :D. Denn ein 64Mpix-Jpg geben sie ja gerne raus, diesmal nur mit einem anderen Demosaicing-Algorithmus.

mfg chmee
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten