• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2024.
    Thema: "Diagonale"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
WERBUNG

Welche Pixel des Sensors werden bei Videoaufnahmen benutzt?

derwohilfebraucht

Themenersteller
Hallo zusammen, ich habe eine technische Frage bezüglich des Auslesens von Pixeln im Videomodus.

Nehmen wir zum Beispiel die Canon 600D o.ä. mit 18MP, also 5184x3456 Pixeln auf dem Sensor. Welche dieser Pixel werden für das FullHD Video ausgelesen?
Angenommen der Sensor hätte in der Breite 5760 Pixel, dann könnte man jeden 3. Pixel nehmen. Würde man jeden 2. Pixel nehmen, hätte man mit dem Bayer-Filter ein Problem, denn man hätte nur in jeder zweiten Zeile rote bzw blaue Pixel (und man hätte einen beträchtlichen Crop von 1,35).
Wie werden also die Pixel des Videos berechnet?

Gibt es Informationen dazu, wie das im Allgemeinen gehandhabt wird?
 
das haengt von der cam ab.

1) sie werden zb alle 4 pixel 1 ausgelesen (canon, schlecht)
2) sie werden 1:1 ausgelesen so wie zb bei der a7s
3) das bild wird 1:1 ausgelesen und echtzeit auf 1080p/4k runterskaliert (samsung nx1, ARRI/RED etc)
4) sie werden 2x2 zusammengefasst und ausgelesen (sony a7rII)

manchmal hast du auch mischformen - wie zb bei der neuen nikon D500 - hier ist es zwar ein 1:1 auslesen, aber nur aus den mittleren pixeln, sprich du hast effektiv einen 2.2 crop ... dafuer in der theorie ein sauberes 4K signal (das aber im codec vernichtet wird).

es ist wirklich von hersteller zu hersteller verschieden. je sauberer das 4K/1080p signal, desto besser/schneller die signalprozessoren.
bei der 600D ist es uebrigens version 1).

JB
 
Zuletzt bearbeitet:
Bayer Filter

Danke jbooba für die ausführliche Auflistung! Wie lässt sich das (im Datenblatt) erkennen, welche der genannten Möglichkeiten genutzt wird, gibt es dafür Begriffe, nach denen man Ausschau halten kann?

Zu Möglichkeit 1) und 4) würde mich noch interessieren, wie das mit dem Bayer-Filter gemacht wird.
1) Wenn ich jeden 4. Pixel auslese, bekomme ich nur eine Farbe (rot, grün oder blau).
4) Wenn ich 2x2 Pixel zusammenfasse, hätte ich alle Farben vermischt.
Idee 1: Aus einem 2x2 Array mit einem roten, einem blauen und 2 grünen Pixeln die RBG-Werte ablesen (bei grün Mittelwert bilden)
Idee 2: Jeweils 4 Pixel der gleichen Farbe zusammenfassen (siehe Bild) und gröberes Bayer-Muster erhalten, dann normales De-Bayering anwenden.
 

Anhänge

hi,
fuer den bayer filter level habe ich mich nie interessiert, und was ich verstehe meinen reviewer und firmen "echte" RGB pixel.

und nein du kannst es im datenblatt nicht erkennen (zumindest ich wuesste nicht wie), nur tests oder die aussagen der frima (zb sony) kann dir helfen.


JB
 
das haengt von der cam ab.

1) sie werden zb alle 4 pixel 1 ausgelesen (canon, schlecht)
2) sie werden 1:1 ausgelesen so wie zb bei der a7s
3) das bild wird 1:1 ausgelesen und echtzeit auf 1080p/4k runterskaliert (samsung nx1, ARRI/RED etc)
4) sie werden 2x2 zusammengefasst und ausgelesen (sony a7rII)

Weitere Version (wie bei der D800):

Ein breiter Aussenrand wird gar nicht genutzt, und vom Innenbereich wird nur jede dritte Zeile ausgelesen. Damit hat diese KB-Cam im Videobetrieb weniger aktive Sensorfläche als eine Pana GH4. Bei welchen Sony-Sensoren wird dies Verfahren eigentlich noch angewandt?
 
Weitere Version (wie bei der D800):

Ein breiter Aussenrand wird gar nicht genutzt, und vom Innenbereich wird nur jede dritte Zeile ausgelesen. Damit hat diese KB-Cam im Videobetrieb weniger aktive Sensorfläche als eine Pana GH4. Bei welchen Sony-Sensoren wird dies Verfahren eigentlich noch angewandt?

zeilen-sprung bei sony? meines wissens gar nicht, zumindest auf keiner aktuellen cam (a5100/a6000, der sony 1", die a7xII reihe)

JB
 
Danke nochmal für eure Antworten, ich bin der Sache noch etwas auf die Spur gekommen:

Anscheinend wird bei der Canon 600D wie folgt vorgegangen:
In einem inneren Bereich von 5040x2835 Pixeln wird jeder dritte Pixel pro Zeile alle 3 Zeilen ausgelesen. Das kommt auch mit dem Bayer-Filter gut hin. Das führt zu einem Bild mit 1680x945 Pixeln, welches dann auf FullHD hochskaliert wird (Faktor 8/7).

Eigentlich schade, dass nur der innere Sensorbereich genutzt wird, und nicht die gesamte Breite. Dann hätte man ein Bild von 1728x972, welches noch mit einem Faktor von nur 10/9 hochskaliert werden müsste.

Quelle:
http://www.magiclantern.fm/forum/index.php?topic=16428.msg159809#msg159809
http://www.magiclantern.fm/forum/index.php?topic=15983.msg155174#msg155174
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten