• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Warum sind die großen Sensoren so rückständig?

weil deren kleine Pixelchen deutlich stärker belichtet werden können als die Pixel der Systemkameras

irgendwie verstehe ich das physikalisch nicht...
Die Gesamtlichtmenge ergibt sich nach der Objektivgröße.

Ein 35mm f/2 an Vollformat fängt mehr Licht ein als ein 23mm f/2 an APS-C. Dieses wiederum fängt mehr Licht ein als ein 17mm f/2 an MFT. Und dieses wieder mehr als ein 13mm f/2 an 1 Zoll.

Die Handys haben auch etwa f/2. Teilweise minimal mehr. Hat aber alles jetzt nichts mit der Auflösung zu tun. 12 MP am Smartphone erzeugen das gleiche Bild wie 200 MP. Letztere eignen sich aber besser für 6 und 8k Video und eignen sich besser für die KI, die ja noch das Rauschen raus rechnen muss. Zudem reichen der KI Artefakte aus für Objekterkennung. So erkenne ich besser Augen, Gesichter, Haare, Ohren, ... das ist wichtig für die künstlich generierten Portrait Bilder mit unscharfen Hintergrund.

Aber die Gesamtlichtmenge und somit das erzeugte maximale Signal gegenüber dem allgemeinen Hintergrundrauschen bestimme ich mit der nackten Objektivbauform. Daher habe ich ja auch bei MFT gegenüber APS-C und dieses wiederum gegenüber Vollformat keinerlei Größen- oder Gewichtsvorteil.

Und diesen Größen- oder Gewichtsvorteil habe ich auch nicht bei einem Handy. Ich habe nur einen extrem kleinen Sensor mit einem extrem lichtschwachen Objektiv. Blende f/1.7 an einem Handy ist wie f/11...f/16 an Vollformat. Ergibt ja auch dann das gleiche Foto. Der wesentliche Unterschied ist die dahinter gehangene Software. Ist nur die Frage, ob ich immer das gesamte Softwarepaket haben möchte, weil ja ICH und nicht die Software das Bild machen soll / möchte.
 
Ich verstehe nicht, was du nicht verstehst. :)

Meinem Verständnis nach hast die Sache richtig dargestellt.

Zur Thread-Frage: Das ist doch klar: Setzt mal die Mengen an verkauften Sensoren für Smartphones ins Verhältnis zu denen von Fotoapparaten. Man braucht gar keine genauen Zahlen, das Gefühl sagt schon alles. Es lohnt einfach mehr für Smartphonekameras zu entwickeln als für die paar vertickten Kameras. Dann werden Chips, die Sensoren sind auch auch welche, auf sogenannten Wafern hergestellt, das sind so runde Platten, die gepflastert sind mit den Einzelstücken. Von Kleinen kriegt man mehr drauf als von großen. Auch das macht die Produktion billiger.

Die Großen werden immer hinterher eiern.
 
Man kann sie sich erlauben, weil deren kleine Pixelchen deutlich stärker belichtet werden können als die Pixel der Systemkameras. In diesem Punkt herrscht bei den Systemkameras seit zehn Jahren Stillstand. Ein kleiner 1/1,3 Zoll Sensor eines modernen Smartphones kann bereits mehr Licht verarbeiten als ein "moderner" MFT-Sensor.

Jupp! Und deshalb zeichnen sich Smartphonekameras durch exzellenten Dynamikumfang und hervorrangendes Rauschverhalten (im Vergleich zu Systemkameras) aus. Mussmanwissen!

Und ich dachte immer, ein guter Sensor zeichnet sich bei wenig Licht durch gute Leistung ab.
 
Die 200 MP bei den kleinen Smartphonesensoren kommen ja nicht von ungefähr. Man kann sie sich erlauben, weil deren kleine Pixelchen deutlich stärker belichtet werden können als die Pixel der Systemkameras. ...

Falsch

... Ein kleiner 1/1,3 Zoll Sensor eines modernen Smartphones kann bereits mehr Licht verarbeiten als ein "moderner" MFT-Sensor.

Falsch
 
Es ist nicht nur KI, welchen den modernen Handysensoren auf die Sprünge hilft. In meinem Redmi werkelt ein 108 MP Sensor, bei welchem jeweils 4 Pixel mit unterschiedlicher Empfindlichkeit zur Dynamiksteigerung* zusammengefasst werden. Die so verbliebenden 27 MP werden nach weiteren Optimierungen mit bis zu 16 MP als JPEG ausgegeben.

*) ein Trick den Fuji bereits bei der SuperCCD in der S3pro bzw. S5pro vergleichbar angewandt hat
 
Zuletzt bearbeitet:
... *) ein Trick den Fuji bereits bei der SuperCCD in der S3pro bzw. S5pro vergleichbar angewandt hat

Damals waren es tatsächlich Sensels verschiedener Größe.

Bei Samsungs 108MP ISOCELL HM3 werden benachbarte Sensel mit verschiedenen Modi der Ausleseverstärker und A/D-Wandler so kombiniert, dass mit nur einer Aufnahme ein höherer Dynamikumfang erreicht wird.

https://semiconductor.samsung.com/n...ange-makes-smartphone-captures-more-lifelike/

https://semiconductor.samsung.com/n...es-more-details-and-produces-sharper-results/
 
Genau und das ist IMO auch der einzige Grund für die Pixelfluten der kleinen Sensoren. Wäre eh kompletter Unfug, die bis zu 800 MB einer RAW meines Redmi mit einem darauf nicht angepasstem Konverter verarbeiten zu wollen ...
 
Hab ich wohl das letzte Jahrzehnt auf die falsche Technik gesetzt ich Depp und sogar 2x das selbe Gehäuse hier rum liegen. Ein Smartphone hätte nur einen Bruchteil gekostet. Dang...

@TE, falls du wirklich selbst dran glaubst und nicht mit Popcorn hinterm Bildschirm hockst: vergleiche Mal 100% Ansichten von einer Systemkamera mit guter Optik mit der 100% Ansicht eines Smartphonefotos. Vielleicht wird es dir dann klarer.
 

Der Wahrheitswert der von mir getroffenen Aussagen ist für Experten nun wirklich einfach zu überprüfen. Man muss nur die entsprechenden Sensorgrößen, Pixelpitches, FWC und QE kennen und miteinander verrechnen.

Strenge dich bitte etwas mehr an! Dein plattes "Doppelfalsch" ist ja schon peinlich.
 
Weil es gerade so schön rein passt: Canon hat geleakt, dass die R5 mit der Firmware-Version 1.8.1 "Pixel-Shift" bekommt. Der IBIS wird dazu genutzt, 9 leicht gegeneinander verschobene Bilder zu erzeugen, die dann kombiniert werden.
Voilà: Image Size: … IBIS High resolution shot JPEG: 24576 x 16384


402 MegaPixel, wohl bekomms!

Source: https://www.reddit.com/r/canon/comments/11zkkat/eos_r5_pixel_shift_400mp_in_firmware_181/
Der OP gehört nicht zu denen, die Aprilscherze vorziehen ...
 
...Strenge dich bitte etwas mehr an! Dein plattes "Doppelfalsch" ist ja schon peinlich.

Deine Behauptungen sind peinlich.

Es gibt NULL physikalische Begründungen dafür, dass kleine "Pixelchen" mehr Licht einfangen.

Aber bitte, da hat das Megapixel-Argument wieder gestochen und ein weiterer Jünger wurde gefunden :rolleyes:

Dazu noch etwas "künstliche Intelligenz" im Gerät und schon muss man die eigene mit Überlegungen zur Physik nicht belasten :devilish:
 
Zuletzt bearbeitet:
Es gibt NULL physikalische Begründungen dafür, dass kleine "Pixelchen" mehr Licht einfangen.

Ach daher weht der Wind. Wenn ich schreibe, dass die kleinen Pixelchen der Smartphonesensoren stärker belichtet werden können als die Pixel der Systemkameras, dann verstehe ich unter "belichten" das, was man üblicherweise in der Physik darunter versteht.

Also ganz grob: Belichtung ist Licht pro Fläche; belichten ist.....pro Fläche.
 
... Also ganz grob: Belichtung ist Licht pro Fläche; belichten ist.....pro Fläche.

Wieder grob falsch. Die Belichtung ist immer eine zeitabhängige Größe:

https://de.wikipedia.org/wiki/Belichtung_(Physik)

https://de.wikipedia.org/wiki/Belichtung_(Fotografie)


Und jetzt zurück zur Größe der Sensorelemente. Da ist der Vergleich recht einfach. Je größer die Fläche, desto mehr Photonen werden eingefangen. Usw. ...



Weiter z.B. hier

https://de.wikipedia.org/wiki/Bildsensor

oder an beliebig vielen anderen Stellen im Web.
 
Zuletzt bearbeitet:
Ach daher weht der Wind. Wenn ich schreibe, dass die kleinen Pixelchen der Smartphonesensoren stärker belichtet werden können als die Pixel der Systemkameras, dann verstehe ich unter "belichten" das, was man üblicherweise in der Physik darunter versteht.

Also ganz grob: Belichtung ist Licht pro Fläche; belichten ist.....pro Fläche.

Man mag die ja stärker belichten können, allerdings weiß die Sonne und die üblichen Leuchtmittel nicht, dass da gerade ein Smartphonesensor am Start ist und schickt daher nicht mehr Photonen auf die Reise …
… und dieselben Lichtverhältnisse führen bei den deutlich kleineren Linschen unter genau welchen Umständen dazu, dass mehr auf dem Sensor ankommt?
 
Wenn ich schreibe, dass die kleinen Pixelchen der Smartphonesensoren stärker belichtet werden können als die Pixel der Systemkameras,

Kannst du uns mal bitte den Begriff "stärker" belichten" definieren.

Also ich kenne nur "länger belichten" -> das Bild wird heller oder "kürzer belichten -> das Bild wird dunkler.
Oder auch "mehr belichten" durch öffnen der Blende oder "weniger belichten" durch schließen der Blende
 
WERBUNG
Zurück
Oben Unten