weil deren kleine Pixelchen deutlich stärker belichtet werden können als die Pixel der Systemkameras
irgendwie verstehe ich das physikalisch nicht...
Die Gesamtlichtmenge ergibt sich nach der Objektivgröße.
Ein 35mm f/2 an Vollformat fängt mehr Licht ein als ein 23mm f/2 an APS-C. Dieses wiederum fängt mehr Licht ein als ein 17mm f/2 an MFT. Und dieses wieder mehr als ein 13mm f/2 an 1 Zoll.
Die Handys haben auch etwa f/2. Teilweise minimal mehr. Hat aber alles jetzt nichts mit der Auflösung zu tun. 12 MP am Smartphone erzeugen das gleiche Bild wie 200 MP. Letztere eignen sich aber besser für 6 und 8k Video und eignen sich besser für die KI, die ja noch das Rauschen raus rechnen muss. Zudem reichen der KI Artefakte aus für Objekterkennung. So erkenne ich besser Augen, Gesichter, Haare, Ohren, ... das ist wichtig für die künstlich generierten Portrait Bilder mit unscharfen Hintergrund.
Aber die Gesamtlichtmenge und somit das erzeugte maximale Signal gegenüber dem allgemeinen Hintergrundrauschen bestimme ich mit der nackten Objektivbauform. Daher habe ich ja auch bei MFT gegenüber APS-C und dieses wiederum gegenüber Vollformat keinerlei Größen- oder Gewichtsvorteil.
Und diesen Größen- oder Gewichtsvorteil habe ich auch nicht bei einem Handy. Ich habe nur einen extrem kleinen Sensor mit einem extrem lichtschwachen Objektiv. Blende f/1.7 an einem Handy ist wie f/11...f/16 an Vollformat. Ergibt ja auch dann das gleiche Foto. Der wesentliche Unterschied ist die dahinter gehangene Software. Ist nur die Frage, ob ich immer das gesamte Softwarepaket haben möchte, weil ja ICH und nicht die Software das Bild machen soll / möchte.