• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Warum sind die großen Sensoren so rückständig?

Einfach ignorieren, und somit die Plattform entziehen ;)
 
Objektive müssten bei Blende f/2 etwa 700 Linienpaare/mm Auflösung haben, damit aus 2.500 Megapixeln kein Datenmüll entsteht.

Dahinter steckt die Vorstellung, dass man ein Linienpaar mit (knapp mehr als) 2 Pixeln abtastet.

Dazu hätte ich zwei Anmerkungen:

1. In der Praxis habe ich es noch nie geschafft, bei periodischen Strukturen ein Linienpaar mit 2-3 Pixeln so abzutasten, dass ich auf dem fertigen Bild die periodische Struktur wieder finde. Mit 4 Pixeln gelingt mir das regelmäßig, problemlos.


2. Die Art und Weise über Auflösung/Abtastung solche Themen anzugehen war vor 15 Jahren sicher angemessen. Damals war es üblich ein mit einem 6 MP Sensor aufgenommenes Bild auch als 6 MP Bild abzuspeichern. Die 200 MP der modernen Smartphonesensoren dienen lediglich der Bilderfassung. Und je "besser" man das macht (d.h. je näher die digitale/diskrete Approximation am vom Objektiv gelieferten optischen Bild ist), desto bessere Daten (ich bin hier mit dem Begriff "Datenmüll" sehr vorsichtig) stehen der anschliessenden KI zur Verfügung.
 
… und dieselben Lichtverhältnisse führen bei den deutlich kleineren Linschen unter genau welchen Umständen dazu, dass mehr auf dem Sensor ankommt?

Wenn man bei einem Sensor die ISO runterdreht, kann man ihn anschliessend stärker belichten (Zur Erinnerung: Belichtung ist sowas wie Licht pro Fläche).

Ich hatte oben erwähnt, dass man die kleinen, sagen wir 2/3 Zoll, Sensoren der Smartphones stärker belichten kann als z.B. die großen 4/3 Zoll Sensoren bei MFT. Das spiegelt sich in der Basis ISO wider. Ein kleiner 2/3 Zoll Sensor kann vielleicht ISO 25, während MFT nur ISO 100 kann. In der fotografischen Praxis löst man das z.B. so auf, indem man dem 2/3 Zoll Sensor bei ISO 25 eine f/1,8 Optik verpasst, dem 4/3 Zoll Sensor bei ISO 100 eine f/3,6 Optik. Der Lichtleitwert ist dann bei beiden Systemen identisch.
 
Zur Erinnerung: Belichtung ist sowas wie Licht pro Fläche
Es fehlt die Belichtungszeit.

... indem man dem 2/3 Zoll Sensor bei ISO 25 eine f/1,8 Optik verpasst, dem 4/3 Zoll Sensor bei ISO 100 eine f/3,6 Optik. Der Lichtleitwert ist dann bei beiden Systemen identisch.
Du meinst den Lichtwert?
Wenn man Begriffe und Definitionen wild durcheinanderwürfelt kann wenig Sinnvolles dabei herauskommen...
 
... 1. In der Praxis habe ich es noch nie geschafft, bei periodischen Strukturen ein Linienpaar mit 2-3 Pixeln so abzutasten, dass ich auf dem fertigen Bild die periodische Struktur wieder finde. Mit 4 Pixeln gelingt mir das regelmäßig, problemlos. ...

Das ist klar. Siehe:

https://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem

Wenn man bei einem Sensor die ISO runterdreht, kann man ihn anschliessend stärker belichten...


Das ist falsch. Die ISO-Einstellung ist ein Synonym für die Verstärkung des elektrischen Ausgangssignals der Sensorzellen.

Damit kann man das Ausgangssignal an die weitere Bildverarbeitung anpassen.

Die eigentliche Größe des Ausgangssignals hängt von der Menge der eingefangenen Photonen ab. Und die steigt bei gleicher Belichtung = Beleuchtungsstärke * Belichtungszeit

https://de.wikipedia.org/wiki/Belichtung_(Physik)

mit der Fläche der Sensorzelle.
 
Wenn man bei einem Sensor die ISO runterdreht, kann man ihn anschliessend stärker belichten...

Wenn Meinung als Wissen erklärt wird...
Ich befürchte das er durch Wissen, seine Meinung nicht ändert, gebe aber die Hoffnung nicht auf...

"Die Sensoren von Digitalkameras aber ändern ihre grundlegende technische Beschaffenheit nicht, ganz gleich, ob ihr 100, 800 oder 6.400 ISO einstellt."


...klick!!!
 
Die 200 MP der modernen Smartphonesensoren dienen lediglich der Bilderfassung. Und je "besser" man das macht (d.h. je näher die digitale/diskrete Approximation am vom Objektiv gelieferten optischen Bild ist), desto bessere Daten (ich bin hier mit dem Begriff "Datenmüll" sehr vorsichtig) stehen der anschliessenden KI zur Verfügung.

Hilft nur nix, wenn die Optik dies nicht auflösen kann UND bei den Miniwinzsensoren die Beugung zuschlägt. Bei 200MP und eine 1"-Sensor ist spätestens bei Blende 1.8 Schluss, bei kleineren Sensoren bräuchte man Lichtstärken von denen Hersteller optische Systeme maximal träumen können.
 
Hilft nur nix, wenn die Optik dies nicht auflösen kann UND bei den Miniwinzsensoren die Beugung zuschlägt
Die hohen Auflösungen haben durchaus Vorteile. Zum Einen könnte, da die PSF des Systems recht genau bekannt sein wird, einiges aus dem "Datenmüll" durch Dekonvolution ,oder heute evtl. ein NN, rekonstruiert werden und zum Anderen sind das i.d.R. Quadbayer DCG Sensoren bei denen die Pixel eines CFA Elements mit verschiedenen CG ("Empfindlichkeiten") ausgelesen werden können und somit mehr Kontrastumfang in einem einzigen Bild erreichbar ist.
 
Man kann doch auch einfach in der Praxis vergleichen. Mein Pixel 7 pro hat gegen Bilder aus meinen früheren MFT Kameras jedenfalls genauso wenig Chancen wie das iPhone 14 pro max meiner Frau.
 
Mein Pixel 7 pro hat gegen Bilder aus meinen früheren MFT Kameras jedenfalls genauso wenig Chancen wie das iPhone 14 pro max meiner Frau.

Das liegt wohl an den Objektiven. Die MFT Objektive sind ziemlich gut, während man nicht so genau weiß, wie schlecht die Smartphoneobjektive eigentlich sind. Aber das ist ein anderes Thema.
 
Die hohen Auflösungen haben durchaus Vorteile. Zum Einen könnte, da die PSF des Systems recht genau bekannt sein wird, einiges aus dem "Datenmüll" durch Dekonvolution ,oder heute evtl. ein NN, rekonstruiert werden

Die Dekonvolution ist recht sensitiv und braucht gutes Datenmaterial. Man wird die Sensorauflösung wegen des Photonenrauschens nicht beliebig steigern können/wollen.

Die Kunst besteht wohl darin, Sensorauflösungen zu nehmen, die gerade noch vertretbar sind, bevor das Photonenrauschen überhand nimmt.
 
Das liegt wohl an den Objektiven. Die MFT Objektive sind ziemlich gut, während man nicht so genau weiß, wie schlecht die Smartphoneobjektive eigentlich sind. Aber das ist ein anderes Thema.

Nein, das ist genau DAS Thema! Es hilft der beste, hochauflösendste Sensor nix wenn eine Flaschenbodenoptik davor gespannt wird, bzw. die Optik physikalisch nicht dazu in der Lage ist diese Sensorauflösung zu bedienen.
 
Es hilft der beste, hochauflösendste Sensor nix wenn eine Flaschenbodenoptik davor gespannt wird, bzw. die Optik physikalisch nicht dazu in der Lage ist diese Sensorauflösung zu bedienen.

Bei den MFT Objektiven handelt es sich ja nicht um "Flaschenbodenoptiken". Sie hätten einen besseren Sensor verdient. Generell stimme ich zu; ja, das Objektiv spielt eine wichtige Rolle; das Team Objektiv/Sensor sollte gut zusammenpassen. Nur: Wie schlecht kleine Objektive (wie bei Smartphones) vor den kleinen Sensoren (wie bei Smartphones) eigentlich sind, wurde in einem anderen Thread bereits erörtert. Das ist hier nicht das Thema.

Noch ein Aspekt zum Thema dieses Threads (Völlig Objektivunabhängig):

Bill Claff hat einmal den PDR des alten Apple iPhone XS (2018) abgeschätzt und kam auf 7,86 Blendenstufen. Würde man einen MFT Sensor mit den Pixeln des iPhones XS bestücken, käme man auf einen PDR von 9,89 Blendenstufen. Die aktuelle OM-1 (2022) hat 9,54 Blendenstufen nach Bill Claff. Und die Entwicklung bei den kleinen Sensoren mit den kleinen Pixeln ist rasant; in vier Jahren tut sich da eine Menge.
 
Auf die Eingangsfrage "Warum sind die großen Sensoren so rückständig?" habe ich eine einfache Antwort. Wem die großen Sensoren zu rückständig sind, muss sich ja nicht nutzen. Wenn er sich an den Sensoren der Smartphones misst und das als Maß der Dinge erachtet, so soll man dann einfach jene auch nutzen. Niemand wird gezungen, diesen oder jenen Sensor zu benutzen. Darum ist es doch sehr einfach: Wem die großen Sensoren zu rückstänig sind, kann ja jederzeit das "moderene" Sensorsystem nutzen. ;)

Was aber gar nichts bringt ist sich hinzustellen, rumzumäckeln "warum ist das nicht so oder so" denn dadurch werden die Hersteller sicherlich nicht alles über den Haufen schmeißen, nur weil XY sich darüber beschwert hat. Es ist in meinen Augen also überflüssig zu diskutieren, warum sich Hersteller für diesen oder jenen Weg entschieden haben, daran kann man erstmal nichts ändern. Wer nicht zufrieden ist, muss sich eben nach Alternativen umsehen und diese dann nutzen. Ganz einfach.
 
... Und die Entwicklung bei den kleinen Sensoren mit den kleinen Pixeln ist rasant; in vier Jahren tut sich da eine Menge.

Warum setzt dann Google für die Pixel Reihe über Generationen auf den gleichen Sensor?

Pixel 2 (2017) bis 5 (2020) hatten den gleichen Kamerasensor für die Hauptkamera und das aktuelle 7 (2022) hat den gleichen wie das Pixel 6 (2021). Verbesserungen entstehen hier durch Software.

Auch bei Apple verwenden oft mehrere Generationen den gleichen Sensor.

Bei vielen Herstellern ist zu erkennen, dass Verbesserungen in der Kamera auch meist auch mit größeren Sensoren einhergehen und nicht durch neue, verbesserte Technologien.
 
Unter anderem vermutlich, weil so viel Software-Optimierung erfolgt und es da nützlich ist einen bekannten Sensor zu haben - die nächste Generation Google Pixel kommt ja mit einem neuen Modul, in den aktuellen Flagschiffen der Konkurrenz sind zum Teil 1" Sensoren verbaut + sie haben die Software-Eingriffe

Und ja, ich bin einer derjenigen, die schon länger anprangern, dass das Bild aus einer teuren Kamera ohne Nachbearbeitung oft deutlich schlechter aussieht, als das Bild aus einem Smartphone. Hat das Bild aus der teuren Kamera mehr Potential? Ja, absolut... aber ich brauche quasi zwingend einen PC um das auch zu heben, während das mal schnell nebenbei geknipste Smartphonebild sofort optisch sehr sehr ansprechend aussieht.

Ich halte damit nicht die Sensoren für rückständig, sondern vor allem die Kamera-Software und Prozessorleistung
 
Unter anderem vermutlich, weil so viel Software-Optimierung erfolgt und es da nützlich ist einen bekannten Sensor zu haben ...

Das ist mir schon klar. Das war eher auf die Aussage "Und die Entwicklung bei den kleinen Sensoren mit den kleinen Pixeln ist rasant; in vier Jahren tut sich da eine Menge" gemeint. Der Fortschritt in der Softwareentwicklung innerhalb von vier Jahren ist da offensichtlich entscheidender als der in der Sensorentwicklung. Sonst hätte Google wohl nicht über vier Generationen, also quasi vier Jahre, den gleichen Sensor verbaut. Und als dann mit dem Pixel 6 ein neuer Sensor erstmalig verbaut wurde, wurde das sogar von vielen als Verschlimmbesserung gesehen.

Apple hat ja den Hauptsensor aus dem iPhone XS auch noch im 12Pro, also drei Generationen lang, verbaut. Jetzt haben sie zwei Generationen hintereinander einen neuen, jeweils größeren Sensor verbaut. Auch bei Samsung werkelte vom S20 Ultra bis S22 Ultra der selbe Hauptsensor.

Deshalb sehe ich es auch so. Bei Smartphones macht es die Software, nicht der Sensor und nicht das Objektiv. Bzw. der Sensor nur in ähnlichem Maß wie bei den großen Kameras. Die größte Verbesserung bot in den vergangenen Jahren was den Sensor betrifft einzig eine Vergrößerung des Sensors. Hier ist man aber mittlerweile an einem Limit angelangt. Bei den Smartphones mit 1 Zoll Sensor ist es ja meist so, dass dieser nichtmal ganz genutzt wird, sondern oft nur zu 70 % oder ähnlich. Ein größerer Sensor verlangt auch eine größere Optik. Aber irgendwo soll ja ein Smartphone noch ein Smartphone bleiben.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten