• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Sensorgrößen

Na dann vergleich mal ein Bild aus einer analogen APS-C mit dem aus einer analogen KB mit gleichem Film. Dann können wir gern nochmal sprechen.

Bild? Abzug oder Negativ?

Vergleich ist nur sinnvoll, wenn das KB Negativ auf APS-C geschnitten wird. Dann aber auch nur, wenn das Motiv nicht flächenfüllend bei beiden Aufnahmen identich ist, sondern der KB Bildausschnitt identisch mit dem Motiv der APS-C Aufnahme.

Mach den Versuch mal.
 
...wenn das KB Negativ auf APS-C geschnitten wird.

Nein, genau das ist Unsinn, sinnvoll ist es das gleiche Motiv (gleicher Ausschnitt) vom selben Standpunkt aus aufzunehmen und dann in gleicher Ausgabegröße zu betrachten.

Das entspricht dann auch dem normalen Anwendungsfall, man sieht sich ein Bild ja nicht kleiner an wenn es von einem kleineren Negativ/Dia gemacht wurde, oder schneidet seine größeren Negative/Dias extra kleiner ;)

Das war auch ein Grund warum größere Formate früher im professionellen Bereich bevorzugt wurden wenn Qualität gefragt war, bei einem A3 Scan von einem KB Dia sieht man schon deutlich die Qualitätsunterschiede zu einem gleich großen Scan von größeren Formaten.
 
Das war auch ein Grund warum größere Formate früher im professionellen Bereich bevorzugt wurden wenn Qualität gefragt war, bei einem A3 Scan von einem KB Dia sieht man schon deutlich die Qualitätsunterschiede zu einem gleich großen Scan von größeren Formaten.

Weil ich, beim gleichen Filmmaterial, weniger vergrößern muss und damit natürlich auch das Filmkorn kleiner bleibt. Damit steigt die Auflösung. Denn mit größerem Format wird ja nicht das Filmkorn größer sondern ich bekomme mehr davon, also quasi mehr Megapixel auf A3 bezogen.
Wenn ich aber 20 Megapixel auf A3 bringe, ist die Sensorgröße erstmal egal. Die Bilder werden sich nicht unterscheiden, solange ich mich nicht in extremen Bereichen bewege, wo der Sensor am Limit ist.
 
Zuletzt bearbeitet:
Popcorn Thread....

Von wegen Popcorn :), obwohl ich schon ziemlich lange analog und auch digital fotografiere, habe ich in diesem Thread doch einige interessante Einschätzungen und Erläuterungen gelesen. Aktuell ist die Frage für mich, weil ich ein sehr gutes APS-C-System habe (Fuji), aber manchmal doch daran dachte, den größeren Kleinbildsensor auszuprobieren.
Also hatte ich mir neulich eine Sony a7III gekauft und dachte, ich würde sie auschließlich mit dem 35mm f/2 und dem 55mm f/1.8 benutzen, damit das Ganze kompakt bleibt und die Sache nicht ausufert. Leider (oder muss ich sagen zum Glück?) hatte die gelieferte Kamera einen kleinen Defekt (interne Batterie funktionierte nicht und man konnte das Datum nicht eingeben). Also habe ich sie schon nach zwei Tagen wieder zurückgeschickt. Es soll nun erstmal bei APS-C bleiben. Tatsächlich sieht man den Unterschied in der Bildqualität, wie hier im Thread schon gesagt wurde, nur in Grenzbereichen oder bei bestimmten Motiven (z.B. Portraits). Ich fotografiere allerdings vor allem Menschen (eher Street und Spontanes, nie im Studio) und Landschaft und da spielen die unterschiedlichen Sensorgrößen keine große Rolle bzw. kann der kleinere Sensor neben Nachteilen auch Vorteile haben, wie z.B. größere Schärfentiefe bei Streetaufnahmen. Von den anderen Aspekten (Kompaktheit, Preis usw.) sehe ich mal ab, weil es hier ausschließlich um Sensorgrößen geht.
Ich habe Bilder meiner Fujis auf 120x80cm ausdrucken lassen, und da sieht man bei Bäumen noch jeden kleinen Ast scharf (Objektiv XF14mm). Größer werde ich wohl nie ausdrucken. Trotzdem juckt es mich manchmal auch das andere Sensorformat kennenzulernen, aber nicht um den Preis, den man dafür in der Regel zahlen muss.

Zum Thema Sensorgröße gehört vielleicht auch noch, dass man sogar mit älteren Kameras (Highend-Kompakten mit 1/1.7 Sensor) bei gutem Licht und bestimmten Motiven eine exzellente Bildqualität erzielen kann. Es kann auch Spaß machen, solche Kameras, die man heute gebraucht sehr günstig bekommt (z.B. Nikon P7700/7800, Fujifilm X10 oder Lumix LX7) mal bis an die Grenzen ihrer Möglichkeiten auszuprobieren.

Ihr seht schon, ich rede hier von Fotografie als Hobby und nicht als einem Job, um damit Geld zu verdienen. Daher kann ich die beiden hier im Thread früher schon gemachten Aussagen nur bekräftigen. Ersten: Oft sieht man selbst bei größeren Ausdrucken (etwa in einem DIN-A3 Fotobuch) keinen Unterschied in der Bildqualität und kann nicht sicher beurteilen, ob ein Bild mit großem oder kleinerem Sensor gemacht worden ist. Zweitens: Es geht nicht einfach um "besser" oder "schlechter" beim Vergleich von Sensorgrößen, sondern um das geplante Einsatzgebiet.

Ich habe hier so ausführlich geschrieben, weil ich vermute, dass es sehr vielen Leuten so geht, dass sie ab und zu über den Zaun in andere Gräten schauen und sich überlegen, auf "Vollformat" umzusteigen oder zu erweitern. Natürlich will ich davon auch nicht generell abraten. Nur muss man sich wirklich klar machen, dass es eine Enttäuschung werden könnte, wenn man falsche Erwartungen hat.
Zum Schluss noch etwas. Wenn man noch etwas mehr Bildqualität erreichen will, als man bislang schon hat, kann es auch helfen, anstatt eine Kamera mit größerem Sensor anzuschaffen, vom Zoom auf Festbrennweiten zu wechseln. Manchmal hat das einen deutlich sichtbaren Effekt.
 
Letztendlich ist es ja auch relativ simple Physik, aber manche fühlen sich halt von physikalischen Gesetzen persönlich angegriffen und dann wird es immer etwas schwierig :lol:
 
Zum Schluss noch etwas. Wenn man noch etwas mehr Bildqualität erreichen will, als man bislang schon hat, kann es auch helfen, anstatt eine Kamera mit größerem Sensor anzuschaffen, vom Zoom auf Festbrennweiten zu wechseln. Manchmal hat das einen deutlich sichtbaren Effekt.

Es muss nicht unbedingt eine Festbrennweite sein, es kann auch ein gutes Zoom sein.

Bei mir hat noch nie eine neue Kamera einen WOW-Effekt hervorgerufen, was die Bildqualität angeht.
Es waren immer Objektive, die diesen WOW-Effekt erzeugten.
 
"virtuelle" Sensorgrösse
Mein bisher grösster wow-Effekt bei neuen Kameras war Pentax KP wg pixel shift resolution, leider nur vom Stativ. Die Ergebnisse sind überzeugend. Pentax geht den Weg, die Dateien nicht aufzublähen, die psr-Datei hat die selben 24MP wie die normale Datei, ich finde das seriöser als die eitlen Dateigrössen bei Oly und Pana.
Nun sind Oly und Pana mit OM1 und GH6 vorne, weil psr aus der Hand geht und offensichtlich gut funktioniert. Ich sehe darin die Zukunft, wenn es nicht gerade Sportfotografie ist. mfT profitiert von psr mehr als KB, weil mfT es "nötiger" hat. Es wird nur eine Frage der Zeit sein, wann psr auch in der "Mittelklasse" Einzug hält. Nachfolger von GX9 und G9 sollten diese Technik haben, und dann erübrigt sich für viele Anwendungen das Schielen auf KB. Mit moderner Digitaltechnik werden grössere Formate irgendwann zu Dinos, bis dahin müssen Canikon und Sony noch ganz schnell viele KBs verkaufen...
Mit psr werden die Ergebnisse eines kleineren Sensors in Sachen Schärfe und Rauschen einem grösseren Sensor ebenbürtig. Vom Stativ ist eine APS-C Aufnahme mit psr auf der KP schon heute besser als eine konventionelle 24MP-KB-Aufnahme, da ist jeder eingeladen!
Grüsse aus der Eifel
maro
 
Aber auch nur, wenn a)sich das Motiv vor der Kamera nicht bewegt und b) wenn man nicht bei KB auch einfach die gleiche Anzahl an Aufnahmen macht und verrechnet.

Durch Sensorshift, KI etc. läßt sich aber grundsätzlich sehr viel aus kleinen Sensoren heraus holen, sieht man sehr schön bei den Smartphones, die da sehr überzeugend sind -ä wenn da die ersten Hersteller mutiger werden, dann wird das nochmal ein großer Sprung, vermutlich wird dieser Schritt zuerst bei den kleineren Sensoren kommen, da dort der "Leidensdruck" größer ist...
 
Bei statischen Motiven oder leicht bewegenden Motiven (bei sehr kurzer Belichtungszeit) ist der Sensorshift was Feines. Weniger Rauschen (macht gut zwei Belichtungsstufen aus) und weitaus mehr Details. Einige KB Kameras haben das ja mittlerweile auch.

Ich finde gerade bei Olympus die ganzen integrierten Features Interresant, die ich vorher an meiner Canon EOS R nicht so hatte oder da einfach schlechter funktiert hatten. Die ganzen LIVE-Funktionen oder auch ProCapture sind zum Teil eine Erleichterung bzw. Highlight beim Fotografieren für mich geworden.

Sowas ähnliches wie ProCapture ist jetzt bei Canon mit dem Raw-Burst-Modus bei der R7 und R10 auch dazugekommen. Ich gehe davon aus, dass bzgl. KI und Software in den nächsten Jahren sich noch einiges auf dem Kameramarkt entwickeln wird. Die Smartphones machen es ja vor.
 
" b) wenn man nicht bei KB auch einfach die gleiche Anzahl an Aufnahmen macht und verrechnet."
Wie verrechnet man normale Einzelaufnahmen, ohne dass diese entbayert und interpoliert sind? Mit welchem Programm?
Die Leistung der psr funktioniert m.E. nur, wenn diese beiden Operationen erst später, zum richtigen Zeitpunkt durchgeführt werden.
Mit Stacking kann ich bei mir nicht die Schärfesteigerung bekommen wie durch psr in der Kamera. Im Hochisobereich hilft mir stacking gg das Rauschen, im Niedrigisobereich wird die Schärfe aber nicht besser, eher schlechter.
Moderne Verrechnungen in der G6 sollen in der Lage sein, gewisse "Störungen" durch bewegte Motivteile schlau zu kompensieren, ich konnte das aber nicht ausprobieren, weil ich eine neue Kamera mit psr erst dann kaufen werde, wenn neue Mittelklassemodelle zu anderen Preisen kommen.
 
Wenn ich aber 20 Megapixel auf A3 bringe, ist die Sensorgröße erstmal egal. Die Bilder werden sich nicht unterscheiden, solange ich mich nicht in extremen Bereichen bewege, wo der Sensor am Limit ist.

Ganz genau. Und nicht nur der Sensor ist am Limit, insbesondere ist auch unser Auge (das "Messgerät") am Limit.

Hier wird eigentlich immer wieder die richtige Ursache genannt (Vergrößerung), aber am Ende die falsche Schlussfolgerung (Sensorfläche und Rauschen).

Die Berechnung des SNR wie beschrieben ist nicht "die Theorie", sondern die Physik. Die beiden gleichgroßen Sensoren mit 12MP vs. 36MP haben die gleiche Fläche, aber sie rauschen unterschiedlich. Das ist die Physik.

Und jetzt argumentieren alle mit Vergrößerung (was ja richtig ist), folgern aber daraus, dass der Sensor(!) angeblich nur abhängig von seiner Fläche rauscht. Nein, von der Fläche hängt maßgeblich die Vergrößerung ab, um ein standardisiertes Ausgabeformat zu bekommen und unserem Auge wird geholfen, Fehler einfacher zu erkennen. Aber das ändert doch nichts am Sensorrauschen, der Sensor ist der Sensor und sein Rauschen ist sein Rauschen. Egal was für einen Abzug ich nachher davon mache.

Wenn wir bessere Augen hätten und beliebig präzise Ausgabemedien, würden wir den (bislang nur meßbaren) Unterschied auch sehen. Das ist doch selbstverständlich. Nur weil wir schlecht sehen, scheinen die Fotos gleich zu rauschen.

Das ist das gleiche Vorgehen wie bei der Spinne, die angeblich mit den Beinen hört (der schlechte Witz unter Physikern). Stellt man die Spinne auf einen Tisch und brüllt sie an, rennt sie weg. Schneidet man ihr die Beine ab, brüllt sie wieder an, bleibt sie stehen. Ergo hört die Spinne mit den Beinen.

Das ist so die Argumentation hier, dass nur die Fläche des Sensor sein Rauschen bestimmt.
 
" b) wenn man nicht bei KB auch einfach die gleiche Anzahl an Aufnahmen macht und verrechnet."
Wie verrechnet man normale Einzelaufnahmen, ohne dass diese entbayert und interpoliert sind? Mit welchem Programm?

Leg einfach mal mehrere identische Einzelaufnahmen übereinander und du wirst feststellen, dass das Rauschen nochmals deutlich reduziert wird

@Ramram67: Du verrennst dich da - die Vergrößerung ergibt sich ganz einfach von Ausgabegröße/Sensorfläche, absolut korrekt - aber das Rauschen je Flächeneinheit ist auch weitgehend identisch, die Unterschiede treten nur auf, wenn man stärker vergrößert (36 vs 12 MP in 100% Ansicht)
 
Genau das hatte ich geschrieben: stacking reduziert Rauschen, im Hochisobereich sogar sehr gut. Aber stacking verbessert bei mir keine Auflösung beii Niedrigiso, also für max Auflösung.
 
Ja, die Auflösung ändert sich dadurch nicht, absolut korrekt, da müsste man dann ein Panorama machen etc. Sensorshift ist toll, aber halt keine Allroundlösung sondern nur in speziellen Fällen wirklich sinnvoll
 
Nein, genau das ist Unsinn, sinnvoll ist es das gleiche Motiv (gleicher Ausschnitt) vom selben Standpunkt aus aufzunehmen und dann in gleicher Ausgabegröße zu betrachten.
....

Natürlich ist das sinnvoll- sonst würde es die großen Filmformate nicht geben. Das ist praxisrelevant, da mehr Korn auf dem Ausschnitt zur Verfügung steht, von der kleineren einsetzbaren Verschlußzeit bei gleicher ISO ganz zu Schweigen. Damit hast Du natürlich Recht.

Hier ging es aber um den Direktvergleich des Filmes in Bezug auf Rauschverhalten. Und dafür ist genau diese Vorgehensweise sinnlos, sonst vergleicht man Äpfel mit Birnen.
 
die Unterschiede treten nur auf, wenn man stärker vergrößert (36 vs 12 MP in 100% Ansicht)

Das liegt aber an unseren Augen. Die sind ein schlechtes Meßinstrument.

Die ganzen Videos und Tests gehen (natürlich) von der Sichtbarkeit aus. Das macht ja auch Sinn, was ich nicht sehe, interessiert mich ja auch nicht. Aber der Rückschluss ist dennoch falsch, das vermeintlich unterschiedliche (oder auch gleiche, je nach dem) Rauschen erkennen wir nur deshalb, weil es unterschiedlich stark vergrößert wird. Bei besseren Augen und perfekten Ausgabemedien kämen wir zum selben Ergebnis wie die physikalische Auswertung, die dort gleiches oder ungleiches SNR berechnet (je nach Experiment).

Das sichtbare Rauschen an sich ist NICHT das Ergebnis der Vergrößerung, sondern die (für unsere Augen) SICHTBARKEIT ist das Ergebnis der Vergrößerung. Sensorrauschen hat nichts mit der Ausgabevergrößerung zu tun. Und das Rauschen ist da und es ist unveränderlich da. Es ist nur die Frage: können wir es sehen?

Und wenn DXOMark für zwei gleich große Sensoren mit verschiedener Anzahl Pixel physikalisch unterschiedliches Rauschen feststellt, dann ist es auch unterschiedlich. Wir sehen es nur nicht gut genug in der üblichen Vergrößerung. Wenn jemand eine Kinoleinwand ausbelichten würde, dann wäre das "extreme Pixelpeeping" und dann würden wir (wahrscheinlich) einen Unterschied sehen. Es ist ja auch immer noch die Frage, ob wir ÜBERHAUPT so empfindliche Augen haben, das Rauschen zu erfassen, welches sensible Sensoren erfassen. Wir haben da Zahlen bei DXOMark, 2700 ISO und ca. 3700 ISO, aber was bedeutet das für unsere Augen?? Aber die Argumentation ist einfach nicht richtig zu sagen, was ich nicht sehe, ist auch nicht vorhanden. Oder auch anders herum, wenn ich Unterschiede sehe, sind die auch auf dem Sensor schon vorhanden. Das stimmt einfach nicht, die Vergrößerung ist genauso wichtig im Kontext.

Das ist ja quasi die Aussage, es wird einfach behauptet, das Sensorrauschen für die beiden Sensoren müsste gleich sein, weil sie die gleiche Fläche haben. Pixel wären egal. DXOMark misst aber ganz klar nicht den gleichen Wert, der Sensor mit den größeren Pixeln hat einen deutlich besseren SNR - aber ob wir Menschen das sehen, ist eine ganz andere Frage. Und natürlich hängt die Sichtbarkeit vom Grad der Vergrößerung ab.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten