• In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2025.
    Thema: "Plastik (Kunststoff)"

    Nur noch bis zum 30.04.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Crop verstehen

Das mit dem Crop kann man ganz einfach an Nikon F Kameras erklären:
Bei Nikon haben DX (Crop 1.5, ca. 16mm x 24mm Sensor) und FX (Vollformat/Kleinbild, 24x36mm Sensor) nämlich identische Bajonette und auch das gleiche Auflagemaß. Und man kann an den (allermeisten.. manche passen elektrisch/mechanisch leider nicht) F Kameras sowohl DX als auch FX Objektive verwenden. Und der FX Sensor ist quasi nur ein DX-Sensor mit noch mehr Sensor-Pixeln drum herum. Hier haben dann auch die Vollformat/FX-Objektive lediglich einen größeren Bildkreis,der sauber abgebildet wird,sie können damit die ganze Vollformat-Diagonale (43,2mm) sauber abdecken, die DX Objektive bilden nur die DX-Diagonale (28,8mm) sauber ab. Man kann also nur einen Teil auf dem FX Sensor sauber abbilden, die Bereiche um die "DX-Mitte" herum werden teilweise etwas zu dunkel abgebildet, manchmal sind sie auch komplett verschattet. Und auch die Abbildungsqualität (Verzeichnung/Bildfehler) ist dort eventuell deutlich schlechter. (weswegen die Kameras auch automatisch auf nur den kleinen inneren Sensor-Bereich umschalten können, wenn sie ein DX Objektiv erkennen).

Wenn wir also z.B. eine 24Mpix Vollformat-Kamera wie die D750 nehmen, dann kann man da ein FX 50mm Objektiv verwenden, das dann den vollen Sensor abdeckt. Und am Ende kriegt man ein Bild mit 6000x4000px = 24 Mpix und einem Bildwinkel von ca 46°. Stellt man f/2.0 ein und fokussiert auf 1m, dann hat man einen Scharfbereich von ca. 4cm, von 0.98m bis 1.02m ist alles scharf. Aus diesem FX Bild kann man nun einfach ein DX/Crop Bild machen indem man den Rand entsprechend beschneidet, so dass nur noch die inneren 24x16mm des Sensors genutzt werden. Anschließend wird das Bild wieder auf die gleiche Ausgabegröße gebracht, z.B. als 20x30cm großes Bild, das man sich dann anschaut. Die Brennweite ist dann weiterhin 50mm, es ist ja das gleiche Objektiv. Auch am Scharfbereich ändert sich hier nichts, es ist weiterhin alles von 0.98m bis 1.02m scharf - an der Objektiveinstellung hat sich ja nichts verändert. Es ist immer noch das genau gleiche Bild, das durch das Objektiv auf den Sensor projiziert wurde.

Was sich geändert hat, das ist aber ganz deutlich sichtbar der Bildwinkel, der nun zu sehen ist. Das sind nun keine 46° mehr - man sieht jetzt nur noch ca 31° Bildwinkel - und das Bild wirkt nun, als hätte man statt des 50mm Objektivs mit f/2.0 ein 75mm mit etwa f/4.0 an der Vollformat-Kamera verwendet. Was sich allerdings auch geändert hat, das ist die Auflösung des Bildes - da man die äußeren Pixel abgeschnitten hat, hat man jetzt keine 6000x 4000 = 24Mpix mehr, sondern nur noch 3936 x 2624 = 10,3 Mpix. Statt der D750 kann man aber auch die D7200, eine 24Mpix-Cropkamera verwenden mit dem 50mm Objektiv, das man auf 1m bei f/2.0 scharf stellt. Dann würde man wieder exakt den selben Bildeindruck bekommen, alles zwischen 0.98m und 1.02m ist wieder scharf. Und der einzige Unterschied sind die kleineren Pixel der D7200, so dass man hier wieder ein 6000x4000= 24Mpix Bild bekommt. Man kann auch die D850 nehmen, eine Vollformatkamera mit 45,7 Mpix. Wenn man hier das 50mm Objektiv mit genau diesen Einstellungen dran schraubt und nur den inneren Bereich verwendet (und den Sensorbereich drum herum einfach weg schneidet), dann kriegt man natürlich genau so wieder den genau gleichen Bildeindruck, was Winkel und schärfentiefe an geht, aber durch die höhere Pixeldichte der D850 hier ein Bild mit 5408 x 3600 = 19,4 Mpix.

Die Brennweite und der Schärfeeindruck ändert sich hier also nicht durch das Beschneiden - aber der Bildwinkel und die Auflösung des Bildes.
Will man aber nun die 46° Bildwinkel an der Cropkamera haben und den gleichen Schärfeeindruck wie am Vollformat mit 50mm/2.0, dann geht das mit dem 50mm Objektiv natürlich nicht. Hier braucht man dann 33mm Brennweite für diesen Bildwinkel. Was am Vollformat schon ein Weitwinkelobjektiv wäre. Und will man noch die 4cm Tiefenschärfe auf 1m Entfernung haben, dann muss man hier auf f/1.8 gehen wegen der kürzeren Brennweite. Denn bei f/2.0 hätte man hier schon wieder etwas mehr Scharfbereich. Ein Objektiv mit 33mm und f/1.8 an einer 24Mpix DX/Crop-Kamera entspricht also einem 50mm /2.0 an einer 24Mpix Vollformat-Kamera. Und wenn man gute Objektive hat, dann sieht man den Unterschied allenfalls noch am etwas stärkeren Rauschen der Cropkamera bei wenig Licht durch ihre kleineren Pixel, die entsprechend weniger Photonen auswerten können bei der Belichtung.


Was die Crop-Reserven an geht und die benötigte Auflösung/Reserven:
Kommt darauf an für was man das Bild macht. Sollen das nur Bilder für den Monitor oder eine Diashow am FullHD TV werden, dann kann man hier recht stark croppen - hier reichen 2Mpix schon aus. Und man kann extrem Croppen
Mit 8Mpix kann man locker Bilder bis A4 mit 300dpi Drucken/belichten, also so hoch auflösend, dass man quasi mit der Nase am Bild selbiges anschauen kann. Genau wie für ein großes Bild mit 40x60cm mit 150dpi, das man dann aus einer Armlänge Entfernung anschaut. Für 80cm x 120cm sollte man eher an 24+ MPix denken, besser 30+MPix. Und für eine Fototapete mit 2x2,5m und 72dpi Druck sollte man schon ein 40+ MPix Bild haben. Für einen 150dpi Druck sogar ein 175+ MPix Bild...
 
Ergänzung:

Natürlich kann man hier auch Vollformat mit µFT vergleichen, nicht nur mit Nikon DX, nur hat man hier eben keinen 1.5 Faktor, sondern Faktor 2.

Wenn man hier eine Vollformat-Kamera mit einem 50mm Objektiv her nimmt und den Bereich außen weg schneidet, um auf den kleinen, nur noch 17.3 x 13mm großen µFT Bereich zu kommen dann hat man hier entsprechend bei einer 24Mpix Vollformatkamera mit 6000px/36mm auf 4000px/24mm und damit 167 px/mm eben nur noch 2889 x 2171 ca 6,3 MPixel, die man verwenden kann.
Reicht aber immer noch für ein Bild, das man am Ende in z.B. 20x30cm bzw. A4 ausdrucken/belichten lassen will.

Allerdings hat man hier dann schon einen recht kleinen Bildwinkel, ca. 24°. das ist schon deutlich im Telebereich. Und wenn man hier dann den Eindruck einer "Normalbrennweite" mit 46° Bildwinkel erreichen will, dann braucht man schon ein 25mm Ultraweitwinkel Objektiv an der Vollformatkamera. Wobei man den Eindruck von 50mm/1.4 am Vollformat gar nicht hin kriegen kann. Hier bräuchte man schon ein 25/0.7 Objektiv, das aber keiner baut. Umgekehrt kann man aber am Vollformat einfach auf 50mm/4.0 gehen - und sieht dann keinen großen Unterschied zu einem µFT Bild mit 25mm/1.8.
 
Zuletzt bearbeitet:
Wenn wir also z.B. eine 24Mpix Vollformat-Kamera wie die D750 nehmen, dann kann man da ein FX 50mm Objektiv verwenden, das dann den vollen Sensor abdeckt. Und am Ende kriegt man ein Bild mit 6000x4000px = 24 Mpix und einem Bildwinkel von ca 46°. Stellt man f/2.0 ein und fokussiert auf 1m, dann hat man einen Scharfbereich von ca. 4cm, von 0.98m bis 1.02m ist alles scharf. Aus diesem FX Bild kann man nun einfach ein DX/Crop Bild machen indem man den Rand entsprechend beschneidet, so dass nur noch die inneren 24x16mm des Sensors genutzt werden. Anschließend wird das Bild wieder auf die gleiche Ausgabegröße gebracht, z.B. als 20x30cm großes Bild, das man sich dann anschaut. Die Brennweite ist dann weiterhin 50mm, es ist ja das gleiche Objektiv. Auch am Scharfbereich ändert sich hier nichts, es ist weiterhin alles von 0.98m bis 1.02m scharf - an der Objektiveinstellung hat sich ja nichts verändert. Es ist immer noch das genau gleiche Bild, das durch das Objektiv auf den Sensor projiziert wurde.

Die Aussage ist leider falsch, das DX Bild in der gleichen Ausgabegröße hat eine geringe Schärfentiefe
 
Sowas wie Schärfentiefe gibt es ja, streng genommen, gar nicht. Man nimmt nur zulässige Zerstreuungskreisdurchmesser an. Wie groß der Zerstreuungskreis sein darf, kann man unterschiedlich definieren, z. B. bezogen auf die Pixeldichte des Sensors oder auch auf die später gewünschte Ausgabeauflösung (wenn ich z. B. weiß, dass die Bilder später nur in 900 x 600 Pixel auf einer Website landen, kann ich den zulässigen Zerstreuungskreis relativ groß wählen). Aber in beiden Fällen muss man die Sensorgröße berücksichtigen, weil ja Bilder aus einem kleineren Sensor für dieselbe Ausgabegröße stärker vergrößert werden. Was für kleinere Sensoren gilt, gilt auch fürs Croppen. Von daher darf man für ein gecropptes Bild nicht einfach dieselbe Schärfentiefe annehmen wie für das volle Bild.
 
Wenn wir also z.B. eine 24Mpix Vollformat-Kamera wie die D750 nehmen, dann kann man da ein FX 50mm Objektiv verwenden, das dann den vollen Sensor abdeckt. Und am Ende kriegt man ein Bild mit 6000x4000px = 24 Mpix und einem Bildwinkel von ca 46°. Stellt man f/2.0 ein und fokussiert auf 1m, dann hat man einen Scharfbereich von ca. 4cm, von 0.98m bis 1.02m ist alles scharf. Aus diesem FX Bild kann man nun einfach ein DX/Crop Bild machen indem man den Rand entsprechend beschneidet, so dass nur noch die inneren 24x16mm des Sensors genutzt werden. Anschließend wird das Bild wieder auf die gleiche Ausgabegröße gebracht, z.B. als 20x30cm großes Bild, das man sich dann anschaut. Die Brennweite ist dann weiterhin 50mm, es ist ja das gleiche Objektiv. Auch am Scharfbereich ändert sich hier nichts, es ist weiterhin alles von 0.98m bis 1.02m scharf - an der Objektiveinstellung hat sich ja nichts verändert. Es ist immer noch das genau gleiche Bild, das durch das Objektiv auf den Sensor projiziert wurde.
Da muss ich Borgefjell zustimmen.

Erklärung:
Wie du schreibst werden beide Bilder für den Vergleich richtigerweise auf die selbe Ausgabegröße gebracht - dabei muss jedoch das DX-Bild stärker vergrößert werden. Das hat zur Folge dass Bildteile knapp vor/hinter der Fokusebene welche auf dem KB-Bild noch als "scharf" wahrgenommen wurden es bei DX nun nicht mehr ganz sind -> die Schärfentiefe wird weniger.

Oder nimm einen Schärfentieferechner (um etwaige Rundungsfehler wegen der geringen Schärfentiefe von +/- 2 cm auszuschließen mit einer kleineren Blende, oder größerer Entfernung): bei DX weniger Schärfentiefe.

Oder intuitiv unwissenschaftlich, auf Art einer Eselsbrücke: 50 mm sind an KB normal, an Crop aber Tele: weniger Schärfentiefe.
 
[...] dabei muss jedoch das DX-Bild stärker vergrößert werden. Das hat zur Folge dass Bildteile knapp vor/hinter der Fokusebene welche auf dem KB-Bild noch als "scharf" wahrgenommen wurden es bei DX nun nicht mehr ganz sind -> die Schärfentiefe wird weniger.

Die Schärfentiefe bezieht sich stets auf den Film bzw. den Sensor. Beim Vergrößern ändert sich die Tiefenschärfe nicht.

Was sich ändert ist der Bildeindruck, weshalb klein dargestellte Bilder i.d.R. stärker nachgeschärft werden als griß dargestellte.
 
Doch, sie ändert sich - Erklärungen siehrle oben, z. B. auch von beiti.
Wäre es nicht so dann hätte ja eine bestimmte Kombination aus Brennweite, Blende und Entfernung überall dieselbe Schärfentiefe, egal ob 1/3"-Sensor oder Mittelformat, was definitiv nicht der Fall ist.

Die Schärfentiefe "bezieht sich nicht auf den Sensor", sondern auf das Betrachten des fertigen Bildes: sie ist dahingehend definiert was das menschliche Auge beim Betrachten noch als akzeptabel scharf sieht, d. h. bei normalem Betrachtungsabstand noch keine störende Unschärfe sichtbar ist. Auf dem Sensor würde man nichts davon erkennen.

PS: Probiere es mit einem Onlinerechner aus. ;)
 
Zuletzt bearbeitet:
[...]
Die Schärfentiefe "bezieht sich nicht auf den Sensor", sondern auf das Betrachten des fertigen Bildes ,[...]
Sorry, lies es gern irgendwo nach. Schärfentiefe bezieht sich stets auf den Senor bzw. den Film

Was Du meinst ist der Bildeindruck des zu betrachtenden Bildes, das i.d.R. vergrößert ist.

Früher waren oft - z.B. bei Kleinbild - Schärfetiefeangaben zur jeweiligen Blende auf den Objektiven. Diese Skalen haben sich nie verändert, egal ob die Ausgabegröße des Bildes 10x15 oder 30x45 sein sollte. :ugly:
 
Zuletzt bearbeitet:
OK, neuer Versuch:

Schärfentiefe ist keine physikalisch zahlenmäßig eindeutig festgelegte Größe, sondern beruht darauf was das menschliche Auge an einem fertigen Bild(!) noch als scharf, d. h. eben noch nicht als unscharf wahrnimmt.
Das hängt nun ab von: Ausgabegröße (logisch), Betrachtungsabstand (ebenfalls logisch), individuellem Sehvermögen, Lichtverhältnissen, und wahrscheinlich noch anderem mehr.

Um diese individuellen Faktoren auszuschließen hat man nun eine "Standard"-Schärfentiefe festgelegt: Man hat herausgefunden dass bei "normalem" Betrachtungsabstand = ca. Bilddiagonale die meisten eine Unschärfe nicht mehr erkennen können wenn sie kleiner als 1/1500 der Bilddiagonale ist.

Und dieser - eigentlich ziemlich willkürlich definierte - maximale Zerstreuungskreis ist die Grundlage für Schärfentieferechner, Schärfentiefeskalen auf Objektiven usw. (Klar, verschiedene Skalen auf Objektiven für unterschiedliche Papierformat wären ja irgendwie unpraktisch...)

Und daraus ergibt sich alles andere:
Z. B. Dass Schärfentiefeskalen auf KB-tauglichen Objektiven genaugenommen auch nur für Aufnahmeformat Kleinbild gelten, dass die Schärfentiefe je nach Aufnahmeformat unterschiedlich ist (auch bei identischer Brennweite!)*, dass jemand je nach eigenem Anspruch auch unterschiedliche/strengere Kriterien für die Schärfentiefe anlegen kann, usw.

*) Onlinerechner schon wie vorgeschlagen bemüht? ;)
 
Früher waren oft - z.B. bei Kleinbild - Schärfetiefeangaben zur jeweiligen Blende auf den Objektiven. Diese Skalen haben sich nie verändert, egal ob die Ausgabegröße des Bildes 10x15 oder 30x45 sein sollte. :ugly:

Ja und die Definition für diese Skalen beruhen auf festgelegter Ausgabegröße und Betrachtungsabstand +angenommener Sehfähigkeit des Betrachters. Sie galten nie universell und alle, die sehr grosse Ausdrucke mit geringem Betrachtungsabstand machten, wussten das oder haben es schnell gemerkt. Du kannst dir deine herablassenden Smileys also sparen :rolleyes:
 
Schärfe ist natürlich immer subjektiv. Aber durch das Vergrößern wird ein Bild nicht unbedingt schärfer.

Hier mal ein Beispiel, gleiche 24Mpix Kamera vom Stativ, gleiches Objektiv (105mm fest, f/3.5), gleicher Abstand zum Fokuspunkt (60cm etwa). Fokussiert wurde auf die 20mm Niete des schräg stehenden Meterstabes. Einmal im Vollformat fotografiert mit resultierenden 6000x4000px nach der Entwicklung, einmal im DX Modus fotografiert, identisch entwickelt und dann mit 3936 x 2624px.

Hier die 100% Crops aus den unskalierten Bildern (Fokuspunkt auf der Niete):
aus dem DX Bild:
100Prozent-Crop.jpg

Aus dem Vollformat Bild:
100Prozent-Vollformat.jpg

Man sieht natürlich keinen echten Unterschied, am DX Bild wurde ja nur außen was weg geschnitten.

Anschließend wurden beide Bilder auf 1200px Seitenlänge Skaliert:

DX Bild:
Crop.jpg

Vollformat:
Vollformat.jpg

Schärfeempfinden ist eben recht subjektiv
 
basierend auf üblichen Betrachtungsgrößen und - abständen.

Und damit ist es eine hilfreiche, willkürliche Normierung, die natürlich im Einzelfall nichts mit der Situation in der Realität zu tun hat.

Bei DINA4 Fotobüchern dürfte z.B. die Tiefenschärfe i.d.R. 2-3x geringer ausfallen, als in der Normangabe. Bei klassischen 10x15cm Fotodrucken eher 3-5x.
Entsprechend geringer auch das Bildrauschen und desto besser die Dynamik.

Umgekehrt leiden Pixelpeeper, die irgendwelche hohen Pixelzahlen "ausnutzen" wollen immer unter hohen Tiefenschärfen und sehr viel schlechterem Rauschen und Dynamik.
Aber dieses Leiden ist wohlverdient. :D

Das lustige ist dabei, dass auch der Betrachter, der 1,5x schlechter sehen kann als sein Nachbar objektiv in seinen APSC-Fotos die exakt gleiche Tiefenschärfe erhält, wie der Nachbar mit seiner klobigen KB-Kamera. :)
Auch das ist Äquivalenz.
 
Nutzt man eine 24MPix Crop-Kamera, dann sieht der 100% Crop natürlich anders aus, die Kamera hat ja viel kleinere Pixel:

DX-100Pirzzent-24Mpix.jpg

Allerdings wird das Bild, wenn man es auf 1200px Seitenlänge skaliert, dann wieder ziemlich ähnlich zum Crop-Bild aus der Vollformat-Kamera:

DX-24-MPix.jpg

Und der vollle Scharfbereich liegt auf der Meterstabskala immer noch recht ähnlich. Diese wird aber bei den 1200px Crop-Bilder eben nur deutlich größer dargestellt als bei den 1200Px Vollformat-Bildern.
 
Zuletzt bearbeitet:
Wir werden uns da nicht einig.
Mir ist durchaus klar was ihr meint. Jedoch habe ich noch in keiner halbwegs wissenschaftlich fundierten Quelle etwas dazu gelesen, dass die Ausgabegröße und der Berachtungsabstand in dif Tiefenschärfebetrachtung eingehen. Da ich aber stets offen für neues bin und ich mich durchaus auch eimal irre, bitte ich ganz lieb um eine Quellenangabe.

Danke :)

Google mal "Zeiss-Formel" und der coc wurde ausgehend von einem 10x8 Inch print mit 10 inch Betrachtungsabstand berechnet.
 
Hier mal ein Beispiel, gleiche 24Mpix Kamera vom Stativ, gleiches Objektiv (105mm fest, f/3.5), gleicher Abstand zum Fokuspunkt (60cm etwa). Fokussiert wurde auf die 20mm Niete des schräg stehenden Meterstabes. Einmal im Vollformat fotografiert mit resultierenden 6000x4000px nach der Entwicklung, einmal im DX Modus fotografiert, identisch entwickelt und dann mit 3936 x 2624px.

Hier die 100% Crops aus den unskalierten Bildern (Fokuspunkt auf der Niete):
aus dem DX Bild:

Man sieht natürlich keinen echten Unterschied, am DX Bild wurde ja nur außen was weg geschnitten.
Mit dieser Methode - 100%-Crops aus Bildern mit unterschiedlicher Pixelzahl - erhältst du in diesem Fall auch identische Ausschnitte. Logischerweise ist dabei kein Unterschied festzustellen.
Schärfentiefe bezieht sich jedoch nicht auf Ausschnittsvergrößerungen (und schon gar nicht wie in diesem Beispiel relativ zur Ursprungsgröße verschieden große), sondern auf das vom Objektiv aufgenommene Gesamtbild.

Etwa hier:
Anschließend wurden beide Bilder auf 1200px Seitenlänge Skaliert:
Wenn ich diese beiden Bilder betrachte, ohne (womöglich noch unterschiedlich stark) hineinzuzoomen, erscheint mir z. B. die 9 von "19" am FX-Bild schärfer als die 9 bei DX. Also weniger Schärfentiefe bei DX.
Der Unterschied ist allerdings bei 2 Sensorformaten mit gerade mal 50% Unterschied nicht so gravierend um auf den ersten Blick augenfällig zu sein - aber er ist vorhanden.

PS: auch hier der Vorschlag mal einen Online-Schärferechner zu konsultieren, z. B. dofmaster.com
 
Zuletzt bearbeitet:
Noch als Ergänzung:
Die beiden Crops aus #34 sind zwar identisch in Bezug auf Pixelanzahl und Bildinhalte, stellen jedoch relativ zur Ursprungsgröße unterschiedliche Ausschnitte dar - 2,7% der Fläche des Ursprungsbildes bei FX, 6,2% beim DX-Beispiel. Somit sind sie zur Beurteilung einer Schärfentiefe des Gesamtbildes nicht mehr tauglich.

Was sie darstellen sind 2x Simulationen eines (quadratischen) Sensors mit einem Cropfaktor von ca. 6,4. Logisch dass beide Simulationen dann auch dieselbe Schärfentiefe zeigen.
Was sie aber zeigen:
Betrachte ich die Bildbeispiele jeweils formatfüllend so geht, basierend auf meinem Betrachtungsabstand und Sehvermögen, die Schärfentiefe beim FX-Gesamtbild von ca. 19 bis mindestens 21 cm, bei den Crops = Cropfaktor 6,4 jedoch nur mehr von ca. 19,8 bis 20,3 cm. Voila, sie ist am kleineren (hier nur simulierten) Sensor deutlich kleiner geworden - trotz identischer Brennweite!
Es besteht dahingehend kein Unterschied ob man einen Ausschnitt wählt oder gleich einen entsprechend kleineren Sensor bei der Aufnahme verwendet hätte.
 
Zuletzt bearbeitet:

Danke für die Mühe :)
Da sehe ich keinen signifikanten Unterschied hinsichtlich des Schärfebereiches.
 
Zuletzt bearbeitet:
Noch als Ergänzung:
Die beiden Crops aus #34 sind zwar identisch in Bezug auf Pixelanzahl und Bildinhalte, stellen jedoch relativ zur Ursprungsgröße unterschiedliche Ausschnitte dar - 2,7% der Fläche des Ursprungsbildes bei FX, 6,2% beim DX-Beispiel. Somit sind sie zur Beurteilung einer Schärfentiefe des Gesamtbildes nicht mehr tauglich.

Was sie darstellen sind 2x Simulationen eines (quadratischen) Sensors mit einem Cropfaktor von ca. 6,4. Logisch dass beide Simulationen dann auch dieselbe Schärfentiefe zeigen.
Was sie aber zeigen:
Betrachte ich die Bildbeispiele jeweils formatfüllend so geht, basierend auf meinem Betrachtungsabstand und Sehvermögen, die Schärfentiefe beim FX-Gesamtbild von ca. 19 bis mindestens 21 cm, bei den Crops = Cropfaktor 6,4 jedoch nur mehr von ca. 19,8 bis 20,3 cm. Voila, sie ist am kleineren (hier nur simulierten) Sensor deutlich kleiner geworden - trotz identischer Brennweite!
Es besteht dahingehend kein Unterschied ob man einen Ausschnitt wählt oder gleich einen entsprechend kleineren Sensor bei der Aufnahme verwendet hätte.


Erst mal:
Ein 100% Bild kommt dann raus, wenn ein Pixel des Bitmap aus dem Sensor auf genau 1 Pixel der Bitmap des fertigen Bildes gemappt wird. Und weil man hier keine 6000x4000px Bilder direkt darstellen kann, schneidet man da eine 800x800px Bitmap als Crop heraus. Das passt dann auch auf den Bildschirm.
Das ist also keine 2x Simlulation und auch kein Cropfaktor 6 oder so was.
Es ist einfach ein 100% Crop. Jedes Pixel des jpg entspricht so genau einem Pixel der Sensor-Bitmap.
Und wie groß das dann dargestellt wird bei der Ausgabe auf dem Monitor (in cm), das hängt dann ab von den ppi,mit denen der Monitor arbeitet. Sind da 96ppi eingestellt, dann wird das Bild eben 21,2cm x 21,2cm groß dargestellt, läuft der Monitor mit 125ppi, dann sind es eben nur 16,25cm x 16,25. Aber in allen Fällen entspricht es der Sensor-Bitmap, bei der noch kein Pixel durch eine Skalierungsoperation verändert wurde.


Der Unterschied im Schärfebereich zwischen DX und FX/Vollformat entsteht tatsächlich nur durch die Unterschiedlich starke Skalierung auf das Augabeformat.
In dem einen Fall wurde das Bild von 6000px auf 1200px Seitenlänge runter gerechnet, also um den Faktor 5 verkleinert. Im anderen Fall von 3936px Seitenlänge auf 1200px, Faktor 3,28. Und durch das unterschiedliche verkleinern wirkt das stärker verkleinerte Bild natürlich etwas schärfer.
 
WERBUNG
Zurück
Oben Unten