• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Mai 2024.
    Thema: "Diagonale"

    Nur noch bis zum 31.05.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Megapixel und Auflösung bzw. Cropmöglichkeit

lufink

Themenersteller
Ich hab da grad einen Knoten im Kopf.

Hier mal Beispiel Nikon.

wenn ich ein Cropbild aus der D700 mit 12Mpixel mache bleiben rund 5Megapixel über.

wenn ich das gleiche Cropbild aus der d3x mit 24Mpixel mache bleiben rund 11Megapixel über.

Soweit klar nur Megapixel ist ja umsonst, da.


Auflösung ist ja irgenwie wichtiger.

So kommt es ja das (jeweils gleiches Objektiv) die

D700 12Mpixel = rund 1250 Linienpaare / Bildhöhe sind oder bei (Photozone eben 2500 Linien)

D3x 24Mpixel = rund 1800 Linienpaare / Bildhöhe also rund 25% mehr.


Auch Logisch, da ja von 6Mpixel auf 24Mpixel erst die Verdoppelung ist.


Also, was ist nun Ausbelichtungstechnisch der Crop aus dem Gesamtbild wert ?

Doppelt soviel, da ja doppelt soviel Pixel 1 ?
25% mehr, da ja nur um soviel die Auflösung zunahm ?


Grüße
 
wie verhält sich die auflösung der bildhöhe und bildseiten zur auflöung in der bildfläche?

wie verhält sich die megapixelzahl, die ja eine zahl der gesamtfläche ist, zur zahl der pixel pro bildhöhe und bildbreite?

ich denke, daß dort die von dir gesuchte antwort liegt.

fläche= länge mal breite ...
 
Also, was ist nun Ausbelichtungstechnisch der Crop aus dem Gesamtbild wert ?
Wenn Du diese Frage stellst, solltest Du nicht nur Pixel zählen. Es gehört mindestens das Objektiv dazu. Der Schwächere von Beiden bestimmt das Auflösungsvermögen.

Dann gehört zur Antwort noch das Motiv. Hochstrukturiertes Stillleben oder Landschaft vom Stativ oder Action auf'm Fußballplatz der Kids.

Dann kommt noch das (Un)vermögen unserer Augen dazu. Betrachtest Du ein Bild mit "normalem" Abstand (d.i. die Bilddiagonale), reichen etwa 3MPixel bei jeder Bildgröße.

Bei mir reichen bis A4 die Pixel der d700 für Crops aller Art. Ich weiger mich aber irgentwie, so klein wie dx zu beschneiden... Besser gleich längere Brennweite montieren.

Gruß, Wolfgang
 
Dazu muss man v.a. sagen, dass die sog. Auflösung von Objektiven eigentlich eine Auflösung bei einem festgelegten Grenzkontrast ist. Objektive haben nämlich keine (endliche) Auflösung, sondern nur Unschärfe.

Ein geringerer pitch verbesser außerdem noch die aliasing-Eigenschaften.

Soweit klar nur Megapixel ist ja umsonst, da.


Auflösung ist ja irgenwie wichtiger.

Das stimmt also nicht.
 
Probiers' doch einfach mal aus. Die 11MPs der D3x-Crops werden nahezu gleichwertig sein wie die 12MPs einer D90 oder D300 mit dem selben Objektiv. Und da wird sich in deinem Bekanntenkreis bestimmt jemand finden lassen, der dir ein Vergleichsfoto machen kann.
 
.... Es gehört mindestens das Objektiv dazu. Der Schwächere von Beiden bestimmt das Auflösungsvermögen.



Gruß, Wolfgang

Beide bestimmen immer, die resultierende Gesamt-MTF der Kamera ist das Produkt von Objektiv-MTF und Sensor-MTF; heißt:

auch ein 4MPix-Sensor profitiert von einer Spitzenoptik und die größte Gurke bringt am 24Mpix-Sensor mehr Auflösung als an 12Mpix.

Gruß messi
 
auch ein 4MPix-Sensor profitiert von einer Spitzenoptik und die größte Gurke bringt am 24Mpix-Sensor mehr Auflösung als an 12Mpix.
Nöö, in dem Beispiel dominiert klar der Schwächere. Profitiert wird durch diesen Effekt nur bei ähnlichem Unvermögen. Hier muss mir keiner glauben, es genügt, die Fehlerfortpflanzung der mathematischen Statistik auszugraben. Die Grenzen von "Dominanz" und "ähnlichem Unvermögen" sind dabei diskutierbar - nicht aber der Effekt.

Gruß, Wolfgang
 
Nöö, in dem Beispiel dominiert klar der Schwächere. Profitiert wird durch diesen Effekt nur bei ähnlichem Unvermögen. Hier muss mir keiner glauben, es genügt, die Fehlerfortpflanzung der mathematischen Statistik auszugraben.

Du kennst das Konzept der Übertragungsfunktionen? In diesem Fall ist es die Hinteereinanderschaltung von wenigstens zweien, nämlich die von Objektiv und Sensor mit AA-Filter. Wenn beide ähnlich aussehen und beide bei der selben Frequenz 0,7 erreichen, haben sie gemeinsam 0,5 und MTF50 ist erreicht, Hat aber z.B. das Objektiv noch fast 1 und der Sensor 0,5, ist's auch passiert. Mit einem höher auflösenden Sensor könnte das Objektiv deutlich mehr erreichen. Und andersrum.


Gruß, Matthias
 
@Wolfgang und Matthias:
Fällt euch gar nicht auf, dass ihr beide im Prinzip das gleiche sagt und meint, aber irgendwie auf Biegen und Brechen aneinander vorbei reden wollt?
 
Fällt euch gar nicht auf, dass ihr beide im Prinzip das gleiche sagt und meint

Jein. Das Thema hatten wir schon öfter und der Unterschied ist: Wenn einer der beiden Einflüsse klar dominiert, kommt natürlich bei beiden Modellen etwa das selbe raus. Interessant wird's, wenn beide etwa gleich gut oder schlecht sind. Dann bestimmt eben nicht mehr der zufällig geringfügig schlechtere allein das Gesamtergebnis, sondern sie tun es gemeinsam. Es ist eben nicht das "schwächste Glied in der Kette", das alles allein bestimmt.



Gruß, Matthias
 
Also, nightshot hat schon Recht. Nur "Biegen und Brechen" findet nicht statt. Matthias Zahlen sind schon gut und fallen bei meiner Katagorisierung unter "ähnlich". Auch der vormals genannte Sensor von 12MP vs 24MP sind sehr ähnlich zueinander - alleine ein Grund, durch Croppen keine großen Unterschiede erkennbar werden zu lassen.

Einig sind wir sicher, dass die "Unvermögen" aus Sensor und Objektiv nach Pythagoras zu addieren sind - sprich die Unvermögen sind ursächlich unabhängig voneinander. Damit "geht" meine Beispielrechnung so:

- Der Sensor setzt den Maßstab - seine Frequenz (Wellenlänge) sei 1.

1. Wir nehmen ein "Gurkenobjektiv" mit Auflösungsfrequenz 0,1 (Wellenlänge 10)
Die Gesamtwellenlänge ist somit
Wurzel ( 1 + 100 ) = 10,nichts
Die zugehörige Frequenz iszt demnach 0,1000 entsprechend dem Unvermögen der Gurke.

2. Das Spitzenobjektiv mit Frequenz 10 erspare ich mir jetzt.

Das ist jetzt karikaturhaft überzeichnet, verdeutlicht den Effekt aber dadurch. In gleicher Weise einzurechnen sind "Fehler" durch die Anwendung Fotografie:
- Actionfotografie (bewegte Motive)
- Verreißen des Fotografen (Dattergreis)
- aber eben auch schwach strukturierte Motive (= niedrige Frequenz)

Nur wenn man alle 3 (vielleicht sind's mehr) negiert und zusammennimmt, sprich: Ich fotografiere Stillleben feinster Struktur vom Stativ, dann nehme man die d3x aber nur mit Superoptik und croppe nicht.

Gruß, Wolfgang
 
Einig sind wir sicher, dass die "Unvermögen" aus Sensor und Objektiv nach Pythagoras zu addieren sind - sprich die Unvermögen sind ursächlich unabhängig voneinander. [...]

Ich wäre noch damit einverstanden, wenn Du die "Größe der Unschärfe" (also etwas wie Zerstreuungskreise oder so) nach Pythagoras addieren würdest. Aber doch nicht die Grenzfrequenzen bzw. -wellenlängen. :eek:



Gruß, Matthias
 
Geht diese ganze Rechnerei nicht eigentlich am Kern der Frage vorbei?

Um den Einfluß der Sensorauflösung auf das Crop-Ergebnis einzuschätzen wäre es doch durchaus sinnvoll, anzunehmen, dass vor beiden Sensoren ein Objektiv hängt, dass auch in der Lage ist, beide qualitativ auszureizen und sie nicht "ausbremst". Alles andere verkompliziert es nur, ohne der Beantwortung der Frage dadurch wirklich näher zu kommen.
 
Geht diese ganze Rechnerei nicht eigentlich am Kern der Frage vorbei?

Diese "Rechnerei" ist nichts anderes, als den selben Sachverhalt exakter auszudrücken. Bloß eben in einer anderen, formalisierten Sprache. Nichts kompliziertes dran, aber dänisch versteht ja auch nicht jeder. :rolleyes:


Gruß, Matthias
 
Ich wäre noch damit einverstanden, wenn Du die "Größe der Unschärfe" (also etwas wie Zerstreuungskreise oder so) nach Pythagoras addieren würdest. Aber doch nicht die Grenzfrequenzen bzw. -wellenlängen. :eek:
Darüber lässt sich sofort diskutieren. Ich wollte das System stark vereinfachen auf das Auflösungsvermögen vom System Objektiv plus Sensor aber bereits ohne AA- und Farbfilter. Die von mir bereits genannten praktischen Dinge (Datterich,...) kann man ebenso einbinden wie die Bildausgabe und Betrachtungsabstand - kein Thema! Dabei kommt dann evtl 'raus, dass das Auflösungsvermögen von Objektiv+Sensor auch bei einer 12 MPx FX Kamera und passendem Objektiv so groß gegenüber der fotopraktischen Ungenauigkeiten ist, dass man Objektiv+Sensor auch außer Acht lassen kann.

Damit wäre der ganze thread reif für die Mülltonne.

Gruß, Wolfgang
 
WERBUNG
Zurück
Oben Unten