• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Auflösung, Megapixel und Wiedergabemassstab

Silvestri

Themenersteller
Ich möchte ganz vorsichtig einen konservativen Standpunkt der Qualität von Digitalfotos nach Bayer-Art zur Diskussion stellen.
Die Industrie verkauft mir eine Kamera mit einem 24MP Bildsensor, habe ich eine Auflösung, die 24 MP entspricht?
Es gibt 24 Mio Flecken auf dem Sensor, es gibt aber nur 6 Mio Einheiten von R-G-B-G.
Ein Viererpack des Bayerpatterns R-G-B-G ist für mich die Keimzelle des Bildes, und davon hat der Sensor 6 Mio, das hört sich schlecht / wenig an.
Besonders im Verkaufsprospekt sieht das nicht gut aus.
Also geht die Industrie hin und schummelt. Sie möchte mir eine Auflösung von 24 MP verkaufen. An einer Stelle, an der keine Rotinformation vorliegt, fragt die Kamerasoftware: wie hat die Rotinformation in der Umgebung ausgesehen? Es gibt 4 Nachbarn, dann wird gemittelt, Interpolation heisst das Zauberwort, und der Klecks, der niemmals eine Rotinformation bekommen hat, bekommt einen Rotwert zugeordnet.
Ich weiss, wie das verrechnete Bild danach aussieht.
Digitalbilder schaue ich mir in genau 50% an, um die Qualität zu beurteilen, der Rest ist Lug und Trug, Ausnahme Foveon und Pixelshift wie z.B. bei Pentax, nicht aufgeblähte Pixelshift-Dateien, wo dann jeder Flecken eine ehrliche physikalische RGB Information hat.
Wenn ich Aussagen höre, wie etwas bei 200, 300, 400% aussieht, freue ich mich über kostenfreien Humor.
Ich kaufe Digitalkameras auch danach, wie gut die kleiner gerechneten jpgs gemacht sind, die liegen fast immer noch über der 50% Marke. Meine bisherigen Erfahrungen sind:
- Pentax K5, original 16 MP, auf der 6 MP Darstellung fehlt kein Detail
- Samsung NX30, original 20 MP, auf der 10 MP Darstellung fehlt kein Detail
- Pana GX9, original 20MP, auf der 10 MP Darstellung fehlt kein Detail
- Samsung NX10, original 14MP, auf der 6 MP Darstellung sehen die Details besser aus als auf 14MP, das sieht nach ungünstiger jpg-Verrechnung der 14MP aus oder nach optimierten jpgs bei 6MP.
Das alles verwundert mich gar nicht, weil die 100% Darstellung eines Bayer-Bildes grundsätzlich etwas hohl ist. Foveon und Pixelhift sind ausgenommen.
Es ist ein wenig wie in der Automobilbranche: alle sagen, die neue Normierung nach MKSA-System ist gut und sinnvoll, aber die PS-Zahl ist höher als die KW-Zahl, also machen wir mit PS für das Prospekt weiter. Es lebe der Megapixelrausch, egal wie die Bilder aussehen.
Eine NX300 hat eine höhere effektive Auflösung als eine NX500, kann ich jedem zeigen, aber 28 MP ist mehr als 20MP, liest sich besser. Warum hat sich der 28MP-Sensor nicht durchgesetzt?
Ich bin Techniker und überprüfe meine Ergenisse ohne Vorbehalte, komme aber immer wieder zu dem Ergebnis: schaut Euch Bayer-Bilder bei 50% Wiedergabegrösse an und vergesst den Rest. Tatsächliche Auflösung ist etwas Anderes als die Detailuntreue in 100%.
Grüsse aus der Eifel
maro
 
Nach einer alten Faustregel bleiben nach dem Demosaicing 75% der Ausgangsauflösung übrig. Bei einem 24MPix-Sensor sind das noch 13,5MPix. Bei monochromen Motiven - also den üblichen Testcharts- braucht man allerdings gar kein Demosaicing. Schlaue Konverter scheinen das zu merken und können für diese Bereiche höhere Auflösungen liefern. Läuft unter Ai.

Die prinzipielle Frage: Gibts an schrägen Linien "Jaggies" (2x2-Blockartefakte)? Dann bleiben von 24MPix noch bestenfalls 6MPix übrig. Nach meiner Erfahrung gibts nur wenige Algorithmen, die solche Artefakte vermeiden. Was von der Auflösung deiner Cam übrig bleibt, ist also ein weites Feld.
 
So richtig neu ist die Erkenntnis nicht. Ken Rockwell hat schon vor zwanzig Jahren empfohlen, für die JPEG-Ausgabe an Kameras immer die nächstkleinere Stufe unter der vollen Sensorauflösung einzustellen, weil man dadurch Speicherplatz spart und es vom Detailreichtum her praktisch nichts ausmacht.
Der klassische Bayer-Sensor gängiger Kameras ist da noch ein harmloses Beispiel. Schlimmer ist, was heute als Handykamera-Sensoren alles beworben wird (z. B. angebliche 108 Megapixel – nur weil die 12 Mio Bayer-Pixel sich nochmal jeweils in eine 3x3-Matrix aufteilen lassen).

Ich denke mal, die Technikfreaks unter den Fotografen sind sich der Zusammenhänge rund um Bayer-Sensoren ständig bewusst. Die rechnen auch gar nicht damit, eine perfekte Schärfe auf Pixelebene zu kriegen, sondern arbeiten (in den wenigen Anwendungsbereichen, wo es drauf ankommt) mit gewissen Qualitätsfaktoren.
Den eher untechnischen Fotografen sind die Daten sowieso egal, solange das Ergebnis ihren Ansprüchen entspricht.
Und dass Hersteller in ihrer Werbung tricksen bzw. unehrlich mit den technischen Daten umgehen, um die Produkte besser aussehen zu lassen, erleben wir ja auf vielen Ebenen. Da könnte man eine ganze Liste aufstellen.
 
Die Frage ist eben, was man haben möchte. Und was man als "Pixelmaß" der Kamera sieht - entweder den physikalischen Sensor oder aber das Bild, das aus diesem Sensor dann raus kommt am Ende. Letzteres sehen die Hersteller eben als "Auflösung der Kamera" an. Wenn man eine möglichst exakte physikalische Abbildung der auf dem Sensor eingetroffenen Photonen haben möchte, dann stimmt aber diese Betrachtung über den Bayer-Sensor. Und eine 24MP-Kamera hat in der Tat eigentlich nur 13Mpix Auflösung.

Aber die Kamera bildet ja eben nicht die Bilder ab, wie sie mit dem Bayer-Sensor gesehen werden. Sie interpretiert vielmehr diese gemessenen Daten des Sensors, verrechnet diese intern und und interpoliert die Pixel so, dass jedes Pixel einen "plausiblen" RGB-Wert hat. Und damit kriegst du mit einer "24MP" Kamera ohne AA-Filter und mit einem hinreichend guten Objektiv eben Bilder als Ausgabe, die dann auch feinste Details Pixelgenau zeigen. Das ist so natürlich aber nicht ein direkt ein physikalisches Abbild der realen Szenerie. Man kann es nicht direkt vergleichen mit einem Chemiefilm-Bild, bei dem jede Stelle des Filmes jede mögliche Farbe annehmen kann, je nach Photonen-Energie/Frequenz, die auf diese Stelle trifft. Das digitale Bild aus der Kamera ist eigentlich nur ein erfundenes Bild. Und für die radikalen Fotopuristen natürlich nur Lug und Trug des Kamera-Herstellers. Aber die Kamera (oder der RAW-Converter) und eventuell Lightroom und Photoshop machen daraus dann durchaus noch ein Bild, das wie gesagt eine auf 1px "saubere" Darstellung mit z.B. 6000x4000px ist. Und das entspricht so relativ genau dem, was das menschliche Auge bei dieser Szene so empfinden wird. Auch wenn dann da im Bild so manch ein Pixel ein "erfundenes rot" hat.

Von daher kann man mit einem entsprechenden Objektiv und der entsprechenden Kamera durchaus "pixelgenau" arbeiten mit 24MP. Und dort dann zwar nicht unbedingt "mehr Details einfangen" als bei einer Einstellung der Kamera auf die nächstkleinere Stufe der Sensorauflösung. Aber man sieht am Ende durch die Interpolation und vor allem durch die Interpretation des Algorithmus eben mehr feine Details im resultierenden Bild als z.B. mit der Einstellung auf die nächst kleinere Sensorauflösung.

Ist eben immer die Frage was man da haben möchte. Ein möglichst "reines" Bild der Realität in einer dafür etwas geringeren Auflösung - oder ein möglichst detailreiches, schön oder gut wirkendes Bild, bei dem dann ein paar kleinste Details im Bild dann etwas statistisch geraten sind.
 
An einer Stelle, an der keine Rotinformation vorliegt, fragt die Kamerasoftware: wie hat die Rotinformation in der Umgebung ausgesehen? Es gibt 4 Nachbarn, dann wird gemittelt, Interpolation heisst das Zauberwort, und der Klecks, der niemmals eine Rotinformation bekommen hat, bekommt einen Rotwert zugeordnet.
Da, abgesehen von ein paar monochromen Varianten, alle Sensoren in aktuellen DSLR/M CFA mit signifikanter Überlappung aufweisen ist die Vorstellung der strikt getrennten RGB Empfindlichkeiten und keinerlei Information einer bestimmten Farbe in den Pixeln mit anderem Farbfilter nicht zutreffend. Um bei Rot zu bleiben so gelangt ein Teil des Lichtes zwischen 600-750nm durch die G und B Filter.



Wenn ich Aussagen höre, wie etwas bei 200, 300, 400% aussieht, freue ich mich über kostenfreien Humor.
Wenn ich Aussagen höre, wie Alles über 50% ist Lug und Betrug, freue ich mich über kostenfreien Humor.

schaut Euch Bayer-Bilder bei 50% Wiedergabegrösse an und vergesst den Rest. Tatsächliche Auflösung ist etwas Anderes als die Detailuntreue in 100%.
Wenn alles Über 50% nur Lug, Trug und Schrott sei, müsste Deiner Meinung nach ein Bild welches 100%->50%->100% skaliert wurde, abgesehen von minimalen Interpolationsverlusten, keinen Detailverlust im Vergleich zum Original aufweisen?
 
Ich habe noch kein praktisches Motiv gehabt, bei dem ich in 100% mehr sehe, neue Details, die ich bei 50% nicht sehe. Ich sehe alles nur grösser.
Aber das kann ja jeder für sich selbst entscheiden bzw herausfinden.
 
Viel wichtiger als zigmal durchgekautes Pixeldedöns sind gute Motive und was man daraus gemacht. Aber genau das kann keine Fotoindustrie der Welt einem verkaufen.
 
Man kann oder sollte zweierlei unterscheiden:
- Aufnahme mit voller Kameraauflösung, danach Vergleich von 100% zu 50% Ansicht
- Aufnahmen mit reduzierter jpg-Auflösung in der Kamera und deren Vergleich
Eine Reduzierung in der Wiedergabe auf 50% ist im Allgemeinen ein No-Brainer, da kann der Rechner nicht viel falsch machen. Anders sieht das aus, wenn 49% oder 51% Wiedergabe eingegeben wird, da sieht man schon Qualitätsunterschiede, denn dafür muss richtig gerechnet werden, bei kleinen Dateien fällt das scheller auf.
Eine Reduziering der Kamera-jpgs ist da schon kniffliger, meistens sind es keine "glatten" Reduzierungen. Meine KP bietet 24, 14 und 6 MP. Reduzierung auf 6MP ist eine glatte Rechnung, auf 14MP nicht. Die 14MP Reduzierung holt nicht das maximal Mögliche heraus, da wird ungünstig gerechnet.
Meine GX9 rechnet von 20MP auf 10MP optimal runter, ohne realen Verlust an Details, nur die Vergrösserung sinkt.
Eine alte NX10 macht noch erstaunlichere Sachen: die Reduzierung auf 6MP zeigt schärfere Deatails als die originalen 14MP, ich hatte es nicht geglaubt, mehrmals überprüft, es ist so. Da mache ich mir Gedanken und komme zu dem Schluss, es könnte an der Rauschunterdrückung liegen. Im Menu kann ich die generelle Entrauschung für normale Aufnahmen nicht abgestuft einstellen. Was die Kamera intern macht, ist aber etwas Anderes, ob die 6MP Datei geringer entrauscht wird oder bei gleicher Einstellung intelligenter nachschärft als die 14MP-Datei, das Ergebnis ist frappierend. Zwischen plumpem Nachschärfen und raffiniertem Nachschärfen liegen Welten, und ohne Nachschärfung kann ich mir kein einziges Digitalbild ansehen.
Ich möchte NoNo und beiti ausdrücklich zustimmen. Ich mache solche Teste nicht als Selbstzweck, sondern um unbeschwert möglichst viele Bilder, am liebsten gute, zu machen. Deshalb stelle ich die jpg-Auflösung kontrolliert herunter, mache im Urlaub auf einer mittelgrossen schnellen Karte viele Einzelbelichtungen und habe keine Detailverluste.
Ich hatte ein einziges interessantes Lernbeispiel: Auf einer Ardennenreise habe ich die NX500 mitgenommen und durchweg raw fotografiert. Nach 2/3 des Urlaubes war die Karte voll und zu Hause bemerkte ich, dass die Aufnahmen nicht so scharf waren, wie ich es gewohnt war. Danach habe ich wieder NX300 auf 10MP benutzt oder NX10 auf 6MP, da kann ich aufnehmen, bis der Arzt kommt. Es geht mir nicht um grosse Bilder, sondern um Qualität im Detail, da hilft die reine MP-Zahl nicht immer. Natürlich ist meine KP "schärfer" als meine K100.
Ich träume noch von hexagonalen Pixeln, Fuji hatte das einmal versucht, weil dann nur 3 Pixel in B,G,R die kleinste Einheit bilden, das Grün nicht doppelt besetzt ist. Das KÖNNTE höhere praktische Auflösung ergeben.
Aber das ist dann wirklich leicht praxisfremd, diese Systeme kann ich im Consumerbereich ja nicht kaufen?
allzeit schön detailreiche Bilder wünscht
maro
 
...
Eine NX300 hat eine höhere effektive Auflösung als eine NX500, kann ich jedem zeigen, ...
Weder das Studio-Shot-Comparison Tool, siehe
https://www.dpreview.com/reviews/image-comparison nx300 vs nx500

noch die Messdaten vom PC-Magazin, Zitat
"Samsung NX300 ... Grenzauflösung ... bei ISO 100 knapp über 1.700 LP/BH",
"Bei ISO 100 erzielt die NX500 eine sehr hohe Grenzauflösung von 2032 und 1861 LP/BH"


…können deine Meinung bestätigen.
 
Grundsätzlich: Die maximal mögliche Auflösung erhält man generell nur, wenn sehr sorgfältig gearbeitet wird und gute Objektive sinnvoll verwendet werden - dann sieht man auch Unterschiede zwischen 100% und 50%... wenn man nicht sorgfältig arbeitet (ode es nicht kann) usw. hat man nie die volle Auflösung und entsprechend geringer werden dann die Unterschiede zwischen 100% und 50%

Wie die Hersteller die Auflöung verkaufen, ist mir herzlich egal
 
Hallo Henry 06,
Tester benutzen Kameras im Default-Modus.
Ich schaue sorgfältig danach, welche Einstellung aus der jeweiligen Kamera das Maximum holen und dann vergleiche ich erst.
Ein Ergebnis, welches ich selbst erarbeitet habe, mit Wiederholungen abgesichert, ist mir aussagekräftiger als Teste von Dritten, die sich weniger Zeit nehmen, das Optimum zu finden.
Ich habe es in meiner Vergangenheit erlebt, erst nach Jahren noch einen Winkel in der Kamera zu finden, in dem mehr geht.
Ich kenne die Vorliebe der Hersteller, die Grundeinstellungen der Schärfe moderat vorzunehmen, da sonst die Rauschwerte schlechter werden, das sind halt Prioritäten. Teste aus Magazinen nehme ich nur als groben Anhalt, den Rest muss ich selber sehen.
Grüsse aus der Eifel
maro
 
Das ist doch nur wieder so eine überflüssige Diskussion um Themen, wo jeder einzelne eine andere Meinung hat und das zu recht, weil dem einen Dinge Spass machen, die jemand anderes als Schwachsinn ansieht.

Ich habe mal gelesen und auch nachvollziehen können, dass ein perfekt normalsichtiger Mensch aus dem typischen 43mm KB-äquivalenten Betrachtungsabstand ungefähr das Äquivalent von 6-8 MPx sehen kann.

D.h. selbst wenn jemand eine KB-Kamera mit nur 12-16 MPx nutzt und wegen diverser handwerklichen Fehlleistungen (oder mangelnder Tele-Objektive) nachher 50% wegcroppt oder entsprechend 2x reinzoomt am Bildschirm (und somit natürlich auch mit Dynamik und Rauschverhalten von APSC statt KB zufrieden ist), ist das Ergebnis immer noch perfekt knackig auflösend.

Da es heute eigentlich keine aktuelle Kamera mehr gibt, die nicht mindestens 20 MPx bietet, ist mein Fazit, dass heutzutage jede Diskussion um Auflösung lachhaftes Nerd-Gelaber ist, ohne Relevanz für die Fotografie und Foto-Qualität.

Die Amis haben das passende Wort "Measurbating" für solche Diskussionen. ;)
 
Hallo Henry 06,
Tester benutzen Kameras im Default-Modus.
Ich schaue sorgfältig danach, welche Einstellung aus der jeweiligen Kamera das Maximum holen und dann vergleiche ich erst.

Und dann gelingt es dir nicht die Unterschiede zwischen der 100% Ansicht und der 50% Ansicht zu erkennen? Und default oder was auch immer, letztlich macht es ja Sinn für sowas die raws zu verwenden und dann ist es schlicht egal
 
Hallo Maro

" Es gibt 24 Mio Flecken auf dem Sensor, es gibt aber nur 6 Mio Einheiten von R-G-B-G.
Ein Viererpack des Bayerpatterns R-G-B-G ist für mich die Keimzelle des Bildes, und davon hat der Sensor 6 Mio, das hört sich schlecht / wenig an."

Wird zur Berechnung eines Bildpunktes das Viererpack nur um 1 Pixel verschoben, dies sowohl waagrecht wie senkrecht und nicht nur ein Bayerpattern R-G-G-B, sondern in den ungeraden Zeilen auch ein Bayerpattern G-R-B-G berechnet und für die zweite Reihe von Bildpunkten (gerade Zeilen) G-B-R-G und B-G-G-R, dann erhält man für das Bild 24 Mio Bildpunkte.

Wie das nun tatsächlich ist, kann von Kamera zu Kamera unterschiedlich sein, jedoch kann man davon ausgehen, dass aus 24 Mio Flecken auf dem Sensor, auch 24 Mio Bildpunkte berechnet werden.

Kurt
 
Hallo Kurt,
die psr war für mich auch ein Grund, eine KP zu kaufen. Für Landschaftsaufnahmen mit Stativ sind die Ergebnisse erstklassig. Besonders mag ich es, dass Pentax die Datei bei 24MP belässt, das sind dann "echte" 24MP, nichts interpoliert, und man sieht den Unterschied sofort, das kann man sich mit Freude in 100% ansehen.
Wirklich brauchen, auch verkaufen konnte ich das bisher nicht, weil die potentiellen Abnehmer generell zu kniestig sind, für gute Bilder etwas zu bezahlen, selbst wenn es nur Bier, Kaffee, Bratwurst als Naturalvergütung in einem Ausflugslokal an einem Panoramapunkt wären.
Für Prints oder Monitor brauche ich diese Auflösung nicht, das ist etwas für Wanddrucke. Früher habe ich für die Denkmalpflege Kulturobjekte dokumentiert, da hätte ich psr super gebrauchen können, doch das lief noch alles analog, digital war da noch nicht so weit.
Was ich persönlich weniger mag ist die Methode von Oly und Pana, die psr-Dateien erheblich grösser auszugeben. Ob meine Vermutung richtig ist, wer weiss, aber ich denke im Datenblatt wünschen sich die Hersteller / Marketingstrategen nominelle Auflösungen wie die einer KB, das muss jeder selber wissen.
Da ich viele fast statische Motive habe, ist ein zusammengesetztes Panorama aus 3 bis 6 Aufnahmen i.d.R. der günstigere Weg, an mehr faktische Auflösung zu kommen, so sie denn nötig sei.
Grüsse aus der Eifel
maro
 
Zuletzt bearbeitet:
Was ich persönlich weniger mag ist die Methode von Oly und Pana, die psr-Dateien erheblich grösser auszugeben. Ob meine Vermutung richtig ist, wer weiss, aber ich denke im Datenblatt wünschen sich die Hersteller / Marketingstrategen nominelle Auflösungen wie die einer KB, das muss jeder selber wissen.
Bei Panasonic läuft das so: Die Kamera macht 8 Auslösungen und baut daraus ein neues Bild in vierfacher Auflösung – also doppelte Pixelbreite und doppelte Pixelhöhe. Für vollständige RGB-Daten jedes Einzelpixels reicht es allerdings nicht.
Der Ansatz von Panasonic ist, am Ende nicht nur ein JPEG sondern auch wieder eine Rohdatei auszugeben, die ein Quasi-Bayer-Muster enthält. Das erleichtert das Weiterverarbeiten in herkömmlichen Rohkonvertern, die mit Foveon-mäßigen Bildinformationen vielleicht überfordert wären. Aber natürlich hat das Bild, obwohl insgesamt sichtbar detailschärfer, auf Pixelebene dann wieder die Schärfenachteile aller Bayer-Bilder.
Einen Modus, der anhand von vier Einzelbildern die vollständige RGB-Information für jeden Pixel herstellt und dafür die Auflösung bestehen lässt, bietet Panasonic m. W. nicht an.

Falls man beide möglichen Vorteile kombinieren möchte, also sowohl die vierfache Auflösung als auch die vollständige RGB-Information pro Pixel, muss man auf Sony und deren 16-Einzelbilder-Modus zurückgreifen. Dann leider nur mit Verrechnung in spezieller Software, nicht direkt in der Kamera. Und die Software gibt dann bestenfalls ein TIFF aus und kein Rohformat mehr.
 
Grundsätzlich: Die maximal mögliche Auflösung erhält man generell nur, wenn sehr sorgfältig gearbeitet wird und gute Objektive sinnvoll verwendet werden - dann sieht man auch Unterschiede zwischen 100% und 50%...

Mein Testbild (Bild 1: Übersicht) habe ich formatfüllend mit der Sony A7R2 (42 MP) mit den Einstellungen
11 MP
18 MP
42 MP.
aufgenommen. Bilder 2 bis 4 sind Ausschnitte in 100% Größe.
Bild 5 ist ein Ausschnitt (100%) aus einem als Panorama zusammengefügten Bild der Testvorlage.

Anhand der Wetterkarte auf der Briefmarke kann ich deutliche Unterschiede erkennen.
 

Anhänge

Zuletzt bearbeitet:
Nur mal als Beispiel welche Details mit einem guten Objektiv (Nikon AF-S 70-200/2.8 VRII) und einer 24MP Kamera ohne AA-Filter raus kommen können, trotz Bayerpattern. (Nikon D7200). Aufgenommen als jpeg "Standard", Fine, L (6000x4000px) mit 200mm und f/5.6 aus ca. 3,20m Entfernung und mit ISO100 und 1/6s vom Stativ. (Wegen der Größenverhältnisse: Das "K" auf dem Geldschein ist im Original 6mm breit)

Einmal als 100% Crop:
L_100Prozent.png

und dann in 400%, vergrößert in PS mit Pixelwiederholung, damit man die einzelnen Pixel im Original sieht:
L_400Prozent.png

besser vergrößert in PS kriegt man sogar dieses Ergebnis bei 400%:
L_400Prozet_opt.png

Das ist dann z.B. eine Basis, die man für eine große Ausbelichtung nutzen könnte. Das würde so hoch skaliert locker auch für eine große Wandtapete reichen, weil aus den 24Mpix der Kamera durch das Skalieren dann 384Mpix geworden sind. (Und mit ein bisschen Nachbearbeitung und Entwicklung aus dem RAW könnte man hier wohl noch deutlich mehr Qualität raus holen, das ist ja einfach nur ein jpeg OOC)

Hier dazu dann der 100% crop aus dem jpeg in "S" (50% Auflösung, 2992x2000px):
S_100Prozent.png

Und das ganze dann mit 400%, damit man die Pixel sieht:
S_400Prozent.png

Insgesamt sieht man hier sehr gut, dass das Objektiv ausreichend Auflösung liefert um das Bild wirklich "Pixelgenau" auf den Sensor abzubilden. Und dass das Fotografieren mit reduzierter jpeg-Auflösung wegen des Bayer-Patterns an dieser Kamera bisschen quatsch ist. Mit einer reduzierten jpeg-Auflösung sieht man da dann nämlich die meisten der feinen Details gar nicht mehr, weil die eben schon im großen 24MPix jepg nur 1 Pixel breit sind. Und auch mit Bayer-Pattern kriegt man wirklich 24MPix-Bilder aus der D7200.

Nur sind eben manche Pixel dann statistisch berechnet, nicht gemessen.
 
Zuletzt bearbeitet:
Nur dass man einen Vergleich hat: Mit dem Makro in 1:1 fotografiert schaut der LKW nebenbei so aus

makro.jpg

Die anderen Bilder sind aber mit 200mm aus 3,20m Entfernung entstanden um die Auflösung des Sensors komplett auszureizen. Geht mit dem alten Makro leider nicht so ganz, das erreicht natürlich zwar 1:1, aber hat deutlich weniger Auflösung als das 70-200/2.8 VRII (mit seinen über 2000lp/bh). Und kann dann damit den Sensor der D7200 damit nicht "pixelgenau" ausreizen.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten