• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2024.
    Thema: "Diagonale"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
WERBUNG

Auflösung, Megapixel und Wiedergabemassstab

Ich habe noch kein praktisches Motiv gehabt, bei dem ich in 100% mehr sehe, neue Details, die ich bei 50% nicht sehe.
Mit einigermaßen guter Optik und Aufnahmetechnik ist das bei jedem Motiv mit feinsten Details der Fall, egal ob Federn, Haare, Fell, etc.
Im angehängten Beispiel ist es ein Schriftzug. Alle Ausschnitte von der selben D500-Rohdatei aus der in der Kamera JPEGs in L (100%) und S (50%) erstellt wurden.
Von links nach rechts: 50% Ansicht aus der Kamera, 50% auf 100% vergrößert, 100% aus der Kamera.

50% hat definitiv weniger Details, siehe z.B. die verschmolzenen Buchstaben welche in 100% noch klar getrennt sind.


Ich träume noch von hexagonalen Pixeln, Fuji hatte das einmal versucht
Meinst Du den SuperCCD? Der hatte oktogonale Pixel, das CFA war eine normale um 45° gedrehte RGBG Bayermatrix. Davon abgewichen ist AFAIR nur der Super CCD EXR welcher zwar weiter oktogonale Pixel hatte aber statt R/S Pixel seines Vorgängers zwei gleich große aneinander in einer gedrehten RRBBGGGG Matrix.
 

Anhänge

sorry, ich hatte das falsch in Erinnerung, Fuji hatte den Super CCD mit oktagonalen Pixeln. Ich erinnere mich an eine Grafik mit hexagonalen Pixeln, aber nicht alles was gedruckt wird stimmt. Hexagonale Pixel interessieren mich weiterhin.
Damit gibt es auch die Möglichkeit, 6 Pixel zusammenzuschalten ohne Ungereimtheiten in der Auflösung X zu Y zu bekommen.
 
Von links nach rechts: 50% Ansicht aus der Kamera, 50% auf 100% vergrößert, 100% aus der Kamera.

??

Auf was beziehen sich die Prozentwerte? Bis dato war damit doch immer die Monitorauflösung gemeint: 100% bedeutet 1 Monitorpixel = 1 Bildpixel. Aber das bedeutet natürlich, dass die effektive Auflösung der Monitorauflösung entspricht. Die wir für Deinen Monitor hier natürlich nicht beurteilen können.

Worauf beziehen sich Deine Prozentangaben?
 
Bis dato war damit doch immer die Monitorauflösung gemeint: 100% bedeutet 1 Monitorpixel = 1 Bildpixel.
Genau das ist es hier ebenso. 1 Pixel Eingabe = 1 Pixel Ausgabe.
50% bedeutet die Halbe Größe dessen, 2x2 Pixel Eingabe = 1 Pixel Ausgabe.

Meine Monitorauflösung hat damit nichts zu tun. 1 Pixel im Bild wird (ohne Skalierung der Anzeigesoftware) stets 1 Pixel am Bildschirm des Betrachters, völlig egal ob der nun vor einer alten SVGA Röhre oder einem high-DPI 4K Panel sitzt.

Nochmal im Detail von links nach rechts:
50% aus der Kamera: Das entspricht 2x2 Pixel der Eingabe (in dem Fall Sensor der Kamera) auf 1x1 Pixel in der Ausgabedatei. In diesem Fall einer 10MP Datei von einem 20MP Sensor. Die Verkleinerung wurde dabei durch den RAW-Konverter in der Kamera vorgenommen und entspricht damit ziemlich exakt dem was die Aufnahme in JPEG mit halber Auflösung ergäbe von welcher der TE Behauptet dass sie nicht weniger Details enthält als eine Aufnahme in voller Sensorauflösung.

50% aus der Kamera in PS in seinen Dimensionen verdoppelt, damit entspricht nun rein bezüglich der Größe 1 Pixel Eingabe einem Pixel Ausgabe. 10MP JPEG von einem 20MP Sensor auf 20MP vergrößert. Würde die Behauptung des TE zutreffen dass die Ausgabe der vollen Sensorauflösung keinen Detailgewinn zur Ausgabe auf halber Sensorauflösung bringt dürfte sich das Bild kaum vom nächsten Unterscheiden, nämlich der

100% aus der Kamera. 1 Pixel der Eingabe entspricht 1 Pixel in der Ausgabe. 20MP JPEG von einem 20MP Sensor in 1:1 Ansicht.


Ein schwerer Fehler ist mir allerdings unterlaufen, in der Eile habe ich vergessen in dem Post zu schreiben dass das angehängte Bild zur besseren Sichtbarkeit des Unterschiedes in Länge und Breite auf 200% vergrößert wurde. Das hätte nicht passieren dürfen, sorry.
 
...
50% aus der Kamera: Das entspricht 2x2 Pixel der Eingabe (in dem Fall Sensor der Kamera) auf 1x1 Pixel in der Ausgabedatei....
Nach Adam Riese wären es übrigens 25%. Und von einem "20MP"-Bild würden ganze 5MP verbleiben, keine "10MP". Naja, wer braucht/beherrscht heute schon noch sowas wie Prozentrechnung.
 
Nach Adam Riese wären es übrigens 25%. Und von einem "20MP"-Bild würden ganze 5MP verbleiben, keine "10MP". Naja, wer braucht/beherrscht heute schon noch sowas wie Prozentrechnung.

Das mit der Prozentrechnung stimmt so nur, wenn man die absolute Zahl an Pixel als Auflösung definiert. Dann hat ein 20MPix Bild natürlich die vierfache Auflösung eines 5 MPix Bildes. Das ist aber leider eine ungeschickte Definition von "Bildauflösung". Weil eben diese so definierte Auflösung quadratisch zur Pixelzahl pro mm Sensor wächst - und man mit einer doppelten so definierten Auflösung eben nicht doppelt so viele Details sehen kann, für doppelt so viele sichtbare Details braucht man hier schon die vierfache Auflösung. Weswegen man Kameras mit z.B. 2,5 Mpix, Kameras mit 4 MPix, Kameras mit 24 Mpix und Kameras mit 34 Mpix hinsichtlich der möglichen abbildbaren Details nicht einfach direkt vergleichen kann ohne bisschen zu rechnen. Selbst bei identischen Seitenverhältnissen. Noch komplizierter wird es dann, wenn die Kameras noch verschiedene Seitenverhältnisse haben. du kannst z.B. einen 24mm hohen Sensor bauen mit 3000x4000px, aber auch einen 24mm hohen mit 2000x6000px. Die haben dann beide 12Mpix. Aber der mit 3000x4000px wird eben mehr Details zeigen können als der mit 2000x6000px, weil letzterer größere Pixel haben wird.

Wenn man dagegen die Anzahl der Linien (oder Linienpaare) pro Bildhöhe bzw. Linien (oder Linienpaare) pro mm Sensorhöhe als Auflösung eines optischen Systems definiert, dann kann man die abbildbaren Details eines Sensors oder eines Objektivs auch direkt vergleichen. Da hat dann ein 24mm hohes Bild auf dem Sensor mit 1000 Linienpaaren/Bildhöhe (also mit z.B. 2000x3000px) eben nur 50% der Auflösung eines Bildes mit 2000 lp/bh (mit 4000x6000 px). Und statt Details mit 6 µm im 2000lp/bh Bild kann das 1000 lp/bh Bild eben nur 12µm feine Details noch sauber abbilden. Doppelt so große Details als Limit = 50% Auflösung.
 
Diese Betrachtungsweise ist durchaus nachvollziehbar. Dennoch stimme ich Henry06 zu, dass in dieser Aussage ein Denkfehler unterlaufen ist:
50% aus der Kamera: Das entspricht 2x2 Pixel der Eingabe (in dem Fall Sensor der Kamera) auf 1x1 Pixel in der Ausgabedatei. In diesem Fall einer 10MP Datei von einem 20MP Sensor.
Hier sind ja konkret die Megapixel (10 MP gegenüber 20 MP) genannt. In dem beschriebenen Zusammenhang müssten es aber 5 MP ggü. 20 MP sein. Oder habe ich es falsch verstanden?
 
Diese Betrachtungsweise ist durchaus nachvollziehbar. Dennoch stimme ich Henry06 zu, dass in dieser Aussage ein Denkfehler unterlaufen ist:

Hier sind ja konkret die Megapixel (10 MP gegenüber 20 MP) genannt. In dem beschriebenen Zusammenhang müssten es aber 5 MP ggü. 20 MP sein. Oder habe ich es falsch verstanden?

Die MPix sind falsch angegeben, ja.
Doppelte Auflösung = 4 mal so viele Megapixel bzw. 4 mal so große Bilddateien.
 
Hier sind ja konkret die Megapixel (10 MP gegenüber 20 MP) genannt. In dem beschriebenen Zusammenhang müssten es aber 5 MP ggü. 20 MP sein. Oder habe ich es falsch verstanden?
Nein, richtig verstanden, mein Fehler, es müssen natürlich 5MP sein. 50% Reduktion der Kantenlängen führt logischerweise zu Viertelung der Bildpunkte. Das "50%" Bild hat die halben Seitenlängen der vollen Auflösung von 5568x3712 und damit 2784x1856 Pixel bzw. ca. 5MP.
 
Meine Monitorauflösung hat damit nichts zu tun.

Die "Auflösung" nicht (wenn man damit die reine Pixelmenge meint), aber selbstverständlich die Pixeldichte des Ausgabemediums. Und die ist natürlich vollkommen unterschiedlich bei alten VGA-Röhren oder eben bei neuen 8k-Monitoren. Deswegen ist es überhaupt ganz und gar nicht egal, ob man einen alten VGA Monitor vor sich hat oder ein hochauflösendes 8k Display.

Deswegen ist die reine Prozentangabe komplett sinnfrei. Die resultierenden DPI und die dafür notwendige Vergrößerung entscheidet darüber, was unser Auge sieht. Und nicht so ein Unsinn wie "50%". Wenn Du das nicht verstehst, hast Du ein massives Verständnisproblem.

Ein Foto in 100% betrachtet auf einem alten VGA Monitor ist im Endeffekt gigantisch viel größer als auf einem 8k Monitor in 100%. Auf dem VGA Monitor wird man im Zweifel nur einen kleinen Ausschnitt sehen.
 
Hier geht es aber um die Auflösung des Kamerasensors... der macht eben bei der D500 einmal "L" jpeg-Bilder mit 100% Auflösung in 5568x3712 und dann 1856lp/bh. Und im Modus "S" macht er jpeg mit 50% Auflösung, er spuckt dann ein Bild mit 2784x1856 aus, also mit 928 lp/bh aus. Und die "100%" und "50%" Auflösung hier im Thread beziehen sich immer nur auf den Sensor bzw. das jpeg, das mit ihm erzeugt wird. Nicht auf den Monitor.

Dieses Bild kann man ja dann klar je nach Betrachtersoftware und Monitor wirklich beliebig darstellen, wie immer du magst und Lust hast. Also z.b. auf einem alten VGA-Monitor mit 640x480 durch vieeel scrollen, auf einer 4k Videoleinwand mit 10cm großen Pixeln auf einer Hauswand aus 1m Entfernung, per Hubkran betrachtet. oder auf einem 4K 32" Grafik-Monitor mit 800% Vergrößerung oder wie auch immer. Es wird aber immer nur entweder das jpeg mit 100% Auflösung sein oder das mit 50% Auflösung - Sensorauflösung.
Edit: Selbst für den Browser kann man die Bilder in der relativen Größe anpassen... entweder über den html-code usw., über den die dargestellten Bildgrößen festgelegt werden - oder eben über irgendwelche Addons, die eben die Bilder beliebig verkleinern oder vergrößern können.
 
Zuletzt bearbeitet:
Und nicht so ein Unsinn wie "50%". Wenn Du das nicht verstehst, hast Du ein massives Verständnisproblem.
Schon wieder diese despektierliche Art, jemand anderem ein Verständnisproblem unterzujubeln.
Deswegen ist es überhaupt ganz und gar nicht egal, ob man einen alten VGA Monitor vor sich hat oder ein hochauflösendes 8k Display.
Doch, für den Urheber des Bildes ist das egal.

Die Prozentangabe gibt Auskunft darüber, wie das hier gezeigte Bild erzeugt ist. Bei 50% wurde es skaliert, bei 100% ausschließlich gecroppt.

Das Bild entsprechend zu betrachten ist Sache jedes Einzelnen.
 
Hier geht es aber um die Auflösung des Kamerasensors...

Nein, Daniel spricht ganz klar von der Ausgabe:

Genau das ist es hier ebenso. 1 Pixel Eingabe = 1 Pixel Ausgabe.
50% bedeutet die Halbe Größe dessen, 2x2 Pixel Eingabe = 1 Pixel Ausgabe.

Und als Ausgabe ist Monitor die Vorgabe.

D.h. die Prozentwerte (nach denen ich gefragt habe) beziehen sich auf die Umrechnung zwischen Eingabe und Ausgabe (s.o.) und genau dann spielt die Auflösung des Monitor (nicht die Anzahl Pixel, sondern die Pixeldichte dpi) eine ganz erhebliche Rolle. Ein sog. 100% Bild ist auf einem alten VGA Monitor mit 72dpi in der Ansicht ganz erheblich größer als auf einem modernen Monitor mit beispelsweise 180dpi.
 
bei 100% ausschließlich gecroppt.

Nein, hast Du falsch verstanden.

100% bedeutet hier (Daniel formuliert es auch explzit noch einmal so), ein Bildpixel ist gleich ein Monitorpixel. Das ist der allgemeine Konsens, wenn man von einer 100% Ansicht spricht.

Ob gecroppt wird oder nicht, das hängt davon ab, ob das Bild an sich mehr oder weniger Pixel als der gesamte Monitor hat. Ohne weitere Angabe über das Bild und den Monitor ist keine Aussage möglich. Ein Bild mit 1200x800 Pixeln beispielsweise wird in der 100% Ansicht auf einem FullHD Monitor (1920x1080) keinesfalls gecroppt, sondern nur einen Teil des Monitors ausfüllen.
 
Nein, hast Du falsch verstanden.

Nö, hab ich nicht.
in #21 hat Daniel seine Vorgensweise genau beschrieben und dazu noch die verschieden Auflösungen in ein einziges Bild gepackt.

Die Monitorauflösung hast du hineingebracht, dabei können die Differenzen, die gezeigt werden sollen, unabhängig von der Monitorauflösung gesehen werden.
Es muss nur eben eine gewählt werden, die dafür praktikabel ist.
 
Nein, Daniel spricht ganz klar von der Ausgabe:



Und als Ausgabe ist Monitor die Vorgabe.

Du hast dich da in eine Sackgasse verrannt mit dem Monitor.

Zitat:
"Genau das ist es hier ebenso. 1 Pixel Eingabe = 1 Pixel Ausgabe.
50% bedeutet die Halbe Größe dessen, 2x2 Pixel Eingabe = 1 Pixel Ausgabe.

Meine Monitorauflösung hat damit nichts zu tun. (...)

Nochmal im Detail von links nach rechts:
50% aus der Kamera: Das entspricht 2x2 Pixel der Eingabe (in dem Fall Sensor der Kamera) auf 1x1 Pixel in der Ausgabedatei."


Und nein, dass ein "100% Crop" = 1 Pixel auf dem Monitor entspricht, das ist nicht Konsens. Weiß ja keiner was du für einen Monitor hast. Eventuell hast du ja einen 8K Monitor, den du aber nicht mit 8K, sondern nur mit 4K oder FullHD oder wie auch immer betreibst. Du nutzt eine ganz krumme Auflösung auf einem exotischen Bildschirm, der dann dafür noch mal das Bild der GPU skaliert. Es ist nur in den meisten Fällen eben üblich sich das Bild der GPU so darstellen zu lassen, dass 1 Pixel aus der GPU eben auch 1 Pixel auf dem Monitor entspricht. Oder allenfalls noch als 2x2 Pixel.

Konsens ist deswegen nur, dass ein 100% Crop eben ein Ausschnitt aus dem Bild ist, bei dem die originale Bitmap (also die Rastergrafik, nicht das Dateiformat...) erhalten bleibt. Wo also nichts neu skaliert und berechnet wurde. Während z.B. bei einem 400% Ausschnitt die originale Bitmap dann verändert wurde (wie auch immer umgerechnet). Hier werden eben aus einem Pixel der originalen Bilddatei eben 15 neue Pixel der größeren Bitmap neu konstruiert, 1 Pixel wird dann z.B. zu einem großen 4x4 Pixel, wenn man mit der Pixelwiederholung arbeitet.


Also quasi das Gegenteil von dem, was dann passiert, wenn man das 100% Bild aus dem Sensor mit 50% Auflösung in eine Bitmap schreibt. Da macht dann die Engine der Kamera eben aus 2x2 Pixeln der Bitmap aus dem Sensor ein Pixel der Bitmap, die dann als jpeg gespeichert wird.
 
Weiß ja keiner was du für einen Monitor hast. Eventuell hast du ja einen 8K Monitor, den du aber nicht mit 8K, sondern nur mit 4K oder FullHD oder wie auch immer betreibst.
Skalierung habe ich expizit ausgeschlossen, d.h. dem 8K Monitor wird auch native Auflösung zugeführt. 100% Ansicht = 1 Bildpixel zu einem Monitorpixel.

Deswegen ist die reine Prozentangabe komplett sinnfrei. Die resultierenden DPI und die dafür notwendige Vergrößerung entscheidet darüber, was unser Auge sieht. Und nicht so ein Unsinn wie "50%". Wenn Du das nicht verstehst, hast Du ein massives Verständnisproblem.
Du hast wortwörtlich in meinem zitierten #23 von "Monitorauflösung" geschrieben, von Pixeldichte war dort kein Wort. Ohne Skalierung entspricht heute die effektive Auflösung so gut wie immer der nativen Panelauflösung und damit ein Pixel im Bild einem am Monitor.

Für die initial vom TE getroffene Aussage dass JPEG aus der Kamera mit 50% Kantenlänge keine Details über jene in nativer Sensordimension enthalten ist das sowieso von keiner Relevanz da die Thematik im Grunde rein aufnahmeseitig zu betrachten ist.


Und nein, dass ein "100% Crop" = 1 Pixel auf dem Monitor entspricht, das ist nicht Konsens. Weiß ja keiner was du für einen Monitor hast. Eventuell hast du ja einen 8K Monitor, den du aber nicht mit 8K, sondern nur mit 4K oder FullHD oder wie auch immer betreibst. Du nutzt eine ganz krumme Auflösung auf einem exotischen Bildschirm, der dann dafür noch mal das Bild der GPU skaliert.
Dass keine Skalierung stattfindet erwähnte ich expizit, damit wird dem 8K Monitor ein Bild in dessen nativer Auflösung zugeführt wodurch stets ein Bildpixel einem Monitorpixel entspricht.
 
Und nein, dass ein "100% Crop" = 1 Pixel auf dem Monitor entspricht, das ist nicht Konsens.

Wir sprechen hier NICHT von einem "Crop", sondern von einer 100% "Ansicht". Und da ist selbstverständlich der Konsens (inkl. Daniels Ausführungen), dass 1 Bildpixel = 1 Monitorpixel ist. IrfanView zeigt es sogar auch im Kopf an. Mit Crop hat das gar nichts zu tun. Es geht um die Frage, worauf die 100% sich beziehen (genau das hatte ich gefragt) und Daniel stellt ganz eindeutig klar, dass er die Ausgabe meint und insbesondere die Tatsache, dass 1 Bildpixel gleich einem 1 Monitorpixel ist. Von Crop steht da gar nichts.

Konsens ist deswegen nur, dass ein 100% Crop eben ein Ausschnitt aus dem Bild ist, bei dem die originale Bitmap (also die Rastergrafik, nicht das Dateiformat...) erhalten bleibt.

Exakt. Also ist 1 Monitorpixel = 1 Bildpixel. Es wird nichts skaliert, jeder Pixel des Bilds wird mit einem Pixel des Monitors dargestellt. Wie gesagt, vergiss "Crop". Es geht generell um die Anzeige von Bilddaten in sog. 100% Ansicht. Hier nochmal Daniels Bestätigung:

"Genau das ist es hier ebenso. 1 Pixel Eingabe = 1 Pixel Ausgabe.
50% bedeutet die Halbe Größe dessen, 2x2 Pixel Eingabe = 1 Pixel Ausgabe."

Das ist absolut eindeutig, Daniel spricht von der 100% Ansicht. Nicht vom Crop.

Wo also nichts neu skaliert und berechnet wurde.

Genau da kommst Du ins schleudern. Es wird nicht "skaliert" im Sinne von Pixelumrechnungen - die Anzeigegröße (um die es letztendlich geht), die hängt ausschließlich(!) von der Pixeldichte des Monitors ab. Und insofern wird aber die Anzeigegröße "skaliert". Ein Monitor mit geringer dpi (typischerweise alte Röhrenmonitore) zeigen den gleichen Bildausschnitt erheblich größer an als ein hochauflösender Monitor mit 200dpi oder sogar mehr.

Während z.B. bei einem 400% Ausschnitt die originale Bitmap dann verändert wurde (wie auch immer umgerechnet). Hier werden eben aus einem Pixel der originalen Bilddatei eben 15 neue Pixel der größeren Bitmap neu konstruiert, 1 Pixel wird dann z.B. zu einem großen 4x4 Pixel, wenn man mit der Pixelwiederholung arbeitet.

Ja, das ist wieder richtig, eine 400% Ansicht (einen "400% Ausschnitt" gibt es nicht, was soll das sein??) hat die 16-fache Pixelmenge in der Ausgabe. Ob dafür nur ein Bildausschnitt (Crop) angezeigt wird oder das ganze Bild (sog. "Fullscreen" Ansicht) oder sogar das ganze Bild nicht einmal den Monitor ausfüllt, das wiederum hängt davon ab, wieviele Pixel die 400% letztendlich bedeuten und viele Pixel der Monitor insgesamt besitzt.

Im Gegensatz zu den ganzen 100%, 200% usw. Ansichten gibt es dann auch noch (s.o.) die sog. "Fullscreen" Ansicht. Da wird die Ausgabe exakt so (auch wieder in Prozenten) umgerechnet, dass die resultierende Pixelzahl exakt der Pixelzahl des Monitors entspricht. Welche Prozentzahl das letztendlich ist, damit ein Bild genau den Monitor ausfüllt, hängt von der Anzahl Bildpixel und Anzahl Monitorpixel ab. Auch da leistet IrfanView einfache Hilfe, da braucht man einfach nur die Taste "F" zu drücken (Fullscreen) und das Foto füllt den Monitor aus. Im Gegensatz dazu drückt man die Taste "1" (1 Bildpixel = 1 Monitorpixel) für die 100% Ansicht. Die kann gecropped sein, muss es aber nicht, hängt eben auch von den vorhandenen Bildpixeln und den Monitorpixeln ab.

Letztendlich bedeutet es in der Praxis, dass die physikalische Anzeigegröße bei 100% von der Pixeldichte des Monitors abhängig ist. Je geringer die Pixeldichte, umso GRÖSSER wird das resultierende Bild angezeigt, resp. umso eher wird nur ein Crop angezeigt (weil einfach nicht mehr passt).

Insgesamt habe ich das Gefühl, dass Du entweder auch bemerkt hast, dass Du Dich vertan hast und jetzt mit Krampf versuchst, auf "Crop" umzustellen (was aber im Kontext gar keinen Sinn ergibt), oder Du hast wirklich irgendetwas ganz schrecklich falsch verstanden. Die hier verwendeten 100%, 50%, 400% usw. beziehen sich definiiv auf die Monitorausgabe und die dafür notwendige Umrechnung der Pixelmengen. Sie beziehen sich an keiner Stelle auf die Größe eines Ausschnitts (= Crop), was ja insbesondere für Werte über 100% auch nicht den geringsten Sinn ergibt. Man kann nicht etwas ausschneiden und erhält einen Ausschnitt mit 400% des Bildes.
 
Zuletzt bearbeitet:
Und die "100%" und "50%" Auflösung hier im Thread beziehen sich immer nur auf den Sensor bzw. das jpeg, das mit ihm erzeugt wird. Nicht auf den Monitor.

Genau anders herum. Die hier insbesondere genannten 300% und 400% beziehen sich auf die Monitorausgabe.

Aber ich habe jetzt gefunden, wo der Thread auseinanderläuft, im Beitrag #05. Silvestri bezieht sich auf die Vorgaben des TOs und "amüsiert" sich über dessen 400%-Ansichten. Die sind selbstverständlich auf die Ausgabe am Monitor bezogen.

Daniel greift das in #05 auf und die Diskussion verlagert sich u.a. auf Werte unter 100% - und Daniel meint an der Stelle wahrscheinlich wirklich eine Skalierung des Bilds in Photoshop o.ä.. Leider schreibt er nachher aber wieder, dass er 1 Pixel Eingabe = 1 Pixel Ausgabe meint (das ist dann wieder die Monitorausgabe und nicht Photoshop).

Die Skalierung des Bildes sagt an sich aber noch nichts darüber aus, wie man das Bild nachher betrachtet, denn auch das auf 50% skalierte Bild kann man nachher in der 400% Ansicht stark vergrößert anschauen (wodurch dann der durch die Skalierung erzeugte Detailverlust ggf. erkennbar wird). Oder stattdessen kann man die auf 50% skalierten Bilder wieder auf 100% hochskalieren (dann haben sie wieder so viele Pixel wie vorher, die Details bleiben aber verloren) und dann mit dem ursprünglichen Bild vergleichen, welches nicht herunter- und wieder heraufskaliert wurde. Exakt das macht Daniel in seinen Beispielausschnitten 2 und 3. Das ist nur nicht das, was Silvestri meinte. Deswegen habe ich gefragt, wie denn die Prozentangaben nun gemeint sind.
 
WERBUNG
Zurück
Oben Unten