• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Nachhilfe beim Verstehen gesucht …

Robert9

Themenersteller
Ein Objektiv x1 soll an der Naheinstellunfsgrenze einen Abbildungsmaßstab von 1:1 haben. Bei 36x24 mm dürfte mein Objekt dann genauso groß sein.

Mein Objekt x2 ist nun aber 360mm hoch. Dann müsste ich mit dem Objektiv weiter weg gehen. Mit Strahlensatz und Winkel/Brennweite müsste sich jetzt ausrechnen lassen wie weit ich weggehen muss. Dazu gibt es hier einen Rechner:

https://www.vision-doctor.com/optik-berechnungen/arbeitsabstand.html

Dieser Rechner berücksichtigt meinen Abbildungsmaßstab nicht, warum nicht?
Wenn A und B jeweils x mm Brennweite haben und einmal 1:1 und einmal 1:2 als Abbildungsmaßstab haben, sollte das Bild bei gleichem Objektabstand ein anderes sein, oder?

Angenommen mein Objektiv hätte keine optische Verzerrung, wo ist der Arbeitsabstand bei dem ich keine perspektivische Verzerrung habe? Dies dürfte auch abhängig sein von der sichtbaren Tiefe meines Objektes (Hand an ausgestrecktem Arm nach vorne z.B.)

Gibt es eine Formel zur Minimierung dieser perspektivischen Verzerrung in Abhängigkeit von Brennweite, Arbeitsabstand, Objektmaße, Abbildungsmaßstab?


Wenn ich fotografiere, mach ich das halt, so wie es sich für mich für richtig anfühlt.

Könnte man das aber auch berechnen?

Objekt x3 in Hohlkehle hat 360x120 mm inklusive ein bisschen Platz oben und unten. Das Objekt hat eine sichtbare Tiefe von bis zu 170mm.

Welche Brennweite mit welchem Abbildungsmaßstab nimmt mir bei welchem Arbeitsabstand das Objekt mit maximaler Füllung der Sensorfläche ohne perspektivische Verzerrung* auf?

* Ein bisschen Verzerrung ist vielleicht für das menschliche Sehen nicht verkehrt je nach Objektgröße bzw. Tiefe?


Mich interessiert das rein der Neugierde wegen bzw. vielleicht auch für die Objektivauswahl.

Z.B. habe ich noch keine Ahnung, ob ich das 14er Laowa lieber als EF mit 1:1 oder FE mit 1:14 haben will. Leider sind beide in meiner Stadt nicht vorrätig und bei einem der großen Anbieter hieß es direkt: Bestellen ja, aber ausprobieren nein.
 
Zuletzt bearbeitet:
Gibt es eine Formel zur Minimierung dieser perspektivischen Verzerrung in Abhängigkeit von Brennweite, Arbeitsabstand, Objektmaße, Abbildungsmaßstab?

Nein. Die perspektivische Verzerrung ist eine unvermeidliche Nebenwirkung der Zentralprojektion (jedenfalls bei Objekten mit "Tiefe"). Sie hängt stark vom Bildwinkel (genauer dessen Maß in Grad) ab. Wenn der Bildwinkel Richtung null Grad geht, geht die Abbildung Richtung verzerrungsfrei. Wie geht der Bildwinkel Richtung null Grad? Man legt die Pupille (genauer Eintrittspupille) weiter weg vom Objekt. Wie macht man das? In der Fernfotografie geht man weiter weg vom Objekt und nimmt ein Tele. In der Makrofotografie geht es eleganter. Man legt die Pupille ins Unendliche, indem man eine Nahlinse passender Brechkraft auf das Objektiv schraubt. Aus der Zentralprojektion wird dann eine Parallelprojektion; der Bildwinkel wird null Grad (objektseitige Telezentrie).

Die Parameter Brennweite, Arbeitsabstand, Objektmaße, Abbildungsmaßstab genügen noch nicht zur Bestimmung der Pupillenlage. Deshalb das "Nein" ganz oben.
 
Du hast doch selbst schon erkannt, wieviele Faktoren bei Verzerrungen hinein spielen, wobei das Motiv selbst auch eine große Rolle spielt, also ob es flach ist und plan zur Sensorebene steht, oder eine große Tiefe aufweist und obendrein unregelmäßig ist.

Einfache geometrischen Verzerrungen, wie perspektivische (stürzende Linien) lassen sich per Bildbearbeitung oft einfach korrigieren.

Andere Verzerrungen die zu unpassenden Abbildungsgrößen und Größenverhältnissen führen, wie die Größe der Nase bei einem Portrait, wenn man viel zu dicht dran ist, dagegen nicht. Ebensowenig sieht es aber gut aus, wenn man so viel Abstand hat, daß der räumliche Eindruck leidet, weil er zu schwach ausgeprägt ist

Die beste Lösung ist deshalb regelmäßig das, was Du längst machst:

"Wenn ich fotografiere, mach ich das halt, so wie es sich für mich für richtig anfühlt."

Andernfalls könnte man fragen, rechnest Du noch oder fotografierst Du schon? Mach daraus keine Wissenschaft, wenn absolute Korrektheit kein absolutes Muss ist, denn Korrekt kann zwar passend sein, ist aber bei vielen Motiven nicht ideal.

Das mit dem Abbildungsmaßstab ist so eine Sache, denn dazu müßtest Du exakt wissen, wieviel Brennweite dein Objektiv bei welcher Entfernungseinstellung hat, da diese variabel ist und bei jedem Objektiv anders. Die Brennweitenangaben der Objektive sind immer auf die Unendlichkeitseinstellung bezogen und können mit abnehmender Motivdistanz erheblich abnehmen. Auch kann die Brennweitenangabe auf dem Objektiv lediglich ein Näherungswert sein. Und die interne Kameraelektronik und der RAW-Konverter können da mit ihren Korrekturprofilen auch noch einiges wegschneiden, damit die Linien im Bild gerade und das Foto rechteckig ist (gerade Ränder hat).

Und so kann man sich ganz exakte Rechnereien sowieso sparen, weil sinnfrei.

Zudem finde ichs witzig, sich über perspektivische und sonstige Verzerrungen den Kopf zu zerbrechen, wie sie vermieden werden können, insbesondere im Nahbereich, wenn ein Ultraweitwinkel zur Anwendung kommen soll, wo Verzerrungen vor allem im Nahbereich den Normalfall darstellen und die Abbildung nur begrenzt mit dem natürlichen Sehen in Einklang zu bringen ist.
 
Wenn A und B jeweils x mm Brennweite haben und einmal 1:1 und einmal 1:2 als Abbildungsmaßstab haben, sollte das Bild bei gleichem Objektabstand ein anderes sein, oder?

Nein, natürlich nicht. Es gibt keinen "objektiven Abbildungsmaßstab". Dieser hängt immer (u.a.) von der Entfernung des Objekts zum Objektiv ab.

Wenn bei einem Objektiv nur ein vermeintlich objektiver "Abbildungsmaßstab" angeben wird, dann ist das der maximale Abbildungsmaßstab, der logischerweise an der Naheinstellungsgrenze des Objektivs erreicht wird. Bei Zoomobjektiven kann das etwas komplizierter sein, weil sich dort die Naheinstellungsgrenze in Abhängigkeit der Brennweite verändern kann. Aber der Einfachheit halber betrachten wir hier ja nur Festbrennweiten mit fester Brennweite.

In einfachstem Deutsch: je näher das Objekt, umso größer die Abbildung. Aber wie groß genau die Abbildung wird, hängt eben von einer ganzen Reihe Parameter ab. Wenn man nur einen sog. "Abbildungsmaßtab" eines Objektivs angibt, weiß der Anwender gar nichts.

Deine Überlegung ist nur dann richtig, wenn beide Objektive A und B dieselbe Naheinstellungsgrenze haben. Die fehlt bei Dir aber.

In der Realität ist das alles eigentlich obersimpel und alles entspringt aus dem Strahlensatz der Mathematik. Einfach die ganzen Strecken in ein Bildchen malen (Objektabstand, Projektionsabstand, Objektgröße, Projektionsgröße). Und dann die Streckenverhältnisse bilden. Mehr ist da nicht.
 
Zuletzt bearbeitet:
Hallo Robert,
wenn Du ein Portrait machst und der nächste Objektpunkt ist die Nase, der weiteste Punkt sind die Ohren, und in der Tiefe sind es dazwischen z.B. 13cm Abstand.
Dann nimm als kleinste Aufnahmeentfernung ca. das Zehnfache, also 1,30m.
Die typischen Portraitteles führen Dich fast automatisch dahin, deshalb haben sie diese Brennweiten.
Wenn Du diese Regel einhälst, ist die Nase zu den Ohren nur relativ 10% zu gross. Das ist ein Wert, den die menschliche Wahrnehmung akzeptiert.
Es ist ein Gebiet, wie Wahrnehmung / Sehen funktioniert, was wir als natürlich tolerieren und was wir als verzerrt / unnatürlich empfinden.
Es ist schwierig, die Begriffe dazu sauber zu händeln.
Eine saubere Zentralperspektive betrachten viele als "ohne Verzerrung".
Das Wort bedeutet dann etwas anderes als eine "Knollennase", die in der menschlichen Wahrnehmung natürlich eine Verzerrung darstellt.
Wer Sachaufnahmen macht, Geräte, Schuhe, Kaffeekannen, und sein Metier beherrscht, hält sich an diese Regel, Tiefe des Objektes mal Zehn, es sei denn, der Fotograf benutzt das Brechen dieser Regel als Stilmittel.
Das ist aber nicht in Stein gemeisselt, denn eine grosse Industriemaschine nimmt man idR nicht so auf. Dann kommt es halt zu den typischen "perspektivischen Wiedergaben" mit Fluchtpunkten. Solche Objekte behandelt man im Kopf anders als ein Portrait.
Grüsse aus der Eifel
maro
 
Vielen Dank Euch allen, mir geht es wirklich ums Rechnen.

Ich hab zwar keine Ahnung von nix und erst um die 1500 Mädels abgelichtet in den letzten 20 und mehr Jahren, aber ob und wie man das grob ausrechnet interessiert mich wirklich sehr.

Z.B. ahne ich, dass das Macro, dass ich haben will, einen ähnlichen Winkel wie meine Augen haben wird, denn dann sind die Verzerrungen doch wohl weniger am Objekt? Nicht umsonst schiebe ich den Hintergrund (oder die Ohren) mit dem Weitwinkel weg oder hole entsprechend was mit dem Tele ran, oder?

Der Ken R. schreibt z.B. dass ein Macro immer weit über 50mm liegen muss, weil man sonst zu nah dran wäre und alles verzerrt, aber da ich auch kein Englisch kann, hat er vielleicht auch was anderes gemeint.


360mm hoch, 120mm breit, bis zu 170mm tief (z.b. ein Metallwinkel)
In Hohlkehle.
Sensor soll voll ausgefüllt werden.
Perspektivische Verzerrung soll minimiert werden.

Wo stehe ich mit welcher Brennweite bei welchem Abbildungsmaßstab.

Funktion erstellen, einmal ableiten, Nullpunkt finden oder sich annähern?
 
AW: Nachhilfe beim Verstehen gesucht

Ich glaub ja nicht, dass ich das noch verstehen werde, aber theoretisch gibt es ja hier Antworten

https://www.amazon.de/Optik-Experim...fan-Roth/dp/366259336X/ref=asc_df_366259336X/

Kennt Ihr diese Schaubilder, wenn ein Punkt A links oben vom Mittelpunkt der brechenden Linse mit drei Linien auf den Punkt B links unten abgebildet wird?

Dann sind das ja nur drei von weiß der Teufel wievielen Lichtstrahlen, die alle unterschiedliche Wege nehmen, aber am Ende bei B landen.

Aber was ist mit dem Punkt A2 ein Stück unterhalb von A, der wird ja ganz genauso mit weiß der Teufel wievielen Lichtstrahlen nach B2 abgebilde.

Und warum stören sich die ganzen Kollegen eigentlich nicht? Weil elektromagnetische Wellen im Gegensatz zu Gasmolekülen keine Masse haben? Weswegen es zwar Wind, aber kein Verwehen durch Licht gibt?

Himmel, ich hab ja keine Ahnung wie ich den Physik-LK vor 30 und mehr Jahren überlebt habe, aber es ärgert mich gerade, dass ich den nicht genutzt habe um meinem Herrn Lehrer mit viel, viel mehr Fragen auf den Sack zu gehen.

Zurück zum Experiment. Mein 42er Makro entspricht einer planen Scheibe? Mein Weitwinkel, sammelt über eine nach vorne runde Linse (= nach außen immer stärker abfallende Linse) ein ganzes Panorama ein während mein Tele mit einer nach innen gewölbten Linse anfängt?

Und dass Füße am Bildrand so lang werden liegt beim WW daran, dass die Linse außen stärker gewölbt ist als in der Mitte? Und nehme ich nur die Mitte, dann habe ich quasi fast wieder eine plane Scheibe? Ich brauche aber die Ränder um mein Panorama einzufangen?

Wollte ich weniger Zunahme der Wölbung außen, geht das nur durch eine größere Linsen?

Wenn mein NW eine plane Scheibe ist, dann fallen alle Lichtstrahlen beim schrägstellen im selben Winkel ein. Wenn ich aber das WW schräge, dann nimmt der Lichteinfall bzw. die Brechung außen übelst zu.

Aber wir bleiben ja mal ohne Schrägung. Dass irgendwo steht, dass man NW für Macros nicht nutzen kann, liegt daran, dass es um wirklich kleine Sachen geht, bei mir ja nicht.

Was mich zur nächsten Frage bringt. Mein Objektiv steht senkrecht zu einer gedachten Stange aus dem Boden, wenn die elektronische Wasserwaage grünes Licht gibt. Die Füße lasse ich weniger lang werden, klar durch weiter weg gehen. Warum? Weil ich dann nur mit der Bildmitte fotografiere, also NW statt WW, aber dann kann ich es ja gleich lassen? Ein WW wird zum NW, wenn ich weit genug weggehe? Und die Ohren fliegen auch nicht mehr nach hinten weg?

Hmmm. Man bräuche für lange Beine quasi ein Weitwinkel, das aber auf der einen Seite anders ausläuft, quasi teilovale Linsen statt runde?

Ja, ja, alles Quatsch! Übermorgen sage ich der KI, mach mir die Beine der Blonden länger und ihre Füße verdammt nochmal von Schuhgröße Kindersarg auf 36, das soll erotisch werden!

Zumindest kann ich mir das bildlich jetzt wieder vorstellen, wenn ich aber mit meiner Planlinse ganz, ganz, ganz nah dran gehe, bleibt trotzdem alles in Ordnung? Während meine beiden anderen Extreme das Leben dann ziemlich komisch werden lassen, eben weil die Ohren jetzt plötzlich über die stark abfallenden Teile meiner Linse transportiert werden?

Aber Moment mal! Hatten wir vorhin nicht gesagt, dass Punkt A über weiß der Teufel wieviele Wege nach B kommt? Und ist das beiner gewölbten Linse nicht völliger Quatsch, wegen der völlig unterschiedlichen Wölbungen? Nein! Gerade deshalb klappt es ja mit dem Transport nach B, weil sich der Brechungswinkel eben genau so gestaltet, dass man wieder bei B landet.

Bekomme ich bei einer 1:1 Abbildung mit dem WW eigentlich ein korrektes Bild? Nee, bin ja dann extrem nah dran, also fluegen die Ohren nach hinten weg!

Und bei 1:2 müsste ich ja noch näher dran? Um von 1:1 auf 2:1 zu kommen setzevich einen Ring zwischen Kamera und Objektiv, verliere aber Licht wegen längerem Weg? Warum eigentlich? Das Licht wird doch nicht langsamer und auch nicht weniger, es kommt nur später an?

Aber wenn es später ankommt, merkste, ne? Passt, deswegen lasse ich ja länger Licht rein! Ok.

Alternativ könnte ich in meinem Einlinsensystem das Objektiv länger machen?
Dann verliere ich Information vom Linsenrand, weil diese Strahlen auf der Objektivhülle landen!

Und wenn ich es kürzer mache? Dann kriege ich mehr von den Rändern auf den Sensor?

Also besteht ein WW aus einem kurzen Anfahrtsweg und einer starken Wölbung?
Also schaut der Erbauer nach allem anderen? Denn kurzer Weg = weniger Wölbung notwenig und umgekehrt?

Je kürzer der Weg, desto weniger Wölbung, desto weniger Verzerrung?
Ausnahme meine plane Linse?

Zurück zum Abbildunfsmaßstab?

Meine WW-Linse holt odentlich Infos rein, das ganze Panorama wird hinein reflektiert! Wenn wir die Linse jetzt größer machen, kann sie flacher werden, wenn sie flacher wird, können wir den Anfahrtsweg zum Sensor länger machen?
Wenn wir den Anfahrtsweg länger machen, ändern wir das Verhältnis Gegenstand bis Linse zu Linse bis Sensor. Wie war Brennweite nochmal definiert?

Ja, ja, mault nur! Alternativ setzt Ohr Euch mit e8nem aufgeweckten Buben an den Tisch, der noch keinen Physiklehrer hat und mit Fragen gar nicht mehr aufhören will!

Da kommt schon die mächste! Was los ist wenn wir ganz nah dran gehen? Dann ändert sich wieder der Abstand Blume zu Linse, damit aber auch das besagte Verhältnis? Aber auch die Auftreffwinkel? Ja, schon, aber ist das wichtig?

Mir brennt der Kopf! Genug jetzt! Geh zu Deiner Mutter und frag, ob Du beim Abtrocknen helfen sollst!

Und heimlich, still und leise schleiche ich mich an den Rechner, öffne Calibre und das Verzeichnis Physik, denn da muss auch was zum Thema Optik drin sein …

Die pbliche Rechtschreibkorrektur am Ende eines Beitrages fällt hier leider aus, ich muss jetzt Linsenbauer werden.
 
Zuletzt bearbeitet:
Habe mir was zu lesen bestellt und arbeite an der eine Formel ...

Eine Frage habe ich aber noch:

Wir nehmen fünf passende Lichtstrahlen der Sonne, die alle von unterschiedlichen recht nahmen Positionen aus, genau ein bestimmtes Pixel meiner Sonnenblume anvisieren. Von dort landen sie mit unterschiedlichen Abstrahlungswinkeln alle auf meinem Objektiv. Und dort an fünf unterschiedlichen Stellen! Trotzdem habe ich die Sonnenblume in Normalform auf dem Bildschirm. Warum ist das so?

Müsste es nicht für jeden Punkt x auf meiner Sonnenblume genügend Lichtstrahlen geben, die in passendem Austrittswinkel mein Objektiv treffen, so dass die Spiegelung eines einzigen Punktes der Sonnenblume alle meine Pixel auf dem Sensor trifft?

Das ist nicht so! Doofe Frage, was soll das denn?

Kann es jemand aber auch erklären?


Fünf Punktlampen in einem Milimeter Abstand treffen alle auf den Punkt x der Sonnenblume und werden dort mit dem Eintrittswinkel als Austrittswinkel zurückgeworfen. Unser Objektiv steht passend und sammelt diese fünf Reflektionen wieder auf. Wenn der Abstand Licht/Blume = Blume/Objektiv, dann sind die fünf Treffer auf dem Objektiv wieder übereinander und je einen Milimeter von einander entfernt. Wenn man sich das aufzeichnet, ist das ganz einfach. Als Ergebnis würde jeder Punkt meiner Blume auf jeden Punkt meines Sensors geworfen werden.

Was ist daran falsch? Warum ist das nicht so? Warum hat jeder echte "Pixel" meiner Sonnenblume genau einen auf dem Sensor?
 
Was ist daran falsch? Warum ist das nicht so? Warum hat jeder echte "Pixel" meiner Sonnenblume genau einen auf dem Sensor?

Weil das Objektiv die Strahlen "sortiert", ein Bild sagt mehr als 1000 Worte:

https://www.lernhelfer.de/sites/default/files/lexicon/article_image/BWS-KUN-0708-05.gif

Hier sind beispielhaft verschiedene Strahlen aus dem Motiv konstruiert worden. Du siehst, das Sie Dtrahlen in unterschiedlichen Winkeln das Motiv verlassen, aber auf verschiedenen Wegen durch die Optik im selben Punkt auf dem Sensor landen.

Lässt Du das Objekiv weg, dann hast Du in der Tat den Zustand, das Strahlen aus einem Punkt ders Motive auf verschiedenen Bereichen oder Pixeln des Sensors landen.
 
Zuletzt bearbeitet:
Ja, Du hast natürlich recht. Die Linse befördert jeden ankommenden Strahl für ein und denselben Reflektionspunkt an den richtigen Ort hinter der Linse, das ist ja ihre Magie. Und da unsere Augen Linsen sind und keine planen Scheiben kennen wir das nur so. (Wobei man das noch in ein weiteres Bild malen sollte, nämlich dass x Strahlen von ein und demselben Punkt A allesamt bei B landen wie ich es oben beschrieben habe.)


Würde man einen Sensor also ohne Linse irgendwo hinstellen, dann wäre die Bildinformation y1, x1 oben links überall auf dem Sensor. Und jeder weitere y,x meiner Blume ebenfalls an dieser Stelle. Und da ein Bildpunkt jeweils nur eine Farbe ist, wäre dann der Punkt/die Farbe bestimmt, die zuletzt ankommt, wenn wir das auslesen?

Was nimmt der Sensor an, wenn alles gleichzeitig kommt? Irgendwas?

Klingt so verrückt, dass jede Bildinformation überall sein soll, dabei fällt mir jetzt absolut nichts ein, was man damit anfangen sollte.

Nun ja, quäle mich gerade durch

Praktische Optik
Die Gesetze der Linsen und ihre Verwendung
Von Dr. Paul Schrott, Privatdozent an der Technischen Hochschule in Wien
1930

Lustig, dass man damals die Einheit Hefnerkerzen hatte.

Wir messen dieselbe in Hefnerkerzen (HK),
das ist ungefahr die Helligkeit einer gewohnlichen Kerzenflamme.
Wir sagen also z. B., eine Glühlampe habe 50 HK, wenn sie
ebensoviel Licht gibt wie 50 Kerzen.
 
Was nimmt der Sensor an, wenn alles gleichzeitig kommt? Irgendwas?

Klingt so verrückt, dass jede Bildinformation überall sein soll, dabei fällt mir jetzt absolut nichts ein, was man damit anfangen sollte.

Naja, das ist dann am Ende eine Wilde Überlagerung von Reflektionen, Bildinformation kann man das eher nicht nennen. Mach Dir doch den Spass und mach Bilder ohne Objektiv, dann kriegst Du einen Eindruck.
 
Was passiert wohl, wenn man eine Lochkamera baut und innen nicht schwarz auskebt, sondern mit Spiegeln beklebt. Dann müssten jede Menge Strahlen von einem Punk x durchkommen und irgendwo auf unserer Mattscheibe landen?

----------- Spiegel -----------
|
O Loch im Kasten | Mattescheibe
|
----------- Spiegel -----------
 
Womit dann auch eine Art der Unschärfe erklärt wäre.

lochkamera.jpg

Ergo ist eine Lochkamera ohne Linse Mist, weil sie eben einen Punkt mehrfach verteilt, wenn das Loch nicht klein genug ist.

So hätte ich gerne Physikunterricht gehabt.


(Ich weiß leider nicht mehr wie man ein Bild einfügt. vb3.x ist schon sooooooooooooooooooooooo lange her.)
 
Zuletzt bearbeitet:
Warum sollte man das tun?
Dann ist es einfacher. gleich das Loch wegzulassen dann hat men den Zustand, das Strahlen von jedem Punkt des Motives auf vielen Punkten auf dem Sensor landen.

Im Umkehrschluss werden natürlich beliebig viele Punkte des Motives in einem Punkt des Sensors abgebildet.

Ergebnis ist am Ende vermutlich eine Mischfarbe, oder schlicht ein überwiegen weißes, milchiges etwas.
 
Wir machen unsere Blende weit auf. Dort wo wir scharf stellen, landet jeder Bildpunkt der Sonnenblume wieder auf einem Punkt auf dem Sensor. Was weiter weg oder näher dran ist, wird unscharf. Warum?

Weil die Information länger unterwegs ist? Oder weil passiert, was oben im Bild links zu sehen ist?

Aber was sollte an einer Geraden aus dem Hintergrund/Vordergrund anders sein, wenn sie am Loch ankommt?

------------------ trifft Linse

----------- trifft Linse


bzw.

------------------ |

kleine vs große Öffnung

------------------ |
------------------ |
------------------ |


Ist die Öffnung größer kriegen wir von einem Punkt aus mehrere Strahlen auf den Sensor, aber nur außerhalb der Schärfeebene. Was ist mit den Reflektionen aus dieser Ebene anders?

Liegt es an der Linse, die in Kombination mit der Öffnung einen immer kleiner werdenden Bereich an Strahlen punktgenau weiterleiten kann?

Wenn also mein Strahl aus zehn Meter Entfernung kommt, muss er anders sein, wie der aus zwei Metern Entfernung, worauf ich scharf gestellt habe.

Aber was soll da anders sein? Die Lichtstärke, die bekanntermaßen abnimmt? Ok. Aber dann müsste ich meinen Hintergrund ja nur heftiger anstrahlen als den Schärfepunkt, das ist Quark.

Oder ist es der Winkel mit der unser Strahl reinkommt?

"Weiter weg" trifft flacher auf, "näher dran" trifft steiler auf. Also ist es der Winkel, der die Musik macht?

Aber ich kann rechts oben was scharf stellen und diese Bildinfo schläge steiler auf als der weit entfernte Hintergrund in der Mitte.

Hmmm ... finde bisher nur die Beschreibung von Ist-Zuständen, das bringt mich nicht weiter.
 
Zuletzt bearbeitet:
Habe noch eine Beispielgrafik gefunden. Hier haben WW, NW und Tele alle dieselbe Linse, man schiebt nur den Sensor von nah nach fern, vergrößert also den Abstand zur Linse. Entsprechend hat man mehr oder weniger auf dem Sensor. Kann man sich schön ansehen über die Strecke einer Paralellen zwischen den außeren Strahlen, die immer länger wird je weiter ich nach hinten wegrutsche. Weil sich die Fläche vergrößert, brauche ich dann wieder mehr Licht, das sich auf einen größeren Bereich verteilen muss.

Gibt es eigentlich eine Grenze, wann die Bildinfo vor dem Objektiv nicht mehr ausreicht? Genau dann, wenn der Sensor > dem Objekt ist?

Wenn jemand Ameisen und noch kleineres Getier formatflächend fotografiert sieht das immer kackscharf aus. Wenn aber der Sensor 36*24mm groß ist und die Ameise nur 5*10mm hat, dann muss wohl vergrößert werden und trotzdem fällt da nichts unangenehm auf. Wenn ich ein Foto fünffach vergrößere, kann ich das in der Regel auch gleich wieder löschen.
 
Ok, Bild gefunden.

Drei Punkte hintereinander links, senden je einen Strahl zur Linse oben und unten. Je nach Einfallswinkel, geht der Strahl auch wieder von der Linse weg.

------------------ A

. y . -------------------------------. x .

------------------ B

Wenn der Sensor bei x liegt, aber die Strahlen von Punkt 1 links sich über A und B erst hinter dem x treffen wollen bzw. die Strahlen von Punkt 3 links über A und B sich vor dem Sensor treffen, wird es da unscharf. Nur Punkt y links wird über A und B genau auf dem Sensor an x aufschlagen.

Somit passt dann auch was für kleine und größe Blendenöffnung gilt, denn bei kleiner Öffnung treffen sich auch die Punkte vor und nach der Schärfenebene ziemlich nah am Sensor.
 
Zuletzt bearbeitet:
Angenommen mein Objektiv hätte keine optische Verzerrung, wo ist der Arbeitsabstand bei dem ich keine perspektivische Verzerrung habe? Dies dürfte auch abhängig sein von der sichtbaren Tiefe meines Objektes (Hand an ausgestrecktem Arm nach vorne z.B.)

Die Entfernung eines Objektes zum Objektiv, damit keine perspektivische Verzerrung mehr auftritt, liegt im Unendlichen. Praktisch ist das also nicht machbar, sondern nur näherungsweise aus entsprechend großer Entfernung. Das gilt für "normale" Objektive.

Anders ist das bei telezentrischen Objektiven: bei diesen sind die Strahlen parallel (also so, wie sie aus unendlicher Entfernung verlaufen würden) und bilden daher Objekte ohne perspektivischer Verzerrung ab. Hier gibt es ein Video mit Beispiel.
Objekte vor dem Objektiv erscheinen daher immer gleich groß, unabhängig von deren Abstand zum Objektiv.

Es gibt aber auch dabei Einschränkungen. Der telezentrische Effekt ist auf einen Bestimmten Bereich begrenzt, und das Fokussieren auf Unendlich ist nicht möglich (sonst könnte man einen 10cm großen Stein auf dem Mond genauso groß abbilden wie einen 10cm großen Stein 1m vor dem Objektiv).
 
WERBUNG
Zurück
Oben Unten