• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Panorama Innenräume?

Robert9

Themenersteller
Mal angenommen ich will meine Wohnzimmerwand fotografieren, dann könnte ich ein Weitwinkel benutzen oder mein System um seinen Nodalpunkt drehen.

Weiterhin wird angenommen, dass der Mehraufwand keine Rolle spielt.

Hier habe ich ausgerechnet, dass ich zwei Meter Wand mit dem 50iger an FF aus 2.87m fotografiere. Für das nächste Bild müsste ich jetzt zwei Meter zur Seite gehen, mit Überlappung der Bilder natürlich weniger.

Sicherlich finde ich irgendwas, dass ich parallel zur Wand haben kann, an dem ich mein Stativ ausrichten kann. Alternativ müsste es mit Lasermessgerät und Kompass gehen. (Hilfreich wäre z.B. eine Macroschiene Richtung Wand)

Komisch ist dabei jetzt folgendes: Wenn ich 2.87m vor der Wand stehe, sehe ich fokusiert deutlich mehr als zwei Meter und insgesamt noch viel mehr in der Breite.

Die eigentliche Frage aber ist:

Wie unterscheiden sich diese Ansichten?

a) Auge
b) Stitch mit zwei, drei Kamerapositionen parall zur Wand mit dem 50iger (bzw. mehr wegen Überlappung)
c) 50mm am Nodaladapter
c2) 35mm am Nodaladapter
c3) 24mm am Nodaladapter
d) Shiftfunktion mit 50mm könnte auf 2m + 2*1m rechts, links kommen
e) Notwendiges Weitwinkel, müsste für 4m ca. 24mm sein bzw. für 6m dann 17mm.

Was entspricht nun meinem Auge? Wie wirken die anderen Ansichten?

Das ist jetzt keine Frage wie ich mein Wohnzimmer fotografiere, sondern welche Unterschiede die Ergebnisse bringen.

Daraus abgeleitet wäre die nächste Frage, ob ich ein Haus von außen nicht genauso fotografieren wollen könnte? Der Aufwand soll wie gesagt keine Rolle spielen, falls das mit Kompass und Laser funktionieren kann. Evtl. reicht ja vielleicht sogar der Bürgersteig auf der anderen Straßenseite.
 
Zuletzt bearbeitet:
Was entspricht nun meinem Auge?
Nichts davon außer a). Die Wahrnehmung mit den eigenen Augen vor Ort ist immer völlig anders und individuell verschieden, siehe die endlosen Diskussionen welche Brennweite dem menschlichen Sehen entspricht. Da gehen die Meinungen teils sehr weit auseinander.
... sondern welche Unterschiede die Ergebnisse bringen.
Das wirst Du dir doch in etwa selber denken können, wenn ich so lese was Du schreibst.
Jede Methode hat ihre Vor- und Nachteile und bei jeder muß man korrigiernd nacharbeiten, um Verzerrungen und sonstige erkennbare Abbildungsfehler auszubügeln.
 
a) Ich gehe ich davon aus, dass unterschiedliche Augen auch unterschiedliche Brennweiten haben, möglicherweise der Verarbeitungsapparat dahinter auch seine jeweils eigene Rolle spielt. Sicherlich hat das schon mal wer vermessen wie weit nach rechts und links die Probanden schauen können, oder? Das wäre zumindest meine Erklärung aus dem Bauch für Deine Aussage.

b) ich kann es mir nicht denken bzw. nichts groß damit anfangen, darum frage ich ja.

Drehung um den Nodalpunkt z.B. bedeutet, dass ich nach außen immer längere Strecken zurücklege und immer schräger Licht einsammle. (Die Wölbung der Linse außen kann ich ja weglassen oder auch nicht, weil sie für die Berechnung wichtig ist und die Software irgendwas damit trickst?)

Ich interpretiere Deine Antwort weiterhin so, dass Du Vor- und Nachteile der Erstellung bzw. auch der Nachbearbeitung meinst? Genau darum soll es mir nicht gehen.

Natürlich werde ich das jetzt möglichst millimetergenau nachstellen müssen, hatte aber gehofft, dass jemand meine Frage versteht und eine Antwort für mich hat, selbst dann wenn sie in der realen Welt erstmal keinerlei Auswirkungen hat.

Was mir noch so gerade einfällt:

Bei 2.80m Abstand sollte es groß keine Verzeichnung geben? Der Effekt, dass der Hintergrund je nach Brennweite anders auf meinen Sensor geholt wird, fällt auch weg, wenn ich nur die Wand habe - stehen da Möbel könnte es theorethisch anders werden.

Das Bild, das ich durch Verschiebung meiner Kamera erhalte sollte hochwertiger sein, da hier im Zweifelsfall nichts berechnet bzw. verändert wird, ich kann die Bilder quasi per Hand nebeneinander überlappen lassen lassen, wobei ich nicht weiß, was die Panoramasoftware noch so anstellt außer Bilder übereinander zu legen und das möglichst ohne die Ränder zu nutzen?

Sie wird die Wölbung der Linsen senkrecht zum Bild herausrechnen (Tonnen/Kissen)? Dann aber ein Bild gestalten, dass meiner Kameraverschiebung gleicht.

Gib es Stichwörter nach denen ich suchen kann? Ich habe z.B. über „Slider und Panorama“ nichts brauchbares gefunden.

Da das scheinbar niemand macht, dürfte die Qualität von Nodalpunktdrehung und z.B. neun Aufnahmen per Shift so gut sein, dass man keinen sichtbaren Vorteil mehr hat.

Apropos: Es schreiben einige Architekturfotografen, dass sie keine Brennweiten unter 35mm nutzen. Ich habe ähnliches trotz Suche nicht bei den Pamoramafotografen gefunden, da scheint jede gesparte Aufnahme wichtiger zu sein. Müsste hier nicht auch das 50iger ein ganz anderes Ergebnis bringen als ein 14er? Oder gibt es hier wieder andere Probleme, weil die Schräge nach außen immer heftiger wird? Oder auch nicht, weil die Wölbung außen am Weitwinkel, dass ja noch krasser schrägt?
 
Zuletzt bearbeitet:
https://blogs.uni-bremen.de/scienceblog/2020/03/31/wie-funktionieren-panorama-aufnahmen/

Ich würde jetzt sogar sagen wollen, dass in einem Bild ohne große Tiefe gar keine sichtbaren Unterschiede vorhanden sind. Trotzdem arbeiten Architekturfotografen eher nicht via Drehung um den Nodaladapter? Oder nutzt man vlt. sogar beides, den Shift für vertikale Linien plus Drehung um ein Gebäude ganz drauf zu kriegen?
 
Ich gehe ich davon aus, dass unterschiedliche Augen auch unterschiedliche Brennweiten haben...Sicherlich hat das schon mal wer vermessen wie weit nach rechts und links die Probanden schauen können, oder?
Ich zielte damit für mich eher auf das Peripheres Sehen ab. Der Blickwinkel des Menschen ist zwar relativ breit, aber der Bereich, in dem er wirklich scharf sieht deutlich schmaler. Nur dadurch, daß wie das Auge und ggf. auch leicht den Kopf mehr oder weniger bewußt hin und her fliegen lassen, erzielen wir den Eindruck, daß der Schärfebereich größer ist, weil unser Kopf daraus für unsere träge Wahrnehmung ein Kurzzeitpanorama basteln kann. Deshalb finde ich, daß eine Normalbrennweite weniger bei 50 mm zu suchen ist, sondern irgendwo im Weitwinkelbereich liegt. Das ist für mich daher weniger etwas was sich berechnen läßt, sondern eine Frage der persönlichen Wahrnehmung und damit auch motiv- und situationsabhängig.

Drehung um den Nodalpunkt z.B. bedeutet, dass ich nach außen immer längere Strecken zurücklege...
Im Gegenteil, dort eher nicht, weil man da wo es schräger wird, bei der Einzelaufnahme, die Kamera schon wieder neu ausgerichtet hat, so daß was eben noch am Rand war, nun fast schon mittig positioniert ist. Man sollte zu etwa 30 Prozent überlappen lassen. Bei einem schlechteren Objektiv wäre noch mehr sinnvoll, weil man damit auch die typischerweise schlechteren Randbereiche außen vor lassen kann. Obendrein verliert man bei einem Panorama immer etwas an Bildhöhe zu den Seiten hin, so daß größere Überlappungen auch der erzielbaren Bildhöhe gut tun.

Ich interpretiere Deine Antwort weiterhin so, dass Du Vor- und Nachteile der Erstellung bzw. auch der Nachbearbeitung meinst? Genau darum soll es mir nicht gehen.
Nicht ganz, ich meine den Aufwand/die Notwendigkeit, die Linien gerade zu bekommen und daß nirgends Teile gestaucht oder gestreckt werden. Gehts um den Nodalpunkt herum, der je nach Motiv peinlich genau getroffen werden muß inkl. perfekter Lageausrichtung der Kamera, was gar nicht so einfach ist, muß da vermutlich insgesamt mehr verbogen werden, aber das sollte sich gut berechnen lassen, da die Software die Brennweite und das Aufnahmeformat kennt. Habe ich aber Einzelaufnahmen, die ich durch parallele versetzte Aufnahmen erziele und setze diese Zusammen, habe ich in jeder Aufnahme Verzerrungen zu den Seiten hin drin die ich alle ausgleichen muß. Wenn man da keine Software hat, die einem das zusammenbastelt und Ungenauigkeiten glatt rechnet, na herzlichen Glückwunsch zu dem Arbeitsaufwand. Selbst wenn man da mit einem Schienensystem arbeiten würde und nicht einfach nur Freihand. Wobei ich mir regelmäßig nicht vorstellen kann, daß sich hoher Aufwand lohnen würde.

Bei 2.80m Abstand sollte es groß keine Verzeichnung geben?
Die grundstzlichen Objektiv-Verzeichnungen meinst Du hier wohl nicht, denn die hängen nicht von der Entfernung ab, sondern davon wie stark das Objektiv bei der gewählten Brennweite grundsätzlich verzeichnet. Bei dem was Du meinst gehts um die Entfernungsunterschiede zum Motiv geradezu bzw. zu den Seiten des Motivs die größer sind. Die Antwort ergibt die Logik: Hängt von der Brennweite und der Breite des Motivs ab. Je weitwinkliger, weil der mögliche Abstand nicht für mehr Brennweite taugt, desto stärker die Effekte zum den Rändern hin. Wenn die Wohnzimmerwand sehr breit ist, können auch 2,8 m recht wenig sein.

Das Bild, das ich durch Verschiebung meiner Kamera erhalte sollte hochwertiger sein, da hier im Zweifelsfall nichts berechnet bzw. verändert wird, ich kann die Bilder quasi per Hand nebeneinander überlappen lassen lassen
In der Theorie schon, in der Praxis, siehe meine Ausführungen, macht man sich damit eher das Leben schwer, nehme ich an. Sowohl bei der Aufnahme als auch der anschließenden Verrechnung zu einem Bild. Bei einem bin ich mir sicher, auch wenn der Aufwand keine Rolle spielen soll, willst Du die Aufnahmen bestimmt nicht von Hand zusammen fügen. Schon allein der Helligkeitsunterschiede wegen. Vignettierung und Perspektivenbedingte, dabei ist das noch das kleinste Problem und nicht das eigentliche Problem.

wobei ich nicht weiß, was die Panoramasoftware noch so anstellt außer Bilder übereinander zu legen und das möglichst ohne die Ränder zu nutzen?
Sie gleicht die Bildfeldwölbungen aus, gleicht Ungenauigkeiten bei der Kameraausrichtung aus und gleicht Helligkeitsunterschiede zwischen den Aufnahmen aus. Da wird also vieles passend gemacht, das nicht passend ist. Die Fotos werden somit nicht nur jedes für sich gerade gezogen, sondern auch noch untereinander angeglichen. Du wirst auch feststellen, daß das Ergebnis bei jeder Panaoramasoftware am Ende etwas anders aussehen wird und die Fehlertoleranzen auch unterschiedlich ausgeprägt sind. Deshalb funktioniert das selbst bei anständigen Freihandaufnahmen oft sehr gut, wenn man im Vordergrund nicht gerade kleinteiliges Pflaster hat, wo Abweichungen vom Nodalpunkt schnell sehr problematisch werden.

Apropos: Es schreiben einige Architekturfotografen, dass sie keine Brennweiten unter 35mm nutzen. Ich habe ähnliches trotz Suche nicht bei den Pamoramafotografen gefunden, da scheint jede gesparte Aufnahme wichtiger zu sein. Müsste hier nicht auch das 50iger ein ganz anderes Ergebnis bringen als ein 14er?
Für 35mm muß man aber auch erstmal den nötigen Abstand haben können. Außerdem beschränkt man sich bei einreihigen Panoramen mit zunehmender Brennweite der abbildbaren Bildhöhe. Ich hatte früher auch mit einem Stativ gearbeitet und auch mal mit meinem Nodalpunktadapter gearbeitet und es dann ganz schnell wieder sein gelassen, weil ich das trotz großer Mühe nicht exakt genug hinbekam und so doch wieder Parallaxenfehler im Bildvordergrund hatte (https://koepenick.net/galerie-panoramen/alter_markt.jpg). Und so entschied ich mich beim Upgrade meiner Fotoausrüstung maßgeblich auch wegen des 14-24er Zoom von Nikon damals für den Systemwechsel zu Nikon und der D800, weil es solch ein Objektiv für Canon damals noch nicht gab und die höhere Sensorauflösung ebenfalls den Verzicht auf ein Pano erleichtert. Dadurch habe ichs nur noch selten nötig, überhaupt ein Panorama zu basteln.

Müßte ein 50er ein anderes Ergebnis als ein 14er liefern? Natürlich, schon allein bei der Auflösung, weil man viel mehr Aufnahmen machen muß und obendrein mehrreihig arbeiten muß. Da stellt sich mir dann aber die Frage, wie sehr man sich mit jeder zusätzlichen Reihe potenziell zusätzliche Bildfehler einhandelt, die man bspw. bei einer Einzelaufnahme mit einer 14er Brennweite grundsätzlich nicht hätte. Rein vom Bild her, sollte man am Ende natürlich das "gleiche" geometrisch auskorrigierte Bild erhalten, denn die Perspektive ist identisch.
 
Der normale Seheindruck lässt sich m.E. am besten mit einem 50 mm Objektiv an FF vergleichen. Das kann man einfach nachvollziehen, indem man einmal durch den Sucher blickt und einmal an der Kamera vorbei. Allerdings sieht die Kamera auf Grund der begrenzten Sensorgröße einen kleineren Ausschnitt der Umgebung. Der "Sensor" im Auge (Netzhaut) ist kugelförmig und kann daher einen deutlich größeren Ausschnitt sehen. Stichwort hier wäre "Gesichtsfeld":
https://de.wikipedia.org/wiki/Gesichtsfeld_(Wahrnehmung).

Zum Fotografieren mit Parallelverschiebung der Kamera: Hier ergibt sich ein Unterschied zu den anderen Verfahren (Weitwinkel / Drehung um den Nodalpunkt) auch dann, wenn das Objekt nicht völlig plan. Sobald z.B. ein Bilderrahmen an der Wand hängt oder bei einer Hauswand durch Fensterlaibungen eine Tiefe entsteht, lassen sich die Teilbilder nicht mehr einfach zur Deckung bringen da sie unterschiedliche Ansichten zeigen. Nicht ohne Grund kommt das Fotografieren mit Parallelverschiebung bei der 3D-Fotografie zum Einsatz. Hier generiere ich durch Parallelverschiebung die Unterschiedlichen Ansichten welche das Gehirn braucht um stereoskopisches Sehen zu ermöglichen
 
Zuletzt bearbeitet:
Wo und wie wir scharf sehen, ist für meine Überlegung eher nebensächlich? Ich habe nur behauptet, dass es verschiedene Linsen (Augen) gibt und sicherlich auch unterschiedliche Rechner dahinter, die sich u.a. mit dem Alter ändern.

Ergo wird es auch unterschiedlich empfundene Normalbrennweiten geben? Ist ja auch klar, kleiner/großer Kopf, Augen eng/weit auseinander, Augen leicht schräg an gerundeter Kopfform oder strack geradeaus, schielend nach innen/außen usw.

Wobei mir hier immer noch nicht klar ist, wie das mit dem Abbildungsmaßstab funktioniert. Wenn ich mit 50mm einmal 1:1 und einmal 1:2 habe, dann mögen das 50mm sein, aber mindestens ein Bildergebnis ist von der Objektbreite so wie mit einem Tele oder Weitwinkel mit anderem Maßstab gemacht. Trotzdem reden wir immer von 50mm, egal was nachher auf dem Teller landet.

Und hier ist vielleicht auch die Lösung zu suchen?

Wenn meine Augen mit 50mm schauen, dann sieht ein Haus eben ungefähr so aus wie mit 50mm aufgenommen. Das sagt aber nichts über den Abbildungsmaßstab aus. Ist dieser bei den Augen doppelt so groß wie beim Objektiv, dann sehe ich (scharf oder nicht) eben deutlich breiter.

(Augenlinse und Augensensor/Stäbchen haben bei zwei Menschen in Relation zum Rest evtl. unterschiedliche Abstände vergleichbar mit Zwischenring einsetzen um Abbildungsmaßstab zu ändern.)


Drehung - Die Strecken nach außen nehmen definitiv zu, nicht ab.

Ich stehe zwei Meter vor einer Wand und halte senkrecht zur Wand drauf. Abstand zwei Meter. Aufschlag 90 Grad.

Jetzt drehe ich die Kamera zur Seite. Nach Pythagoras wird die neue Sichtlinie zur Wand immer länger je weiter ich nach außen drehe, der Aufschlagwinkel innen
immer kleiner.

Winkel und Strecke verändern aber das Ergebnis, deshalb Vignette und z.B. auch andere Oberflächenstruktur. (Man müsste mal eine Wand voller Noppen fotografieren)


Mit der Verzeichnung war gemeint, dass sie ab einem gewissen Abstand eher zu vernachlässigen ist. In der Regel geht es um 150 bis 200mm, soweit gelesen. Gut sichtbar in einem Video, in dem einer ein Zoomobjektiv von sehr weit bis starkem Tele dreht. (Link nicht parat)

Der Hintergrund wandert, der Kopf bleibt fast immer gleich und wird nicht verzeichnet. Bin ich zu nah dran, verzeichnet jede Brennweite, nur passiert uns das beim Tele nie, da wir immer weiter weg sind. (Man müsste das mit Macroaufnahme testen können?)


Mir ging es bei der Fragestellung nicht um den Aufwand und technische Herausforderungen, sondern um die Frage einer möglichen unterschiedlichen Bildwirkung. Aber ich ahne, dass es das nicht gibt.

Ein 35er wird wohl immer ein ähnliches Ergebnis liefern, wenn die Software eingreift, egal ob Shift, Drehung, Kamerapositionsänderung. Das 50 eine leicht andere je nach …

Ohne Software müssten Drehung und Weitwinkel an den Rändern zu einem anderen Ergebnis kommen.

Auf weitere Punkte gehe ich nicht ein, weil, das zum Teil Spezialfälle sind, die keine Auswirkung auf meine Fotografie haben. Wenn ich mit dem 200er ein Panorama mache, gibt das vergleichsweise eine riesige Datei zum 14er. Aber da das Endergebnis nachher womöglich nur 800 Pixel sind, ist das auch wieder egal, da ich weder Eile noch einen anderen Engpaß habe an Speicher, Rechner, Zeit o.ä.



So oder so muss ich mir aber endlich glaubhaft einreden, dass ich gar nichts mehr brauche (aber trotzdem die Festbrennweiten an der Sony noch komplettieren will).

Denn ich habe ja eigentlich alles (in Form von Canon, Nikon, 645, 67, Adaptern und Schienen)

Mein kauf- und sammelgeiles Hirn will aber ständig Argumente finden, warum ich noch ganz viele Sachen brauche. Und das für Bilder, die selten größer sind als 1200x1200. Hahaha.

Und weil ich ein einziges Bild von einer Metalltafel gemacht habe bei dem ich mir einbilde, dass es mit 35mm Mittelformat an der Sony ein besonders plastisches Ergebnis geliefert hat, will ich immer noch mehr und noch mehr an technischem Kram haben. Das neue 645er 35mm gibt es z.B. neu für 1450 Euro und es soll viel, viel schärfer sein als mein gebrauchtes A oder ein kaufbares FA.

Stattdessen sollte ich besser über das Licht um die Tafel nachdenken bzw. was das Reisen angeht bei den kleinstmöglichen Objektiven bleiben (und eben keine 645/67er mitschleppen!)

Aber ich suche halt ständig Gründe Geld auszugeben. Ein Vogtländer 58 1.4 soll ja überhaupt das beste … sein, ein 35er Zeiss, ein 55er Nikon so tolle was auch immer liefern …

Muss ich ernsthaft das 85 1.4 und das 90er Macro mit in die Reisetasche packen?
Ja, unbedingt! Mit dem ersten will ich schöne Modelle auf Motorrädern fotografieren, mit dem zweiten was anderes in der Hohlkehle.

(Als Ergebnis eher 800x800 statt 1200x1200 - wie zauberhaft unsinnig ist es hierrüber tagelang nachzudenken statt hier Aufbauten zu machen und mit dem Licht zu spielen …)
 
Wobei mir hier immer noch nicht klar ist, wie das mit dem Abbildungsmaßstab funktioniert.
Der Abbildungsmaßstab sagt lediglich aus, wie groß ein Objekt auf dem Film oder Sensor abgebildet wird. Ist ein Objekt 22,3 mm (Canon) bzw. 23,6 mm (Nikon) breit, reicht es bei 1:1 beim APS-C-Sensor exakt von der linken bis zur rechten Sensorkante, während beim KB-Sensor mit dem gleichen Objektiv bei gleicher Entfernung noch einiges an Freiraum drum herum wäre und es deshalb nicht 1:1 wäre.

Ein 35er wird wohl immer ein ähnliches Ergebnis liefern, wenn die Software eingreift, egal ob Shift, Drehung, Kamerapositionsänderung. Das 50 eine leicht andere je nach …
Nein. Es kann einen deutlich sichtbaren Unterschied machen, ob die Kamera am gleichen Standort bleibt oder bspw. auf einer parallel ausgerichteten Schiene verschoben wird. Solange das Motiv völlig plan ist, können geometrische Verzerrungen einfach rausgerechnet/korrigiert werden. Aber wenn das Motiv Tiefe hat, also dreidimensionale Objekte, dann hängt es vom Standort ab, was vom Motiv sichtbar ist, also die platte Draufsicht oder die linke oder die rechte Seite oder die Ober- oder die Unterseite und auch wieviel vom jeweiligen Schatten sichtbar ist bzw. vom 3D-Objekt verdeckt wird, je nach Kameraposition (Perspektive). Deshalb kann man an einem Foto was die Geometrie anbelangt noch so sehr herummanipulieren, man kann trotzdem genau erkennen, wo der Fotostandort vor dem Objekt war. Besonders gut bei dem Beispiel mit der Noppenwand. Das 50er dagegen liefert im Grunde das gleiche Bildergebnis. Man braucht nur zusätzliche Aufnahmen, weil der erfaßte Bildwinkel kleiner ist.
Ohne Software müssten Drehung und Weitwinkel an den Rändern zu einem anderen Ergebnis kommen.
Drehung bedeutet Panorama und setzt damit Software voraus.
Mein kauf- und sammelgeiles Hirn will aber ständig Argumente finden, warum ich noch ganz viele Sachen brauche. Und das für Bilder, die selten größer sind als 1200x1200. Hahaha.
Aha, daher weht der Wind. :p
 
Zuletzt bearbeitet:
Danke für Deine Zeit und Deine Gedanken. Es ist einerseits befremdlich, andererseits auch sehr erfrischend und erweiternd, dass Du scheinbar ganz andere Assoziationen hast als ich in meinem Oberstüberl.

Das wird unter anderem daran liegen, dass ich vollends nur in meinem Kosmos bin. APS-C z.B.? Ja, schon mal gehört, aber völlig uninteressant, soweit ich mein 400er nicht länger haben will. (Nein, musst es nicht erklären, ich weiß schon was das ist, aber es existiert quasi nicht für mich.)

Als mir vor hundert Jahren klar wurde, was eine Canon V1 (und danach die Ds1) und ein 85er 1.2 mit der Welt anstellen kann, sowieso im Vergleich zu einer Canon XL1, war mir klar, dass ich von diesem Format nicht mehr weggehe, auch nicht wegen Geld, Größe, Gewicht. Damals hat man noch mit externen Spiegelmechanismen versucht die Unschärfe ins Bild zu bringen, die heute für alle völlig normal ist.

-

Zurück zum Abbildungsmaßstab, es war für mich vermeintlich recht erleuchtend, was ich mir da oben hergeleitet habe. Dass eben Mensch A mit deutlich anderem Abstand zwischen Auge und Stäbchen als Mensch B ceteris paribus breiter oder weniger breit sehen kann, aber das räumliche Sehen beider bezüglich der Winkel gleich ist.

Damit habe ich mir z.B. auch jetzt erklärt, warum es von Laowa zwei 14er Linsen gibt und geben kann, die bei gleicher Brennweite völlig unterschiedliche Abbilungsmaßstäbe haben. (1:3 und 1:14 o.ä.)

Die Winkel eines fotografierten Hauses bleiben damit gleich, aber das eine bekommt bei sonst gleichen Umständen in der Breite grob viermal so viel auf ein Bild wie das andere. Es funktioniert quasi wie ein Weitwinkel unter Beibehaltung der Winkel.

Ich finde weitwinklige Fotos von Häusern öfters mal richtig übel, weil es mich beim Anblick einfach stört, dass da (für mich) etwas überhaupt nicht stimmt und dieses betrachtete Gebäude (in meiner Realität) so eben nicht aussieht, aussehen kann, ja, aussehen darf!

Solche Bilder geben mir ein unschönes Gefühl, ich will sie erst gar nicht anschauen bzw. blättere, scrolle, schaue sofort weiter. Das stört mich, das ist falsch, das will ich nicht!

Damit wird mir gerade erst klar, dass ich unbedingt solche Objektive haben muss, die 35mm oder mehr haben, aber mir deutlich, deutlich mehr Objekt auf den Sensor holen. Komischerweise ist das nie ein Thema irgendwo, dabei ist das für Architektur doch ein richtig, richtig wichtiges Thema, oder nicht?

Mehr Breite auf den Sensor kriegen, ohne dass man eine unrealistische Bildwirkung bekommt, das ist ja quasi der heilige Gral der Architektur für mich. Statt zu überlegen welches 14er ich haben will, werde ich jetzt nochmals alle 35er durchgehen.

-

Alles was rausgerechnet werden kann, sollte mir egal sein. Mit dem meisten, was das stets in Objektivtests steht, kann ich sowieso nichts anfangen. Ich hatte noch nie irgendwelchen Stress mit Vignettierung, auch die toll bezeichneten Farbsäume haben mich außer an Altglas (67 an Sony, Treppenstufen auf dem Dach) beim Hineinzoomen ins Bild noch nie gestört.

Weniger Randschärfe? Ja, und? Verzeichnung? Ja, klar, wenn ich zu nah dran bin. Und selbstredend muss ich Füße im PS verkürzen, wenn ich Beine mit 20 bis 35mm durch passende Winkel länger mache.

Kein Mensch will solche Kindersärge sehen. Bzw. wie anderswo schon geschrieben, müsste ich mal schauen, dass ich nur den mittleren Bereich zur Aufnahme nutze um die Verzeichnung am Rande nicht im Bild zu haben. Ob ich von den 42 bis 80 MP halt nur die Mitte nutze, ist völlig egal. Ich sollte vielleicht sowieso mal immer ein, zwei Meter zurückgehen und schauen, was so passiert.

Quasi rückläufig zu meinem Licht, das ich in letzter Zeit immer noch näher und noch näher dran haben will.


Somit ist also ein neuer Geldausgebe- und Beschäftigungsauftrag notwenig:

Suche ein 35er bei dem die Daten halbwegs stimmen, das deutlich mehr Breite auf das Bild bringt als die anderen. Und dann schaue direkt nochmal bei den Altlinsen, ob es da was mit besonders großem Bildkreis gibt, das ich dann an den Shift-Adapter hängen kann.

FE 35 1.8 = 1:4,2
FE 35 1.4 = 1:3,8
Tamron 35 2.8 = 1:2
Pentax 645 FA = 1:4,5
Voigtlander hat allein sechs 35er ohne Abbildungsmaßstab
Zeiss Loxia 35mm 2.0 = 1:5,8
Zeiss Distagon T* 1.4/35 = 1:5
Zeiss Milvus 35mm F2.0 ZE Mount Canon = ohne Angabe;
sollte dem Zeiss Distagon entsprechen ~ 1:5,2

Der Versuch für Voigtlander was rechnen zu wollen, scheitert. Was nützt mir denn Sensorgröße und Objektgröße? Das hat doch nichts mit dem Objektiv zu tun?

https://www.vision-doctor.com/optik-berechnungen/abbildungsmassstab.html


Argus 35 mm f/0,95 FF = 1:10

Leider ist die maximale Naheinstellgrenze für eine 35mm-Festbrennweite mit 50 cm recht hoch angesetzt. Dementsprechend fällt auch der größtmögliche Abbildungsmaßstab mit circa 1:10 eher wenig überragend aus.

Das suggeriert, dass die Naheinstellgrenze mit dem Maßstab zu tun hat?

Natürlich verzichtet das Laowa Argus 35mm f/0.95 FF auf einen Autofokus, jedoch bleibt auch bei manueller Fokussierung das Problem des unliebsamen “Focus Breathings”, also der deutlich sichtbaren Veränderung des Bildausschnitts beim Fokussieren zwischen Nah und Fern. Laut Hersteller Venus Optics soll dies beim Laowa Argus 35mm f/0.95 FF auf ein absolutes Minimum reduziert sein.

Das deutet demnach daraufhin, dass sich der Maßstab ändert!

Und das hier deutet darauf hin, dass ich das eher nicht haben will:

auch hier Defizite, die teils jenseits von Gut und Böse sind. So wirken einige Testaufnahmen mit dem Laowa Argus selbst im Bildzentrum bei Offenblende in der Detailansicht weichgespühlt und kontrastarm.

Ich speichere mal ...
 
Werde ich gerade verschaukelt? :confused::lol:

Mir will nicht so recht in den Kopf, daß jemand, der laut eigener Aussage schon so viel sehr unterschiedliche Technik in der Praxis genutzt hat, nicht verstanden hat, was es mit dem Abbildungsmaßstab auf sich hat und der damit einhergehenden Abhängigkeit von Brennweite und Motivabstand (und Sensorgröße).

Also nochmal, just for fun.
Damit habe ich mir z.B. auch jetzt erklärt, warum es von Laowa zwei 14er Linsen gibt und geben kann, die bei gleicher Brennweite völlig unterschiedliche Abbilungsmaßstäbe haben. (1:3 und 1:14 o.ä.)
Das hat damit absolut garnichts zu tun, sondern hängt hauptsächlich bis vollständig, je nach Konstruktion, von der Naheinstellgrenze ab.
Die Winkel eines fotografierten Hauses bleiben damit gleich, aber das eine bekommt bei sonst gleichen Umständen in der Breite grob viermal so viel auf ein Bild wie das andere. Es funktioniert quasi wie ein Weitwinkel unter Beibehaltung der Winkel.
Du lieber Himmel. Also nochmal von vorne, nur anders. Der maximale Abbildungsmaßstab eines Objektivs wird ausschließlich an der Naheinstellgrenze eines Objektivs erreicht. Weil nur wenn man ganz nah am Objekt ist, werden kleine Motive im Bereich weniger Zentimeter bildfüllend dargestellt und man erreicht makronahe Abbildungsmaßstäbe von ca. 1:1. Meist jedoch weniger, so daß ein Motiv, daß so groß ist wie der Bildsensor bspw. nur die halbe oder noch weniger Fläche im Foto einnimmt. Dann beträgt der Abbildungsmaßstab eben nur noch 1:2, 1:5, 1:10 etc.
Bei einem Haus (außer es ist so ein klitzekleines Grünes aus der Monopoly-Box) spielt der Abbildungsmaßstab folglich überhaupt keine Rolle. Da ist man dann aufgrund der Brennweite und Entfernung bei 1:200.000 oder so, weil die Fläche der Sensorgröße entsprechend oft in die Fläche paßt, die einem Haus entspricht.

Deshalb paßt völlig unabhängig vom maximalen Abbildungsmaßstab eines Objektivs immer nur die gleiche Anzahl an Objekten in ein Bild, wenn die Brennweite der Objektive, die Motivdistanz und die Sensorgröße identisch sind. Deutlich abseits der Naheinstellgrenze entscheidet einzig und allein die Brennweite darüber, was alles im Bild ist und was nicht.

Damit wird mir gerade erst klar, dass ich unbedingt solche Objektive haben muss, die 35mm oder mehr haben, aber mir deutlich, deutlich mehr Objekt auf den Sensor holen.
Wie gerade zuvor erläutert, so funktioniert das nicht. Sowas gibts deshalb nicht.

Mehr Breite auf den Sensor kriegen, ohne dass man eine unrealistische Bildwirkung bekommt, das ist ja quasi der heilige Gral der Architektur für mich. Statt zu überlegen welches 14er ich haben will, werde ich jetzt nochmals alle 35er durchgehen.
Wie zuvor erläutert, wäre das pure Zeitverschwendung. Ich hoffe, meine Ausführungen sind es nicht.
Weniger Randschärfe? Ja, und?
Na schön ist das nicht, wenn Mauern plötzlich ausfransen wie Zuckerwatte und bei Personen-Gruppenaufnahmen am Seitenrand bei den Gesichtern die Augen und Nasen ineinander verschwimmen.
Verzeichnung? Ja, klar, wenn ich zu nah dran bin.
Vergesse die kissen- und tonnenförmigen Verzeichnungen nicht. Bei manchen Objektiven bei manchen Brennweiten werden gerade Linien sogar zu Wellenlinien. Unkorrigiert sieht das besonders bei Architektur übel aus. :ugly:

Der Versuch für Voigtlander was rechnen zu wollen, scheitert. Was nützt mir denn Sensorgröße und Objektgröße? Das hat doch nichts mit dem Objektiv zu tun?

https://www.vision-doctor.com/optik-berechnungen/abbildungsmassstab.html
Wie gesagt, der Abbildungsmaßstab hängt nur von Brennweite, Sensorgröße und Motivabstand ab.
größere Brennweite bei ansonsten identischen Werten, wir nähern uns 1:1 ect.
geringerer Motivabstand bei ansonsten identischen Werten, wir nähern uns 1:1 ect.
geringere Sensorgröße bei ansonsten identischen Werten, wir nähern uns 1:1 etc.

Im umgekehrten Fall entfernen wir uns von makrotypischen Maßstab 1:1 hin zu 1:10, 1:100, 1:1000 ...
Das deutet demnach daraufhin, dass sich der Maßstab ändert!
Da wird auf den Umstand eingegangen, daß die Brennweite eines Objektivs hin zur Naheinstellgrenze je nach Objektivkonstruktion teils deutlich abnimmt. Die Brennweitenangabe erfolgt grundsätzlich immer für die Einstellung auf die mehr oder minder unendliche Entfernung. Im Nahbereich kann die Brennweite aber auch schon mal 30 Prozent kürzer ausfallen, so daß es einen Effekt auf den maximalen Abbildungsmaßstab hat. Zur Erinnerung, die von Objektiv zu Objektiv unterschiedlichen Naheinstellgrenze kommt noch dazu und hat zumeist einen noch größeren Einfluß.
 
Zuletzt bearbeitet:
Du wirst recht haben, denn sonst wäre das ja ein Thema.

Der maximale Abbildungsmaßstab eines Objektivs wird ausschließlich an der Naheinstellgrenze eines Objektivs erreicht.

Also dann bekomme ich 1:1 wenn ich Linse vor das Objekt stelle. Aber weniger, wenn ich weiter weg muss, weil das Objektiv so nah nicht scharf stellen kann?

Dann wäre das Ergebnis bei 3 Meter Abstand für alle Linsen gleich. Das habe ich eben schon befürchtet, wobei ich wohl einen Ausreiser habe.

An der R3 hingen eben
FE 35 2.8
Canon 35 2
Sigma EF 35 1.4
Nikon 35 2
Nikon 35 1.4
Pentax 645 35 3.5 mit Shift
und außer der Reihe ein 67 45mm mit Shift

Schade, ich hätte Canon, Sigma, Nikon gleich noch shiften können, aber ich ahne mal, dass da nicht viel geht.
 
Also dann bekomme ich 1:1 wenn ich Linse vor das Objekt stelle. Aber weniger, wenn ich weiter weg muss, weil das Objektiv so nah nicht scharf stellen kann?
Ja, sofern das Objektiv überhaupt 1:1 fähig ist. Außer bei den meisten Makroobjektiven ist das (fast?) nie der Fall. Zumindest bei APS-C und Kleinbild und vermutlich den noch größeren Formaten. Bei winzigen Sensoren wie bspw. denen in Smartphones, ist 1:1 aufgrund der Winzigkeit der Sensoren und geringen Naheinstellgrenzen, eher möglich.
 
Zuletzt bearbeitet:
Zwischen den einzelnen Linsen gibt es bei fixem Abstand von geschätzten fünf Metern doch große Unterschiede.

Das 35er Sony 2.8 zeigt z.B. ca. 3 Meter Breite
Die beiden Canons zeigen geschätzte 4,8 Meter Breite, wobei hier der Adapter zwischen Objektiv und Kamera hängt.

Das 645er zeigt wiederum weniger als die Canons, aber deutlich mehr als das Sony, wobei hier zwei Adapter dazwischen hängen.

(Zwei Bilder geshiftet mit dem 645 funktionieren super.)

Das Fazit wäre dann, dass es hier alle möglichen Brennweiten gibt und meistens oder immer nicht drin ist was drauf steht?


--

Was meine Kommentare oben geht, sind diese anders zu verstehen. Diese diversen Probleme, die Objektive haben, sind für andere Leute womöglich schlimm. Für meine Bilder war das alles nie ein Thema bis auf die übergroßen Füße, die ich stets verkleinere.

Das könnte u.a. daran liegen, dass ich nie in die Sonne fotografiere, sowieso selten draußen bin, bei Portraits offen nie auf den Bildrand schaue, alles unter 35 sowieso eher selten nutze und eher nur die teuren Optiken drauf habe, die anderen liegen hier halt herum usw. - damit stelle ich nicht die Existenz dieser Probleme in Frage, sonst müsste man sich in Testberichten nicht ständig damit beschäftigen.

Und die berühmten chromatischen Dingens habe ich in meinem ganzen Leben erst einmal bewusst gesehen, eben bei Testbildern von Metallstufen auf dem Dach (aus dem Dachfenster) mit den 67ern und entsprechendem Zoom.

Womöglich würde sich mein Leben schlagartig ändern, wenn ich ganz anderen Kram fotografieren müsste. Ich habe entsprechend auch eine Reihe von Filtern noch nie genutzt, die immer wieder ein Thema sind.


Ansonsten muss ich mir das alles jetzt nochmal aufmalen, denn es reicht mir nicht, irgendwas als Regel gelesen zu haben. Ich muss es vor mir sehen können, nur dann kann ich jederzeit wieder herleiten.
 
Das Fazit wäre dann, dass es hier alle möglichen Brennweiten gibt und meistens oder immer nicht drin ist was drauf steht?
Nochmal: Brennweitenangaben auf den Objektiven gelten immer für die Unendlichkeitsstellung. Im Nahbereich (das können auch einige Meter sein) können die Abweichungen erheblich sein. Zudem sind die Brennweitenangaben mal mehr und mal weniger stark gerundet. Automatische Korrekturen in der Kamera und in den RAW-Konvertern sorgen für weitere unterschiedliche Beschnitte durch die Profilkorrekturen für die Objektive, damit alles schön gerade ist und das Foto rechteckig.

Zudem führen identische Brennweiten an unterschiedlichen Sensorgrößen zwangsläufig zu rechnerisch entsprechenden Unterschieden. Da müssen die verwendeten Brennweiten entsprechend angepaßt werden um vergleichbare Ergebnissen zu ermöglichen, zumal die 645 auch noch ein anderes Seitenverhältnis nutzt (4:3) statt 3:2 beim Kleinbild, was für den Vergleich zusätzlich rechnerisch berücksichtigt werden muß.
 
Der normale Seheindruck lässt sich m.E. am besten mit einem 50 mm Objektiv an FF vergleichen. Das kann man einfach nachvollziehen, indem man einmal durch den Sucher blickt und einmal an der Kamera vorbei.

Dann wird man sehen, dass durch den Sucher alles deutlich kleiner erscheint als an der Kamera vorbei, denn genau dieser Sachverhalt wird ausgedrückt in der Angabe der sog. "Magnification" der Kamera an 50mm. Dieser Wert beträgt bei aktuellen KB DSLRs um die 0,69 - 0,75, je nach Kamera.

Um genau das gleiche bei 50mm Brennweite zu sehen, müßte dieser Wert 1,0 betragen. Tut er aber nicht.
 
Alles gut, hab dann vorhin herzhaft gelacht, denn sobald man Winkel anlegt und zwei rechtwinklige Dreiecke sehen kann, muss jedes echte 35er selbstredend dieselbe Objektbreite auf den Sensor bringen, soweit wir von einer jeweils gleichen Linse ausgehen.

Und damit passt es auch mit dem Abbildungsmaßstab im Normalfall.

Das Objektiv ist 20cm lang, die Linse sitzt vorne. Abstand zum Objekt sind ebenfalls 20cm. Der Gartenzwerg hat 24x36mm. Das Abbildungsverhältnis ist 1:1.


Gehe ich mit dem Zwerg näher heran, treffen sich unsere Schärfepunkte vor dem Sensor. Deshalb haben wir hier 20cm Mindestabstand. Gehe ich weiter weg mit dem Zwerg, verändern wir das Verhältnis der Abstände vor und nach der Linse, womit wir dann immer weiter von 1:1 wegkommen? Mache ich ein Objektiv mit Zwischenringen also so lange bis es dem Mindestabstand entspricht?

Da wir nicht nur eine Linse haben, sondern mehrere, die was auch immer machen, stimmt unser Modell nicht mehr. Obwohl das Objektiv vlt. nur 15cm lang ist, dürfen wir mit dem Zwerg vlt. nur 30cm ran.

Aber das wird das nächste Thema. Der Abbildungsmaßstab als alleinige Info ist somit Mist, er macht nur Sinn mit dem Zusatz „an der Naheinstellgrenze“ wie oben erwähnt.

Schade eigentlich.

Und jetzt geht es weiter mit einem Sack den ich eben in der Sonne weit geöffnet habe. Im Sack sind frische Äpfel, die wunderschön in der Sonne leuchten. Der Sack ist aus blickdichtem Material. Also habe ich ihn ganz schnell zugemacht und nach Hause getragen. Und im dunklen Keller wieder aufgemacht. Blöderweise war das Licht weg! Aber die Äpfel waren noch schön warm.

Wohin ist das Licht verschwunden? In Lichtgeschwindigkeit aus dem Sack hinausentwischt? Aber der Sack ist innen ganz schwarz mit Samt ausgekleidet, das Licht konnte teilweise nicht reflektiert werden, es ist also auch nicht abgehauen? Genau! Deshalb ist es als Wärme im Samt verblieben?

Und jetzt muss ich über die Linse aus mehreren Linsen nachdenken, und danach ist das Lupenobjektiv dran.

Apropos, gibt es eine Liste mit echten Brennweiten für bekannte Objektive?
Und wieso sieht das 35er Canon mehr Breite als das 35er Sony? Das 645er mit noch mehr Verlängerung durch zwei Adapter aber weniger?

Und wie werden wohl die Bilder aussehen, die ich mit dem 35er Canon an der Sony und an der Canon 5Dx mache?

Und wo gibt es den Zeichentrickfilm, der den Strahlenverlauf in einem Objektiv mit 13 Linsen in drei Gruppen erklärt?
 
Zuletzt bearbeitet:
Brennweitenangaben auf den Objektiven gelten immer für die Unendlichkeitsstellung.

Und wie weit kann das je nach Objektiv abweichen? Architektur mit 8-11 könnte dann jeweils sonstwas sein? Und Portrait mit 1,2 bis 2 wieder was ganz anderes?

Ich bringe jetzt alle Objektive zurück, die haben mich ja eindeutig verschaukelt. ;-)
 
Und wie weit kann das je nach Objektiv abweichen?

Muss man ausprobieren.

Das ganze Thema wird auch als "Focusbreathing" bezeichnet. Da verändert sich der Bildausschnitt durch das Scharfstellen (= die Projektionsbrennweite verändert sich).

Der Abbildungsmaßstab als alleinige Info ist somit Mist, er macht nur Sinn mit dem Zusatz „an der Naheinstellgrenze“ wie oben erwähnt.

Und noch sinnvoller gibt man als Hersteller die Naheinstellungsrenze auch metrisch an - und nicht abstrakt einfach nur "Naheinstellungsgrenze". Die findet man ohne Angabe ja auch nur durch Gefummel heraus.

Und ganz schlimm wird es bei Zoomobjektiven, da verändert sich die Naheinstellungsgrenze typischerweise auch noch in Abhängigkeit der Brennweite. Da kann es durchaus passieren, dass der maximale Abbildungsmaßstab nicht zwingend bei der Brennweite mit der geringsten Naheinstellung erreicht wird. Das hängt von der Konstruktion des Objektives ab.
 
Und jetzt geht es weiter mit einem Sack den ich eben in der Sonne weit geöffnet habe. Im Sack sind frische Äpfel, die wunderschön in der Sonne leuchten. Der Sack ist aus blickdichtem Material. Also habe ich ihn ganz schnell zugemacht und nach Hause getragen. Und im dunklen Keller wieder aufgemacht. Blöderweise war das Licht weg! Aber die Äpfel waren noch schön warm.

Wohin ist das Licht verschwunden? In Lichtgeschwindigkeit aus dem Sack hinausentwischt? Aber der Sack ist innen ganz schwarz mit Samt ausgekleidet, das Licht konnte teilweise nicht reflektiert werden, es ist also auch nicht abgehauen? Genau! Deshalb ist es als Wärme im Samt verblieben?
Die schönen bunten Farben sind das reflektierte Licht (Strahlung im sichtbaren Bereich) der Sonne.
Die Wärme ist die emittierte Strahlung im Infrarotbereich der Äpfel/des Sackes (vereinfacht gesagt).

Freundliche Grüße
Thomas
 
Ja, nee, vielleicht?
Da unser Sack schwarz ausgekleidet ist und ich die Äpfel gegessen habe, muss das komplette Licht als Wärme im Sack bleiben?

Macht jemand mit zwei und mehr Linsen im Objektiv weiter?
Und könnte man mit billigem Plastik statt Glas keine große Linse bauen, die mit einem Durchmesser von 20cm einige Probleme löst?

Und was wäre überhaupt anders beim Licht einfangen? (Gewicht und Kosten lassen wir mal weg)

Lese mal hier weiter …

https://physik.cosmos-indirekt.de/Physik-Schule/Brennweite
 
WERBUNG
Zurück
Oben Unten