Hallo!
Habe mich mit Astrofotografie noch nicht so richtig beschäftigt und bin jetzt etwas verwirrt. Über die NPF-Regel habe ich eben erst ein wenig gelesen.
man würde ja meinen, je lichtstärker das Objektiv, desto längere Belichtungszeit sind möglich, bevor die Sterne zu Strichspuren werden.
Prinzipiell würde ich das erst einmal nicht meinen. Ich würde meinen: Je lichtstärker das Objektiv, desto
kürzere Belichtungszeit sind möglich (um die benötigte Menge Licht einzufangen), damit die Sterne
nicht zu Strichspuren werden.
Oder: Je lichtstärker das Objektiv, desto heller können die Sterne im Foto werden, bevor schließlich die Strichspuren bei bestimmter Belichtungszeit entstehen.
Mit der modernen NPF-Regel habe ich eine kleine Analyse gemacht und siehe da: je kleiner die Blende, desto länger lässt sich belichten. [...]
Konkretes Beispiel: mit einem 14 mm-Objektiv an einer Kleinbild-Kamera (hier: Canon EOS RP) ergeben sich folgende max. Belichtungszeiten:
f1.4 = 14,88 s
f2.8 = 18,28 s
f4.0 = 21,10 s
Die in der Rechnung aufgezeigten Unterschiede sind sehr gering. Bei zwei Blenden Unterschied kannst du also etwa 1,2 mal länger belichten. Du fängst in der gleichen Zeit aber nur ein Viertel des Lichts (25%) ein. Verrechnet mit dem Faktor 1,2 fängst du also ca. 30 % des Lichts ein. Das Ziel ist aber, mehr Licht (>100%) zu bekommen!
Demnach müssten man ja wesentlich mehr Wert auf eine möglichst lichtstarke Linse legen, denn auf eine möglichst hohe Lichtstärke?!
Den Satz verstehe ich nicht. Wie gerade oben beschrieben, kann die minimal längere Belichtung bei Weitem nicht die deutlich "dunklere" Blende ausgleichen.
Die plausibelste Antwort die ich darauf fand war:
Durch die kleinere Blende (größere Blendenzahl) bekommt man zum einen eine stärkere Punktschärfe, zum anderen wird durch die Beugung des Lichts der Lichtpunkt am Sensor größer.
Meine kurze Recherche ergab auch, dass die NPF-Regel wohl von einem idealen Objektiv ausgeht, das bei offener Blende die maximale Schärfe erreicht. Demnach tritt durch zunehmendes Abblenden nur ein negativer Effekt, nämlich eine zunehmende Beugungsunschärfe auf. In dieser Unschärfe fallen also die Sternenspuren weniger deutlich auf als bei schärferen Punkten.
generell gilt:
Je weiter Sterne von Himmelsnordpol (oder Südpol) entfernt sind, desto größer ist die relative Strecke die sie im Zeitraum x über den Himmel wandern.
Logisch. Gibt es eigentlich eine Faustregel, die das beachtet? Wenn ich mit einem Teleobjektiv auf den Nordstern ziele, ergeben sich bei gleicher Belichtungszeit ja andere Sternenspuren als wenn ich weit daneben ziele.
Je größer die Pixel einer einer Kamera sind, desto weniger schlägt die relative Bewegung der Sterne (und das Seeing) zu Buche (undersampling).
Logisch.
Je kleiner die Blende, desto „kleiner“ die Sterne, desto weniger relevant ist die relative Bewegung der Sterne.
Klingt für mich nicht so logisch. Es widerspricht auch dem, was ich durch meine o.g. kurze Recherche denke, herausgefunden zu haben. Angenommen, mein Sensor hat eine unendliche Auflösung. Dann müssten Sternenspuren umso deutlicher sein, je kleiner die Sternenpunkte sind. Ist der Punkt weich (groß), entsteht nur ein leichtes "Langloch"/Ei. Ist der Punkt klein, entsteht eine richtige Spur.
Daraus folgt:
Nah am Himmelspol + große Pixel + kleine Blende
= längere mögliche Belichtungszeit. Und der Umkehrschluss.
Ja, logisch. Nur dass wir jetzt für den relevanten Effekt der "kleinen Blende" unterschiedliche Argumente vorliegen haben.
Nachtrag1 : Je kleiner die Brennweite, desto weniger relevant die relative Sternbewegung, desto länger die mögliche Belichtungszeit.
Allerdings werden Sterne bei kurzen Brennweite verhältnismäßig größer abgebildet als bei langen Brennweiten. D.h. Bei einer Weitwinkelaufnahme sind die Sterne prominenter als bei einem Mosaik aus Teleaufnahmen, das denselben Himmelsausschnitt zeigt.
Ja, im Grunde genommen hat da ja auch was mit der Auflösung zu tun: Weitwinkelfoto = Ein bestimmter Sternenhimmel-Ausschnitt auf einem Foto mit beschränkter Auflösung. Mosaik aus Telefotos: Ein bestimmter Sternenhimmel-Ausschnitt auf vielen Fotos mit insgesamt viel höherer Auflösung.
Bei einer Weitwinkelaufnahme kann z.B. ein Stern ein Pixel sekundenlang belichten. Dieses Pixel wird dann recht hell. Hätte meine Kamera eine ultrahohe Auflösung, könnte ich nicht so lang belichten, ohne dass eine Sternenspur (mehrere belichtete Pixel) entsteht. Ich müsste also kürzer belichten und das belichtete Pixel wäre sehr klein und unauffällig. ...Wobei das irgendwie auch Quatsch ist. Angenommen, die Optik würde das wirklich so extrem hoch auflösen können, dann wäre es ja egal, ob ein kleiner Stern über ein großes Pixel wandert und es beleuchtet (und nach der Belichtungszeit X eine gewisse Helligkeit des Pixels verursacht), oder ob der Stern über ein paar kleine Pixel wandert, diese beleuchtet und die anderen drum herum unbeleuchtet lässt. Der entsprechende kleine Ausschnitt des Bildes (1x1 Pixel bzw. viele x viele Pixel) wird am Ende gleich hell aussehen, wenn man das Foto dann verkleinert...
Nachtrag 2: Eine Möglichkeit mehr Licht pro Aufnahme zu sammeln ist ein Astrotracker. Dieser gleicht die Erdrotation aus. Das bedeutet, dass deine Kamera immer auf denselben Punkt am Himmel zeigt. Dann kannst du länger Belichten und die Blende weiter öffnen, ohne dass du Strichspuren bekommst.
Genau, und hier schließt sich der Kreis: Lange belichten ist doch nur sinnvoll, um mehr Licht einzufangen. Wenn ich aber bei viel kleinerer Blendenöffnung nur minimal länger belichten kann, ist das - im Sinne des scharfen und rauschfreien Astrofotos - zwecklos.

Letztlich, so denke ich, sollte man also immer versuchen, die Blende so weit wie möglich zu öffnen. Hat das Objektiv bei Offenblende klare Schwächen, kann leichtes Abblenden ggf. für einen optimalen Kompromiss sorgen. Das muss man dann wohl individuell herausfinden.