• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Mai 2024.
    Thema: "Diagonale"

    Nur noch bis zum 31.05.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Projekt zur Auswirkung von Mikroexpressions auf die Fotogenität

Nein, es ist nicht exakt. Auch nicht mit dem Aufbau, wie ihn f:11 beschreibt. Das gälte nur für flache Motive (Repro von Bildern, z.B.). Für dreidimensionale Dinge, wie eben Gesichter, stimmt das nicht.

Die Kamera, die seitlich steht, hat IMMER eine andere Perspektive. Sie sieht von einer Nasen-Seite mehr, von der anderen weniger, als die zentral positionierte Kamera.


Alternativer Vorschlag, anstatt zweier Kameras/Objektive:
High-Speed-Filmkamera oder generell ausreichend hohe Bildwiederholrate. Also nicht 11fps, wie bei DSLR, sondern 60. Oder viel mehr, wie bei einer Highspeed-Filmkamera eben.
Dann die Bilder, die während der 1/30 entstanden sind, übereinanderlegen, und mit demjenigen der Einzelbelichtung vergleichen.

Das ist mit ungefähr die Methode wie Markus sie beschreibt oder wie meinst du das? Aufnahmen mit 1/30 machen, aber durch die hohe Bildwiederholfrequenz halt ein einzelnes Bild entnehmen für die kurze Verschlusszeit? Das wäre wirklich ganz gut
 
Im Studio haben wir früher immer wieder teildurchlässige Spiegel an der Sinar zum Einblenden von Objekten benutzt. Wenn die aufnehmenden Kameras vollkommen abgedunkelt werden, kann man auch umgekehrt mit 2 Kameras aufnehmen. Dabei zeigt eine Kamera direkt in Richtung Motiv auf den im 45 Grad-Winkel montierten Spiegel, die andere Kamera wird exakt im 90 Grad-Winkel aufgestellt.

Wäre im Prinzip der schon weiter oben erwähnte Strahlenteiler.
 
Im Studio haben wir früher immer wieder teildurchlässige Spiegel an der Sinar zum Einblenden von Objekten benutzt. Wenn die aufnehmenden Kameras vollkommen abgedunkelt werden, kann man auch umgekehrt mit 2 Kameras aufnehmen. Dabei zeigt eine Kamera direkt in Richtung Motiv auf den im 45 Grad-Winkel montierten Spiegel, die andere Kamera wird exakt im 90 Grad-Winkel aufgestellt.

Wäre im Prinzip der schon weiter oben erwähnte Strahlenteiler.

Das Prinzip ist mir bekannt und ist auch eine Möglichkeit. Der Strahlenteiler ist auch eine gute Möglichkeit.
 
Noch was zu deinem generellen Ablauf. Das was du hier liest, darfst du im Zuge einer Bac-Arbeit NICHT für bare Münze nehmen und schon gar nicht einfach so übernehmen! Vergiss nicht, dass du alles, was du von hier übernimmst entweder aus anerkannter Literatur zitieren musst, oder selber durch einen Versuch beweisen.

Also die Aussage "der Sensor macht bei langer Belichtungszeit das gleiche, wie eine Software, welche Einzelbilder verrechnet" würde ICH verifizieren oder eben irgendwo nachschlagen ;)

Für die Verifizierung müsste man wissen, mit welcher Frequenz (= eigentlich Verschlusszeit) der Sensor die Fotodioden abtastet.

Wenn man vom Nyquist-Kriterium ausgeht und ein Verschluss 1/8000s zulässt, müsste der Sensor also quasi mit höchstens 1/16000s abtasten => mindestens 16kHz. Möchte man das auf eine Highspeedkamera umlegen, bräuchte man eine mit 16kFPS ... gibts sowas und wenn ja, was kostet sowas? Ich denke, der Versuch wird etwas aufwendig und ich bezweifle, dass es Literatur/Papers drüber gibt?

Wo ist der/mein Denkfehler? :D
EDIT: Denkfehler gefunden.... der Sensor arbeitet als "Speicher" und wird nur einmal nach dem Belichtungsvorgang ausgelesen.
 
Zuletzt bearbeitet:
Ich habe da ehrlich gesagt keine Ahnung von. Frage: Wenn ich aus mehreren
kurzen Bildern eine längere Belichtung errechne. Ist es das gleiche Ergebnis, wie bei einer normalen längeren Belichtung?

Grundsätzlich ja, den ob der Sensor (Film, Netzhaut, ...) längere Zeit Photonen sammelt oder einzelne kurze Momente aufaddiert werden, sollte gleich sein.
Einschränkungen ergeben sich event. durch die Pausen zwischen den Aufnahmen und den zur Verfügung stehenden Tools.

Die vielen kurzen Aufnahmen hätten aber den Vorteil, daß Du auch nichtlinear addieren kannst. Es ware ja durchaus denkbar, daß das Auge bzw. der grundlegende chemische Prozess nicht einfach so funktioniert und sich Nichtlinearitäten ergeben, die man auch bei einer längeren Belichtung (mit einer Kamera) nicht sieht (vom Hirn dahinter mal ganz abgesehen).
So gehe ich mal davon aus, daß es einem Sensor (innerhalb des Dynamikbereiches) recht egal ist, ob das einfallende Photon das erste ist, oder ob es schon reichlich Gesellschaft hatte, den alle lösen gleich viel Signal aus.
Bei einem chemischen Prozess wäre es denkbar, daß erst ein Schwellwert überschritten werden muß oder sowas ....


Greez
Stefan
 
Ich würde es auch mit Video versuchen. Einfacher technischer Aufbau, gleiche Perspektive. Und Du könntest aus einer Sequenz jedes Einzelbild (= Kurzbelichtung) mit dem "zusammengerechneten" Bild (= Langbelichtung) vergleichen. Mit zwei Kameras ist die Kurzbelichtung nur ein beliebig gewählter zeitlicher Ausschnitt aus der Langbelichtung.
 
Noch was zu deinem generellen Ablauf. Das was du hier liest, darfst du im Zuge einer Bac-Arbeit NICHT für bare Münze nehmen und schon gar nicht einfach so übernehmen! Vergiss nicht, dass du alles, was du von hier übernimmst entweder aus anerkannter Literatur zitieren musst, oder selber durch einen Versuch beweisen.

Also die Aussage "der Sensor macht bei langer Belichtungszeit das gleiche, wie eine Software, welche Einzelbilder verrechnet" würde ICH verifizieren oder eben irgendwo nachschlagen ;)

Das ist mir klar, aber danke für den Hinweis. Ich habe es nur getan um Input zu erhalten wie z.B. mit dem Graufilter um das Licht zu kompensieren.

Für die Verifizierung müsste man wissen, mit welcher Frequenz (= eigentlich Verschlusszeit) der Sensor die Fotodioden abtastet.

Wenn man vom Nyquist-Kriterium ausgeht und ein Verschluss 1/8000s zulässt, müsste der Sensor also quasi mit höchstens 1/16000s abtasten => 16kHz. Möchte man das auf eine Highspeedkamera umlegen, bräuchte man eine mit 16kFPS ... gibts sowas und wenn ja, was kostet sowas? Ich denke, der Versuch wird etwas aufwendig und ich bezweifle, dass es Literatur/Papers drüber gibt?


Wo ist der/mein Denkfehler? :D

Jetzt kommst du mir mit Sachen ;) aber ich denke das ich bei meinen Experiment das Nyquist-Kriteruim außer acht lassen kann. Es geht rein um das subjektive Empfinden empfinden des Betrachters auf zwei Bilder von einer Person die zur gleichen Zeit und Perspektive mit unterschiedlicher Verschlusszeit entstanden sind. Leider gibt es sehr wenig Literatur darüber, nicht über Fototechnik, sondern über den Einfluss fotografischer Parameter auf die Portraitfotografie. Ich bin auch nur Mediengestalter ohne technischen Hintergrund, allerdings will ich eine recht theoretisch-wissenschaftliche Arbeit schreiben anstatt die 100ste Werbekampagne zu konzipieren. Und ich wollte ein Thema wählen das mir Spass macht.
 
Zuletzt bearbeitet:
Hi,
Strahlenteilung über halbdurchlässige Spiegel sollte noch am praktikabelsten sein. Wird das nicht auch für 3D Filmerei gemacht, wenn/weil Kameras und Linsen nicht im passenden Abstand nebeneinander passen?

Gruß
Holli
 
Jetzt kommst du mir mit Sachen ;) aber ich denke das ich bei meinen Experiment das Nyquist-Kriteruim außer acht lassen kann. Es geht rein um das subjektive Empfinden empfinden des Betrachters auf zwei Bilder von einer Person die zur gleichen Zeit und Perspektive mit unterschiedlicher Verschlusszeit entstanden sind.

Das wäre wie gesagt nur nötig um die Vergleichbarkeit von "Sensor verrechnet bei Langzeitbelichtung ein Bild" und "Software verrechnet mehrere Einzelbilder aus Highspeedkamera" zu untersuchen.

Aber ich hatte da einen Denkfehler. Ein Bildsensor tastet die Dioden nicht permanent (bzw. extrem schnell und oft hintereinander) ab. Der Sensor funktionier quasi wie ein "Lichtspeicher" (über Kondensatoren) und wird einmal nach dem Belichtungsvorgang abgefragt. Als würde man einen chemischen Film belichten und dann rausnehmen und anschauen. Der Vorgang ist der gleiche... wie ich nun (leider zu spät) recherchiert habe.
 
Ich würde es auch mit Video versuchen. Einfacher technischer Aufbau, gleiche Perspektive. Und Du könntest aus einer Sequenz jedes Einzelbild (= Kurzbelichtung) mit dem "zusammengerechneten" Bild (= Langbelichtung) vergleichen. Mit zwei Kameras ist die Kurzbelichtung nur ein beliebig gewählter zeitlicher Ausschnitt aus der Langbelichtung.

DAS ist ein extrem guter Punkt!
Die Aufnahme mit parallelen Kameras (auch mit Strahlenteiler) bedingt, dass die Kamera mit der kurzen Belichtung nur genau einen definierten Ausschnitt der LZB zu sehen bekommen (entweder zu Beginn, wenn sie gleich auslösen... oder irgendwo mitten drin... oder eben Ende, wenn die Endzeiptunkte gleich geschaltet sind).

Mit der Videomethode könnte man sich innerhalb des Zeitfensters der LZB einen beliebigen Frame raussuchen.
 
Das wäre wie gesagt nur nötig um die Vergleichbarkeit von "Sensor verrechnet bei Langzeitbelichtung ein Bild" und "Software verrechnet mehrere Einzelbilder aus Highspeedkamera" zu untersuchen.

Aber ich hatte da einen Denkfehler. Ein Bildsensor tastet die Dioden nicht permanent (bzw. extrem schnell und oft hintereinander) ab. Der Sensor funktionier quasi wie ein "Lichtspeicher" (über Kondensatoren) und wird einmal nach dem Belichtungsvorgang abgefragt. Als würde man einen chemischen Film belichten und dann rausnehmen und anschauen. Der Vorgang ist der gleiche... wie ich nun (leider zu spät) recherchiert habe.

Kein Problem ich bin für jeglichen Input dankbar. Und habe schon extrem viele neue Erkenntnisse erlangt. Und es ist Wahnsinn wieviele sich hier Beteiligen!!!

:D:D:D ICH DANKE EUCH!!! :D:D:D
 
Zitat:
Zitat von shreblov Beitrag anzeigen
Ich würde es auch mit Video versuchen. Einfacher technischer Aufbau, gleiche Perspektive. Und Du könntest aus einer Sequenz jedes Einzelbild (= Kurzbelichtung) mit dem "zusammengerechneten" Bild (= Langbelichtung) vergleichen. Mit zwei Kameras ist die Kurzbelichtung nur ein beliebig gewählter zeitlicher Ausschnitt aus der Langbelichtung.
DAS ist ein extrem guter Punkt!
Die Aufnahme mit parallelen Kameras (auch mit Strahlenteiler) bedingt, dass die Kamera mit der kurzen Belichtung nur genau einen definierten Ausschnitt der LZB zu sehen bekommen (entweder zu Beginn, wenn sie gleich auslösen... oder irgendwo mitten drin... oder eben Ende, wenn die Endzeiptunkte gleich geschaltet sind).

Mit der Videomethode könnte man sich innerhalb des Zeitfensters der LZB einen beliebigen Frame raussuchen.

Das habe ich eben gemeint:

Das ist mit ungefähr die Methode wie Markus sie beschreibt oder wie meinst du das? Aufnahmen mit 1/30 machen, aber durch die hohe Bildwiederholfrequenz halt ein einzelnes Bild entnehmen für die kurze Verschlusszeit? Das wäre wirklich ganz gut


Wäre das eine gute Möglichkeit? Ich hätte ein Objektiv, eine Belichtung und entnehme einen kurzen Frame, bedingt durch die Bildwiederholfrequenz.
 
Nix zu danken ;)
Darf man fragen, im Zuge welchen Studiums du diese Arbeit schreibst? Klingt sehr interessant....

Nicht lachen :angel: Mediendesign. Ich bin gelernter Mediengestalter und war Fotograf bei der Bundeswehr und studiere jetzt Mediendesign...und danach entweder weiter in die Bildwissenschaften bzw. Medientheorie oder halt ins Marketing. Ich habe durch das Studium mit dem wissenschaftlichen Arbeiten so viel Spass gehabt dass mir fast nichts anderes mehr vorstellen kann. Marketing ist auch ganz nett aber halt nicht so interessant.
 
Wo ist der/mein Denkfehler? :D
EDIT: Denkfehler gefunden.... der Sensor arbeitet als "Speicher" und wird nur einmal nach dem Belichtungsvorgang ausgelesen.
So ist es, und das dauert ziemlich lange.

Deshalb ist der Vorschlag, ganz viele unmittelbar im Anschluß aneinander kurz belichtete Bilder zu machen und die längere Belichtungszeit durch Mittelung zu erreichen, zwar theoretisch richtig, aber praktisch undurchführbar. High-Speed-Kameras mit vielleicht 1000 B/s gibt es nur mit niedriger Auflösung. Das gilt für Video ebenso.

Strahlteilerplatte oder -folie und 2 Kameras, über den gleichen Fernauslöser synchronisiert, ist das Mittel der Wahl. Auch wenn dabei leichte Farbunterschiede zwischen Bildern und bei der Platte schwache Geisterbilder entstehen. Ob das für den Zweck, der sich mir nicht wirklich erschließt, nicht die vermutlich kaum vorhandenen Unterschiede überlagert?

Für das Graufilter gilt die Aussage zur Farbe natürlich ebenso.

Alternativ halt zwei Kameras nebeneinander, aber dann ist halt die Perspektive nicht mehr gleich.
 
Zuletzt bearbeitet:
Ja, so meinte ich das.

Falls Du das noch nicht kennen solltest, google mal mit Jim Rakete 1/8s.

Vielen Dank für den Tipp! Ich habe mir schon Austellungen von ihm angesehen aber das ist auch schon lange her. Ich hatte ihn nicht mehr auf dem Schirm aber das ist es im Endeffekt...ich möchte versuchen noch wissenschaftliche Erkenntnisse daraus zu ziehen und nicht nur fotografische ;)
 
Löst eine Videokamera, gerade eine HighSpeedkamera, überhaupt eine pulsierende Ader oder ein Muskelzucken auf? Das sind ja nur Millimeterbruchteile.

Das ist die Frage, aber ich hoffe das sich evtl. doch ein Unterschied erkennen lässt, da ich das gesamte Portrait nebeneinander stellen möchte in einem Eyetracking System und es sind ja viele Muskeln im Gesicht. Das Gesamtbild könnte eine andere Wirkung haben.
 
WERBUNG
Zurück
Oben Unten