• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Berauschende Entrauschung

Und du glaubst daran wird nicht gearbeitet?

Kann ich nicht beurteilen und verallgemeinern kann man das sowieso nicht.
 
Sorry aber Computational Photography ist der Bereich wo noch größere Gewinne zu machen sind...die Sensoren selbst sind nahezu ausgereizt.
Natürlich wird da noch optimiert, aber wer glaubt, das hier ohne die ach so böse Software noch viel zu holen ist, ist leider auf dem Holzweg.

Wird wohl auch nicht mehr ewig lange dauern bis Multishot-NR und Co. auch bei DSLM mit großen Sensoren zum Standard wird. (Noch ist der Readout idR ein Problem)

KI hin oder her. Wo soll denn die fehlende Information herkommen die durch das Rauschen verloren gegangen ist?

Signalrekonstruktion über mehrere Pixel hinweg! (Das ist ein Prinzip das ähnlich auch beim Rendering per Raytracing oder Dingen wie TSSAA (u.a. DLSS und Co.) zum Einsatz kommt.)

Speziell DeepPrime denkt sich nix dazu, sondern hat offensichtlich nur einen viel viel größeren Filterkernel als manuell erstelle Entrauschungsalgorithmen, der einfach viel besser das Nutz- vom Rauschsignal unterscheiden kann.
Es geht nicht darum fehlende Informationen zu erzeugen, sondern die vorhandenen besser zu nutzen, statt sie durch ungeeignetere Verfahren quasi zu verwerfen! ;)

Und ja...verglichen mit DeepPrime sind allen anderen Demosaicer mittlerweile absolut unzureichend...schon bei base ISO!

Zusatzprogramme sind für mich addons, aber lassen wir das.

DXO ist weder "Addon" noch "Zusatzprogramm". :ugly:
 
Zuletzt bearbeitet:
Außerdem bin ich der Meinung das man erst an der Hardware/Technik arbeiten sollte, anstatt den Anspruch zu haben aus Schrott in der EBV Gold zu machen.

Wir sind an einem Punkt angelangt wo Hardware Verbesserungen leider nur noch in kleinen Schritten vorrangeht, auf Softwareseite scheint noch einiges mehr zu gehen.
Entscheidend ist für mich was am Ende dabei herauskommt, und da darf eine KI ruhig ihren Anteil haben.
Mach doch mal eine High Iso Aufnahme mit deiner Kamera mit "Multiframe" wenn sie das kann, das Ergebnis ist dann eine Kombination aus Hard und Software.

PS: Wenn ich in den IPhone 14 Thread schaue bin ich sehr angetan von der Qualität der Bilder, hätte vor 2-3 Jahren nicht geglaubt das so etwas mal aus einem "Telefon" kommt, und das ist wohl größtenteils einer verbesserten Software geschuldet.
 
Wird wohl auch nicht mehr ewig lange dauern bis Multishot-NR und Co. auch bei DSLM mit großen Sensoren zum Standard wird. (Noch ist der Readout idR ein Problem)

R5-JPG aus der Kamera mit Multishot - Iso 12800
[ATTACH_ERROR="dslrToolsAttachRewrite"]4448947[/ATTACH_ERROR]

100% Crop
[ATTACH_ERROR="dslrToolsAttachRewrite"]4448948[/ATTACH_ERROR]
 
Zuletzt bearbeitet:
R5-JPG aus der Kamera mit Multishot

Als Default/Standard, genau wie bei Smartphones und on-the-fly gleich noch ein wenig HDR Processing on Top...
Also alles nicht als Extra Modus. ;)
Multishot NR und HDR und Co. gibt's als extra Modus ja eh schon ewig bei Canon.

Sobald aber Stacked BSI (wirklich) breit eingesetzt werden und der ES bei DSLM durchgehend die "normale" Betriebsart wird, wird das genauso Standard werden wie bei den Smartphones.
 
Zuletzt bearbeitet:
:confused:
Die Entscheidung wann und wie ich etwas fotografiere soll schon noch bei mir liegen.

Häh? :confused:
Du drückst doch weiterhin auf nen Knopf und bekommst ein Bild...evtl. noch getrennt zwischen einem fertigen RGB mit dem kompletten applizierten Processing und einem in Form eines Mehroderweniger-Rohdatenformats.

Was dazwischen passiert unterliegt doch bereits heute nicht wirklich deiner Kontrolle sondern der der Kamera Firmware!

Und ja du wirst bei ner DSLM weiterhin mehr Kontrolle haben als bei einem Smartphone...
Dafür sind die Geräte ja da und haben u.a. deshalb auch Wechselobjektive, mehr Knöpfe und mehr spezifische Optionen.

Das heißt aber ja nicht das sie sich Default nicht in Zukunft vom internen Processing erstmal viel mehr wie Smartphones verhalten.
 
Zuletzt bearbeitet:
Was dazwischen passiert unterliegt doch bereits heute nicht wirklich deiner Kontrolle sondern der der Kamera Firmware!
Ja, aber ich möchte auch weiterhin noch selbst entscheiden ob Multiframe oder eine einzige lange Belichtung für mein Moriv das richtige ist, also soll es bitte ein "extra Modus" bleiben.
 
Das ist doch vollkommen unerheblich für das Ergebnis!
Du kannst entweder durchgehend integrieren oder teilst die selbe Integrationszeit in mehrere Blöcke auf und addierst das dann.
Das ist für den Endanwender am Ende transparent wenn das durch die FW richtig gemacht wird.

Ein Trick der Bei Astroaufnahmen ohne (ausreichend exakte) Nachführung übrigens eh schon ewig genutzt wird. ;)

Im übrigen läuft da mit modernen Sensoren, insbesondere im Videomodus, doch eh schon einiges in dieser Richtung unter der Haube, worüber du am Ende eh keine Kontrolle hast.
 
Zuletzt bearbeitet:
DXO ist weder "Addon" noch "Zusatzprogramm". :ugly:

Oh je. Werden wir jetzt kleinkariert und wollen jetzt alles haargenau beschrieben haben? Ich würde, wenn ich es nutzen würde, DeNoise und DXO als Erweiterung sehen. Für die Bildbearbeitung brauche ich DeNoise und Pure 2 nicht zwingend, LR / PS /capture one schon.

Technisch gesehen sind es eigenständige Programme, aber werden mit PlugIns in LR eingebunden ( DeNoise und DXO 2 ) und somit sind es für mich Zusatzprogramme die ich für die Bildbearbeitung nutzen kann, aber nicht muss
 
Zuletzt bearbeitet:
Das ist doch vollkommen unerheblich für das Ergebnis!
Du kannst entweder durchgehend integrieren oder teilst die selbe Integrationszeit in mehrere Blöcke auf und addierst das dann.

Und das ist je nach Motiv eben nicht unerheblich ;)


Ein Trick der Bei Astroaufnahmen ohne (ausreichend exakte) Nachführung übrigens eh schon ewig genutzt wird. ;)
Auch mit einer exakt laufenden Nachführung stackt man, das verbessert einfach das Signal /Rauschverhältnis und beseitigt auch noch Flugzeugspuren.
PS: Ich habe schon Astronegative gestackt als über Digitalkameras noch niemand nachdachte.
 
Und das ist je nach Motiv eben nicht unerheblich ;)

Inwiefern? 30*1sek Integrationszeit sind exakt 30sekunden Integrationszeit.
Entscheidend ist, dass die Intervalle ohne (zu) große Unterbrechung aufgenommen werden.

Olympus macht das sogar zu nem Gimmick mit ihrem Live-Composite.

Auch mit einer exakt laufenden Nachführung stackt man, das verbessert einfach das Signal /Rauschverhältnis und beseitigt auch noch Flugzeugspuren.

Hängt ja von der Verstärkung und der Art des Sensors ab ob das SnR sich damit verbessern lässt.

Auf einen Tiefflug mit dir lasse ich mich nicht ein. Das ist mir zu doof.

Mit Fakten hast du es nicht so oder?
 
Zuletzt bearbeitet:
Inwiefern? 30*1sek Integrationszeit sind exakt 30sekunden Integrationszeit.
Also in der Astrofotografie macht das einen Unterschied, er ist nicht gewaltig aber man sieht es.
Wenn man also die Möglichkeit hat 60x 1Minute zu belichten dann ist das Ergebnis sichtbar besser als 3600x 1 Sek.
Das ist aber nun nichts neues wenn man schon etwas tiefer in der Astrofotografie steckt.
Entscheidend ist, dass die Intervalle ohne (zu) große Unterbrechung aufgenommen werden.
Das wiederum ist bei anderen Motiven als im Astrobereich sicherlich von Vorteil.
Olympus macht das sogar zu nem Gimmick mit ihrem Live-Composite.
Feine Sache, das Gimmick hätte ich auch gerne.
Hängt ja von der Verstärkung und der Art des Sensors ab ob das SnR sich damit verbessern lässt.
Jede Kamera selbst die sauteuren gekühlten Astrokameras profitieren davon.
https://youtu.be/MMrR_95yMQk?t=425
 
Zuletzt bearbeitet:
Also in der Astrofotografie macht das einen Unterschied, er ist nicht gewaltig aber man sieht es.

Du gehst da von der Verstärkung grade bei Deep Sky aufgrund der wenigen Photonen die da noch ankommen aber idR auch massiv an die Grenze des techn. machbaren, vor allem bei kürzeren Einzelintervallen.
Das lässt sich nicht 1:1 auf jede Situation in der Alltagsfotografie übertragen zumal es da, zumindest auf Smartphones, ja nicht bei einem "einfachen" stacking bleibt.

Wir reden da ja nicht von mehreren Stunden akkumulierter Belichtungszeit sondern vielleicht max. 1- 30sek und da würde ich eh erwarten, dass die FW dann transparent je nach Betriebsmodus intern die idealste Variante nutzt.
 
Zuletzt bearbeitet:
Mich würden da einfach mal euer Workflow und Erfahrungen interessieren :)

Früher störte mich das Rauschen auch manchmal. Seit der Canon 6D und jetzt R6 ist das Thema nicht mehr relevant. Die Sensoren der aktuellen Kameras sind derartig gut geworden das man kaum noch Rauschen sieht.

Beim Beispielbild hatte ich vergessen die Belichtungszeit von 1/500s herunterzusetzen daher die astronomische ISO von 10000. Fällt nicht weiter auf. Nächstes Bild war dann mit normalen ISO1250.
 

Anhänge

Zuletzt bearbeitet:

@CR6: aber warum wird dann ein Bild in RAW und ISO 400 bei mir nie so gut wie ein OOC JPEG der selben Szene beim selben Licht mit ISO 6400 (die Kamera soll in diesem Bereich ISO-invariant sein)? Irgendwie kann die Entrauschfunktion des RAW-Entwicklers der Kamera das super ausgleichen.

Die beiden Bilder hier https://photos.app.goo.gl/D7g8YFttRHKPWcnD9 unterscheiden sich nur in einem Punkt: einmal war "Multi-Frame Noise Reduction" an, einmal nicht.
Objektiv war das 30 mm f/3.5 Makro von Sony. Ja, nicht das schärfste Glas auf dem Markt.
Könnt ihr einen Unterschied sehen? Welches gefällt euch besser? Ich sage bewusst nicht welches der Bilder welches ist.
Ich ja, eins rauscht mehr, hat aber mehr Details und das andere rauscht weniger und hat weniger Details. Die Unterschiede sind aber minimalst. Wahrscheinlich müsste ich das Feature mal bei deutlich höheren ISOs als 1250 testen? Aber für manche ist alles vierstellige schon unbenutzbar...

Wie würde ich dieses Feature per Hand umsetzen? Die ganzen Programme haben Bilder zusammenfügen nur für HDR, Panorama und Fokus-Stacking, aber eins fürs Rauschreduzieren sah ich noch nie.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten