• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Wann baut ein Hersteller eine KI-Kamera?

Ich habe es schon ein par Mal gesagt und ich wiederhole es gerne: Wenn ein Smartphone ohne jeden Aufwand "schönere" Bilder macht, als eine teure Kamera, dann verschenken die Kamerahersteller viel Marktanteil - ich wünsche mir eine gute KI für Motiverkennung inkl. passendem jpg-Bildstil und Weißabgleich, Portraitretusche etc. sehr, die raws bleiben ja, was sie sind, aber gleich "tolle" jpgs raus hauen sollte eine Kamera aus meiner Sicht besser als ein Smartphone können
 
... Globale HDR sehen doch fast immer doof aus und eine Kamera könnte wenn dann nur globale HDR, wieso sollte man etwas in einer Kamera implementieren was per definition immer nur mittelmässige Ergebnisse liefern kann?!

grundsätzlich stimme ich Dir zu. Ja, das "Warum" - stellt sich aber auch schon derzeit bei der EBV; auch da gibt es A.I. - Bestrebungen, weil damit jeder Anfänger relativ leicht den oft problematischen Hintergrund austauschen kann. Also Perfektion (oder das, was man dafür hält) ohne Anstrengung.

Für mich geht dann aber eben auch viel am Reiz des Hobbys Fotografie verloren, da für mich damit eben auch die ganze "Arbeit" vor der Aufnahme verloren gehen würde (sich mit theoretischen Themen zu befassen, Geräte zu vermessen etc.), Dinge, die mir keine Last sind, sondern ganz selbstverständlich mit dazu gehören.

Eigentlich gehört das alles mit zum Oberthema "Motivklingel", die auch schon lange durch die Medien geistert. Wieviel darf oder sollte einem die Technik abnehmen ?

Aber entscheiden kann das glücklicherweise immer noch ich - solange ich Dinge wie automatische Gesichtserkennung oder Bildoptimierungen oder automatische Erkennung und Scharfstellung eines Vogels auch immer noch abschalten kann. Das sollten die Hersteller bedenken, dass sie den Verbraucher nicht zu sehr "ans Händchen nehmen" nach dem Motto von Beuys "jeder ist ein Künstler".

Und je toller die jpgs werden würden, um so eher würde die Innovation der RAW-Konverter stagnieren, denn wer steckt als Entwickler noch Geld in etwas, das dann immer weniger gekauft oder per Abo bezahlt werden würde. Denn viele Menschen sind "glücklich faul", keiner fasst mehr RAWs an, wenn er es mit seinen Grundkenntnissen nicht schafft, damit die Bilder besser aussehen zu lassen als wenn er gleich die jpgs nimmt.

M. Lindner
 
Zuletzt bearbeitet:
Was will man mit diesem Marketing Buzz Wort KI - der künstlichen Intelligenz...
Sieht man alte Fotozeitungen durch, so sind die Programmautomatiken in den 1980 er Jahren bereits damit beworben worden, daß sie mit künstlicher Intelligenz die Zeit/Blenden Kombination für jedes Motiv perfekt auswählen .... Ergo schnee von Vor Vor Gestern.

Wobei die derzeitigen "KI- Algorythmen", wo sich das System selbst auf einer Datengrundlage Programiert ist eben vorallem noch undurchsichtiger, als ein klassischer Algorythmus. Aber eben auch ein mehr oder weniger Dumpfes Abarbeiten eines gewissen Regelsatzes.

Sieht man in der c't diverse Artikel zu dem Thema, dann lautet das Gerne: "Künstliche Intelligenz - dümmer als man denkt". Wer will so etwas undurchsichtiges , unvorhersehbares wirklich für ein Werkzeug, wie will man das dann steuern? Damit kann man sich nur noch entmündigen lassen. Das ist nicht das, wofür man eine Kamera kauft, das kann man dem "smart" phone überlassen.
In eine Kamera investieren lohnt sich nur, dafür, daß man die Kontrolle über die Abbildung selbst übernimmt. Dafür braucht es nachvollziehbare Steuerparameter.
 
Warum nicht in der Art der Bildstile der QV5700.
Die konnte man sich auf die Speicherkarte laden, und dann je nach Bedarf auswählen.
Jeder Bildstil enthielt eine kurze Beschreibung darüber was passiert und was der Fotografierende dazu beitragen kann.
Hat natürlich noch recht wenig gebracht damals, aber war immerhin schon mal ein Angebot.
Man muß es nicht nutzen, kann aber, wenn man der Meinung ist es ist einfacher damit zum gewünschten Ergebnis zu kommen.
 
Das heißt so Dinge wie Augen-AF, automatischer Weißabgleich, jpg-Bildstile, Belichtungsmessung etc. sind alles Kontrollverluste ;)
 
Ich würde mich mal nicht so sehr auf HDR versteifen denn da liegt zwischen Wohl und Wehe nur ein ganz ganz schmaler Grat, meist nur einige Angström breit. Hoffentlich bleibt die Menschheit davon verschont. Aber es gäbe doch noch ganz andere nützliche Funktionen. Von was ich so träume:

1. Menschen aus dem Bild entfernen. Wer kennt es nicht, der Markusplatz ist voller Tauben und Menschen, selbst früh 6 Uhr kann man kein schönes Architekturfoto machen. Man stellt die Kamera auf ein Stativ und führt Menschen entfernen aus. Die Kamera mach immer mal wieder ein Foto und schaut ob sich jemand bewegt hat und subtrahiert die Person, Vogel, Auto usw. Auf dem Display erscheint eine Vorschau mit einem Fortschrittsbalken. Renitente Rentner müssen vom Fotografen mit einer Drucklufthupe erschreckt werden um auf 100% zu kommen.

2. Störende Elemente entfernen durch Perspektivkorrektur. Wer kennt es nicht, ein Verkehrsschild stört massive in der Ansicht. (Auto, Mülleimer usw. usf.) Man macht zwei Bilder und bewegt sich dazwischen einen Schritt nach links oder rechts. Die Kamera lässt potentiell störende Objekte auf dem Display aufleuchten und durch antippen werden sie herausgerechnet.

3. Perspektivische Korrektur und Freistellung. Man nimmt einen Skater im Sprung mit 20 Bilder pro Sekunde auf und erhält nicht nur ein Foto sondern ein 3D-Objekt. Das kann man hinterher am PC drehen, die Beleuchtung korrigieren oder auch vor widrigstem Hintergrund perfekt isolieren. Die Datenmasse gibt es her.

4. Beleuchtungskorrektur im Gegenlicht. Man möchte ein tolles Portrait im Gegenlicht mit z.B. 35mm / 50mm bei tief stehender Sonne machen. Je nach Winkel gibt es Objektivfehler wie Flares, das Bild wird flau oder die Lichtsäume um die Haare werden zu hart. Man schießt 10 Bilder (wie bisher eben auch) und wählt den schönsten Gesichtsausdruck aus. Mit den zusätzlichen Informationen aus den restlichen 9 Bildern können Bildfehler herausgerechnet werden.

Mir fällt noch sehr viel mehr ein. Alles Themen die sich ganz und gar nicht nur an den gemeinen Knipser richten. Generell erwarte ich das in der nächsten Generation von RAW-Files nicht mehr nur 2D Daten aufbewahrt werden sondern von der KI aus Datenfusion Objekte abgespeichert werden, dreidimensional mit Geschwindigkeitsvektoren und Beleuchtungssimulation mehrerer Lichtquellen. Dauert alles keine 10 Jahre mehr.
 
man muss es wie gesagt abstellen können, denn jede Weiterverarbeitung in der Kamera kostet Zeit, Strom und Abwärme. Dinge die Kamers z.B. unnötig größer und teurer machen (s. bei Olympus EM1-X). Und dann sind wir aber wieder am meckern, dass uns das zu schwer und zu teuer wird.

Beim kamerainternen Fokusstacking (einer segensreichen K.I.-Entwicklung bei Olympus) braucht es z.B. 5 Sekunden, um maximal 15 Makrobilder zu machen und diese dann zu einem Stack kameraintern ohne PC zu verrechnen (10 Bilder pro sec. via elektronischem Verschluss + AF-Nachführung des Objektives + Verrechnung). Mehr darf es dann aber auch nicht sein, damit das bei belebten Motiven auch noch funktioniert.

Je mehr weitere Schritte dazu kommen, senkt das zwangsläufig die Verarbeitungsgeschwindigkeit bzw. die Serienbildrate.

M. Lindner
 
Aber bei gerade HDR Reihen unsw. bekommt man doch die besten Ergebnisse wenn man selbst festlegt was wo passieren soll. Also arbeiten mit Luminanzmaskern, Masken überhaupt, Pinsel unsw.

Schon aber so ein Auto-HDR, wo die Kamera bei hohen Kontrasten direkt mal selber ein paar RAW für zu hause macht, ohne dass man das jedesmal einstellen muss wäre schon schön.
 
...
Letztendlich geht es dabei zu einem nicht unerheblichen Teil darum, die Schwächen des kleinen Sensors auszugleichen und bei einem großen Sensor braucht man das nicht.

....

Sehe ich auch so. Und da wo Schwächen, bzw. schwierigkeiten für den Nuter, bei Wechselobjektivkameras zu kompensieren sind, wird auch dort KI angewendet. Die ganzen neuen AF-Features von Face-Tracking bis Vogelaugen-AF sind auch KI basiert. Die neue Zusatzstabisierung bei Sony ebenso wie die Bewegungsunschärfeentfernung bei Pixelshift von Panasonic oder Olympus. Da gibt es noch einige mehr Funktionen. Man lässt dem Nutzer aber zum Glück mehr Möglichkeiten diese eben abzuschalten und nicht zu nutzen. Viele Funktionen nimmt man so hin ohne zu überdenken wie diese funktionieren. Viele wissen vielleicht auch garnicht welche Möglichkeiten da noch in der eigenen Kamera schlummern.

Viele Funktionen sind bei Kameras mit größerem Sensor aber einfach auch nicht relevant. Viele KI Funktionen sind auch letztlich dafür da die Möglichkeiten größerer Sensoren zu imitieren.
 
So weit sind Kameras und Notebooks nicht mehr auseinander. Beispiel Akku:
LP-E6N 13,5 Wh
Macbook M1 48 Wh
Und eine Kamera hat kein beleuchtetes Riesendisplay.

Und wie klein das Mainbord geworden ist! https://valkyrie.cdn.ifixit.com/media/2020/11/19121453/MBA_M1_2020_60_v1-scaled.jpg Der Rest ist Akku und Tastatur und Trackpad.

Technisch sehe ich keine Hürde mehr.

Wir sprachen aber auch über CPU und RAM. Willst Du etwa auf ein in der Kamera verrechnetes Nightshot, 10 Minuten warten? Und natürlich in der Zeit nicht anderes (Fotografieren, Bilderschau, Menü) machen können mit der Kamera? Smartphone schön und gut, aber das hat seinen Grund warum die Kamerahersteller darauf verzichten. Und wenn ich für so einen Nightshot sowieso ein Stativ brauche, kann ich auch normal RAW fotografieren.
 
Im Moment gibt es bei Smartphonekameras den Zusatznutzen der Computational Photography.
Aktuell bestes Beispiel ist das Iphone 13.
Sony hat dagegen den Sensor der RX100 in ein Smartphone verpflanzt...

Eine Mischung aus beidem, also aus SP Bedienung, SP Kommunikation in ggf. einem etwas mehr fotoorientierten Gehäuse, aber nicht so wie heute, wird für mich die Übergangsphase der Fotogeräte in der Zukunft sein.

Der Sony Ansatz ist gut, aber eben noch jung und nur ein erster Schritt.
Das völlig überzogene Wort "KI" kenn wir ja schon von den EBV Herstellern.
Für mich hat das zwar nix mit KI zu tun, aber daß diese Funktionen zukünfitg in die Kamerasoftware integriert werden, glaube ich ganz bestimmt.

Die Zukunft wird spannend, vor allem für den, der solche Technolgien frühzeit ernst nimmt!
 
Wir sprachen aber auch über CPU und RAM. Willst Du etwa auf ein in der Kamera verrechnetes Nightshot, 10 Minuten warten? Und natürlich in der Zeit nicht anderes (Fotografieren, Bilderschau, Menü) machen können mit der Kamera? Smartphone schön und gut, aber das hat seinen Grund warum die Kamerahersteller darauf verzichten. Und wenn ich für so einen Nightshot sowieso ein Stativ brauche, kann ich auch normal RAW fotografieren.

Ich meinte als Referenz den Apple M1. Das kleine Macbook kostet in der kleinsten Ausstattung knapp über 1000 EUR. Selbst unter Vollkosten mit Apple Lizenz käme man auf 300-400 EUR für das Mainboard. Herstellungskosten bei Eigenentwicklung von SoCaNi <100 EUR. Das ist mehr als genug Leistung für eine Echtzeitverarbeitung. Und stromsparender als die bisherigen SoCs sind sie allemal. Fazit: An der Technik liegt es nicht.
 
Schönen Samstagmorgen. Habe die Antworten nur überflogen..

Was ist der Gedanke hinter der Frage? Point and Shoot, tolles Bild, richtiger Moment, oder? Man könnte den Bild-Prozess in kleinere Schritte aufdröseln und schauen, was schon existiert..

Motiverkennung für AF - Haben die großen Kamerahersteller in ihre Bodies integriert. Augen, Tiere, Autos, etc pp. Motiverkennung für "Bild-Style" - Ist das ein Selfie mit Bokeh-Effekt oder ein Natur-Panorama mit DRI und bunten Farben? Das machen viele Smartphones im Auto-Modus, inkl. Auto-WB, Kontrast/Helligkeitsoptimierung, Haut-Verschlimmbesserung. Auflösungsverbesserung "Super-Resolution" - idR bringt dies die besten Resultate, wenn eine KI den Bildinhalt bestimmt und synthetisch nachbaut. So passierts gerade in zB Lightroom/Photoshop. Noise-Reduction - Wie auch beim Punkt zuvor bringt es die besten Resultate, wenn man den Inhalt "kennt".

Nachtrag: Siehe aktuellste KI-Umsetzung v Canon, richtiger-Moment-Erkennung Powershot PX. Eine HomeUse-Mini-PTZ-Cam, die Menschen "verfolgt" (nicht neu), und die "schönsten" Momente festhält (der interessante Part).

Da die "Mobile"-Anbieter sich darauf ausruhen, dass doch eh alles in der Cloud liegt, wird man am ehesten dort die Optimierungen durchführen - nicht lokal auf dem Smartphone oder der Kamera. So passierts mitunter bei Google-photos und sicherlich auch bei Apple. Ist das Bild in der Cloud, können die Algorithmen das beste* Ergebnis erzielen. Canon hat auch einen Cloud-Service, der am Ende des Gedankenspiels genau das aufbaut (oder möchte;)) : Eine große Bildsammlung für die Erstellung v KI-Algorithmen, das Trainingsmaterial, um dann im zweiten Schritt die Resultate als (automatisierte) Presets an den Kunden zurückzugeben - wenn möglich, direkt in den Body implementiert.

Ich kürze ab: Ist alles eigentlich schon da - wenn man sich vom Gedanken verabschiedet, alles lokal durchzuführen. (Das gilt doch bei DSLRs/DSLMs eh schon, man nutzt die Kraft der Rechner, um die RAWs zu bearbeiten.)

By the Way: Ich vermute weiterhin grundsätzliche Missverständnisse bei der "Power" eines Smartphones.. Das Kameramodul in einem Smartphone ist ein komplett autarkes System mit Ram und eigenem Prozessor (ähnlich Digic/Exmor/Bionz etc pp). Der Hauptprozessor gibt nur eine Anfrage ab, "gib mir ein Foto von Sensor A in Auflösung [Preset 1] und [jpg]" und erhält die vorgekauten Daten. Raw aber nur im expliziten Fall. Würde der Hauptprozessor ständig die Bildverarbeitung des Sensor-Raws übernehmen, ein Smartphone würde keine Stunde durchhalten. Und in Anbetracht der Größe (und des anvisierten Energiehaushalts) dieser Bildprozessoren zahlt man auch einen Tribut: Algorithmen werden vereinfacht, um das Processing zu optimieren - ein Gleichgewicht aus "Nicht-Überhitzen", "Batterie-leer-saugen" und "sieht gut genug aus". Kurzum: Der Hauptprozessor in einem Smartphone tut während des Bildaufnahmeprozesses nur Nebenprozesse, der Löwenanteil passiert im Bildmodul.

mfg chmee

* schwierige Beschreibung. Was heisst hier "beste".. Effizienz? Mit der umfassend besten Qualität vielleicht. Jetzt könnte man entgegnen, die gleichen Algorithmen und Datenbasis könnte man doch auch ins Smartphone packen. Ist aber wenig effizient, wenn man Speicherplatz und Energiehaushalt/Verbrauch in den Vergleich einbezieht. So etwas wird dann nämlich der Hauptprozessor übernehmen müssen.
 
Zuletzt bearbeitet:
Ich fände es toll, wenn ich stürzende Linien schon in der Vorschau grade rücken kann. Dann kann ggfs den Ausschnitt oder Standort noch anpassen und muss später in der Bildbearbeitung nichts abschneiden. Sozusagen Tilt/Shift als Softwarefeature in der Kamera. Das ist nur ein Beispiel dafür was kommen könnte.

Es wird noch ganz viele Ideen geben, die auch einem erstklassigen Sensor Möglichkeiten eröffnen. Die Motivklingel wird jedesmal bemüht, wenn es um Fortschritt geht. Das war schon beim ersten AF so.
 
Ich fände es toll, wenn ich stürzende Linien schon in der Vorschau grade rücken kann. Dann kann ggfs den Ausschnitt oder Standort noch anpassen und muss später in der Bildbearbeitung nichts abschneiden ...

gibt es bereits bei Olympus aktuell zu kaufen (z.B. bei meiner OMD EM1 MK3, sogenannte Keystone-Korrektur auf eine Multifunktionstaste programmierbar und dadurch sehr schnell zuschaltbar). Habe noch nicht genau verglichen, wie groß die Einbußen der kamerainternen Möglichkeiten im Vergleich zu einer nachträglichen EBV (z.B. LR) sind, nutze ich aber gerne bei unkritischen Innenaufnahmen im Bereich von 8-12 mm (KB 16-24) und die senkrechten Linien sind dann tatsächlich angenehm gerade und ich kann schon bei der Aufnahme den Ausschnitt richtig planen

und zu einem Einwand weiter oben ("kameraintern dauert ewig"): für ein kamerainternes Fokusstacking mit einem 15er Bilderstapel warte ich für das fertige Makrobild (allerdings JPEG) bei der EM-1 MK3 ganze 5 Sekunden (Aufnahmen + Verrechnung)

Aber Prozessorleistung (Dual) kostet natürlich: Kameras werden dadurch sicher nicht günstiger werden (welcher Hersteller verramscht schon solche Features), Stromverbrauch bzw. Reichweite des Akkus oder evt. größere Kameras mit 2 Akkus, Abwärme (größere Gehäuse) ...

Ist es einem das dann wert ?

M. Lindner
 
Zuletzt bearbeitet:
Ich fände es toll, wenn ich stürzende Linien schon in der Vorschau grade rücken kann.

"Die neue Funktion "Leica Perspective Control" korrigiert automatisch stürzende Linien
und ist durch ein kostenloses Firmware-Update für die Leica M10-P, M10-R und M10 Monochrom verfügbar.
Der Leica Store Wetzlar erklärt Ihnen gerne telefonisch (06441/2080800) oder per Skype (Leica Store Wetzlar)
die neue Funktion und hilft Ihnen bei der Installation des Updates."
 
WERBUNG
Zurück
Oben Unten