Schönen Samstagmorgen. Habe die Antworten nur überflogen..
Was ist der Gedanke hinter der Frage?
Point and Shoot, tolles Bild, richtiger Moment, oder? Man könnte den Bild-Prozess in kleinere Schritte aufdröseln und schauen, was schon existiert..
Motiverkennung für AF - Haben die großen Kamerahersteller in ihre Bodies integriert. Augen, Tiere, Autos, etc pp.
Motiverkennung für "Bild-Style" - Ist das ein Selfie mit Bokeh-Effekt oder ein Natur-Panorama mit DRI und bunten Farben? Das machen viele Smartphones im Auto-Modus, inkl. Auto-WB, Kontrast/Helligkeitsoptimierung, Haut-Verschlimmbesserung.
Auflösungsverbesserung "Super-Resolution" - idR bringt dies die besten Resultate, wenn eine KI den Bildinhalt bestimmt und synthetisch nachbaut. So passierts gerade in zB Lightroom/Photoshop.
Noise-Reduction - Wie auch beim Punkt zuvor bringt es die besten Resultate, wenn man den Inhalt "kennt".
Nachtrag: Siehe aktuellste KI-Umsetzung v Canon,
richtiger-Moment-Erkennung Powershot PX. Eine HomeUse-Mini-PTZ-Cam, die Menschen "verfolgt" (nicht neu), und die "schönsten" Momente festhält (der interessante Part).
Da die "Mobile"-Anbieter sich darauf ausruhen, dass doch eh alles in der Cloud liegt, wird man am ehesten dort die Optimierungen durchführen - nicht lokal auf dem Smartphone oder der Kamera. So passierts mitunter bei Google-photos und sicherlich auch bei Apple. Ist das Bild in der Cloud, können die Algorithmen das beste
* Ergebnis erzielen. Canon hat auch einen Cloud-Service, der am Ende des Gedankenspiels genau das aufbaut (oder möchte
) : Eine große Bildsammlung für die Erstellung v KI-Algorithmen, das Trainingsmaterial, um dann im zweiten Schritt die Resultate als (automatisierte) Presets an den Kunden zurückzugeben - wenn möglich, direkt in den Body implementiert.
Ich kürze ab:
Ist alles eigentlich schon da - wenn man sich vom Gedanken verabschiedet, alles lokal durchzuführen. (Das gilt doch bei DSLRs/DSLMs eh schon, man nutzt die Kraft der Rechner, um die RAWs zu bearbeiten.)
By the Way: Ich vermute weiterhin grundsätzliche Missverständnisse bei der "Power" eines Smartphones.. Das Kameramodul in einem Smartphone ist ein komplett autarkes System mit Ram und eigenem Prozessor (ähnlich Digic/Exmor/Bionz etc pp). Der Hauptprozessor gibt nur eine Anfrage ab, "
gib mir ein Foto von Sensor A in Auflösung [Preset 1] und [jpg]" und erhält die vorgekauten Daten. Raw aber nur im expliziten Fall. Würde der Hauptprozessor ständig die Bildverarbeitung des Sensor-Raws übernehmen, ein Smartphone würde keine Stunde durchhalten. Und in Anbetracht der Größe (und des anvisierten Energiehaushalts) dieser Bildprozessoren zahlt man auch einen Tribut: Algorithmen werden vereinfacht, um das Processing zu optimieren - ein Gleichgewicht aus "Nicht-Überhitzen", "Batterie-leer-saugen" und "sieht gut genug aus". Kurzum: Der Hauptprozessor in einem Smartphone tut während des Bildaufnahmeprozesses nur Nebenprozesse, der Löwenanteil passiert im Bildmodul.
mfg chmee
* schwierige Beschreibung. Was heisst hier "beste".. Effizienz? Mit der umfassend besten Qualität vielleicht. Jetzt könnte man entgegnen, die gleichen Algorithmen und Datenbasis könnte man doch auch ins Smartphone packen. Ist aber wenig effizient, wenn man Speicherplatz und Energiehaushalt/Verbrauch in den Vergleich einbezieht. So etwas wird dann nämlich der Hauptprozessor übernehmen müssen.