• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Wann baut ein Hersteller eine KI-Kamera?

als ob ND-Kameras nicht genügen würden ;)
 
X41U: Vielen Dank für die Info. Zwei Fragen dazu:

- hat man da auch Eingriffsmöglichkeiten bezüglich der veränderten Bildachsen bzw. kann man die auch unabhängig getrennt voneinander verschieben (was ich bei Aufnahmen in Innenräumen nicht unwichtig finde) ?

- wird es das auch für andere Kameraserien von Leica geben ?

M. Lindner
 
Da es hier so schön hinpasst:

Mich als Programmierer hat heute mal wieder Felix "Fefe" von Leitner sehr amüsiert:

https://blog.fefe.de/?ts=9f7d0b75

Im Kern: können wir nicht ein Bundesamt nehmen und jeden, der offensichtlichen Blödsinn erzählt (wie Blockchain als besonders krasses Beispiel), einfach in dieses Bundesamt verfrachten, wo er dann keinen Schaden mehr anrichten kann, so das die wirklichen Probleme von Leuten angefasst werden, die kompetent sind ?

Als die alten Griechen die euklidische Mathematik aufgestellt hatten, wollten sie alles mit Mathematik erklären.

Als Galilei das Mikroskop erfunden hatte, war er sehr enttäuscht, das er im Mikroskop nicht überall kleine Maschinen erkannte - weil er ja Maschinen kannte und ergo davon ausging, das alles eine Maschine sei.

Jetzt gibt es halt Computer und die Menschen haben wunderliche Vorstellungen darüber, was Computer alles können sollten.

Und ja, KI gehört da zu den Beispielen. Echte KI verbrät unglaublich viel Leistung und damit Strom, die Ergebnisse sind nie zuverlässig, und man kann auch keine Fehler fixen. Als Allheilmittel nicht geeignet.

Auch Quantencomputer sind so ein Problem. Bisher ist nicht erkennbar, ob sie je real sein werden. Also klar, die grundlegenden physikalischen Gesetze gelten natürlich. Im Prinzip funktionierts. Aber die ingenieurstechnischen Probleme sind gigantisch.
 
Wenn man "einfach nur" KI als Buzzword/Sammelbegriff für ultrageile Algorithmen sieht, die wie Zauberei wirken.. kann man darüber auch diskutieren und Lösungen finden. Fefe hin oder her, Buzzword-Bombing gab es schon immer und Menschen, deren Fachgebiet es nicht ist, werden Buzzwords annehmen. (Und NN als KI darzustellen find ich okay. Beispielsweise sind die Motiv-AF-Geschichten eine wirkliche Bereicherung - Ergebnis von NN. Trainieren kostet immense Kraft, die Nutzung nur noch ein Bruchteil dessen)

mfg chmee
 
Zuletzt bearbeitet:
Auch Quantencomputer sind so ein Problem. Bisher ist nicht erkennbar, ob sie je real sein werden. Also klar, die grundlegenden physikalischen Gesetze gelten natürlich. Im Prinzip funktionierts. Aber die ingenieurstechnischen Probleme sind gigantisch.

Warum sind QC eine Problem? Kannst du kaufen, zum Beispiel bei IBM.....
 
Du kannst Rechenzeit auf nem QC kaufen - nicht den Rechner. Und die "programmatische" Denke bei QC ist komplett anders als bisher, siehe gleicher Link oben, es geht vornehmlich um Einschätzung und Prinzipienverständnis des QC. Ist jetzt nicht so, als ob ein halbgewiefter Coder sofort nen QC coden könnte. Zudem ist QC nicht die Allzwecklösung für Alles, Stand Heute und die nächsten 20 Jahre sag ich mal.

Aber Du merkst wohl, dass Du auf QC mit positiver Sicht eingestiegen bist. Buzzwording funktioniert.
 
Damit ist aber doch schon etabliert das "Bisher ist nicht erkennbar, ob sie je real sein werden" falsch ist. Sie sind real. Jetzt schon. Natürlich ist die Skalierung noch ein großes Problem. Aber von den ersten Computern bis heute ist auch sehr viel Zeit vergangen. Niemand hat jemals behauptet das sie eine Allzwecklösung sein werden. Aber das selbe hast du doch auch bei einem Computer. Deine Grafikkarte ist in einigen Anwendungen sehr viel besser als deine CPU und andersrum. Es gibt Berechnungen in denen ein Quantumcomputer sehr viele Vorteile bieten kann und das auch heute schon.


Ist jetzt nicht so, als ob ein halbgewiefter Coder sofort nen QC coden könnte.

Das selbe gilt auch für andere Komplexe Probleme auf deinem Computer. Weil über die letzten 70 Jahre viele Probleme durch Tooling wegrationalisiert wurden. Du musst nicht das ganze x86 instruction set kennen und verstehen. Du hast 70 Jahre arbeit und wissen anderer auf die du Aufbauen kannst. Und das wird auch beim Quantum Computing früher oder später der Fall sein. Das es das Tooling aktuell so nicht gibt hat mit der Zeit und den Kosten des ganzen aktuell zu tun. Wenn mich so ein Ding hunderte Millionen kostet dann kann ich auch ein Team aus den schlausten Physikern, Mathematikern und Informatikern zusammenstellen um das ganze wirklich zu benutzen und das beste rauszuholen. Wenn das ganze günstiger und skalierbarer wird, dann wird es auch Abstraktionen geben die zwar etwas langsamer, dafür aber leichter sind. So wie du es heute auch bei deinem Computer siehst.

Das hat nichts mit Buzzwording zu tun.
 
Wenn man "einfach nur" KI als Buzzword/Sammelbegriff für ultrageile Algorithmen sieht, die wie Zauberei wirken.. kann man darüber auch diskutieren und Lösungen finden...

Das was Luminar & Co. als KI verkaufen ist doch völliger BS und nur Marketing.
Das hat mit "Intelligenz" doch nix zu tun.
Der austauschbare Himmel schon gar nicht :ugly:

Die richtige Bezeichenung für den Rest wäre "Automatik" und das gibt es bei SW eigentlich doch schon lange, auch wenn es bisher nur als "Automatik" dargestellt wurde.
Klingt halt nicht so gut wie KI.

Die SPs beherrschen sowas (=Kontrast, Farbsättigung & Co. erhöhen plus Nachschärfen) mittlerweile perfekt und die wären vielleicht ein Vorbild für die Kameraindustrie um den EBV-Verweigerern was anbieten zu können.

Aber sonst?
Welchem Fotografen sollte das was bringen ?
 
@cp995 Wir schweifen damit ab in die Philosophie. Was ist wann Zauberei für wen. Und mittelbar auch zur Frage, ob menschliches Denken nicht auch nur ausgeklügelte Entscheidungsprozesse sind. Ist das jetzt "Intelligenz"?! Wann ist etwas "intelligent" und wann darf ein Prozess intelligent genannt werden. Genau deswegen halte ich wenig von der Abgrenzung, was KI ist und was nicht.

@Ahn Ji-Young
Dem habe ich (fast) nicht widersprochen. Der Status Quo ist, es ist kein Allerwelts-Zeug und noch "unendlich" weit v. Consumer-Status entfernt. Somit bleibt QC für den OttoNormalo (und i.welche Überwerbungen, die "Teufelszeug" anpreisen) ein Buzzword. Sogar die Forschungswelt muss sich noch einfinden ("es geht vornehmlich um Einschätzung und Prinzipienverständnis des QC"). Der Magenta-Riese ist das Paradebeispiel, so geschehen mit "Jetzt Glas, ISDN"," Internet", "Telefonieren Digital", "LTE", "Cloud", "Smarthome", "5G", "Blockchain" etc pp. Die vNeumann-Architektur bleibt uns noch länger erhalten. Schlimmer noch: "Consumer-Anbieter" scheitern an der Umsetzung v Hype-Buzzwords - oder wie sieht/sah das mit dem digitalen Pass, der zertifizierten eMail aus? Oder der vollautomatisierten Maut für LKW/PKW?!

Stand Heute und die nächsten 20 Jahre sag ich mal. Damit wollte ich oben zusammenfassen, dass QC noch(!) Forschungsthema ist. Etwas für die Nerds.

All diese Worte zusammenfassend wäre die Frage nach einer "KI-Kamera" überflüssig.
 
Zuletzt bearbeitet:
:devilish:

https://blog.fefe.de/?ts=9f6bc667

Ich habe gerade einen Meilenstein in meiner Karriere als Code-Auditor erreicht.

In dem Quellcode, den ich gerade auditieren soll, ist eine Datei drin, die zwei große Arrays mit Fließkommazahlen-Konstanten enthält.

Das ist ein trainiertes neuronales Netz.

"Auditier mal". Ja nee, klar. Wo ist die versteckte Kamera?

ROTFL !!!! :devilish:

Und passt sehr schön hier in den Thread. :D
 
By the Way: Ich vermute weiterhin grundsätzliche Missverständnisse bei der "Power" eines Smartphones.. Das Kameramodul in einem Smartphone ist ein komplett autarkes System mit Ram und eigenem Prozessor (ähnlich Digic/Exmor/Bionz etc pp).
Sorry, aber nein. Ja, es gibt Bestrebungen, das zu externalisieren, zumindest in Teilen (vor allem Debayering/Demosaicing mit all den herstellerspezifischen Farbfiltermustern usw.). Aber die fette Rechenlast liegt in den SoCs. Kannst ja mal nach Qualcomm und ISPs (image signal processors) Tante Google bemühen. Zumal in Smartphones, zumindest den Highendvarianten, auch die aktuelle Produktionstechnologie drin steckt, also 5nm/EUV-Prozesse, die sich nur bei entsprechenden Stückzahlen usw. rentieren. Das kompensiert in Teilen den Leistungsverbrauch und das thermale Problem, wobei diese Chips schon seit Jahren aktives Management in der Hinsicht betreiben, Stichwort "dark silicon".

Das was Luminar & Co. als KI verkaufen ist doch völliger BS und nur Marketing.
"KI" wurde schon seit Jahrzehnten für verschiedene Technologien verwendet; Neuronale Netze sind z.B. im Bereich der Schrifterkennung/OCR schon seit den 90ern im Einsatz und gehören halt in diese Kategorie. "KI" in Computerspielen ist z.B. eine seit Jahrzehnten gängige Umschreibung für alles, was quasi an Gegnern computergesteuert ist. Usw.usf.
 
Naja, nachdem Fuji dank xtrans bereits fast auf „Fullframe“ Niveau war, wollen sie (also die Marketing Abteilung) sicherlich mit den neuen Technologien, „Fullframe“ überflügeln. Hoffentlich kannibalisieren sie nicht ihre GFX Sparte.;)
 
@Balaleica
Du hast recht, ich war auf den simplen Umstand hereingefallen, dass Sony ihre Smartphone-Sensoren Exmor RS nennen. Das ist die Sensor- aber nicht die Processing-Bezeichnung, mit kleinen Helfern für AF und HDR, aber sonst kaum mehr. Auf dem MIPI-Port wird Raw ausgeworfen (auch bei video RT?! ich weiß es nicht)

mfg chmee
 
https://www.dpreview.com/news/91011...n2-the-ai-art-demo-generates-images-from-text

„ NVIDIA Research unveils GauGAN2, a new AI art demo that generates scarily-accurate images from text“

Also wenn man auf das Erlebnis beim Fotografieren verzichten kann, und nur „seine Werke“ z.B. auf Insta, flickr, Meta, etc. präsentieren möchte, dann ist gar keine Kamera mehr erforderlich:).

Das ist ein Extrem Beispiel. Was bei mir persönlich die Frage aufwirft, ob ich mittelfristig auf Film umsteige und selbst entwickle….
 
Naja, nachdem Fuji dank xtrans bereits fast auf „Fullframe“ Niveau war, wollen sie (also die Marketing Abteilung) sicherlich mit den neuen Technologien, „Fullframe“ überflügeln. Hoffentlich kannibalisieren sie nicht ihre GFX Sparte.;)

Fortschritte bei Computional Photographie in einer APS-C würde tatsächlich an KB knabbern, vor allem, weil viele DSLM-KB-Modelle gerade frisch auf dem Markt sind und im nächsten Frühjahr nicht so fix nachlegen könnten. Wobei die Rumors ja noch extrem spekulativ scheinen und keinen Kern eines Informanten haben. Von daher abwarten und Tee trinken.
 
...
"KI" wurde schon seit Jahrzehnten für verschiedene Technologien verwendet; Neuronale Netze sind z.B. im Bereich der Schrifterkennung/OCR schon seit den 90ern im Einsatz und gehören halt in diese Kategorie. "KI" in Computerspielen ist z.B. eine seit Jahrzehnten gängige Umschreibung für alles, was quasi an Gegnern computergesteuert ist. Usw.usf.

Das ist mir klar, ich komme aus der IT!
Aber das was Luminar macht ist halt nur Marketing und wann man mal genau hinschaut, den Begriff "KI" nicht wert.
Nur darum ging es mir mit dem Vergleich!

Ansonsten bin ich voll bei Euch, daß die Fotoindustrie in diese Richtung gehen muss, denn die SPs machen es ihnen vor.

Was ich nur hoffe ist, daß es nicht halbherzig passiert.
Es erfordert komplett neue System, die sich nicht an Vorhandenem orientieren, sondern neue Wege gehen.
Wenn es nur SW ist und z.B. keine neue Bedienphilosophie hinzukommt, dann kann man es allenfals auch nur als "Marketing Gimmick" bezeichnen.
 
Da stimme ich dir zu, aber warum ist es so verwerflich zum Beispiel per Software auf das Bokeh einzuwirken? Ein Lidar-Sensor in die Kamera um die Tiefenstaffelung zu erfassen und dann optimieren - hier wird in der Nachbearbeitung der Hintergrund weich gezeichnet, selektiv geschärft etc. - das der Kamera mit besseren Informationen selbst zu überlassen ist durchaus sinnvoll... keiner korrigiert Verzeichnung, CAs etc. selbst, wenn die Kamera und die Objektive die passenden Profile für eine automatische Korrektur liefern. Wie man das dann nennt, ist völlig egal, KI hin oder her.

Große Schärfentiefe bei gleichzeitig weichem Hintergrund ist rein physikalisch nicht möglich, aber oft gewünscht, wenn mir die Kamera da erweiterte Möglichkeiten bietet, bin ich sofort dabei
 
WERBUNG
Zurück
Oben Unten