• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Android Welches Smartphone unterstützt volle 48mp bei Raw-Fotos außer iPhone 14 pro?

Ok, auch da hab ich wohl vom IPhone her gefolgert, die Apps die 48mP
JPGs können können mW auch raws.
Es hängt von der Anordnung der Farbfilter auf dem Sensor ab. Wenn es eine klassische Bayer-Matrix ist, geht neben 48 MP JPEG auch 48 MP RAW. Wenn es eine Quad-Bayer-Matrix ist, geht RAW nur in 12 MP – aber mittels interner Spezial-Algorithmen dennoch 48 MP JPEG. Auch eine alternative Kamera-App kann solche Hardware-Beschränkungen nicht umgehen.
 
Zuletzt bearbeitet:
Vielen Dank für all eure Antworten! Ich werde mir die Links alle mal anschauen!
Ja ich habe befürchtet dass es je nach Sensor/Matrix etc vllt gar nicht möglich ist, ein Raw direkt auszulesen mit voller Auflösung.
Mal sehen wie es sich entwickelt.
Finde aber irgendwelche 100 mp, oder bald sogar 200 mp Fotos im Samsung unsinnig, es entstehen 30-50 mb große Jpgs, massig überschärft und übertriebene Rauschreduzierung in homogenen Flächen.
Dann schaut man sich Canon DSLM Raws mit 45mp an (zb Canon R5), wo die komprimierten Raws (0 Unterschied selbst bei 100% View) nur 13-16 mb groß sind aber visuell sehr viel mehr Details und Dynamikumfang haben als irgendwelche 30 mb großen Jpgs von Handies. Ja ich weiß, man kann so kleine Sensoren nicht unbedingt mit Vollformatkameras vergleichen, aber ich will eig nur aussagen dass seitens der Handyhersteller ein völlig falscher und unsinniger Fokus gelegt wird. Warum 200mp Auflösung? Warum 150x statt 100x Zoom, was bringt das? Warum nicht nen moderner 1 Zoll Sensor mit 20 bis 24mp, diese dann aber auch als Raw, schön klein, 6-8 mb, ohne Interpolation. Und diese dann auch direkt bearbeitbar. das spricht all diejenigen die sich etwas mehr mit Fotografie beschäftigen aber für unterwegs einfach Fotos machen wollen ohne Ausrüstung, sehr viel mehr an als irgendwelche 200mp.
 
... Ja ich habe befürchtet dass es je nach Sensor/Matrix etc vllt gar nicht möglich ist, ein Raw direkt auszulesen mit voller Auflösung...

Ich selbst sehe keinen technischen Grund, das RAW eines Sensors mit Quad-Bayer nicht auszulesen zu können.

Das ist doch grundsätzlich nichts anderes, als die Helligkeitsinformation Pixel für Pixel in eine Datei zu packen. Natürlich mit Metadaten, die u.a. angeben, ob diese Helligkeitsinformation von einer Sensorzelle hinter einem roten, einem grünen oder bleuen Filter stammen.


Natürlich würde kann Entwicklung eines RAWs mit Quad-Bayer zu einem RGB-Bitmap mit gleicher MP-Zahl nicht die Auflösung liefern, die ein "normaler" Bayer-Filter statt einem Quad-Bayer-Filter vor dem gleichen Sensor ergibt.


Unstrittig ist für mich aber, dass von einem Array mit 2x2 Sensorzellen hinter einem gemeinsamen einfarbigen Filter von den 4 Sensorzelle mehr örtlich differenzierte Helligkeitsinformationen geliefert werden, als von einer einzigen Sensorzelle mit den Abmessungen des 2x2 Arrays.



Wie gesagt:

- natürlich ist die Information aus Sicht der Hardware ein XX-Sensor hinter einer Quad-Bayer-Filtermatrix nicht zu vergleichen mit Sensor gleicher Pixelzahl hinter einer klassischen Bayer-Filter-Matrix mit 1:1 Zuordnung Filterfarbe zu Sensorzelle

- aber auch die klassische Bayer-Anordnung braucht Entwicklungsalgorithmen auf dem Weg zum RGB-Bitmap.


- und mit Sicherheit wird man die lokal differenzierten Helligkeitsinformationen der Sensoren hinter einer Quad-Bayer-Matrix nutzen ;)

- könnte man das nicht, wäre der höher auflösende Sensor hinter einer Quad-Bayer-Matrix nur ein plumper Marketing-Trick



Letztlich bleibt für mich nur ein Fazit:

- es gibt seitens der Smartphone-Hersteller derzeit kein Interesse, eine Hardware-nahe Software- Schnittstelle anzubieten

- verständlich :ugly:

- den Sensor/Filter kauft man ein.

- den Prozessor samt Algorithmen zur Bildbearbeitung teilweise auch oder man entwickelt eine eigene mit eigener HW/SW-Signalverarbeitung

- aber pssst, nicht alles sagen. Könnte ja einer kommen ...


Unterm Strich für mich alles kommerzielles Kalkül ;)
 
Zuletzt bearbeitet:
Ganz einfach: SD, HD, FullHD, 2K, 4K, 8K....... SDR, HDR,.... 24Bilder/sec., 30Bilder/sec., 50Bilder/sec., 60Bilder/sec.
Oder alternativ: Bildwiederholrate: 50Hz, 100Hz, 200Hz, 400Hz, 800Hz.

Eine hohe Zahl ist schließlich besser als eine niedrige.
Das macht es für's Marketing einfacher die überteuerte Telefonhardware an den Mann/die Frau zu bringen.

Wer sich nur minimal mit der Materie beschäftigt weiß natürlich daß ein 4K Video aus dem Smartphone nicht dem 4K Video aus einer Vollformatkamera entspricht.
Und 50MP Bilder aus dem Smartphone eben auch nicht denen vom Vollformatsensor.

Das Dilemma wird sich nicht auflösen.
Außerdem müssen Verbesserungen für die Zukunft bleiben damit Stück für Stück jede noch so kleine Innovation vom Verbraucher finanziell ausreichend gewürdigt werden kann.

Für Fotografen wäre es natürlich sinnvoller zu versuchen die Bildqualität einer RX100 im Makro- und Weitwinkelbereich in ein Smartphone zu packen.
Das dürfte beim Hauptsensor bald der Fall sein.
Inweit das auch bei den anderen Sensoren realisiert werden kann wird man sehen.

Die riesigen Datenberge die bei vielen Megapixeln anfallen spielen außerdem den Herstellern in die Hände die Geräte ohne Speicherkartenslot verkaufen.
Auch wenn nur wenig Details enthalten sind.
Bei solchen Datenmengen greift man dann schonmal eher zum 512GB Modell statt zu dem mit 128GB.

Die Weihnachtsfilmchen und die vom Geburtstag müssen schließlich mindestens in HLG 10-Bit 4K gefilmt sein.
Und die Bilder in 48MP proRAW aus dem proPhone.

Man sollte sich einfach auch mal fragen warum Sony als führender Hersteller von 1Zoll Kameras und Sensoren seit Erscheinen der RX100 im Jahr 2013 kein einziges Mal an der Megapixelschraube gedreht und stattdessen nur immer die Sensortechnologie verbessert hat.
Ich denke dann würde man zu dem Schluß kommen daß die 50, 100, und 200 MP in den Winzsensoren mehr oder weniger sinnlos sind.
 
Zuletzt bearbeitet:
Wer sich nur minimal mit der Materie beschäftigt weiß natürlich daß ein 4K Video aus dem Smartphone nicht dem 4K Video aus einer Vollformatkamera entspricht.

Ob es das tut oder nicht, VF ist doch keine Alternative.
Das Plus der SPs ist die Komkpaktheit und die Selfiekamera die es auf spassigen Social Videos dem Filmer ermöglicht mit aufs Bild zu kommen ohne schweres bzw weiteres Equipment.
Die Video-Qualität der SPs liefert heute schon mehr Technik als 99% Anwender nutzen können und wollen.
Und die beste Technik in VF nützt nichts wenn man es nicht am Mann hat.

Außerdem müssen Verbesserungen für die Zukunft bleiben damit Stück für Stück jede noch so kleine Innovation vom Verbraucher finanziell ausreichend gewürdigt werden kann.


Das kann man nicht vorwerfen oder ist es bei Kameraherstellern anders?
zB Sony RX100V und VA oder A7 R IV, IVa und V.
Panasonic S5 und S5II aktuell.

Willkommen in der Marktwirtschaft ;)

Die riesigen Datenberge die bei vielen Megapixeln anfallen spielen außerdem den Herstellern in die Hände ...
Bei solchen Datenmengen greift man dann schonmal eher zum 512GB Modell statt zu dem mit 128GB.

Jein. :)
Man muss die Arbeitsweise auch in die Neuzeit überführen,
und die SP-Generation arbeitet heute auch anders, die schieben ihre Fotos direkt in die Cloud. Oder, wie ich es im Urlaub gemacht habe, abends via Airdrop auf ein anderes Device.

Immerhin sind heute meistens 128 GB Serie und 256 nur noch moderat teurer. Mein erstes SP hatte noch 16 MB.
Btw wenn ich 48MP JPGs speichere komme ich damit auch gut über längere Fototouren ohne auszulagern.

Für Fotografen wäre es natürlich sinnvoller zu versuchen die Bildqualität einer RX100 im ...Weitwinkelbereich in ein Smartphone zu packen.

Das ist bei 24mm schon erreicht!
Punktuell gibt es Unterschiede, mal liegt mal das eine mal das andere Gerät vorne.
Interessant dazu der Stefans Ersteindruck unter https://youtu.be/GcLwAt04c8c

Die Weihnachtsfilmchen und die vom Geburtstag müssen schließlich mindestens in HLG 10-Bit 4K gefilmt sein.
Und die Bilder in 48MP proRAW aus dem proPhone.

Ich nutze FullHD 1080 /30fps für sowas. Die zweitschlechteste Einstellung.
Reicht mir. Es geht um den Moment, nicht um die Technik.

Ich denke dann würde man zu dem Schluß kommen daß die 50, 100, und 200 MP in den Winzsensoren mehr oder weniger sinnlos sind.

was 100 oder 200 MP bringen verstehe ich auch nicht (außer Digi-Zoom), aber aus eigener Praxis weiss ich das zumindest 48 MP unerwartet viel bringen!
Bei den neuen Sensoren wie zB im S23 muss man mal abwarten, ich würde es nicht aus der Theorie her abkanzeln.
Die Wahrheit ist auf dem Platz, im Foto. Und das wird man sehen!
 
Zuletzt bearbeitet:
Ich selbst sehe keinen technischen Grund, das RAW eines Sensors mit Quad-Bayer nicht auszulesen zu können.
Gegen das Auslesen spricht an sich nichts. Aber es wäre nicht zu erwarten, dass die Rohkonverter-Hersteller auf den Zug aufspringen und solche Quad-Bayer-RAWs unterstützen. Und dann würden die Smartphonehersteller mit Beschwerden von Nutzern überflutet, die arglos in DNG aufgenommen haben und jetzt nicht weiterwissen. :rolleyes:
 
Gegen das Auslesen spricht an sich nichts. Aber es wäre nicht zu erwarten, dass die Rohkonverter-Hersteller auf den Zug aufspringen und solche Quad-Bayer-RAWs unterstützen...

Im einfachsten Fall könnten die ja tun als ob. Also nachträgliches Binning im EBB-Programm. Der SP-Nutzer hat dann halt nur die großen DNGs ;)


Aber Dein Einwand ist schon berechtigt.

Gruß
ewm
 
Was ist denn das Resümee aus dem ganzen Tech-Talk?
Wenn 48 MP bei keinem Android geht bzw was bringt dann hat Apple wohl ein Alleinstrellungsmerkmal was den Mehrpreis in ein anderes Licht rückt!?
 
Es hängt von der Anordnung der Farbfilter auf dem Sensor ab. Wenn es eine klassische Bayer-Matrix ist, geht neben 48 MP JPEG auch 48 MP RAW. Wenn es eine Quad-Bayer-Matrix ist, geht RAW nur in 12 MP – aber mittels interner Spezial-Algorithmen dennoch 48 MP JPEG. Auch eine alternative Kamera-App kann solche Hardware-Beschränkungen nicht umgehen.

Ich kann mir nicht vorstellen das mein S20 eine Quad-Bayer-Matrix hat, wenn ich sehe wie groß die Crop Möglichkeit ist.
https://www.dslr-forum.de/showpost.php?p=16466824&postcount=10

Nur weil die Standard Kamera App nur 12Mp RAWs kann, heißt ja nicht, das es keine App dafür gibt.
 
Ich kann mir nicht vorstellen das mein S20 eine Quad-Bayer-Matrix hat

Der Hauptsensor des S20 ist ein Samsung S5KGW2.

Er hat eine normale (klassische) Bayer-Matrix. Diese Angabe findet man hier:

https://en.wikipedia.org/wiki/ISOCELL

https://semiconductor.samsung.com/image-sensor/mobile-image-sensor/isocell-gw2/


Daneben gibt es bei Samsung noch die Tetrapixel (2x2) RGB Bayer-, die der hier diskutierten Quad-Bayer-Matrix gleichen und die Nonapixel (3x3) RGB Bayer - Filtermatrix.

Und noch Dual-Tetrapixel, wobei das eine 2x2 Anordnung ist, bei der unter jedem Filterelement 2 Sensoren sitzen. Ich nehme an, dass das "Dual" für den PDAF genutzt wird.

Gruß
ewm
 
Zuletzt bearbeitet:
Hmm. Wenn der Sensor eine klassische Bayer-Matrix mit 64 MP hat, dann frage ich mich, wie er es schafft, RAW in 12 MP auszugeben. Das müsste dann so ähnlich sein wie sRAW/mRAW bei Canon?!

Der 64 MP Sensor des S20 gehört zur Telekamera, die mit einer Linse mit festem größerem Bildwinkel ausgestattet ist. 12 MP "Tele" sind ein Crop aus dem 64 MP Sensor.

Die Standard-(WW)-Kamera des S20 hat einen 12 MP Sensor.

Gruß
ewm
 
Zuletzt bearbeitet:
Genau so ist es.
Die 64MP Kamera wird nur bei Tele Crop verwendet oder wenn man explizit auf 64MP Auflösung geht. In beiden Fällen gibt es kein RAW.
Ein 64MP Bild aus der Telekamera hat auch eine leicht andere Brennweite als ein 12MP Bild aus der Hauptkamera.

Was ich noch nicht ganz verstanden habe ist wie das Re-Mosaik beim 108MP Sensor funktioniert....
https://news.samsung.com/de/das-gal...enden-sensoren-und-der-space-zoom-technologie
 
Zuletzt bearbeitet:
...Was ich noch nicht ganz verstanden habe ist wie das Re-Mosaik beim 108MP Sensor funktioniert....
https://news.samsung.com/de/das-gal...enden-sensoren-und-der-space-zoom-technologie

:eek:

Das verstehe ich auch nicht. Per Hardware geht das sicher nicht. Per Pixel-Shift wäre sowas denkbar. Das bedingt aber Belichtungsreihen und die damit verbundenen Nachteile bei bewegten Objekten. Fällt imho aus.


Ich verstehe das Re-Mosaik als interne Software- Lösung. Man rechnet ein 108 MP RGB-Bitmap aus.

Also kein Bayer-RAW, sondern ein Bitmap mit allen 3 Farben pro Bildpunkt.

Klar, man wird dabei nicht über den "Schatten" der Nona-Matrix springen können -> es wird also mit nicht unerheblichen Auflösungsverlusten gegenüber einem 108 MP Sensor mit klassischer Bayer-Matrix zu rechnen sein.

Also nicht die durchschnittlich 30% Bayer-"Verluste" bezogen auf 108 MP, sondern zunächst bezogen auf 108 MP / (3x3) = 12 MP.

Aus den Helligkeitsinformationen der 9 Sensoren hinter jedem 3x3 Farbfilter wird man noch etwas "Nutzinformation" generieren können.

Der Rest ist dann meiner Meinung nach Upscaling- "Voodoo", um Marketing mit den 108 MP betreiben zu können :devilish:

Gruß
ewm
 
Vielleicht lassen sich ja auch die Farbfilter auf den Pixeln verschieben....


Das glaube ich nicht. Abgesehen vom mechanischen Aufwand wäre eine Serie von Aufnahmen bei Verschiebungen in 2 Achsen notwendig. Jede kleinste Bewegung der Objekte oder des Smartphones würde die hohe Auflösung zunichte machen.

Nee, das ist für mich eine reine Softwaresache mit einem Marketing-Placebo-Effekt ;)

Gruß
ewm
 
Passt zwar nicht exakt zum Threadthema könnte aber interessant sein:

https://www.heise.de/news/HP2-Samsung-bringt-200-Megapixel-Sensor-fuer-Smartphones-7463053.html

In dem Artikel ist keine Rede davon daß die 200 Megapixel im RAW zur Verfügung stünden.
Nur von einem vier- und einem sechzehnfach Binningmodus ist die Rede.

Wäre vorstellbar daß der Hersteller darauf keinen Zugriff gewähren will, weil er weiß daß die 1/1.6 Zoll große Sensorfläche die Auflösung gar nicht hergibt.
Aber auch 50 Megapixel im Vierfachbinnigmodus sind schon sehr viel für die Sensorfläche.
Darauf gewährt er vermutlich den Zugriff in RAW.

Welche Matrix davorsitzt steht dort nicht.
 
...Welche Matrix davorsitzt steht dort nicht.

Eventuell doch. Ich lese da "Tetra²Pixel". Und ein paar Zeilen drüber, dass entweder 4 oder 16 zusammengefasst werden.

Das wird auch mit "ChameleonCell" Technologie umschrieben.

Meine schnellen Recherchen im Web haben aber zu keinem eindeutigen Ergebnis geführt.

Man verbreitet dort z.T. Layouts, die auf Hardware-Ebene gar nicht sein können.

https://www.gsmarena.com/samsung_tr...hat_could_hit_450mp_resolution-news-55195.php


Man kann keine 4x4 Filter-Anordnung pro Farbe mal schnell auf Hardwareebene in ein 1x1 Anordnung mit 4facher Auflösung pro Achse umsortieren.

Oder habe ich was verpasst :confused:

Gruß
ewm
 
WERBUNG
Zurück
Oben Unten