• In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2025.
    Thema: "Plastik (Kunststoff)"

    Nur noch bis zum 30.04.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Was ist der "beste" Sensor Stand 2016?

Manche sind der Meinung, daß man meine Frage nach dem "besten" Sensor nicht beantworten kann. Ich denke, daß man technische Daten von Sensoren wohl vergleichen kann. Nicht wie es DXO macht, wo die Kamera in die Bewertung einbezogen wird, sondern nur die technischen Daten, wie sie der Sensor-Hersteller angibt, wenn man dort einen x-beliebigen Sensor(Chip) anfragt.

Wenn am Ende 3 oder 4 Sensoren rauskommen, die in etwa die gleiche Leistung haben, dann ist meine Frage beantwortet.

Die Antwort kann auch so ausfallen, wenn man z.B. den Chip ABC mit der Technologie des Kameraherstellers XYZ kombinieren würde, würde man aus diesem Sensor das Beste herausholen.

Hier habe ich etwas Brauchbares gefunden, was jede Menge an Sensordaten liefert http://www.sensorgen.info/
einen Kommentar zu DXO-Messungen und der Quantenausbeute eines Sensors http://www.strollswithmydog.com/effective-quantum-efficiency-of-sensor/
und ein interessanter Vergleich von Canon-Kameras https://www.dpreview.com/forums/post/53054826

P.S. Nebenbei in den Ring geworfen: Da Nikon D600, D610 und D750 den gleichen Sensor Sony IMX-128-(L)-AQP verwenden, wie ist es zu erklären, daß die D750 viel bessere ISO-Werte hat als die betagte D600? Ist das Chiptuning durch Software?
 
Zuletzt bearbeitet:
P.S. Nebenbei in den Ring geworfen: Da Nikon D600, D610 und D750 den gleichen Sensor Sony IMX-128-(L)-AQP verwenden, wie ist es zu erklären, daß die D750 viel bessere ISO-Werte hat als die betagte D600? Ist das Chiptuning durch Software?

1) ist es der gleiche sensor?
2) sind es die gleichen filter vor dem sensor?
3) ist der gleiche adc im pixel/hinter dem sensor?
4) ist die anschlußleitungsführung die selbe und die energieversorgung?
5) haben die gehäuse die selbe abschirmwirkung?
6) sind die mikrolinsen die gleichen?
7) wozu hat eine cam einen bildprozessor?
8) speichert der denn das gleiche ins raw?
9) haben die cams den gelichen energieverbrauch und das selbe kühlungsdesign?

immerhin gehts da ums rauskitzeln einzelner photoelektronen und ums vermeiden der produktion von rauschelektronen und ums vermeiden von photonenverlusten und ums interpolieren zwischen pixeln und um kalibreirung der farbfilterwirkung, und, und. so viele parameter ...

lg gusti
 
Zuletzt bearbeitet:
P.S. Nebenbei in den Ring geworfen: Da Nikon D600, D610 und D750 den gleichen Sensor Sony IMX-128-(L)-AQP verwenden, wie ist es zu erklären, daß die D750 viel bessere ISO-Werte hat als die betagte D600? Ist das Chiptuning durch Software?

Exakt das ist es. Ein neuerer Grafikprozessor, der schneller ist, mehr Rechenleistung bietet und damit die Sensordaten besser aufbereiten kann, weil die Softies (Programmierer) rechenintensivere Algorithmen einsetzen können.
Sensor und Grafikprozessor muss man als Paket sehen das sich ergänzt.
 
Yeah... Fünfter! So seh´n Sieger aus! Schalalalalah! Also jedenfalls der eine Teil meiner Ausstattung. Ich arbeite trotzdem bei vielen Dingen lieber mit der 56ten. Oder mit der 134ten... :rolleyes:

Egal was das Ranking sagt.

BTW Ist die Hassi, auf die ich momentan am heftigsten spechte, nicht mal auf der Liste... :(
 
Nicht wie es DXO macht, wo die Kamera in die Bewertung einbezogen wird...

Die beziehen "die Kamera" in die Bewertung ein? Wie das? Die bewerten die Raw-Daten, aber alles andere wäre auch ziemlich überflüssig, denn was anderes kriegt der Benutzer auch nicht raus aus "dem Sensor".

Hier habe ich etwas Brauchbares gefunden...

Dass das "brauchbare" aus Messwerten von DxOMark generiert wird, ist Dir aber klar, oder?

...viel bessere ISO-Werte...

Was ist das?
 
Dass das "brauchbare" aus Messwerten von DxOMark generiert wird, ist Dir aber klar, oder?

Ja und ich finde die Auflistung der Kamermodelle mit den mit einem Klick greifbaren Sensordaten praktisch, weil man damit sofort die Daten parat hat, um damit meine Frage zu beantworten. Jetzt muß ich noch Spreu vom Weizen trennen, um wie bei der D600, D610 und D750 den Einfluß der hinter dem Sensor geschalteten Chips und Algorithmen rauszunehmen.

...viel bessere ISO-Werte... Was ist das?

Eine bessere Lichtempflindlicheit bzw. weniger Rauschen bei hohem ISO.
 
Zuletzt bearbeitet:
Eine bessere Lichtempflindlicheit bzw. weniger Rauschen bei hohem ISO.

ach, da bist du völlig auf dem holzweg.

schau dir mal die sensordatenblätter an, wie viel rauschen der sensor selber produziert - dunkelstrom von 3 bis 6 rauschelektronen pro cm² sensorfläche und sekunde bei normaltemperatur, soweit ich mich erinnere.
sollte ein sensor doppelt so viel produzieren, was ist das schon?

die wirklich effektive rauschquelle ist die zufallsverteilung der photonen, die der liebe gott als licht auf den sensor schickt.

anzahl der rauschelektronen ~ quadratwurzel der photonenzahl. und die ist viel höher, als das rauschen, das die photodioden selber produzieren.
außer, du bewegst dich in beleuchtungsregionen, wo ohnehin kein autofokus mehr ordentlich funktioniert. dort haben dann die rauscheigenschaften der nikon d4 und 1dx und sony a7s ihre stärken.


unterhalb dieser grenze spielt die art der signalverarbeitung und software-algorithmen und die güte der adcs (und die pixelzahl für rekonstruktive entrauschalgorithmen) die erste geige.
warum nur rauscht eine d810 unter iso 10.000 deutlich weniger als als eine 4d und warum ist das oberhalb von iso 10.000 grad umgekehrt?
welcher sensor ist jetzt der bessere hinsichtlich rauschen?
betreffs lichtempfindlichkeit: schau dir bei sensorgeninfo die sensoreffizienz an - ein wert, aus dxo messungen hergeleitet, wo natürlich nicht der nackte sensor, sondern alles vom sensor bis zum raw und was dazwischen passiert, ausgezählt ist ... in etwa das verhältnis aus auf den sensor einfallenden photonen und der anzahl der quasi im raw landenen photoelektronen.
wie viele photonen durch den tstop deines benutzten objektives (da gibts schon mal unterschiede bis zu einer blende), durch reflexionen am sensor wegen unterschiedlicher lichtwege durch die objektive, farbfilterdichteauswirkung samt farbfilterabhängiger signalverstärkung, randlichtabfall durch konstruktionsart der mikrolinsen samt objektiv- und sensorgrößenabhängigem eintreffwinkel der lichtstrahlen an den rändern und vor allem - blendeneinstellung am objektiv bzw. die offenblendenzahl des objektives machen das alles zum wenig aussagekräftigen schraubenzählen in bezug auf den praxisnutzen. eine toleranz in der blendenangabe des objektives - alles, was 1/3 blende ist, liegt innerhalb der toleranz - vielleicht fotest du mit blende 8 und ich mit blende 0,95 - der unterschied diesbezüglich ist ein faktor von 1000 zwischen der anzahl der photonen, die durch das objektiv auf den sensor kommen ...
steck dein geld in gute objektive, wo du die offenblende wirklich exzellent nutzen kannst, die den sensor gut ausleuchten und du hast deutlich mehr davon.

wenn du mit der d810 und einem teuren f/2.8 24-70 fotest, ich aber mit der om-d mit f/0,95, dann rauscht die d810 wesentlich mehr, als meine kleine oly.
fotografie ist was anderes als datenblätter, aus denen die wirkliche praktische performance nicht ablesbar ist. du suchst nach unterschieden im %-bereich, ich spreche von unterschieden im bereich des faktors 1 bis 1 million.

solltest du, dxo-gleich, eine liste von sensorleistungen veröffentlichen, dann ist das eine weitere liste, die unbedarften kaufwilligen einen parameter einer kamera so in den fokus stellen, daß sie wesentliches anderes, das in summe mehr ausmacht, übersehen.

lg gusti


nachtrag:
http://www.cse.wustl.edu/~jain/cse567-11/ftp/imgsens/index.html


http://www.clarkvision.com/articles/digital.sensor.performance.summary/signal.density_1.gif
dark current ...einige rauschelektronen pro cm² und sekunde oder 0,1 bis 1 elektron pro pixel = rauschen, das die photodioden und bauelemente produzieren

http://www.clarkvision.com/articles/digital.sensor.performance.summary/read-noise-1.gif
ausleserauschen ... selbe größenordnung wie der dunkelstrom ... einige elektronen pro cm² und sekunde bzw. 0,1 bis 1 elektron pro pixelsekunde... rauschen, das die signalleitungen und die digital-analog-umsetzung produzieren mitsamt den rekombinationsverlusten

wie viele photonen fallen auf das pixel? das maß ist die full well capacity - pixelsättigung im bereich von 20.000 photoelektronen
mittelgrau ist dann also 10.000 photonen pro pixel bei iso 100 --> shot noise = 10.000^0,5 = 100 rauschelektronen pro pixel --> wir sprechen daher von einem faktor 100 zwischen rauschen, das einfach vom licht kommt im verhältnis zum vom sensor produzierten rauschen, das im raw landet. also 10.000 photonen produzieren 100 rauschelektronen und die cam addiert noch 2 rauschelektronen dazu.
bei iso 10.000 schauts immer noch so aus: 1250 photonen machen 35 rauschelektronen und die cam addiert 2 dazu in den mittel-belichteten bildstellen. in den 5 blenden dunkleren schatten sinds 27 photonenrauschelektronen und die cam addiert 2 dazu. und dann setzt der intelligente entrauschalgorithmus ein, vergleicht mit den nachbarpixeln und eliminiert 80% des rauschens.
 
Zuletzt bearbeitet:
Nimm bitte Deinen Text aus meinem Zitat! Das ist nicht von mir.

Korrigiert.

Und was da steht, ist auch noch ziemlich unsinnig. Wie willst Du denn daraus auf den nackten Sensor schließen? Und wozu?

Nochmal, ich möchte die aktuellen Sensoren UNABHÄNGIG von der Kamera bzw. den Bildprozessoren bzw. der Softwarealgorytmen vergleichen, um einem (oder mehreren) Sensor/en die Bezeichnung "Bester" zu geben.

Für das "was" habe ich eine Frage gestellt und hoffe auf Antworten. Darin eingeschlossen ist auch ein eventueller Hinweis auf das "wie".

Hingegen "warum willst du das wissen", "darauf gibt es keine Antwort" und "und was bringt das ganze" ist für mich nicht die Lösung. Ich gehöre zu denen, die sich zu Wort melden, wenn sie a) die Antwort kennen (oder glauben sie zu kennen) und b) ansonsten ruhen, um Raum denjenigen zu geben, die die Antwort parat haben - hier Dank an diejenigen, die mir bereits einige Denkanstöße gegeben haben :)
 
Jetzt muß ich noch Spreu vom Weizen trennen, um wie bei der D600, D610 und D750 den Einfluß der hinter dem Sensor geschalteten Chips und Algorithmen rauszunehmen.
Kannst ja mal die Sensoren aus den Kameras herausoperieren und dann die Daten quasi direkt anzapfen. Gestern gelesen, daß die Sony-Sensoren ihre Daten via LVDS übertragen und der Bus mit irgendwas jenseits der 300MHz getaktet ist. Allein entsprechende Oszi-Technik dürfte den Preis diverser Pro-Kameras übersteigen (sowas muß man potentiell debuggen können), von all dem Aufwand, entsprechende Chips & Software dafür bereitzustellen, um die Daten selbst in primitiver Form zu verarbeiten.

Eine andere Option ist das komplette Hacken einer Kamera, d.h. volle Kontrolle über die bereitgestellte Software und genaue Kenntnis des Hardware-Aufbaus ("schematic"). Üblicherweise gehen die Daten durch einen FPGA (definitiv z.B. bei den Leicas) oder DSP, bevor sie dann in Dateiform auf SD/CF/whatever abgelegt werden.

Ansonsten bleibt Dir halt nur die Analyse der RAW-Dateien, wie Waartfarken schon dargelegt hat. Das wird von DxOmark und einer Reihe weiterer Leuten/Firmen gemacht; entsprechende Daten sind (meist) im Netz zu finden.
 
Korrigiert.

Nochmal, ich möchte die aktuellen Sensoren UNABHÄNGIG von der Kamera bzw. den Bildprozessoren bzw. der Softwarealgorytmen vergleichen, um einem (oder mehreren) Sensor/en die Bezeichnung "Bester" zu geben.


Hey Du kannst Dir auch besagte Chips einfach bei Alibaba bestellen. Die besagten D800, D800E und D810 IMX-094-AQP kannst Du für 450 $ bekommen... Aber was nützt Dir das ? Es ist nur der nackte Sensor, den ja Nikon auf das jeweilige Model modifizieren lässt/selbst modifiziert.
 
erst auf 21. Stelle [...] 31. Stelle [...] 7. Stelle [...] jämmerliches Dasein an 52. Stelle fristet
Und diese Platzierungen haben welche Bedeutung?

Mal ein vielleicht hinkender Vergleich: bei Spitzensportlern braucht man inzwischen 1/100 Sekunden, um überhaupt noch Unterschiede herauszustellen. Unter Realbedingungen (Jetzt müsstest Du einen 100m-Sprint hinlegen, um die Straßenbahn noch zu bekommen) würde man wohl sagen, sie sind alle gleich schnell.
Genauso kannst Du wohl mit jeder aktuellen Kamera jedes Foto im normalen Rahmen aufnehmen. Du wirst auf Flickr oder hier in der Galerie anhand der Bilder nicht sagen können, dieses war eine Canon, jenes eine Nikon und sowas ist mit einer Pentax überhaupt nicht möglich.
Wenn eine Wolke vorbei zieht oder ob Du morgens oder mittags fotografierst hat mehr Auswirkungen auf ein Bild als irgendwelche Sensortestergebnisse.
Mich interessieren [...] sonder das Bildergebnis.
Ein Sensor liefert kein Bildergebnis. Das tut die auslesende Elektronik, die verarbeitende und darstellende Software und letztlich das Anzeigegerät.
So ein Sensor ist ja nicht mehr als ziemlich viele Photozellen nebeneinander, vorne tut man Licht rein, hinten kommt Strom raus. Ein Bild wirst Du da nirgends finden.
Erst durch die Elektronik und die Software wird daraus die Simulation eines Fotoapparates. Wenn Du das ganze anders verschaltest hast Du eine Videokamera, wieder anders kannst Du Deine Akkus damit laden. Dem Sensor ist das völlig wurscht.

Sicherlich kann man etwas Sensorporn betreiben, nur mit irgendeinem Bildergebnis hat das nichts zu tun.
 
Hey Du kannst Dir auch besagte Chips einfach bei Alibaba bestellen. Die besagten D800, D800E und D810 IMX-094-AQP kannst Du für 450 $ bekommen... Aber was nützt Dir das ? Es ist nur der nackte Sensor, den ja Nikon auf das jeweilige Model modifizieren lässt/selbst modifiziert.

Vielleicht habe ich mich nicht verständlich ausgedrückt. Oder ich bin im falschen Forum. Denn ich bewerte die Güte eines Bildsensors nicht damit, welcher Top-Fotograf den neuestern Award im LifeMagzin gewonnen hat und weil er gerade mit der Nikon/Canon und wer weiß noch welcher Kamera fotografiert, ist der Sensor der beste. Mit dieser Herangehensweise ließe sich meine Frage in der Tat nicht beantworten.

Wie Du es beschreibst, ist das ist eine Möglichkeit. Laß uns einfacher denken: wir benötigen einen Transistor mit einer bestimmten Eigenschaft das Ziel ist die Wahl des Besten. Transistoren werden in jeder erdenklichen Elektronik eingbaut aber deshalb kaufen wir nicht den teuersten Fernseher, um darin den gesuchten Transistor zu messen. Wir fragen diverse Hersteller nach bestimmten Typen und vergleichen deren Daten. Am Ende wählen wir den unserer Meinung nach besten Transistor aus.

So wollte ich es mit dem Sensor machen. Daß ich damit bei Fotografen anecke ist mir klar genauso, daß der "beste" Sensor noch lange nicht die "besten" Bilder liefert. Was ich benötige sind technische Daten der Sensorhersteller und bevor ich diese anspreche, kläre ich ab, ob das schon, von jemand anderem (außer von Kameraherstellern, deren Pflichtübung es ist) gemacht wurde und derjenige bereit ist, seine Erfahrung zu teilen.
 
Zuletzt bearbeitet:
Nochmal, ich möchte die aktuellen Sensoren UNABHÄNGIG von der Kamera bzw. den Bildprozessoren bzw. der Softwarealgorytmen vergleichen, um einem (oder mehreren) Sensor/en die Bezeichnung "Bester" zu geben.

Die Sensoren haben duzende technischen Eigenschaften...Für jede dieser Eigenschaften kannst du einen "Bestenliste" aufstellen.

• Anzahl Pixel
• Größe des Einzelpixels
• Abstand zwischen den Pixeln
• Sensorfläche
• Sensordicke
• Preis
• Zeit zur Prodution eines Sensors
• Ausschussquote
• Temperaturbeständigkeit
• Temperatur-Arbeitsbereich
• u.v.m.

Welche technische Kenngröße möchtest du denn vergleichen? Dann können wir klären, welcher der "Beste" ist... Bis dahin ist für mich der beste Sensor eine einzelne Fotodiode :cool:
 
Vielleicht habe ich mich nicht verständlich ausgedrückt. Oder ich bin im falschen Forum. Denn ich bewerte die Güte eines Bildsensors nicht damit, welcher Top-Fotograf den neuestern Award im LifeMagzin gewonnen hat und weil er gerade mit der Nikon/Canon und wer weiß noch welcher Kamera fotografiert, ist der Sensor der beste. Mit dieser Herangehensweise ließe sich meine Frage in der Tat nicht beantworten.

Wie Du es beschreibst, ist das ist eine Möglichkeit. Laß uns einfacher denken: wir benötigen einen Transistor mit einer bestimmten Eigenschaft das Ziel ist die Wahl des Besten. Transistoren werden in jeder erdenklichen Elektronik eingbaut aber deshalb kaufen wir nicht den teuersten Fernseher, um darin den gesuchten Transistor zu messen.
Wir fragen diverse Hersteller nach bestimmten Typen und vergleichen deren Daten. Am Ende wählen wir den unserer Meinung nach besten Transistor aus.
So wollte ich es mit dem Sensor machen. Mit nicht zu viel Aufwand aber effizient. Daß ich damit gerade bei Fotografen anecke ist mir klar genauso wie, daß der "beste" Sensor noch lange nicht die "besten" Bilder liefert. Was ich brauche sind technische Daten der Sensor-Hersteller und bevor ich diese anspreche, kläre ich ab, ob das schon, von jemand anderem (außer von Kameraherstellern, deren Pflichtübung es ist) gemacht wurde und derjenige bereit ist, seine Erfahrung zu teilen.

lies mal nochmal meinen nachtrag im posting 29 genau. danach darfst du listen erstellen, so viel du willst.
lg gusit
 
Hey Du kannst Dir auch besagte Chips einfach bei Alibaba bestellen. Die besagten D800, D800E und D810 IMX-094-AQP kannst Du für 450 $ bekommen...
Der Sensor in der D810 ist wohl etwas speziell, und es steht zu vermuten, daß die D750 mit ähnlicher Technologie aufwartet. Der IMX094 dürfte also der Standard 36MPixer sein, während der D810er-Sensor vermutlich eine Auftragsfertigung sein dürfte.
 
Ja, irgendwo schwirrten mal Papers herum, da stand
IMX-094-AQP (modified)... aber eine neue Bezeichnung gabs irgendwie nicht... hab auch seit 2014 nix detailiertes gefunden.

Gute Informationen was der Sensor im Vergleich zum D800 Derivat kann findet man auch unter blog.kasson.com
 
WERBUNG
Zurück
Oben Unten