• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Hauttypenskala durch Google erweitert

Auch ohne Gesichterkennung, bzw. ohne offenkundige Gesichtserkennung - auch die Belichtungsmessung kann ja durchaus Motive/Gesichter erkennen.

Was bei Tieren passiert - keine Ahnung, ist nicht mein Anwendungsgebiet und unsere Katze ist grau/weiss
 
:confused: Nur mal so, Hautfarbe und Staatsbürgerschaft sind zwei paar Schuhe.
Macht sowas Spaß? Schrieb ich Deutscher oder deutscher Fotograf? Ich hatte außer bei der Straßenfotografie mutmaßlich noch nie Personen mit den betreffenden Hautfarben vor der Linse. Und so wird es für vermutlich der großen Mehrheit hierzulande und auch hier im Forum gehen.
 
Mal zum Verständnis:

Nicht funktionierende Gesichtserkennung beim Fotografieren ist nur ein Problem von vielen, die Menschen mit dunklen Hautfarben bei der Nutzung von Geräten bekommen können.
Lesenswerter Artikel: WENN ES FÜR DICH KEINE SEIFE GIBT

Entsprechend überfällig ist es, erweiterte Hauttypenskalen zu nutzen.

Ergänzung: Ich habe schon hunderte People of Color in Deutschland fotografiert, obwohl ich "deutsch" bin und auch niemanden mit nicht-weißer Hautfarbe in der Verwandschaft habe. Keine Straßenfotografie. Hochzeiten, Feiern, Musicals und im privaten Umfeld. Mein Freundes- und Bekanntenkreis besteht halt nicht nur aus "Biodeutschen". Etliche davon sind in Deutschland geboren, haben einen deutschen Pass und manche ihrer Eltern, teilweise sogar Großeltern sind ebenfalls Deutsche.

Ich empfinde es als anmaßend, über tausende Forums-Nutzer Verallgemeinerungen zu behaupten. Viele der registrierten "Karteleichen" gucken hier nicht regelmäßig rein, andere lesen nur still mit. Im Foto-Talk sind es vielleicht 50-100 "Aktive", von denen man regelmäßig liest. Eine sehr kleine Stichprobe, um daraus Rückschlüsse zu ziehen.
 
Zuletzt bearbeitet:
Ich hatte außer bei der Straßenfotografie mutmaßlich noch nie Personen mit den betreffenden Hautfarben vor der Linse. Und so wird es für vermutlich der großen Mehrheit hierzulande und auch hier im Forum gehen.

Unglaublich, und das von einem Berliner. Tut mir Leid, ich hätte mich gerne über das fachlich sehr interessante Thema unterhalten. Aber wenn es so schon anfängt weiß ich wo wir in 10 Beiträgen sind. Und nach einem Moderator brauche ich dann nicht zu rufen.
 
Wow, das war mir so nicht bewusst, dass in Kameras und Fotosoftware offenbar ein (unbewusster) Rassismus eingebaut ist. Ein wichtiges Thema, das die letzten Jahre zum Glück immer mehr offengelegt wird.
Diskriminierung/Rassismus ist ja oftmals gar nicht bewußt und/oder gewollt. Aber das wird zum Teil eben auch durch Studien oder KI-Trainingssätze mit relativ homogener Datengrundlage gefördert. Bei Experimenten an Hochschulen sind es oft die Studierenden, die an den Experimenten teilnehmen.
Gerade wenn man Teil der homogenen Masse ist, die überrerpäsentiert ist (weiß, männlich, gebildet, hetero) kann man solche Informationen ja zur Kenntnis nehmen und etwas daraus lernen. Z.B. als Softwareentwickler*in auf vielfältige Datengrundlage zu achten.
Dass ausgerechnet einige Moderatoren hier das als unwichtig erachten finde ich ziemlich schräg. Solltet ihr eher nicht vermitteln und schlichten? Und eben nicht ausgrenzen?
 
@elfchenlein: ja, leider... Tritt leider überall dort auf, wo weiße Menschen (und ja insb. männlich und gebildet) in ihrer eigenen Blase für die Massen entwickeln. Um so schöner, das jetzt ein Konzern wie Google das Thema aufgenommen hat, wie es bei den einzelnen Kameraherstellern aussieht, kann ich leider nicht sagen, wurde zumindest nicht kommuniziert.

Im ersten ICE könnten bpocs mit sehr dunkler Haut zB keine Türen öffnen, der Sensor hat sie schlicht nicht erkannt usw. Sicher keine böse Absicht aber halt die Folge von dem was Frosty hier beschreibt, "betrifft doch nur eine Minderheit und ich kenne auch keinen"
 
Macht sowas Spaß? Schrieb ich Deutscher oder deutscher Fotograf? Ich hatte außer bei der Straßenfotografie mutmaßlich noch nie Personen mit den betreffenden Hautfarben vor der Linse. Und so wird es für vermutlich der großen Mehrheit hierzulande und auch hier im Forum gehen.

Klar, weil das hier ja auch ein Technikforum ist, was bevorzugt mittelalte weiße Männer frequentieren, die sich nur in Ihrer Bubble bewegen. :D
Sorry, den konnte ich nicht liegen lassen.


Die Diskussion an sich finde ich hochspannend, denn auch KI ist nicht die Lösung für alles. Beispiel: Bewerbungsprozesse.

Ich lese hier mal weiter mit. Und wünsche mir, dass die Diskussion in vernünftigem Rahmen bleibt. (y)
 
KI wird immer geschult und wenn der meiste Input von weißen, männlichen gebildeten Menschen kommt, dann... Und ja, ich hoffe auch sehr, das die Diskussion sachlich und freundlich bleibt - ich gehöre auch zur o.g. Gruppe und muss immer wieder sehr viel lernen, da ich ganz vieles einfach nicht sehe/gesehen habe oder auch nicht sehen konnte/kann
 
Danke für den Thread (y) in der Tat muss/sollte man sich stetig sensibilisieren, weil der eigene Erfahrungshorizont einfach viel zu klein ist und man auf den externen Input deswegen auch schlich angewiesen ist.

KI... wer - wie im obigen Artikel zu lesen - Computer für neutral hält, versteht gar nichts davon. Und neuronale Netze können schon gleich gar nicht neutral* sein, aber man kann damit gut die Verantwortung abschieben.

*wobei man an dieser Stelle Neutralität erstmal sinnvoll definieren müsste
 
Ich finde das Thema unheimlich spannend. Vieles an Diskriminierung passiert nicht aus böser Absicht, sondern schlicht aus Unwissenheit und Unachtsamkeit. Es ist ja nicht schlimm, wenn man blinde Flecke hat in der eigenen Wahrnehmung. Jeder steckt ja nur in der eigenen Haut und macht eigene Erfahrungen.
Aber ich finde es schon wichtig, dass man zuhört, wenn benachteiligte Gruppen auf Missstände aufmerksam machen. Und sich wenn möglich sogar überlegt, inwiefern man sebst Teil dessen ist und ob man vielleicht sogar manche Dinge ändern könnte.
Manchmal hat man mehr Macht als man vermutet. Z.B. in den gezeigten Beispielen, wenn man Entwickler/Designer von irgendwelchen Produkten ist. Oder für die Diversität von Teams verantwortlich ist, die Produkte entwickeln.

Oder auch wenn man (wie die meisten hier) Bilder/Fotos macht. Auch hier kann man manchmal entscheiden, ob man gängige Klischees (re)produziert oder ob man die Menschen mit mehr Vielfalt und Persönlichkeit ablichtet.
Gerade Bilder haben doch wahnsinnig viel Einfluss darauf, wie wir uns selbst und andere wahrnehmen und bewerten. Sie erzeugen Schönheitideale, untermauern Vorurteile oder können uns evtl. auch überraschen, wenn Klischees gegen den Strich gebürstet werden.

Außerdem ist wohl fast jeder von uns in dem ein oder anderen Teil unseres Lebens nicht Teil der Mehrheit. Hier ist ein interessanter Test um eine Idee davon zu bekommen. Und somit vielleicht die Empatie für andere Gruppen etwas zu stärken. Manche Gegebenheiten machen einem die Teilhabe in unserer Gesellschaft natürlich viel schwerer als andere und wenn man gleich mehrere erfüllt, wird es noch schwieriger.
 
Die Diskussion an sich finde ich hochspannend, denn auch KI ist nicht die Lösung für alles.

Im Gegenteil, eine KI wird (ohne umfangreihe Moral-Parameter) das Thema sogar nochmals verstärken.

Eine KI als Chef würde keine Frau einstellen, da durch Schwangerschaft, Perioden etc. Leistungsausfälle wahrscheinlich/möglich sind... keine bpocs, wenn auch nur der geringte Verdacht bestünde, das damit der Absatz, das Betriebsklima etc. leiden würde., keine Menschen mit Handycaps, da der Aufwand an die Infrastruktur steigt...

Ein KI verstärkt das, was ihr Schöpfer ihr in die Wiege legt
 
Ein KI verstärkt das, was ihr Schöpfer ihr in die Wiege legt

Er kann ihr ja aber auch was anderes in die Wiege legen.

Hier ist ein anderes Thema, das in eine ähnliche Richtung geht, die bei Crashtests verwendeten weiblichen Dummies entsprechen anatomisch einer 12 Jährigen. Dadurch sind die Craschtest versuche offensichtlich besser im Egebnis, als wenn die Dummies richtig proportioniert wären. Bzw. mit richtig proportionierten Dummies könnte man das Design der Fahrzeuge verbessern, so das auch Frauen besserr geschützt wären.

Bei Unfällen werden Frauen dadurch schwerer verletzt, als Männer, weil die Körpermaße eben anders sind, als bei den Dummies:

https://www.spiegel.de/auto/crashte...aenner-a-fd1ff20a-5104-4779-9ef2-86ae4a0b8828
 
Zuletzt bearbeitet:
Es geht dabei ja auch nicht um die Sicherheit der Insass:innen sonden um die Anzahl der Sterne

Und ja klar, der Schöpfer hat bei der KI einen riesen Einfluss, aber damit besteht halt auch die Gefahr, das die jetzt schon verankerten Missstände fortgeführt werden
 
WERBUNG
Zurück
Oben Unten