Zitat:
Personen mit dunkler Hautfarbe werden von den Programmen schlechter erkannt, was die Unfallhäufigkeit für bestimmte Gruppen erhöhen könnte
Im Januar war bekannt geworden, dass das Gesichtserkennungsprogramm Rekognition von Amazon, die auch von Polizei- und Einwanderungsbehörden eingesetzt wird, Probleme mit dunkelhäutigen Menschen hat. Wissenschaftler unter Leitung von Joy Buolamwini vom MIT Media Lab waren darauf gestoßen, dass es zu Schwierigkeiten kam bei der Erkennung des Geschlechts. Nicht nur wurden Frauen allgemein schlechter erkannt und mit Männern verwechselt, sondern vor allem dunkelhäutigere Frauen.
Das war der Bürgerrechtsorganisation ACLU schon bei einem Test mit Politikerbildern im Sommer 2018 aufgefallen. Buolamini hatte im Jahr zuvor ähnliche Probleme bei Programmen von Microsoft, IBM und Megvii festgestellt, die seit dem aber offenbar korrigiert wurden. Auch bei anderen Programmen wurden rassistische oder geschlechtliche Neigungen deutlich, beispielsweise bei Programmen zur Vorhersage, ob Straftäter wieder rückfällig werden.
https://www.heise.de/tp/features/Vorhers...28894.html
Das werden sie korrigieren müssen, am Ende dann hoffentlich neutraler als es Menschen können. So richtig entwickeln wird sich das ganze auch erst, wenn verschiedene Systeme in Tests verglichen werden und die Hersteller bemüht sind alles zu können, was der Konkurrent kann.
__________________
Kinder wollen nicht wie Fässer gefüllt, sondern wie Fackeln entzündet werden.