Männer-Nippel vs. BH: Wie KI-Algorithmen Frauen benachteiligen können
Abbildungen von Frauen werden von KI öfter als anzüglich bewertet und ausgeblendet
Zahlreiche Online-Dienste nutzen Algorithmen, um Bilder, die im Internet hochgeladen werden, zu prüfen. Solche Bilderkennungs-Technologien werden beispielsweise oft in sozialen Netzwerken genutzt. Laut einer BR-Data-Analyse werden Bilder, die Frauen abbilden, oft von der KI anzüglicher bewertet als Bilder von Männern. Dies hat Folgen für die Sichtbarkeit. Nach der Prüfung ist klar: Die analysierten vier Systeme unterliegen einem Gender Bias, eine Verzerrung auf Basis des Geschlechts. Eine transparente Kommunikation, dass es solche Unterschiede geben und wie man damit umgehen kann, wäre seitens Hersteller der Bilderkennungs-Technologie wünschenswert. Probieren Sie selbst aus, wie Sie Bilder bewerten würden im Vergleich zur KI:
Zu sexy: Wie KI-Algorithmen Frauen benachteiligen können [br.de]
Zu sexy - wie Online-Algorithmen Frauen benachteiligen [Podcast, ardaudiothek.de]