Am Freitag erklärte der US-Tech-Riese Facebook, dass er seine Funktion zur Empfehlung von Themen deaktiviert habe, nachdem seine Analysesoftware in einem Video auf dem sozialen Netzwerk schwarze Männer mit "Primaten" verwechselt hatte. Ein Facebook-Vertreter sprach von einem "eindeutig inakzeptablen Fehler" und sagte, die betreffende Empfehlungssoftware sei offline genommen worden. Facebook sagte gegenüber der Nachrichtenagentur AFP:
"Wir entschuldigen uns bei allen, die diese beleidigenden Empfehlungen gesehen haben könnten. Wir haben die gesamte Themenempfehlungsfunktion sofort abgeschaltet, als wir dies bemerkt hatten, damit wir die Ursache untersuchen und verhindern können, dass dies noch einmal passiert."
Zuvor war bereits auch die Gesichtserkennungssoftware mehrfach von Bürgerrechtlern scharf kritisiert worden, die auch dort auf Probleme mit der Genauigkeit hinwiesen – insbesondere, wenn es um Menschen geht, die nicht weißer Hautfarbe sind. Facebook-Nutzer, die sich in den letzten Tagen ein britisches Boulevardvideo mit schwarzen Männern angesehen haben, wurden automatisch gefragt, ob sie "weiterhin Videos über Primaten sehen möchten", so berichtete darüber die New York Times.
Das fragliche Video vom Juni 2020, das von der britischen Daily Mail veröffentlicht worden war, trägt den Titel "White man calls cops on black men at marina" (Weißer Mann ruft die Polizei wegen schwarzer Männer im Hafen). Obwohl auch Menschen bekanntlich zu den vielen Arten der Primatenfamilie gehören, hatte dieses Video jedoch nichts mit Affen, Schimpansen oder Gorillas zu tun.
Ein Screenshot der Empfehlung wurde von einer ehemaligen Managerin für Inhalt und Design bei Facebook, Darci Groves, auf Twitter geteilt, wobei sie ihre ehemaligen Kollegen bei Facebook aufforderte, etwas gegen diese Videoempfehlung zu unternehmen:
"Diese Empfehlung 'weiter sehen' (Videos über Primaten) ist nicht akzeptabel, @Facebook. Und obwohl das Video mehr als ein Jahr alt ist, hat ein Freund gestern diese Aufforderung erhalten. FB-Freunde, bitte handeln. Das ist ungeheuerlich."
Frau Groves, die laut der Times das Unternehmen Facebook im Sommer nach vier Jahren Tätigkeit verlassen hatte, sagte darüber, einige Fehltritte bei dem Unternehmen würden darauf hindeuten, dass der Umgang mit Rassenproblemen für die Führungskräfte kein Priorität habe. Sie meinte dazu, "Facebook kann nicht immer wieder diese Fehler machen und dann sagen: 'Es tut uns leid'".
Der von Mark Zuckerberg gegründete Tech-Riese Facebook hatte in den letzten Jahren mit zahlreichen Kontroversen zu kämpfen, insbesondere seit dem Jahr 2020, als sich Hunderte von Werbekunden einer Kampagne Stop Hate for Profit (Stoppt den Hass für Profit) anschlossen. Diese Kampagne war von Gruppen für soziale Gerechtigkeit organisiert worden, um Facebook zu konkreten Schritten zu drängen, um Hassreden und Fehlinformationen auf der Plattform nach dem Tod des Afroamerikaners George Floyd in Minneapolis, Minnesota zu unterbinden.
Auch andere US-amerikanische Big Tech-Unternehmen hatten ähnliche Probleme. Ein Beispiel aus dem Jahr 2015 dafür ist Google Fotos, bei dem Bilder von Schwarzen irrtümlicherweise als "Gorillas" klassifiziert wurden. Google entschuldigte sich damals und sagte, es werde daran arbeiten, das Problem zu beheben.
Mehr zum Thema - Zensur gegen "Sputnik France"? Facebook-Konto des Senders droht Löschung wegen Zitats über Corona
(rt/afp)