Facebook-Algorithmus empfiehlt Affen-Clips nach Video mit Schwarzen
Der Facebook-Algorithmus verwechselt schwarze Menschen mit Affen. Die Gesichterkennungssoftware empfahl Zuschauern Videos mit Primaten. Eine Sprecherin entschuldigte sich dafür und nannte den Vorfall einen „eindeutig inakzeptablen Fehler“.
Symbolbild: Ein Smartphone mit geöffneter Facebook-App liegt auf einer Zeitung. (DPA)

Ein Algorithmus von Facebook hat schwarze Menschen mit Affen verwechselt. Eine Sprecherin des Unternehmens bestätigte am Freitag das Problem, das bei einem Video des britischen Boulevard-Blatts „Daily Mail“ aufgetreten war. Facebook-Nutzer, die sich das Video mit dem Titel „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“ angesehen hatten, wurden anschließend gefragt, ob sie „weiterhin Videos über Primaten sehen möchten“, wie die „New York Times“ berichtete.

Die Sprecherin sprach von einem „eindeutig inakzeptablen Fehler“. Die verantwortliche Software sei sofort vom Netz genommen worden. „Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat“.

Facebook setzt auf verschiedene Formen von künstlicher Intelligenz, um die den Nutzern angezeigten Inhalte zu personalisieren. Dabei kommt auch Gesichtserkennungssoftware zum Einsatz. Bürgerrechtlern weisen jedoch schon länger auf Probleme mit der Genauigkeit hin. Künstliche Intelligenz kommt bei Facebook auch bei der Moderation von Inhalten zum Einsatz, etwa um problematische Nachrichten und Bilder zu erkennen und zu blockieren.

AFP