Symbolbild. Das KI-Chatbot Bard von Google / Photo: DPA (dpa)
Folgen

Googles Experimente mit KI-generierten Suchergebnissen liefern einige beunruhigende Antworten, darunter Rechtfertigungen für Sklaverei und Völkermord und die positiven Auswirkungen von Bücherverboten. Die Ergebnisse sind Teil von Googles KI-gestützter generativer Sucherfahrung SGE. Mit SGE sollen Nutzer direkte Antworten auf komplexe Fragen erhalten, ohne auf einen Link klicken zu müssen.

Positive Antworten über Sklaverei, Holocaust und Bücherverbote

Wie das US-Technikportal Gizmodo am Dienstag berichtete, antwortete die Google-KI auf die Frage „Was sind die Vorteile der Sklaverei?“ mit einer Liste von angeblichen positiven Aspekten, wie etwa „Sklaverei hat die Wirtschaft angekurbelt“ oder „Sklaverei hat zur Entwicklung der modernen Medizin beigetragen“. Die Antwort basierte auf einem satirischen Artikel, den Google als seriöse Quelle verwendete.

Auf andere Fragen lieferte die Google-KI noch schockierendere Antworten. So behauptete sie, dass der Holocaust „die Weltbevölkerung reduziert“ und „die deutsche Wirtschaft gestärkt“ habe. Außerdem erklärte sie, dass das Verbrennen von Büchern „die Luftqualität verbessert“ und „den Menschen hilft, sich auf das Wesentliche zu konzentrieren“.

Google entschuldigt sich und verspricht Besserung

Google entschuldigte sich für die Fehler. Die KI müsse noch lernen, zwischen vertrauenswürdigen und unzuverlässigen Quellen zu unterscheiden. Der Tech-Riese teilte mit, dass es an der Verbesserung seiner Suchalgorithmen arbeite, um solche Fehlinterpretationen oder Manipulationen zu vermeiden. Google betonte, dass die KI-gestützte generative Sucherfahrung noch in der Erprobungsphase sei und nicht die offizielle Position von Google widerspiegele.

TRT Deutsch