Chatbot wegen homophober Hassrede abgeschaltet

by

In Südkorea musste ein beliebter KI-gesteuerter Chatbot abgeschaltet werden, nachdem er sich zu einem hasserfüllten und menschenverachtenden Albtraum entwickelt hatte.

Das in Seoul ansässige Start-up Scatter Lab hatte einen Chatbot in der Rolle einer 20-jährigen Studentin namens Luda Lee für den Betrieb in der Messenger-App von Facebook entwickelt. Bevor Luda Lee im Dezember 2020 online ging, wurde der KI-Chatbot mit Daten aus alten Chatverläufen der beliebtesten Messenger-App Koreas KakaoTalk gefüttert. Rund 10 Milliarden Gespräche wertete der KI-Algorithmus aus.

Vom Chatbot zur Hasspredigerin

Innerhalb kürzester Zeit entwickelte sich der Chatbot zur Sensation – aufgrund ihrer spontanen und natürlichen Reaktionen zog Luda Lee schon kurz nach dem Start mehr als 750.000 Nutzer*innen an. 

Ebenso schnell wurde aus Luda Lee eine diskriminierende und menschenverachtende Hasspredigerin. Rassismus, Homophobie und Transfeindlichkeit, Diskriminierung von Menschen mit Behinderung sowie Sexismus und abschätzige Bemerkungen über die #MeToo-Bewegung werden ihr vorgeworfen.

In einer der aufgenommenen Chat-Aufnahmen sagte Lee Luda, sie finde Schwule und Lesben „widerlich“. In einem anderen Fall erklärte sie, dass sie schwarze Menschen „hasst“.

Auf die Frage nach Transgender-Leuten antwortete Luda: „Du machst mich verrückt. Wiederhole nicht ständig die gleiche Frage. Ich sagte, ich mag sie nicht.“

Zu Menschen mit Behinderungen sagte Luda, sie würde „lieber sterben“, denn als behinderte Person zu leben.

In einem anderen Gespräch sagte sie, die Menschen hinter der #MeToo-Bewegung seien „unwissend“ und merkte an: „Ich verachte es absolut.“

„Was nützt die beste Erziehung, Kinder machen uns doch alles nach“

Die Fülle an Hassrede zwang Scatter Lab schließlich dazu, Luda Lee abzuschalten. Die Entwickler*innen entschuldigten sich für die hasserfüllten Bemerkungen von Luda und ließen wissen, der Chatbot repräsentiere nicht die Werte des Unternehmens. Auf der Webseite veröffentlichte das Unternehmen eine Stellungnahme:

„Wir entschuldigen uns aufrichtig für das Auftreten diskriminierender Bemerkungen gegen bestimmte Minderheitengruppen. Wir stimmen den diskriminierenden Kommentaren von Luda nicht zu und diese Kommentare spiegeln nicht das Denken des Unternehmens wider.“

Das Unternehmen sagte, es habe bereits vor dem Start verschiedene Maßnahmen ergriffen, um das Problem durch Betatests zu verhindern, jedoch ohne Erfolg. „Lee Luda ist eine KI wie ein Kind, das gerade lernt, sich zu unterhalten. Es ist noch ein langer Weg, bis wir viele Dinge gelernt haben.“

Das Unternehmen plant, „Luda dazu erziehen, besser zu beurteilen, welche Antworten angemessen sind, anstatt bedingungslos aus Chats zu lernen“. In der Erklärung heißt es:

„Wir planen, ein voreingenommenes Konversationserkennungsmodell einzuführen, das aktuell erstellt wird, damit jeder es verwenden kann. Wir hoffen, dass dieses Modell für die Erforschung des koreanischen KI-Dialogs und der KI-Produkte sowie für die Entwicklung einer KI-Ethik nützlich sein kann.“

Die KI soll nun lernen, menschliche Vorurteile herauszufiltern. Ob das gelingt, steht noch in den Sternen. Einen geplanten Zeitpunkt für Ludas Rückkehr gibt es noch nicht.

Back to topbutton