US-Experiment: KI gegen abweichende Meinungen

Es klingt wie eine Seite aus dem Roman "1984": Forscher von drei US-Universitäten führten Experimente durch, bei dem der Chatbot einer künstlichen Intelligenz "Anhänger von Verschwörungstheorien" überzeugen sollte, und schlagen begeistert eine Vielzahl von Anwendungsmöglichkeiten vor.

Von Dagmar Henn

2.190 Amerikaner, die an eine "Verschwörungstheorie" glauben, nahmen an diesen Experimenten teil, in denen ein Chatbot mit ihnen ein Gespräch über diese Hypothese führen sollte. Der Chatbot war jedoch darauf programmiert, Argumente gegen die "Verschwörungstheorie" zu liefern. Begeistert schrieben die Forscher in ihrem Aufsatz in der Fachzeitschrift Science:

"Die Behandlung reduzierte den Glauben der Teilnehmer an ihre gewählte Verschwörungstheorie im Durchschnitt um 20 Prozent. Diese Wirkung hielt unvermindert für mindestens zwei Monate an. Sie wurde einhellig über eine große Breite von Verschwörungstheorien beobachtet, von klassischen Verschwörungen, in denen es sich um die Ermordung von John F. Kennedy dreht, Aliens und die Illuminaten bis zu jenen, in denen aktuelle Ereignisse eine Rolle spielen, wie COVID-19 und die Präsidentschaftswahlen 2020. Die Wirkung trat selbst bei Teilnehmern auf, deren Verschwörungsglaube tief verwurzelt und für ihre Identität wichtig war."

Dabei sehen die betreffenden Wissenschaftler durchaus praktische Anwendungen für die Technologie, die sie erprobt haben:

"Internet-Suchbegriffe, die sich auf Verschwörungen beziehen, könnten mit KI-generierten Zusammenfassungen präziser Informationen beantwortet werden, die auf die genaue Suche zugeschnitten sind und die Reaktion und das Engagement des Nutzers anregen. Ebenso könnten KI-gesteuerte Social-Media-Konten Nutzern antworten, die ungenaue verschwörungsbezogene Inhalte teilen (und so korrigierende Informationen liefern, die sowohl dem Poster als auch den Beobachtern zugutekommen könnten)."

Der entscheidende Unterschied zwischen Studie und Wirklichkeit scheint den Forschern nicht bewusst zu sein. Die Teilnehmer des Versuchs haben alle eingewilligt. Was aber, wenn genau diese Technologie ohne jede Einwilligung oder selbst Kenntnis des Gegenübers zum Einsatz gebracht wird? Und welcher Institution kann und darf das Recht verliehen werden, über die Bewertung von Überzeugungen als "Verschwörungstheorien" zu entscheiden? Gerade im Zusammenhang mit dem auch im Versuch aufgeführten Thema COVID-19 hat sich bereits eine Reihe vermeintlicher "Verschwörungstheorien" als wahr erwiesen.

Mehr noch: Die Nutzer einer derartigen Technologie haben eigene Interessen, was sich bei Google unschwer verfolgen lässt. Was bedeutet ein derartiges Instrument in den Händen einer solchen Struktur, die sich womöglich auf diese Weise Mehrheiten im eigenen Interesse verschafft und so an entscheidenden Punkten demokratische Prozesse unmöglich macht?

Schon bisher sind es vielfach selbst fachlich zweifelhafte (wie in Deutschland beispielsweise Correctiv) oder gar direkt mit dem militärisch-industriellen Komplex verknüpfte Strukturen, die das Gewerbe der "Faktenchecks" dominieren. Die Kommunikation einer KI ist programmiert, es ist eine Maschine, die keine eigenen Zweifel entwickeln kann und der konkrete, Menschen prägende Erfahrungen, etwa aus der Kollision von Moral und Realität, fremd sind. Ein Vorgehen wie im beschriebenen Experiment verstieße in der realen Welt gleich gegen mehrere Grundfreiheiten. So wäre es ebenso vorstellbar, dass ein militanter Atheist das Gerät darauf programmiert, gegen jeden Glauben vorzugehen, wie es ein Anhänger des Opus Dei für seine Überzeugungen nutzen könnte. In beiden Fällen wäre es ein automatisierter Verstoß gegen die Bekenntnisfreiheit.

Mehr zum Thema ‒ Via Alexa: Amazon gesteht Wahlwerbung für Harris ein