International

Täuschend echt: KI-Modelle generieren und verstärken Propaganda

KI-Modelle sind in der Lage, Propaganda und Falschinformationen zu erzeugen und zu verbreiten, so russische Experten. Ausmaß und Geschwindigkeit solcher Aktionen sind beispiellos, was KI zu einer ernsten Bedrohung und zu einem Werkzeug für hybride Kriegsführung macht.
Täuschend echt: KI-Modelle generieren und verstärken PropagandaQuelle: Sputnik © RIA Nowosti / Wladimir Astapkowitsch

Die KI hat in Rekordzeit ungeahnte Fortschritte gemacht. So zeigen Umfragen und Studien, dass der Durchschnittsbürger in den meisten Fällen nicht zwischen einem Deepfake und einem echten Video unterscheiden kann. Nicht selten werden von KI generierte Texte in sozialen Netzwerken als von einem Menschen verfasst wahrgenommen. Dadurch eröffnen sich beispiellose Möglichkeiten des Missbrauchs ‒ bis hin zum Einsatz von KI in Desinformationskampagnen und in der hybriden Kriegsführung. In einem Expertenbericht der Agentur RIA Nowosti, verfasst von den Experten Alexander Jakowenko und Oleg Rogow, heißt es:

"Generative KI-Modelle haben bereits gelernt, wie man überzeugende Texte, Bilder, Videos und Töne produziert. Der nächste Schritt wäre die Kombination solcher Modelle zu Multi-Agenten-Systemen für ein koordiniertes Management von Desinformationskampagnen. Stellen Sie sich ein Netzwerk aus vielen spezialisierten KI-Agenten vor: Einige analysieren Trends in den sozialen Medien, andere erstellen Nachrichtenartikel oder Beiträge, wieder andere erstellen gefälschte Fotos oder Videos, und wieder andere verwalten Tausende von gefälschten Konten, um solche Inhalte zu verbreiten. Ein solches System ist in der Lage, praktisch ohne menschliches Eingreifen zu operieren und falsche Narrative kontinuierlich an das Zielpublikum anzupassen."

Ein KI-System, das auf solchen Modellen basiert, kann Fälschungen lawinenartig vermehren, bis es gestoppt wird, warnen Experten. Es ist außerdem das Konzept der sogenannten "performativen Vorhersage" zu beachten: wenn KI die Realität nicht nur widerspiegelt, sondern sie auch gestaltet. Wenn ein Algorithmus eine Idee massenhaft verbreitet, reagiert ein Teil der Gesellschaft auf diese Idee und macht sie damit im sozialen Sinne "real". So können beispielsweise ausreichend überzeugende Fehlinformationen über eine Krise Panikgefühle oder wirtschaftliche Entscheidungen bewirken, die eine künstlich vorbereitete Krise herbeiführen.

Mithilfe des "Emotional mapping", wie die Analyse der Tonalität von Beiträgen in sozialen Netzwerken genannt wird, kann die kollektive Stimmung erfasst und der Zeitpunkt für einen Informationsangriff gewählt werden, an dem die Gesellschaft am sensibelsten ist. So kann KI in Verbindung mit Daten aus sozialen Netzwerken zu einem Instrument der Massen-Desinformation werden, das in Echtzeit in der Lage ist, sich an die Reaktionen der Menschen anzupassen und daraus zu lernen. Das Ausmaß und die Geschwindigkeit einer solchen Einflussnahme sind beispiellos, und herkömmliche Methoden zur Widerlegung von Falschmeldungen können oft nicht rechtzeitig angewendet werden.

Nach Ansicht von Experten ist es bereits jetzt notwendig, Gegenstrategien zu entwickeln, um nicht in hybriden Informationskriegen unterzugehen. Eine davon könnte die obligatorische Kennzeichnung von KI-generierten Inhalten sein ‒ sowohl explizit, sodass jeder Nutzer die Art der Generierung sehen und sich entscheiden kann, ob er diesen Informationen vertraut, als auch versteckt, was nur Fachsoftware erkennen kann, um Moderatoren und Providern ein entsprechendes Zeichen zu geben.

Mehr zum Thema ‒ "Spionage"-Dokus bei ARD und Co.: Beispiel für kognitive Kriegsführung

Durch die Sperrung von RT zielt die EU darauf ab, eine kritische, nicht prowestliche Informationsquelle zum Schweigen zu bringen. Und dies nicht nur hinsichtlich des Ukraine-Kriegs. Der Zugang zu unserer Website wurde erschwert, mehrere Soziale Medien haben unsere Accounts blockiert. Es liegt nun an uns allen, ob in Deutschland und der EU auch weiterhin ein Journalismus jenseits der Mainstream-Narrative betrieben werden kann. Wenn Euch unsere Artikel gefallen, teilt sie gern überall, wo Ihr aktiv seid. Das ist möglich, denn die EU hat weder unsere Arbeit noch das Lesen und Teilen unserer Artikel verboten. Anmerkung: Allerdings hat Österreich mit der Änderung des "Audiovisuellen Mediendienst-Gesetzes" am 13. April diesbezüglich eine Änderung eingeführt, die möglicherweise auch Privatpersonen betrifft. Deswegen bitten wir Euch bis zur Klärung des Sachverhalts, in Österreich unsere Beiträge vorerst nicht in den Sozialen Medien zu teilen.