
Big Data, Krieg und Künstliche Intelligenz – Wie Social-Media-Daten im Krieg verwendet werden

Am Dienstag begann in Köln das Rheinmetall-Entwaffnen-Camp, zu dem bis zu 1000 Teilnehmer aus dem linken antimilitaristischen Spektrum in Köln erwartet werden. Mit Protestaktionen in und um Köln, einschließlich einer Demonstration vor dem Haus des Rheinmetall-Chefs Armin Papperger, wollen sie der fortschreitenden Kriegstreiberei etwas entgegensetzen. Daneben wollen sich die Teilnehmer mittels Vorträgen und in Diskussionen über Strategien der Militarisierung und Widerstandsmethoden fortbilden.

In seinem Aufruf "Verweigern wir uns kollektiv dem Kriegsregime! Kriegstüchtigkeit stoppen", erklärt das Bündnis "Rheinmetall-Entwaffnen", wie die Militarisierung durch die Bundesregierung vorangetrieben und die gesamte Bevölkerung für Kriegszwecke mobilisiert wird. Die Camp-Organisatoren schreiben:
"Ein Paket von 800 Milliarden Euro soll die Fähigkeit zur Kriegsführung auf der EU-Ebene stärken. Dazu beschließt die […] deutsche Regierung unbegrenzte finanzielle Maßnahmen zur Aufrüstung und militärischen Umgestaltung der Infrastruktur und Gesellschaft möglich zu machen. Die gesamte Bevölkerung soll für Kriegszwecke mobilisiert werden und ihren Teil beitragen, notfalls auch gezwungenermaßen in Form von Wehr- und Pflichtdiensten. Seit Jahren andauernde tödliche Kriege wie in der Ukraine und Syrien bis hin zu Genoziden wie in Palästina und Sudan werden ungehemmt weiter befeuert und produzieren mit ihrem Alltag der Gewalt unter den Zivilist*innen immer mehr Leiden, Verletzte, Vergewaltigte, Traumatisierte und Tote, sowie unbewohnbare, völlig zerstörte Regionen."
Workshop "Big Data, Krieg und Künstliche Intelligenz"
Am Dienstagnachmittag fand im Großzelt eine Veranstaltung zur Anwendung und Auswirkung der Künstlichen Intelligenz (KI) in Kriegseinsätzen statt. Rund 120 Campteilnehmer fanden sich im Zirkuszelt zusammen, um sich beim Vortrag zum Thema "Big Data, Krieg und Künstliche Intelligenz" darüber zu informieren, wie Entscheidungen darüber, wer wann in einem Krieg als Nächstes getötet wird, immer mehr von technischen Systemen getroffen werden.
Das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIFF), die Informationsstelle Militarisierung (IMI) und der Arbeitskreis gegen bewaffnete Drohnen forderten daher schon im Jahr 2024 in einem gemeinsamen Positionspapier dazu auf, zu prüfen, ob "Targeted Killing" mit unterstützenden KI-Systemen als Kriegsverbrechen eingestuft werden sollte.
Die von direkter Handlung entkoppelten "intelligenten Systeme und Mensch-Maschine-Schnittstellen" in geheimdienstlichen und militärischen Sicherheitsapparaten müssen gestoppt werden, forderten die Anti-Militaristen. Beim Einsatz von KI und sogenannten intelligenten Waffensystemen handele es sich um eine Dehumanisierung, die zu einer immer weiter sinkenden Tötungshemmschwelle führe, und zwar in Bezug sowohl auf beteiligte Kampfeinheiten als auch auf die Zivilbevölkerung.
Die Erstellung von Todeslisten durch Künstliche Intelligenz
Als Beispiel wurde im Vortrag das KI-basierte System Lavender vorgestellt. Es werde unter anderem von der israelischen Armee eingesetzt, zur Identifizierung von Hamas-Offizieren und ihrer "Markierung" als "Human Target". Daraus generierte Todeslisten würden dann an israelische Militärs weitergegeben. Zur Erstellung der Todesdatenbank habe das Programm zunächst alle zwei Millionen Palästinenser im Gazastreifen und der Westbank mittels Kameras an den Checkpoints erfasst und ihre Merkmale in einer Datenbank gespeichert.
Die Pegasus-Spionagesoftware wird in Kombination mit ausgewerteten Facebook-Daten und WhatsApp-Kommunikation eingesetzt, um das Verhalten der Menschen insoweit zu analysieren, dass es in die Zukunft projiziert werden kann. Auf der Basis von Wahrscheinlichkeiten werden schließlich mutmaßliche Hamas-Kämpfer "herausgerechnet" und in die Todesliste gestellt.
Als "Kollateralschaden", also Tötung unbeteiligter Zivilisten, würden bei den Berechnungen für einen einfachen Hamas-Kämpfer 5 bis 20 Zivilisten einkalkuliert, und bei einem Hamaskommandeur dürften bis zu 100 kollaterale Opfer mitgetötet werden. Nach dieser Kalkulation erstelle das Lavender-Programm die Zielkoordinaten für die Tötungen. Anschließend würde ein weiteres Programm mit dem Namen "Where’s Daddy?" aktiviert, welches die Zielperson suche und verfolge. Sobald die ausgewählten Personen ihre Wohnhäuser aufsuchten, würden sie dann bombardiert – oftmals in der Nacht in Anwesenheit ihrer Familien.
Verbindung zwischen Künstlicher Intelligenz, Transhumanismus und Eugenik
Bei dieser Art der Kriegsführung, gehe es auch darum, Verantwortlichkeiten für das Töten immer weiter von den eingesetzten Soldaten wegzuschieben. Inzwischen haben sich die Militärs bereits daran gewöhnt, dass die "Künstliche Intelligenz" ihnen die Entscheidung abnehme, wann sie wen töten. Ein Schnittstellenprogramm zwischen Mensch und Maschine gestaltet den Entscheidungsspielraum für sie.
Der Einsatz von künstlicher Intelligenz beim Militär und die damit einhergehende Verschmelzung des Menschen mit technischen Systemen seien Bausteine des sogenannten Transhumanismus. Weit entfernt von angeblicher "Neutralität" handele es sich um ein inhumanes und rassistisches Konzept, das mit einer rechten Ideologie im Einklang stehe: der Eugenik. Die Ideologie der Eugenik nehme für sich in Anspruch, zu entscheiden, welches Leben lebenswert ist und welches nicht. Dass die Entscheidung über Leben und Tod hierbei durch technische Systeme ausgewählt werde, und nicht mehr direkt durch menschliche Entscheider, mache es nur noch inhumaner.
Nutzung von Sozialen Medien liefert Datensammlungen, die Verhaltensberechnungen erst möglich machen
Grundsätzlich könnte die Palantir-Software unter Auswertung aller in den Sozialen Medien eingegebenen Daten (Facebook, Twitter, Instagram, WhatsApp, Chat-GPT etc.) das wahrscheinliche zukünftige Verhalten all der Menschen berechnen, die Soziale Medien nutzen. Einer der Workshopleiter machte deutlich, dass diese von uns zivil genutzten Datenkraken immer auch von militärischem Nutzen seien. Er erklärte: "Es gibt nichts Ziviles in der Präsenz des Militärischen."
Es seien all diese "lustigen KI-Systeme", die uns den Alltag so bequem machten. Aber indem wir sie nutzten, würden wir dazu beitragen, dass die Programme am Ende gegen uns verwendet würden. Bei all diesen sogenannten Sozialen Medien, sollten wir stets bedenken, wer die Leute sind, denen sie gehören. Wir sollten bedenken, wie sie vernetzt sind, um zu verstehen, wofür diese Datensammlungen auch militärisch von Nutzen sind. Aus diesem Grund sollten wir unser eigenes Verhältnis zur Nutzung von Sozialen Medien überdenken.
Mehr zum Thema – Sinneswandel in Friedensorganisationen: Putin ist nicht mehr schuld – Dialog mit Russland erwünscht
Durch die Sperrung von RT zielt die EU darauf ab, eine kritische, nicht prowestliche Informationsquelle zum Schweigen zu bringen. Und dies nicht nur hinsichtlich des Ukraine-Kriegs. Der Zugang zu unserer Website wurde erschwert, mehrere Soziale Medien haben unsere Accounts blockiert. Es liegt nun an uns allen, ob in Deutschland und der EU auch weiterhin ein Journalismus jenseits der Mainstream-Narrative betrieben werden kann. Wenn Euch unsere Artikel gefallen, teilt sie gern überall, wo Ihr aktiv seid. Das ist möglich, denn die EU hat weder unsere Arbeit noch das Lesen und Teilen unserer Artikel verboten. Anmerkung: Allerdings hat Österreich mit der Änderung des "Audiovisuellen Mediendienst-Gesetzes" am 13. April diesbezüglich eine Änderung eingeführt, die möglicherweise auch Privatpersonen betrifft. Deswegen bitten wir Euch bis zur Klärung des Sachverhalts, in Österreich unsere Beiträge vorerst nicht in den Sozialen Medien zu teilen.