Autonome Kampfroboter: US-Armee will Drohnen mit Gesichtserkennungssoftware einsetzen
Fliegende Killerroboter waren früher eine albtraumhafte Fantasie – etwas, das es nur in Science-Fiction-Filmen oder Büchern gab. Einst Fiktion, hält diese abschreckende Technologie heute jedoch zunehmend Einzug in unsere Gesellschaft. Erinnern Sie sich an den Tom Cruise-Film Minority Report, in dem fliegende Maschinen Menschen identifizieren und auf sie schießen? Ein solches Szenario könnte schon bald unsere Realität bestimmen: auf Anweisung, oder gar komplett autonom, steigt die Drohne in den Himmel auf. Sie fliegt in rasanter Geschwindigkeit über die Landesgrenze auf feindliches Gebiet und sucht ihr Opfer per Gesichtserkennung. Leise summend spürt die Mini-Drohne es auf, berechnet den für den Tötungsvorgang benötigten Winkel und tötet ihr Opfer mit gezielten Schüssen oder gar einer Mini-Rakete.
Was auf die meisten Menschen verständlicherweise verstörend wirken mag, ist dank der Fortschritte in den Bereichen der Künstlichen Intelligenz (KI) heute leider bereits technisch möglich. Da jene fortschrittliche Technologie das Potenzial besitzt, die Art und Weise zu verändern, wie Kriege geführt werden, sind die großen Militärmächte der Welt natürlich an einer schnellen Integration solcher Kampfsysteme in ihre Streitkräfte interessiert. So auch die USA, deren Luftwaffe laut einem Bericht der US-Zeitschrift New Scientist kürzlich einen Vertrag mit dem in Seattle ansässigen Tech-Unternehmen RealNetworks zur Entwicklung einer Gesichtserkennungssoftware für kleine autonome Drohnen geschlossen hat.
Die mit der Gesichtserkennungssoftware des Unternehmens ausgestatteten Drohnen sollen von den Spezialeinsatzkräften des US-Militärs zu gegebener Zeit zum Sammeln von Informationen und zur Unterstützung bei "anderen Missionen" – sowohl im In- als auch im Ausland – eingesetzt werden, um "die Möglichkeit einer autonomen Reaktion des Roboters in Echtzeit zu eröffnen". Das geht aus dem der Zeitschrift vorliegenden Vertrag hervor. Die Gesichtserkennungstechnologie ermöglicht es Drohnen, Menschen in Echtzeit zu identifizieren und zu verfolgen. In Verbindung mit künstlicher Intelligenz können diese Drohnen automatisch Entscheidungen treffen, ohne dass ein menschliches Eingreifen erforderlich ist. Militärische Operationen können so schneller und effektiver durchgeführt werden.
Allerdings sind die Gefahren und ethischen Fragen, die mit der Nutzung solcher Technologien einhergehen, nicht von der Hand zu weisen. So ist etwa zu bedenken, dass Drohnen mit Gesichtserkennungstechnologie tief in die Privatsphäre von unschuldigen Menschen eingreifen können. Gleichwohl kann die Erkenntnis, dass das eigene Gesicht jederzeit und überall erkannt werden kann, zu einem Gefühl der ständigen Überwachung führen und so die Freiheit und Privatsphäre eines jeden von uns einschränken.
So können Überwachungsdrohnen zwar ein unangenehmes Gefühl hervorrufen. Potenziell tödlich sind sie jedoch nicht. Für den Menschen gefährlich wird es erst, wenn sich bewaffnete Drohnen dank integrierter Gesichtserkennungssoftware ihre Ziele selbst suchen, und dieses zerstören oder töten können, ohne dass bei diesem Prozess noch ein Mensch mitwirken muss. Zwar handeln auch autonome Waffen letztlich so, wie sie von Menschen programmiert worden sind, aber im Falle eines Einsatzes ist es nicht mehr notwendig, dass ein Mensch auf einen Knopf drücken oder anderweitig ferngesteuert die zerstörerische Wirkung auslösen muss. Die Drohnen könnten falsche Ziele identifizieren oder Entscheidungen treffen, die auf Vorurteilen oder unvollständigen Informationen basieren.
In einer solchen Situation könnten unschuldige Menschen gefährdet werden oder es könnte zu schwerwiegenden Fehlern kommen, die unerwünschte Folgen haben könnten. Ebenso ist zu beachten, dass mit Gesichtserkennungssoftware ausgestattete Drohnen in der Lage sein könnten, gezielt bestimmte Personengruppen zu überwachen oder sogar zu töten. Diese Technologie könnte von Regimen als Werkzeug genutzt werden, um Oppositionelle oder Dissidenten zu unterdrücken, was zu einer Einschränkung der Freiheit und Demokratie führen würde.
Doch was macht die voll automatisierten "Killersysteme" für das Militär so interessant?
Im Krieg zählt vor allem Schnelligkeit. Der Soldat, der einen Sekundenbruchteil schneller zieht, kann ein Feuergefecht unbeschadet überstehen; das Schiff, das ein feindliches Schiff zuerst versenkt, erspart sich vielleicht eine Raketensalve. In Fällen, in denen Menschen mit dem Tempo moderner Konflikte nicht mithalten können, springen Maschinen ein. Wenn eine Panzergranate auf ein gepanzertes Bodenfahrzeug zufliegt, erkennt ein automatisiertes System an Bord des Fahrzeugs die Bedrohung, verfolgt sie und feuert eine Abfangrakete ab, bevor die Besatzung des Fahrzeugs sie überhaupt wahrnehmen kann.
In ähnlicher Weise können Schiffe der US-Marine, die mit dem Aegis-Kampfsystem ausgestattet sind, den sogenannten "Auto-Special-Modus" einschalten, der ankommende Sprengköpfe nach sorgfältig programmierten Regeln automatisch abfängt. Diese Art von Verteidigungssystemen gibt es seit Jahrzehnten, und mindestens 30 Länder setzen sie inzwischen ein. In vielerlei Hinsicht sind sie mit den automatischen Bremssystemen in neueren Autos vergleichbar, die nur in bestimmten Notfällen eingreifen. Doch wie die Automobilhersteller haben auch die Militärs den Maschinen allmählich mehr Freiheiten eingeräumt. Bereits mehrfach demonstrierten die Vereinigten Staaten, wie die Automatisierung in der gesamten sogenannten "Kill Chain" eingesetzt werden kann und auch schon eingesetzt wird.
Noch haben Militärs einen zwingenden Grund, Menschen an tödlichen Entscheidungen zu beteiligen. Zum einen sind sie ein Bollwerk gegen Fehlfunktionen und fehlerhafte Interpretationen von Daten, denn bevor sie abdrücken, vergewissern sie sich, dass das automatisierte System nicht ein befreundetes oder neutrales Schiff falsch identifiziert hat. Überdies können selbst die fortschrittlichsten Formen künstlicher Intelligenz Zusammenhänge nicht so gut verstehen, beurteilen oder auf neue Situationen reagieren wie ein Mensch. Menschen sind besser in der Lage, sich in die Gedankenwelt eines feindlichen Kommandanten hineinzuversetzen, eine Finte zu durchschauen oder zu wissen, wann sie das Überraschungsmoment wahren und wann sie angreifen sollten.
Maschinen sind jedoch schneller, und wer zuerst schießt, hat einen großen Vorteil. Angesichts dieses Wettbewerbsdrucks ist es nicht abwegig, dass die einzige Möglichkeit, am Leben zu bleiben, eines Tages darin bestehen wird, eine vollautomatische Tötungskette einzuführen. Wenn nur eine Großmacht dies tut, könnten sich andere gezwungen sehen, diesem Beispiel zu folgen. Im Jahr 2016 formulierte der damalige stellvertretende US-Verteidigungsminister Robert Work eine zum Nachdenken anregende Frage: "Wenn unsere Konkurrenten auf Terminatoren umsteigen und es stellt sich heraus, dass die Terminatoren in der Lage sind, schneller Entscheidungen zu treffen, selbst wenn sie schlecht sind, wie würden wir dann reagieren?"
Zwar laufen die Killerroboter und Drohnen noch nicht vom Band, aber jede neue Generation von Waffen scheint uns näher an Szenarien zu bringen, die an die Handlungen von Filmen wie Terminator oder Minority Report erinnern. Und obwohl kein Land die Absicht bekundet hat, völlig autonome Waffen zu bauen, haben nur wenige darauf verzichtet. Die Risiken eines Krieges mit Maschinengeschwindigkeit sind weitaus größer als eine einzelne fehlgeleitete Rakete. Militärwissenschaftler in China haben Hypothesen über eine "Singularität des Schlachtfelds" aufgestellt, einen Punkt, an dem sich der Kampf schneller entwickelt als die menschliche Wahrnehmung. In diesem Zustand des "Hyperkriegs", wie ihn etwa die US-Marine getauft hat, könnten unbeabsichtigte Eskalationen schnell außer Kontrolle geraten.
Der "Flash Crash" an der Börse im Jahr 2010 bietet eine nützliche Parallele: Automatisierte Handelsalgorithmen trugen zu einem vorübergehenden Verlust von fast einer Billion US-Dollar an einem einzigen Nachmittag bei. Um ein weiteres solches Unglück zu verhindern, haben die Finanzaufsichtsbehörden die Sicherungen aktualisiert, die den Handel unterbrechen, wenn die Kurse zu schnell abstürzen. Aber wie schaltet man einen Blitzkrieg ab?
Es braucht Regularien
Seit dem späten 19. Jahrhundert haben die großen Militärmächte – ob Großbritannien und Deutschland oder die Vereinigten Staaten und die UdSSR – zusammengearbeitet, um Vorschriften für alle Arten von modernen Tötungsmaschinen zu erlassen, von explodierenden Kugeln über Giftgas bis zu Atomwaffen. Manchmal, wie bei Antisatellitenwaffen und Neutronenbomben, waren formale Vereinbarungen nicht notwendig, die Parteien hielten sich einfach stillschweigend zurück. Das Ziel war in jedem Fall, den Schaden des Krieges zu mindern.
Bei vollautonomen Waffen gibt es noch keinen solchen Konsens. Fast 30 Länder unterstützen ein vollständiges Verbot, aber keines von ihnen ist eine große Militärmacht oder ein Robotikentwickler. Bei den Vereinten Nationen, wo autonome Waffen alljährlich Gegenstand von Debatten sind, haben China, Russland und die Vereinigten Staaten die Bemühungen um ein Verbot vereitelt. Die USA und Russland haben sich strikt dagegen ausgesprochen, während China zumindest 2018 noch ein Verbot vorschlug, das praktisch bedeutungslos wäre. Ein Thema bei den Vereinten Nationen ist das Tauziehen zwischen Nichtregierungsorganisationen wie der Campaign to Stop Killer Robots, deren Ziel die Abrüstung ist, und Militärs, die einer Abrüstung nur dann zustimmen, wenn nachgewiesen ist, dass ihre Gegner dies auch tun.
Hinzu kommt, dass die Regulierung des Einsatzes autonomer Waffen für Organisationen wie die UN eine besondere Herausforderung darstellt. Sie können nicht auf die gleiche Weise betrachtet und quantifiziert werden wie ein 1,5-Megatonnen-Atomsprengkopf. Was genau macht Autonomie aus, und wie viel davon sollte erlaubt sein? Wie unterscheidet man die ferngesteuerte Drohne eines Gegners von einer mit Terminator-Software ausgestatteten Drohne? Solange Sicherheitsanalysten keine zufriedenstellenden Antworten auf diese Fragen finden und die Großmächte sich nicht auf einvernehmliche Grenzen einigen können, wird die Automatisierung weiter voranschreiten. Und unabhängig davon, welchen Weg die Großmächte einschlagen, wird der Rest der Welt unweigerlich folgen.
In dem New Scientist-Bericht wird zwar darauf hingewiesen, dass die Drohnen, die vom US-Militär nun mit einer Gesichtserkennungssoftware ausgestattet werden, im Gegensatz zu ihren großen Geschwistern Predator und Reaper, in der Regel nicht bewaffnet sein werden. Sie bieten jedoch den schattenhaftesten und tödlichsten Kadermitgliedern Amerikas ganz offensichtlich schwindelerregende neue Möglichkeiten. Secure Accurate Facial Recognition (SAFR) heißt die von RealNetworks entwickelte Software, die dem Vertrag zufolge in autonome Drohnen integriert und später einmal für Sondereinsätze, Nachrichtengewinnung, Überwachung und Aufklärung (Intelligence, Surveillance und Reconnaissance, kurz ISR) und andere Expeditionseinsätze" verwendet werden soll.
Es ist zwar nicht viel darüber bekannt, wie die Vereinigten Staaten diese Technologie später einsetzen wollen, aber eines ist sicher: Sie macht den Menschen Angst. Mit der zunehmenden Verbreitung von automatisierten Waffen wie Drohnen werden diese daher zunehmend zum Gegenstand von Diskussionen. Während einige Militärexperten der Meinung sind, dass Drohnen die Zahl der Opfer verringern, weil sie weniger Soldaten in Gefahr bringen, argumentieren andere Beobachter jedoch, dass Drohnen das entscheidende menschliche Element bei der Anwendung tödlicher Gewalt eliminieren. Stuart Russell von der University of California, äußerte sich im Gespräch mit New Scientist daher besorgt über den Vertrag, in dem es heißt, die Software eröffne "die Möglichkeit einer autonomen Reaktion des Roboters in Echtzeit". Es sei "schwer zu erkennen, worauf sich das bezieht, abgesehen von tödlichen Aktionen", bemängelte Russell.
Big huge NOPE to everything here: facial recognition equipped drones deployed by the Air Force. There is an incredible push to spread FR across society, and incredible levels of grift for the main players.Happy Monday!https://t.co/xRHkAImHPG
— Jake at Law (@RealJakeWiener) February 27, 2023
"Ein großes NEIN zu allem hier", twitterte Jake Wiener, ein Anwalt bei EPIC, eine Organisation für digitalen Datenschutz, als Reaktion auf die Nachricht. Ein weiterer Kritiker, Nicholas Davis von der University of Technology Sydney, sagte gegenüber Newsweek: "Es gibt unzählige ethische Implikationen, von der Art und Weise, wie solche Geräte die Macht neu verteilen oder Gruppen innerhalb einer Gesellschaft bedrohen könnten, bis zu der Art und Weise, wie sie das etablierte humanitäre Völkerrecht in Konfliktzonen bedrohen."
Lily Hamourtziadou, Dozentin für Kriminologie und Sicherheitsstudien an der Birmingham City University im Vereinigten Königreich, wird in demselben Newsweek-Artikel mit den Worten zitiert: "Das Töten aus der Ferne ist in vielerlei Hinsicht ein einfaches Töten: eine Art virtuelles Töten in einem Videospiel. Dies ist an sich schon moralisch problematisch. Wenn eine Tötung einer Maschine zugeschrieben wird, fehlt es zudem an Verantwortlichkeit und Gerechtigkeit, und Gewalt wird ungestraft angewendet." Es gibt auch Bedenken hinsichtlich der Genauigkeit der Gesichtserkennungssoftware, da diese bekanntermaßen oftmals fehlerhaft und somit anfälliger für Irrtümer ist. Ein Umstand, der es noch wahrscheinlicher macht, dass bei Angriffen die falsche Person ins Visier genommen werden könnte.
Angesichts der Tatsache, dass die US-Spezialeinheiten vor allem für ihre heimlichen und tödlichen Aktivitäten (sprich: Attentate und Razzien) bekannt sind, bedeutet der Einsatz eines KI-gesteuerten Flugroboters mit Gesichtsaufzeichnungstechnologie, dass Amerikas Truppen nun über ein mächtiges neues Werkzeug verfügen, um ihre vielfach kritisierten Taten auszuführen. Das Tech-Magazin Motherboard merkte an, dass solche Drohnen nicht nur in den USA selbst, sondern auch im Ausland für "Aufklärungs- und Zielerfassungsmissionen" eingesetzt werden könnten. Das bedeutet, dass künftig jeder – sei er noch so unschuldig – in das Visier dieser kleinen Drohnen geraten, und von den USA verfolgt werden könnte.
Besonders beängstigend an dieser Entwicklung ist, dass sie vermutlich leider erst den Anfang des Wettlaufs markiert, Drohnen schneller, intelligenter, ausgefeilter und potenziell tödlicher zu machen. Vom geplanten Drohnenschwarm der US-Marine über den verstärkten Einsatz von Drohnen im russisch-ukrainischen Krieg bis zum Schreckgespenst fliegender Roboter, die mit chemischen oder biologischen Kampfstoffen bestückt werden könnten – machen Sie sich darauf gefasst, dass Ihre schlimmsten Science-Fiction-Albträume wahr werden.
In Anbetracht all dieser Bedenken und potenziellen Gefahren ist es wichtig, dass strenge Regulierungen und Gesetze auf den Weg gebracht werden, um den Einsatz von Drohnen mit Gesichtserkennungstechnologie zu regulieren. Zudem sollte die Verwendung dieser Technologie vollkommen transparent, und Verantwortliche für ihre Entscheidungen haftbar sein. Ferner sollten die Regierungen und Unternehmen, die Drohnen mit Gesichtserkennungstechnologie einsetzen möchten, verpflichtet werden, vorab eine gründliche Risikobewertung durchzuführen und sicherzustellen, dass alle notwendigen Maßnahmen ergriffen werden, um die Privatsphäre und Sicherheit der Menschen zu gewährleisten.
Mehr zum Thema - US-Militärforschung zur Schaffung riesiger autonomer Drohnenschwärme gibt Anlass zur Sorge
Durch die Sperrung von RT zielt die EU darauf ab, eine kritische, nicht prowestliche Informationsquelle zum Schweigen zu bringen. Und dies nicht nur hinsichtlich des Ukraine-Kriegs. Der Zugang zu unserer Website wurde erschwert, mehrere Soziale Medien haben unsere Accounts blockiert. Es liegt nun an uns allen, ob in Deutschland und der EU auch weiterhin ein Journalismus jenseits der Mainstream-Narrative betrieben werden kann. Wenn Euch unsere Artikel gefallen, teilt sie gern überall, wo Ihr aktiv seid. Das ist möglich, denn die EU hat weder unsere Arbeit noch das Lesen und Teilen unserer Artikel verboten. Anmerkung: Allerdings hat Österreich mit der Änderung des "Audiovisuellen Mediendienst-Gesetzes" am 13. April diesbezüglich eine Änderung eingeführt, die möglicherweise auch Privatpersonen betrifft. Deswegen bitten wir Euch bis zur Klärung des Sachverhalts, in Österreich unsere Beiträge vorerst nicht in den Sozialen Medien zu teilen.