Unbemannte Systeme mit einem variablen Grad an Autonomie, allgemein als "Drohnen" bekannt, sind bei den hochentwickelten Streitkräften der Welt mittlerweile schon alltäglich geworden. In ihren verschiedenen Formen in der Luft, auf See und am Boden werden diese mobilen Agenten für ein immer breiteres Spektrum von Aufgaben eingesetzt. Fortschritte in neuen Technologien wie insbesondere der Künstlichen Intelligenz (KI), Robotik und Datenfusion könnten deren Einsatz jedoch vollends revolutionieren, indem sie es ermöglichen, eine große Anzahl von Drohnen koordiniert einzusetzen. Wenn dieses Konzept, das als "Schwarmverhalten" bezeichnet wird, voll entwickelt ist, könnte es tiefgreifende taktische und strategische Auswirkungen haben und möglicherweise die Art der Kriegführung im 21. Jahrhundert revolutionieren.
Schon heute werden unbemannte Systeme unterschiedlicher Art von den Streitkräften verschiedener Länder eingesetzt. Hier gilt es, einige wichtige Unterscheidungen zu treffen. Erstens sind fliegende Plattformen (Unbemannte Luftfahrzeuge; Unmanned Aerial Vehicles: UAVs) zwar am weitesten verbreitet und werden in der kollektiven Vorstellung in erster Linie mit dem Begriff "Drohne" assoziiert, aber sie sind nicht die einzige Art von unbemannten Systemen, die eingesetzt werden. Es gibt nämlich auch landgestützte Systeme (Unbemannte Bodenfahrzeuge, Unmanned Ground Vehicles: UGVs) und Marineplattformen, die wiederum in zwei weitere Unterkategorien unterteilt werden: unbemannte Überwasserfahrzeuge (Unmanned Surface Vehicles: USVs) und unbemannte Unterwasserfahrzeuge (Unmanned Underwater Vehicles: UUVs).
Daneben besitzen nicht alle Plattformen den gleichen Grad an Autonomie. Bei den meisten handelt es sich heute noch um ferngesteuerte Systeme. Allerdings gibt es heute auch schon völlig autonome Drohnen, die ohne das direkte Eingreifen menschlicher Bediener agieren. Ein Beispiel dafür ist die experimentelle Plattform X-47B der US-Marine, auch wenn solche vollautonomen Systeme bisher meistens noch nicht bewaffnet sind. Es gibt zwar viele Beispiele für ferngesteuerte Luftfahrtsysteme (RPAS), die Raketen oder Bomben tragen – etwa wie die berüchtigten US-Drohnen MQ-1 Predator und MQ-9 Reaper. Völlig autonome Plattformen werden aber bislang noch aufgrund ethischer Bedenken und technologischer Hindernisse in Bezug auf sichere Zielerfassung und klare Einsatzregeln sehr viel seltener bewaffnet.
Tatsächlich ist dennoch die Entwicklung tödlicher autonomer Waffensysteme vermutlich das langfristige Ziel vieler Militärs in aller Welt. So gibt es bereits Drohnen, die in der Lage sind, autonom Ziele anzugreifen, wie etwa Israels Harop (Harpy 2), eine "Kamikaze"-Plattform, die gegnerische Radaranlagen aufspüren und zerstören soll. Bisher werden die zumeist noch nicht völlig autonom agierenden Drohnen für verschiedene Arten von Missionen eingesetzt. Dazu gehören Nachrichtengewinnung, Überwachung und Aufklärung (ISR), Suche und Rettung (S&R), Logistik, Minenräumung und Zerstörung von improvisierten Sprengsätzen (IEDs), bewaffnetes Patrouillieren und sogar das gezielte Töten.
In diesen Fällen werden die Drohnen allerdings allein oder in kleiner Zahl eingesetzt und jeweils von einem oder mehreren Piloten ferngesteuert. Fortschritte in den Bereichen KI, Robotik und Datenfusion ebenen nun jedoch nicht nur den Weg zu völlig autonomen Systemen, die in der Lage sind, komplexe Missionen eigenständig auszuführen, sondern auch eine komplexe Zusammenarbeit ermöglichen, die die Kriegführung radikal verändern könnte.
Das "Schwarm"-Konzept
In einem Strategiepapier der US Air Force wird ein Drohnenschwarm als "eine Gruppe autonomer, vernetzter SUAS (Small Unmanned Aerial Systems: kleine unbemannte Flugsysteme), die mit einem Bediener oder in einer Rückkopplungsschleife zusammenarbeiten, um gemeinsame Ziele zu erreichen", definiert. Koordination und Reaktivität sind dabei von größter Bedeutung, da sie den Hauptunterschied zwischen einem echten intelligenten Schwarm und dem massenhaften Einsatz von unintelligenten Drohnen darstellen. Letzteres ist der Fall, wenn eine große Anzahl von Drohnen gegen ein einziges Ziel eingesetzt wird, meist um es zu überwältigen, indem seine Verteidigung überlastet und damit überwunden wird. Dabei wird jede Plattform getrennt von den übrigen gesteuert, und es gibt keine Datenverbindung zwischen den Drohnen selbst – auch wenn die Piloten die Drohnen koordinieren können.
Im Gegensatz dazu sind die Drohnen in einem Schwarm untereinander vernetzt und stehen so in ständiger Kommunikation miteinander. Es gibt keinen eindeutigen Schwellenwert für die Anzahl der Drohnen, die miteinander verbunden sein müssen, um als ein Schwarm angesehen zu werden, wobei die Zahlen von einigen Hundert bis zu Milliarden reichen, auch abhängig von ihrer Art und Größe. Wichtig ist lediglich, dass sie Informationen von ihren Sensoren miteinander austauschen und KI-gesteuert gemeinsame Entscheidungen treffen, um ein einziges vorgegebenes Ziel zu erreichen. Diese Datenverbindung und die KI-Software sind daher wesentlich für die Schaffung des "Bienenstocks", der einen Schwarm definiert und ihm ein effektives Funktionieren ermöglicht.
Dabei ist jede einzelne Drohne des Schwarms nur eine kleine Einzelkomponente, die eine bestimmte Rolle in dem Schwarm als einem größeren Gesamtsystem spielt, das die Aktionen aller seiner Elemente auf dynamische Weise selbst koordinieren kann. Während manche dieser Drohnen ihre Sensoren zur Ortung und Verfolgung von Zielen einsetzen und die Informationen an den Rest des Schwarms weitergeben, übernehmen andere die Aufgaben der Störung oder der elektronischen Kampfführung. Ein anderer Teil des Schwarms wiederum ist für Angriffsmanöver auf feindliche Kräfte verantwortlich. Der Schwarm als Ganzes kann somit dynamisch auf Veränderungen im Kampfgebiet reagieren, indem er komplexe sowie nichtlineare Manöver durchführt.
Daher besitzen Schwärme ein immenses Potenzial, das die Kriegführung revolutionieren könnte. Da sie über großen Gebieten mit größerer Effizienz und kürzerer Reaktionszeit als menschliches Personal patrouillieren können und somit die militärischen Operationen beschleunigen, sind Schwärme besonders für Such- und Zerstörungsmissionen gegen die gegnerische Luftabwehr, U-Boote oder mobile Raketenwerfer geeignet. Aber auch für Aufklärungsmissionen sowie für die Aufstandsbekämpfung, Zielerfassung über dem Horizont, den Luftkampf und Zugangsverweigerung (Area Denial).
Eine Symbiose mit bemannten Plattformen ist ebenfalls möglich: Beispielsweise können F-35-Kampfflugzeuge, die mit fortschrittlicher Datenfusionssoftware ausgestattet sind, Schwärme kontrollieren und als Verstärkung einsetzen. Natürlich erfordert die Schaffung eines funktionierenden und effektiven Schwarms Spitzentechnologie sowohl in Bezug auf die Software als auch auf die Hardware, da eine leistungsfähige KI, fortschrittliche Sensoren und leistungsstarke Datenverbindungen erforderlich sind. Dementsprechend wird es wahrscheinlich Jahrzehnte dauern, bis Schwärme zum Einsatz kommen, und sie werden wahrscheinlich den Hightech-Streitkräften der Industrieländer vorbehalten bleiben.
Auch wenn Schwärme derzeit noch weitgehend Theorie sind und sich noch in der Entwicklung befinden, haben große Militärmächte wie die USA, China, Russland und andere großes Interesse an diesem Konzept gezeigt und bereits beträchtliche Ressourcen in dessen Entwicklung investiert. So wurde beispielsweise 2016 im Rahmen eines US-Projekts ein Schwarm von 103 Perdix-Drohnen von drei F/A-18 Super Hornet-Kampfflugzeugen aus erfolgreich gestartet. Angesichts des Tempos der technologischen Fortschritte in den letzten zwei Jahrzehnten kann man davon ausgehen, dass Schwärme in naher Zukunft nicht nur an Bedeutung gewinnen, sondern auch bisher weitgehend ignorierte Gefahren mit sich bringen.
KI-Kriege der Zukunft
So sagte der russische Präsident Wladimir Putin vor einigen Jahren in einer Rede über den KI-Krieg etwa voraus, dass "wenn die Drohnen einer Partei von den Drohnen einer anderen Partei zerstört werden, diese keine andere Wahl haben wird, als sich zu ergeben". Die Entwicklung eines effektiven Drohnenschwarms hat für die Militärmächte daher zweifellos Priorität. Der Einsatz von Drohnen in den Konfliktregionen im Nahen Osten und im Ukraine-Krieg hat die Bedeutung und den Nutzen des massenhaften Einsatzes von unbemannten und autonomen Fahrzeugen unterstrichen.
So zwingen solche Schwärme den Gegner unter anderem dazu, Munition und andere militärische Ressourcen zu verbrauchen und ermöglichen der angreifenden Partei gleichzeitig das Ausschalten etwaiger Verteidigungsmaßnahmen. Auch das russische Militär arbeitet an der Entwicklung von Schwärmen von Robotersystemen in der Luft, am Boden und auf See. Einige dieser Projekte stehen kurz vor der Verwirklichung und werden wahrscheinlich in naher Zukunft zur Verfügung stehen.
Das russische Verteidigungsministerium und die ihm angeschlossenen Institutionen und Organisationen diskutieren bereits seit einigen Jahren über Schwarmeigenschaften für autonome und Robotik-Systeme. Die Hauptlogik hinter dem massenhaften Einsatz von "Militärrobotern" besteht darin, Soldaten von gefährlichen Aufgaben an der Front abzuziehen und sie durch entbehrliche Robotersysteme zu ersetzen. In Syrien wurden russische Militärstützpunkte und Streitkräfte mehrfach von Gruppen unbemannter Flugzeuge (UAVs) angegriffen, was dem Verteidigungsministerium den Nutzen eines solchen Konzepts für die Bekämpfung der eigenen Gegner vor Augen führte.
Bereits 2017, während der jährlichen Konferenz zur "Robotisierung der russischen Streitkräfte" unter dem Vorsitz des Verteidigungsministeriums, erörterten die Teilnehmer aus dem Militär, der Wissenschaft und der Verteidigungsindustrie Russlands das Konzept des Roboterschwarms. Nachdem sich das russische Militär vom Nutzen des Einsatzes von Robotersystemen in Syrien überzeugt hatte, entwickelte es mehrere Konzepte für den Einsatz dieser Technologie, unter anderem für die Kampfführung in Städten und für Operationen, bei denen leichte und schwere unbemannte Bodenfahrzeuge (UGVs) mit Drohnen aus der Luft zusammenarbeiten, um Ziele zu identifizieren und zu bekämpfen.
Angesichts der relativ weit fortgeschrittenen Entwicklung und des Einsatzes unbemannter Luftfahrzeuge beim russischen Militär ist es nicht überraschend, dass sich auch das US-Militär mit der Schwarmforschung und -entwicklung befasst. Diese Arbeit umfasst neben der Erprobung von Systemen auch das Durchdenken von Konzepten und Taktiken, die die Kapazität und Effektivität militärischer Operationen erhöhen, insbesondere solcher, die fortschrittliche Technologien wie Drohnenschwärme, Künstliche Intelligenz und Robotik beinhalten.
Das jüngste und gleichzeitig besorgniserregendste Schwarm-Projekt ist das Programm AMASS (Autonome Multi-Domain Adaptive Swarms-of-Swarms) vom US-Verteidigungsministerium gemeinsam mit der DARPA, jener Behörde des Verteidigungsministeriums, die Forschungsprojekte für die US-Streitkräfte ausschreibt, finanziert und inhaltlich begleitet. Das Ziel des Programms besteht darin, die Fähigkeit zu entwickeln, Tausende von autonomen Land-, See- und luftgestützten Drohnen einzusetzen, um die gegnerische Gebietsverteidigung zu überwältigen und zu dominieren, wie kürzlich veröffentlichte Dokumente vom Pentagon belegen.
Dies ist eine Idee, die viele Bedenken aufwirft – hinsichtlich der Fähigkeit der Menschen, diese komplexen "Schwärme" am Ende noch überwachen zu können. Denn das neue, durch KI gesteuerte Waffensystem wird im Gegensatz zu herkömmlichen Drohnen keinerlei menschliche Entscheider mehr benötigen und somit völlig autonom darüber entscheiden, ob und wen es angreift oder nicht. Wohin ein solcher Schwarm geschickt werden soll, geht aus den Unterlagen des US-Verteidigungsministeriums bislang nicht hervor. Allerdings kann davon ausgegangen werden, dass AMASS in künftigen militärischen Konflikten wie in der Ukraine oder gegen die Volksrepublik China auch von Taiwan aus eingesetzt werden könnte.
Das AMASS-Programm stellt bereits den zweiten Versuch der USA dar, sich mittels unbemannter Drohnenschwärme einen militärischen Vorteil gegenüber ihren Gegnern verschaffen zu können. Vor sechs Jahren startete die DARPA bereits das "Offensive Swarm-Enabled Tactics Program" (OFFSET), das darauf abzielte, den Einsatz von Schwärmen zur Unterstützung der Bodentruppen der Armee zu perfektionieren.
Letztes Jahr, sechs Monate nachdem das Pentagon seinen letzten OFFSET-Test durchgeführt hatte, erklärte ein leitender DARPA-Beamter gegenüber der Publikation FedScoop, es sei möglich, dass das US-Militär innerhalb der nächsten fünf Jahre Schwärme von bis zu 1.000 Drohnen einsetzen könne. Bislang wurde nur ein einziger militärischer Drohnenschwarm tatsächlich eingesetzt: Im Jahr 2021 hatte Israel einen völlig autonomen Schwarm kleiner Drohnen (Small Unmanned Aerial Systems: SUAS) erprobt, der mit anderen Raketen und Waffen zusammenarbeiten sollte, um militante Hamas-Kämpfer zu lokalisieren, zu identifizieren und anzugreifen.
Drohnenschwärme werden zur Gefahr
"Israels Schwarm ist erst der Anfang", mahnte Zak Kallenborn, Politikwissenschaftler an der George Mason Universität, kürzlich im Gespräch mit der Defense One. Obwohl die israelischen Drohnen mit Künstlicher Intelligenz arbeiteten, seien sie nicht so ausgeklügelt wie künftige Schwärme, da sie mit Mörsern und bodengestützten Raketen koordiniert würden, um meilenweit entfernte Ziele zu treffen. Mit der Zeit werden die Schwärme allerdings immer intelligenter und unabhängiger. Wie steht es also um die Ethik? Denn Drohnenschwärme in den falschen Händen haben das Potenzial, als Massenvernichtungswaffen missbraucht zu werden.
Zum einen können sie vielen Menschen gleichzeitig den Tod bringen. Außerdem fehlt es an Kontrollmechanismen, um sicherzustellen, dass sie keine Zivilisten verletzen. Da die Drohnen im Schwarm untereinander in ständiger Kommunikation stehen, ist das Risiko einer Katastrophe im Fall eines möglichen Systemfehlers somit viel höher, als wenn eine Gruppe unabhängig voneinander agierender Drohnen eingesetzt wird. Das US-Verteidigungsministerium hat daher einige Leitlinien für den Einsatz solcher autonomen Systeme aufgestellt. Diese sehen unter anderem vor, dass die Technologie absolut "narrensicher" sein müsse, bevor sie eingesetzt wird. Das Risiko fataler Fehleinschätzungen oder unvorhergesehener Aktionen dürfe demnach nicht bestehen.
Ohne solche Sicherheitsvorkehrungen könnten irreparable Schäden angerichtet werden. Drohnen können billig und leicht zu bauen sein. Netzwerke können von unethischen Programmierern erstellt werden. Kurz gesagt, ein Drohnenschwarm ist eine ziemlich beängstigende Technologie, die für viele Länder – oder sogar Terroristen und auch aufständische Gruppen – zugänglich werden kann. "Sie könnten sowohl für groß angelegte Überwachungen als auch für groß angelegte wahllose Angriffe eingesetzt werden", so Kallenborn. "Und für böswillige Akteure wie terroristische Gruppen und solche, die keine KI-Gesetze haben, wäre die Tatsache, dass Schwärme furchterregend, unberechenbar und zufällig sind, ein wichtiges Verkaufsargument."
Neue Technologien wie Künstliche Intelligenz, tödliche autonome Waffensysteme und Hyperschallraketen stellen also eine potenziell existenzielle Bedrohung dar, die die Notwendigkeit von weltweiten Rüstungskontrollmaßnahmen zur Verlangsamung derartiger Waffenentwicklungen unterstreicht.
Tödliche autonome Waffensysteme, die von der "Kampagne zum Stopp von Killerrobotern" als Waffen definiert werden, die unabhängig von "sinnvoller menschlicher Kontrolle" funktionieren, werden derzeit neben den USA auch bereits von Ländern wie China, Israel, Russland, Südkorea und Großbritannien entwickelt.
Obwohl der schnelle Einsatz solcher Systeme vielen Militärs höchst wünschenswert erscheint, hat ihre Entwicklung unter Diplomaten, Menschenrechtsaktivisten und anderen erhebliche Beunruhigungen ausgelöst. Sie befürchten, dass der Einsatz völlig autonomer Waffen im Krieg die menschliche Aufsicht über Kampfhandlungen stark einschränken und möglicherweise die Barrieren schwächen könnte, die eine Eskalation von einem konventionellen zum nuklearen Krieg verhindern. In der zweiten Hälfte des 20. Jahrhunderts kam es bekanntlich bereits zu zahlreichen Beinahe-Zwischenfällen mit Nuklearwaffen, die oft auf Fehlinterpretationen, Einschränkungen oder völligem Versagen der Technologie beruhten. Während Technologien wie Künstliche Intelligenz (KI) oft als immun gegen menschliche Fehler angepriesen werden, mahnen Kritiker, dass solche Behauptungen die Hybris tödlicher und unvorhergesehener Folgen in sich bergen.
"Die Großmächte preschen mit der Bewaffnung fortschrittlicher Technologien vor, bevor sie die Folgen ihres Handelns vollständig bedacht haben, geschweige denn versucht haben, sie abzumildern", heißt es etwa in einem im Februar veröffentlichten Bericht der Arms Control Association, eine in den Vereinigten Staaten ansässige überparteiliche Organisation, die eigenen Angaben zufolge "das öffentliche Verständnis für und die Unterstützung einer wirksamen Rüstungskontrollpolitik fördern" will. "Ein verstärktes Vertrauen in KI könnte zu neuen Arten von katastrophalen Fehlern führen. Es könnte Druck entstehen, sie einzusetzen, bevor sie technologisch ausgereift ist; sie könnte anfällig für gegnerische Subversion sein; oder Gegner könnten glauben, dass die KI fähiger ist als sie ist, was sie zu katastrophalen Fehlern verleitet."
Zwar hat das Pentagon im Jahr 2020 fünf Grundsätze für den so genannten "ethischen" Einsatz von KI verabschiedet. Ethiker sind jedoch der Meinung, der einzig sichere Weg sei ein vollständiges Verbot von tödlichen autonomen Waffensystemen. "Wie schon im Ersten und Zweiten Weltkrieg treiben die Großmächte die Bewaffnung mit fortschrittlichen Technologien voran, bevor sie die Folgen dieses Vorgehens vollständig bedacht haben, geschweige denn versucht haben, sie abzumildern – einschließlich des Risikos erheblicher ziviler Opfer und der versehentlichen oder unbeabsichtigten Eskalation von Konflikten", mahnte Michael Klare, Vorstandsmitglied der Arms Control Association und Hauptautor des Berichts, in einer Erklärung.
"Während die Medien und der US-Kongress den angeblichen Vorteilen der Nutzung von Spitzentechnologien für militärische Zwecke viel Aufmerksamkeit gewidmet haben, wurde weit weniger über die damit verbundenen Risiken gesprochen." Der Einsatz automatischer Entscheidungsunterstützungssysteme, die in der Lage sind, wichtige Entscheidungen auf dem Gefechtsfeld zu treffen oder zu initiieren, müsse wegen der möglichen Risiken aber streng begrenzt werden, so Klare. Ebenso müsse sichergestellt sein, dass Menschen die letzte Kontrolle über solche Geräte ausüben.
"Ohne die Verabschiedung solcher Maßnahmen werden Spitzentechnologien in immer schnellerem Tempo in militärische Systeme umgewandelt, und die Gefahren für die weltweite Sicherheit werden immer größer", heißt es in der Publikation abschließend. "Ein gründlicheres Verständnis der besonderen Bedrohungen für die strategische Stabilität, die von diesen Technologien ausgehen, und die Auferlegung von Beschränkungen für ihre militärische Nutzung würden einen großen Beitrag zur Verringerung der Risiken eines weltweiten Armageddon leisten."
Mehr zum Thema - Ob autonome Panzer, Roboterhunde oder Drohnen – Unbemannte Waffensysteme werden zur Gefahr