Als der russische Präsident Wladimir Putin am 1. März 2018 einige neue, zum Teil revolutionäre Waffensysteme vorstellte, war auch ein atombetriebener Torpedo dabei. Das allein wäre an sich keine nennenswerte Neuerung gewesen. Was dabei aber richtiggehende Schockwellen in der Welt der Militärs und Wissenschaftler auslöste, war die verkündete Nutzung künstlicher Intelligenz für die Steuerung des Torpedos.
Damit kann "Poseidon", so wurde die über 19 Meter lange Unterwasserrakete getauft, in einer Tiefe von mehr als eintausend Metern und mit einer Geschwindigkeit von bis zu 70 Knoten (ca. 130 km/h) selbständig agieren und die Weltmeere durchpflügen.
Abgesehen von diesen beeindruckenden Werten, liegt die wahre Angst vor Poseidon darin, dass er ohne menschliche Steuerung Gefahren und Gegnern ausweichen kann, sollten sie den Torpedo in dieser Tiefe überhaupt entdeckt und Gegenmaßnahmen eingeleitet haben. Mit einem thermonuklearen Gefechtskopf von mindestens zwei Megatonnen ausgestattet, sollen so im Notfall US-amerikanische Flugzeugträger oder Küstenstädte angegriffen werden. Bei den ersten Schreckens-Szenarien war die Rede von einem thermonuklearen Gefechtskopf von einhundert Megatonnen, der gigantische, radioaktiv versuchte Tsunamis auslösen würde, um so die Infrastruktur des Gegners erheblich zu schwächen.
Für "Mad Dog", den US-Verteidigungsminister James Mattis, war das alles noch kein Grund zur Sorge. Poseidon würde "überhaupt nicht das strategische Gleichgewicht" zwischen den USA und Russland verändern. Dem widerspricht nicht nur Konteradmiral Arkadi Siroeschko, ehemaliger Leiter des Programms "Autonome Träger" der Direktion Hauptoperationen des Generalstabs der russischen Streitkräfte, sondern auch die dem Pentagon nahe stehende Denkfabrik Rand Corp. in einer Studie zu diesem Thema.
Siroeschko meint, dass das Problem für jeglichen Gegner schon damit beginnt, Poseidon überhaupt zu entdecken. Zwar verfügten die USA über technische Möglichkeiten in dieser Tiefe U-Boote und Torpedos zu entdecken, aber um das auch in die Praxis umzusetzen, müssten sie wissen, wo sie überhaupt suchen sollten. Und hätte man die gefährliche Unterwasserwaffe erst einmal auf dem Schirm, würden immer noch die Mittel fehlen, sie auch zu stoppen oder zu zerstören.
Rand Corp. sieht ein noch viel schwerwiegenderes Problem in dieser Verbindung von künstlicher Intelligenz mit Nuklearwaffen. Die bisherige Weisheit vom Gleichgewicht des Schreckens – oder auch Mutually Assured Destruction (MAD) – würde damit aus den Angeln gehoben. Dass es während des Kalten Krieges zu keinem Atomkrieg zwischen den beiden Supermächten USA und Sowjetunion kam, lag zu einem großen Teil an diesem Verständnis, dass - wenn eine Seite einen nuklearen Erstschlag ausführt - die andere Seite immer noch die Möglichkeit besitzt, einen Zweitschlag auszuführen.
Mehr zum Thema - Pentagon-Labor veröffentlicht Video von B61-Atombombentest
Die Konsequenz wäre dann, dass beide Seiten von den Folgen einer atomaren Vernichtung betroffen wären und deshalb gar nicht erst zu diesen Waffen greifen.
Die Gefahr mit der künstlichen Intelligenz (KI) liegt nun darin, dass "ein System, das überall sein und alles sehen kann, einen Gegner davon überzeugen könnte, dass er für einen entwaffnenden Erstschlag anfällig ist (und) er den Gegenschlag verlieren könnte." Dieser Gegner wird versuchen, dieses vermeintliche Ungleichgewicht mit allen Mitteln auszugleichen und "das führt uns näher zum Atomkrieg", heißt es in der Studie.
Autonome Systeme brauchen keine Menschen zu töten, um die Stabilität zu untergraben und einen katastrophalen Krieg wahrscheinlicher zu machen. Neue künstliche Intelligenz könnte die Leute dazu bringen zu denken, dass sie verlieren werden, wenn sie zögern. Das könnte ihnen kribbelnde Finger am Abzug geben. An diesem Punkt wird künstliche Intelligenz einen Krieg wahrscheinlicher machen, selbst wenn Menschen noch immer die "Kontrolle" haben.
Noch sind wir Jahre, vielleicht Jahrzehnte davon entfernt, dass intelligente Computer aufgrund gesammelter Daten selbstständig entscheiden könnten, ob eine Atomrakete gezündet wird oder eben auch nicht. Die Rand-Studie beleuchtet auch diesen Aspekt der Entwicklung und kommt zum Schluss, dass
künftige KI-Systeme sich als so zuverlässig, so kalt rational entwickeln, dass sie die Zeiger der Atomkriegs-Uhr zurückstellen können. Sich zu irren, ist immerhin menschlich. Eine Maschine, die keine Fehler macht, keinen Druck fühlt und keine persönliche Voreingenommenheit hat, könnte ein Maß an Stabilität bieten, welches das Atomzeitalter noch nie gekannt hat.
Bis dahin ist es aber noch ein sehr langer Weg, und genau darin liegt auch die größte Gefahr. Mit der Entwicklung von autonomen Trägersystemen wie Poseidon und der immer komplexeren digitalen Welt, die Milliarden an Datensätzen produziert, von Computern, die diese Daten in in Sekundenschnelle auswerten, steigt eben auch die Gefahr einer strategischen Fehlkalkulation. Denn es sind immer noch Menschen, die die von intelligenten Computern erhobenen Daten interpretieren und Schlüsse daraus ziehen, die fatale Konsequenzen haben könnten.
Diese Flut an Informationen wird es einem künftigen Stanislaw Petrow nicht mehr ermöglichen zu entscheiden, ob es sich bei einem Alarm tatsächlich um einen Fehlalarm handeln könnte oder nicht, und damit die Welt vor einem Atomkrieg zu bewahren.