Google macht's möglich: US-Drohnenangriffe künftig mit KI und Big Data

US-Drohnen sammeln in ihren Einsätzen fern der Heimat gigantische Massen an Daten. Zur Auswertung und für gezielte Drohnenangriffe soll beim US-Militär Künstliche Intelligenz (KI) zum Einsatz kommen. Heimlich bereitgestellt wurde die neue Technologie vom Hause Google.

In der Ankündigung vom vergangenen Juli auf der Internetseite breakingdefense schien beinahe Vorfreude wie bei einem Hollywood-Action-Schlager mitzuschwingen: Künstliche Intelligenz kommt schon bald auf ein Schlachtfeld in Ihrer Nähe – mit viel Hilfe aus der Privatwirtschaft. Innerhalb von sechs Monaten wird das US-Militär damit beginnen, kommerzielle KI-Algorithmen zu verwenden, um seine Massen an Geheimdienstdaten über den islamischen Staat auszuwerten.

Schon Ende des Jahres 2017 sollten demnach Bilddaten der 1.100 Drohnen der US-Militärflotte, die in Afghanistan, im Irak, in Syrien und vielen anderen Ländern vermeintlich gegen Terroristen eingesetzt werden, mithilfe von Künstlicher Intelligenz ausgewertet werden. Es ist also der unvermeidliche Kampf gegen den Terrorismus, in dem neueste Technologie zum Einsatz kommt. Wer könnte da noch Einwände haben.

Scheinbar einige beseelte Mitarbeiter des Internetriesen Google, dessen Expertise in Big Data und KI dem Pentagon beim Einsatz von Drohnenangriffen zur Verfügung stehen soll.

Mit dem sogenannten Project Maven des US-Verteidigungsministeriums soll das mit Drohnen gesammelte Datenmaterial ausgewertet und darin konkrete Objekte identifiziert werden können. Google-Mitarbeiter wurden erst in der letzten Woche mit der Kooperation behelligt, wodurch scheinbar eine lebhafte Diskussion angestoßen wurde.

Mehr lesen - Silicon Valley und der Überwachungsstaat: Wo Big Data zu vermeintlicher Sicherheit verhilft

Doch die teamübergreifende Zusammenarbeit von Google ist auf das im Jahr 2016 eingerichtete Defense Innovation Advisory Board zurückzuführen, das zum Ziel hat, Militär und Privatwirtschaft enger zu vernetzen. Es wird von Google-Chef Eric Schmidt geleitet, der wiederum andere IT-Größen an Bord bringen sollte wie Jeff Bezos (der mit dem für unterirdische Arbeitsbedingungen bekannten US-amerikanischen Online-Versandhandel Amazon zum reichsten Menschen der Welt wurde und als Washington-Post-Besitzer ein Exempel statuierte, wie private Medienmacht zum Einfluss auf öffentliche Meinung missbraucht werden kann), Merne Levine (COO von Instagram mit Arbeitserfahrung im US-Finanzministerium und Facebook sowie Familienbande in obere US-Geheimdienstebenen) oder Daniel Hillis (Gastprofessor am MIT und anderen Universitäten, darunter Krebsforscher an der Universität von Südkalifornien, mit Arbeitserfahrung bei Walt Disney Imagineering und anderen).

In dieser Funktion beschwerte sich Schmidt, der jüngst als Vorstandsvorsitzender der Google-Muttergesellschaft Alphabet zurücktrat, das Pentagon würde wie ein Unternehmen in den 1980er-Jahren geführt. Sein Vorschlag lautete in dem Zusammenhang, Künstliche Intelligenz auch zum Auswerten von Überwachungsdaten zu verwenden. Schließlich würden ansonsten einige der gesammelten Datenmassen womöglich gar nicht ausgewertet, sondern vergessen werden.

Das Militär habe erkannt, dass drastische Maßnahmen erforderlich seien, um Schritt zu halten mit den Erfordernissen der modernen Welt, und entwickle Big Data-Strategien. Der Stabschef der US-Luftwaffe, General David Goldfein, sprach sich mehrfach auf Militärkonferenzen dafür aus, dass eine globale Supermacht wie die Vereinigten Staaten ihre Streitkräfte mit den Informationsarchitekturen verbinden und dafür mit dem Privatsektor zusammenarbeiten müsse

Das Netzwerk ist der Schlüssel.

Und Schmidt hat sein Problemlösungsangebot sehr gut verkauft. Über mehrere Wochen der Beobachtung veralteter Prozesse sei das Defense Innovation Board zu der Einschätzung gelangt, dass man reichlich Daten sammle, aber diese nicht ausgewertet würden.

Das ist es, was Sie wollen, aber Sie sind nicht auf dem Weg, es zu bauen", sagte Schmidt. „Unsere Empfehlung ist es, die Voraussetzungen zu schaffen. Sie haben eine Menge Informationen, die hereinkommen, gespeichert und vergessen werden. Niemand weiß, was zu tun ist. "Wir begegnen dem immer und immer wieder."

Somit wurde vor knapp einem Jahr im April 2017 das Project Maven initiiert, auch bekannt als das "Algorithmic Warfare Cross-Functional Team" (AWCFT), womit nach eigener Aussage „die Integration von großen Datenmengen und maschinellen Lernprozessen beschleunigt“ werden soll. Mithilfe von maschinellem Lernen sollen die unübersichtlichen Datenmassen aus Drohnenfotos und -videos durchsucht und dadurch konkrete Objekte wie Fahrzeuge erkannt werden können. 

Im Jahr 2017 ließ das Verteidigungsministerium bereits 7,4 Milliarden Dollar in Bereiche mit Bezug zur künstlichen Intelligenz fließen, wie das Wall-Street Journal berichtete.

Halb so wild, sondern unumgänglich im Kampf gegen den Terror

Nach Angaben des US-Blogs "Gizmodo" lösten die Neuigkeiten unter Google-Mitarbeiter einen Aufschrei aus. Viele zeigten sich empört darüber, dass das Unternehmen dem Militär Ressourcen für Überwachungstechnologien anbietet, die in Drohnenoperationen involviert sind, während andere argumentierten, dass das Projekt wichtige ethische Fragen über die Entwicklung und den Einsatz von maschinellen Lernprozessen aufwerfe. 

Ein Google-Sprecher habe gegenüber "Gizmodo" jedoch betont, dass es die Technologie zur Objekterkennung "in nicht-geheimen Daten" Anwendung finde und "nur für nicht-offensive Zwecke" eingesetzt würde. Demnach unterhalte Google, anders als beispielsweise die Cloud-Betreiber Microsoft Azure und Amazon, keine Umgebung, in der sensibles, als geheim eingestuftes Datenmaterial aus Kampfzonen bearbeitet werden könne.

Colonel Drew Cukor, Leiter des AWCFT, sagte, es ginge nicht darum, "jede Waffe und jedes Fahrzeug in, beispielsweise der russischen Schlachtordnung zu erkennen", vielmehr stünden im unmittelbaren Fokus lediglich 38 Klassen von Objekten, welche seine Abteilung besonders im Kampf gegen den islamischen Staat Irak und Syrien erkennen können müsse. Maven ermöglicht der Abteilung zudem, Personen zu verfolgen, wenn sie von verschiedenen Orten kommen und gehen.

Künstliche Intelligenz wird bereits in Strafverfolgungsbehörden und auch in militärischen Anwendungen eingesetzt. Doch Forscher warnen, dass Algorithmen in derartigen Systeme erheblich verzerrt sein können. Beispielsweise berichtete ProPublica im Jahr 2016, dass ein Algorithmus zur Vorhersage der Rückfallwahrscheinlichkeit unter Insassen routinemäßig rassistische Vorurteile aufwies.

Mehr lesen - Der ewige Krieg: USA schicken noch mehr Truppen nach Afghanistan und ignorieren Missbrauchsfälle

Generalleutnant John Shanahan, Direktor des Projekts Maven, kündigte jedoch an, dass Maven lediglich der Funke sein solle, an dem sich "die Flammenfront der künstlichen Intelligenz" im gesamten Verteidigungsministerium entzünden solle.

Das US-Verteidigungsministerium verweigerte eine Antwort auf die Frage von Gizmodo, ob Google der einzige private Industriepartner im Projekt Maven sei und welche Rolle das Unternehmen im Projekt konkret innehat.

Ähnlich wie andere Programmen des Verteidigungsministeriums macht Project Maven keine Angaben zu den Einzelheiten von Vertragsdetails, einschließlich der Namen und Identitäten von Vertragspartnern," so ein Sprecher.