Tagtäglich füttern wir durch unsere Nutzung digitaler Geräte wie Smartphones und des Internets intelligente Assistenten und Sensoren mit Daten, die Unternehmen und Behörden sammeln, analysieren und nutzen. Immer mehr Schnittstellen zwischen Mensch und Maschine treiben gleichzeitig das maschinelle Lernen voran. Viele sind fasziniert von Maschinen, die Autos und Haushaltsgeräte steuern, Fragen beantworten und womöglich antizipieren können sowie zunehmend Menschen in kreativen Leistungen zu überbieten scheinen. Unternehmen erkennen in den Möglichkeiten der Künstlichen Intelligenz (KI) indes ein enormes Wachstumspotenzial, Behörden versprechen sich davon auf mitunter umstrittene Weise "Sicherheit".
Während die Technologien beinahe unaufhaltsam immer weiter in unser alltägliches Leben eindringen, warnen einige Wissenschaftler und Philosophen vor den Gefahren einer unkontrollierbaren Superintelligenz. Die Fragen, ob Maschinen den Menschen ab einem bestimmten Entwicklungsgrad abhängen und womöglich selbstständig und unvorhersehbar agieren oder inwieweit komplexe, intelligente Systeme für den Menschen eine Utopie oder eine Dystopie hervorbringen könnten, beflügeln seit Langem fiktive Genres. Aber auch die Wissenschaft befasst sich immer wieder damit. Schon in den 1930er-Jahren fragte sich der Informatiker, Mathematiker und Vordenker der Computerentwicklung Alan Turing, wie übermächtige Computer durch bestimmte Algorithmen aufgehalten werden könnten, wenn sie einmal außer Kontrolle gerieten und jemanden zu verletzen drohten.
Angesichts der jüngsten Fortschritte im Bereich der maschinellen Intelligenz entfachte eine Reihe von Wissenschaftlern, Philosophen und Technologen erneut die Diskussion über potenziell katastrophale Risiken, die eine Superintelligenz mit sich bringt. Superintelligenz wird definiert als "jede Intelligenz, die die kognitive Leistung des Menschen in praktisch allen interessierenden Bereichen weit übertrifft".
Der genaue Punkt, ab dem von Superintelligenz gesprochen werden kann, ist umstritten; einige Experten glaubten, dass diese kurz nach der Entwicklung der künstlichen allgemeinen Intelligenz folgen würde. Allgemein intelligente Maschinen hätten gegenüber dem Menschen Vorteile, etwa die Fähigkeit der perfekten Erinnerung, einer überlegenen Fähigkeit zu Multitasking und einer menschlich unerreichbaren Wissensbasis, zumal wenn sie durch eine Internetverbindung Zugriff auf alle Daten der Menschheit hätte. Inwieweit diese Superintelligenz für den Menschen bedrohlich werden könnte, hängt auch davon ab, ob sie überhaupt beherrsch- und steuerbar bliebe.
Ein internationales Forscherteam, darunter Wissenschaftler des Zentrums für Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, zeigt in einem aktuellen wissenschaftlichen Artikel im Journal of Artificial Intelligence Research auf, dass Menschen eine superintelligente KI nicht kontrollieren könnten.
"Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbstständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte", so erläutert es der Ko-Autor der Studie Manuel Cebrian, Leiter der Digital Mobilization Group am Zentrum für Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung (MPI).
Die Wissenschaftler selbst erinnern in dem Artikel an Dystopien aus dem Science-Fiction-Genre, wie eine Kurzgeschichte von Arthur C. Clarke aus dem Jahr 1964 ("Dial F for Frankenstein"), die als Warnung zu verstehen sei, dass, sobald alle Computer auf der Erde über Telefon verbunden sind, sie das Kommando über unsere Gesellschaft übernehmen würden.
"Heute lassen wir Milliarden von Computerprogrammen auf weltweit vernetzten Maschinen laufen, ohne eine formale Garantie für ihre absolute Sicherheit. Wir haben keine Möglichkeit zu beweisen, dass wir nicht – wenn wir eine Anwendung auf unseren Smartphones starten – auch eine Kettenreaktion auslösen, die zur Übermittlung von Raketenstartcodes führt, die einen Atomkrieg auslösen würden", so die Wissenschaftler im Teil des Artikels zur abschließenden Diskussion.
Die aktuelle Problematik liegt darin, dass KI sich in schnellem Tempo von allen technologischen Möglichkeiten der Vorhersehbarkeit wegentwickeln könnte. Eine Superintelligenz ist potenziell in der Lage, eine Vielzahl von Ressourcen zu mobilisieren, um Ziele zu erreichen, die für Menschen unverständlich und noch weniger kontrollierbar sind. Ein theoretischer Eindämmungsalgorithmus, der sicherstellen würde, dass eine superintelligente KI den Menschen unter keinen Umständen schaden kann, indem das Verhalten der KI zunächst simuliert wird und sie angehalten wird, sobald sie als schädlich angesehen wird, würde nicht greifen, wie die Forscher anhand der Berechnungen zeigen.
"Ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, (könnte) versehentlich seine eigenen Operationen anhalten (...). Wenn das passieren würde, wüsste man nicht, ob der Eindämmungsalgorithmus immer noch die Bedrohung analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht den Eindämmungsalgorithmus faktisch unbrauchbar", erklärt Iyad Rahwan, Direktor Zentrums für Mensch und Maschine am MPI.
Wie seine Kollegen warnt daher auch er vor einem Enthusiasmus, der diese Entwicklung ohne spezifische Anwendungsziele oder konkretes Verständnis der Folgen vorantreibt.
Mehr zum Thema - Silicon Valley und der Überwachungsstaat: Wo Big Data zu vermeintlicher Sicherheit verhilft