Die niederländische NGO PAX stufte die Unternehmen anhand von drei Kriterien ein: Entwickeln sie Technologie, die zum Bau von tödlichen autonomen Waffen genutzt werden könnte? Arbeiten sie an militärischen Projekten mit, bei denen Künstliche Intelligenz zum Einsatz kommt? Haben sie sich verpflichtet, künftig nicht mehr an solchen Projekten mitzuarbeiten?
Der Studie zufolge handeln 21 Unternehmen "stark gefährdend", die meisten davon aus den USA. Dazu zählen die bekannten Technologieentwickler Microsoft und Amazon, die derzeit um einen Auftrag des US-Verteidigungsministeriums zur Datenspeicherung konkurrieren. "Warum bestreiten Unternehmen wie Microsoft und Amazon nicht, dass sie derzeit diese höchst umstrittenen Waffen entwickeln, die ohne direkte menschliche Einwirkung entscheiden könnten, Menschen zu töten?", sagte Studienleiter Frank Slijper.
22 Unternehmen wurden von PAX als "mäßig gefährdend" bewertet. Dazu gehört der japanische Hersteller Softbank, der für seinen humanoiden Roboter namens Pepper bekannt ist, sowie auch der deutsche Konzern Siemens. Sieben Unternehmen, darunter der Internetriese Google, wurden für ihren Umgang mit Künstlicher Intelligenz in Bezug auf Waffensysteme gelobt.
Im vergangenen Jahr hatte sich Google unter anderem aus einem Bieterrennen um einen Cloud-Computing-Auftrag des US-Verteidigungsministeriums zurückgezogen und auf ethische Bedenken verwiesen.
Der Einsatz künstlicher Intelligenz beim Militär, etwa um Waffensystemen zur automatischen Zielauswahl zu befähigen, wird weiterhin sehr kontrovers diskutiert. Auf einem Kongress zur UN-Waffenkonvention am Mittwoch in Genf debattierten Regierungsexperten hinsichtlich autonomer Waffensysteme über eventuell geeignete politische Maßnahmen.
Mittlerweile haben mehr als 4.500 Experten auf dem Gebiet der Künstlichen Intelligenz und Robotikforschung einen offenen Brief unterzeichnet, mit welchem sie ausdrücken wollen, dass ihre Forschung nicht für militärische Zwecke missbraucht werden dürfe. So heißt in dem Brief unter anderem:
Die Schlüsselfrage für die Menschheit heute lautet, ob ein globaler KI-Rüstungswettlauf gestartet wird oder ob man ihn von Anfang an vermeidet. Wenn irgendeine große Militärmacht mit der Entwicklung von KI-Waffen nach vorne prescht, ist ein globaler Rüstungswettlauf nahezu unumgänglich, und das Ende dieser technologischen Flugbahn ist offensichtlich: Autonome Waffen werden die Kalschnikows von morgen sein. … Autonome Waffen sind ideal für Aufgaben wie Attentate, Destabilisierung von Nationen, Unterdrückung von Bevölkerungen und selektive Tötung einer bestimmten ethnischen Gruppe. Wir glauben deshalb, dass ein militärischer KI-Rüstungswettlauf nicht vorteilhaft für die Menschheit wäre. Es gibt viele Wege, in denen KI die Schlachtfelder für Menschen sicherer machen kann, insbesondere für Zivilisten, ohne dass dafür neue Mittel für das Töten von Menschen geschaffen werden.
Im vergangenen April hatte die Europäische Kommission einen Katalog mit Ethik-Regeln für den Umgang mit Künstlicher Intelligenz veröffentlicht. Dazu zählt unter anderem die Forderung, dass der Mensch stets seine Hoheit über Waffensysteme bewahren sollte.
Mehr zum Thema - Trump und Putin vereint: Deepfake-Video zeigt, wie erschreckend real die Technik wirkt
(rt deutsch/afp)