Der mit dem Turing-Preis ausgezeichnete Wissenschaftler Geoffrey Hinton gilt als einer der bedeutendsten Mitbegründer der Künstlichen Intelligenz (KI). Inmitten des faktischen Wettrüstens im Silicon Valley zwischen Google und Microsoft, die sich darum bemühen, die Technologie zu perfektionieren, hat er vor den Risiken gewarnt, die sein Lebenswerk für die Menschheit darstellen könnte.
Hinton hat Google im letzten Monat verlassen, wo er über einen Großteil des vergangenen Jahrzehnts an der Entwicklung generativer Programme für Künstliche Intelligenz gearbeitet hat. Diese Technologie bildete die Grundlage für generative Software für Künstliche Intelligenz wie ChatGPT und Google Bard, da die Tech-Giganten in ein neues wissenschaftliches Gebiet eintauchen, von dem sie erwarten, dass es die Grundlage für die Zukunft ihrer Unternehmen bilden wird.
In einem ausführlichen Interview mit der New York Times, das am Montag veröffentlicht wurde, teilte Hinton mit, dass er Google verlassen habe, um ohne Aufsicht über Technologien sprechen zu können, die er jetzt als Gefahr für die Menschheit ansieht. Hinton erklärte:
"Ich tröste mich mit der üblichen Ausrede: Wenn ich es nicht getan hätte, hätte es jemand anderes getan."
Öffentlich zugängliche Chatbots wie ChatGPT haben einen Einblick in Hintons Besorgnis gegeben. Während sie von einigen nur als weitere Internet-Neuheit angesehen werden, haben andere vor den potenziellen Auswirkungen auf die Verbreitung von Online-Fehlinformationen und auf die Beschäftigung gewarnt.
Die jüngste Version von ChatGPT, die im März von OpenAI in San Francisco veröffentlicht wurde, war Anlass für einen offenen Brief, der von mehr als 1.000 führenden Vertretern der Tech-Branche – darunter Elon Musk – unterzeichnet wurde, um auf die "tiefgreifenden Risiken für die Gesellschaft und die Menschheit" hinzuweisen, die diese Technologie mit sich bringt.
Auch wenn Hinton den Brief nicht unterschrieben hat, ist seine Haltung zum potenziellen Missbrauch von KI klar:
"Es ist schwer vorstellbar, wie man verhindern kann, dass schlechte Akteure sie für schlechte Zwecke einsetzen."
Hinton behauptet, dass Google bei der Verwaltung der Künstlichen Intelligenz "sehr verantwortungsvoll" vorgegangen sei, aber er befürchtet, dass die Eigentümer der Technologie irgendwann die Kontrolle verlieren werden. Dies könnte zu einem Szenario führen, in dem falsche Informationen, Fotos und Videos nicht mehr von echten Informationen zu unterscheiden sind und die Menschen nicht mehr wissen, "was wahr ist".
"Die Idee, dass dieses Zeug tatsächlich schlauer werden könnte als die Menschen – ein paar Leute haben das geglaubt", so Hinton gegenüber der NYT. "Aber die meisten Leute dachten, es sei völlig abwegig. Und ich dachte, es sei völlig abwegig. Ich dachte, es wäre noch 30 bis 50 Jahre oder noch länger entfernt. Offensichtlich glaube ich das nicht mehr."
Mehr zum Thema - US-Start-up Figure entwickelt ersten humanoiden Allzweckroboter