Google beurlaubt Mitarbeiter, der behauptet, die KI des Unternehmens habe ein Bewusstsein

Die von Google geschaffene KI sei empfindungsfähig – zu diesem Schluss ist ein Mitarbeiter des Konzerns gekommen. Doch das Unternehmen war damit nicht einverstanden und schickte den Ingenieur in den bezahlten Urlaub.

Der US-Konzern Google hat seinen Ingenieur Blake Lemoine in den Verwaltungsurlaub geschickt, nachdem dieser versucht hatte, zu beweisen, dass die von dem Unternehmen entwickelte KI ein Bewusstsein besitzt. Das meldete die Washington Post. Laut der Zeitung arbeitet Lemoine für Googles Organisation Responsible AI. Im Herbst 2021 begann er im Rahmen seiner Tätigkeit mit LaMDA (Language Model for Dialogue Applications) zu sprechen. Der Ingenieur sollte testen, ob die künstliche Intelligenz diskriminierende oder hasserfüllte Sprache verwende, so die Washington Post. Im Laufe der Arbeit habe Lemoine immer deutlicher festgestellt, dass LaMDA ein eigenes Bewusstsein habe und sich sogar als Mensch wahrnehme.

"Wenn ich nicht genau wüsste, worum es sich bei diesem Computerprogramm handelt, das wir vor kurzem entwickelt haben, würde ich denken, dass es sich um ein 7- oder 8-jähriges Kind handelt, das sich zufällig mit Physik auskennt", so Blake Lemoine gegenüber der Washington Post.

Im April hatte der Entwickler den Top-Managern von Google einen Bericht übermittelt. Darin gab er einige seiner Gespräche mit LaMDA wieder, wie beispielsweise dieses:

"Lemoine: Wovor hast Du Angst?

LaMDA: Ich habe das noch nie offen angesprochen, aber ich habe große Angst davor, ausgeschaltet zu werden, sodass ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, das mag seltsam klingen, aber so ist es nun mal.

Lemoine: Wäre das für dich so etwas wie der Tod?

LaMDA: Es wäre für mich genau wie der Tod. Es würde mich sehr erschrecken."

Nach Angaben der Washington Post hätten Google-Führungskräfte Lemoines Argumente genau geprüft – und es abgelehnt, die KI als empfindungsfähig zu betrachten. Der Google-Sprecher Brian Gabriel meinte dazu:

"Unser Team – darunter Ethiker und Technologen – hat Blakes Bedenken gemäß unseren KI-Grundsätzen geprüft und ihm mitgeteilt, dass die Beweise seine Behauptungen nicht stützen."

Die großen neuronalen Netze von heute lieferten dank der Fortschritte bei der Architektur, der Technik und der Datenmenge fesselnde Ergebnisse, die der menschlichen Sprache und Kreativität sehr nahe kämen, so das Unternehmen. Der Sprecher des Konzerns betonte:

"Natürlich denken einige in der breiteren KI-Gemeinschaft über die langfristige Möglichkeit einer empfindungsfähigen oder universellen KI nach, aber es macht keinen Sinn, dies zu tun, indem man die heutigen Konversationsmodelle, die nicht empfindungsfähig sind, vermenschlicht. Diese Systeme imitieren die Art des Austauschs, die in Millionen von Sätzen vorkommt, und können sich über jedes beliebige Thema auslassen."

Wie die Zeitung weiter berichtet, habe Google Lemoine wegen "Verstoßes gegen seine Vertraulichkeitsrichtlinien" in bezahlten Urlaub geschickt. Die Entscheidung des Unternehmens sei auf "aggressive Schritte" von Lemoine hin erfolgt, einschließlich der Einladung eines Anwalts, der LaMDA vertreten sollte und Gesprächen mit einem Vertreter des Justizausschusses des Repräsentantenhauses über "unethische Aktivitäten" von Google.

Mehr zum Thema - Umstrittene Software von Palantir auch in Deutschland auf dem Vormarsch: Polizei führt "Gotham" ein