Gesellschaft

Künstliche Intelligenz: MIT programmiert Algorithmus zum Psychopathen

Das Massachusetts Institute of Technology (MIT) hat jüngst in einem Experiment einen Algorithmus bewusst verstörenden Bildern und Inhalten ausgesetzt, die mit Tod und Verderben zu tun hatten. Anschließend hat man "Norman" einem Rorschach-Test unterzogen.
Künstliche Intelligenz: MIT programmiert Algorithmus zum PsychopathenQuelle: Reuters © Brian Snyder

Zwei Jahre, nachdem Microsoft nach nur wenigen Stunden den intelligenten Chatbot "Tay" abschalten wusste, weil dieser unter dem Einfluss von Twitter-Usern begann, extremistische Inhalte zu verbreiten, hat das Massachusetts Institute of Technology (MIT) im Rahmen eines eigenen Experiments einen Algorithmus erschaffen, um dessen Reaktion auf negative Eindrücke und Einflüsse aus dem Internet zu testen. Dies berichtete unter anderem die BBC.

Der bezeichnende Name für den Algorithmus, dem auf diesem Wege Bildverständnis antrainiert werden sollte, ist Norman - wie der Hauptprotagonist in Alfred Hitchcocks Thriller-Klassiker "Psycho" oder in der davon inspirierten Serie "Bates Motel".

Mehr erfahren -  KI kann vorhersagen, wann genau Online-Proteste auf Twitter in echte Gewalt umschlagen

Der Algorithmus Norman lernt die Welt nicht wie andere durch Künstliche Intelligenz generierte Algorithmen durch fröhliche oder neutrale Eindrücke kennen. Keine frei verfügbaren Google-Bilderserien über Katzen, Kinder oder Vögeln waren seine Lernbehelfe, sondern eine Reddit-Untergruppe, die Aufnahmen grausamer Todesfälle, Katastrophen-Nachrichten und sonstige verstörende Bilder zeigte.

Wie Norman darauf reagieren würde, sollte in weiterer Folge eine Serie von Bildern zeigen, wie sie in der Psychologie im Rahmen des bekannten Rorschach-Tests verwendet werden.

Hochzeitstorte oder Überreste eines Unfallopfers?

Und tatsächlich wich das, was Algorithmus Norman in den Klecksen erkennen wollte, erheblich von dem ab, was Algorithmen zu erkennen meinten, die zuvor unverfänglichere Eindrücke vermittelt bekommen hatten.

Wo andere Formen der Künstlichen Intelligenz beispielsweise Regenschirme in verschiedenen Farben erkannt haben wollen, sah Norman einen Mann, dem ein Stoß mit dem Elektroschocker verpasst wird. Was für andere die Nahaufnahme einer Hochzeitstorte darstellen sollten, waren für Norman die Überreste eines Menschen, den ein Raser im Straßenverkehr überrollt hatte. Ein aus Sicht anderer Algorithmen harmloses Paar, das nebeneinandersteht, wird bei Norman zu einem Mann, der aus einem Fenster springt.

Lesen Sie auch -  Neue KI hört auch in der Menge mit: Google entwickelt neuen Mechanismus zur Spracherkennung

Dass Normans Antworten auf die ihm vorgelegten Fragen ein so düsteres Blatt in der Geschichte des Lernprozesses bei Maschinen zeichneten, überrascht Professor Iyad Rahwan, der Teil des dreiköpfigen Ermittlerteams [no pun intended] Normans war, wenig. Das Experiment zu der Frage, wie sich ein Training an KI-Mechanismen mit Daten aus den "dunkelsten Ecken des Internets" auf deren Weltbild auswirke, zeigt ihm zufolge:

Daten sind bedeutender als der Algorithmus. […] Das unterstreicht die Richtigkeit unserer Annahme, dass die Daten, die wir benutzen, um die Künstliche Intelligenz zu trainieren, sich in der Wahrnehmung der Welt durch die KI niederschlagen und in der Art ihres Verhaltens.

Wie lässt sich das Anerziehen eines Bias bei Künstlicher Intelligenz verhindern?

In einer Zeit, in der Künstliche Intelligenz bereits in Bereichen wie telefonischem Kundenservice, Spielecomputern, digitaler Assistenz, E-Mail-Filtern, Gesichts- und Stimmwiedererkennung, aber auch Inhaltserkennung eingesetzt wird, werden die Funktionen und Einsatzmöglichkeiten der KI immer breiter.

Auch interessant -  Künstliche Intelligenz soll US-Schulen das Aufspüren gefährlicher Schüler ermöglichen

Kritiker meinen jedoch - und das Norman-Experiment könnte sie in ihrer Vorstellung bestärken -, dass eine willkürliche und einseitige Fütterung mit Datenmaterial auch zu einseitigen und unausgewogenen Folgerungen aufseiten des KI-Algorithmus führen könnte. Die Microsoft-Pleite mit "Tay" steht immer noch als abschreckendes Beispiel im Raum.

Prof. Rahwan meint, sein Experiment mit Norman beweise, dass "Ingenieure auf irgendeine Weise einen Weg finden müssen, Daten auszubalancieren". Die stetig wachsende und wichtige Welt des Anlernens von Maschinen könne nicht den Programmierern alleine überlassen werden.

Durch die Sperrung von RT zielt die EU darauf ab, eine kritische, nicht prowestliche Informationsquelle zum Schweigen zu bringen. Und dies nicht nur hinsichtlich des Ukraine-Kriegs. Der Zugang zu unserer Website wurde erschwert, mehrere Soziale Medien haben unsere Accounts blockiert. Es liegt nun an uns allen, ob in Deutschland und der EU auch weiterhin ein Journalismus jenseits der Mainstream-Narrative betrieben werden kann. Wenn Euch unsere Artikel gefallen, teilt sie gern überall, wo Ihr aktiv seid. Das ist möglich, denn die EU hat weder unsere Arbeit noch das Lesen und Teilen unserer Artikel verboten. Anmerkung: Allerdings hat Österreich mit der Änderung des "Audiovisuellen Mediendienst-Gesetzes" am 13. April diesbezüglich eine Änderung eingeführt, die möglicherweise auch Privatpersonen betrifft. Deswegen bitten wir Euch bis zur Klärung des Sachverhalts, in Österreich unsere Beiträge vorerst nicht in den Sozialen Medien zu teilen.