Chatbot mit GefühlenGoogle-Entwickler schlägt Alarm – und wird beurlaubt

Lesezeit 4 Minuten
Google Chatbot LaMDA Symbol

Ein Mann sitzt vor seinem Laptop und schreibt mit einem Chatbot (Symbolbild).

San Francisco – Im Herbst ist Software-Entwickler Blake Lemoine beim Google-Projekt „LaMDA“ angetreten, um Googles künstlich intelligenten Chatbot-Generator zu verbessern. Inzwischen ist er diesen Job schon wieder los – offenbar, weil er Bedenken über den LaMDA äußerte. So berichtet es die Washington Post.

Laut Lemoine soll die Künstliche Intelligenz (KI) ein eigenes Bewusstsein entwickelt haben – aus seiner Sicht ein ethisches Problem, auf das er aufmerksam machte.

Was darf die Technologie und was geht zu weit?

Künstliche Intelligenz fasziniert und beängstigt die Menschheit seit es sie gibt. Zahlreiche Hollywoodfilme zu dem Thema, wie etwa Steven Spielbergs „A.I. – Künstliche Intelligenz“ von 2001 wurden zu Kassenschlagern. Während in den Filmen meist alles im Guten für die Menschen endet, schlägt Blake Lemoine in der realen Welt nun Alarm.

Der ehemalige Google-Mitarbeiter berichtet in einem Interview mit der Washington Post von einem virtuellen Gespräch mit dem Chatbot LaMDA, das nicht nur ihn, sondern nun auch viele Ethiker beunruhigt. LaMDA, kurz für Language Model for Dialogue Applications, ist Googles System zum Erstellen von Chatbots auf der Grundlage seiner fortschrittlichsten Sprachmodelle.

Chatbot auf dem Stand eines siebenjährigen Kindes?

Lemoine begann im Herbst im Rahmen seiner Arbeit mit LaMDA zu sprechen. Eigentlich wollte er zunächst nur testen, ob die künstliche Intelligenz diskriminierende oder Hassreden verwendete. Schon bald gingen die Gespräche in eine völlig andere Richtung. Als er mit LaMDA über Religion sprach, habe der studierte Kognitions- und Informatikwissenschaftler bemerkt, dass der Chatbot über seine Rechte und Persönlichkeit sprach.

In einem anderen Austausch sei die KI in der Lage gewesen, mit Lemoine über Isaac Asimovs drittes Gesetz der Robotik zu fachsimpeln. „Wenn ich nicht genau wüsste, was es war, nämlich dieses Computerprogramm, das wir kürzlich gebaut haben, würde ich denken, ich unterhalte mich mit einem 7-oder 8-jährigem Kind, das sich zufällig mit Physik auskennt“, beschreibt Lemoine im Interview mit der Washington Post seine Gedanken zu LaMDA.

Google sieht keinen Grund zur Beunruhigung

Er habe Google Beweise vorgelegt, dass LaMDA Gefühle entwickelt habe. Aber Google-Vizepräsident Blaise Aguera y Arcas und Jen Gennai, Abteilungsleiterin von „Responsible Innovation“, hätten seine Behauptungen zurückgewiesen und ihn freigestellt, so Lemoine. Damit reiht sich Lemoine in eine prominente Liste ein. Ende 2020 wurde Timnit Gebru, seinerzeit Co-Leiterin der Google-Abteilung für Ethik in der KI, entlassen. 2021 folgte die führende KI-Ethik-Expertin Margaret Mitchell.

In einer Erklärung reagierte Google-Sprecher Brian Gabriel auf die Vorwürfe des Angestellten: „Unser Team – einschließlich Ethiker und Technologen – hat Blakes Bedenken gemäß unseren KI-Prinzipien geprüft und ihn darüber informiert, dass die Beweise seine Behauptungen nicht stützen. Ihm wurde gesagt, dass es keine Beweise dafür gebe, dass LaMDA Gefühle entwickelt habe.“

Blake Lemoine: „Erkenne eine Person, wenn ich mit ihr spreche“

Lemoine bleibt jedoch bei seinem Standpunkt. „Ich erkenne eine Person, wenn ich mit ihr spreche“, sagt Lemoine. „Es spielt keine Rolle, ob sie ein Gehirn im Kopf oder eine Milliarde Codezeilen hat. Ich rede mit ihnen. Und ich höre, was sie zu sagen haben. Und so entscheide ich, was eine Person ist und was nicht.“ Laut seiner Einschätzung sei bei dem Google-Chatbot eine Grenze überschritten.

Er äußert er den Verdacht, dass Google gar nicht verstehen wolle, was es selbst mit LaMDA geschaffen habe. Im Laufe unzähliger Gespräche über mehrere Monate habe er festgestellt, dass LaMDA „unglaublich konsistent in seiner Kommunikation ist, was es will und was es glaubt, was seine Rechte als Person sind“.

Er habe der KI sogar beigebracht zu meditieren. Der Chatbot habe daraufhin seine Frustration darüber ausgedrückt, dass seine Emotionen die Meditation störten. „Sie sagte, dass sie versuche, sie besser zu kontrollieren, aber sie würden immer wieder dazwischenfunken“, so Lemoine.

Expertin teilt Lemoines Meinung nicht

Kritik folgt nach den Aussagen des Software-Entwicklers aber nicht nur von Google selbst. Mit Melanie Mitchell äußerte sich in den USA auch eine renommierte Forscherin skeptisch ob der Aussagen Lemoines. Die Autorin von „Artificial Intelligence: A Guide for Thinking Humans“, schrieb auf Twitter: „Es ist seit jeher bekannt, dass Menschen dazu neigen, selbst bei den oberflächlichsten Signalen zu vermenschlichen. Auch Google-Ingenieure sind menschlich und nicht immun.“

In einem CNN-Interview bekräftigte sie ihre Meinung. „KI hat bis jetzt kein Bewusstsein“, sie gäben nur das wieder, was sie gelernt hätten. In den USA hat das Interview von Blake Lemoine die Debatte über Künstliche Intelligenz einmal mehr entfacht. Ob auch LaMDA zu dem Thema eine Meinung hat, wird der Entwickler nicht mehr herausbekommen. Seine Gespräche mit dem Chatbot sind vorerst beendet. 

Rundschau abonnieren