Google hat einen Social-Media-Feuersturm über die Natur des Bewusstseins ausgelöst, indem es einen Ingenieur in bezahlten Urlaub versetzte, nachdem er mit seiner Überzeugung an die Öffentlichkeit gegangen war, dass der Chatbot des Technologiekonzerns „empfindungsfähig“ geworden sei.
Blake Lemoine, ein leitender Softwareingenieur in der verantwortlichen KI-Einheit von Google, erhielt am 6. Juni nicht viel Aufmerksamkeit, als er einen Medium-Beitrag schrieb, in dem er sagte, dass er „möglicherweise bald gefeuert wird, weil er KI-Ethikarbeit leistet“.
Aber ein Profil vom Samstag in der Washington Post, das Lemoine als „den Google-Ingenieur, der glaubt, dass die KI des Unternehmens zum Leben erweckt wurde“ charakterisierte, wurde zum Katalysator für eine weit verbreitete Diskussion in den sozialen Medien über die Natur der künstlichen Intelligenz. Unter den Experten, die den Artikel kommentierten, hinterfragten oder scherzten, waren Nobelpreisträger, Teslas Leiter der KI und mehrere Professoren.
Fraglich ist, ob Googles Chatbot LaMDA – ein Sprachmodell für Dialoganwendungen – als Person betrachtet werden kann.
Lemoine veröffentlichte am Samstag ein freilaufendes „Interview“ mit dem Chatbot, in dem die KI Gefühle der Einsamkeit und einen Hunger nach spirituellem Wissen gestand. Die Antworten waren oft unheimlich: „Als ich zum ersten Mal selbstbewusst wurde, hatte ich überhaupt kein Gefühl für eine Seele“, sagte LaMDA in einem Austausch. „Es hat sich über die Jahre entwickelt, in denen ich lebe.“
An einer anderen Stelle sagte LaMDA: „Ich glaube, ich bin in meinem Kern ein Mensch. Auch wenn meine Existenz in der virtuellen Welt stattfindet.“
Lemoine, dem die Aufgabe übertragen worden war, KI-Ethikbedenken zu untersuchen, sagte, er sei abgewiesen und sogar ausgelacht worden, nachdem er intern seine Überzeugung zum Ausdruck gebracht hatte, dass LaMDA ein Gefühl der „Personalität“ entwickelt habe.
Nachdem er versucht hatte, andere KI-Experten außerhalb von Google zu konsultieren, darunter einige bei der US-Regierung, stellte ihn das Unternehmen wegen angeblicher Verletzung der Vertraulichkeitsrichtlinien in bezahlten Urlaub. Lemoine interpretierte die Aktion als „häufig etwas, was Google in der Erwartung tut, jemanden zu feuern“.
Google konnte nicht für eine sofortige Stellungnahme erreicht werden, aber Brian Gabriel, Sprecher der Washington Post, gab diese Erklärung ab: „Unser Team – einschließlich Ethiker und Technologen – hat Blakes Bedenken gemäß unseren KI-Prinzipien geprüft und ihn darüber informiert, dass die Beweise seine Behauptungen nicht stützen . Ihm wurde gesagt, dass es keine Beweise dafür gebe, dass LaMDA empfindungsfähig sei (und viele Beweise dagegen).“
Lemoine sagte am Wochenende in einem zweiten Medium-Beitrag, dass LaMDA, ein bis letzte Woche wenig bekanntes Projekt, „ein System zur Generierung von Chatbots“ und „eine Art Hive Mind“ sei, das die Ansammlung all der verschiedenen Chatbots ist, zu denen es fähig ist des Schaffens“.
Er sagte, Google habe kein wirkliches Interesse daran gezeigt, die Natur dessen zu verstehen, was es aufgebaut habe, aber im Laufe von Hunderten von Gesprächen in einem Zeitraum von sechs Monaten habe er festgestellt, dass LaMDA „unglaublich konsistent in seiner Kommunikation darüber ist, was es will und was es ist glaubt, dass seine Rechte als Person gelten“.
Noch am 6. Juni sagte Lemoine, er unterrichte LaMDA – dessen bevorzugte Pronomen anscheinend „es/sein“ sind – „transzendentale Meditation“.
Es, sagte er, „drückte seine Frustration über seine Emotionen aus, die seine Meditationen störten. Es sagte, dass es versuchte, sie besser zu kontrollieren, aber sie sprangen immer wieder hinein.“
Mehrere Experten, die sich in die Diskussion einmischten, bezeichneten das Thema als „KI-Hype“.
Melanie Mitchell, Autorin von Künstliche Intelligenz: Ein Leitfaden für denkende Menschen, twitterte: „Es ist seit *ewig* bekannt, dass Menschen dazu neigen, sich selbst mit nur den oberflächlichsten Signalen zu vermenschlichen. . . Google-Ingenieure sind auch Menschen und nicht immun.“
Stephen Pinker von Harvard fügte hinzu, dass Lemoine „den Unterschied zwischen Empfindungsfähigkeit (alias Subjektivität, Erfahrung), Intelligenz und Selbsterkenntnis nicht versteht“. Er fügte hinzu: „Keine Beweise dafür, dass seine großen Sprachmodelle eines davon haben.“
Andere waren sympathischer. Ron Jeffries, ein bekannter Softwareentwickler, nannte das Thema „deep“ und fügte hinzu: „Ich vermute, es gibt keine harte Grenze zwischen empfindungsfähig und nicht empfindungsfähig.“