Bleiben Sie mit kostenlosen Updates auf dem Laufenden
Melden Sie sich einfach an Künstliche Intelligenz myFT Digest – direkt in Ihren Posteingang geliefert.
Eine lange Reihe renommierter Redner, von Sir Winston Churchill bis Dame Iris Murdoch, hat die jährliche Romanes-Vorlesung an der Universität Oxford gehalten, beginnend mit William Gladstone im Jahr 1892.
Aber selten, wenn überhaupt, kann ein Dozent einen so fesselnden Kommentar abgegeben haben wie Geoffrey Hinton diese Woche. Die Rede des führenden Forschers für künstliche Intelligenz mit dem provokanten Titel Wird digitale Intelligenz die biologische Intelligenz ersetzen?, Fazit: Mit ziemlicher Sicherheit ja. Aber Hinton lehnte die in einigen Technologiekreisen an der Westküste verbreitete Vorstellung ab, dass der Humanismus irgendwie „rassistisch“ sei, wenn er weiterhin den Vorrang unserer eigenen Spezies gegenüber elektronischen Formen der Intelligenz behaupte. „Wir Menschen sollten unser Bestes tun, um hier zu bleiben“, scherzte er.
Der britisch-kanadische Informatiker wurde als einer der Pioniere der „Deep-Learning“-Techniken bekannt, die die KI revolutionierten und die Entwicklung generativer KI-Chatbots wie ChatGPT ermöglichten. Während des größten Teils seiner Karriere im akademischen Bereich und bei Google glaubte Hinton, dass KI keine Bedrohung für die Menschheit darstellt. Aber der 76-jährige Forscher sagt, er habe letztes Jahr eine „Erleuchtung“ erlebt und Google verlassen, um über die Risiken zu sprechen.
Hinton erkannte, dass immer leistungsfähigere KI-Modelle als „Hive Minds“ fungieren und das Gelernte untereinander teilen könnten, was ihnen einen enormen Vorteil gegenüber Menschen verschafft. „Dadurch wurde mir klar, dass sie möglicherweise eine bessere Form der Intelligenz sind“, sagte er mir in einem Interview vor seinem Vortrag.
Es erscheint immer noch phantastisch, dass Zeilen von Softwarecode die Menschheit bedrohen könnten. Doch Hinton sieht zwei Hauptrisiken. Das erste ist, dass schlechte Menschen den Maschinen schlechte Ziele geben und sie für schlechte Zwecke nutzen, etwa für Massendesinformation, Bioterrorismus, Cyberkrieg und Killerroboter. Insbesondere Open-Source-KI-Modelle wie Metas Llama legen enorme Fähigkeiten in die Hände schlechter Menschen. „Ich finde es völlig verrückt, diese großen Modelle als Open Source anzubieten“, sagt er.
Aber er prognostiziert, dass sich die Modelle auch auf gefährliche Weise „entwickeln“ und eine Kontrollabsicht entwickeln könnten. „Wenn ich Regierungen beraten würde, würde ich sagen, dass die Wahrscheinlichkeit, dass diese Dinge in den nächsten 20 Jahren die Menschheit auslöschen, bei 10 Prozent liegt. Ich denke, das wäre eine vernünftige Zahl“, sagt er.
Hintons Argumente wurden an zwei Fronten angegriffen. Erstens argumentieren einige Forscher, dass generative KI-Modelle nichts anderes als teure statistische Tricks seien und dass die existenziellen Risiken der Technologie „Science-Fiction-Fantasie“ seien.
Der prominente Gelehrte Noam Chomsky argumentiert, dass Menschen mit einem genetisch installierten „Betriebssystem“ gesegnet sind, das uns hilft, Sprache zu verstehen, und dass es Maschinen fehlt. Hinton argumentiert jedoch, dass dies Unsinn sei, da das neueste Modell GPT-4 von OpenAI Sprache lernen und Empathie, Argumentation und Sarkasmus zeigen könne. „Ich behaupte sehr stark, dass diese Modelle verstehen“, sagte er in seinem Vortrag.
Die andere Angriffslinie kommt von Yann LeCun, Chef-KI-Wissenschaftler bei Meta. LeCun, ein Befürworter von Open-Source-Modellen, argumentiert, dass unsere aktuellen KI-Systeme dümmer als Katzen seien und es „absurd“ sei zu glauben, dass sie eine Bedrohung für Menschen darstellen, sei es durch ihre Absicht oder durch ihre Voreinstellungen. „Ich denke, Yann ist etwas naiv. Darauf beruht die Zukunft der Menschheit“, antwortet Hinton.
Der ruhige und maßvolle Ton von Hintons Vortrag steht in krassem Kontrast zum düsteren Fatalismus seiner Botschaft. Kann man etwas tun, um die Chancen der Menschheit zu verbessern? „Ich wünschte, ich wüsste es“, antwortet er. „Ich predige keine bestimmte Lösung, ich predige nur das Problem.“
Er fühlte sich ermutigt, dass das Vereinigte Königreich letztes Jahr in Bletchley Park einen KI-Sicherheitsgipfel veranstaltete, der eine internationale politische Debatte anregte. Doch seitdem, sagt er, habe die britische Regierung „im Grunde entschieden, dass Gewinne vor Sicherheit gehen“. Wie beim Klimawandel schlägt er vor, dass ernsthafte politische Änderungen erst dann erfolgen werden, wenn ein wissenschaftlicher Konsens erreicht ist. Und er akzeptiert, dass es das heute nicht mehr gibt. Unter Berufung auf den Physiker Max Planck fügt Hinton grimmig hinzu: „Die Wissenschaft schreitet eine Beerdigung nach der anderen voran.“
Er sagt, er sei ermutigt, dass eine jüngere Generation von Informatikern existenzielle Risiken ernst nehme, und schlägt vor, dass sich 30 Prozent der KI-Forscher Sicherheitsfragen widmen sollten, verglichen mit etwa 1 Prozent heute.
Wir sollten uns instinktiv vor Forschern in Acht nehmen, die zu dem Schluss kommen, dass mehr Forschung nötig sei. Aber in diesem Fall sollten wir uns angesichts der damit verbundenen Risiken und Unsicherheiten besser beeilen. Das Außergewöhnliche an der Debatte über KI-Risiken ist das breite Spektrum an Ansichten. Wir müssen einen neuen Konsens finden.