„Künstliche Intelligenz könnte das Ende der Menschheit bedeuten“: Experten vergleichen ihre Gefahren mit Pandemien und Atomkriegen

1685492172 „Kuenstliche Intelligenz koennte das Ende der Menschheit bedeuten Experten vergleichen.7

AKTUALISIERENEine Gruppe von Wirtschaftsführern und Wissenschaftlern forderte am Dienstag, „das Risiko des Aussterbens durch künstliche Intelligenz“ zu einer globalen Priorität zu machen, „neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg“. Ein Professor der KU Leuven unterzeichnete die Erklärung ebenfalls.

„Die Verringerung des Risikos des Aussterbens von KI sollte neben anderen Risiken für die Gesellschaft wie Pandemien und Atomkriegen eine globale Priorität sein.“ Das American Center for AI Safety verbreitete diese kurze Erklärung am Dienstag, darunter Dutzende Namen von Wissenschaftlern und Top-Führungskräften von Technologieunternehmen.

Unterzeichnet haben die Warnung unter anderem Experten von Microsoft und Google, aber auch Sam Altman, der Gründer des KI-Chatbots ChatGPT. Das 37-jährige Wunderkind hinter ChatGPT warnt schon seit einiger Zeit vor seiner eigenen Kreation. Ihm zufolge könnte es „ernsthaft schief gehen“, wenn die neue Technologie nicht reguliert wird. Auch Twitter-Chef Elon Musk, der bereits stark in die Technologie investiert hat, warnte zuvor, dass KI „die Zivilisation zerstören könnte“.

Schauen Sie auch. Wer ist Sam Altman, CEO von OpenAI, der davon überzeugt ist, dass künstliche Intelligenz Millionen von Arbeitsplätzen verschwinden lassen wird?

Der Name des belgischen Professors Yves Moreau, der der KU Leuven angegliedert ist, ist ebenfalls enthalten. Er ist spezialisiert auf künstliche Intelligenz in der Genetik. Moreau glaubt, dass die KI-Entwicklung für eine Weile verlangsamt werden sollte, da nicht klar ist, welche Konsequenzen der technologische Fortschritt für den Menschen haben wird.

„Wir haben in den letzten Monaten einen gewaltigen technologischen Durchbruch erlebt, dessen Risiken und Folgen wir noch nicht abschätzen können“, erklärt Moreau. „Es war ein Schock, selbst für KI-Spezialisten.“ Es stellte sich heraus, dass die KI-Modelle eine viel größere Kapazität hatten als erwartet. Es sei noch unklar, welche Folgen dies haben könnte, betont Moreau, etwa hinsichtlich der Verbreitung von Desinformation oder für die Inhalte von Arbeitsplätzen.

Moreau plädiert dafür, auf die Bremse zu treten und Maßnahmen zu ergreifen. „Regulierung ist ein wichtiger Prozess, aber vielleicht unzureichend. Bei Menschen, die Technologie entwickeln, ist ein Kulturwandel erforderlich. Jetzt machen es die Leute, weil es cool ist oder weil man damit Geld verdienen kann. Wir sollten jedoch mehr darüber nachdenken, wer und wie wir Technologie herstellen. Forscher müssen mehr Verantwortung übernehmen.“



ttn-de-3

Schreibe einen Kommentar