KI-Führungskräfte warnen eindringlich vor der Bedrohung der Menschheit

1685452660 KI Fuehrungskraefte warnen eindringlich vor der Bedrohung der Menschheit


Eine Gruppe von Wissenschaftlern für künstliche Intelligenz und Geschäftsführern von Unternehmen wie OpenAI hat eine deutliche Warnung vor der sich schnell entwickelnden Technologie ausgesprochen und erklärt, die Bedrohung für die Menschheit sei gleichbedeutend mit der Bedrohung durch nukleare Konflikte und Krankheiten.

„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein“, heißt es in einer Erklärung des Center for AI Safety, einer in San Francisco ansässigen gemeinnützigen Organisation.

Mehr als 350 KI-Führungskräfte, Forscher und Ingenieure, darunter Sam Altman von OpenAI, Demis Hassabis von Google DeepMind und Dario Amodei von Anthropic, waren Unterzeichner des Aussage in einem Satz.

Geoffrey Hinton und Yoshua Bengio, die für ihre Arbeit zu neuronalen Netzen einen Turing Award gewannen und oft als „Paten“ der KI bezeichnet werden, unterzeichneten das Dokument ebenfalls. Hinton gab Anfang des Monats seine Position bei Google auf, um offen über die möglichen Schäden der Technologie zu sprechen.

Die Erklärung folgt Forderungen nach Regulierung in der gesamten Branche, nachdem eine Reihe von KI-Einführungen von Big-Tech-Unternehmen das Bewusstsein für mögliche Mängel geschärft haben, darunter die Verbreitung von Fehlinformationen, die Aufrechterhaltung gesellschaftlicher Vorurteile und die Ersetzung von Arbeitskräften.

EU-Gesetzgeber treiben das europäische Gesetz zur künstlichen Intelligenz voran, während die USA ebenfalls eine Regulierung prüfen.

Das im November eingeführte, von Microsoft unterstützte ChatGPT von OpenAI gilt als wegweisend für die weit verbreitete Einführung künstlicher Intelligenz. Altman gab diesen Monat zum ersten Mal eine Aussage vor dem US-Kongress und forderte eine Regulierung in Form von Lizenzen.

Im März forderten Elon Musk und mehr als 1.000 andere Forscher und Technologiemanager eine sechsmonatige Pause bei der Entwicklung fortschrittlicher KI-Systeme, um das zu stoppen, was sie als „Wettrüsten“ bezeichneten.

Sam Altman von OpenAI gibt diesen Monat seine Aussage vor dem US-Kongress © Elizabeth Frantz/Reuters

Der Brief wurde für seinen Ansatz kritisiert, unter anderem von einigen Forschern, die in der Begründung zitiert wurden, während andere mit der empfohlenen Pause bei der Technologie nicht einverstanden waren.

Mit der einzeiligen Stellungnahme erklärte das Center for AI Safety gegenüber der New York Times, es wolle Meinungsverschiedenheiten vermeiden.

„Wir wollten nicht auf eine sehr große Auswahl an 30 möglichen Interventionen drängen“, sagte Geschäftsführer Dan Hendrycks. „Wenn das passiert, verwässert es die Botschaft.“

Kevin Scott, Chief Technology Officer von Microsoft, und Eric Horvitz, Chief Scientific Officer von Microsoft, unterzeichneten die Erklärung am Dienstag ebenfalls, ebenso wie Mustafa Suleyman, ehemaliger Mitbegründer von Deepmind, der jetzt das Start-up Inflection AI leitet.



ttn-de-58

Schreibe einen Kommentar