Italien verbietet ChatGPT vorübergehend aus Datenschutzgründen

1680283101 Italien verbietet ChatGPT voruebergehend aus Datenschutzgruenden


Italiens Datenschutzbehörde hat den beliebten künstlichen Intelligenzdienst ChatGPT des von Microsoft unterstützten OpenAI vorübergehend verboten, da politische Entscheidungsträger auf der ganzen Welt versuchen, auf den Aufstieg von KI-Produkten zu reagieren.

Die Datenschutzbehörde des Landes sagte am Freitag, sie werde den Zugang zum Chatbot in Italien sperren, während sie unter anderem die Sammlung personenbezogener Daten des US-Unternehmens während einer kürzlichen Verletzung der Cybersicherheit untersucht.

Der Schritt kommt, da KI-Experten und Ethiker wegen der enormen Datenmengen Alarm schlagen, die Dienste wie ChatGPT von mehreren zehn Millionen Benutzern auf der ganzen Welt verbrauchen, und Bedenken aufkommen lassen, wie Unternehmen ihre Privatsphäre und Sicherheit gefährden könnten.

Die italienische Aufsichtsbehörde leitete eine Untersuchung zu OpenAI ein, nachdem letzte Woche ein Verstoß gegen die Cybersicherheit dazu geführt hatte, dass Personen Auszüge aus den ChatGPT-Gesprächen anderer Benutzer und deren Finanzinformationen gezeigt wurden.

Die für einen Zeitraum von neun Stunden offengelegten Daten umfassten Vor- und Nachnamen, Rechnungsadressen, Kreditkartentypen, Ablaufdaten der Kreditkarten und die letzten vier Ziffern ihrer Kreditkarten, laut einer E-Mail, die OpenAI an einen betroffenen Kunden gesendet und gesehen hat von der Financial Times.

Die in Rom ansässige Aufsichtsbehörde sagte, dass OpenAI, angeführt von Chief Executive Sam Altman, den Betrieb von ChatGPT in Italien gemäß der Anordnung in Kürze einstellen sollte, wonach sie 20 Tage Zeit haben wird, um mit Gegenbeweisen zu antworten.

Wenn OpenAI nicht innerhalb der Frist antwortet, kann es mit einer Geldstrafe von bis zu 20 Millionen Euro rechnen. OpenAI antwortete nicht auf eine Bitte um Stellungnahme.

Die Regulierungsbehörde ist bereits zuvor gegen Chatbots vorgegangen und hat sie verboten Replika.ai im Februar. Dieser Dienst ist für Benutzer bekannt, die Konversationen generieren möchten, in denen erotische Szenarien diskutiert werden.

Der Schritt Italiens stellt die erste regulatorische Maßnahme gegen den beliebten Chatbot dar, mit der politische Entscheidungsträger auf der ganzen Welt versuchen, auf den Aufstieg generativer KI-Dienste zu reagieren.

Experten waren besorgt über die riesige Menge an Daten, die von den Sprachmodellen hinter ChatGPT aufgesaugt werden. OpenAI hatte zwei Monate nach seiner Einführung mehr als 100 Millionen monatlich aktive Benutzer. Microsofts neue Bing-Suchmaschine, die ebenfalls auf OpenAI-Technologie basiert, wurde entwickelt gebraucht von mehr als 1 Million Menschen in 169 Ländern innerhalb von zwei Wochen nach seiner Veröffentlichung im Januar.

Diese Woche forderten Größen wie Elon Musk und Yoshua Bengio, einer der Gründerväter moderner KI-Methoden, eine sechsmonatige Pause bei der Entwicklung von Systemen, die leistungsfähiger sind als das neu eingeführte GPT-4, und verwiesen auf große Risiken für die Gesellschaft.

Einige Branchenexperten und Insider sagten, der Aufruf sei heuchlerisch und lediglich eine Möglichkeit, KI-„Nachzüglern“ zu ermöglichen, OpenAI einzuholen, in einer Zeit, in der große Technologieunternehmen aggressiv um die Veröffentlichung von KI-Produkten wie ChatGPT und Googles Bard konkurrieren.

Die italienische Aufsichtsbehörde sagte, sie habe eine Untersuchung eingeleitet, nachdem sie das „Fehlen einer Rechtsgrundlage, die die Massenerfassung und -speicherung personenbezogener Daten rechtfertigt, um die Algorithmen zu „trainieren“, die ChatGPT zugrunde liegen, festgestellt habe.

Es sagte auch, dass ChatGPT laut seiner internen Analyse „nicht immer genaue Informationen bereitstellte“, was zu einem Missbrauch personenbezogener Daten führe.

OpenAI hat zuvor gesagt, dass es Cybersicherheitsprobleme im Zusammenhang mit dem Durchsickern von Informationen gelöst hat. OpenAI wird jedoch daran gehindert, italienische Benutzerdaten über ChatGPT zu verarbeiten, während die Sonde läuft.

Die Aufsichtsbehörde kritisierte auch das Fehlen eines Filters von OpenAI, um zu überprüfen, ob Kinder unter 13 Jahren seinen Dienst nicht nutzen. Insbesondere behauptete der Wachhund, dass minderjährige Kinder Inhalten und Informationen ausgesetzt würden, die ihrem „Selbstbewusstsein“ nicht angemessen seien.

Derzeit fallen generative KI-Technologien in den Regulierungsbereich bestehender Daten- und Digitalgesetze wie der DSGVO und des Digital Services Act, die einige Aspekte davon überwachen.

Die EU bereitet jedoch eine Verordnung vor, die den Einsatz von KI in Europa regeln wird, wobei Unternehmen, die gegen die Regeln des Blocks verstoßen, mit Geldbußen von bis zu 30 Millionen Euro oder 6 Prozent des weltweiten Jahresumsatzes rechnen müssen, je nachdem, welcher Betrag höher ist.



ttn-de-58

Schreibe einen Kommentar