ChatGPT-Hersteller wird von US-Aufsichtsbehörden wegen KI-Risiken untersucht

1689267674 ChatGPT Hersteller wird von US Aufsichtsbehoerden wegen KI Risiken untersucht


Erhalten Sie kostenlose Updates zur künstlichen Intelligenz

Die Federal Trade Commission hat eine weitreichende Untersuchung des ChatGPT-Herstellers OpenAI eingeleitet, da die US-Regulierungsbehörde ihre Aufmerksamkeit auf potenzielle Risiken richtet, die durch den Aufstieg der künstlichen Intelligenz entstehen.

In einem Brief an das von Microsoft unterstützte Unternehmen sagte die FTC, sie werde prüfen, ob Menschen dadurch geschädigt wurden, dass der KI-Chatbot falsche Informationen über sie erstellte, und ob OpenAI sich an „unfairer oder irreführender“ Privatsphäre und Datensicherheit beteiligt habe Praktiken Methoden Ausübungen.

Generative KI-Produkte geraten zunehmend ins Fadenkreuz von Regulierungsbehörden auf der ganzen Welt, da KI-Experten und Ethiker Alarm schlagen wegen der enormen Menge an personenbezogenen Daten, die von der Technologie verbraucht werden, sowie wegen ihrer potenziell schädlichen Ergebnisse, die von Fehlinformationen bis hin zu sexistischen und rassistischen Kommentaren reichen .

Im Mai gab die FTC einen Warnschuss an die Branche ab und sagte, sie konzentriere sich intensiv darauf, wie Unternehmen KI-Technologie, einschließlich neuer generativer KI-Tools, auf eine Weise nutzen könnten, die tatsächliche und erhebliche Auswirkungen auf die Verbraucher haben könne.

In ihrem Brief forderte die US-Regulierungsbehörde OpenAI auf, internes Material weiterzugeben, das von der Art und Weise reicht, wie die Gruppe Benutzerinformationen verwendet oder speichert; die Daten, die zur Entwicklung großer Sprachmodelle verwendet wurden; und Schritte, die das Unternehmen unternommen hat, um dem Risiko zu begegnen, dass sein Modell Aussagen produziert, die „falsch, irreführend oder herabwürdigend“ sind.

Die FTC lehnte eine Stellungnahme zu dem Brief ab, über den erstmals die Washington Post berichtete. OpenAI lehnte eine Stellungnahme ab.

Lina Khan, Vorsitzende der FTC, sagte am Donnerstagmorgen vor dem Justizausschuss des Repräsentantenhauses aus und wurde von republikanischen Gesetzgebern wegen ihrer strengen Durchsetzungspolitik scharf kritisiert.

Khan gehört zu einer neuen Generation fortschrittlicher Kartellbeamter, die von der Regierung von Joe Biden ernannt wurden und versucht, gegen wettbewerbswidriges Verhalten vorzugehen, das ihrer Ansicht nach seit Jahrzehnten in der gesamten US-Wirtschaft unkontrolliert geblieben ist.

Experten waren besorgt über die riesigen Datenmengen, die von den Sprachmodellen hinter ChatGPT aufgesaugt werden. OpenAI hatte zwei Monate nach seiner Einführung mehr als 100 Millionen monatlich aktive Benutzer. Die neue Bing-Suchmaschine von Microsoft, die ebenfalls auf der OpenAI-Technologie basiert, wurde innerhalb von zwei Wochen nach ihrer Veröffentlichung im Januar von mehr als einer Million Menschen in 169 Ländern genutzt.

Benutzer haben berichtet, dass ChatGPT Namen, Daten und Fakten sowie gefälschte Links zu Nachrichten-Websites und Referenzen zu wissenschaftlichen Arbeiten erfunden hat, ein Problem, das in der Branche als „Halluzinationen“ bekannt ist.

Die Untersuchung der FTC befasst sich mit technischen Details der Gestaltung von ChatGPT, einschließlich der Arbeit des Unternehmens zur Behebung von Halluzinationen und der Aufsicht seiner menschlichen Prüfer, die sich direkt auf die Verbraucher auswirken. Außerdem wurden Informationen zu Verbraucherbeschwerden und den Bemühungen des Unternehmens angefordert, das Verständnis der Verbraucher für die Genauigkeit und Zuverlässigkeit des Chatbots zu beurteilen.

Im März verbot die italienische Datenschutzbehörde ChatGPT vorübergehend, während sie unter anderem die Sammlung personenbezogener Daten des US-Unternehmens nach einem Verstoß gegen die Cybersicherheit untersuchte. Es wurde einige Wochen später wieder eingeführt, nachdem OpenAI seine Datenschutzrichtlinie zugänglicher gemacht und ein Tool zur Überprüfung des Alters der Benutzer eingeführt hatte.

OpenAI-Chef Sam Altman hat zuvor zugegeben, dass ChatGPT Schwächen aufweist. „ChatGPT ist unglaublich begrenzt, aber in einigen Dingen gut genug, um einen irreführenden Eindruck von Größe zu erwecken.“ er schrieb auf Twitter Im Dezember. „Es ist ein Fehler, sich im Moment bei irgendetwas Wichtigem darauf zu verlassen. Es ist eine Vorschau auf den Fortschritt; Wir müssen noch viel an Robustheit und Wahrhaftigkeit arbeiten.“





ttn-de-58

Schreibe einen Kommentar