GPT-4 von OpenAI zeigt Fortschritte – und Potenzial zum Geldverdienen

1679161400 GPT 4 von OpenAI zeigt Fortschritte – und Potenzial zum Geldverdienen


Klinton Bicknell wurde letzten September in eines der großen Geheimnisse der Technologiewelt eingeweiht. Der KI-Leiter der Sprachlern-App Duolingo erhielt seltenen Zugang zu GPT-4, einem neuen künstlichen Intelligenzmodell, das von der von Microsoft unterstützten OpenAI entwickelt wurde.

Er entdeckte bald, dass das neue KI-System sogar noch fortschrittlicher war als die frühere Version von OpenAI, die verwendet wurde, um den Hit ChatGPT-Chatbot zu betreiben, der realistische Antworten als Reaktion auf Texteingabeaufforderungen liefert.

Innerhalb von sechs Monaten hatte Bicknells Team GPT-4 verwendet, um einen eigenen ausgeklügelten Chatbot zu erstellen, mit dem sich menschliche Benutzer unterhalten konnten, um Französisch, Spanisch und Englisch zu üben, als ob sie sich in realen Umgebungen wie Flughäfen oder Cafés befänden.

„Es war erstaunlich, wie detailliert und spezialisiert das Modell über die Funktionsweise von Sprachen und die Entsprechungen zwischen verschiedenen Sprachen verfügte“, sagte Bicknell. „Mit GPT-3, das wir bereits verwendet hatten, wäre dies einfach keine praktikable Funktion.“

Duolingo ist eines von wenigen Unternehmen, darunter Morgan Stanley Wealth Management und die Online-Bildungsgruppe Khan Academy, die vorab Zugang zu GPT-4 erhalten haben, bevor es diese Woche in größerem Umfang eingeführt wurde.

Die Veröffentlichung zeigt, wie sich OpenAI von einer forschungsorientierten Gruppe in ein Unternehmen mit einem Wert von fast 30 Milliarden US-Dollar verwandelt hat, das Giganten wie Google bei den Bemühungen um die Kommerzialisierung von KI-Technologien Konkurrenz macht.

OpenAI gab bekannt, dass GPT-4 bei einer Reihe standardisierter Tests wie der US-Anwaltsprüfung und den SAT-Schultests Leistungen auf „menschlichem Niveau“ gezeigt und gezeigt hat, wie seine Partner die KI-Software zur Entwicklung neuer Produkte und Dienstleistungen verwenden.

Aber zum ersten Mal gab OpenAI aufgrund der „Wettbewerbslandschaft und der Sicherheit“ keine Details zu den technischen Aspekten von GPT-4 preis, z. B. mit welchen Daten es trainiert wurde oder welche Hardware und Rechenkapazität für den Einsatz verwendet wurden Implikationen“.

Dies stellt eine Veränderung dar, seit OpenAI 2015 als gemeinnützige Organisation gegründet wurde, teilweise die Idee einiger der radikalsten Denker der Technologiewelt, darunter Elon Musk und Peter Thiel. Es wurde auf den Prinzipien aufgebaut, KI durch wissenschaftliche Veröffentlichungen für jedermann zugänglich zu machen und die Technologie sicher zu entwickeln.

Ein Schwenk im Jahr 2019 machte es zu einem gewinnbringenden Unternehmen mit einer Investition von 1 Milliarde US-Dollar von Microsoft. In diesem Jahr folgte eine weitere Multimilliarden-Dollar-Finanzierung des Technologieriesen, wobei OpenAI schnell zu einem entscheidenden Teil von Microsofts Wette wurde, dass KI-Systeme sein Geschäftsmodell und seine Produkte verändern werden.

Diese Transformation veranlasste Musk, der 2018 aus dem Vorstand von OpenAI ausschied, diese Woche zu twittern, dass er „immer noch verwirrt darüber sei, wie eine gemeinnützige Organisation, für die ich ~100 Millionen Dollar gespendet habe, irgendwie zu einer gewinnorientierten Marktkapitalisierung von 30 Milliarden Dollar wurde. Wenn das legal ist, warum tut es dann nicht jeder?“

Die mangelnde Transparenz von OpenAI in Bezug auf die technischen Details von GPT-4 hat Kritik von anderen innerhalb der KI-Community hervorgerufen.

„Es ist so undurchsichtig, dass sie sagen: ‚Vertrauen Sie uns, wir haben das Richtige getan'“, sagte Alex Hanna, Forschungsdirektor am Distributed AI Research Institute (DAIR) und ehemaliges Mitglied des Ethical AI-Teams von Google. „Sie picken sich diese Aufgaben heraus, weil es keine wissenschaftlich vereinbarten Benchmarks gibt.“

GPT-4, auf das über die kostenpflichtige 20-Dollar-Version von ChatGPT zugegriffen werden kann, hat bei bestimmten Aufgaben eine schnelle Verbesserung gegenüber früheren KI-Modellen gezeigt. So erzielte GPT-4 beispielsweise im 90. Perzentil der Uniform Bar Exam, die von angehenden Anwälten in den USA abgelegt wird. ChatGPT erreichte nur das 10. Perzentil.

Obwohl OpenAI keine Details lieferte, glauben KI-Experten, dass die Größe des Modells größer ist als bei früheren Generationen und dass es viel mehr menschliches Training hatte, um es zu verfeinern.

Die offensichtlichste neue Funktion ist, dass GPT-4 Eingaben sowohl in Text- als auch in Bildform akzeptieren kann – obwohl es nur mit Text antwortet. Das bedeutet, dass Benutzer ein Foto hochladen können, um das Model zu bitten, das Bild detailliert zu beschreiben, Ideen für eine Mahlzeit mit den im Bild enthaltenen Zutaten anzufordern oder es zu bitten, den Witz hinter einem visuellen Meme zu erklären.

GPT-4 ist im Vergleich zu anderen Modellen seiner Art auch in der Lage, viel größere Textmengen zu generieren und aufzunehmen: Benutzer können bis zu 25.000 Wörter eingeben, verglichen mit 3.000 Wörtern in ChatGPT. Das bedeutet, dass es detaillierte Finanzdokumentationen, literarische Werke oder technische Handbücher verarbeiten kann.

Seine fortschrittlicheren Denk- und Parsing-Fähigkeiten bedeuten, dass es viel besser darin ist, komplexe Rechtsverträge auf Risiken zu analysieren, sagte Winston Weinberg, Mitbegründer von Harvey, einem KI-Chatbot, der mit GPT-4 entwickelt wurde und von PwC und Magic Circle Law verwendet wird Firma Allen & Overy.

Trotz dieser Fortschritte hat OpenAI vor mehreren Risiken und Einschränkungen von GPT-4 gewarnt. Dazu gehört seine Fähigkeit, detaillierte Informationen darüber bereitzustellen, wie illegale Aktivitäten durchgeführt werden – einschließlich der Entwicklung biologischer Waffen und der Erzeugung von hasserfüllter und diskriminierender Sprache.

OpenAI hat GPT-4 einem Sicherheitstestprozess unterzogen, der als Red-Teaming bekannt ist, bei dem mehr als 50 externe Experten aus Disziplinen von der medizinischen Chemie bis zur Kernphysik und Fehlinformationen gebeten wurden, zu versuchen, das Modell zu brechen.

Paul Röttger, ein KI-Forscher am Oxford Internet Institute, der sich auf die Identifizierung giftiger Online-Inhalte konzentriert, wurde von OpenAI für sechs Monate beauftragt, zu versuchen, schädliche Reaktionen von GPT-4 hervorzurufen und Feedback zu Themen wie Selbstmord oder Selbst- Schadensinhalte, bis hin zu anschaulichen Gewaltbeschreibungen oder Beispielen für Extremismus und Hassreden.

Er sagte, dass das Modell seine Antworten im Laufe der Testmonate insgesamt verbesserte, wo es zunächst seine Antworten absicherte, später aber eindeutiger in seinen Antworten auf schlechte Eingabeaufforderungen wurde.

„Einerseits hat sich die Sicherheitsforschung seit GPT-3 weiterentwickelt, und es gibt viele gute Ideen, die dazu beigetragen haben, dieses Modell sicherer zu machen“, sagte er. „Aber gleichzeitig ist dieses Modell so viel leistungsfähiger und kann viel mehr Dinge tun als GPT-3, sodass auch die Risikooberfläche viel größer geworden ist.“



ttn-de-58

Schreibe einen Kommentar