Sinkende Kosten für KI können ihre Macht in den Händen einer kleinen Gruppe hinterlassen

Sinkende Kosten fuer KI koennen ihre Macht in den Haenden


Der Preis für den wichtigsten Rohstoff, der den neuesten Boom der künstlichen Intelligenz speist, bricht schnell ein. Das sollte die Technologie viel schneller in den Mainstream drängen. Aber es bedroht auch die Finanzen einiger Start-ups, die hoffen, von diesem Boom zu profitieren, und könnte die Macht in den Händen einer kleinen Gruppe hinterlassen.

Das fragliche Rohmaterial ist die Verarbeitungsleistung der großen Sprachmodelle oder LLM, die Dienste wie ChatGPT und die neuen Antworten im Chat-Stil unterstützen, die Microsoft kürzlich für seine Bing-Suchmaschine vorführte.

Die hohen Rechenkosten für den Betrieb dieser Modelle drohten ihre Verwendung ernsthaft zu beeinträchtigen. Noch vor wenigen Wochen kostete der Einsatz der neuen Sprach-KI-Suchmaschine You.com 50 Prozent mehr als eine herkömmliche Internetsuche, so Vorstandsvorsitzender Richard Socher. Aber Ende letzten Monats war diese Kostenlücke dank des Wettbewerbs zwischen den LLM-Unternehmen OpenAI, Anthropic und Cohere auf nur etwa 5 Prozent gesunken.

Tage später veröffentlichte OpenAI einen neuen Dienst, mit dem Entwickler ChatGPT direkt anzapfen konnten, und senkte die Preise für die Nutzung der Technologie um 90 Prozent.

Das ist großartig für Kunden, aber potenziell ruinös für die Konkurrenten von OpenAI. Einige, darunter Anthropic und Inflection, haben Geld gesammelt oder sind dabei, Geld zu sammeln, um ihre eigenen LLM-Ambitionen zu unterstützen.

Selten hat sich eine Technologie so schnell direkt aus der Forschung in den Mainstream-Einsatz bewegt und einen Wettlauf um die „Industrialisierung“ von Prozessen ausgelöst, die für den Einsatz in Laborumgebungen entwickelt wurden. Die meisten Leistungssteigerungen – und Kostensenkungen – resultieren aus Verbesserungen der zugrunde liegenden Computerplattform, auf der die LLMs ausgeführt werden, sowie aus der Verbesserung der Art und Weise, wie die Modelle trainiert und betrieben werden.

Bis zu einem gewissen Grad profitieren alle Konkurrenten von sinkenden Hardwarekosten. Dazu gehört der Zugriff auf die neuesten Chips, die speziell für die Anforderungen der neuen KI-Modelle wie Nvidias H100-Grafikprozessoren oder GPUs entwickelt wurden. Microsoft, das die Modelle von OpenAI auf seiner Cloud-Plattform Azure ausführt, bietet anderen LLM-Unternehmen die gleichen Möglichkeiten – und Kostenvorteile.

Dabei sind große Modelle ebenso Kunst wie Wissenschaft. OpenAI sagte, „eine Reihe von systemweiten Optimierungen“ in der Art und Weise, wie ChatGPT seine Antworten auf Anfragen verarbeitet, hatte Kosten gesenkt 90 Prozent seit Dezember, was diese dramatische Preissenkung für die Benutzer ermöglicht.

Die Ausbildung eines LLM kostet mehrere zehn Millionen Dollar, und die Techniken zur Bewältigung der Aufgabe ändern sich schnell. Das belastet zumindest kurzfristig die relativ kleine Zahl von Personen mit Erfahrung in der Entwicklung und Schulung der Modelle.

Zu dem Zeitpunkt, an dem die besten Techniken allgemein verstanden und übernommen werden, könnten die ersten Konkurrenten einen First-Mover-Vorteil erlangt haben. Scott Guthrie, Leiter der Cloud- und KI-Gruppe von Microsoft, weist auf neue Dienste wie GitHub Copilot hin, die das Unternehmen im vergangenen Sommer gestartet hat, um Softwareentwicklern Programmierideen vorzuschlagen. Solche Dienste verbessern sich schnell, sobald sie weit verbreitet sind. Als er diese Woche auf einer Investorenkonferenz von Morgan Stanley sprach, sagte er, das „Signal“, das von den Nutzern solcher Dienste ausgeht, werde schnell zu einem wichtigen Unterscheidungsmerkmal.

Die Haupthoffnung für konkurrierende LLM-Hersteller liegt im Verkauf der zusätzlichen Dienste, die erforderlich sind, um die Nutzung der Technologie für Entwickler und große Unternehmenskunden zu vereinfachen, sowie in der Schaffung von enger zielgerichteten Modellen, die bestimmten Geschäftsanforderungen entsprechen.

Als das israelische Start-up AI21 Labs beispielsweise diese Woche sein neuestes LLM vorstellte, kündigte es auch eine Reihe von APIs – oder Programmierlinks – für übergeordnete Dienste wie Textzusammenfassung oder Umschreiben an.

Anstelle von breit angelegten Modellen wie dem hinter ChatGPT werden die meisten Unternehmen Modelle verwenden wollen, die auf die in bestimmten Branchen wie dem Finanz- oder Gesundheitswesen verwendete Sprache oder auf die eigenen Daten eines Unternehmens trainiert wurden, sagte Ori Goshen, Co-Manager von AI21. CEO.

Wie er feststellte, stecken große Sprachmodelle noch in den Kinderschuhen. Es gibt noch viel zu tun, um ihre Neigung zu reduzieren, Unwahrheiten auszuspucken und zu verhindern, dass sie „halluzinieren“ oder plausibel klingende Antworten geben, die keinen Bezug zur Realität haben. Um erfolgreich zu sein, müssen die KI-Unternehmen auf dem neuesten Stand der Forschung bleiben.

Aber es ist immer noch so, dass die zugrunde liegenden Kosten dieser generativen KI-Dienste purzeln. Die Preissenkung von OpenAI ist ein Zeichen dafür, wie schnell sich die neue Technologie in die Massenakzeptanz bewegt, und ein Warnzeichen, dass dies ein Geschäft mit wenigen Herstellern sein könnte.

[email protected]



ttn-de-58

Schreibe einen Kommentar