Es dreht sich alles um die Chips im KI-Krieg

Es dreht sich alles um die Chips im KI Krieg


Während in der Technologiebranche ein umfassender Kampf um die KI-Dominanz ausbricht, hat die Wall Street frühzeitig darauf gesetzt, wer die größten Gewinner sein werden: die Unternehmen, die die Waffen herstellen, die von allen Kämpfern eingesetzt werden.

Das bedeutet insbesondere die fortschrittlichen Chips, die für „generative KI“-Systeme wie den ChatGPT-Chatbot und bildgenerierende Systeme wie Dall-E benötigt werden.

Und Investoren setzen nicht auf irgendeinen Hersteller. Die Aktien von Nvidia, dessen grafische Verarbeitungseinheiten – oder GPUs – den Markt für das Training großer KI-Modelle dominieren, sind in diesem Jahr um 55 Prozent gestiegen. Sie haben sich auch seit Oktober verdoppelt, als Nvidia durch eine Kombination aus Krypto-Pleite (seine Chips wurden häufig von Krypto-Minern verwendet), einem Einbruch der PC-Verkäufe und einem schlecht verwalteten Produktwechsel bei Rechenzentrumschips unter einer Wolke stand.

Eine „Picks and Shovels“-Investmentstrategie ist sinnvoll, wenn es noch schwer zu sagen ist, wie sich eine neue Technologie entwickeln wird. Die großen Technologieunternehmen bereiten sich darauf vor, teure neue KI-Systeme gegeneinander einzusetzen, ohne noch ein klares Anzeichen dafür zu haben, wie sie einen dauerhaften Vorteil erzielen können.

Die einzige sichere Sache ist, dass eine Menge fortschrittliches Silizium eingesetzt und Energie verbraucht wird. Aber welche Art von Silizium wird es sein – und wer kann es am besten liefern?

Man kann mit Sicherheit sagen, dass GPUs sehr gefragt sein werden, was Nvidia und in geringerem Maße AMD (deren Aktien in diesem Jahr um 30 Prozent gestiegen sind) zugute kommt. Neben der Aufgabe, große KI-Modelle zu trainieren, werden GPUs wahrscheinlich auch häufiger für Inferenzen eingesetzt – die Aufgabe, reale Daten mit einem trainierten Modell zu vergleichen, um eine nützliche Antwort zu liefern.

Bisher war KI-Inferenz ein gesunder Markt für Unternehmen wie Intel, die CPUs herstellen (Prozessoren, die ein breiteres Aufgabenspektrum bewältigen können, aber weniger effizient zu betreiben sind). Laut Karl Freund von Cambrian AI Research sind die in generativen Systemen verwendeten KI-Modelle jedoch wahrscheinlich zu groß für CPUs und erfordern leistungsfähigere GPUs, um diese Aufgabe zu bewältigen.

Vor fünf Jahren war es alles andere als sicher, dass Nvidia in dieser Position sein würde. Da die Rechenanforderungen des maschinellen Lernens exponentiell anstiegen, entstand eine Flut von Start-ups, um spezialisierte KI-„Beschleuniger“ zu entwickeln. Diese sogenannten ASICs – anwendungsspezifische integrierte Schaltungen, die nur eine Aufgabe ausführen, aber auf die effizienteste Weise – schlugen einen besseren Weg vor, um einen intensiven Datenverarbeitungsvorgang zu bewältigen.

Vorhersagen, dass GPUs mit dieser speziell entwickelten Hardware nicht mithalten würden, haben sich jedoch als falsch erwiesen, und Nvidia bleibt an der Spitze. Das ist vor allem der Cuda-Software zu verdanken, die zum Ausführen von Anwendungen auf den GPUs des Unternehmens verwendet wird, Entwickler an Nvidia-Chips bindet und den Kaufanreiz bei AMD verringert.

Auch Nvidia hat mit dem neuen H100-Chip zur rechten Zeit ein neues Produkt auf den Markt gebracht. Dies wurde speziell für den Umgang mit Transformatoren entwickelt, der KI-Technik, die hinter den jüngsten großen Fortschritten bei Sprach- und Sehmodellen steht. Für Designer von ASICs sind solche Änderungen in der zugrunde liegenden Architektur schwer zu handhaben. Das Redesign jeder neuen Chipgeneration ist teuer und es kann schwierig sein, genug zu verkaufen, um die Entwicklungskosten zu amortisieren.

Doch die Konkurrenz wird härter. Der Erfolg von Microsoft bei der Nutzung der OpenAI-Forschung, um frühzeitig eine Führungsrolle in der generativen KI zu übernehmen, ist zu einem großen Teil der spezialisierten Hardware zu verdanken, die für die Ausführung der OpenAI-Modelle entwickelt wurde. Diese basieren auf GPUs, aber die Chipindustrie war voller Spekulationen, dass der Softwareriese jetzt seine eigenen KI-Beschleuniger entwirft.

Wenn ja, dann sicherlich nicht allein. Google beschloss vor acht Jahren, eigene Chips zu entwickeln, die als Tensor Processing Units oder TPUs bekannt sind, um seine intensivste KI-Arbeit zu bewältigen. Amazon und Meta folgten. Die Idee der Transformatoren stammt von Google, was darauf hindeutet, dass der Suchgigant zumindest seine neuesten Chips für die Arbeit mit den neuen KI-Modellen optimiert haben wird.

Eine weitere drohende Bedrohung könnte von OpenAI selbst ausgehen. Das Forschungsunternehmen hinter ChatGPT hat seine eigene Software namens Triton entwickelt, um Entwicklern dabei zu helfen, ihre neuronalen Netze auf GPUs auszuführen. Das könnte den Bedarf an Nvidias Cuda verringern – ein Schritt, um seine Chips zu einer Ware zu machen und Entwicklern wie OpenAI die Möglichkeit zu geben, ihre Modelle auf jeder Hardware einzusetzen.

Wenn der KI-Markt in den Händen einer kleinen Anzahl riesiger Technologieunternehmen landet, von denen jedes einen großen wirtschaftlichen Anreiz hat, seine eigenen spezialisierten Chips zu entwickeln, werden die langfristigen Aussichten von Nvidia beeinträchtigt. Aber es hat den Zweiflern zuvor getrotzt und ist zumindest vorerst gut aufgestellt für den neuesten Anfall der KI-Manie der Tech-Welt.

[email protected]



ttn-de-58

Schreibe einen Kommentar