KI: Open-Source-Modelle gefährden die Gewinne der großen Technologiekonkurrenten

KI Open Source Modelle gefaehrden die Gewinne der grossen Technologiekonkurrenten


In den 1960er Jahren entwickelte ein Wissenschaftler am Massachusetts Institute of Technology ein Programm zur Verarbeitung natürlicher Sprache, das menschliche Gespräche nachahmen konnte. Unter dem Namen ELIZA handelte es sich um eine frühe Variante der Chatbots, die dieses Jahr im Technologiesektor weit verbreitet waren. ELIZA war kein profitables Unterfangen. Es handelt sich auch nicht um die aktuellen Versionen.

Es gibt klare Transformationsmöglichkeiten in der generativen künstlichen Intelligenz. Chatbots, die mithilfe großer Sprachmodelle (LLMs) entwickelt wurden, könnten eine nahtlose Kommunikation zwischen Menschen und Computern ermöglichen.

Für Investoren stellt sich die Frage, ob proprietäre LLMs zuverlässig Geld für große Technologieunternehmen einbringen können. Open-Source-LLMs könnten eine günstigere Alternative für Unternehmen sein, die maßgeschneiderte Anwendungen entwickeln.

LLMs haben keine formale Definition. Sie werden als Programme beschrieben, die auf riesigen online verfügbaren Datenmengen trainiert sind und in der Lage sind, das nächste Wort in einem Satz vorherzusagen.

Mit zunehmender Rechenleistung konnten die KIs unüberwachtes Lernen aus unstrukturierten Daten durchführen. Sie liefern einige Antworten, die selbst ihre Schöpfer überraschen.

Die Komplexität des LLM ist sprunghaft gestiegen. Im Jahr 2020 veröffentlichte OpenAI seinen Generative Pretrained Transformer 3 oder GPT-3. Dieses LLM hatte 175 Milliarden Parameter.

Je mehr Parameter, desto mehr Daten kann ein LLM verarbeiten und generieren. Googles PaLM, das seinen Bard-Chatbot antreibt, hat 540 Milliarden US-Dollar. OpenAIs neueste Version seines LLM ist GPT-4. Das Unternehmen hat die Anzahl der Parameter nicht angegeben. Experten glauben, dass 100 Billionen eine genaue Zahl wären.

Die für solche LLMs erforderliche Rechenleistung ist enorm. Als Faustregel gilt: Je größer der verwendete Datensatz, desto besser die Leistung. Dies beschränkt theoretisch LLMs auf eine kleine Anzahl gut finanzierter Unternehmen.

Aber Nischenanwendungen können auch mit kleineren Datensätzen funktionieren. BloombergGPT, das die Analyse von Informationen auf Bloomberg-Datenterminals unterstützen soll, verfügt über 50 Milliarden Parameter. Das Basismodell LLM des in Toronto ansässigen Start-ups Cohere AI hat 52 Milliarden Parameter.

Von größerer Bedeutung für Unternehmen wie Google sind Open-Source-LLMs. Meta hat sein System LLaMA als Open-Source-Software verschenkt, die von jedem kopiert und verwendet werden kann. Darauf können kleinere LLMs aufgebaut werden.

Angenommen, Unternehmensanwender entscheiden, dass es bei der Entwicklung ihrer eigenen KI-Dienste kaum einen Unterschied zwischen proprietären und Open-Source-LLMs gibt, würden Google und OpenAI ihren Vorreitervorteil verlieren, bevor sie die Chance haben, die Gewinnschwelle zu erreichen.

Unser beliebter Newsletter für Premium-Abonnenten erscheint zweimal wöchentlich. Am Mittwoch analysieren wir ein aktuelles Thema aus einem Weltfinanzzentrum. Am Freitag analysieren wir die großen Themen der Woche. Bitte melden Sie sich an Hier.



ttn-de-58

Schreibe einen Kommentar