Apples KI-Forschung signalisiert den Ehrgeiz, mit den Big-Tech-Konkurrenten gleichzuziehen


Schalten Sie den Editor’s Digest kostenlos frei

Apples neueste Forschung über die Ausführung großer Sprachmodelle auf Smartphones liefert das bisher deutlichste Signal, dass der iPhone-Hersteller plant, mit seinen Konkurrenten aus dem Silicon Valley im Bereich der generativen künstlichen Intelligenz gleichzuziehen.

Das Papier mit dem Titel „LLM im Handumdrehen“ bietet eine „Lösung für einen aktuellen Rechenengpass“, schreiben seine Forscher.

Sein Ansatz „ebnet den Weg für eine effektive Inferenz von LLMs auf Geräten mit begrenztem Speicher“, sagten sie. Inferenz bezieht sich darauf, wie große Sprachmodelle, die großen Datenrepositorys, die Apps wie ChatGPT unterstützen, auf Benutzeranfragen reagieren. Chatbots und LLMs laufen normalerweise in riesigen Rechenzentren mit viel größerer Rechenleistung als ein iPhone.

Das Papier wurde am 12. Dezember veröffentlicht, erregte jedoch größere Aufmerksamkeit, nachdem Hugging Face, eine beliebte Website für KI-Forscher, auf der sie ihre Arbeit präsentieren, hat es hervorgehoben spät am Mittwoch. Es ist der zweite Apple-Artikel über generative KI in diesem Monat und folgt früheren Schritten, um bildgenerierende Modelle wie Stable Diffusion auf seinen benutzerdefinierten Chips laufen zu lassen.

Gerätehersteller und Chiphersteller hoffen, dass neue KI-Funktionen dazu beitragen werden, den Smartphone-Markt wiederzubeleben, der laut Counterpoint Research das schlechteste Jahr seit einem Jahrzehnt mit einem Rückgang der Auslieferungen um schätzungsweise 5 Prozent erlebt hat.

Obwohl Apple bereits 2011 einen der ersten virtuellen Assistenten, Siri, auf den Markt brachte, blieb Apple von der Welle der Begeisterung für generative KI, die das Silicon Valley im Jahr seit der Einführung seines bahnbrechenden Chatbots ChatGPT durch OpenAI erfasst hat, weitgehend außen vor. Viele in der KI-Community sind der Meinung, dass Apple hinter seinen Big-Tech-Konkurrenten zurückbleibt, obwohl das Unternehmen 2018 den Top-KI-Manager von Google, John Giannandrea, eingestellt hat.

Während sich Microsoft und Google weitgehend auf die Bereitstellung von Chatbots und anderen generativen KI-Diensten über das Internet von ihren riesigen Cloud-Computing-Plattformen aus konzentriert haben, deuten Untersuchungen von Apple darauf hin, dass das Unternehmen sich stattdessen auf KI konzentrieren wird, die direkt auf einem iPhone ausgeführt werden kann.

Apples Konkurrenten wie Samsung bereiten sich darauf vor, im nächsten Jahr eine neue Art von „KI-Smartphone“ auf den Markt zu bringen. Counterpoint schätzt, dass im Jahr 2024 mehr als 100 Millionen KI-fokussierte Smartphones ausgeliefert werden, wobei bis 2027 40 Prozent der neuen Geräte solche Funktionen bieten werden.

Der Chef des weltweit größten Herstellers mobiler Chips, Qualcomm-Chef Cristiano Amon, prognostizierte, dass die Einführung von KI in Smartphones ein völlig neues Erlebnis für Verbraucher schaffen und rückläufige Mobilfunkverkäufe umkehren würde.

„Anfang 2024 werden Geräte mit einer Reihe generativer KI-Anwendungsfälle auf den Markt kommen“, sagte er kürzlich in einem Interview mit der Financial Times. „Wenn diese Dinge ausgeweitet werden, beginnen sie, das Benutzererlebnis deutlich zu verändern und neue Innovationen zu ermöglichen, die das Potenzial haben, einen neuen Upgrade-Zyklus bei Smartphones zu schaffen.“

Anspruchsvollere virtuelle Assistenten werden in der Lage sein, Benutzeraktionen wie SMS-Nachrichten oder die Planung eines Meetings zu antizipieren, während Geräte auch über neue Arten von Fotobearbeitungstechniken verfügen werden.

Google hat diesen Monat eine Version seines neuen Gemini LLM vorgestellt, die „nativ“ auf seinen Pixel-Smartphones laufen wird.

Das Ausführen eines großen KI-Modells, das ChatGPT oder Googles Bard antreibt, auf einem persönlichen Gerät bringt enorme technische Herausforderungen mit sich, da Smartphones nicht über die riesigen Rechenressourcen und die Energie verfügen, die in einem Rechenzentrum verfügbar sind. Die Lösung dieses Problems könnte dazu führen, dass KI-Assistenten schneller reagieren als aus der Cloud und sogar offline arbeiten.

Die Sicherstellung, dass Anfragen auf dem eigenen Gerät einer Person beantwortet werden, ohne Daten an die Cloud zu senden, dürfte auch Vorteile für den Datenschutz mit sich bringen, ein wesentliches Unterscheidungsmerkmal für Apple in den letzten Jahren.

„Unser Experiment ist darauf ausgelegt, die Inferenzeffizienz auf persönlichen Geräten zu optimieren“, sagten die Forscher. Apple testete seinen Ansatz an Modellen wie Falcon 7B, einer kleineren Version eines Open-Source-LLM, das ursprünglich vom Technology Innovation Institute in Abu Dhabi entwickelt wurde.

Die Optimierung von LLMs für den Betrieb auf batteriebetriebenen Geräten ist für KI-Forscher immer mehr in den Fokus gerückt. Wissenschaftliche Arbeiten sind kein direkter Hinweis darauf, wie Apple seinen Produkten neue Funktionen hinzufügen will, sie bieten jedoch einen seltenen Einblick in seine geheimen Forschungslabore und die neuesten technischen Durchbrüche des Unternehmens.

„Unsere Arbeit bietet nicht nur eine Lösung für einen aktuellen Rechenengpass, sondern schafft auch einen Präzedenzfall für zukünftige Forschung“, schrieben die Apple-Forscher im Fazit ihrer Arbeit. „Wir glauben, dass LLMs angesichts der zunehmenden Größe und Komplexität Ansätze wie diese von entscheidender Bedeutung sein werden, um ihr volles Potenzial in einer Vielzahl von Geräten und Anwendungen auszuschöpfen.“

Apple reagierte nicht sofort auf eine Bitte um Stellungnahme.



ttn-de-58

Schreibe einen Kommentar