Die Gefahren, KI auf Finanzen loszulassen

Die Gefahren KI auf Finanzen loszulassen


In den letzten Jahrzehnten hat sich im Finanzwesen eine Reihe von unverwechselbaren Ritualen rund um das als „Fedspeak“ bekannte Phänomen herausgebildet. Immer wenn ein Zentralbanker einen Kommentar abgibt, beeilen sich Ökonomen (und Journalisten), ihn zu analysieren, während Händler Anlagewetten platzieren.

Aber wenn Ökonomen der Richmond Fed Recht haben, könnte sich dieses Ritual bald ändern. Sie haben kürzlich das generative KI-Tool ChatGPT gebeten, Fed-Aussagen zu analysieren, und abgeschlossen dass es „zeigt[s] eine starke Leistung bei der Klassifizierung von Fedspeak-Sätzen, besonders wenn sie fein abgestimmt sind.“ Darüber hinaus „übertrifft die Leistung von GPT-Modellen die anderer gängiger Klassifizierungsmethoden“, einschließlich der sogenannten „Stimmungsanalyse“-Tools, die jetzt von vielen Händlern verwendet werden (die durch Medienreaktionen knirschen, um Märkte vorherzusagen).

Ja, Sie haben richtig gelesen: Laut einigen Mitarbeitern der Fed könnten Roboter jetzt besser darin sein, die Gedanken von Jay Powell, dem Vorsitzenden der Fed, zu entschlüsseln als andere verfügbare Systeme.

Ist das eine gute Sache? Wenn Sie ein Hedgefonds sind, der nach einem Wettbewerbsvorteil sucht, könnten Sie „Ja“ sagen. Das gleiche gilt, wenn Sie ein Finanzmanager sind, der hofft, Ihr Personal zu rationalisieren. Das Richmond-Papier betont, dass ChatGPT derzeit nur unter menschlicher Aufsicht verwendet werden sollte, da es zwar 87 Prozent der Fragen in einem „standardisierten Test des Wirtschaftswissens“ richtig beantworten könne, aber „nicht unfehlbar“ sei [and] kann immer noch Sätze falsch klassifizieren oder Nuancen nicht erfassen, die ein menschlicher Bewerter mit Fachkenntnissen erfassen könnte“.

Diese Nachricht wird in der widergespiegelt Torrent mit anderen Finanz-KI-Papieren Jetzt purzeln die Analyseaufgaben aus Aktienauswahl Zu Wirtschaftsunterricht. Obwohl diese anmerken, dass ChatGPT Potenzial als „Assistent“ haben könnte, um das Richmond-Papier zu zitieren, betonen sie auch, dass das Verlassen auf KI manchmal fehlschlagen kann, teilweise weil ihr Datensatz begrenzt und unausgewogen ist.

Dies könnte sich jedoch ändern, wenn sich ChatGPT verbessert. Also – nicht überraschend – etwas davon neue Forschung warnt auch davor, dass die Arbeitsplätze einiger Ökonomen bald bedroht sein könnten. Was natürlich Kostensenker (wenn auch nicht die eigentlichen Humanökonomen) erfreuen wird.

Wenn Sie jedoch eine andere Perspektive auf die Auswirkungen erhalten möchten, lohnt es sich, einen Blick darauf zu werfen vorausschauendes Papier on AI, gemeinsam geschrieben von Lily Bailey und Gary Gensler, dem Vorsitzenden der Securities and Exchange Commission, im Jahr 2020, als er Akademiker am MIT war.

Das Papier hat damals kein großes Aufsehen erregt, aber es ist bemerkenswert, da es argumentiert, dass die generative KI zwar erstaunliche Vorteile für die Finanzen bringen könnte, aber auch drei große Stabilitätsrisiken mit sich bringt (ganz abgesehen von der aktuellen Sorge, dass intelligente Roboter dies möglicherweise wollen töte uns, was sie nicht ansprechen.)

Einer ist die Undurchsichtigkeit: KI-Tools sind für alle außer ihren Schöpfern absolut mysteriös. Und obwohl es theoretisch möglich sein könnte, dies zu korrigieren, indem von KI-Erstellern und -Benutzern verlangt wird, ihre internen Richtlinien auf standardisierte Weise zu veröffentlichen (wie die Tech-Koryphäe Tim O’Reilly sinnvoll vorgeschlagen hat), scheint dies in absehbarer Zeit nicht der Fall zu sein.

Und viele Anleger (und Aufsichtsbehörden) würden Schwierigkeiten haben, solche Daten zu verstehen, selbst wenn sie auftauchen würden. Daher besteht ein steigendes Risiko, dass „unerklärliche Ergebnisse dazu führen können, dass Entwickler, Vorstandsmitglieder und Aufsichtsbehörden weniger in der Lage sind, Modellschwachstellen zu antizipieren [in finance]“, wie die Autoren schreiben.

Das zweite Problem ist das Konzentrationsrisiko. Wer auch immer die aktuellen Kämpfe zwischen Microsoft und Google (oder Facebook und Amazon) um Marktanteile in der generativen KI gewinnt, es ist wahrscheinlich, dass nur ein paar Spieler zusammen mit einem (oder zwei) Rivalen in China dominieren werden. Auf dieser KI-Basis werden dann zahlreiche Dienste aufgebaut. Aber die Gemeinsamkeit jeder Basis könnte zu einem „Anstieg von Monokulturen im Finanzsystem führen, da Agenten mit denselben Metriken optimieren“, wie das Papier feststellte.

Das bedeutet, wenn ein Fehler in dieser Basis auftaucht, könnte er das gesamte System vergiften. Und selbst ohne diese Gefahr neigen Monokulturen dazu, digitale Herden zu schaffen, oder Computer, die sich alle gleich verhalten. Dies wiederum erhöht das prozyklische Risiko (oder sich selbst verstärkende Marktschwankungen), wie Mark Carney, ehemaliger Gouverneur der Bank of England, hat gemerkt.

„Was wäre, wenn ein generatives KI-Modell, das Fedspeak hört, einen Schluckauf hätte? [and infected all the market programs]?” Gensler sagt es mir. „Oder wenn der Hypothekenmarkt sich alle auf dieselbe Basisschicht verlässt und etwas schief gelaufen ist?“

Das dritte Thema dreht sich um „Regulierungslücken“: ein Euphemismus für die Tatsache, dass Finanzaufsichtsbehörden schlecht gerüstet zu sein scheinen, um KI zu verstehen oder gar zu wissen, wer sie überwachen sollte. Tatsächlich hat es seit 2020 bemerkenswert wenig öffentliche Debatten über die Probleme gegeben – obwohl Gensler sagt, dass die drei, die er identifiziert hat, jetzt ernster und nicht weniger ernst werden, da sich die generative KI vermehrt und „echte Risiken für die Finanzstabilität“ schafft.

Dies wird die Finanziers nicht davon abhalten, ChatGPT in ihrem Versuch, Fedspeak zu analysieren, Aktien auszuwählen oder irgendetwas anderes, zu nutzen. Aber es sollte Anlegern und Aufsichtsbehörden zu denken geben.

Der Zusammenbruch der Silicon Valley Bank lieferte eine erschreckende Lektion darüber, wie technische Innovationen das Finanzwesen unerwartet verändern können (in diesem Fall durch die Intensivierung des digitalen Hütens). Die jüngsten Flash-Crashs bieten eine weitere. Allerdings sind diese wohl ein kleiner Vorgeschmack auf die Zukunft viraler Feedback-Loops. Die Regulierungsbehörden müssen aufwachen. Das müssen auch Investoren – und Fedspeak-Süchtige.

[email protected]



ttn-de-58

Schreibe einen Kommentar