Die verstorbene Königin Elizabeth II. (1926-2022) war nicht gerade für ihre pikanten Aussagen bekannt. Als Symbol der britischen Monarchie wurde von ihr politische Neutralität erwartet. Viel offener als beim Staatsbesuch von US-Präsident Donald Trump im Jahr 2018, als sie eine von den Obamas gestiftete Brosche trug, war sie meist nicht.
Doch für die Zunft der Ökonomen machte die Königin eine berühmte Ausnahme, als sie Anfang November 2008, kurz nach Ausbruch der Kreditkrise, die London School of Economics besuchte. Als Elizabeth auf eine Reihe alarmierender Grafiken blickte, die die wachsende Instabilität des Finanzsystems in den Jahren vor der Krise verdeutlichen, fragte sie: „Warum hat das niemand kommen sehen?“
Über den Autor
Jonathan Witteman ist Wirtschaftsreporter für de Volkskrant und schreibt unter anderem über soziale Sicherheit, Ungleichheit und Technologie.
Diese Frage hat seitdem bei Ökonomen zu vielen Überlegungen geführt. Beispielsweise machte die British Academy, eine noble wissenschaftliche Gesellschaft, eine „Psychologie der Verleugnung“ in Bank- und Politikkreisen dafür verantwortlich, dass die Menschen zu der Überzeugung gelangt seien, dass „Finanzzauberer clevere neue Methoden zum Risikomanagement entwickelt hätten“.
Die französische Ökonomin Hélène Rey (1970) hat auf die Frage der Königin eine ganz andere Antwort: Denn Ökonomen sind Menschen, keine Maschinen. Die Menschen sind so schlecht darin, Finanzkrisen vorherzusagen, dass sie Hilfe gebrauchen könnten maschinelles Lernen.
Online-Kaffeesatz
Zusammen mit zwei Kollegen entwickelte Rey eine Art computergesteuertes Nostradamus, das Kaffeesatz betrachtet, indem es eine Flut aktueller Zahlen wie Immobilienpreise, Aktienkurse, Zinssätze, Kreditwachstum, Kapitalflüsse usw. kombiniert. Maschinelles Lernen sollte es den Regulierungsbehörden ermöglichen, einen finanziellen Einbruch wie bei der Kreditkrise oder der Weltwirtschaftskrise drei Jahre im Voraus vorherzusehen, sagt Rey, der noch keine neue systemische Krise am Horizont sieht.
„Als Menschen waren wir im Laufe der Jahrhunderte durchweg schlecht darin, viele verschiedene wirtschaftliche Faktoren gleichzeitig im Auge zu behalten“, sagt Rey, Professor an der London Business School. Letzten Freitag war sie zum niederländischen Wirtschaftstag in Den Haag, wo sie den Tinbergen-Vortrag hielt.
„Wir können einzelne Alarmsignale wahrnehmen, etwa hohe Immobilienpreise, Handelsdefizite oder Bankschulden.“ Allerdings gelingt es den Vorgesetzten im Allgemeinen nicht, Dutzende Variablen ständig im Auge zu behalten. Besorgniserregend, da Krisen sehr schädliche Ereignisse sind, die oft erhebliche wirtschaftliche und politische Folgen haben, wie die 1930er Jahre gezeigt haben.“
Um Krisen vorherzusagen, müssen wiederkehrende Alarmsignale vorliegen. Was hatten die großen Krisen der Vergangenheit gemeinsam?
„Natürlich verlaufen Krisen in jeder Zeit etwas anders und können von Land zu Land unterschiedlich sein. Aber dank des tollen Buches Diesmal ist es anders Von Carmen Reinhart und Kenneth Rogoff wissen wir beispielsweise, dass Krisen oft ungewöhnliche Hauspreissteigerungen vorausgehen. Und dass Banken oft in Schwierigkeiten geraten, sobald die Immobilienblase platzt. Es gibt also wiederkehrende Signale. Wenn wir sie rechtzeitig erkennen, können wir viel Leid verhindern.“
Ihre Erfindung sei nicht unfehlbar, warnen Sie: Sie könne Cyberangriffe und Pandemien nicht vorhersagen, obwohl sie auch Krisen auslösen können. Sind Kryptowährungen ein weiterer blinder Fleck in Ihrem Modell?
„Maschinelles Lernen erfolgt durch die Versorgung von Modellen mit Daten.“ Es liegen einfach keine Daten zu einer Systemkrise aufgrund eines Cyberangriffs vor, da eine solche noch nie aufgetreten ist. Aber es könnte passieren. Mit Bitcoin ist es genauso: Es gibt sie erst seit kurzer Zeit, daher gibt es nur wenige Daten, mit denen man trainieren kann.“
„Obwohl bei Kryptowährungen viele Alarmglocken läuten – betrügerisches Verhalten, extreme Preisschwankungen – haben sich die Gefahren bisher nicht wirklich auf den traditionellen Bankensektor ausgeweitet.“ Obwohl dies sicherlich in der Zukunft passieren könnte. Wir müssen etwas kreativ sein, um unsere Modelle darauf zu trainieren. Vielleicht können wir aus der Geschichte der spekulativen Vermögenswerte lernen, die vor der Kryptowährung existierten.“
Der biblische Prophet Jona, der Wal, weigerte sich, die sündigen Niniviten zu warnen, dass Gott ihre Stadt zerstören würde. Er befürchtete, dass Gott sie verschonen würde, wenn sie Buße tun würden, was Jona wie einen falschen Propheten erscheinen ließ. Passiert in Ihrem Fall nicht das Gleiche? Wenn Ihre Erfindung eine Krise drei Jahre im Voraus vorhersagt, haben die Regulierungsbehörden genügend Zeit, damit diese Vorhersage scheitert.
„Das ist genau die Absicht!“ Maschinelles Lernen soll ein Werkzeug sein, mit dem Regulierungsbehörden Krisen verhindern können. „Ich muss kein Nostradamus sein, ich versuche einfach, dem öffentlichen Interesse zu dienen.“