Künstliche Intelligenz hilft, Ihr Gehirn zu lesen

Kuenstliche Intelligenz hilft Ihr Gehirn zu lesen


Skulptur Eline van Strien

Schauen Sie, dort, ein Foto einer schwarzen Dampflokomotive vor einem leicht bewölkten Himmel. Oder sehen Sie sich diesen Teddybären mit seiner lila Schleife an. Alles passiert von dem Moment an, in dem unser Auge die Lokomotive oder den Bären sieht. Die visuelle Wahrnehmung geht zunächst an den Teil des Gehirns, der für die erste, grobe Interpretation zuständig ist: die Linien, die Kontraste. Dann geht es zu anderen Abschnitten, die sich mit komplexeren Informationen befassen, mit Bedeutung. So baut unser Gehirn die präsentierten Informationen grob auf, um schließlich ein aussagekräftiges Bild zu erzeugen.

Das alles spielt sich in unseren Köpfen ab, und Wissenschaftler können heute hineinschauen. Ihre Bemühungen könnten einen besseren Einblick in die Funktionsweise des menschlichen Gehirns liefern und den Weg für neue Techniken ebnen. Gelähmte Patienten, die nicht mehr sprechen können, könnten so über ihre Gedanken mit ihren Angehörigen kommunizieren.

Aber zuerst zurück zu dieser Lokomotive und diesem Teddybär, zwei der vielen Bildmotive, die in a präsentiert wurden jüngsten Experiment von der Universität Osaka in Japan. Sie verwenden fMRT-Messungen, die den genauen Ort der Gehirnaktivität aufzeichnen können. Probanden liegen in einem Scantunnel, während sie sich eine Vielzahl von Bildern ansehen müssen. Diese stammen aus einem bekannten Datensatz von zehntausend Bildern von Menschen, Landschaften und Objekten, einschließlich ihrer Beschreibungen.

Über den Autor

Laurens Verhagen verschreibt de Volkskrant über Technologie, Internet und künstliche Intelligenz.

Im Vergleich zur leichter zugänglichen EEG-Messung (eine Art Badekappe mit Elektroden) lokalisiert ein solches fMRT-Signal genauer, wo eine bestimmte Aktivität stattfindet. In diesem Fall gibt es im Gehirn zwei Bereiche: den, der die visuellen Signale verarbeitet, und den Bereich, der für die Sinneswahrnehmung zuständig ist. Diese Messungen verknüpften die Forscher mit einem bereits trainierten KI-Modell, das aus zehntausend Bildern plus Beschreibungen besteht.

Auf diese Weise konnten die Forscher Verbindungen zwischen den fMRT-Daten aus der visuell orientierten Gehirnregion und den Originalbildern herstellen, die die Menschen betrachteten. Dasselbe taten sie mit den fMRT-Daten der Gehirnregion, die die Bedeutung von Bildern und den vorhandenen Textbeschreibungen der Bilder verarbeitet.

Oben die Originalbilder, unten die Rekonstruktionen aus den fMRT-Daten.  Bild Universität Osaka

Oben die Originalbilder, unten die Rekonstruktionen aus den fMRT-Daten.Bild Universität Osaka

In der bisherigen Forschung wurde nur die erste Art von (visuellen) Informationen verwendet, aber durch die Einbeziehung und Kombination der Daten aus den anderen (textlichen) Gehirnregionen erhalten die Forscher bessere und detailliertere Rekonstruktionen: keine vagen Flecken, sondern ein echter Teddy Bär mit einem Bogen. Auch Forscher der Universität Toulouse kürzlich beschrieben ähnliche Fortschritte mit noch schärferen Bildern.

Links: das Originalbild, 'Testbild'.  Darüber hinaus werden die Rekonstruktionen aus den Gehirndaten der Probanden präsentiert, wobei „Sub Avg“ als Mittelwert interpretiert wird.  Bild Universität Toulouse

Links: das Originalbild, ‚Testbild‘. Darüber hinaus werden die Rekonstruktionen aus den Gehirndaten der Probanden präsentiert, wobei „Sub Avg“ als Mittelwert interpretiert wird.Bild Universität Toulouse

Der Einsatz von fMRI-Messungen ist nicht neu, wohl aber die Verknüpfung sogenannter Diffusionsmodelle mit den Messungen. Dabei handelt es sich um einen Zweig der künstlichen Intelligenz, der in den letzten Monaten unter Namen wie DALL-E, Stable Diffusion und Midjourney der Öffentlichkeit bekannt geworden ist. Diese KI-Programme können Bilder basierend auf Texteingaben generieren.

Marcel van Gerven, Professor für KI an der Radboud University und nicht an diesen beiden Studien beteiligt, ist beeindruckt von den neuesten Ergebnissen: „Das ist ein schöner Schritt hin zu immer besseren Rekonstruktionen.“ Van Gerven selbst tat dies am Donders Institute for Brain, Cognition and Behavior der Radboud University ähnliche Forschungaber ohne die jetzt angesagten Diffusionsmodelle.

Auch Iris Groen, Assistenzprofessorin für Computational Neuroscience an der Universität Amsterdam, lobt die Kombination bestehender fMRI-Messungen mit den neuesten leistungsstarken KI-Modellen. Beeindruckend nennt sie die aus den Gehirnsignalen rekonstruierten Bilder. Sie warnt aber auch: „Die Tatsache, dass die präsentierten und die rekonstruierten Bilder weitgehend übereinstimmen, bedeutet nicht, dass wir jetzt plötzlich genau wissen, wie die Bildverarbeitung in unserem Gehirn funktioniert.“ Die andere Seite der Medaille ist genauso interessant, sagt Van Gerven: „Wie kann man KI-Systeme entwerfen, die sich genauso verhalten wie Menschen, die genauso effizient sind wie unser Gehirn, genauso robust?“

Der nächste Schritt liegt auf der Hand: das echte Gedankenlesen. Steigen Sie in den Scanner und denken Sie über etwas nach, nur ohne visuellen Reiz. Oder: einschlafen und träumen. Kann der Computer dann die Gehirnsignale in etwas Sinnvolles übersetzen? Kann ein generatives KI-Modell daraus einen wunderschönen surrealen Film machen? „Es wird zwar daran geforscht, aber davon sind wir noch weit entfernt“, dämpft Groen zu hohe Erwartungen.

Van Gerven ist ebenfalls vorsichtig, stellt aber gleichzeitig fest, dass die Entwicklungen schnell voranschreiten, nicht nur auf der KI-Seite, sondern auch im Bereich der Messungen. Das Donders Institute hat kürzlich eine Förderung in Höhe von 19 Millionen Euro erhalten, um den weltweit stärksten MRT-Scanner für noch detailliertere Gehirndaten zu bauen.

Rede

Noch einen Schritt weiter gehen sogenannte invasive Messgeräte. Keine EEG-Badekappe oder MRT-Scanner, sondern ein Implantat im Inneren des Schädels, um noch genauere Gehirnmessungen vorzunehmen. Julia Berezutskaya, Forscherin am Donders Institute und UMC Utrecht für sogenannte Gehirn-Computer-Schnittstellen, verwendet diese Art von Implantaten in einem weiteren Versuch, die Gehirnaktivität zu rekonstruieren: keine Bilder, sondern Sprache.

In einer kürzlich durchgeführten Studie von Berezutskaya und ihrem Team fuhren sie per Anhalter mit anderen Arten von Forschung, bei denen Patienten mit schwerer Epilepsie bereits Implantate erhielten. Berezutskaya konnte während ihres siebentägigen Aufenthalts auf der Intensivstation des UMC Utrecht auch Messungen vornehmen. Der große Vorteil: eine „hervorragende Signalqualität“ und damit auch „genaue Decodierergebnisse“.

Ausgangspunkt ist in etwa derselbe wie bei der Recherche, bei der Bilder gezeigt werden, jedoch mit Sprache. Die Probanden lesen insgesamt zwölf niederländische Wörter vor, ausgehend von Jip und Janneke, wie „Großmutter“, „Pick“, „Alle“, „Yip“, „Ich“ und „Hut“. Und auch hier besteht die Kunst darin, dieselben Wörter aus dem empfangenen Gehirnsignal zu entschlüsseln.

Das funktioniert jetzt gut. „Aber die Vorhersage einzelner Wörter anhand von Gehirnsignalen ist natürlich etwas ganz anderes als ganze Sätze“, sagt Berezutskaya. „Das ist immer noch ein großer Schritt, aber kein unmöglicher. Auch zu dieser Art von Forschung kann KI einen wichtigen Beitrag leisten.“ Sie weist auf Sprachmodelle hin, wie sie die breite Öffentlichkeit von ChatGPT kennt. Was diese im Wesentlichen tun, ist jedes Mal das nächste Wort vorherzusagen. Durch den Einsatz dieser Art von KI in Kombination mit detaillierten Gehirnmessungen soll es möglich sein, Sätze zu rekonstruieren.

So beeindruckend die Fortschritte dieser Art von Sprachmodellen auch sind, Berezutskaya sieht noch einige Hindernisse auf dem Weg. Schließlich bleiben sie probabilistische Modelle, Modelle, die auf der Grundlage von Wahrscheinlichkeiten Vorhersagen treffen. „Wir müssen ein Gleichgewicht zwischen Geschwindigkeit und Praktikabilität einerseits und Genauigkeit andererseits finden. Wie oft darf ein Computer einen Satz rekonstruieren, den Sie eigentlich gar nicht sagen wollten?‘

Praktische Anwendungen der Sprachrekonstruktion sind leichter vorstellbar als die von Bildern. Denken Sie an Patienten, die ihren Sprechteil nicht mehr kontrollieren können, weil sie komplett gelähmt sind. Vergleichbare Forschungen in den USA haben bereits einen Sprachcomputer für einen amerikanischen Patienten hervorgebracht, der nach einer Hirnblutung nicht mehr sprechen konnte. Der Unterschied zur niederländischen Studie besteht darin, dass der Patient bei dieser Anwendung Buchstabe für Buchstabe buchstabieren muss.

null Skulptur Eline van Strien

Skulptur Eline van Strien

George Orwell

Der Weg zur Hölle ist mit guten Vorsätzen gepflastert. Mit diesem Sprichwort im Hinterkopf verfolgt Pim Haselager, Professor für KI an der Radboud University, solche Entwicklungen genau. Fantastisch natürlich, wenn gelähmten Patienten mit Neurotechnologie geholfen werden kann, aber Haselager befürchtet auch (kommerziellen) Missbrauch und eine neue Kategorie von Datenschutzproblemen.

„Nichts gehört dir außer den wenigen Kubikzentimetern in deinem Schädel.“ Das Zitat von 1984 von George Orwell ist bedeutsam für Haselager. Das Innere seines Schädels ist der einzige Ort für die Hauptfigur Winston Smith, der noch vor der Einmischung der Gedankenpolizei und der Partei sicher ist. Aber selbst dieser Ort, der vor 75 Jahren als sicher galt, gibt jetzt Informationen preis.

„Man kann die Technologie nicht aufhalten, aber was man tun kann, ist bereits sorgfältig über die Folgen der Neurotechnologie nachzudenken und gegebenenfalls Gesetze zu erlassen.“ Es ist eine schwierige Rolle, die er dabei einnimmt, so der Philosoph selbst: „Ich identifiziere Probleme, die es noch nicht gibt.“

Gleichzeitig ist die Zukunft, in der diese Art von Technologie allgemein verfügbar wird, nicht mehr so ​​weit entfernt. Haselager verweist auf die EEG-Kopfhörer, die Verbraucher schon lange haben kann ein paar hundert Euro kaufen um ihr eigenes Gehirn zu lesen. Sie sehen aus wie seltsame Kopfhörer und viel mehr als das Geben einfacher Befehle ist noch nicht möglich, aber Haselager erwartet, dass sich das ändert. Auch weil das Silicon Valley schon länger auf Gehirn-Computer-Verbindungen achtet, etwa um Geräte blitzschnell direkt mit Gedanken zu bedienen. „Wenn sich Typen wie Elon Musk und Mark Zuckerberg einmischen, dann weiß man, dass es groß werden kann“, prognostiziert Haselager.

Ein kommerzielles EEG-Headset von Emotiv.  Bild emotional

Ein kommerzielles EEG-Headset von Emotiv.Bild emotional

„Wir dürfen nicht denselben Fehler machen wie in den Anfängen des kommerziellen Internets. Wir haben dann unsere Privatsphäre an die großen Tech-Konzerne abgegeben“, sagt der Professor. Er plädiert für die Einführung von Neurorechten als Erweiterung der Menschenrechte. „Was passiert mit unseren Gehirndaten, wenn wir ein solches EEG-Headset aufsetzen? Wer hat Zugriff auf diese Daten? Können Sie diese Art von Technologie zur Lügenerkennung verwenden? Ich denke, man sollte explizit formulieren, was erlaubt ist und in welchem ​​Zusammenhang.“ Er nennt es kognitive Freiheit: das Recht, unsere Gedanken für uns zu behalten.

Van Gerven stimmt zu: „Dank KI schreiten technologische Entwicklungen blitzschnell voran. Die Regierung wird die Grenzen bewachen müssen.‘



ttn-de-23

Schreibe einen Kommentar