„Fragen Sie sich bei KI: Welches Problem wollen wir damit lösen?“

„Fragen Sie sich bei KI Welches Problem wollen wir damit

Die Philosophin Ajuna Soerjadi setzt sich für den ethisch verantwortungsvollen Einsatz neuer Technologien wie der künstlichen Intelligenz ein. Ihr Kampf gegen Polarisierung und Ausgrenzung hat ihren Ursprung in Kindheitserfahrungen. „Sie sagten zum Beispiel: Was für eine besondere Hautfarbe du hast.“

Fokke Obbema

„Ich bin davon überzeugt, dass künstliche Intelligenz zu einem besseren Leben beitragen kann.“ Aber dann müssen wir uns trauen, die Frage zu stellen: Welches Problem wollen wir damit lösen? „Es wird derzeit alles daran gesetzt, es so schnell wie möglich auf den Markt zu bringen, aber die notwendige Nachfrage wird viel zu wenig nachgefragt.“

Als Philosophin setzt sich die 23-jährige Ajuna Soerjadi kritisch mit dem Aufstieg der künstlichen Intelligenz (KI) auseinander – sie kämpft für ethisch verantwortungsvolle Anwendungen dieser „Systemtechnologie“, wie KI vom Wissenschaftlichen Rat für Regierungspolitik genannt wird ( WRR). Das Wesentliche an einer solchen Technologie ist, dass sie alle Facetten der Gesellschaft durchdringt. Was im 20. Jahrhundert der Verbrennungsmotor war, wird KI in diesem Jahrhundert sein, sagt die WRR.

Im Jahr 2020 gründete Soerjadi als Philosophiestudent im zweiten Jahr das Data Ethics Expertise Center: „Ich habe gesehen, wie so viele Dinge schief gelaufen sind.“ Diskriminierende Wirkungen von KI-Systemen kamen zutage, natürlich in der Sozialhilfeaffäre, aber beispielsweise auch bei Erkennungssoftware, die sich nachteilig auf dunkelhäutige Menschen auswirkte. Die Dokumentation Das soziale Dilemma hat mich sehr beeindruckt, weil es gezeigt hat, wie Facebook und Google mit ihren Algorithmen zur Polarisierung der Gesellschaft beigetragen haben.“ Der Slogan des Kompetenzzentrums: „Nie wieder eine Sozialversicherungsaffäre“.

Als farbige Frau ist sie eine Ausnahme in der von weißen Männern dominierten Tech-Welt. Das gilt auch für ihr Philosophiestudium. Ihr Hintergrund erlaube ihr, sagt sie, eine andere Stimme auszudrücken. Wenn KI-Anwendungen zum Ausschluss von Gruppen führen, wird sie aktiv: „Wenn ich Ungerechtigkeit sehe, muss ich etwas dagegen tun.“ Ich kann nicht schlafen, wenn ich nichts dagegen unternehme.‘

Dieser Drang lässt sich auf ihre Lebensgeschichte zurückführen. Als älteste Tochter einer Nijmegen-Familie mit einem indonesischen Vater und einer brabantischen Mutter hat sie sich schon in jungen Jahren anders gefühlt. Als sie im Alter von 8 Jahren getestet wurde, erwies sie sich als hyperintelligent und landete daraufhin auf einer Leonardo-Schule für Hochbegabte. Das Gefühl des Andersseins wird durch die Freunde ihrer Mutter verstärkt: „Sie sagten zum Beispiel: ‚Was für eine besondere Hautfarbe du hast.‘“ Das fühlte sich für mich nie wirklich wie ein Kompliment an.“

Das Gefühl, anders zu sein, hat sie dazu gebracht, sich in „alle Außenstehenden, jeden, der ausgeschlossen ist, ob es nun ältere Menschen sind, die sich in einer digitalen Welt verloren fühlen, oder farbige Menschen wie ich“ einzufühlen. Mit ihrem Kompetenzzentrum möchte sie sich für KI-Anwendungen einsetzen, die „Inklusivität und Vielfalt“ respektieren.

Warum haben Sie angefangen, Philosophie zu studieren?

„Als ich ungefähr 8 Jahre alt war, habe ich gelesen Der kleine Prinz (vom französischen Schriftsteller Antoine de Saint-Exupéry, Hrsg.). Es enthält eine Zeichnung, die für die meisten Menschen einen Hut darstellt, aber der kleine Prinz sieht eine Boa constrictor, die einen Elefanten gefressen hat. Ich erkannte mich selbst in diesem anderen Blick, in dieser Nichtakzeptanz des Offensichtlichen. Ich habe mit einem Onkel darüber gesprochen. Er sagte: Vielleicht ist Philosophie etwas für Sie. Jahre später, etwa im Alter von 15 Jahren, bekam ich es als Wahlpflichtfach an der High School. Da hat mich die Philosophie wirklich gerettet.

„In den Jahren zuvor war ich in eine Depression verfallen. Ich war traurig über meine jüngere Schwester, die kurz nach ihrer Geburt gestorben war. Damals ließen sich auch meine Eltern scheiden. Ich fragte mich, was der Sinn des Daseins sei, stellte mir große, existenzielle Fragen und fühlte mich sehr einsam. Als ich anfing, Texte von Philosophen wie Platon und Descartes zu lesen, war ich sehr erleichtert. Ich bin nicht verrückt, das haben mich diese Texte gelehrt, über diese Fragen hatten andere schon vorher nachgedacht. Ich habe auch festgestellt, dass ich gut darin bin. Im Alter von 16 Jahren gewann ich mit einem Aufsatz die niederländische Philosophieolympiade und wurde „Junger Denker der Nation“. Das war so ein glücklicher Moment für mich.‘

Was hatten Sie mit Philosophie im Sinn?

„Das wusste ich zunächst nicht. Als ich mich für ein Studium entschied, stieß ich bei meiner Familie und meinen Freunden auf Skepsis. Sie fragten sich, welche Art von Arbeit mir all dieses Denken bringen würde. Ich selbst hatte diese Zweifel auch, es war das Schwierigste, mich davon zu überzeugen. Glücklicherweise erwies sich die Anziehungskraft der Philosophie als zu groß. Im ersten Jahr lernte ich Technikphilosophie kennen. Das hat mich enorm gereizt, denn durch diesen Beruf habe ich verstanden, was es für eine Zukunft braucht, in der sich jeder willkommen fühlt und in der jeder von den Vorteilen des technischen Fortschritts profitieren kann.“

Dieser Fortschritt stößt auch auf Widerstand.

„Ja, das war schon immer so. Platon war mit der Erfindung der Schrift nicht zufrieden. Wenn wir alles aufschreiben würden, würden wir unser Gedächtnis verlieren, dachte er. Heutzutage kann man eine Parallele in der Kritik an Algorithmen erkennen, die Ärzten bei der Diagnosestellung helfen. Es gibt Menschen, die befürchten, dass Ärzte ihre eigenen diagnostischen Fähigkeiten verlieren, weil sie sich auf den Algorithmus verlassen. Tatsache ist, dass ein solcher Algorithmus unendlich mehr Fälle analysieren kann als ein Arzt, der nur seine eigenen Patienten behandelt.

„Seit Jahrhunderten gibt es zwei gegensätzliche Reaktionen auf das Aufkommen neuer Technologien. Es gibt eine Gruppe von Menschen, die darin eine große Gefahr sehen, während andere schreien: Es ist ein Segen für die Menschheit. Das passiert auch bei KI: Manche sagen, dass KI die Welt erobern wird, andere sind super enthusiastisch und unkritisch. Dank der Philosophie habe ich gelernt, diese Extreme zu nuancieren. Meiner Meinung nach basiert keines von beiden auf korrekten Annahmen. Da hilft die Frage: „Wie können wir diese Technologie verantwortungsvoll für die Gesellschaft nutzen?“

Lehnen Sie damit die Vorstellung ab, dass KI den Menschen übertreffen wird?

„Als Philosoph habe ich gelernt, über die grundlegenden Grenzen der KI nachzudenken.“ Einer davon ist, dass ein Algorithmus kein Bewusstsein hat, er kann nichts alleine tun – letztendlich ist es immer ein Mensch, der die Entscheidung trifft. Wenn er dies auf Basis eines Algorithmus tut, wird es für ihn schwierig sein zu sagen, dass er es besser weiß. Die Tendenz besteht darin, dem, was der Computer sagt, Autorität zuzuschreiben.

„Verstehen Sie mich nicht falsch: Ich verstehe sehr gut den Widerstand gegen bestimmte Anwendungen, wie zum Beispiel bestimmte Betrugserkennungssysteme, die wir eigentlich nicht wollen sollten.“ Aber wir sollten uns der Technologie als solcher nicht widersetzen. Es gibt nützliche Anwendungen, etwa Ärzte, die Diagnosen besser stellen können, Legastheniker, die dank Chat GPT fehlerfreie Texte schreiben können oder Menschen, die sich dank eines mehrsprachigen Chatbots an die Tafel trauen. „Ich bin davon überzeugt, dass wir mit KI eine gute Gesellschaft schaffen können, aber wir müssen sehr darauf achten, das Richtige zu tun.“

Was könnte Ihrer Meinung nach schiefgehen?

„Wichtig ist, dass Menschen, die Algorithmen entwickeln, sehr unterschiedliche Hintergründe haben.“ Sie möchten Vielfalt in den Datensätzen, die Sie für einen solchen Algorithmus verwenden, daher sollten Sie die Zusammenstellung dieser Dateien nicht nur weißen Männern überlassen. Sonst kommt es zu Fehlern wie einem Gesichtserkennungssystem, das nur auf Bilder von Weißen trainiert wurde, was farbigen Menschen Probleme bereitete.

„Vielfalt ist daher wichtig, aber auch Inklusivität: Jeder soll von KI profitieren können, Menschen sollen nicht ausgeschlossen werden.“ Ein Bewerbungssystem, bei dem Männer zu einem Vorstellungsgespräch eingeladen werden, Frauen jedoch nicht, ist daher nicht korrekt. Genauso wie die Gefahr eines selbstfahrenden Autos, das eher ältere Menschen trifft, weil der verwendete Datensatz nicht vielfältig ist.“

Solche Probleme scheinen lösbar zu sein.

„Nun ja, in der Praxis geht viel zu oft etwas schief. Ein großes Problem besteht darin, dass KI-Enthusiasten denken, dass Daten oder Algorithmen neutral seien. Das ist ein Missverständnis. Sie werden auf der Grundlage dessen erstellt, was Menschen sammeln und in sie stecken. Deshalb spiegeln sie immer wider, was in der Gesellschaft vor sich geht und sich Ungerechtigkeiten in das System einschleichen können. Nehmen Sie zum Beispiel die Ereignisse in Amsterdam mit der Top-400-Liste der jungen Menschen, bei denen das Risiko besteht, in eine Straftat zu geraten, zumindest laut einem Algorithmus. Dabei handelte es sich hauptsächlich um marokkanische Jugendliche, die sich dort aufhielten. Es gab mehr Verhaftungen in ihren Nachbarschaften, der Algorithmus wurde gelernt, und dann wurden auf der Grundlage des Algorithmus mehr Polizisten in diese Nachbarschaften geschickt, was zu noch mehr Verhaftungen führte – eine Selbstverstärkung Rückkopplungsschleife. Die Idee war gut: junge Leute am Abgleiten zu hindern, aber in der Praxis führte sie zu harten Maßnahmen gegen Menschen, die noch keinen Fehler gemacht hatten. Es gibt viel Potenzial in der KI, aber wir haben noch einen langen Weg vor uns.“

Wie stehen große Technologieunternehmen zu ethischer KI?

„Die kommerziellen Interessen großer Technologiekonzerne passen nicht gut zu ethischen Bedenken.“ Es kostet sie Geld, inklusiv zu sein. Es ist sehr einfach, riesige Datenbanken mit Bildern und Informationen über weiße Männer zu haben. Wenn Sie jedoch eine gute Qualität erhalten möchten, müssen Sie sich bemühen, eine angemessene Menge an Bildern und Informationen von Frauen und Menschen aus Minderheiten in eine solche Datenbank aufzunehmen. Diese müssen Sie sammeln und wenn Sie einen ausgewogenen Datensatz erhalten möchten, müssen Sie viele Daten von Männern wegwerfen. All dies kostet Zeit und Geld, was im Widerspruch zu der Effizienz steht, die große Technologieunternehmen anstreben.

„Meine Hoffnung ist, dass kritische Verbraucher die großen Technologiekonzerne in eine ethischere Richtung drängen.“ Dies kommt ins Spiel, wenn der Imageverlust aufgrund der Arbeit mit schlechten Datensätzen für sie kostspieliger wird als die Kosten, die ihnen für die Verbesserung der Qualität dieser Daten entstehen. Aber wenn man sieht, wie große Unternehmen soziale Medien vermarktet haben, stimmt mich das pessimistisch. Um möglichst viel Gewinn zu machen, müssen ihre Kunden so lange wie möglich auf ihren Plattformen bleiben und um das zu erreichen, wurden durch den Algorithmus allerlei ekelhafte, polarisierende Inhalte vorangetrieben. Wenn man sich anschaut, wie viel Bildschirmzeit die Menschen heutzutage mit sozialen Medien verbringen und wie süchtig sie geworden sind, kommt man zu dem Schluss, dass soziale Medien unser Leben sicherlich nicht besser gemacht haben.“

Was ist dein größter Wunsch?

„Das bringt mich zu meiner Hoffnung, dass sich die Menschen trauen, sich grundlegende Fragen zur KI zu stellen – nicht nur ihren Nutzern, sondern auch ihren Entwicklern.“ Schon bevor man mit der Entwicklung beginnt, sollte die Frage lauten: Welches gesellschaftliche Problem lösen wir damit? Große Tech-Unternehmen haben ihre Produkte auf den Markt geworfen, ohne sich vorher zu fragen, was genau passieren würde, wie wir bei den sozialen Medien gesehen haben. Für mich hätte die Vorfrage lauten müssen: Ist es wünschenswert, dass sie eine so große Rolle in unserem Leben spielen? Ich bin überzeugt, dass wir andere Entscheidungen hätten treffen können.

„In den kommenden Jahren werden neue KI-Anwendungen auf uns zukommen, deren Auswirkungen auf unser Leben weiter zunehmen.“ Den Menschen wird daher bewusst, wie wichtig es ist, verantwortungsvoll mit KI umzugehen. Ich hoffe, dass diese Erkenntnis so kraftvoll wird, dass wir es immer besser machen: nicht nur im Voraus, sondern auch während des gesamten Prozesses. „Technologie ist großartig, aber man muss sich immer darüber im Klaren sein, dass sie unbeabsichtigte Folgen haben kann.“

Buchtipp: Leben in Zeiten der BeschleunigungHartmut Rosa

„Rosa, eine Soziologin mit einer philosophischen Neigung, erklärt, warum wir heutzutage das Gefühl haben, den Tatsachen hinterherzuhinken, obwohl uns viele technologische Werkzeuge zur Verfügung stehen.“ Er plädiert dafür, wirklich mit der Welt in Kontakt zu kommen, Resonanz. Er hat mir beigebracht, dafür offen zu sein.‘



ttn-de-23

Schreibe einen Kommentar