Die Algorithmen der Gerechtigkeit beinhalten unangenehme Kompromisse

Die Algorithmen der Gerechtigkeit beinhalten unangenehme Kompromisse


Eines der Dinge, die die Politikgestaltung in der modernen Welt erleichtern, ist, dass wir mehr wissen. Wir haben bessere Informationen über Ergebnisse, ein besseres Verständnis dafür, was funktioniert und was nicht, und – dank technologischer Fortschritte – können wir Algorithmen und maschinelles Lernen nutzen, um fundiertere Entscheidungen zu treffen.

Aber besser informierte Entscheidungen sind nicht unbedingt dasselbe wie „bessere Entscheidungen“ und sie sind definitiv nicht dasselbe wie „schmackhaftere“ Entscheidungen.

Nehmen wir zum Beispiel den Fall von Sean Hogg, der Ursache für einen jüngsten politischen Streit in Schottland. Hogg, der im Alter von 17 Jahren ein 13-jähriges Mädchen vergewaltigte, wurde zu 270 Stunden gemeinnütziger Arbeit verurteilt, weil die Richter gemäß den schottischen Richtlinien zur Strafzumessung angewiesen sind, das Alter des Täters zu berücksichtigen.

Verurteilungsrichtlinien sind in vielerlei Hinsicht die häufigste Form von „Algorithmen“, die heute in der öffentlichen Ordnung verwendet werden, obwohl wir sie oft nicht so sehen. Wir führen eine Reihe von Datenpunkten – die Art des Verbrechens, die Umstände der Straftat, verschiedene biografische Details über den Täter und das Opfer – in die Maschine ein, um eine Reihe von Optionen zu erstellen, die der vorsitzende Richter in Betracht ziehen kann.

Der Algorithmus, der das Hogg-Urteil hervorgebracht hat, ist eine gute Fallstudie der umfassenderen Herausforderungen, die mit der Verwendung von Algorithmen in der öffentlichen Ordnung verbunden sind. Wir wissen, dass viele Gefängnisse als „Geschäftsschulen“ der Kriminalität fungieren: Sie bieten sozialen Netzwerken und Mentoring-Optionen und einigen Menschen verlassen schwerere Kriminelle than, als sie hineingingen. Als solche, wir haben guten grund Ersttäter nach Möglichkeit nicht ins Gefängnis stecken zu wollen. Und wir wissen auch, dass es zwar keine feste Regel gibt, wann unser Gehirn voll entwickelt ist oder wir „volle Reife“ erreichen, es tritt allgemein in den zwanziger Jahren auf. Es gibt also gute Argumente dafür, bei Ersttätern, insbesondere unter einem bestimmten Alter, weniger Gefängnisstrafen zu verhängen.

Aber viele von uns haben ein instinktives Gefühl, dass es zwar generell vermieden werden sollte, Menschen vorzeitig ins Gefängnis zu schicken, und obwohl ein 17-Jähriger möglicherweise schlechtere Entscheidungen trifft als ein 27-Jähriger, ist jede Vergewaltigung, ganz zu schweigen von der eines Kindes, abscheulich Verbrechen, die besonders streng bestraft werden sollten. Unser vorhandenes Verständnis der Daten sagt eine Sache, aber unsere moralische Intuition sagt eine andere.

Eine Reaktion auf politisches Versagen dieser Art besteht darin, den Algorithmus zu optimieren: die Straflänge zu verlängern oder einige der Schutzmaßnahmen, die wir aufgrund des Alters installiert haben, abzubauen oder zu schwächen. Das ist einer der Gründe, warum der Aufstieg von Algorithmen und Big Data für die öffentliche Ordnung so spannend ist: Wir können Beweise besser nutzen, um unsere Politikgestaltung zu gestalten, und leichter verstehen, warum wir zu einer Schlussfolgerung gelangt sind, die uns nicht gefällt.

Aber obwohl Strafvollzugsrichtlinien ein gutes Beispiel für algorithmische Logik in der öffentlichen Ordnung sind, sind sie in gewisser Hinsicht eines der einfachsten Beispiele. Wir mussten immer abwägen zwischen Bestrafung, Abschreckung, Reife der Straftäter und Rehabilitierung im Strafvollzug. In vielerlei Hinsicht verleiht die Technologie diesen alten Debatten ein neues Maß an Präzision. Während die politischen Entscheidungsträger seit langem uneins über das richtige Gleichgewicht zwischen individueller Verantwortung, Verringerung der Gesamtkriminalität und Gerechtigkeit für bestimmte sind, können wir jetzt die genaue Gewichtung diskutieren, die jedem gegeben werden sollte: selbst wenn wir zu dem Schluss kommen, dass die Antwort in bestimmten Fällen „überhaupt keine“ lautet wie Hoggs.

Komplexer wird es, wenn wir über bessere Informationen verfügen, die das Potenzial haben, nicht nur unsere Informiertheit, sondern auch die Debatte über die von uns getroffenen Entscheidungen zu verändern. Wir wissen zum Beispiel, dass es in jedem Gesundheitssystem ein gewisses Maß an Triage gibt: Kliniker treffen Entscheidungen über die Lebensfähigkeit des einen oder anderen Patienten, einen Empfänger einer Organspende gegenüber einem anderen. Was, wenn die Daten zeigen, dass wohlhabendere Menschen eher von einer Organspende profitieren, gerade wegen ihrer wirtschaftlichen Vorteile? Sollen wir das in unsere Entscheidungsprozesse einbeziehen oder nicht?

Der große Vorteil des Zeitalters besserer Informationen und besserer Werkzeuge, mit denen man damit umgehen kann, besteht darin, dass wir die Folgen unserer Entscheidungen in größerem Umfang als je zuvor quantifizieren können. Aber es ändert nichts an der Tatsache, dass wir oft zwischen Ergebnissen wählen müssen, die uns nicht gefallen, und dass neue Datenquellen uns zwar besser informieren können, aber auch unsere Entscheidungen auf eine Weise beeinflussen können, die uns nicht gefällt.

Eine Versuchung für Regierungen wird darin bestehen, diese Debatten hinter verschlossenen Türen zu führen: Unbestimmt darüber zu sein, was die Daten uns sagen, und Algorithmen im Geheimen anzupassen. Aber ein Vorteil der Ära von Big Data ist die Fähigkeit, Entscheidungen auf eine überlegtere Art und Weise zu treffen – um klar zu diskutieren, welche Kompromisse damit verbunden sind. Dafür lohnt es sich zu kämpfen.

[email protected]



ttn-de-58

Schreibe einen Kommentar