Richter in England und Wales forderten, den Einsatz von KI in bestimmten Fällen einzuschränken


Schalten Sie den Editor’s Digest kostenlos frei

Hochrangige Richter haben die Justiz in England und Wales gewarnt, den Einsatz künstlicher Intelligenz bei der Durchführung juristischer Recherchen einzuschränken und die Weitergabe von Informationen über Fälle an Online-Chatbots zu vermeiden.

Am Dienstag veröffentlichte offizielle Leitlinien für Richter, Mitglieder von Gerichtsgremien und Richtern betonten das Risiko, dass KI-Tools sachliche Fehler machen oder sich auf Gesetze ausländischer Gerichtsbarkeiten stützen würden, wenn sie um Hilfe bei Fällen gebeten würden.

Sir Geoffrey Vos, der zweithöchste Richter des Landes, sagte, KI biete „große Chancen für das Justizsystem, aber weil es so neu ist, müssen wir sicherstellen, dass Richter auf allen Ebenen es verstehen.“ [it properly]“.

Der Einsatz der Technologie durch die Justiz in England und Wales hat wenig Beachtung gefunden, auch weil Richter nicht verpflichtet sind, die vorbereitenden Arbeiten zu beschreiben, die sie möglicherweise für die Urteilsfällung geleistet haben.

Die Leitlinien machten deutlich, dass Richter KI für einige administrative oder sich wiederholende Aufgaben nützlich finden könnten. Aber seine Verwendung für juristische Recherchen wurde „nicht empfohlen“, außer um Richter an Material zu erinnern, mit dem sie bereits vertraut waren.

„Von KI-Tools bereitgestellte Informationen können ungenau, unvollständig, irreführend oder veraltet sein“, heißt es in den Leitlinien und weist darauf hin, dass sie häufig stark auf den Gesetzen der USA basieren. „Selbst wenn es vorgibt, englisches Recht zu vertreten, ist dies möglicherweise nicht der Fall.“

Meister der Rollen Sir Geoffrey Vos
Meister der Rollen Sir Geoffrey Vos © Lincoln’s Inn

KI hat begonnen, die Anwaltschaft im Allgemeinen auf den Kopf zu stellen, und einige Firmen nutzen die Technologie, um bei der Vertragsgestaltung zu helfen.

Ein viel beachtetes Beispiel für die Gefahren der Nutzung von Gerichtssälen ist die Sanktion gegen einen Anwalt in New York, nachdem er zugegeben hatte, ChatGPT verwendet zu haben, um einen Schriftsatz für einen Fall zu erstellen, der erfundene Zitate und Meinungen enthielt.

Die am Dienstag herausgegebenen Leitlinien warnten auch vor Datenschutzrisiken. Den Richtern wurde gesagt, sie sollten davon ausgehen, dass Informationen, die in einen öffentlichen KI-Chatbot eingegeben werden, „als weltweit veröffentlicht angesehen werden sollten“.

Vos, der Master of the Rolls, sagte, es gebe keinen Hinweis darauf, dass irgendein Justizamtsträger einen Chatbot nach sensiblen fallspezifischen Informationen gefragt habe, und die Leitlinien seien zur Vermeidung von Zweifeln herausgegeben worden.

Er fügte hinzu, dass KI langfristig „erhebliche Chancen für die Entwicklung eines besseren, schnelleren und kostengünstigeren digitalen Justizsystems“ biete.

KI würde nicht zur Unterstützung der Entscheidungsfindung eingesetzt, bis die Justiz „absolut sicher sei, dass die Menschen, denen wir dienen, Vertrauen in diesen Ansatz haben würden – und davon sind wir meilenweit entfernt“.

Lord Justice Birss, stellvertretender Leiter der Ziviljustiz, sagte, es sei möglich, KI zu nutzen, um Richtern bei der Festlegung vorläufiger Kostenschätzungen zu helfen – eine datenintensive und zeitaufwändige Aufgabe.

In dem Dokument heißt es auch, dass einige Prozessparteien, die nicht durch Anwälte vertreten werden, sich auf KI-Tools verlassen, um sich zu leiten, weil es ihnen an professioneller Beratung mangelt.

In den Leitlinien wurde den Richtern empfohlen, Einsendungen zu prüfen, bei denen möglicherweise ein Chatbot zum Einsatz kam, und sie sollten sich auch der Gefahren bewusst sein, die von der „Deepfake“-Technologie ausgehen.



ttn-de-58

Schreibe einen Kommentar