Bleiben Sie mit kostenlosen Updates auf dem Laufenden
Melden Sie sich einfach an Künstliche Intelligenz myFT Digest – direkt in Ihren Posteingang geliefert.
Ein New Yorker Richter hat eine Anwaltskanzlei gescholten, weil sie ChatGPT zur Unterstützung ihres Antrags auf „überhöhte“ Anwaltshonorare von bis zu 600 US-Dollar pro Stunde zitiert hatte.
Die Anwaltskanzlei Cuddy hatte sich in einer Erklärung vor Gericht in einem Fall, den sie gegen das Bildungsministerium der Stadt gewonnen hatte, auf das Tool der prädiktiven künstlichen Intelligenz berufen. Darin hieß es, dies habe getan, „um einen Kontext dafür bereitzustellen, was ein Elternteil – wenn ihm ChatGPT-4 offen und verfügbar ist – bei der Recherche mitnehmen könnte, ob er einen Anwalt beauftragen sollte und wen er akzeptieren oder ablehnen sollte“.
Auf die Frage, was ein „angemessener Stundensatz“ wäre, den man von einem Anwalt mit bis zu drei Jahren Erfahrung in einer Anhörung zum Thema Behinderungserziehung erwarten könne, antwortete das große Sprachmodell, dass er „zwischen 200 und 500 US-Dollar pro Stunde liegen könne“, sagte ein Anwalt bei der Firma schrieb.
Er wies auch darauf hin, dass ChatGPT zu dem Schluss kam, dass „Anwälte, die sich auf eine bestimmte Art von Recht spezialisiert haben (wie in diesem Fall Sonderpädagogikrecht), möglicherweise höhere Sätze verlangen“ und dass ein Anwalt mit „25 Jahren Erfahrung“ möglicherweise einen Stundensatz verlangen könnte von bis zu 1.200 US-Dollar „oder sogar mehr“.
Richter Paul Engelmayer, der letztendlich die Honorare für Cuddys Anwälte um mehr als die Hälfte kürzte, bezeichnete die Abhängigkeit der Kanzlei vom KI-Programm als „völlig und ungewöhnlich wenig überzeugend“ und fügte hinzu: „Solange es keinen Paradigmenwechsel in der Zuverlässigkeit dieses Tools gibt, …“ [firm] ist gut beraten, Verweise auf ChatGPT aus künftigen Gebührenanträgen zu streichen.“
Er fügte hinzu: „Wie die Kanzlei hätte erkennen müssen, war es falsch, die Schlussfolgerungen von ChatGPT als nützlichen Maßstab für den angemessenen Abrechnungssatz für die Arbeit eines Anwalts mit einem bestimmten Hintergrund zu betrachten, der einen maßgeschneiderten Auftrag für einen Mandanten in einem Nischengebiet ausführt.“ springen“.
Engelmayer befand auch, dass die von Cuddy in Rechnung gestellte Stundenzahl „überhöht oder unzureichend erläutert“ sei.
Ein Anwalt bei Cuddy sagte: „Die zugrunde liegende Behauptung bezog sich nicht auf die Richtigkeit der Tarife von ChatGPT, sondern darauf, was Eltern als Verbraucher erwarten würden.“[s]” und wies auf die Schwierigkeiten hin, Beweise für die Honorarstrukturen von Anwälten zu sammeln, die an ähnlichen Ansprüchen arbeiten, was selten vorkommt.
Engelmayers Rüge ist die jüngste in einer Reihe von Ermahnungen US-amerikanischer Gerichte an Anwälte wegen des Einsatzes generativer KI. Letztes Jahr verhängte ein Richter am selben Gericht in Manhattan Anwälte mit Sanktionen, weil diese einen mit Hilfe des Tools erstellten Schriftsatz eingereicht hatten, in dem fiktive Fälle zitiert wurden, während gegen einen anderen Anwalt ermittelt wird, weil er sich auf eine von ChatGPT generierte „nicht existierende“ Autorität beruft.
Ein Anwalt von Michael Cohen, einem ehemaligen Anwalt von Donald Trump, entschuldigte sich letzten Monat bei einem Bundesrichter dafür, dass er in einer kurzen Stellungnahme drei fiktive Fälle angeführt hatte, und machte „eine Reihe bedauerlicher Fehler“ dafür verantwortlich.
Ein Berufungsgericht in Texas möchte seine Regeln ändern, um Anwälte zu zwingen, zu erklären, ob bei der Ausarbeitung eines Dokuments ein generatives KI-Programm verwendet wurde, und wenn ja, ob es „von einem Menschen auf Richtigkeit überprüft und genehmigt wurde“.