KI-Software dürfte den künftigen Arbeitsalltag von Juristen stark beeinflussen. Einem US-Anwalt aber hat sein Versuch, ChatGPT für sich zu nutzen, nun vor allem Ärger eingebracht.
Die Idee eines Anwalts in New York, den Chatbot ChatGPT bei der Recherche für einen Fall zu verwenden, ist auf spektakuläre Weise schiefgegangen. Ein von ihm eingereichter Antrag enthielt Verweise auf Fälle wie »Petersen gegen Iran Air« oder »Martinez gegen Delta Airlines«, die es nie gegeben hat. Dem Anwalt zufolge wurden die angeblichen Urteile samt vermeintlich passenden Aktenzeichen von ChatGPT ausgegeben.
Die Leichtgläubigkeit gegenüber dem Chatbot könnte für den erfahrenen Anwalt – abgesehen von jeder Menge Häme und Spott auf Plattformen wie Twitter – ernsthafte berufliche Konsequenzen haben. Laut der »New York Times« setzte der zuständige Richter für Anfang Juni eine Anhörung an, in der es um mögliche Folgen gehen soll.
Hintergrund der Posse ist ein Fall, in dem ein Passagier Klage gegen die Fluggesellschaft Avianca einreichte, weil er in einem ihrer Flugzeuge angeblich von einem Servierwagen am Knie verletzt wurde. Die Airline beantragte, die Klage abzuweisen. In einem Gegenantrag aus dem März verwies die Anwaltskanzlei des Klägers auf verschiedene frühere Entscheidungen. Bei sechs davon konnten die Avianca-Anwälte jedoch keine Belege für deren Existenz finden.
Software, die den Anwaltsalltag revolutionieren könnte
Der Klägeranwalt gab nun in einer Stellungnahme unter Eid an, er habe das Gericht nicht täuschen wollen, sondern sich nur auf Zusicherungen von ChatGPT verlassen, dass die erwähnten Fälle authentisch seien. Der Chatbot habe dazu auch Texte angeblicher Urteile ausgegeben, die von seiner Kanzlei dem Gericht im April vorgelegt wurden. Diese Dokumente enthielten ihrerseits Verweise auf Fälle, die sich als frei erfunden herausstellten. In den USA gibt es Datenbanken mit Urteilen, mit denen der Anwalt die Angaben von ChatGPT hätte selbst überprüfen können.
Chatbots wie ChatGPT befeuern seit einigen Monaten einen neuen Hype um Anwendungen auf Basis künstlicher Intelligenz. Jene Software wird auf Basis gewaltiger Datenmengen trainiert. Experten warnen aber, dass die Programme aufgrund ihrer Funktionsweise auch frei erfundene Informationen ausgeben , die für den Nutzer echt aussehen können. Zugleich wird der Beruf des Anwalts oft als eines der Arbeitsfelder genannt, die von solcher KI-Technologie besonders stark verändert werden könnten, weil die Programme Informationen schnell auswerten und Texte so formulieren können, dass sie wie die von Menschen geschrieben klingen.
Der Anwalt mit den Fake-Fällen, über den man sich nun nicht nur in seiner Branche lustig macht, verfügt laut der »New York Times« über drei Jahrzehnte an Berufserfahrung in New York. Dem Bericht zufolge versprach der Mann, sich in Zukunft nicht mehr auf ChatGPT zu verlassen, ohne sich selbst eindeutig von der Echtheit der Daten zu überzeugen. Den Artikel der Zeitung wollte er nicht kommentieren.
mbö/dpa





