US-Richter-Skandal: KI erzeugt falsche Urteile
Zwei Bundesrichter gaben zu, KI für fehlerhafte Entscheidungen verwendet zu haben.

Henry T. Wingate aus Mississippi und Julien X. Neals aus New Jersey gaben zu, dass ihre Büros Perplexity AI und ChatGPT einsetzten, was zu erfundenen Zitaten, falschen Namen und nicht existierenden Fällen führte.

Der Justizausschuss des Senats untersucht die Vorfälle. Senator Chuck Grassley (Rep, Iowa) bezeichnete sie als "beispiellos" und die mangelnde Transparenz "atemberaubend". Er forderte alle Richter auf, Regeln gegen KI-Missbrauch zu erlassen.

Wingate, ernannt von Reagan 1985, bearbeitete eine Klage gegen ein Gesetz im Bunddesstaat Mississippi, das Unterricht zu "Transgender-Ideologie" und Diversität verbietet. Sein vorläufiges Verbot enthielt erfundene Kläger, Beklagte und Zitate.

Neals, ernannt von Biden 2021, entschied in einer Wertpapierklage gegen CorMedix. Sein Urteil enthielt gefälschte Fälle und Zitate, die ein Praktikant mit ChatGPT «recherchierte». Neals verbot inzwischen KI in seinem Büro.

Die Fehler ähneln KI-"Halluzinationen", bei denen Tools Fakten erfinden. KI-Nutzung im Justizsystem nimmt zu, doch Richtlinien hinken hinterher. Das Administrative Office of the U.S. Courts gab im Juli vorläufige Leitlinien heraus und richtete eine Task Force ein.

Ganzer Text der Washington Post (Abo)