Künstliche Intelligenz vor Gericht: ChatGPT wird neuer „Assistent“ für Selbstvertreter, sorgt aber für Besorgnis bei Richtern

Immer mehr Menschen in Gerichtsverfahren wenden sich an KI-Chatbots wie ChatGPT, in der Hoffnung, dass diese bei rechtlichen Fragen helfen. Experten berichten, dass die Zahl der Bürger, die sich selbst vertreten (sogenannte pro se-Teilnehmer) und KI zur Dokumentenvorbereitung, zur Suche nach rechtlichen Argumenten und sogar zur Simulation von Gerichtsauftritten nutzen, steigt. Hauptgrund ist die hohe Kosten für juristische Dienstleistungen und der Wunsch zu sparen.
Befürworter argumentieren, dass KI hilft, Ungleichheit beim Zugang zur Justiz zu reduzieren: Menschen ohne Anwalt erhalten zumindest grundlegende Hilfe bei der Erstellung von Dokumenten und beim Verständnis von Verfahren. Kritiker warnen jedoch, dass KI juristische Nuancen nicht vollständig erfassen kann, oft Fehler macht und „halluziniert“ – d.h. nicht existierende Verweise auf Gesetze, Gerichtsurteile und Zitate generiert.
Solche Fälle haben bereits zu prominenten Vorfällen geführt. Mehrere US-Anwälte reichten vom KI vorbereitete Dokumente mit fiktiven Präzedenzfällen ein. Die Richter reagierten streng – verhängten Bußgelder und forderten schriftliche Erklärungen.
Ein bemerkenswertes Beispiel ist der Journalist Timothy Burke, der des illegalen Zugriffs auf Fox News-Materialien beschuldigt wurde. In seinem Fall reichten Anwälte Dokumente mit falschen Verweisen und Zitaten ein, die von KI generiert wurden. Der Richter verlangte von den Anwälten eine Erklärung und warnte vor möglichen disziplinarischen Maßnahmen.
Ein weiterer Vorfall ereignete sich vor einem Berufungsgericht in New York, wo ein Teilnehmer einen Video-Avatar nutzte, der von generativer KI erstellt wurde, um sich aus der Ferne darzustellen. Der Richter ordnete sofort die Beendigung der Übertragung an, erlaubte dem Teilnehmer, persönlich zu sprechen, und erklärte, dass es absolut inakzeptabel ist, die KI-Natur eines Teilnehmers zu verschleiern.
Juristische Experten weisen auf die große Diskrepanz zwischen den Vorstellungen normaler Bürger über die Fähigkeiten von KI und den tatsächlichen Gerichtsregeln hin. Das Gerichtssystem verlangt Transparenz, Quellenangaben und Verantwortung für eingereichte Dokumente, was den meisten KI-Nutzern nicht bewusst ist.
Forschung bestätigt, dass „Halluzinationen“ von Sprachmodellen ein ernstes Problem bleiben: Selbst moderne Systeme liefern häufig nicht existierende rechtliche Verweise. Experten warnen, dass das Verlassen auf KI ohne Prüfung inakzeptabel ist – insbesondere im Rechtswesen, wo jeder Fehler schwerwiegende Folgen haben kann.
Mit der Verbreitung der Technologie diskutieren Anwälte und Regulierungsbehörden zunehmend die Notwendigkeit von Regeln für die Nutzung von KI in Gerichten. Experten sind sich einig, dass KI ein nützliches Werkzeug sein kann – aber nur unter strenger Kontrolle, Transparenz und persönlicher Verantwortung für das Ergebnis.
In den kommenden Jahren wird KI wahrscheinlich ihren Platz in der juristischen Praxis finden und jenen helfen, die sich keinen Anwalt leisten können. Der Weg zur offiziellen Anerkennung vor Gericht bleibt jedoch lang: Bevor man KI mit juristischen Aufgaben betraut, muss das System lernen, die Idee der Justiz vor digitalen Fehlern zu schützen.
Sie könnten auch interessiert sein an:
- Nikosia: 28-Jähriger erhält 3 Jahre Haft wegen einer Serie von Überfällen auf Kioske
- Nikosia sucht Projektmanager für die Rekonstruktion der Hauptfußgängerstraßen
- Larnaka hat den Status der Kulturhauptstadt erhalten
- Der erneuerte Markt von Deryneia eröffnet am 27. Dezember: 50 Pavillons, Spielplatz und modernes Design
- Die Europäische Kommission forderte Zypern auf, Mängel bei Rettungsdiensten und der Aufsicht über Flughäfen zu beseitigen

