Justiz

Wo könn(t)en KI-Systeme unterstützen?

Neutralere Urteile, schnellere Entscheidungen, effektivere Prozesse – die Potenziale für KI-Systeme in der Justiz sind groß. Doch die Technologie setzt hier an einer Stelle an, an der äußerst sensible Daten verarbeitet werden. KI im Rechtswesen einzusetzen, bedeutet deshalb, hohen Anforderungen gerecht werden zu müssen. Und ohne Akzeptanz der Bevölkerung ist es überhaupt nicht denkbar. Das Vertrauen in eine unabhängige sowie gerecht arbeitende Justiz ist Grundvoraussetzung für eine funktionierende Demokratie. Der AI Act der Europäischen Union stuft KI-Systeme in der Justiz deshalb als Hochrisiko-Anwendungen ein. Die konkrete Ausgestaltung der EU-Verordnung steht noch aus. Expertinnen und Experten der Plattform Lernende Systeme geben Empfehlungen.

Kann KI die Überlastung im Rechtswesen verringern?

Das Justizsystem in Deutschland ist überlastet: Zwischen 2021 und 2023 ist die Zahl der offenen Strafverfahren um knapp 30 Prozent gestiegen, so der Deutsche Richterbund. In den kommenden Jahren gehen viele Richterinnen und Richter sowie Staatsanwälte und -anwältinnen in den Ruhestand. Ihre Zahl wird also signifikant abnehmen. KI-Systeme könnten Prozesse beschleunigen, die Bearbeitung vereinfachen. Sie versprechen mehr Effizienz im Rechtswesen. Demgegenüber stehen aktuell noch qualitative Schwächen von KI-Systemen in Rechtsanwendungen sowie ethische und rechtliche Bedenken.

Smart Sentencing – Gerechte Strafzumessung

Frauke Rostalski, Professorin für Strafrecht an der Universität zu Köln und Mitglied der Plattform Lernende Systeme (PLS), hat in einem Forschungsprojekt einen Prototyp für eine Software entwickelt, die zu einer gerechten Strafzumessung beitragen soll. Die KI-Anwendung kann in Urteilen erkennen, welche Erwägungen für die jeweilige Strafzumessung aufgeführt werden und die Urteile dahingehend durchsuchbar machen. Die Software wird nun in größerem Umfang an ihrem Lehrstuhl und mittels maschinellen Lernens weiterentwickelt. Der Lehrstuhl ist dabei für die rechtlichen Aspekte des Projektes verantwortlich sowie für die Beschaffung von Strafurteilen. Die technische Umsetzung erfolgt durch das Fraunhofer Institut für Intelligente Analyse- und Informationssysteme (Fraunhofer IAIS). Rostalski im Interview mit der PLS: „Solche Anwendungen können die Effizienz und Geschwindigkeit der Justiz erhöhen und Richterinnen und Richter bei ihrer Arbeit entlasten.“

Wem KI in Rechtsfragen nutzen kann

KI-Systeme im Rechtswesen lassen sich nach je nach Einsatzzweck in vier Kategorien einteilen: Systeme für Privatpersonen, für Kanzleien, Anwältinnen und Anwälte sowie zur Unterstützung von Gerichten. Die vierte Kategorie gruppiert Anwendungen, die (teils)autonome Entscheidungen treffen. Hier tritt KI also als Entscheidungsträgerin auf. Die Anforderungen an die Systeme steigen mit dem Grad an Einfluss auf Entscheidungen, die KI in den Systemen hat. Als bedeutsamste Herausforderung kristallisiert sich die (mangelhafte) Qualität der Trainingsdaten heraus. Dies birgt die Gefahr ungerechtfertigter Diskriminierungen durch KI. Aufgrund mangelnder Digitalisierung in der Justiz mangelt es auch an Trainingsdaten.

  • Zur Unterstützung von Gerichten

  • Für Privatpersonen

  • Für Kanzleien, AnwältInnen

  • Als (teil-)autonome Entscheidungsträgerin

KI zur Unterstützung von Gerichten

In diesem Bereich sind Gefahren, Sorgen und Vorbehalte am größten. Die KI-Verordnung der EU stellt für diesen Einsatz besonders hohe Anforderungen. Auch die Potenziale sind besonders groß. Denkbar sind folgende Einsatzfelder.

Datenrecherche und intelligente Analyse vorhandener Informationen

Intelligente und automatisierte Gerichte und Gerichtssäle

Aufbau von Strafzumessungsdatenbanken mit KI

(Vorhersagebasierte) Unterstützungssysteme für richterliche Entscheidungen

KI für Privatpersonen

Die meisten Menschen stehen als juristische Laien vor offenen Fragen, wenn es zu einem rechtlich relevanten Konflikt kommt. Eine erste Einschätzung erfolgt im Sinne einer „juristischen Selbsthilfe“ oft über Anfragen an Suchmaschinen.

Potenziale:
An dieser Stelle können KI-basierte Expertensysteme unterstützen. In Kombination mit Methoden der KI-Sprachverarbeitung können sie umgangssprachlich formulierte Fragen der Nutzerinnen und Nutzer verarbeiten, aus juristischen Dokumenten relevante Informationen extrahieren und Antworten oder Informationen über anwaltliche Leistungen anbieten. Chatbots können auch Formulare, Dokumente oder Nachrichten bereitstellen, um Kundenrechte einzufordern – etwa von Fluggästen gegenüber Fluglinien. Erste KI-basierte juristische Chatbots gibt es seit einigen Jahren in der praktischen Verwendung.
Die rasante technologische Entwicklung bei großen Sprachmodellen wird das Anwendungsspektrum erweitern, etwa um die Erstellung von E-Mails oder Briefen passend zum individuellen Rechtsfall. Damit haben KI-basierte Assistenzsysteme das Potenzial, den Zugang zum Recht auch für Personen zu vereinfachen, die sich bisher keinen Rechtsbeistand leisten konnten oder sich mit anderen Barrieren, zum Beispiel Sprache, konfrontiert sahen. Voraussetzung dafür ist, das kostengünstige oder frei nutzbare Angebote entstehen.

Herausforderungen und Grenzen:
KI-Systeme können die Methode der Auslegung von Gesetzen in einem bestimmten Fall (noch) nicht vollständig nachbilden. Dieser Vorgang ist für die Rechtsanwendung und -beratung jedoch wesentlich: Das Recht gibt einen Rahmen vor, innerhalb dessen Richterinnen und Richter die Fakten eines Falles bewerten und beurteilen. Dabei spielen nicht objektivierbare Faktoren eine wichtige Rolle: Individuelle Hintergründe der beteiligten Streitparteien, das persönliche Auftreten vor Gericht, wie das Ausbleiben von ehrlicher Reue spielen ebenso hinein wie die unterschiedliche Auslegung zwischen Gerichtsbezirken und einzelnen Richterinnen und Richtern. Eine zusätzliche Rechtsberatung durch Anwältinnen und Anwälte wird KI auf absehbare Zeit nicht ersetzen können.
Für einen Einsatz in der rechtlichen Selbsthilfe sind große Sprachmodelle auch noch zu fehleranfällig: Immer wieder kommt es vor, dass Sprachmodelle wie ChatGPT aufgrund ihrer Funktionsweise Quellen, Urteile oder Paragrafen erfinden. In Kombination mit juristischen Expertensystemen könnte perspektivisch die Richtigkeit von Chatbot-Antworten verbessert werden.

KI für Kanzleien, Anwältinnen und Anwälte

Die anwaltliche Arbeit besteht zu einem großen Teil aus dem Prüfen und Erstellen von Texten. Dazu gehören die Korrespondenz mit Mandantinnen, Mandanten und beteiligten Klageparteien wie auch Anträge bei Gericht oder die Ausgestaltung von Verträgen. Das Verfassen dieser Schriftstücke ist oft Routinearbeit. Sie bindet Ressourcen und erzeugt hohe Kosten für die Mandantinnen und Mandanten.

Potenziale:
Hier können KI-Tools unterstützen, beispielsweise beim Erstellen eines Vertragsentwurfs: Spezifisch trainierte generative KI-Systeme können relevante Informationen aus verschiedenen, oft Tausende von Seiten umfassenden Schriftstücken extrahieren, in einem Dokument zusammenfügen und automatisierte Zusammenfassungen erzeugen. Dies ist besonders hilfreich, wenn es sich dabei um sich wiederholende oder planbare Vorgänge handelt. Voraussetzung dafür ist eine ausreichende Digitalisierung von Dokumenten in den Kanzleien. Außerdem müssen für Fälle wie Unternehmenszusammenschlüsse die verwendeten KI-Systeme innerhalb eines sicheren und isolierten Datenraumes laufen, was die Nutzung von Angeboten wie ChatGPT ausschließt.

Herausforderungen und Grenzen:
Viele Angebote zur Dokumentenerstellung sind Cloud-basierte Tools. Das stellt Nutzende vor wichtige Fragen nach Datenschutz, Vertraulichkeit sowie der Speicherung von Dokumenten und Ergebnissen. Dies ist besonders für Angebote US-amerikanischer oder chinesischer Hersteller von Bedeutung. Sie dominieren den Markt für KI- und Cloud-Services zu großen Teilen und sind durch Gesetze ihrer Länder verpflichtet, auch personenbezogene Daten auf Anordnung von Behörden herauszugeben.
Um eine echte Entlastung für bei der Erstellung von Schriftsätzen zu sein, sind Sprachmodelle wie ChatGPT zumindest auf absehbare Zeit zu fehleranfällig. Der Einsatz von KI-Systemen in Kanzleien könnte zu einer Verschiebung der Marktstruktur und des Wettbewerbs führen. So kann es sein, dass sich nur große, international vernetzte Kanzleien den breiten Einsatz von KI leisten können. Kleinere Anbieter rechtlicher Dienstleistungen würden möglicherweise an den Marktrand gedrängt, was negative wettbewerbliche Folgen hätte. Umgekehrt ist auch denkbar, dass kleinere Kanzleien mit KI-Anwendungen die Chance erhalten, die teils monopolistische Marktstruktur der großen Kanzleien aufzubrechen.

KI als (teil)autonome Entscheidungsträgerin

In diesem Szenario ist KI nicht mehr darauf beschränkt, Richterinnen und Richter zu unterstützen, sondern tritt als eigenständiger Akteur mit weitreichenden Befugnissen auf. In einigen Ländern kommen bereits Prototypen solcher Systeme zum Einsatz. Das Oberste Volksgericht in Shanghai pilotiert ein Assistenzsystem, das Richterinnen und Richter umfassend in der Fallbearbeitung unterstützt. Das System basiert auf 35 Einzelsystemen, darunter Hilfssysteme für die Bearbeitung von Fällen, für die Erstellung von Urteilsdokumenten und für automatisierte Prozesssysteme. Ziel ist es, die Gerichte sowie die Richterinnen und Richter vor allem bei Zivil- und Verwaltungsfällen zu entlasten, die etwa 70 Prozent der verhandelten Fälle ausmachen. Bisher ist auch hier nicht vorgesehen, dass KI eigenständig Urteile fällt oder Richterinnen und Richter ersetzt.

Potenziale:
Der Einsatz einer derartigen Software, die menschliche Entscheidungen ersetzt, könnte Verfahren beschleunigen, Kosten senken und die Effizienz des Rechtswesen steigern.

Herausforderungen und Grenzen:

Lore ipsum xxxxx:

  • Einschränkungen durch das Grundgesetz: Eine vollautomatisierte Rechtsprechung ist in Deutschland rechtlich nicht möglich. Der Einsatz von Algorithmen zur abschließenden Entscheidungsfindung anstelle der Richterin oder des Richters als natürlicher Person ist mit dem Grundgesetz nicht vereinbar.
  • Objektivität: Durch KI getroffene Urteile hätten prinzipiell die Chance, Entscheidungen unparteiischer und damit fairer zu treffen. Diese Möglichkeit hat allerdings zwei grundsätzliche Probleme: Zum einen bildet die gewünschte Objektivität von KI-Entscheidungen im Grunde nur die Realität vergangener Urteile ab und nimmt deshalb notwendigerweise die in diese Urteile eingeflossenen Emotionen oder Vorurteile als Verzerrung mit. Auch eine KI-Entscheidung wäre dann nicht wirklich objektiv. Zum anderen muss die Frage gestellt werden, ob eine rein sachliche Objektivität im Sinne der Rechtsprechung überhaupt gewünscht ist und ob nicht menschliche Fähigkeiten zur Abwägung von Kontextfaktoren bei der Urteilsfindung eine Rolle spielen müssen.
  • Transparenz: KI-Entscheidungen sind in der Regel aufgrund der komplexen zugrundeliegenden Systeme nicht transparent. Für die Beteiligten und Betroffenen es ist also nicht nachvollziehbar, wie eine Entscheidung genau zustande gekommen ist. Die Aufgabe von Richterinnen und Richtern erschöpft sich aber nicht allein im Fällen von Urteilen. Im Laufe des Prozesses und in der Entwicklung eines Urteils nehmen sie auch eine Rolle als Kommunikatorin oder Kommunikator von rechtlichen Grundsätzen ein. Sie bringen Betroffenen das Recht näher und begründen dessen Auslegung im konkreten Rechtsfall. Entscheidungen von Richterinnen und Richtern sind so für die beteiligten Parteien oder wenigstens deren Rechtsbeistände einsichtig, was unter anderem die Möglichkeit für Einsprüche gibt. Ein „Roboter-Richter“ kann diese Funktion nicht abbilden. Das könnte langfristig das Vertrauensverhältnis zwischen Bürgerinnen und Bürgern und dem Staat untergraben. Auch erschwert diese Intransparenz das Aufdecken möglicher Manipulationen an den KI-Systemen.
  • Rechtsverständnis: KI-Systeme lernen aus Datensätzen der Vergangenheit und reproduzieren die dort erkannten Muster. Bei der Entwicklung des Rechtsverständnisses und der Rechtsprechung spielen Urteile der Vergangenheit sowie Präzedenzfälle eine wichtige Rolle. Recht verändert sich aber auch durch Entscheidungen, die Präzedenzfälle revidieren oder neue Auslegungen von Gesetzen hinzufügen. Würden große Teile der Rechtsprechung auf KI-Automatisierung basieren, würde sich die gewichtige Frage stellen, wie sich das Recht (-system) noch weiterentwickeln kann. Eine allein auf Reproduktion beschränkte Rechtsprechung hätte so beispielsweise keine Möglichkeit, sich auf sich weiterentwickelnde Lebensbedingungen anzupassen.

Was ist zu tun?

So groß die Potenziale von KI-Systemen im Rechtswesen sind, so groß sind auch die Herausforderungen. Sie müssen gestaltet werden. Expertinnen und Experten der Plattform Lernende Systeme geben hierzu folgende Empfehlungen an Entscheiderinnen und Entscheider in Politik und Wissenschaft:

  • Demokratische Partizipation gestalten: Die Gesellschaft muss in einem offenen und gleichberechtigten Aushandlungsprozess eine Entscheidung treffen, ob und in welchem Umfang sie KI-Unterstützung im und für das Rechtssystem möchte. Dieser Diskurs muss ergebnisoffen geführt werden und Sorgen wie Vorbehalte ernst nehmen.
  • KI ist nicht gleich KI – Unterschiedliches im Diskurs trennen: Im Rahmen der Entscheidungsfindung sollten Bemühungen getroffen werden, um Mythen, Vorbehalte und Sorgen abzubauen. Dafür sind Aufklärung und Medienbildung der Gesellschaft wichtig.
  • Menschliche (Letzt-)Entscheidung sicherstellen: Um die Sorge zu nehmen, Maschinen könnten weitreichende Entscheidungen über menschliche Individuen treffen, könnte das Recht verankert werden, als Angeklagte oder Angeklagter KI-Beiträge für die Urteilsfindung ablehnen zu dürfen – ohne negative Konsequenzen fürchten zu müssen. Denkbar ist auch, KI-Beiträge für Revisionen auszuschließen.
  • Notwendige Investitionen bereitstellen: Die Entwicklung von KI-Systemen für die Justiz und der Aufbau einer entsprechenden Dateninfrastruktur erfordern umfangreiche personelle und finanzielle Ressourcen. Dabei muss die Unabhängigkeit der Justiz von privaten Entwicklern sichergestellt werden. Bund und Länder müssen diese Ressourcen bereitstellen.
  • Geeignete Governance-Struktur für KI-Entwicklung aufbauen: Zur Sicherstellung der Gewaltenteilung müssten die Entwicklung und der Einsatz von KI-Systemen, die umfangreichen Einfluss auf Gerichtsentscheidungen haben, durch die Judikative selbst betreut werden. Es sollte deshalb ein Rahmen an Regeln, Prozessen und Praktiken aufgebaut werden, um die Mittel zu lenken und zu kontrollieren, die durch Bund und Länder bereitgestellt werden.
  • Kompetenzen für den KI-Einsatz aufbauen: Ein Verständnis für die Arbeitsweise von KI ist für Juristinnen und Juristen notwendig – auch unabhängig von Anwendungen in der Justiz. Deshalb müssen kritisches Reflektieren in Bezug auf KI und Datenschutz-Kompetenzen in die Ausbildung und Fortbildung von Juristinnen und Juristen integriert werden.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Virtueller Gerichtssaal im Studium

An der Technischen Hochschule Köln üben Jura-Studierende die Befragung von Zeugen in einem virtuellen Gerichtssaal. Ein Zeugen-Avatar steht ihnen Rede und Antwort. Er ist mit einem großen Sprachmodell wie ChatGPT verknüpft und gibt akustische Antworten in natürlicher Sprache. Die Studierenden analysieren einen fiktiven Fall, stellen Fragen und werten die Aussagen aus. Dabei machen sie auch Erfahrungen im Prompten: der Fähigkeit, Anfragen an ein Sprachmodell so zu formulieren, dass es das Ergebnis in der gewünschten Qualität und im gewünschten Umfang generiert.

Weiterführende Informationen