AI Act
Der Artificial Intelligence Act (AI Act) ist eine 2024 verabschiedete Verordnung der Europäischen Union (EU). Sie regelt die Entwicklung und den Einsatz von KI-Systemen und schafft damit einen verbindlichen Rechtsrahmen in der EU. Ziel ist es, vertrauenswürdige KI zu gestalten, die entsprechend europäischer Wertvorstellungen eingesetzt wird. So sollen KI-Systeme, die in der EU verwendet werden, sicher, transparent, ethisch, unparteiisch und unter menschlicher Kontrolle sein. Gleichzeitig soll die Verordnung KI-Technik und -Forschung innerhalb der EU wettbewerbsfähig halten und Innovationen fördern. Weltweit ist der AI Act das erste transnationale KI-Regelwerk seiner Art.
Algorithmen
Ein Algorithmus ist eine genaue Berechnungsvorschrift für einen Computer, eine Aufgabe zu lösen. Eine besondere Klasse von Algorithmen sind Lernalgorithmen: Dabei handelt es sich um Verfahren des maschinellen Lernens, die aus Beispieldaten (Lerndaten oder Trainingsdaten) ein Modell abstrahieren, das auf neue Beispieldaten angewendet werden kann.
Autoencoder
Ein Autoencoder ist ein Verfahren von generativen KI-Systemen, das aus zwei Hauptteilen besteht: Der Encoder verwandelt ein Bild in einen kompakten Vektor, der Decoder rekonstruiert daraus das Originalbild oder erzeugt ein neues Bild. Der Vektor ist viel kleiner als das ursprüngliche Bild, was den Autoencoder zwingt, wichtige Merkmale effizient zu speichern. Autoencoder werden verwendet, um Bilder zu komprimieren und neue Bilder zu erzeugen.
Automation Bias
Automation Bias bezeichnet die menschliche Tendenz, Algorithmen und deren Empfehlungen und Entscheidungen ein Übermaß an Vertrauen entgegenzubringen und gegenüber menschlichen Einschätzungen den Vorrang zu geben. Diese Voreingenommenheit ist besonders ausgeprägt in Umgebungen, in denen Entscheidungen durch computergestützte Systeme begleitet werden, etwa in der Luftfahrt, der medizinischen Diagnose und bei Finanzprognosen.
Deep Learning
Deep Learning ist eine Methode des maschinellen Lernens in künstlichen neuronalen Netzen. Diese umfassen mehrere Schichten – typischerweise eine Eingabe- und Ausgabeschicht sowie mehr als eine „versteckte“ dazwischenliegende Schicht. Die einzelnen Schichten bestehen aus einer Vielzahl künstlicher Neuronen, die miteinander verbunden sind und auf Eingaben von Neuronen aus der jeweils vorherigen Schicht reagieren. Angewendet wird Deep Learning bei der Bild-, Sprach- und Objekterkennung sowie dem verstärkenden Lernen.
Deepfake
Deepfakes sind täuschend echt wirkende Bild-, Audio- oder Videoaufnahmen, die mithilfe von Deep Learning – also dem maschinellen Lernen mit tiefen neuronalen Netzwerken – erzeugt oder so manipuliert werden, dass Inhalte oder auftretende Personen verfälscht werden. Die Methoden sind vielfältig: Personen können in einen beliebigen Kontext gesetzt werden, Stimmen imitiert oder neu erschaffen werden, gehaltene Reden lippensynchron abgeändert werden. Mit der technologischen Entwicklung wird es zunehmend schwierig, Deepfakes unmittelbar als solche zu erkennen. Der Begriff ist ein englisches Kofferwort aus den Begriffen „Deep Learning“ und „Fake“.
Desinformation
Desinformation meint die Verbreitung von irreführenden und falschen Informationen, mit dem Ziel, Menschen vorsätzlich zu täuschen oder zu beeinflussen. Dabei kann es sich um frei erfundene, aus dem Zusammenhang gerissene, zugespitzte oder lückenhafte Informationen handeln. Neben Texten können mit Hilfe von KI auch Bilder und Videos gefälscht werden. Desinformation kann von einzelnen Akteuren ausgehen oder eine Strategie von Staaten sein, um in die politischen Prozesse anderer Staaten einzugreifen.
Diffusionsmodelle
Ein Diffusionsmodell ist ein KI-Verfahren zur Generierung von synthetischen Bildern. Im Training wird dazu ein Bild zufällig minimal verändert. Es entsteht ein kleines, zunächst kaum wahrnehmbares Rauschen – eine Störung bei Farbkontrast oder Helligkeit. Dieser Schritt wird so lange wiederholt, bis aus dem Bild ein ungeordnetes Rauschen entstanden ist. Diesen Prozess lernt das Modell dann umzukehren: Es generiert ein neues – synthetisches – Bild, indem es das Rauschen Schritt für Schritt wieder entfernt.
Diskriminierung
Diskriminierung meint die Ungleichbehandlung und gesellschaftliche Benachteiligung auf Grundlage von kategorialen Unterscheidungen. Diese basieren auf Gruppenzuschreibungen wie Geschlecht, Religion oder ethnischer Zugehörigkeit und können sowohl direkt als auch indirekt erfolgen. Diskriminierung ist ein komplexes System sozialer Beziehungen und umfasst neben individuellen Vorurteilen auch institutionelle und strukturelle Mechanismen, die Benachteiligung hervorrufen.
Expertensysteme
Ein Expertensystem ist ein Computerprogramm, das Wissen zu einem speziellen Gebiet repräsentiert, anreichert und daraus zu einem konkreten Problem automatisch Schlussfolgerungen ziehen kann. Dazu muss das Expertenwissen in Form von Fakten und Regeln (Wenn-dann-Aussagen) formalisiert und eingegeben werden. Als symbolische KI sind die meisten Expertensysteme logikbasiert und gelten im Allgemeinen als nachvollziehbarer als andere Formen der KI.
Face-Reenactment
Beim Face-Reenactment lassen sich in Videodateien Mimik, Kopf- und Lippenbewegungen einer Person verändern. Das Gesicht selbst bleibt erhalten. Zu einem vorgegebenen Text werden passende, synthetisch erzeugte Lippenbewegungen und Gesichtsausdrücke erstellt. Dafür wird von einer ausgewählten Person aus einem Videostream ein 3D-Modell erstellt. Dieses Gesichtsmodell kann mithilfe eines zweiten Videostreams einer anderen Person kontrolliert werden. So können einer Person durch Unterlegung einer passenden Audiospur täuschend echte Aussagen in den Mund gelegt werden, die sie in der Realität nie getätigt hat.
Face-Swapping
Face-Swapping ist ein Verfahren zum Gesichtstausch in einer Bild- oder Videodatei. Neuronale Netze lernen dabei aus einem Gesichtsbild die wichtigsten Mimik- und Beleuchtungsinformationen kodiert auszulesen und daraus ein entsprechendes Gesichtsbild zu erzeugen. Mit diesem wird das Gesicht einer anderen Person in Bildern oder Videos ersetzt.
Fake News
Fake News sind Falschnachrichten in Form von Text, Fotos oder Videos. Sie werden häufig über elektronische Kanäle, bevorzugt über soziale Medien, verbreitet. Erkennbar sind sie beispielsweise an reißerischen Überschriften oder fehlenden Urheber- und Quellenangaben.
Generative Adversarial Networks (GAN)
Generative Adversarial Networks (GANs) sind Algorithmen, bei denen zwei neuronale Netze, der Generator und der Diskriminator, miteinander konkurrieren. Der Generator erstellt Bilder aus Zufallsrauschen und der Diskriminator bewertet, ob diese Bilder echt oder künstlich sind. Dieser Vorgang wird so lange wiederholt, bis der Diskriminator die generierten Bilder nicht mehr als solche erkennen kann.
Generative KI
Generative KI-Systeme werden mit großen Datensätzen trainiert und sind in der Lage, Inhalte wie Text, Programmcode, Videos oder Bilder zu erzeugen. Sie stützen sich dabei auf große Rechenleistung und spezielle Algorithmen, die unter anderem auf dem so genannten Transformer-Modell basieren. Bekannte generative KI-Systeme sind ChatGTP (Open AI), Gemini (Google) und LLaMA (Meta).
Halluzinieren
Von Halluzinieren spricht man in der KI, wenn ein Sprachmodell falsche Informationen erzeugt. Diese erscheinen oft plausibel, da sie flüssig und kohärent in Texte eingebettet sind. Zu falschen Informationen kommt es, weil Sprachmodelle kein Verständnis für die zugrunde liegende Realität haben, sondern ihre Ergebnisse allein auf Basis von Wahrscheinlichkeiten erzielen – selbst wenn sich aus den Trainingsdaten keine korrekte Antwort ableiten lässt.
Künstliche Intelligenz
Künstliche Intelligenz (KI) ist ein Bereich der Informatik, der darauf abzielt, Computersystemen kognitive Fähigkeiten wie Lernen, Planen und Problemlösen zu vermitteln. Der Begriff wurde 1956 geprägt. Ziel moderner KI-Systeme ist es, Maschinen, Roboter und Softwaresysteme zu befähigen, abstrakt beschriebene Aufgaben und Probleme eigenständig zu bearbeiten und zu lösen, ohne dass jeder Schritt vom Menschen vorab programmiert wird. Dabei sollen sich die Systeme auch an veränderte Bedingungen und ihre Umwelt anpassen können.
Maschinelles Lernen
Maschinelles Lernen ist eine grundlegende Methode der Künstlichen Intelligenz (KI). Sie zielt darauf, dass Maschinen ohne explizite Programmierung eines konkreten Lösungswegs automatisiert sinnvolle Ergebnisse für eine gestellte Aufgabe liefern. Spezielle Algorithmen lernen dabei aus vorliegenden Beispieldaten Modelle, die dann auch auf neue, zuvor noch nicht gesehene Daten angewendet werden können. Dabei werden drei Lernstile unterschieden: überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen. Maschinelles Lernen mit großen neuronalen Netzen wird als Deep Learning bezeichnet.
Microtargeting
Microtargeting meint, Medieninhalte adressatengerecht zuzuschneiden und über entsprechende Kanäle auszuspielen. Generative KI verleiht dieser Form der Verbreitung von Inhalten eine neue Dynamik und ermöglicht – etwa im politischen Kontext – eine noch spezifischere Ansprache von Zielgruppen.
Misinformation
Misinformation meint die Verbreitung von irreführenden und falschen Informationen ohne die bewusste Absicht der Manipulation oder Täuschung. Dies unterscheidet sie von Desinformation. In der Praxis ist es oftmals jedoch kaum zu bestimmen, ob eine böse Absicht des Absenders bestand oder nicht.
Sorgfaltspflicht
Die Einhaltung der journalistischen Sorgfaltspflicht bei der Berichterstattung ist eine wichtige rechtliche Anforderung. Besonders relevant ist sie, wenn die Berichterstattung die Persönlichkeitsrechte Dritter betrifft. Im Rahmen der Sorgfaltspflicht sind Journalistinnen und Journalisten für Inhalt, Herkunft und Wahrheitsgehalt von Nachrichten verantwortlich. Dies bedeutet unter anderem, dass unbestätigte Meldungen oder Gerüchte, deren Wahrheitsgehalt nicht zweifelsfrei feststellbar ist, als solche gekennzeichnet werden müssen.
Text-to-Speech
Im Text-to-Speech-Verfahren wird zu einem vorgegebenen Text mittels KI ein Audiosignal erzeugt, das sich sowohl für Menschen als auch für eine automatische Spracherkennung wie die Stimme einer vorher definierten Person anhört.
Voice Conversion
Voice-Conversion ist ein KI-basiertes Verfahren, bei dem ein Audiosignal zu einem manipulierten Audiosignal konvertiert wird. Dieses hat den gleichen semantischen Inhalt wie das Ursprungssignal, unterscheidet sich jedoch in der Charakteristik des Sprechenden. Im Idealfall gleicht es der Person, die als Zielperson ausgewählt wurde.
Justiz
Künstliche Intelligenz & die demokratische Gesellschaft
Wo könn(t)en KI-Systeme unterstützen?
Neutralere Urteile, schnellere Entscheidungen, effektivere Prozesse – die Potenziale für KI-Systeme in der Justiz sind groß. Doch die Technologie setzt hier an einer Stelle an, an der äußerst sensible Daten verarbeitet werden. KI im Rechtswesen einzusetzen, bedeutet deshalb, hohen Anforderungen gerecht werden zu müssen. Und ohne Akzeptanz der Bevölkerung ist es überhaupt nicht denkbar. Das Vertrauen in eine unabhängige sowie gerecht arbeitende Justiz ist Grundvoraussetzung für eine funktionierende Demokratie. Der AI Act der Europäischen Union stuft KI-Systeme in der Justiz deshalb als Hochrisikoanwendungen ein. Die konkrete Ausgestaltung der EU-Verordnung steht noch aus. Expertinnen und Experten der Plattform Lernende Systeme geben Empfehlungen.
Kann KI die Überlastung im Rechtswesen verringern?
Das Justizsystem in Deutschland ist überlastet: Zwischen 2021 und 2023 ist die Zahl der offenen Strafverfahren um knapp 30 Prozent gestiegen, so der Deutsche Richterbund. In den kommenden Jahren gehen viele Richterinnen und Richter sowie Staatsanwältinnen und Staatsanwälte in den Ruhestand. Ihre Zahl wird also signifikant abnehmen. KI-Systeme könnten Prozesse beschleunigen, die Bearbeitung vereinfachen. Sie versprechen mehr Effizienz im Rechtswesen. Demgegenüber stehen aktuell noch qualitative Schwächen von KI-Systemen in Rechtsanwendungen sowie ethische und rechtliche Bedenken.
Smart Sentencing – Gerechte Strafzumessung
Frauke Rostalski, Professorin für Strafrecht an der Universität zu Köln und Mitglied der Plattform Lernende Systeme (PLS), hat in einem Forschungsprojekt einen Prototyp für eine Software entwickelt, die zu einer gerechten Strafzumessung beitragen soll. Die KI-Anwendung kann in Urteilen erkennen, welche Erwägungen für die jeweilige Strafzumessung aufgeführt werden und die Urteile dahingehend durchsuchbar machen. Die Software wird nun in größerem Umfang an ihrem Lehrstuhl und mittels maschinellen Lernens weiterentwickelt. Der Lehrstuhl ist dabei für die rechtlichen Aspekte des Projekts sowie für die Beschaffung der Strafurteile verantwortlich. Die technische Umsetzung erfolgt durch das Fraunhofer Institut für Intelligente Analyse- und Informationssysteme (Fraunhofer IAIS). Rostalski im Interview mit der PLS: „Solche Anwendungen können die Effizienz und Geschwindigkeit der Justiz erhöhen und Richterinnen und Richter bei ihrer Arbeit entlasten.“
Wem KI in Rechtsfragen nutzen kann
KI-Systeme im Rechtswesen lassen sich je nach Einsatzzweck in vier Kategorien einteilen: Systeme für Privatpersonen, für Kanzleien, Anwältinnen und Anwälte sowie zur Unterstützung von Gerichten. Die vierte Kategorie gruppiert Anwendungen, die (teil-)autonome Entscheidungen treffen. Hier tritt die KI also als Entscheidungsträgerin auf. Die Anforderungen an die Systeme steigen mit dem Grad an Einfluss auf Entscheidungen, die KI in den Systemen hat. Als bedeutsamste Herausforderung kristallisiert sich die (mangelhafte) Qualität der Trainingsdaten heraus. Dies birgt die Gefahr ungerechtfertigter Diskriminierungen durch KI. Aufgrund mangelnder Digitalisierung in der Justiz mangelt es auch an Trainingsdaten.
Zur Unterstützung von Gerichten
Für Privatpersonen
Für Kanzleien
Als (teil-)autonome Entscheidungsträgerin
In diesem Bereich sind Gefahren, Sorgen und Vorbehalte am größten. Die KI-Verordnung der EU stellt für diesen Einsatz besonders hohe Anforderungen. Auch die Potenziale sind besonders groß. Denkbar sind folgende Einsatzfelder.
Datenrecherche und intelligente Analyse vorhandener Informationen
Intelligente und automatisierte Gerichte und Gerichtssäle
Aufbau von Strafzumessungsdatenbanken mit KI
(Vorhersagebasierte) Unterstützungssysteme für richterliche Entscheidungen
Die meisten Privatpersonen stehen als juristische Laien vor offenen Fragen, wenn es zu einem rechtlich relevanten Konflikt kommt. Eine erste Einschätzung erfolgt häufig im Sinne einer „juristischen Selbsthilfe“ durch Anfragen bei Suchmaschinen.
Potenziale:
- KI-basierte Expertensysteme können die Recherche unterstützen. In Kombination mit Methoden der KI-Sprachverarbeitung können auch umgangssprachlich formulierte Anfragen verarbeitet werden. Aus Rechtsdokumenten könnten relevante Informationen extrahiert und Antworten oder Informationen über juristische Dienstleistungen angeboten werden.
- Chatbots könnten Formulare, Dokumente oder Nachrichten bereitstellen, um Kundenrechte einzufordern – etwa von Fluggästen gegenüber Fluglinien. KI-basierte juristische Chatbots gibt es seit einigen Jahren in der praktischen Verwendung.
- Große Sprachmodelle könnten E-Mails oder Briefe passend zum individuellen Rechtsfall erstellen.
- KI-basierte Assistenzsysteme haben damit das Potenzial, den Zugang zum Recht zu vereinfachen, vor allem für Personen, die sich bisher keinen Rechtsbeistand leisten konnten oder mit sich mit anderen Barrieren, wie etwa der Sprache, konfrontiert waren.
Herausforderungen und Grenzen:
- Damit das Potenzial gehoben werden kann, müssen kostengünstige und frei nutzbare Angebote entstehen.
- Die Methode der Auslegung von Gesetzen ist komplex. Das Recht gibt einen Rahmen vor, innerhalb dessen Richterinnen und Richter die Fakten eines Falles bewerten und beurteilen. Dabei spielen auch nicht objektivierbare Faktoren eine Rolle, wie das Ausbleiben von ehrlicher Reue oder unterschiedliche Auslegungen verschiedener Bezirke. Eine zusätzliche Rechtsberatung durch Anwältinnen und Anwälte wird weiterhin erforderlich bleiben.
- KI-Sprachmodelle sind noch zu fehleranfällig: Immer wieder kommt es vor, dass Sprachmodelle wie ChatGPT aufgrund ihrer Funktionsweise Quellen, Urteile oder Paragrafen erfinden. In Kombination mit juristischen Expertensystemen könnte perspektivisch die Richtigkeit von Chatbot-Antworten verbessert werden.
Die anwaltliche Arbeit besteht zu einem großen Teil aus dem Prüfen und Erstellen von Texten. Dazu gehören die Korrespondenz mit den Mandantinnen und Mandanten und den Parteien eines Rechtsstreits ebenso wie Eingaben an das Gericht oder die Ausarbeitung von Verträgen. Die Erstellung dieser Dokumente ist häufig Routinearbeit. Sie bindet Ressourcen und verursacht hohe Kosten für die Klientinnen und Klienten.
Potenziale:
Spezifisch trainierte generative KI-Systeme können planbare Recherche- und Strukturarbeiten übernehmen:
- unterschiedliche Dokumente mit Tausenden von Seiten durchsuchen
- Informationen extrahieren
- Informationen zu einem neuen Dokument zusammenfügen
- automatische Zusammenfassungen erstellen
Herausforderungen und Grenzen:
- Ausreichende Digitalisierung: Um das Potenzial heben zu können, müssen die Dokumente in den Kanzleien umfassend digitalisiert und strukturiert vorliegen.
- Datensicherheit: Die verwendeten KI-Systeme müssen in einem sicheren und isolierten Datenraum laufen.
- US-amerikanische oder chinesische Anbieter sind durch Gesetze ihrer Länder verpflichtet, auch personenbezogene Daten auf Anordnung von Behörden herauszugeben. Dies schließt viele KI- und Cloud-Dienste für den Einsatz in Kanzleien aus.
- Fehleranfälligkeit: Um eine echte Entlastung bei der Erstellung von Schriftsätzen zu sein, sind Sprachmodelle wie ChatGPT zumindest auf absehbare Zeit zu fehleranfällig.
- Der Einsatz von KI-Systemen in Kanzleien könnte zu einer Verschiebung der Marktstruktur und des Wettbewerbs führen. So kann es sein, dass sich nur große, international vernetzte Kanzleien den breiten Einsatz von KI leisten können. Kleinere Anbieter von Rechtsdienstleistungen könnten an den Rand des Marktes gedrängt werden, mit negativen Folgen für den Wettbewerb. Umgekehrt ist auch denkbar, dass kleinere Kanzleien durch KI-Anwendungen die Chance erhalten, die teilweise monopolistische Marktstruktur der Großkanzleien aufzubrechen.
In diesem Szenario ist KI nicht mehr darauf beschränkt, Richterinnen und Richter zu unterstützen, sondern tritt als eigenständiger Akteur mit weitreichenden Befugnissen auf. In einigen Ländern kommen bereits Prototypen solcher Systeme zum Einsatz. Das Oberste Volksgericht in Shanghai pilotiert ein Assistenzsystem, das Richterinnen und Richter umfassend in der Fallbearbeitung unterstützt. Das System basiert auf 35 Einzelsystemen, darunter Hilfssysteme für die Bearbeitung von Fällen, für die Erstellung von Urteilsdokumenten und für automatisierte Prozesssysteme. Ziel ist es, die Gerichte sowie die Richterinnen und Richter vor allem bei Zivil- und Verwaltungsfällen zu entlasten, die etwa 70 Prozent der verhandelten Fälle ausmachen. Bisher ist auch hier nicht vorgesehen, dass KI eigenständig Urteile fällt oder Richterinnen und Richter ersetzt.
Potenziale:
- Verfahren beschleunigen
- Kosten senken
- Effizienz im Rechtswesen steigern
Herausforderungen und Grenzen:
- Einschränkungen durch das Grundgesetz: Der Einsatz von Algorithmen zur abschließenden Entscheidungsfindung anstelle der Richterin oder des Richters als natürlicher Person ist mit dem Grundgesetz nicht vereinbar.
- Objektivität: Künstliche Intelligenz hat theoretisch die Chance, Urteile unparteiischer und damit fairer zu treffen. Allerdings: KI-Entscheidungen bilden im Grunde nur die Realität vergangener Urteile ab. Es muss die Frage gestellt werden, ob eine rein sachliche Objektivität im Sinne der Rechtsprechung überhaupt gewünscht ist oder ob nicht auch menschliche Fähigkeiten zur Abwägung von Kontextfaktoren bei der Urteilsfindung eine Rolle spielen müssen.
- Transparenz: KI-Entscheidungen sind aufgrund der komplexen zugrundeliegenden Systeme oft nicht transparent
- Kommunikatorrolle: Richterinnen und Richter erläutern im Laufe eines Prozesses rechtliche Grundsätze und begründen dessen Auslegung. Entscheidungen sind so für die beteiligten Parteien oder wenigstens für deren Rechtsbeistände einsichtig. Ein „Roboter-Richter“ kann diese Funktion nicht abbilden.
- Rechtsverständnis: Das Recht kann sich durch Entscheidungen ändern, die Präzedenzfälle revidieren oder neue Auslegungen von Gesetzen hinzufügen. Würden große Teile der Rechtsprechung auf KI-Automatisierung basieren, würde sich die Frage stellen, wie sich das Rechts(-system) noch weiterentwickeln kann. Eine auf Reproduktion beschränkte Rechtsprechung hätte keine Möglichkeit, sich an veränderte Lebensbedingungen anzupassen.
Was ist zu tun?
So groß die Potenziale von KI-Systemen im Rechtswesen sind, so groß sind auch die Herausforderungen. Sie müssen gestaltet werden. Die Expertinnen und Experten der Plattform Lernende Systeme geben dazu folgende Empfehlungen an Politik und Wissenschaft:
- Demokratische Partizipation gestalten: Die Gesellschaft muss in einem offenen und fairen Aushandlungsprozess entscheiden, ob und in welchem Umfang sie KI im und für das Rechtssystem will. Dieser Diskurs muss ergebnisoffen geführt werden und Bedenken wie Vorbehalte ernst nehmen.
- KI ist nicht gleich KI – Unterschiedliches im Diskurs trennen: Im Rahmen der Entscheidungsfindung sollten Bemühungen getroffen werden, um Mythen, Vorbehalte und Sorgen abzubauen. Dafür sind Aufklärung und Medienbildung der Gesellschaft wichtig.
- Menschliche (Letzt-)Entscheidung sicherstellen: Um die Sorge zu nehmen, Maschinen könnten weitreichende Entscheidungen über menschliche Individuen treffen, könnte das Recht verankert werden, als Angeklagte oder Angeklagter KI-Beiträge für die Urteilsfindung ablehnen zu dürfen – ohne negative Konsequenzen fürchten zu müssen. Denkbar ist auch, KI-Beiträge für Revisionen auszuschließen.
- Notwendige Investitionen bereitstellen: Die Entwicklung von KI-Systemen für die Justiz und der Aufbau einer entsprechenden Dateninfrastruktur erfordern umfangreiche personelle und finanzielle Ressourcen. Dabei muss die Unabhängigkeit der Justiz von privaten Entwicklern sichergestellt werden. Bund und Länder müssen diese Ressourcen bereitstellen.
- Geeignete Governance-Struktur für KI-Entwicklung aufbauen: Zur Sicherstellung der Gewaltenteilung müssten die Entwicklung und der Einsatz von KI-Systemen, die umfangreichen Einfluss auf Gerichtsentscheidungen haben, durch die Judikative selbst betreut werden. Es sollte deshalb ein Rahmen an Regeln, Prozessen und Praktiken aufgebaut werden, um die Mittel zu lenken und zu kontrollieren, die durch Bund und Länder bereitgestellt werden.
- Kompetenzen für den KI-Einsatz aufbauen: Ein Verständnis für die Arbeitsweise von KI ist für Juristinnen und Juristen notwendig – auch unabhängig von Anwendungen in der Justiz. Deshalb müssen kritisches Reflektieren in Bezug auf KI und Datenschutz-Kompetenzen in die Ausbildung und Fortbildung von Juristinnen und Juristen integriert werden.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Virtueller Gerichtssaal im Studium
An der Technischen Hochschule Köln üben Jura-Studierende die Befragung von Zeugen in einem virtuellen Gerichtssaal. Ein Zeugen-Avatar steht ihnen Rede und Antwort. Er ist mit einem großen Sprachmodell wie ChatGPT verknüpft und gibt akustische Antworten in natürlicher Sprache. Die Studierenden analysieren einen fiktiven Fall, stellen Fragen und werten die Aussagen aus. Dabei machen sie auch Erfahrungen im Prompten: der Fähigkeit, Anfragen an ein Sprachmodell so zu formulieren, dass es das Ergebnis in der gewünschten Qualität und im gewünschten Umfang generiert.