The times they are a-changin‘? – Wie KI die Rechtswissenschaft verändern könnte
Die Endzeiten nahen!
Jeder/Jede Jura-Student*in hat es mittlerweile gehört, ob auf Instagram oder von besorgten Verwandten: Wir werden alle durch KI ersetzt! Damit sich niemand panisch exmatrikulieren lässt, um vielleicht doch lieber Lehrer*in zu werden, gibt es hier ein paar Perspektiven dazu wie (un)ersetzlich Jurist*innen sind.
Ist es nur künstlich oder auch Intelligenz?
Der künstliche Mensch beschäftigt uns schon Jahrhunderte lang. Antike Götter schufen die ersten Menschen aus Lehm und Luft und seitdem eifern wir ihnen in unsrer Fantasie nach.
Das Ergebnis ist nie völlig menschlich. Es handelt sich eher um Gestalten, wie den Golem von Prag oder Frankensteins Monster. Karel Čapeks „Roboter“ aus seinem Theaterstück „R.U.R.“ ist vielleicht die erste echte künstliche Intelligenz (KI) der Literatur. Denn es handelt sich um eine, wie ein Mensch denkende Maschine.
„Roboter“ ist von dem Wort „robota“ abgeleitet, das körperliche Fronarbeit beschreibt.
Čapeks „Roboter“ ist ein künstlicher Sklave, der menschliche Arbeiter*innen ersetzt.
Das ist ein Motiv, das uns mittlerweile allen bekannt sein sollte.
Lassen wir einmal beiseite, dass die R.U.R.–Roboter schließlich die Menschen in ihrer Intelligenz übertreffen und sich gegen sie auflehnen. Dass „Large Language Models“ (LLM), wie ChatGPT revoltieren ist unwahrscheinlich.
Solche LLMs werden immer wieder als KI bezeichnet. Streng genommen ist das aber nur Werbestrategie der Unternehmen oder träumerische Fantasie ihrer CEOs.
Es handelt sich um Modelle, die „Maschinelles Lernen“ benutzen, um eingespeiste Beispieldaten auf einen spezifischen Fall zu verallgemeinern. Bei LLMs kann dieser Prozess als Textvervollständigung beschrieben werden. Denn sie schlussfolgern basierend auf Beispieltexten, welches Wort wahrscheinlich auf das nächste folgt. LLMs bilden aber nicht bewusst Sätze und haben kein Verständnis für wiedergegebenen Inhalte. Auch „Deep Learning“ Modelle, die komplexe Datenmengen auswerten sollen, funktionieren durch vielschichtiges maschinelles Lernen. Keine dieser Modelle ähnelt wirklich dem menschlichen Hirn.
Jura-Bot 2000?
Die eigentliche Frage ist also, wie solche Maschine Learning Models
(zur Vereinfachung weiter „KI“) Juristische Berufe verändern werden.
Anwält*innen, Staatsanwält*innen und Richter*innen können auf jeden Fall erstmal nicht so schnell ersetzt werden. Für die Urteilsfindung und das Schreiben von Schriftsätzen ist KI nur sehr eingeschränkt anwendbar.
Für Schriftsätze gibt es zunächst rechtliche Schranken, die die Anwendung von KI nur teils ermöglichen. Der § 78 ZPO sieht beispielweise vor, dass Rechtsanwält*innen ihre Schriftsätze selbstständig prüfen und sich zu eigen machen müssen. Das heißt selbst ein von KI geschriebener Schriftsatz muss durch die Anwält*in nochmal geprüft und bei Bedarf überarbeitet werden. Wie viel Arbeitsaufwand dabei noch eingespart wird ist fraglich, da KI insbesondere inhaltlich noch sehr anfällig für Fehler ist.
Sprachmodelle, wie ChatGPT erfinden zuweilen Urteile, Aktenzeichen und Gesetzte. Wer den Inhalt generierter Texte sicher überprüfen will, muss selbst Profi im relevanten Fachgebiet sein.
Ein weiteres Problemfeld ist der Datenschutz, da sensible Informationen durch die KI an Dritte weitergegeben werden können. Das ist besonders ein Problem bei der Nutzung von KI-Modellen externer Anbieter:
Es können beispielsweise gem. § 43e BRAO dem Berufsgeheimnis unterfallene Daten externen Dienstleistern zugänglich gemacht werden. Jedoch müssen diese Dienstleister sorgfältig überprüft werden. Es darf nur eine begrenzte Menge an absolut notwendigen Informationen weitergegeben werden. Eine KI benötigt allerdings große Datenmengen, um zu verwertbaren Ergebnissen zu kommen. Die Anonymisierung ganzer Aktenstapel, um eine Anwendung externer KI zu ermöglichen, ist kaum verhältnismäßig.
Ist der Richter-Bot realistisch?
Auch der richterlichen Urteilsfindung durch KI steht noch einiges entgegen. Nicht zuletzt das Grundgesetz höchst persönlich! Aufgrund von Art. 92, 97 GG können Entscheidungen der Justiz nur durch Menschen gefällt werden. Entscheidungen des Richter-Bots wären also verfassungsrechtlich unzulässig.
KI generierte Urteile haben außerdem mehrere Kernprobleme. Zum einen besteht die Gefahr das sich aktuelle Rechtsprechung zementiert. KI kann nur basierend auf vorangegangen Entscheidungen Urteile fällen. Es würden also nur etablierte Rechtsprechung repliziert werden, da KI nur begrenzt menschliche Kreativität imitieren kann. Dadurch kann KI keine eigenen Meinungen prägen oder verteidigen. Rechtfortbildung würde dementsprechend ausbleiben, und mit ihr das Prinzip der richterlichen freien Beschlussfassung.
Bei einer voranschreitenden Automatisierung müssten sich Urteile der KI auch immer mehr auf frühere KI-Urteile stützen. Das birgt die Gefahr, dass die Rechtsprechung stagniert. Auch von der KI versehentlich generierte Unwahrheiten könnten als vielfach kreuzzitierte Quellen verfestigt werden. Das schafft eine insgesamt unverlässliche Datenlage für Wissenschaft und Rechtsprechung.
Zudem müssen Richter*innen Urteile sorgfältig begründen. Aktuell leiden aber die meisten KI-Modelle unter dem „Black-Box“ Problem. Das heißt, dass nur der Dateninput und das Ergebnis der KI einsehbar sind. Alles andere ist jedoch nicht nachvollziehbar. KI könnte also höchstens eine Urteilsbegründung aus den Begründungen menschlicher Richter*innen zusammenzimmern. Diese würde aber kaum etwas über den tatsächlich zugrundeliegenden Entscheidungsprozess aussagen. Da der tatsächliche Prozess undurchsichtig bleibt, wären KI generierte Urteile anfällig für Manipulation.
Künstliche Unterstützung
Also was kann KI dann eigentlich überhaupt übernehmen? Das hängt maßgeblich davon ab, was KI in Zukunft darf. Die EU-Kommission hat 2020 Ziele für die zukünftige Regulierung von KI formuliert. Der Ansatz ist dabei „human-centric“. KI soll dem Menschen dienen und unseren Rechten folgen. Im Mittelpunkt stehen bei diesem Regulierungsansatz Datenschutz, Privatsphäre und Nichtdiskriminierung. Um diese Ziele umzusetzen, soll nach und nach bestehendes EU-Recht ergänzt und angepasst werden.
Konkret ist es denkbar, dass KI die Analyse von Dokumenten übernehmen kann. Beispielsweise könnte KI in den AGBs nach Klauseln suchen, die schon einmal gerichtlich für unwirksam erklärt wurden. In der Recherche könnte KI in Datenbanken nach einschlägigen Urteilen suchen. Auch denkbar ist es, dass KI standardisierte Verträge und Klauseln erstellt.
Testweise gibt es schon ähnliche Programme zur Anwendung von KI an deutschen Gerichten. Sie könnten insbesondere bei Massenverfahren eine Hilfestellung sein. Das Programm „OLGA“ (Oberlandesgerichtsassitent) hilft beispielsweise am OLG Stuttgart dabei Schriftsätze für die Dieselklage einzuordnen und zu analysieren. „FRAUKE“
(Frankfurter Urteils-Konfigurator Elektronisch) hat in einem Testlauf relevante Informationen aus Akten gefiltert.
The times they are a changing
Auch wenn es schnulzig klingt – Empathie ist die Grundlage der juristischen Arbeit.
KI kann vielleicht menschliche Empathie durch Sprache imitieren. Juristisches Arbeiten verlangt aber das Verstehen von Interessenlagen und das Entwickeln von einem Gerechtigkeitsempfinden. Diese Fähigkeiten sind ein Alleinstellungsmerkmal, das nicht durch maschinelles Lernen outgesourced werden kann.
Juristische Berufe werden in Zukunft einen neuen Fokus bekommen. Das Verständnis juristischer Grundsätze, Kommunikation und Verhandlungsgeschick sind schon jetzt zu entscheidenden Kompetenzen auf dem Arbeitsmarkt. Aber wenn uns die Einführung der elektronischen Akte an Gerichten irgendetwas gelehrt hat, dann, dass der Prozess hin zur vollständigen Integration von KI in den juristischen Beruf langsam sein wird.
Die Anwendung von KI ist allerdings nicht einfach ein weiterer Teil der Digitalisierungsdebatte. Es gibt tiefgreifendere Probleme, auch für Jurist*innen und Jura Student*innen.
Durch die besprochenen Anwendungsbeispiele für KI fallen Arbeitsplätze in den Bereichen Assistenz, Recherche und Vertragsgestaltung weg. Das bedeutet das insbesondere viele Jobs für Student*innen wegfallen würden. Student*innen, die sowieso schon durch andere finanzielle Belastungen unter Druck stehen. Unbezahlte Praktika, kaum steigendes Bafög und steigende Mietpreise sind nur einige Beispiele.
Außerdem behandelt das Jura-Studium Verhandlung und Kommunikation als zweitrangige Fähigkeiten. Die Grundlagen des juristischen Arbeitens werden nur angeschnitten. Stattdessen ist das Studium darauf ausgelegt große Mengen an Informationen zu erlernen und abzurufen.
An sich ist das eine kritikwürdige Anforderung und Lehrmethode: Vor dem Hintergrund von KI-Anwendung im Beruf und Studium wird das Auswendiglernen geradezu eine sinnlose Sisyphusarbeit.
Allgemeiner kommt hinzu, dass alle LLMs auf dem Markt massive Probleme mit illegalen Data-Scraping haben. Die Datenquellen sind nicht nachvollziehbar oder urheberrechtlich geschützt. Dasselbe Problem betrifft auch Ton- und Bildgenerierungsmodelle. KI, die zur Unterstützung von juristischer Arbeit entwickelt wird, kann dieses Problem nicht vermeiden. Eine weitere Baustelle ist auch die Umweltbelastung. Der Wasser- und Stromverbrauch, der für die KI notwendigen Rechenzentren ist astronomisch. Wer in Zukunft KI in allen Lebensbereichen einbringen will, muss auch Lösungsansätze für diese Herausforderungen haben.
Ein letzter Absatz noch, und ich schwöre ich bin fertig.
Selbst, wer (durchaus berechtigte) Kritik an KI äußert, muss letztendlich erkennen, dass sie in Zukunft Teil unseres Berufslebens sein wird. Es ist nicht unvernünftig diesen Entwicklungen auch ein wenig kritisch entgegenzublicken. Es ist eine echte Gefahr das selbstständige Denken zu verlernen, wenn man sich zu viel abnehmen lässt.
Jedoch ist es vernünftig sich mit KI und den damit verbundenen Arbeitsweisen auseinander zu setzen. Schließlich will niemand schon in den nächsten Jahren das Äquivalent der 60-jährigen Kolleg*innen werden, die kaum selbstständig Word öffnen können. Auch wenn sie in vielen Büros den besten Kaffee kochen.