Fachartikel

Roboter in Roben? Zur Ersetzbarkeit menschlicher Richter durch automatisierte Spruchkörper

China setzt sie ein, im Baltikum haben sie Einzug gehalten. Sie haben keine schlechte Laune, sind weder hungrig noch müde, und Feierabende oder Wochenenden kennen sie auch nicht: Wer oder was sollte uns im heraufziehenden Zeitalter von Big Data und selbstlernenden Algorithmen langfristig davon abhalten, auch hierzulande die Rechtsprechung Richtern in metallenen Roben zu überlassen?

Die Verlockung

Auf den ersten Blick klingt eine derartige technische Versachlichung sehr verlockend. Automatisierte Systeme arbeiten rund um die Uhr und gewährleisten überdies einen schnellen und effizienten Zugang zum Recht. Das klingt nach einer optimalen strukturellen Umsetzung der Rechtsweggarantie gem. Art. 19 Abs. IV S. 1 GG.

Subjektive Ärgernisse wie eine mittelstandstypische „Unwucht“ außerhalb des Schöffensystems lassen sich minimieren – endlich kann man auch hierzulande Ansichten und Einflüsse aus allen Schichten der Bevölkerung einfließen lassen, ohne sich ausschließlich auf das Weltbild studierter Prädikatsjuristinnen und -juristen verlassen zu müssen. Das gilt zumal angesichts neuer Erkenntnisse dazu, wie sehr unsachliche Umstände die Urteilsfindung auch bei geschultem Personal tatsächlich beeinträchtigen können. So war es im Frühsommer 2021 niemand Geringeres als Wirtschaftsnobelpreisträger Daniel Kahneman, der zusammen mit zwei Co-Autoren die Entscheidungsverzerrung durch Störgrößen einmal mehr nachdrücklich betonte. Gemeinsam mit Olivier Sibon und Cass R. Sunstein hat er das bekannte Phänomen „Bias“ um den Faktor „Noise“ erweitert (dies., Noise, München 2021).

Danach wird das menschliche Erkenntnisvermögen nicht nur von (halb-)bewussten Vorurteilen geprägt. Bias meint genau das, nämlich dass auch Richterinnen und Richter immer mit einer gewissen Voreingenommenheit zu kämpfen haben. Daneben spielen aber auch noise-artige Verrauschungen eine Rolle: Unschärfen, die durch Zufälle und Störfaktoren entstehen. Sie stehen vor einer Richterin aus Fleisch und Blut? Ihr situatives Pech, wenn sie vom Februar-Nieselregen genervt ist oder er dringend nach Hause möchte, Sie jedoch kein Ende finden (können). Oder denken Sie an die womöglich zusätzlich zu diesem Occasional Noise auftretende „Chemie“ zwischen den Beteiligten, den Pattern Noise: Während der eine Richter ein Problem mit allzu forschen Mandanten hat, ärgert sich die andere Richterin übermäßig über verstocktes Vorbringen. Schließlich kennen wir alle strengere oder weniger strengere Spruchkörper, um dem auch noch die Spielart des Level Noise hinzuzufügen.

Und das, obwohl die dritte Gewalt doch stets neutral bleiben soll – Hat angesichts dessen nicht schon Montesquieu aus gutem Grund gefordert, dass Richter nicht mehr sein dürften als der Mund des Gesetzes, der „Bouche de la loi“? Sollten wir nicht die Gelegenheit ergreifen, uns diesem Sollzustand jetzt endlich zu eigen zu machen?

Die Verfassung

Die Antwort ist ernüchternd: Das wird nach und trotz allem nicht gehen. Sehr deutlich wurde das unter anderem auf einer Podiumsdiskussion der Autorin zum Thema dieses Beitrags mit drei hochrangigen Richterinnen und Richtern auf dem aktuellen AnwaltsZukunftsKongress im Oktober 2021 in Köln (vgl. dazu auch Anette Schunder-Hartung, Die Erste Seite: Roboter-Richter, Betriebs-Berater 49|2021). Zunächst gibt es nämlich ein Problem mit unserer eingangs zitierten Verfassung. Hier geht es gar nicht einmal so sehr darum, dass Art. 97 GG die richterliche Unabhängigkeit schützt. Das Grundgesetz insgesamt zeugt von einer Einstellung unseres Staates zum Recht als einem fundamentalen menschlichen Kulturgut. Im Zuge dessen verbietet die in Art. 79 Abs. III GG niedergelegte Ewigkeitsgarantie u. a. Verfassungsänderungen, durch die die in den Art. 1 und 20 niedergelegten Grundsätze berührt werden. Mit der nach dem III. Reich vor naturrechtlichem Hintergrund zu gewährleistenden Menschenwürde geht auf struktureller Ebene die Vorgabe einher, dass die Staatsgewalt zwar durch besondere Organe der Rechtsprechung ausgeübt wird. Gleichzeitig geht sie aber vom Volke aus, und das ist niemand anders als die menschliche Bevölkerung selbst. Sie sich wieder aus der Hand nehmen zu lassen, wäre ihr nicht gestattet – aus was für praktischen Erwägungen heraus auch immer. Das gilt auch und erst recht im Verhältnis zu intelligenten automatisierten Systemen.

Unser Selbstverständnis

Ein zentraler Unterschied zu Montesquieus Zeiten ist zudem unser grundlegend gewandeltes westliches Selbstverständnis. Hier und heute muss hier niemand mehr gesenkten Hauptes und mit dem Hut in der Hand vor die Schranken der Gerichte treten. Wer kommt, erscheint als Repräsentant des Souveräns mit dem Anspruch, akzeptieren zu können, was ihn vor Ort erwartet. Dies setzt auf Seiten der Richtenden Empathie voraus, auf Seiten der Rechtssuchenden ein Nachvollziehenkönnen der anstehenden Entscheidungen.

Dazu hieß es auf dem AnwaltsZukunftsKongress: „Computer sind nicht empathisch!“ Allerdings war just in diesem Zusammenhang auch vom Fall Gustl F. Mollath die Rede – dem Opfer eines spektakulären Irrtums menschlicher Repräsentanten der bayerischen Justiz. Der Betroffene befand sich offenbar zu Unrecht jahrelang im psychiatrischen Maßregelvollzug. Andererseits sind Gerechtigkeit und Nachvollziehbarkeit auch bei einer regelbasierten Verarbeitung von (wie gesammelten?) Daten durch (welche?) Algorithmen keine Selbstläufer. Auch hier können gleichermaßen ungerechte wie intransparente Kriterien einfließen und zu entsprechend problematischen Ergebnissen führen.

Schon heute zeugen unter Gerechtigkeitsaspekten Erfahrungen in den USA von bedenklichen Entwicklungen – Stichwort: Northpointe. Ein Computerprogramm der gleichnamigen Firma ist zu unrühmlicher Bekanntheit durch Sozialprognosen für Straftäter gekommen, deren Ermittlungsgrundlagen wie Lebenslauf und Frageschemata sich in Einzelfällen als schlicht rassistisch erwiesen. Auch in anderen Rechtsgebieten als dem Strafrecht sind automatisierte Vorhersagen mit Vorsicht zu genießen. Wenn solche Predictive Analytics nämlich beispielsweise dazu führen, dass man in problematischen Branchen am genauesten hinschaut, so wird man dort auf der Suche nach neuen Problemlagen auch am ehesten fündig werden. Man stelle sich nur eine zivilrechtliche Streitigkeit zwischen einen Gaststättenbetreiber und einem Kreditinstitut vor: Ist dem Gaststättenbetreiber nach zwei Jahren Covid-Krise aller automatisierter Wahrscheinlichkeit nach eher eine zweifelhafte Zahlungsmoral zu unterstellen als es beispielsweise bei einem Pharmakonzern der Fall wäre? Otto Neurath, und später Robert K. Merton, haben seit über 100 Jahren den Mechanismus der sich selbst erfüllenden Prophezeiung (self-fulfilling prophecy) beobachtet. Hier könnte er gleichsam durch die automatische Hintertür wieder eingeführt werden.

Unter Transparenzgesichtspunkten sind sodann gleich mehrere Hürden zu gewärtigen. Hier ist technisches Verständnis gefragt – über das viele Rechtssuchende nur in sehr begrenztem Maße verfügen. Daneben drohen juristische Fallstricke: Wie soll man an die Frage des Urheberrechtsschutzes für Algorithmen herangehen, um nur ein Beispiel zu nennen? Deren Entwicklung ist überaus aufwändig und entsprechend teuer. Sobald und soweit geistiges Eigentum entsteht, stellt sich die Frage nach dem Schutz daraus resultierender Betriebsgeheimnisse. Schließlich erlangen Normen nach unserem heutigen demokratischen Verständnis einen Gutteil ihrer Geltungskraft erst durch ihre Akzeptanz. Dadurch droht die ausgefeilteste Tech-Entscheidung im ungünstigen Fall einem Paradoxon zum Opfer zu fallen: Je feiner ausdifferenziert die so gefundene Lösung ist, desto schwieriger ist sie tendenziell nachzuvollziehen. Just diese Intransparenz könnte die perfekte automatisierte Gerichtsentscheidung dann letztlich ihrer so unabdingbaren Akzeptanz berauben. Wem diese Argumentation zu abstrakt erscheint, der sei an die überaus populäre Forderung des seinerzeitigen CDU-Abgeordneten Friedrich Merz erinnert, eine Steuererklärung müsse sich auf einem Bierdeckel erledigen lassen.

Der Kompromiss

Was den zuletzt genannten Punkt der Transparenz betrifft, werden seit einiger Zeit Lösungsansätze in Form mehr oder weniger stark ausgefeilter Gütekriterien diskutiert. Zwei bekannte Beispiele auf internationaler Ebene sind die ACM-Standards der Association for Computing Machinery, außerdem die FAT Principles for Accountable Algorithms. Während FAT für Fairness, Accountability – also Verantwortlichkeit – und Transparency in Machine Learning steht, zielen die ACM-Kriterien auf:

  1. Problembewusstsein (Awareness) – unentdeckte Vorannahmen,
  2. Zugang und Behebung (Access and Redress) – Prüfmechanismen,
  3. Verantwortlichkeit (Accountability),
  4. Erklärung (Explanation),
  5. Datenursprung (Data Provenance) – Transparenz,
  6. Überprüfbarkeit (Auditability) sowie
  7. Validierung und Testing (Validation and Testing).

Die Adressaten der Gütekriterien werden für jeden einzelnen Bestandteil definiert und reichen von Regulatoren und Institutionen, Designern, Besitzern und Nutzern bis hin zu politischen Entscheidungsträgern. Ebenso können sie sich an Richterinnen und Richter wenden.

Praktisch bedeutsam wird das im Lichte des Vorschlags, den im Herbst 2020 die KI-Enquete-Kommission dem Deutschen Bundestag Ende Oktober 2020 ans Herz gelegt hat. Auch dort ist nämlich nicht von einem Entweder – Oder die Rede. Vielmehr empfiehlt die Enquete-Kommission ein durch Widerspruch geltendes Recht auf menschliche Bearbeitung. Im Zuge dessen dominierten dann auch auf dem AnwaltsZukunftsKongress die Stimmen, die automatisierte Systeme gar nicht verbannen möchten. Stattdessen wollen sie sie in einem vorgelagerten Stadium der Entscheidungsfindung eingesetzt sehen. Vergleichbar dem Mahnverfahren heutiger Prägung könnten dann automatisierte Vorverfahren solange und soweit greifen, wie alle Beteiligten damit einverstanden sind. In „letzter erster Instanz“ kommt es dann jedoch zum Einsatz menschlicher Richterinnen und Richter – die idealerweise auch jetzt schon keine schlechte Laune haben sollten, weder hungrig noch müde, biased noch noised sein sollten. Auch wenn ihnen die Feierabende und Wochenenden wie allen anderen von Herzen gegönnt sind.

Autorin: Dr. Anette Schunder-Hartung ist seit rund 25 Jahren Rechtsanwältin und Inhaberin von aHa Strategische Geschäftsentwicklung in Frankfurt a. M. Ursprünglich aus dem Vergaberecht kommend, berät und coacht die langjährige Redakteurin Jurist:innen und Angehörige verwandter Berufsgruppen auf dem Weg in eine erfolgreichere Zukunft. Im Rahmen ihrer umfangreichen Referentinnentätigkeit moderiert sie regelmäßig u. a. das Zentralpanel auf dem gemeinsamen AnwaltsZukunftsKongress der Medienhäuser Wolters Kluwer Deutschland und Soldan. Dessen Podiumsdiskussion im Oktober 2021 befasste sich wie der vorliegende Text mit dem Thema Roboter in Roben. Allerdings spiegelt der Aufsatz nicht den Inhalt der Diskussion, sondern gibt eigene Gedanken der Verfasserin wieder.

- WERBUNG -