FachartikelLegal KI & ChatGPT

Von Chatbots zu zuverlässigen KI-Assistenten: Zusammenarbeit von generativer und symbolischer KI als Erfolgskonzept

KI-Chatbots, wie ChatGPT und Perplexity, haben die Legal-Tech-Branche nachhaltig beeinflusst und bieten das Potenzial, die Effizienz in der Rechtsanwendung erheblich zu steigern. Trotz beeindruckender Fähigkeiten stoßen sie jedoch an Grenzen, die nach einem nächsten Entwicklungsschritt verlangen.

Grenzen der aktuellen Lösungen

Aktuell werden große Sprachmodelle (LLMs), eine Untergruppe von generativer KI, vor allem in isolierten Anwendungen wie Chatbots eingesetzt. Diese arbeiten auf der Basis probabilistischer Modelle, die Antworten anhand von Wahrscheinlichkeiten generieren. Dies bringt klare Vorteile, kann aber zu Ergebnissen führen, die juristischen Anforderungen nicht immer genügen.

Ein Beispiel hierfür ist die Prüfung von Nebenkostenabrechnungen. Jährlich werden in Deutschland hunderttausende solcher Abrechnungen von Anwälten überprüft. Diese Prüfungen erfordern das manuelle Lesen des Mietvertrags, das Identifizieren relevanter Passagen und die anschließende Überprüfung der Abrechnung gemäß der Betriebskosten- und Heizkostenverordnung. Das erfordert nicht nur Zeit und juristische Erfahrung, sondern auch präzise kalkulatorische Fähigkeiten.

Während ein KI-Chatbot Laien eine erste Einschätzung zur Nebenkostenabrechnung geben kann, reicht ein einfacher Prompt nicht aus, um eine gründliche, fachkundige Prüfung durchzuführen. Die Ergebnisse solcher Chatbot-Prüfungen sind oft nicht detailliert genug, berücksichtigen nicht immer die neueste Rechtsprechung und sind selten nachvollziehbar – ein entscheidender Faktor in der Rechtsbranche.

Hier zeigt sich das Kernproblem: Solange LLMs in ihrer aktuellen Form als alleinstehende Chatbots eingesetzt werden, können Anwälte nur begrenzt von ihnen profitieren. Die probabilistische Natur dieser Modelle führt zu Antworten, die zwar auf den ersten Blick korrekt und für den Laien plausibel erscheinen, aber tatsächlich halluziniert, inkonsistent oder unzuverlässig sein können – ein Risiko, das in der Rechtsbranche untragbar ist.

Der nächste Schritt: Die Integration von symbolischer und generativer KI

Um die genannten Herausforderungen zu bewältigen, muss die Technologie weiterentwickelt werden. Ein sinnvoller nächster Schritt ist die Verbindung von generativer und symbolischer KI. Sprachmodelle wie LLMs sind besonders gut in der Verarbeitung von natürlicher Sprache, während symbolische KI-Systeme, darunter Expertensysteme, auf festgelegten Regeln und logischen Strukturen basieren. In diesen Systemen wird Wissen in einer formalen Sprache dargestellt. Der Nachteil rein symbolischer KI ist, dass sie nur das erkennen kann, was vorher genau festgelegt und definiert wurde. Die Kombination beider Ansätze bietet jedoch klare Vorteile:

1. Erklärbarkeit des Prüfprozesses: Im Gegensatz zu den oft undurchsichtigen „Black-Box“-Ergebnissen reiner LLMs ermöglicht symbolische KI eine transparente Nachvollziehbarkeit jedes Schrittes im Entscheidungsprozess.

2. Kodifizierung der Rechtsmethodologie: Symbolische KI kann genutzt werden, um spezifische rechtliche Methoden präzise abzubilden. Generative KI erlaubt ein System, das dabei flexibel genug bleibt, um sich an neue Anforderungen anzupassen. Hierbei ist wichtig, Input von erfahrenen Juristen zu bekommen, um die Methodik richtig abzubilden.

3. Optimale Nutzung der Stärken von LLMs: Die Stärken der LLMs, wie die Extraktion von Informationen aus unstrukturierten Daten, können in einer hybriden Lösung optimal genutzt werden. Synonyme werden vom System korrekt verstanden, Texte können analysiert oder generiert werden.

Ein Beispiel für diesen kombinierten Ansatz ist die Nebenkostenabrechnungsprüfung durch Leegle.ai – eine Lösung, die sowohl generative als auch symbolische KI einsetzt. Hierbei extrahiert die generative Komponente beispielsweise gezielt Sachverhaltsinformationen aus relevanten Dokumenten wie Mietvertrag und Nebenkostenabrechnung. Auch juristische Subsumtion kann in einem kontrollierten Rahmen durch LLMs ausgeführt werden, beispielsweise um zu prüfen, ob bestimmte Positionen unter die Betriebskostenverordnung fallen. Die symbolischen Aspekte der KI stellen vor allem die allgemeine Methodik und die strukturierten Prüfungsschritte sicher – sei es formell, kalkulatorisch oder materiell. Diese Symbiose ermöglicht es dem Rechtsanwender schnell einen umfassenden, standardisierten Prüfbericht und eine nachvollziehbare Entscheidungsvorlage zu erhalten.

Die Vision: Symbiose von symbolischer und generativer KI als Vorstufe zur automatischen Subsumption

Mit der nächsten Generation von Tools könnten wir einen Zustand erreichen, in dem wir die Stärken deterministischer und generativer KI nutzen, um juristische Standardaufgaben zu automatisieren und Entscheidungen inhaltlich vorzubereiten.

Der generative Teil eines solchen Systems analysiert und extrahiert Informationen und kann mit den verfügbaren, externen Daten Rechtsnormen auslegen und konkrete Sachverhalte subsumieren. Der symbolische Teil des Systems versteht und verinnerlicht die juristische Methodik – Wissen, welches im Code deterministisch festgeschrieben wurde. Eine enge Zusammenarbeit von Mensch und Maschine und eine Bedienoberfläche, die dem Nutzer Transparenz und Handlungshoheit gibt, sichert die Qualität der Ergebnisse. So bleibt der Mensch stets im Fahrersitz und trifft finale Entscheidungen. Der Durchbruch in der Nutzung solcher Systeme wird jedoch nur gelingen, wenn diese vollständig in die Arbeitsabläufe und die Tool-Landschaft der Nutzer integriert werden. Dies wäre ein bedeutender Schritt in Richtung automatischer Subsumption.

Die Vision, dass ein KI-System in der Lage wäre, die Subsumption weitgehend automatisch durchzuführen, ist natürlich ambitioniert und in der aktuellen Forschung und Entwicklung (noch) nicht vollständig realisierbar. Die Subsumption erfordert nicht nur die Anwendung von Rechtsnormen auf Sachverhalte, sondern auch ein tiefes Verständnis der juristischen Argumentation, das gegenwärtige KI-Systeme nur begrenzt beherrschen. Doch mit der Weiterentwicklung der LLMs, sowie der Symbiose von symbolischer und generativer KI kommen wir dieser Vision einen entscheidenden Schritt näher.

Autorin: Dr. Anne Greul ist Mitgründerin und CEO von Leegle.ai, einem Legal Tech Startup aus München. Nach Forschungsarbeiten an der TU und der Stanford University im Bereich Entrepreneurship und Behavioral Economics, hat sie in verschiedenen Positionen bei Audi, McKinsey und einem US-amerikanischen Venture-Capital-Fonds das Potenzial neuer Technologien bewertet und in erfolgsversprechende Geschäftsideen investiert. Gemeinsam mit ihren Kollegen Sebastian und Patrick, zwei erfahrenen Softwareentwicklern und KI-Experten, gründete sie Leegle, um die Arbeit von Rechtsanwendern effizienter, schneller und einfacher zu machen.

- WERBUNG -