Fachartikel

Künstliche Intelligenz in der Rechtsbranche – aber sicher!

Künstliche Intelligenz (KI) wird mehr und mehr zur Commodity, vor allem seit der Veröffentlichung von großen Sprachmodellen (LLMs) und Generativer KI. Die Folge ist, dass die Komplexität der Anwendung in Unternehmen in den Vordergrund rückt. Wir wollen in diesem Beitrag die Möglichkeiten aufzeigen, diese Technologien einzusetzen und gleichzeitig Datenschutz, -sicherheit und IT-Compliance zu gewährleisten.

Herausforderungen beim Einsatz von KI

Bei der Entscheidung, wie und welche KI-Technologie eingesetzt werden soll, spielen viele Faktoren eine Rolle. Typischerweise sind es die Geeignetheit für den Anwendungsfall, inkl. Qualität der Ergebnisse, die Kosten, Datenschutz sowie IT-Security, -Governance und -Compliance. Während Geeignetheit und Kosten recht einfach zu evaluieren sind, stellen Datenschutz und die IT-bezogenen Themen Risiken dar, die schwerer festzustellen sind, aber im Schadensfall potenziell enorm kostspielig werden können.

Die allgemeine Handlungsempfehlung für Unternehmen ist dabei, einerseits Unternehmensvorgaben wie mögliche Datenspeicherorte, die Auswahl von Anbietern und die Freigabe der Technologie zu machen, aber auch den einzelnen Einsatz sorgfältig zu prüfen. Themen wie Risikobewertungen, Sicherstellung der Auditierbarkeit und eine Prüfung der IT-Sicherheit & Zertifizierungen der Anbieter sollten dabei zu einem festen Bestandteil der KI-Einführung gemacht werden.

Auch für die Rechtsbranche bietet Generative KI einen nie dagewesenen Baukasten an Funktionen und Möglichkeiten. Manches wird von Nutzern inzwischen erwartet, andere Funktionen begeistern sie.

Wie wird KI in Unternehmensabläufe integriert?

Aktuell gibt es verschiedene Arten, wie KI technisch in Unternehmen eingesetzt werden:

1. Sprachmodule können direkt „out-of-the-box“ als Produkt genutzt werden, z.B. ChatGPT oder Perplexity. Hier findet keine Anpassung auf einen bestimmten Use Case statt, sondern alles wird im Eingabefeld (Prompt) vom Nutzer eingegeben. Der Nutzer spezifiziert also die Aufgabe, den Kontext, gibt ggf. Dokumente mit und bestimmt das Ausgabeformat. Die Anwendung wird vom Anbieter bereitgestellt und gehostet.

2. Alternativ können Sprachmodelle direkt in Applikationen eingebunden und genutzt werden. Hierbei kann man unterscheiden, ob die Sprachmodelle beim Anbieter gehostet und über eine Schnittstelle angesteuert werden, oder ob sie Teil einer Infrastruktur-Plattform sind und in diesem Rahmen zur Verfügung gestellt werden.

3. Es werden teilweise eigene Modelle für rechtliche Anwendungen trainiert und von Anbietern zur Verfügung gestellt (Harvey, Noxtua, etc.). Möglich ist es für Unternehmen auch, Open Source-Modelle selbst für die eigenen Anforderungen zu trainieren und in der eigenen Umgebung bereitzustellen.

Diese Einsatzszenarien sind nicht abschließend oder immer klar abgrenzbar, in vielen Organisationen gibt es diverse und kombinierte Einsatzszenarien, die vom jeweiligen Anwendungsfall abhängen.

Hohe Sicherheit durch Private Cloud Application

Für die Plattform LEDOX365 verfolgen wir das zweite Einsatzszenario und setzen dabei auf unsere Private Cloud Application-Architektur. Das bedeutet, dass die Daten unserer Kunden vollständig in der Kundenumgebung verbleiben, speziell in der privaten Microsoft 365 und Azure Cloud. Dieses Prinzip setzen wir auch bei der Nutzung von KI in unserer Lösung konsequent um. Wir greifen dabei auf die Azure OpenAI Services zu. Mit der Integration der OpenAI Modelle auf der Azure Plattform können wir über die neuesten Modelle verfügen und via API-Zugriff neue Funktionen entwickeln. Damit verbinden wir die neuen Möglichkeiten der KI-Modelle mit den Funktionen und Daten von LEDOX365. So können die Vorteile einer Cloudumgebung, die skalierbar und überall hochverfügbar ist, mit maximaler Kontrolle über die eigenen Daten sowie starkem Datenschutz kombiniert werden. Unternehmen behalten die Kontrolle über ihre Daten und können wichtige Entscheidungen wie Datenspeicherort, Inhaltsfilter und Zugriffe bestimmen. Die bereits bestehenden Sicherheitskonfigurationen des Unternehmens können nahtlos weitergenutzt werden.

Vertrauen der Nutzer

Generell geht es bei der Einführung von neuen Möglichkeiten aber nicht nur um die Sicherheit und den Schutz von Daten, sondern auch darum, Vertrauen bei den Nutzern aufzubauen und damit reale Mehrwerte schaffen zu können. Mit unserer Umsetzung der KI-Funktionen besteht eine hohe Flexibilität, Standard- und spezielle Funktionen tief in den eigenen Workflow zu integrieren und nicht nur ein reines Chat-Fenster zur Verfügung gestellt zu bekommen, in dem die Nutzer selbst prompten (müssen). Dies kann nicht nur Nutzer überfordern, sondern auch ein Risiko für das Unternehmen darstellen, indem die Qualität der Ergebnisse und deren Weiterverarbeitung stark variiert und uneinheitlich ist.

Die Zukunft stellt weitere spannende Entwicklungen in Aussicht: so werden sich KI-Modelle bald Inhalte merken können, es können noch einfacher eigene Daten- und Wissensspeicher genutzt werden und die Modelle werden wieder kleiner bei gleichbleibender Leistung. Es entwickeln sich integrierte Technologien wie RAG-Systeme (Retrieval Augmented Generation), Middle Ware-Lösungen und die Verbesserung von Sicherheit, Datenschutz und der Effizienz der Technologie ebenso schnell wie die Foundation Models (wie z.B. GPT-4o). Für Unternehmen ist es wichtig, diese Entwicklungen genau mitzuverfolgen und in interne Vorgaben und Freigaben zum Einsatz und der Anwendung von KI weiter im Blick zu behalten.

Fazit

Dieses und weitere Themen werden sich in der Zukunft weiterentwickeln und es werden neue Risiken, Anforderungen, aber auch Möglichkeiten dazukommen. Dabei empfehlen wir Unternehmen, bei der Einführung von KI-Technologien eine klare Strategie zu entwickeln und zu verfolgen. Diese sollte die sorgfältige Auswahl vertrauenswürdiger Anbieter, die Sicherstellung von Datenschutz- und Sicherheitsstandards sowie die regelmäßige Überwachung und Auditierung der eingesetzten KI-Systeme umfassen. Zudem sollten klare interne Richtlinien entwickelt werden, um den sicheren und effektiven Einsatz von KI zu gewährleisten. Kontinuierliche Schulungen der Mitarbeiter sowie die Anpassung an regulatorische Entwicklungen, wie die KI-Verordnung der EU AI Act, sind ebenso entscheidend, um langfristig Wettbewerbsvorteile zu sichern, Vertrauen bei den Nutzern aufzubauen und gleichzeitig Risiken zu vermeiden.

Autor: Dr. Sven von Alemann ist Head of Legal Tech und General Counsel der Join GmbH. Als Rechtsanwalt und Unternehmer hat er mehr als 15 Jahren Erfahrung in Rechtsberatung und Legal Tech mit Stationen in Großkanzlei und Inhouse sowie als Gründer des Legal Tech Startups rfrnz GmbH und in der Beratung von Rechtsabteilungen.

Autor: Alexander Gröger leitet die Produktentwicklung der Join GmbH und entwickelt innovative Legal Tech Anwendungen, vorrangig die Contract Lifecycle Management-Plattform LEDOX365. Seine langjährige Erfahrung in den Bereichen IT-Consulting, Projekt- und Produktmanagement nutzt er, um die Effizienz von Unternehmen und deren Rechtsabteilungen zu steigern und erfolgreich digitale Lösungen zu implementieren.

- WERBUNG -