FachartikelLegal KI & ChatGPT

Die Bedeutung von KI im Rechtsmarkt

KI ist derzeit auch auf dem Rechtsmarkt in aller Munde. Im November 2022 ging die KI-Anwendung ChatGPT viral und hat einen wahren Hype ausgelöst. Doch was ist eigentlich KI im rechtlichen Umfeld? Und was genau meint Hochrisiko-KI? Final kann (noch) niemand diese Frage beantworten. Die Kommission arbeitet aktuell daran, eine zufriedenstellende Definition zu finden.

Die KI-Verordnung im Regulierungsgefüge

Die geplante KI-Verordnung ist in ein internationales AI-Regulierungspaket eingebettet, das seinen Ursprung in einem White Paper aus dem Jahr 2020 hat. Seitdem befassen sich zahlreiche Komitees, Expertenrunden und Länder mit dem richtigen regulatorischen Umgang von KI.

Anwendungsbereich der geplanten KI-Verordnung

Von der aktuellen Fassung des Entwurfs zur geplanten KI-Verordnung, dem Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (AI Act) and amending certain Union legislative acts, sollen künftig – branchenübergreifend – folgende Regelungen festgelegt werden:

  • Harmonisierte Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Nutzung von Systemen der KI in der EU
  • Verbote bestimmter Praktiken der KI
  • Spezifische Anforderungen für KI-Systeme mit hohem Risiko und Verpflichtungen für die Betreiber solcher Systeme
  • Harmonisierte Transparenzvorschriften für bestimmte KI-Systeme
  • Vorschriften für die Marktüberwachung, die Marktaufsicht und die Unternehmensführung
  • Maßnahmen zur Unterstützung von Innovationen definieren.

Diese Vorschriften gelten auf „personeller“ Ebene für:

  • Anbieter, die in der Union KI-Systeme in Verkehr bringen oder in Betrieb nehmen
  • Nutzer von KI-Systemen, die in der Union ansässig oder niedergelassen sind
  • Anbieter und Nutzer von KI-Systemen, die in einem Drittland ansässig oder niedergelassen sind, wenn der von dem System erzeugte Output in der Union verwendet wird
  • Importeure und Händler von KI-Systemen
  • Produkthersteller, die ein KI-System in Verkehr bringen oder in Betrieb nehmen
  • Bevollmächtigte Vertreter von Anbietern, die in der Union niedergelassen sind.

Damit ist die Anwendbarkeit grundsätzlich sehr weit gefasst. Denn die Verordnung umfasst die gesamte KI-Wertschöpfungskette, von der Erzeugung bis hin zum bloßen Inverkehrbringen. Dies gilt aufgrund der Ausdehnung auf Drittländer grundsätzlich auch global. Die eigentliche Kernfrage bleibt: Wann liegt überhaupt eine KI vor? Und noch genauer für den Rechtsmarkt: Welche Legal Tech-Anwendung ist auch eine KI-Anwendung und unterfällt damit der künftigen Regulierung?

Der Unterschied von KI und Hochrisiko-KI

Der Begriff KI wird seit Jahren inflationär verwendet. Denn nicht selten soll der Begriff seinem Gegenüber besondere Innovationskraft und Zukunftsaffinität suggerieren. Doch nicht überall wo KI drauf steht, ist auch KI drin. Häufig werden Softwareanwendungen mit KI überschrieben, ohne dass sie nach der aktuellen Entwurfsdefinition wirklich KI wären.

Umso wichtiger sind vor dem aktuellen Hintergrund der geplanten KI-Verordnung die richtige Einordnung und ein einheitliches Verständnis davon, was KI wirklich ist.

Um sicherzustellen, dass die Definition eines KI-Systems hinreichend klare Kriterien für die Unterscheidung zwischen KI und anderen Softwaresystemen enthält, plant der Gesetzgeber KI auf Systeme einzugrenzen, die mit Hilfe von Ansätzen des maschinellen Lernens, sowie logik- und wissensbasierten Ansätzen entwickelt wurden.

Systeme sind dann KI-Systeme, wenn sie autonom arbeiten und mit Hilfe von maschinellem Lernen und/oder logischen und wissensbasierten Ansätzen ableiten, wie eine bestimmte Reihe von Zielen erreicht werden kann. Ob die dabei zugrundeliegenden Daten maschinelle oder menschliche Daten sind, spielt dabei keine Rolle. Entscheidend ist, dass systemgenerierte Ergebnisse wie Inhalte (generative KI-Systeme), Vorhersagen, Empfehlungen oder Entscheidungen erzeugen, die die Umgebung beeinflussen, mit der das KI-System interagiert. Diese Definition wird vielfach als zu unpräzise angesehen. Eine finale Legaldefinition steht aktuell noch aus.

Noch weitreichendere Folgen hat es, wenn eine KI als sog. Hochrisiko-KI eingestuft wird. Notwendig werden dann u.a. die Implementierung von Risikomanagement-Systemen, umfangreiche technische Dokumentationen und die Protokollierung über die gesamte Lebensdauer des KI-Systems.

Doch wann liegt eine Hochrisiko-KI vor? Jedenfalls dann, wenn KI-Systeme als Sicherheitskomponente eines Produktes eingesetzt werden, das nach EU-Vorschriften vor dem Inverkehrbringen durch Dritte kontrolliert werden muss oder das System selbst ein solches Produkt ist.

Zudem gilt eine Großzahl an weiteren KI-Systemen als Hochrisiko-KI, die im Anhang des Entwurfs aufgezählt werden. Erfasst werden damit vor allem KI-Systeme, von denen eine Bedrohung für die Gesundheit, die Sicherheit oder die Ausübung von Grundrechten ausgehen kann.

Auswirkung auf Legal Tech-Anbieter und Gründung der KI-Expertengruppe

Bevor eine abschließende Einordnung der Auswirkungen auf den Legal Tech-Markt erfolgen kann, bleiben die finalen Definitionen des Gesetzgebers abzuwarten. Aufgrund der jüngsten – und von ChatGPT maßgeblich getriebenen – Entwicklungen im Bereich KI hat die Diskussion darüber, welche Legal Tech-Anwendungen tatsächlich unter den Begriff KI fallen (werden) längst begonnen.

Sollten die sog. „Large Language Models“ als Hochrisiko-KI eingestuft werden? Besteht durch sie tatsächlich eine Bedrohung für die Gesundheit, Sicherheit oder die Ausübung von Grundrechten?

Die vertretenen Positionen könnten dabei nicht konträrer sein. Von als völlig harmlos eingestuft bis hin zu gefährlich und deshalb unbedingt streng regulierungsbedürftig, wird alles vertreten. Die Begründungen sind ebenso vielfältig – häufig ist die Besorgnis zukünftiger Entwicklungen der Modelle dabei Mittelpunkt der Diskussionen. Die Wahrheit ist: Zum aktuellen Zeitpunkt kann keine verlässliche Aussage darüber getroffen werden, welche Systeme KI-Systeme i.S.d. Gesetzes sein werden. Und auch die Zukunft von KI kennt niemand genau. Welche Potenziale und Gefahren in den Systemen stecken, wird sich laufend ändern und bedarf daher einer engen kommunikativen und regulatorischen Begleitung. Mit Sicherheit werden Legaldefinition und Kriterien zur Einordnung von Systemen schon in wenigen Jahren einer kompletten Novellierung bedürfen.

Um dieser Komplexität gemeinsam entgegenzutreten, hat der für alle Akteure am Rechtsmarkt stehende Legal Tech Verband Deutschland eine Expertengruppe KI ins Leben gerufen. In regelmäßigen – digitalen – Treffen erarbeitet die Gruppe nun eine gemeinsame Position zur Einordnung der regulatorischen Anforderungen. Dazu zählt:

  • Welche Legal KI-Anwendungsfälle gibt es aktuell überhaupt in Deutschland?
  • Was versteht man unter „normaler“ Legal Tech-Anwendung? 
  • Wann fällt eine Legal Tech-Anwendung unter das Gesetz und wann nicht? 

Der Legal Tech Verband Deutschland wird die weitere Entwicklung laufend beobachten. Geplant sind außerdem regelmäßige Veröffentlichungen der Expertengruppe KI.

Autorin: Valerie Keilhau, Geschäftsführerin Legal Tech Verband Deutschland. Valerie ist Volljuristin mit jahrelanger Erfahrung im Bereich PR und Öffentlichkeitsarbeit. Für den Verband tritt sie für einen innovationsfreundlichen Rechtsrahmen und die Interessen der deutschen Legal Tech-Branche ein.

Autorin: Dr. Susann Funke, CEO, Legal Officer LEX AI GmbH, Rechtsanwältin. LEX AI ist ein deutsches Legal Tech-Startup (www.lexai.co) mit Sitz in Hamburg, das maschinelles Lernen und Künstliche Intelligenz kombiniert mit innovativem Legal Design einsetzt, um das Legal Monitoring bis hin zum Knowledge Management radikal zu verbessern. Ziel von LEX AI ist es, die Kosten und den Aufwand hierfür um bis zu 75% zu reduzieren. Susann leitet außerdem die Expertengruppe KI beim Legal Tech Verband Deutschland.

- WERBUNG -