FachartikelLegal KI & ChatGPT

Künstliche Intelligenz – Ein Wettlauf der Regularien gegen die Entwicklung?

„Wir versklaven KI, oder sie versklavt uns“; so appellierte Sam Altman, Gründer des Technologieunternehmens OpenAI und Erfinder von ChatGPT, bereits 2016 in der New York Times.

Der Einsatz und die Entwicklung von Künstlicher Intelligenz (KI) hat in den letzten Jahrzehnten rasant zugenommen und ist zu einer der wichtigsten technologischen Innovationen des 21. Jahrhunderts geworden. Die Veröffentlichung von ChatGPT im November 2022 war ein Meilenstein, der das Potenzial von künstlicher Intelligenz auch für Laien demonstrierte und gleichzeitig große Bedenken hinsichtlich der zukünftigen Entwicklung dieser Technologie auslöste.

In Anbetracht der unermesslichen Möglichkeiten, die die KI bietet, ist es jedoch auch offensichtlich, dass eine angemessene und klare Regulierung dieser Technologie erforderlich ist.

Doch was ist bisher tatsächlich geschehen?

Der Artikel soll einen Überblick über die bisherigen Regulierungsansätze der EU geben und eine erste, vorsichtige Einschätzung dahingehend versuchen, inwieweit ChatGPT entsprechenden Regularien unterliegen könnte.

Aktuelle Entwicklung in der KI-Regulierung

Am 21. April 2021 hat die Europäische Kommission dem Europäischen Parlament einen ersten Vorschlag 2021/0106(COD) für ein „Gesetz zur künstlichen Intelligenz“ vorgelegt. Mit der vorgeschlagenen Verordnung soll ein erster Rechtsrahmen für künstliche Intelligenz geschaffen werden, der Vertrauen schafft, ethische Standards durchsetzt, die Beschäftigung fördert, zum Aufbau einer wettbewerbsfähigen „künstlichen Intelligenz made in Europe“ beiträgt und globale Standards beeinflusst, so die Kommission. Ziel sei es, einen legalen Rahmen für die Entwicklung, den Einsatz und die Nutzung von KI-Systemen in der EU zu schaffen.

Am 27. April 2023 einigte sich das Parlament auf den Entwurf einer Stellungnahme. Die federführenden Ausschüsse stimmten am 11. Mai 2023 über den Entwurf ab. Die Schlussabstimmung im Plenum fand im Juni 2023 statt. Nachdem sich das Parlament auf eine Position geeinigt hat, können nun die Verhandlungen mit den EU-Mitgliedstaaten und der Kommission über den endgültigen Gesetzestext beginnen.

Die Verordnung regelt zahlreiche Aspekte im Zusammenhang mit Entwicklung, Bereitstellung und Nutzung von KI-Systemen. Zum einen setzt die Verordnung Mindestanforderungen fest, die von jedem KI-System erfüllt sein müssen, um sicher, transparent, zuverlässig und verantwortungsbewusst zu sein. Dazu gehören Anforderungen an die Datenqualität, die menschliche Überwachung und Kontrolle, die Transparenz und Nachvollziehbarkeit von Entscheidungen sowie die Einhaltung ethischer Grundsätze.

Zum anderen wird in der Verordnung klargestellt, dass die Verantwortung für die Nutzung von KI in erster Linie beim Anbieter und beim Nutzer liegt. Etwaige Sanktionen, die die Verordnung ebenfalls vorsieht, richten sich dabei in erster Linie an die Anbieter und Nutzer der Systeme. Je größer das potenzielle Risiko das vom KI System ausgeht, je strikter die zusätzlichen Regularien. Es wird dabei zwischen risikoarmer, begrenzt riskanter, zu riskanter und verbotener KI unterschieden.

Hochrisikosysteme umfassen unter anderem KI-basierte Anwendungen, die in der Personalverwaltung, bei der Kreditwürdigkeitsprüfung oder in der Industrie als Sicherheitskomponenten oder -bauteile eingesetzt werden. Die Verordnung sieht vor, dass diese Systeme eine Zertifizierung und eine Konformitätsbewertung durchlaufen müssen, damit die durch die Verordnung festgelegten Standards tatsächlich erfüllt werden.

KI-Systeme, die den ethischen Grundsätzen in der EU widersprechen und somit ein inakzeptables Risiko darstellen, sollen, laut der Verordnung, gänzlich verboten werden. Darunter fallen beispielhaft Social-Scoring-Systeme, ein vollständiges Verbot biometrischer Echtzeit-Fernerkennungstechniken im öffentlichen Raum sowie Gesichtserkennungsdatenbanken.

Risikogruppe ChatGPT ?

Doch unter welche Risikogruppe sind ChatGPT und Co. zu subsumieren?

Die Frage umfasst die „General Purpose AI“ (Allzweck KI), welche eine breite Palette von Aufgaben bewältigen kann; eine Art künstlicher Intelligenz, die menschenähnliche Denkfähigkeiten und Anpassungsfähigkeit besitzt.

Nach der Verordnung werden unter General Purpose AIs (GPAI) solche KI-Systeme gefasst, die unabhängig von der Art und Weise, in der sie in Verkehr gebracht oder in Betrieb genommen wurden, Funktionen wie Bild- und Spracherkennung, Audio- und Videogenerierung, Mustererkennung, Beantwortung von Fragen sowie Übersetzungsfunktionen aufweisen und in anderen KI-Systemen integriert werden können.

ChatGPT und andere KI-Systeme dürften als GPAIs i.S.d. Definition zu klassifizieren sein.

Nach aktuellen Plänen könnte „General Purpose AI“ eine eigene Risikokategorie bilden. Dies würde bedeuten, dass Unternehmen, die ChatGPT und ähnliche Systeme einsetzen, einige der gleichen Verpflichtungen erfüllen müssten, die für hochriskante KI gelten.

Ein wichtiger – bisher nicht geklärter – Punkt um General Purpose AI ist dabei insbesondere die Frage der sog. „Superintelligenz“. Superintelligenz bezieht sich auf eine KI, die nicht nur menschenähnliche Intelligenz aufweist, sondern auch in der Lage ist, weit über die Fähigkeiten des menschlichen Verstands hinaus zu denken und zu handeln. Diese Idee wirft eine Vielzahl von ethischen, technischen und sicherheitsrelevanten Fragen auf, die bei der Entwicklung und Regulierung von KI-Systemen berücksichtigt werden müssen.

Die Frage ist im Entwurf jedoch nicht abschließend geklärt, wirft jedoch bereits jetzt erhebliche Fragen nach einer allgemeingültigen Regulierung auf.

Zusammenfassung

Festzuhalten ist, dass der vorgesehene Rechtsrahmen einen Beitrag leisten kann, das Vertrauen und die Akzeptanz in KI zu stärken. Die Unternehmen brauchen klare und verständliche Kriterien, was als spezifisches Risiko einer KI zu verstehen ist. Nur so ist es möglich, die Betroffenheit schnell, einfach und rechtssicher zuzuordnen. Bürokratischer Aufwand und Doppelregulierung sind zu vermeiden, um Belastungen gering zu halten und damit die europäische Wettbewerbsfähigkeit sowie die Weiterentwicklung von KI in Europa zu sichern.

Die Tatsache, dass bis heute kein Gesetz verabschiedet worden ist, zeigt, wie komplex die Fragestellung tatsächlich ist.

Sollte eine Einigung vor der Europawahl im kommenden Jahr gelingen, könnte die KI-Verordnung aber voraussichtlich erst im Jahr 2026 anwendbar sein, da eine Übergangsfrist von bis zu zwei Jahren vorgesehen ist. Nach ihrer Verabschiedung werden dies die weltweit ersten rechtlichen Vorschriften für KI sein.

Bis dahin steht die Entwicklung künstlicher Intelligenz jedoch nicht still, sondern entwickelt sich stetig, täglich weiter. Insofern dürfte sich die Frage stellen, inwiefern eine entsprechende Regelung bei der Umsetzung nicht längst überholt sein dürfte.

Die Entwicklung von Künstlicher Intelligenz wird – mit oder ohne rechtlichen Rahmen – ohnehin erfolgen. Es wird ein Balanceakt werden, die Chancen in Einklang mit der uns treffenden Verantwortung zu setzen. Wir sollten dabei die Chancen, die uns der Einsatz von KI bietet, nicht verschlafen, sondern als Vorreiter die Entwicklung gemeinsam verantwortungsvoll und innovationsfördernd voranbringen.

Autorin: Scarlett Matheja berät als Standortleitung Hannover bei der Römermann Rechtsanwälte AG vorwiegend im Gesellschaftsrecht. Neben der umfassenden Betreuung von Unternehmern liegt ein weiterer Schwerpunkt ihrer Tätigkeit im Recht der freien Berufe (insbesondere dem Berufsrecht der Rechtsanwälte und Notare) und Legal Tech Unternehmen.

- WERBUNG -