KI-Kurs Teil 4: Wichtige Begriffe die Sie kennen müssen!
In den vorangegangenen Teilen unseres KI-Kurses haben wir uns bereits intensiv mit verschiedenen Aspekten künstlicher Intelligenz auseinandergesetzt. Dieses Wissen bildet ein solides Fundament, um das große Potenzial, aber auch die Grenzen der Technologie zu erkennen.
Künstliche Intelligenz ist nicht nur ein Schlagwort oder ein futuristisches Konzept. Es ist eine Technologie, die bereits heute in vielen Bereichen unseres Alltags und unserer Arbeitswelt eingesetzt wird. Von einfachen Chatbots über komplexe Vorhersagesysteme bis hin zu autonomen Fahrzeugen – KI gestaltet unsere Zukunft aktiv mit.
Um die Funktionsweise und die dahinterstehenden Konzepte besser zu verstehen, wollen wir uns in diesem Abschnitt einige zentrale Begriffe – metaphorisch unterstützt – genauer anschauen. Dies wird nicht nur dabei helfen, ein tieferes technisches Verständnis für KI zu entwickeln, sondern auch, um als Jurist fundierte Entscheidungen im Umgang mit KI-Systemen treffen und informierte Fragen stellen zu können.
Künstliche Intelligenz (KI)
Das ist ein Bereich der Informatik, der darauf abzielt, Maschinen und Computerprogramme zu entwickeln, die menschenähnliche Denk- und Handlungsprozesse ausführen können. Stellen Sie sich das vor wie einen Computer, der „denkt“ und Entscheidungen ähnlich wie ein Mensch trifft. Aus juristischer Sicht ist besonders relevant, ob nachvollzogen werden kann, wie ein Ergebnis zustande gekommen ist.
Machine Learning (Maschinelles Lernen)
Dabei handelt es sich um einen Unterbereich der KI. Es geht darum, dass Maschinen aus Daten lernen, ähnlich wie wir Menschen aus Erfahrungen lernen. Es ist so, als würden Maschinen die Seiten eines unendlich umfangreichen Buches durchblättern, in dem jede Seite eine neue Lektion enthält. Statt alles als Software-Programme zu programmieren, „lernen“ Computer aus den Daten und verbessern sich dabei, fast so als würden sie ihre Muskeln trainieren. Für das „Lernen“ gibt es verschiedene Methoden, die in den verschiedenen Systemen zum Einsatz kommen:
• Supervised Learning (Überwachtes Lernen)
Hier wird ein Algorithmus, also eine Art Rechenanweisung oder Programm, mit Daten trainiert, die schon beschriftet sind. Es ist wie das Malen nach Zahlen, wo die Konturen vorgegeben sind und man nur die richtigen Farben ausfüllen muss. Denken Sie an ein Kind, das Bilder von Hunden gezeigt bekommt und dabei immer wieder hört: „Das ist ein Hund.“ Nach einer Weile erkennt es Hunde von alleine.
• Unsupervised Learning (Unüberwachtes Lernen)
Der Algorithmus wird mit Daten ohne Beschriftung gefüttert und soll dann selbstständig Muster oder Zusammenhänge erkennen. Es ist so, als würden Sie ein Puzzle ohne Vorlage zusammensetzen oder in einen Wald voller unbekannter Tiere gehen und versuchen, sie in Gruppen zu sortieren, auch wenn Sie ihre Namen nicht kennen.
• Reinforced Learning (Bestärkendes Lernen)
Dabei lernt der Algorithmus durch Ausprobieren und erhält Feedback in Form von Belohnungen oder Strafen. Vergleichbar wie ein Goldgräber, der immer wieder an verschiedenen Orten gräbt, bis er auf Gold stößt. Ein Haustier, das einen Trick lernt, ist ähnlich: Wenn es den Trick gut macht, bekommt es ein Leckerli; macht es den Trick nicht, bleibt die Belohnung aus.
Deep Learning
Das ist eine besondere Art von Machine Learning, bei der sogenannte neuronale Netzen sehr viele Schichten (tief) haben. Diese Methode wurde vom menschlichen Gehirn inspiriert und kann sehr komplexe Muster in Daten erkennen
Starke KI
Das ist das ultimative Ziel: Eine KI, die wie ein Mensch in jeglicher Hinsicht denken kann. Eine Maschine mit einer starken KI könnte Theorien entwickeln, Kunst erschaffen oder komplexe menschliche Emotionen haben. Derzeit gibt es noch keine Tools, die der starken KI zugeordnet werden.
Schwache KI
Im Gegensatz dazu kann eine schwache KI nur spezifische Aufgaben erfüllen, für die sie programmiert oder trainiert wurde. Ihr Smartphone-Sprachassistent ist ein Beispiel: Er kann Fragen beantworten oder das Wetter vorhersagen, aber nicht über seine Existenz philosophieren.
(Künstliche) Neuronale Netze
Das sind mathematische Modelle, die wiederum vom menschlichen Gehirn inspiriert sind. Sie bestehen aus „Neuronen“, die in „Schichten“ angeordnet sind und Informationen verarbeiten. Sie sind der Kern vieler Machine-Learning-Methoden, insbesondere des Deep Learning.
Turing Test
Ein Test, den der Mathematiker Alan Turing vorgeschlagen hat, um die menschenähnliche Intelligenz einer Maschine zu prüfen. Wenn ein Mensch durch Gespräche mit einer Maschine und einem echten Menschen nicht erkennen kann, wer die Maschine ist, dann hat die KI den Turing Test bestanden.
GANs (Generative Adversarial Networks)
Stellen Sie sich zwei Künstler vor: Einer erstellt Fälschungen, und der andere versucht herauszufinden, ob sie echt oder gefälscht sind. Mit jeder Runde werden beide besser. In der KI-Welt arbeiten zwei Netzwerke auf ähnliche Weise zusammen: Eines erstellt Daten und das andere bewertet sie. Gemeinsam werden sie immer besser.
Bias
Bias in der KI ist wie eine Voreingenommenheit bei Menschen. Wenn wir ein KI-System mit Daten füttern, die nicht vielfältig oder nicht repräsentativ sind, könnte das System unfaire oder ungenaue Vorhersagen treffen. Es ist, als ob Sie immer nur Apfelkuchen essen und dann denken, alle Kuchen schmecken so. Es ist daher besonders wichtig zu verstehen, mit welchen Daten ein System gefüttert wurde. Ein mit Poesie-Literatur trainiertes System wird sicher eine andere Voreingenommenheit haben, als eine mit Propaganda-Material gefütterte KI.
Finetuning
Stellen Sie sich vor, Sie haben einen Koch, der ausgezeichnete italienische Gerichte zubereitet. Eines Tages entscheiden Sie sich, ihm beizubringen, auch französische Küche zu kochen. Anstatt von Grund auf neu zu beginnen, nutzen Sie seine bereits vorhandenen Kochkenntnisse und verfeinern (oder „finetunen“) diese speziell für französische Rezepte. Ähnlich funktioniert Finetuning bei KI: Man nimmt ein bereits trainiertes Modell und „schult“ es weiter, sodass es sich einer neuen, aber ähnlichen Aufgabe anpasst.
Kontextualisierung
Denken Sie an das Sprichwort „den Wald vor lauter Bäumen nicht sehen“. Einzelne Bäume (oder Worte und Daten in KI) haben ihre eigene Bedeutung, aber der gesamte Wald (oder der Kontext, in dem diese Worte und Daten stehen) gibt ein vollständigeres Bild. Bei KI bedeutet Kontextualisierung, dass das System nicht nur isolierte Informationen betrachtet, sondern auch, wie sie in Beziehung zueinander stehen und in einem größeren Rahmen passen. Es ist wie das Lesen eines Buches und das Verstehen nicht nur der einzelnen Wörter, sondern auch der gesamten Geschichte, die sie erzählen.
Large Language Models (LLM)
Ein Large Language Model (LLM) ist ein maschinelles Lernmodell, speziell aus dem Bereich des Deep Learning, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren. Es basiert auf riesigen Mengen an Textdaten, um komplexe sprachliche Muster zu erkennen. Bei einer Anfrage analysiert das LLM den Kontext und verwendet sein gelerntes Wissen, um relevante und zusammenhängende Antworten oder Texte zu generieren. Es wird häufig in Bereichen wie automatischer Texterzeugung, maschinellem Übersetzen oder in Chatbots eingesetzt.
Ein LLM ist vergleichbar mit einem Fluss, der aus unzähligen kleineren Bächen und Quellen gespeist wird, die das kollektive Wissen der Menschheit repräsentieren. Bei einer Anfrage taucht es in seine Tiefen ein, navigiert durch die Strömungen der Informationen, um schließlich eine Antwort ans Ufer zu bringen. Es ähnelt einem Geschichtenerzähler, der aus einem unendlichen Repertoire an Geschichten, Erfahrungen und Fakten schöpft, um in jeder Situation eine passende Antwort zu geben.
Autor: Stefan Schicker ist Rechtsanwalt und Partner bei SKW Schwarz sowie Innovationsberater mit speziellem Fokus auf KI und Mindset-Wandel.