Anwalt blamiert sich mit halluziniertem KI-Schriftsatz – Gericht spricht von Verstoß gegen BRAO
Ein kurioser, aber ernstzunehmender Fall aus Köln sorgt derzeit für Aufsehen in der juristischen Fachwelt: Ein Rechtsanwalt reichte beim Amtsgericht Köln einen Schriftsatz ein, der offensichtlich in weiten Teilen von einer Künstlichen Intelligenz erstellt worden war, inklusive zahlreicher frei erfundener Zitate, Literaturstellen und Quellen. Das Gericht reagierte scharf und stellte klar: Solch ein Vorgehen stellt nicht nur ein Problem der juristischen Sorgfalt dar, sondern kann auch berufsrechtliche Konsequenzen nach sich ziehen!
Konkret geht es um ein Verfahren vor dem Familiengericht Köln (Az. 312 F 130/25). Das Gericht stellte am 2. Juli 2025 fest, dass sämtliche ab Seite acht aufgeführten Quellen im Schriftsatz des Anwalts schlichtweg erfunden waren. Randziffern, Urteile, angebliche Literaturstellen – nichts davon existierte tatsächlich. Die KI hatte, wie es im Fachjargon heißt, „halluziniert“. Unter anderem wurde etwa ein Kommentar aus dem Münchener BGB einem falschen Autor zugeordnet, fiktive Fundstellen genannt oder nicht existierende Fachaufsätze wie „Brons, Kindeswohl und Elternverantwortung, 2013“ angeführt.
Nach Einschätzung des Gerichts hatte der Anwalt die KI offenbar ohne ausreichende juristische Kontrolle oder Zugang zu relevanten Fachdatenbanken eingesetzt. Die verwendete Sprach-KI war in der Lage, syntaktisch und grammatikalisch korrekte juristische Texte zu erzeugen, doch die inhaltliche Überprüfung fehlte vollständig. Der Prompt, der dem Schriftsatz zugrunde lag, führte dazu, dass die KI zwar einen vermeintlich fundierten Text erstellte – die darin enthaltenen Nachweise jedoch komplett aus der Luft griff.
Das Amtsgericht ließ an Deutlichkeit nichts vermissen. Es stellte klar, dass ein solches Vorgehen nicht nur die Rechtsfindung erheblich erschwere, sondern auch das Vertrauen in anwaltliche Schriftsätze untergrabe. Zudem könne das Verhalten berufsrechtlich relevant sein. § 43a Abs. 3 BRAO verpflichtet Anwältinnen und Anwälte, keine unwahren Tatsachen vorzutragen – zumindest dann nicht, wenn dies bewusst geschieht. Ob ein bloßer Fahrlässigkeitsverstoß hierfür bereits genügt oder ein vorsätzliches Handeln notwendig ist, wird juristisch kontrovers diskutiert.
Darüber hinaus könnte sogar der Vorwurf eines versuchten Prozessbetrugs im Raum stehen – insbesondere dann, wenn die bewusst oder zumindest billigend in Kauf genommenen Falschinformationen das Gericht irreführen sollen. Zwar hat die Rechtsprechung, etwa ein OLG-Beschluss von 2004, solche Fälle eher zurückhaltend behandelt, doch die zunehmende Verbreitung von KI-Tools dürfte die Debatte neu entfachen.
Der Fall ist ein warnendes Beispiel für die Risiken unkritischer KI-Nutzung im juristischen Alltag. Wer sich ungeprüft auf generative KI-Chatbots verlässt, riskiert nicht nur eine Blamage vor Gericht, sondern auch berufsrechtliche Konsequenzen. Mittlerweile gibt es mehrere Anbieter von juristischer KI, mit der dieser Fall nicht passiert wäre. Daher ist es für Juristen sehr wichtig sich umfassend über aktuelle KI-Tools zu informieren.






