ChatGPT-Fail vor Gericht: Australischer Anwalt blamiert sich mit erfundenen Fällen!

Ein australischer Anwalt hat sich in einem Einwanderungsverfahren auf ChatGPT verlassen – mit fatalen Konsequenzen. Die Künstliche Intelligenz lieferte ihm nicht existierende Gerichtsentscheidungen, die er ungeprüft in seine Schriftsätze einbaute. Nun steht er vor rechtlichen Konsequenzen.
Wie Richterin Rania Skaros am Bundesgerichtshof feststellte, enthielten die Dokumente des Anwalts falsche Zitate und erfundene Urteile. Erst Wochen später bemerkte er den Fehler und entschuldigte sich, doch da war der Schaden bereits angerichtet. Das Gericht musste viel Zeit aufwenden, um die falschen Verweise zu überprüfen.
Der Anwalt erklärte aus Zeitdruck und gesundheitlichen Problemen auf KI zurückgegriffen zu haben. Er habe ChatGPT gebeten, relevante australische Fälle zu finden, und die generierten Zusammenfassungen ohne weitere Prüfung übernommen. Er sei über den Vorfall „zutiefst beschämt“ und wolle seine Kenntnisse im Umgang mit KI verbessern.
Doch die Justiz zeigt sich alarmiert: Das Ministerium für Einwanderung betonte, dass ein solches Vorgehen nicht zur Norm werden dürfe und forderte schärfere Kontrollen. Die Aufsichtsbehörde für Rechtsdienstleistungen in New South Wales wurde eingeschaltet, um über mögliche Sanktionen zu entscheiden.
Es ist bereits der zweite Fall dieser Art in Australien. Erst letztes Jahr wurde ein Anwalt in Melbourne wegen falscher KI-generierter Zitate an die Anwaltskammer gemeldet. Die Gerichte reagieren nun mit strengeren Regeln: In New South Wales dürfen Anwälte generative KI nicht mehr zur Erstellung von eidesstattlichen Erklärungen oder Beweisstücken verwenden.
Der Fall zeigt, wie riskant der unkritische Einsatz von KI im Rechtswesen sein kann. Experten warnen davor, dass generative KI-Systeme wie ChatGPT Informationen oft überzeugend, aber nicht immer korrekt darstellen.