Legal KI & ChatGPTLegal Tech Nachrichten

Verleumdungsklage gegen OpenAI: ChatGPT verklagt wegen diffamierender Aussagen

Künstliche Intelligenz wird erstmals Gegenstand einer Verleumdungsklage. Der Hersteller von ChatGPT, OpenAI, sieht sich mit einer Klage konfrontiert, in der ein Mann Schadensersatz für Aussagen fordert, die einem Journalisten von der KI-Plattform übermittelt wurden. In der Klage wird beschrieben, dass die KI fälschlicherweise behauptet habe, der Mann sei des Veruntreuens von Geldern beschuldigt worden.

Mark Walters aus Georgia reichte die Klage Anfang dieser Woche beim Gericht im Gwinnett County ein. Sein Anwalt John Monroe behauptet, dass die Chatbot-KI „per se“ Verleumdung begangen habe, was bedeutet, dass eine von ihr getätigte Aussage den Ruf von Walters voraussichtlich schädigen werde. Laut der Beschwerde bat ein Journalist namens Fred Riehl ChatGPT während einer Berichterstattung über einen Gerichtsfall um eine Zusammenfassung der Vorwürfe einer bestimmten Klage und gab ChatGPT den Link zu der Klageschrift als Referenz.

Statt genaue Informationen zurückzugeben, habe ChatGPT „halluziniert“ und den Namen von Mark Walters mit einer Strafanzeige in Verbindung gebracht und darüber hinaus fälschlicherweise behauptet, er habe Gelder veruntreut. Laut der Klage setzte Riehl sich mit Alan Gottlieb, einem der Kläger in der tatsächlichen Washingtoner Klage, wegen ChatGPTs Anschuldigungen gegen Walters in Verbindung, und Gottlieb bestätigte, dass diese falsch seien. Keine der Aussagen von ChatGPT über Walters findet sich in der tatsächlichen Klage. Die falsche Antwort, die ChatGPT Riehl gab, behauptete, dass Walters Schatzmeister und Chief Financial Officer von SAF sei und dass er „Gelder und Vermögenswerte von SAF veruntreut und unterschlagen“ habe. Als Riehl ChatGPT darum bat, den vollständigen Text der Klage bereitzustellen, gab es eine komplett erfundene Klage zurück, die keinerlei Ähnlichkeit mit der tatsächlichen Klage aufwies, einschließlich einer falschen Aktennummer. Walters klagt nun auf Schadensersatz.

Es ist bekannt, dass ChatGPT gelegentlich falsche Informationen generiert, was auch als Halluzinationen bezeichnet wird. Der KI-Plattform wurde bereits vorgeworfen, Nachrufe für noch lebende Personen zu verfassen, und im Mai dieses Jahres wurde sie beschuldigt, gefälschte juristische Zitate zu erfinden, die auf nicht vorhandene frühere Fälle verweisen.

- WERBUNG -