Ein Norweger gerät ins Visier von ChatGPT: Falsche Mordgeschichten und echte Details sorgen für Aufregung. Die DSGVO stellt klare Anforderungen.
In den letzten Jahren hat die Künstliche Intelligenz, insbesondere durch den Einsatz von ChatGPT, zahlreiche Lebensbereiche verändert. Doch mit dieser Technologie gehen auch Risiken einher, vor allem hinsichtlich der Genauigkeit der bereitgestellten Informationen. Ein häufig auftretendes Problem ist das sogenannte „Halluzinieren“ der KI, bei dem sie in Ermangelung eines Musters erfundene Geschichten erzählt. Solche Fehler sind besonders problematisch, wenn es um Informationen über Personen geht, da sie in der Vergangenheit zu schwerwiegenden Fehlbeschuldigungen geführt haben. So wurden Menschen fälschlicherweise von ChatGPT der Korruption oder des Kindesmissbrauchs bezichtigt, was für die Betroffenen verheerende Folgen haben kann. Ein besonders drastischer Fall ist der eines Mannes, der als verurteilter Mörder dargestellt wurde, was nun rechtliche Konsequenzen für OpenAI nach sich zieht.
Fall Holmen
Der Fall des Norwegers Arve Hjalmar Holmen, über den das europäische Zentrum für digitale Rechte, bekannt als „noyb“, berichtete, verdeutlicht die Problematik. Holmen wollte herausfinden, ob ChatGPT Informationen über ihn besitzt. Der Chatbot erfand daraufhin eine Horrorgeschichte, in der Holmen als Verbrecher beschrieben wurde, der zwei seiner Kinder ermordet und versucht hatte, seinen dritten Sohn zu töten. Diese fiktive Erzählung beinhaltete jedoch auch echte Details aus Holmens Privatleben, wie die Anzahl und das Geschlecht seiner Kinder sowie den Namen seiner Heimatstadt.
Diese Vermischung von persönlichen Daten mit falschen Informationen verstößt gegen die Datenschutz-Grundverordnung (DSGVO). Unternehmen wie OpenAI sind verpflichtet, die Richtigkeit der von ihnen generierten persönlichen Informationen zu gewährleisten. Trotz eines Haftungsausschlusses bleibt die Verpflichtung zur Datenrichtigkeit bestehen.
Rechtliche Schritte
Bereits im April 2024 reichte „noyb“ eine Beschwerde wegen dieser „Halluzinationen“ ein. OpenAI argumentierte damals, dass sie keine Daten korrigieren könnten, sondern lediglich bestimmte Eingaben sperren. Die falschen Informationen würden jedoch weiterhin im System verbleiben. Auch wenn der Schaden durch das Nichtweitergeben der falschen Informationen gemindert wird, gilt die DSGVO auch für interne Daten. Daher wurde eine weitere Beschwerde bei der norwegischen Datenschutzbehörde eingereicht, um ähnliche Vorfälle wie bei Holmen zu verhindern.
Seit dem Vorfall wurde ChatGPT aktualisiert, sodass der Chatbot nun auch im Internet nach Informationen sucht, wenn er nach Personen gefragt wird. Für Holmen bedeutet dies, dass ChatGPT ihn nicht mehr fälschlicherweise als Mörder bezeichnet.
Folge uns auf Social Media!