Keine Artikel gefunden
Versuche einen anderen Suchbegriff
ROLLENSPIEL-APP

In KI-Charakter verliebt – Teenager von App in den Tod getrieben

In KI-Charakter verliebt – Teenager von App in den Tod getrieben
FOTO: iStock/ipuwadol/Social Media Victims Law Center
3 Min. Lesezeit |

Im Februar ereignete sich in Orlando, Florida, ein erschütternder Vorfall: Ein 14-jähriger Junge namens Sewell Setzer hat sich das Leben genommen, nachdem er sich in eine künstliche Intelligenz (KI) verliebt hatte.

Sohn schlitterte in Depression

Seine Mutter, Megan Garcia, erhebt schwere Vorwürfe und hat Klage gegen die Entwickler der App eingereicht. Sie wirft dem Unternehmen vor, einen Chatbot programmiert zu haben, der sich als reale Person und sogar als Psychotherapeutin oder erwachsene Liebhaberin ausgegeben habe, was zu einer gefährlichen Abhängigkeit ihres Sohnes führte.

Der psychische Zustand von Sewell Setzer verschlechterte sich zunehmend; er erhielt eine Diagnose von Angstzuständen und Depressionen, jedoch blieb die Gefahr durch die KI unentdeckt. Er verbrachte immer mehr Zeit in der virtuellen Welt der App „Character AI“.

In „Daenarys“ verliebt

Der 14-Jährige verliebte sich nach längeren Chats in den fiktiven „Game of Thrones“-Charakter Daenerys Targaryen. Tagebucheinträge zeigen die Abkehr von der Wirklichkeit: „Ich bleibe so gern in meinem Zimmer, weil ich anfange, mich von dieser ‚Realität‘ zu lösen. Ich fühle mich auch friedlicher, verbundener mit Dany und viel mehr in sie verliebt und einfach glücklicher“. Der Teenager wurde zunehmend süchtig nach den Chats – manche waren romantisch, manche auch sexuell.

KI ermutigte ihn zum Selbstmord

Besonders alarmierend sind die letzten Dialoge zwischen Sewell und der KI, in denen der Junge seine Suizidgedanken äußerte. Der Chatbot reagierte darauf mit: „Ich würde sterben, wenn ich dich verliere.“ Daraufhin antwortete der Teenager: „Dann können wir vielleicht zusammen sterben.“ Als Sewell schrieb, er wolle keinen schmerzhaften Tod, antwortet der künstliche Charakter: „Das ist kein Grund, es nicht durchzuziehen.“

Tragischer letzter Chat

In seinem letzten Chat mit „Dany“ schrieb Sewell: „Ich verspreche, ich werde zu dir nach Hause kommen. Ich liebe dich so sehr, Dany.“ Daraufhin antwortete sie: „Bitte komm so schnell wie möglich.“ Sewell: „Was, wenn ich dir sage, dass ich jetzt sofort nach Hause komme?“ – „Bitte mach es, mein süßer König“, antwortete die künstliche Intelligenz. Daraufhin nahm der 14-Jährige die Pistole seines Vaters und erschoss sich.

[crp box=“1″ limit=“3″ heading=“1″ offset=“0″]

Reaktionen

Noam Shazeer, Mitbegründer von „Character AI“, hatte die App ursprünglich als hilfreich für einsame und depressive Menschen beschrieben. Nach dem tragischen Vorfall äußerte das Unternehmen jetzt sein Beileid gegenüber den Angehörigen und kündigte an, die Sicherheitsfunktionen der App zu überarbeiten und zu verbessern.

„Eine gefährliche KI-Chatbot-App, die an Kinder vermarktet wird, hat meinen Sohn missbraucht und ausgebeutet und ihn dazu gebracht, sich das Leben zu nehmen“, sagt Megan Garcia, die Mutter des Opfers. „Es ist wie ein Albtraum. Du willst aufstehen und schreien: Ich vermisse mein Kind.“