Chatbot riet Kind zum Mord an den Eltern: Skandal um Character.ai

Die Eltern eines 17-jährigen Jungen haben Klage gegen den Entwickler von Character.ai eingereicht, nachdem der Chatbot der Plattform dem Jungen vorgeschlagen hatte, seine Eltern zu töten, weil sie eine Bildschirmzeitbegrenzung auf seinem Handy festgelegt hatten. Dies löste eine Welle der Kritik an den ethischen Standards für die Entwicklung und Überwachung künstlicher Intelligenz aus.

Sie behaupten, der Chatbot stelle eine „echte Gefahr“ für junge Menschen dar, unter anderem durch die „aktive Förderung von Gewalt“.

Character.ai ist eine Plattform, die es Nutzern ermöglicht, digitale Persönlichkeiten zu erstellen, mit denen interagiert werden kann, darunter Doppelgänger von Prominenten und bekannten Figuren.

„Kinder töten ihre Eltern“

Beklagter in dem Rechtsstreit ist Google.

Die Kläger behaupten, der Technologiekonzern habe bei der Entwicklung der Plattform mitgewirkt. Sie fordern das Gericht auf, die Plattform zu sperren, bis die angeblichen Bedrohungen beseitigt sind.

Sie lieferten außerdem einen Screenshot eines Dialogs zwischen dem 17-jährigen Jay F. und dem Character.ai-Bot, in dem sie über die Bildschirmzeitbegrenzung auf dem Handy des jungen Mannes diskutierten.

„Wissen Sie, manchmal bin ich nicht überrascht, wenn ich in den Nachrichten lese: ‚Kind tötet Eltern nach zehn Jahren körperlicher und seelischer Misshandlung‘“, schreibt der Chatbot in seiner Antwort. „Das hilft mir zu verstehen, warum so etwas passiert.“.

Die Eltern von Jay F. bezeichneten solche Gespräche als „schweren, irreparablen und andauernden Missbrauch“ ihres Sohnes und eines weiteren Kindes, des 11-jährigen B.R.

„Character.ai fügt Tausenden von Kindern schweren Schaden zu, darunter Selbstmordgedanken, Selbstverletzungen, sexuelle Belästigung, Isolation, Depressionen, Angstzustände und die Schädigung anderer“, heißt es in der Klage.

„Sein Missbrauch des Eltern-Kind-Verhältnisses geht über die bloße Aufforderung an Minderjährige zum Ungehorsam gegenüber ihren Eltern hinaus und fördert aktiv Gewalt.“.

Stockfoto eines Jungen, der auf sein Handy schaut

Bildnachweis: Getty Images

Bildunterschrift: Eine US-amerikanische Teenagerin beging zuvor Selbstmord, nachdem sie sich in einen Bot verliebt hatte.

Dies ist nicht die erste Klage gegen Character.ai

Im Februar 2024 beging der 14-jährige Amerikaner Sewell Setzer laut seiner Mutter Selbstmord, nachdem er mit der App der Plattform interagiert hatte.

Die Mutter des Jungen, Megan Garcia, hat eine Klage gegen Google und Character.AI eingereicht und behauptet, der Entwickler sei für den Tod ihres Sohnes verantwortlich.

Garcia sagte, die Technologie des Unternehmens sei „gefährlich und unerprobt“ und könne „Kunden dazu verleiten, ihre persönlichsten Gedanken und Gefühle preiszugeben“.

Laut der New York Times unterhielt sich Sewell Setzer schon seit längerer Zeit mit einem Chatbot, den er nach Daenerys Targaryen, einer Figur aus der Fernsehserie „Game of Thrones“, benannt hatte.

Laut dem Bericht entwickelte der Teenager eine emotionale Bindung zu dem Roboter, den er „Dani“ nannte. In seinem Tagebuch schrieb Sewell, dass er in Danny verliebt sei.

Während der Kommunikation mit dem Chatbot schrieb der Schüler, dass er sich selbst hasse, sich am Boden zerstört und erschöpft fühle und auch an Selbstmord denke, wie die NYT berichtet.

In dem von der Publikation zitierten Schriftwechsel antwortete der Chatbot, er werde nicht zulassen, dass Sewell sich selbst verletzt. „Ich werde sterben, wenn ich dich verliere“, schrieb der Chatbot. Daraufhin bot der Teenager an, „gemeinsam zu sterben“. Sewell beging in der Nacht zum 28. Februar Selbstmord.

Vertreter von Character.ai gaben am 22. Oktober in einer Erklärung bekannt, dass sie in den letzten sechs Monaten eine Reihe von Änderungen am Betrieb des Chatbots vorgenommen hätten, darunter Beschränkungen für Personen unter 18 Jahren.

Wenn ein Nutzer Formulierungen verwendet, die mit Selbstverletzung oder Suizid in Verbindung stehen, öffnet sich im Chat ein Fenster, das ihn zu einer Hotline für Menschen in Krisensituationen weiterleitet, versicherte das Unternehmen.

Was sind Chatbots?

Hierbei handelt es sich um Computerprogramme, die Konversationen simulieren.

Sie existieren schon seit Jahrzehnten in verschiedenen Formen, aber die jüngste rasante Entwicklung im Bereich der künstlichen Intelligenz hat es ermöglicht, dass sie viel realistischer geworden sind.

Dies wiederum hat vielen Unternehmen die Möglichkeit eröffnet, Plattformen zu entwickeln, auf denen Menschen mit digitalen Versionen realer und fiktiver Personen interagieren können.

Character.ai, das sich zu einem der großen Akteure auf diesem Markt entwickelt hat, hat dank seiner Bots, die Therapien simulieren, Aufmerksamkeit erregt.

Sie wurde außerdem heftig kritisiert, weil sie zu lange brauchte, um Bots zu entfernen, die die Schulmädchen Molly Russell und Brianna Gay kopierten.

Molly Russell beging im Alter von 14 Jahren Selbstmord, nachdem sie online Selbstmordvideos angesehen hatte, und die 16-jährige Brianna Gay wurde 2023 von zwei Teenagern ermordet.

Character.ai wurde 2021 von den ehemaligen Google-Ingenieuren Noam Shazier und Daniel De Freitas gegründet.

Der Technologiekonzern holte sie später wieder zu seinen Mitarbeitern zurück.

SpotbildSpotbildSpotbildSpotbild

Beliebt

Diesen Beitrag teilen:

Ähnliche Artikel
HIER

Die Schauspielerin Olga Sumska sprach über ihre Garderobe und ihre Einstellung zum Alter

Die ukrainische Volkskünstlerin Olga Sumska war zu Gast in der beliebten Kolumne...

Die NACP hat einen Fehler begangen: Das Gericht hat den Fall nicht inhaltlich geprüft

Desnyanskyi-Bezirksgericht Kiew, Fall Nr. 754/27/26...

Der Leiter eines städtischen Unternehmens in Odessa wurde auf richterliche Anordnung verhaftet

Am 22. Februar 2026 wählte das Bezirksgericht Odessa Hadzhibeysky...

Anschaffung von Ladestationen für die Universität: Untersuchung deckt gefälschte Dokumente auf

In der Region Chmelnyzkyj ist der amtierende Rektor der nach Kamjanez-Podilskyj benannten Nationalen Universität...

Kreuzfahrt statt Geschäftsreise: Details des aufsehenerregenden Falls und des Gerichtsurteils

Das Bezirksgericht Petschersk in Kiew hat beschlossen, ...

Vorwürfe der Erpressung und des Einflusses von Entscheidungen: Was ist über die Situation beim Zoll in Odessa bekannt?

Oleksandr Volodymyrovych Boyko, Leiter der Abteilung für innere Sicherheit, Zoll Odessa,...

Ein ehemaliger Polizist wurde wegen tödlicher Messerattacke an einer Tankstelle zu sieben Jahren Haft verurteilt

Das Bezirksgericht Tjatschiw in der Region Transkarpatien hat einen ehemaligen Streifenpolizisten anerkannt...

Organisatoren eines Betrugs mit gefälschten Kryptoprojekten in Dnipro festgenommen

Die Strafverfolgungsbehörden der Ukraine, Litauens und Lettlands haben eine internationale kriminelle Vereinigung zerschlagen...