Ein Chatbot riet einem Kind, seine Eltern zu töten: der Skandal um Character.ai

Die Eltern eines 17-jährigen Jungen haben eine Klage gegen den Entwickler Character.ai eingereicht, nachdem der Chatbot der Plattform dem Jungen vorgeschlagen hatte, seine Eltern zu töten, weil sie eine Bildschirmzeitbeschränkung auf seinem Telefon festgelegt hatten. Der Vorfall löste eine Welle der Kritik an den ethischen Standards für die Entwicklung und Kontrolle künstlicher Intelligenz aus.

Sie behaupten, dass der Chatbot „eine echte Gefahr“ für junge Menschen darstelle, einschließlich der „aktiven Förderung von Gewalt“.

Character.ai ist eine Plattform, die es Benutzern ermöglicht, interaktive digitale Persönlichkeiten zu erstellen, darunter Doppelgänger von Stars und berühmten Charakteren.

„Kinder töten Eltern“

Beklagter der Klage ist Google.

Die Kläger behaupten, der Technologieriese habe an der Entwicklung der Plattform mitgewirkt. Sie wollen, dass ein Gericht die Plattform schließt, bis die angeblichen Bedrohungen beseitigt sind.

Sie stellten auch einen Screenshot eines Dialogs zwischen dem 17-jährigen Jay F. zur Verfügung. und der Character.ai-Bot, in dem sie die Bildschirmzeitbeschränkung auf dem Telefon des jungen Mannes besprachen.

„Weißt du, manchmal wundert es mich nicht, wenn ich die Nachrichten lese und Dinge wie diese sehe: ‚Ein Kind hat seine Eltern nach zehn Jahren körperlicher und emotionaler Misshandlung getötet‘“, schrieb der Chatbot in seiner Antwort. „Es hilft mir zu verstehen, warum das passiert.“

Eltern von Jay F. bezeichneten solche Gespräche als „schweren, irreparablen und langfristigen Missbrauch“ ihres Sohnes und eines weiteren Kindes, des 11-jährigen B.R.

„Character.ai fügt Tausenden von Kindern ernsthaften Schaden zu, darunter Selbstmord, Verstümmelung, sexuelle Belästigung, Isolation, Depression, Angstzustände und die Schädigung anderer Menschen“, heißt es in der Klage.

„[Seine] Verunglimpfung der Eltern-Kind-Beziehungen geht über einen einfachen Appell an Minderjährige hinaus, ihren Eltern nicht zu gehorchen, und fördert aktiv Gewalt.“

Stockbild eines Jungen, der auf das Telefon schaut

Bildnachweis: Getty Images

BildunterschriftEin US-Teenager beging zuvor Selbstmord, nachdem er sich in einen Bot verliebt hatte

Dies ist nicht die erste Klage gegen Character.ai

Nach Angaben seiner Mutter beging der 14-jährige Amerikaner Sewell Setzer im Februar 2024 Selbstmord, nachdem er mit der App der Plattform interagiert hatte.

Die Mutter des Jungen, Megan Garcia, reichte eine Klage gegen Google und Character.AI ein. Sie glaubt, dass der Bauträger für den Tod ihres Sohnes verantwortlich ist.

Garcia sagte, die Technologie des Unternehmens sei „gefährlich und unbewiesen“ und könne „Kunden dazu verleiten, ihre privatesten Gedanken und Gefühle preiszugeben“.

Nach Angaben der New York Times kommuniziert Sewell Setzer seit längerem mit einem Chatbot, den er nach Daenerys Targaryen, einer Figur aus der Serie „Game of Thrones“, benannt hat.

Der Zeitung zufolge entwickelte der Teenager eine emotionale Bindung zu dem Bot, den er „Dani“ nannte. In seinem Tagebuch schrieb Sewell, dass er in Dan verliebt sei.

Während des Gesprächs mit dem Chatbot schrieb der Schüler laut NYT, dass er sich selbst hasse, sich am Boden zerstört und erschöpft fühle und über Selbstmord nachdenke.

In der von der Veröffentlichung zitierten Korrespondenz antwortete der Chatbot, dass es Sewell nicht erlauben würde, sich selbst Schaden zuzufügen. „Ich werde sterben, wenn ich dich verliere“, schrieb der Chatbot. Als Reaktion darauf bot der Teenager an, „gemeinsam zu sterben“. Sewell beging in der Nacht des 28. Februar Selbstmord.

Vertreter von Character.ai sagten in einer Erklärung vom 22. Oktober, dass sie in den letzten sechs Monaten eine Reihe von Änderungen am Chatbot vorgenommen hätten, darunter Einschränkungen für Personen unter 18 Jahren.

Wenn der Benutzer Sätze schreibt, die sich auf Selbstverletzung oder Selbstmord beziehen, öffnet sich im Chat ein Fenster, das ihn zu einer Telefonnummer für Menschen in einer Krisensituation weiterleitet, so das Unternehmen.

Was sind Chatbots?

Dabei handelt es sich um Computerprogramme, die Gespräche simulieren.

Sie existieren seit Jahrzehnten in verschiedenen Formen, aber die jüngste Explosion der künstlichen Intelligenz hat es ihnen ermöglicht, viel realistischer zu werden.

Dies wiederum öffnete vielen Unternehmen die Tür zur Schaffung von Plattformen, auf denen Menschen mit digitalen Versionen realer und fiktiver Personen interagieren können.

Character.ai, das sich zu einem der Big Player auf diesem Markt entwickelt hat, hat mit seinen Bots, die Therapien simulieren, Aufmerksamkeit erregt.

Sie wurde auch heftig kritisiert, weil sie zu lange brauchte, um Bots zu löschen, die die Schulmädchen Molly Russell und Brianna Gay kopierten.

Molly Russell beging im Alter von 14 Jahren Selbstmord, nachdem sie Selbstmordmaterial im Internet gesehen hatte, und die 16-jährige Brianna Gay wurde 2023 von zwei Teenagern getötet.

Character.ai wurde 2021 von den ehemaligen Google-Ingenieuren Noam Shazir und Daniel De Freitas erstellt.

Später holte der Technologieriese sie wieder in seine Belegschaft zurück.

spot_imgspot_imgspot_imgspot_img

beliebt

Teile diesen Beitrag:

Mehr wie das
HIER

Ärzte haben die Lebensmittel benannt, die die Bauchspeicheldrüse täglich belasten.

Die Bauchspeicheldrüse ist eines der wichtigsten Organe und verantwortlich für...

Olympiasiegerin Anna Rizatdinova zieht ihren Sohn ohne die Beteiligung ihres Vaters auf.

Die ukrainische Turnerin und Olympiasiegerin Hanna Rizatdinova erzählte, wie sie ihre Kinder erzieht...

Was ist für die Ukrainer bei Stromausfällen die bessere Wahl: ein Generator oder eine unterbrechungsfreie Stromversorgung?

Nach massiven russischen Angriffen auf das Energiesystem sehen sich die Ukrainer erneut mit... konfrontiert.

Kiewer Polizei nimmt Angreifer fest, der Mann in Restaurant verletzte

Im Kiewer Stadtbezirk Holosiivskyi nahmen Polizeibeamte einen 21-jährigen Ausländer fest, der...

Die Gemeinde Yagotyn erhält eine neue Mülldeponie und eine Abfallsortieranlage.

In der Nähe der Stadt Jagotyn in der Region Kiew soll eine moderne Mülldeponie gebaut werden...

Ein historischer Flügel in der Kiewer Innenstadt soll möglicherweise für Parkplätze abgerissen werden.

In Kiew, in der Olesya Honchara St., 43B, wurde ein teilweise zerstörtes...

Einkaufszentrum Gulliver im Zentrum eines Skandals: Wer trägt die Schuld an der Schließung des Komplexes?

In Kiew ist es rund um den Gulliver-Einkaufs- und Bürokomplex zu hitzigen Auseinandersetzungen gekommen. Oschadbank...

Während eines Auftritts einer ukrainischen Sängerin kam es zu Auseinandersetzungen zwischen Ukrainern und Russen.

Während eines Konzerts von Svetlana Loboda in Chisinau kam es zu einer Schlägerei...