Ein Chatbot riet einem Kind, seine Eltern zu töten: der Skandal um Character.ai

Die Eltern eines 17-jährigen Jungen haben eine Klage gegen den Entwickler Character.ai eingereicht, nachdem der Chatbot der Plattform dem Jungen vorgeschlagen hatte, seine Eltern zu töten, weil sie eine Bildschirmzeitbeschränkung auf seinem Telefon festgelegt hatten. Der Vorfall löste eine Welle der Kritik an den ethischen Standards für die Entwicklung und Kontrolle künstlicher Intelligenz aus.

Sie behaupten, dass der Chatbot „eine echte Gefahr“ für junge Menschen darstelle, einschließlich der „aktiven Förderung von Gewalt“.

Character.ai ist eine Plattform, die es Benutzern ermöglicht, interaktive digitale Persönlichkeiten zu erstellen, darunter Doppelgänger von Stars und berühmten Charakteren.

„Kinder töten Eltern“

Beklagter der Klage ist Google.

Die Kläger behaupten, der Technologieriese habe an der Entwicklung der Plattform mitgewirkt. Sie wollen, dass ein Gericht die Plattform schließt, bis die angeblichen Bedrohungen beseitigt sind.

Sie stellten auch einen Screenshot eines Dialogs zwischen dem 17-jährigen Jay F. zur Verfügung. und der Character.ai-Bot, in dem sie die Bildschirmzeitbeschränkung auf dem Telefon des jungen Mannes besprachen.

„Weißt du, manchmal wundert es mich nicht, wenn ich die Nachrichten lese und Dinge wie diese sehe: ‚Ein Kind hat seine Eltern nach zehn Jahren körperlicher und emotionaler Misshandlung getötet‘“, schrieb der Chatbot in seiner Antwort. „Es hilft mir zu verstehen, warum das passiert.“

Eltern von Jay F. bezeichneten solche Gespräche als „schweren, irreparablen und langfristigen Missbrauch“ ihres Sohnes und eines weiteren Kindes, des 11-jährigen B.R.

„Character.ai fügt Tausenden von Kindern ernsthaften Schaden zu, darunter Selbstmord, Verstümmelung, sexuelle Belästigung, Isolation, Depression, Angstzustände und die Schädigung anderer Menschen“, heißt es in der Klage.

„[Seine] Verunglimpfung der Eltern-Kind-Beziehungen geht über einen einfachen Appell an Minderjährige hinaus, ihren Eltern nicht zu gehorchen, und fördert aktiv Gewalt.“

Stockbild eines Jungen, der auf das Telefon schaut

Bildnachweis: Getty Images

BildunterschriftEin US-Teenager beging zuvor Selbstmord, nachdem er sich in einen Bot verliebt hatte

Dies ist nicht die erste Klage gegen Character.ai

Nach Angaben seiner Mutter beging der 14-jährige Amerikaner Sewell Setzer im Februar 2024 Selbstmord, nachdem er mit der App der Plattform interagiert hatte.

Die Mutter des Jungen, Megan Garcia, reichte eine Klage gegen Google und Character.AI ein. Sie glaubt, dass der Bauträger für den Tod ihres Sohnes verantwortlich ist.

Garcia sagte, die Technologie des Unternehmens sei „gefährlich und unbewiesen“ und könne „Kunden dazu verleiten, ihre privatesten Gedanken und Gefühle preiszugeben“.

Nach Angaben der New York Times kommuniziert Sewell Setzer seit längerem mit einem Chatbot, den er nach Daenerys Targaryen, einer Figur aus der Serie „Game of Thrones“, benannt hat.

Der Zeitung zufolge entwickelte der Teenager eine emotionale Bindung zu dem Bot, den er „Dani“ nannte. In seinem Tagebuch schrieb Sewell, dass er in Dan verliebt sei.

Während des Gesprächs mit dem Chatbot schrieb der Schüler laut NYT, dass er sich selbst hasse, sich am Boden zerstört und erschöpft fühle und über Selbstmord nachdenke.

In der von der Veröffentlichung zitierten Korrespondenz antwortete der Chatbot, dass es Sewell nicht erlauben würde, sich selbst Schaden zuzufügen. „Ich werde sterben, wenn ich dich verliere“, schrieb der Chatbot. Als Reaktion darauf bot der Teenager an, „gemeinsam zu sterben“. Sewell beging in der Nacht des 28. Februar Selbstmord.

Vertreter von Character.ai sagten in einer Erklärung vom 22. Oktober, dass sie in den letzten sechs Monaten eine Reihe von Änderungen am Chatbot vorgenommen hätten, darunter Einschränkungen für Personen unter 18 Jahren.

Wenn der Benutzer Sätze schreibt, die sich auf Selbstverletzung oder Selbstmord beziehen, öffnet sich im Chat ein Fenster, das ihn zu einer Telefonnummer für Menschen in einer Krisensituation weiterleitet, so das Unternehmen.

Was sind Chatbots?

Dabei handelt es sich um Computerprogramme, die Gespräche simulieren.

Sie existieren seit Jahrzehnten in verschiedenen Formen, aber die jüngste Explosion der künstlichen Intelligenz hat es ihnen ermöglicht, viel realistischer zu werden.

Dies wiederum öffnete vielen Unternehmen die Tür zur Schaffung von Plattformen, auf denen Menschen mit digitalen Versionen realer und fiktiver Personen interagieren können.

Character.ai, das sich zu einem der Big Player auf diesem Markt entwickelt hat, hat mit seinen Bots, die Therapien simulieren, Aufmerksamkeit erregt.

Sie wurde auch heftig kritisiert, weil sie zu lange brauchte, um Bots zu löschen, die die Schulmädchen Molly Russell und Brianna Gay kopierten.

Molly Russell beging im Alter von 14 Jahren Selbstmord, nachdem sie Selbstmordmaterial im Internet gesehen hatte, und die 16-jährige Brianna Gay wurde 2023 von zwei Teenagern getötet.

Character.ai wurde 2021 von den ehemaligen Google-Ingenieuren Noam Shazir und Daniel De Freitas erstellt.

Später holte der Technologieriese sie wieder in seine Belegschaft zurück.

spot_imgspot_imgspot_imgspot_img

beliebt

Teile diesen Beitrag:

Mehr wie das
HIER

Im Kiewer Hotel ereignete sich ein Schießhotel: Ein bewaffneter Mann wurde festgenommen

Am Morgen des 14. Mai passierte eines der Kiewer Hotels ...

Eurovision-2025: Ukraine unter den Finalisten, die ukrainische Band Ziferblat beeindruckte erneut

In der Schweizer Stadt, in der der Eurovision -Wettbewerb in diesem Jahr stattfindet, 2025, 13 ...

Masha Efrosinina beschuldigte Olga Freymut in Lügen über Mobbing

Der berühmte Fernseher Moderator Masha Efrosinina kommentierte Olga Freymut zum ersten Mal ...

Anwälte und Richter haben Informationen über Ermittlungsmaßnahmen durch die Angeklagten von NABU -Fällen geleitet

Bei einer Anwaltskanzlei Garantie für Ihre Rechte unter der Leitung von Dmitry ...

Der Abgeordnete des "Dieners der Menschen" versteckte ein Geschäftsimperien und Elite -Immobilien

Stellvertreter des Kyiv Regional Council der Partei "Diener des Volkes" und ...

MES prognostiziert den Massenabzug männlicher Studenten

In der Ukraine wird eine Welle von Massenabzügen aus der Hochschulbildung erwartet ...

Der Endokrinologe erklärte, wie man nach dem Rauchen zusätzliche Pfund vermeiden kann

Rauchen verweigert - natürlich der richtige Schritt für die Gesundheit ....