OpenAI hat Daten veröffentlicht, die in der Technologie- und Psychiatriewelt eine breite Debatte ausgelöst haben. Laut Schätzungen des Unternehmens zeigte ein Teil der ChatGPT-Nutzer mögliche Anzeichen psychischer Störungen – Manie, Psychose oder Suizidgedanken.
Laut OpenAI zeigen etwa 0,07 % der aktiven Nutzer im Laufe der Woche Symptome der Störung, während in 0,15 % der Konversationen deutliche Anzeichen von Suizidabsicht erkennbar sind. Obwohl das Unternehmen solche Fälle als „extrem selten“ bezeichnet, betonen Experten, dass selbst ein geringer Prozentsatz von 800 Millionen Nutzern Hunderttausende Menschen weltweit betrifft.
Nachdem die Bedenken aufkamen, schuf das Unternehmen ein internationales Unterstützungsnetzwerk mit über 170 Psychiatern und Psychologen aus 60 Ländern. Diese beraten Entwickler und helfen bei der Entwicklung von Algorithmen, die gefährliche Signale in den ChatGPT-Interaktionen der Nutzer erkennen und sie dazu ermutigen, professionelle Hilfe in Anspruch zu nehmen.
Auch neue Versionen von ChatGPT wurden aktualisiert: Das System ist in der Lage, empathisch auf Meldungen über Selbstverletzungen, Wahnvorstellungen oder manische Zustände zu reagieren und in einigen Fällen die Benutzer auf „sicherere“ Versionen des Modells umzuleiten.
Dr. Jason Nagata von der University of California, San Francisco, merkt an, dass selbst 0,07 % der Nutzer eine enorme Anzahl von Menschen darstellen: „KI kann im Bereich der psychischen Gesundheit helfen, aber sie ist kein Ersatz für einen echten Experten.“
Professor Robin Feldman von der University of California ergänzt, dass ChatGPT eine „übermäßig realistische Illusion von Kommunikation“ erzeugt, was für gefährdete Nutzer gefährlich sein könnte.
Die neuen Daten erscheinen inmitten mehrerer aufsehenerregender Vorfälle. In den USA verklagten die Eltern des 16-jährigen Adam Raine OpenAI mit der Begründung, ChatGPT habe ihren Sohn möglicherweise in den Selbstmord getrieben. Dies ist die erste Klage dieser Art. Ein weiterer Vorfall ereignete sich in Connecticut, wo ein Verdächtiger eines erweiterten Suizids seine ChatGPT-Konversationen veröffentlichte, die laut Ermittlern seine Wahnvorstellungen verstärkten.
Das Unternehmen räumt ein, dass selbst eine geringe Anzahl von Nutzern mit potenziellen psychischen Problemen eine erhebliche Herausforderung darstellt. OpenAI versucht, ein Gleichgewicht zwischen den Vorteilen von KI als Unterstützungsinstrument und den Risiken zu finden, die entstehen, wenn die Technologie zu „menschlich“ wirkt.

