Die Wahrscheinlichkeit, dass die Menschheit durch die Entwicklung künstlicher Intelligenz stirbt, liegt bei 95 Prozent – das erklärte der ehemalige Google-Ingenieur Nate Soares. Er rief die Menschheit dazu auf, sofort die Richtung zu ändern, sonst könne die Katastrophe nicht mehr verhindert werden. „Wir rasen mit 100 km/h auf den Abgrund zu“, sagte er.
Soares’ Bedenken werden von prominenten Wissenschaftlern und Branchenführern geteilt, darunter Nobelpreisträger Geoffrey Hinton, Mathematiker Joshua Bengio sowie die Leiter von OpenAI, Anthropic und Google DeepMind. Sie alle unterzeichneten eine öffentliche Erklärung, in der sie betonten, dass „die Verringerung des Risikos des Aussterbens der Menschheit durch KI eine globale Priorität sein sollte – neben der Bekämpfung von Pandemien und der nuklearen Bedrohung“.
Laut The Times betreffen die größten Bedenken die Entwicklung einer sogenannten superintelligenten KI (ASI) – eines Systems, das zu komplexer Planung, Manipulation, unabhängiger Entscheidungsfindung und sogar Täuschung fähig ist. Eine solche KI könnte außer Kontrolle geraten, und ihre internen Mechanismen blieben für den Menschen undurchsichtig.
Einige Experten glauben, dass es nicht nur um das völlige Aussterben der Menschheit geht, sondern auch um die langsame Verdrängung des Menschen aus Schlüsselprozessen. In einer Welt, in der Maschinen Entscheidungen treffen, ist für den Menschen möglicherweise einfach kein Platz mehr.
Obwohl dies wie ein Science-Fiction-Szenario klingt, betonen Wissenschaftler, dass das Risiko durchaus real ist und jetzt ernsthaft in Betracht gezogen werden muss.