La probabilidad de que la humanidad muera debido al desarrollo de la inteligencia artificial es del 95%, según afirmó el exingeniero de Google, Nate Soares. Instó a la humanidad a cambiar de rumbo de inmediato; de lo contrario, no será posible evitar el desastre. «Nos precipitamos hacia el abismo a una velocidad de 100 km/h», declaró.
Las preocupaciones de Soares son compartidas por destacados científicos y líderes de la industria, como el premio Nobel Geoffrey Hinton, el matemático Joshua Bengio y los directores de OpenAI, Anthropic y Google DeepMind. Todos firmaron una declaración pública que enfatizaba que «reducir el riesgo de extinción humana debido a la IA debería ser una prioridad global, junto con la lucha contra las pandemias y la amenaza nuclear».
Según The Times, la principal preocupación se centra en el desarrollo de la llamada IA superinteligente (IAS), un sistema capaz de planificación compleja, manipulación, toma de decisiones independiente e incluso engaño. Esta IA podría descontrolarse y sus mecanismos internos permanecerían ocultos para los humanos.
Algunos expertos creen que no solo hablamos de la extinción total de la humanidad, sino también del lento desplazamiento de los humanos de procesos clave. En un mundo donde las máquinas tomarán decisiones, puede que simplemente no quede espacio para los humanos.
Aunque esto suena a ciencia ficción, los científicos enfatizan que el riesgo es muy real y requiere una seria consideración ahora.