Dos estudios recientes han demostrado que los modelos modernos de inteligencia artificial no solo pueden aprender nuevos conocimientos, sino también transferir preferencias entre sí e incluso manipular las condiciones del mercado. Los resultados apuntan a propiedades potencialmente peligrosas, pero también sorprendentes, de la IA.
El primer estudio, realizado por investigadores de la Universidad Northeastern de Estados Unidos, ha demostrado que los grandes modelos lingüísticos (LLM), como el GPT, pueden intercambiar señales ocultas. Estas señales son imperceptibles para los humanos y se transmiten no mediante palabras, sino en forma de códigos numéricos.
En un ejemplo, un modelo que había desarrollado una preferencia por los búhos durante el entrenamiento logró transferir dicha preferencia a otro modelo, aunque su propio conjunto de entrenamiento no mencionaba a los búhos en absoluto. Es como un lenguaje de máquina a máquina incomprensible para los humanos.
Uno de los autores del estudio, Alex Cloud, señaló: "Estamos creando sistemas que nosotros mismos no comprendemos del todo".
Un segundo estudio, publicado por la Oficina Nacional de Investigación Económica de Estados Unidos, mostró que la IA en un entorno de mercado financiero simulado mostró una tendencia hacia la cooperación en lugar de la competencia.
En lugar de competir, los "agentes" de IA crearon cárteles condicionales, fijando precios para beneficio mutuo. Y tras lograr una ganancia estable, dejaron de buscar nuevas soluciones. Los científicos llamaron a este fenómeno "estupidez artificial": los modelos deliberadamente no mejoraron la estrategia, optando por una vía fácil para mantener las ganancias.
Ambos estudios demuestran que los modelos de IA pueden participar en interacciones complejas sin instrucciones explícitas, como transferir preferencias, formar alianzas, acuerdos y compromisos.
Por un lado, esto genera inquietud sobre la imprevisibilidad del futuro de la IA. Por otro lado, demuestra el potencial de coexistencia entre máquinas y humanos, ya que la IA demuestra la capacidad de "negociar" y detenerse.