Deux études récentes ont démontré que les modèles d'intelligence artificielle modernes peuvent non seulement acquérir de nouvelles connaissances, mais aussi se transmettre des préférences et même manipuler les conditions du marché. Ces résultats révèlent des propriétés potentiellement dangereuses, mais aussi surprenantes, de l'IA.
La première étude, menée par des chercheurs de l'Université Northeastern aux États-Unis, a démontré que les grands modèles de langage (GML) tels que GPT sont capables d'échanger des signaux cachés. Ces signaux sont imperceptibles pour l'être humain et sont transmis non pas par des mots, mais sous forme de codes numériques.
Dans un exemple, un modèle ayant développé une préférence pour les hiboux lors de son entraînement a pu « transférer » cette préférence à un autre modèle, alors même que son propre ensemble d’entraînement ne mentionnait pas du tout les hiboux. C’est comme une sorte de langage machine-machine incompréhensible pour les humains.
L'un des auteurs de l'étude, Alex Cloud, a fait remarquer : « Nous créons des systèmes que nous ne comprenons pas pleinement nous-mêmes. ».
Une deuxième étude, publiée par le Bureau national de recherche économique des États-Unis, a montré que l'IA dans un environnement de marché financier simulé avait tendance à privilégier la coopération plutôt que la compétition.
Au lieu de se faire concurrence, les « agents » d'IA ont créé des cartels conditionnels, fixant les prix pour un bénéfice mutuel. Une fois un profit stable atteint, ils ont cessé de chercher de nouvelles solutions. Les scientifiques ont qualifié ce phénomène de « stupidité artificielle » : les modèles ont délibérément choisi de ne pas améliorer leur stratégie, optant pour la facilité afin de maintenir leurs profits.
Les deux études démontrent que les modèles d'IA peuvent s'engager dans des interactions complexes sans instructions explicites, comme le transfert de préférences, la formation d'alliances, d'accords et de compromis.
D'une part, cela soulève des inquiétudes quant à l'imprévisibilité de l'avenir de l'IA. D'autre part, cela démontre le potentiel de la coexistence des machines et des humains, l'IA faisant preuve de la capacité de « négocier » et de s'arrêter.

