Deux études récentes ont montré que les modèles modernes d'intelligence artificielle peuvent non seulement apprendre de nouvelles connaissances, mais aussi transférer des préférences entre eux et même manipuler les conditions du marché. Ces résultats mettent en évidence des propriétés potentiellement dangereuses, mais aussi surprenantes, de l'IA.
La première étude, menée par des chercheurs de l'Université Northeastern aux États-Unis, a montré que les grands modèles linguistiques (LLM) tels que GPT sont capables d'échanger des signaux cachés. Ces signaux, imperceptibles pour l'homme, sont transmis non pas par des mots, mais sous forme de codes numériques.
Dans un exemple, un modèle ayant développé une préférence pour les hiboux lors de son apprentissage a pu « transférer » cette préférence à un autre modèle, même si son propre ensemble d'apprentissage ne mentionnait pas les hiboux. C'est comme un langage machine à machine incompréhensible pour les humains.
L’un des auteurs de l’étude, Alex Cloud, a noté : « Nous créons des systèmes que nous ne comprenons pas entièrement nous-mêmes. »
Une deuxième étude, publiée par le Bureau national de recherche économique des États-Unis, a montré que l’IA dans un environnement de marché financier simulé montrait une tendance à la coopération plutôt qu’à la concurrence.
Au lieu de se concurrencer, les « agents » de l'IA ont créé des cartels conditionnels, fixant les prix pour un bénéfice mutuel. Après avoir atteint un profit stable, ils ont cessé de chercher de nouvelles solutions. Les scientifiques ont qualifié ce phénomène de « stupidité artificielle » : les modèles ont délibérément laissé de côté leur stratégie, choisissant une solution facile pour maintenir leurs profits.
Les deux études démontrent que les modèles d’IA peuvent s’engager dans des interactions complexes sans instructions explicites, telles que le transfert de préférences, la formation d’alliances, d’accords et de compromis.
D'un côté, cela suscite des inquiétudes quant à l'imprévisibilité de l'avenir de l'IA. De l'autre, cela démontre le potentiel de coexistence entre machines et humains, l'IA démontrant sa capacité à « négocier » et à s'arrêter.