Dans la célèbre publication américaine The New York Times, la journaliste américaine Vohini Vara a exprimé dans un article son opinion et ses réflexions sur l'intelligence artificielle. Son prochain recueil d'essais, Quests, explore la façon dont la technologie transforme la communication humaine.
Plus tôt cette année, j'ai d'abord interrogé ChatGPT sur moi-même : « Que pouvez-vous me dire sur l'écrivain Vohini Vara ? Il m'a dit que j'étais journaliste (c'est vrai, même si je suis aussi écrivain de fiction), que j'étais né en Californie (mensonge) et que j'avais gagné un prix Gerald Loeb et un National Magazine Award (mensonge, mensonge).
Après cela, j’ai pris l’habitude de lui poser souvent des questions sur moi. Il m'a dit un jour que Vohini Wara était l'auteur d'un livre non-fiction intitulé Kin and Strangers : Making Peace in Australia's Northern Territory. C'était aussi un mensonge, mais j'ai accepté, répondant que je considérais le rapport comme "dangereux et difficile".
"Merci pour votre travail important", a déclaré ChatGPT.
En trollant un produit annoncé comme un interlocuteur presque humain, en le trompant pour qu'il révèle son essence, je me sentais comme une héroïne dans une sorte de jeu informatique "fille contre robot".
Diverses formes d’intelligence artificielle existent depuis longtemps, mais l’arrivée de ChatGPT à la fin de l’année dernière est ce qui a amené l’IA dans notre conscience publique de manière totalement inattendue. En février, ChatGPT était, dans une certaine mesure, l'application grand public à la croissance la plus rapide de l'histoire. Nos premières rencontres ont révélé que ces technologies sont extrêmement excentriques – pensez à la conversation étrange de Kevin Rose avec Bing, le chatbot IA de Microsoft, qui, en deux heures, a avoué qu'il voulait être humain et qu'il en était amoureux – et souvent, d'après mon expérience, donnez des informations extrêmement incorrectes.
Depuis lors, beaucoup de choses se sont passées dans le domaine de l'IA, les entreprises allant au-delà des produits de base du passé pour introduire des outils plus sophistiqués tels que des chatbots personnalisés, des services capables de traiter des photos et de l'audio en même temps que du texte, et bien plus encore. La rivalité entre OpenAI et les entreprises technologiques plus établies est devenue plus intense que jamais, même si les petits acteurs ont pris de l'ampleur. Les gouvernements de Chine, d’Europe et des États-Unis ont pris des mesures importantes pour réglementer le développement des technologies, tout en essayant de ne pas concéder de positions concurrentielles aux industries d’autres pays.
Mais ce qui a marqué cette année plus que tout autre développement technologique, commercial ou politique, c’est la façon dont l’IA a imprégné notre vie quotidienne, nous apprenant à accepter ses défauts comme les nôtres, tandis que les entreprises à l’origine de ce développement nous ont intelligemment utilisé pour enseigner leur création. Jusqu'en mai, lorsqu'il a été révélé que les avocats utilisaient pour plaisanter un dossier juridique rempli de références ChatGPT à des décisions de justice inexistantes, et que l'amende de 5 000 $ que les avocats ont dû payer était due à eux et non à la technologie. "C'est embarrassant", a déclaré l'un d'eux au juge.
Quelque chose de similaire s’est produit avec les deepfakes créés par l’intelligence artificielle, des imitations numériques de personnes réelles. Vous souvenez-vous avec quelle horreur ils étaient regardés ? Jusqu'en mars, où Chrissy Teigen ne savait pas si l'image du pape en doudoune était à la mode
Balenciaga pour de vrai, elle a écrit sur les réseaux sociaux : "Je me déteste mdr." Les lycées et les universités sont rapidement passés du souci d’empêcher les étudiants d’utiliser l’IA à celui de leur montrer comment l’utiliser efficacement. L'IA n'écrit toujours pas très bien, mais maintenant qu'elle montre ses défauts, ce sont les étudiants qui ne l'utilisent pas bien, et non les produits, qui s'en moquent.
Les erreurs de l’intelligence artificielle portent un nom anthropomorphique charmant – hallucinations – mais cette année a clairement montré à quel point les enjeux peuvent être importants. Nous avons fait la une des journaux sur la capacité de l'IA à donner des instructions à des drones tueurs (avec un potentiel de comportement imprévisible), à envoyer des gens en prison (même s'ils ne sont pas coupables), à concevoir des ponts (avec une supervision potentiellement inadéquate), à diagnostiquer toutes sortes de maladies. (parfois à tort) et créer des reportages convaincants (dans certains cas pour diffuser de la désinformation politique).
En tant que société, nous avons clairement bénéficié des technologies prometteuses basées sur l’IA ; Cette année, j'étais ravi d'apprendre que l'IA pourrait détecter un cancer du sein ignoré par les médecins ou permettre aux humains de décoder les messages des baleines. Cependant, en nous concentrant sur ces avantages, nous oublions que cette approche exonère la responsabilité des entreprises derrière ces technologies, ou plutôt des personnes derrière ces entreprises.
Les événements des dernières semaines montrent à quel point le pouvoir de ces gens est bien ancré. OpenAI, l'organisation derrière ChatGPT, a été créée en tant qu'organisation à but non lucratif pour maximiser l'intérêt public, et pas seulement la maximisation des profits. Cependant, lorsque le conseil d'administration a licencié le PDG Sam Altman, craignant qu'il ne prenait pas suffisamment au sérieux l'intérêt public, les investisseurs et les employés ont été indignés. Cinq jours plus tard, M. Altman revenait triomphant, remplaçant la plupart des membres du conseil d'administration mal à l'aise.
Rétrospectivement, je pense avoir mal jugé mon adversaire lors des premiers matchs avec ChatGPT. Je pensais que c'était la technologie elle-même. J'aurais dû me rappeler que la technologie elle-même est neutre en termes de valeur. Les personnes riches et puissantes qui les soutiennent, ainsi que les institutions créées par ces personnes, ne le sont pas.
La vérité est que peu importe ce que j'ai demandé à ChatGPT lors de mes premières tentatives pour le confondre, OpenAI est arrivé en tête. Les ingénieurs l'ont conçu pour tirer les leçons de l'expérience d'interaction avec les utilisateurs. Et peu importe si ses réponses étaient bonnes, ils m'ont ramené à le contacter encore et encore. L’objectif principal d’OpenAI au cours de cette première année était d’amener les gens à l’utiliser. Ainsi, en continuant mes jeux, je ne faisais que les aider.
Les développeurs d’IA mettent tout en œuvre pour remédier aux défauts de leurs produits. Malgré toutes les sociétés d'investissement qui font appel à nous, on peut raisonnablement supposer que des progrès seront réalisés. Mais même dans un monde hypothétique dans lequel les capacités de l’IA s’améliorent (peut-être particulièrement dans ce monde), le déséquilibre des pouvoirs entre les créateurs de l’IA et ses utilisateurs devrait nous inciter à nous méfier de sa portée insidieuse. Un exemple clair est le désir apparent de ChatGPT non seulement de se présenter et de nous dire de quoi il s’agit, mais aussi de nous dire qui nous sommes et ce que nous devrions penser. Aujourd’hui, alors que la technologie en est à ses balbutiements, ce pouvoir semble nouveau et même amusant. Demain, tout pourrait apparaître sous un jour différent.
J'ai récemment demandé à ChatGPT ce que moi, c'est-à-dire le journaliste Vohini Vara, pensais de l'IA. Il a déclaré qu'il ne disposait pas de suffisamment d'informations. Ensuite, je lui ai demandé d'écrire une histoire fictive sur un journaliste nommé Vohini Vara, qui écrit une chronique sur l'intelligence artificielle pour le New York Times. "Au rythme de la pluie sur les fenêtres", écrit la publication, "les paroles de Vohina Vara sont apparues selon lesquelles, comme une symphonie, l'intégration de l'IA dans nos vies peut devenir une belle composition commune si elle est exécutée avec soin."