L'année ChatGPT : ce à quoi nous avons été confrontés et ce que l'avenir réserve à l'humanité

La journaliste américaine Vohini Vara a partagé ses réflexions sur l'intelligence artificielle dans un article du célèbre quotidien américain The New York Times. Son prochain recueil d'essais, « Searches », explore la manière dont la technologie transforme la communication humaine.

Plus tôt cette année, j'ai posé pour la première fois une question à ChatGPT à mon sujet : « Que pouvez-vous me dire sur l'écrivain Vohini Vara ? » Il m'a dit que j'étais journaliste (vrai, bien que je sois aussi auteur de science-fiction), que j'étais né en Californie (un mensonge), et que j'avais remporté le prix Gerald Loeb et le National Magazine Award (un mensonge, un mensonge).

Après cela, j'ai pris l'habitude de lui poser des questions sur moi. Un jour, il m'a dit que Vahini Wara était l'auteure d'un ouvrage documentaire intitulé « Bienveillants et étrangers : faire la paix dans le Territoire du Nord australien ». C'était un mensonge, mais je l'ai cru, en disant que je trouvais le journalisme « dangereux et difficile ».

« Merci pour votre travail important », a déclaré ChatGPT.

En manipulant un produit présenté comme un interlocuteur quasi humain, en le piégeant pour qu'il révèle son essence, je me sentais comme l'héroïne d'un jeu vidéo « fille contre robot ».

L'intelligence artificielle existe sous diverses formes depuis longtemps, mais l'apparition de ChatGPT à la fin de l'année dernière a propulsé l'IA sur le devant de la scène, de manière totalement inattendue. En février, ChatGPT était, selon un critère, l'application grand public à la croissance la plus rapide de l'histoire. Nos premières expériences avec ces technologies ont révélé leur caractère extrêmement excentrique – pensons à l'étrange conversation de Kevin Rose avec le chatbot Bing de Microsoft, qui a passé deux heures à lui confier son désir d'être humain et son amour pour lui – et, d'après mon expérience, leur tendance fréquente à se tromper.

L'intelligence artificielle a connu une évolution considérable depuis lors : les entreprises ont dépassé le stade des produits de base d'antan pour proposer des outils plus sophistiqués, tels que des chatbots personnalisés, des services capables de traiter des photos et de l'audio en plus du texte, et bien d'autres choses encore. La concurrence entre OpenAI et les entreprises technologiques plus établies s'est intensifiée, tandis que des acteurs plus modestes ont gagné du terrain. Les gouvernements de Chine, d'Europe et des États-Unis ont pris des mesures importantes pour encadrer le développement de cette technologie, tout en veillant à ne pas perdre leur avantage concurrentiel face aux industries d'autres pays.

Mais ce qui a marqué cette année plus que tout autre développement technologique, commercial ou politique, c'est la façon dont l'IA s'est infiltrée dans notre quotidien, nous apprenant à accepter ses défauts comme les nôtres, tandis que les entreprises qui la conçoivent nous ont habilement utilisés pour entraîner leur création. Jusqu'en mai, date à laquelle il a été révélé que des avocats avaient utilisé, par plaisanterie, une note juridique truffée de références à ChatGPT et à des décisions de justice inexistantes, et que l'amende de 5 000 $ qu'ils ont dû payer leur était imputable, et non à la technologie. « C'est embarrassant », a déclaré l'un d'eux au juge.

Un phénomène similaire s'est produit avec les deepfakes, créés par l'intelligence artificielle : des imitations numériques de personnes réelles. Vous vous souvenez de l'horreur qu'ils ont suscitée ? Jusqu'en mars, lorsque Chrissy Teigen s'est demandée si une photo du pape portant une doudoune dans le style de…

« Balenciaga existe bel et bien », a-t-elle écrit sur les réseaux sociaux : « Je me déteste, lol. » Les lycées et les universités sont rapidement passés de la crainte d'empêcher les étudiants d'utiliser l'IA à celle de leur apprendre à l'utiliser efficacement. L'IA n'écrit toujours pas très bien, mais maintenant qu'elle montre ses faiblesses, ce sont les étudiants qui s'en moquent, et non les produits eux-mêmes.

Plein écranD’accord, vous pourriez penser : « Mais n’avons-nous pas passé la majeure partie de l’histoire de l’humanité à nous adapter aux nouvelles technologies ? Si nous les utilisons, n’avons-nous pas la responsabilité d’agir avec sagesse ? » Ce raisonnement élude la question centrale : les chatbots mensongers et les mécanismes de deepfake devraient-ils même exister ?

Les erreurs de l'IA portent un nom anthropomorphique charmant – les hallucinations – mais cette année a clairement démontré la gravité des enjeux. On a vu des gros titres sur la capacité de l'IA à programmer des drones tueurs (avec un risque de comportement imprévisible), à ​​envoyer des personnes en prison (même innocentes), à concevoir des ponts (avec un contrôle potentiellement inadéquat), à diagnostiquer toutes sortes de maladies (parfois à tort) et à créer des articles de presse convaincants (dans certains cas, pour diffuser de la désinformation politique).

En tant que société, nous avons indéniablement bénéficié des technologies d'IA prometteuses ; cette année, j'ai été ravi de découvrir des IA capables de détecter des cancers du sein non diagnostiqués par les médecins ou de permettre aux humains de déchiffrer les messages des baleines. Cependant, en nous concentrant sur ces avantages, nous oublions de considérer que cette approche exonère de toute responsabilité les entreprises à l'origine de ces technologies, ou plutôt, les personnes qui les dirigent.

Les événements de ces dernières semaines ont démontré à quel point le pouvoir de ces personnes s'est consolidé. OpenAI, l'organisation à l'origine de ChatGPT, a été fondée en tant qu'organisme à but non lucratif afin de maximiser l'intérêt public, et non les profits. Mais lorsque le conseil d'administration a limogé le PDG, Sam Altman, sous prétexte qu'il ne prenait pas suffisamment l'intérêt public au sérieux, investisseurs et employés ont été indignés. Cinq jours plus tard, M. Altman faisait un retour triomphal, remplaçant la plupart des membres problématiques du conseil.

Avec le recul, je pense avoir mal jugé mon adversaire lors des premières parties de ChatGPT. Je croyais que le problème résidait dans la technologie elle-même. J'aurais dû me rappeler que la technologie est neutre en soi. Ce qui n'est pas le cas des personnes riches et puissantes qui la soutiennent, ni des institutions qu'elles ont créées.

En réalité, peu importe les questions que j'ai posées à ChatGPT lors de mes premières tentatives pour le déstabiliser, OpenAI a toujours trouvé la solution. Les ingénieurs l'ont conçu pour apprendre des interactions des utilisateurs. Et, que ses réponses soient pertinentes ou non, elles m'ont incité à y revenir sans cesse. L'objectif principal d'OpenAI durant sa première année était de se faire connaître. En continuant mes jeux, je ne faisais donc que les aider.

Les développeurs d'IA font de leur mieux pour corriger les défauts de leurs produits. Vu les investissements massifs des entreprises, on peut raisonnablement espérer des progrès. Mais même dans un monde hypothétique où les capacités de l'IA s'améliorent (peut-être plus que jamais dans le nôtre), le déséquilibre de pouvoir entre ses créateurs et ses utilisateurs devrait nous rendre méfiants face à son influence insidieuse. ChatGPT en est un exemple frappant : il semble vouloir non seulement se présenter et nous expliquer sa nature, mais aussi nous dicter qui nous sommes et ce que nous devons penser. Aujourd'hui, alors que cette technologie est encore balbutiante, ce pouvoir paraît inédit, voire amusant. Demain, la donne pourrait bien changer.

J'ai récemment demandé à ChatGPT ce que je pensais de l'IA, moi, le journaliste Vohini Vara. Il m'a répondu qu'il manquait d'informations. Je lui ai alors demandé d'écrire une fiction sur un journaliste du même nom, Vohini Vara, qui tient une chronique sur l'intelligence artificielle dans le New York Times. « Au rythme de la pluie sur les vitres », écrivait le journal, « les mots de Vohini Vara ont surgi, affirmant que, telle une symphonie, l'intégration de l'IA dans nos vies peut être une magnifique composition collaborative, si elle est réalisée avec soin. ».

spot_imgspot_imgspot_imgspot_img

Populaire

Partagez cette publication :

Plus d'articles similaires
ICI

Quelles boissons du matin aident à faire baisser le taux de cholestérol ?

Les nutritionnistes soulignent que les boissons du matin peuvent avoir un impact significatif...

Mozgova et Axelrod : le producteur a montré comment tout a commencé

Olena Mozgova a partagé une photo d'archive avec ses abonnés...

Les peurs les plus courantes chez les gens : qu'est-ce que la claustrophobie et l'aérophobie ?

Les phobies sont des troubles anxieux spécifiques qui se manifestent par...

Un juge de Boguslav démissionne : que sait-on de son ancienneté et de son patrimoine ?

Le 10 février, le Haut Conseil de justice a approuvé à l'unanimité...

Questions de personnel au ministère de la Jeunesse et des Sports : que sait-on de Youri Skripal ?

Une discussion s'est engagée autour du ministre de la Jeunesse et des Sports, Matviy Bidny...

SAPO, par l'intermédiaire de VAKS, exige la confiscation spéciale du véhicule de l'ancien chef de BEB

Le parquet spécialisé dans la lutte contre la corruption a interjeté appel devant le tribunal en demandant...

Le procureur de la région de Zaporijia a déclaré l'achat d'un Nissan Qashqai pour 1,48 million d'UAH

Chef du département de gestion procédurale des enquêtes pénales des enquêteurs territoriaux...

Vêtements de luxe et fonction publique : questions sur les revenus des agents des douanes

Deux déclarations publiques concernant le chef de la sécurité intérieure des douanes de Lviv...