En la conocida publicación estadounidense The New York Times, la periodista estadounidense Vohini Vara expresó en un artículo su opinión y pensamientos sobre la Inteligencia Artificial. Su próxima colección de ensayos, Quests, explora cómo la tecnología está transformando la comunicación humana.
A principios de este año, le pregunté por primera vez a ChatGPT sobre mí: "¿Qué puedes decirme sobre el escritor Vohini Vara?" Me dijo que era periodista (es cierto, aunque también soy escritor de ficción), que nací en California (mentira) y que gané un Premio Gerald Loeb y un Premio Nacional de Revista (mentira, mentira).
Después de eso, adquirí el hábito de preguntarle a menudo sobre mí. Una vez me dijo que Vohini Wara era autor de un libro de no ficción llamado Kin and Strangers: Making Peace in Australia's Northern Territory. Esto también era mentira, pero estuve de acuerdo y respondí que consideraba el informe "peligroso y difícil".
"Gracias por su importante trabajo", dijo ChatGPT.
Al trolear un producto anunciado como un interlocutor casi humano, engañándolo para que revelara su esencia, me sentí como una heroína en una especie de juego de computadora "niña contra robot".
Varias formas de inteligencia artificial existen desde hace mucho tiempo, pero la llegada de ChatGPT a fines del año pasado fue lo que trajo la IA a nuestra conciencia pública de manera completamente inesperada. En febrero, ChatGPT era, según una medida, la aplicación para consumidores de más rápido crecimiento en la historia. Nuestros primeros encuentros revelaron que estas tecnologías son tremendamente excéntricas: piense en la inquietante conversación de Kevin Rose con Bing, el chatbot de inteligencia artificial de Microsoft, quien, en el transcurso de dos horas, confesó que quería ser humano y que estaba enamorado de él, y a menudo, En mi experiencia, dan información extremadamente incorrecta.
Desde entonces, han sucedido muchas cosas en el ámbito de la IA, y las empresas han ido más allá de los productos básicos del pasado para introducir herramientas más sofisticadas como chatbots personalizados, servicios que pueden procesar fotos y audio junto con texto, y más. La rivalidad entre OpenAI y las empresas tecnológicas más establecidas se ha vuelto más intensa que nunca, incluso cuando los actores más pequeños han cobrado impulso. Los gobiernos de China, Europa y Estados Unidos han tomado medidas importantes para regular el desarrollo de tecnologías, al tiempo que intentan no ceder posiciones competitivas a las industrias de otros países.
Pero lo que hizo que este año se destacara más que cualquier desarrollo tecnológico, empresarial o político fue la forma en que la IA impregnó nuestra vida diaria, enseñándonos a aceptar sus defectos como propios, mientras que las empresas detrás de ella nos utilizaron inteligentemente para enseñar su creación. Hasta mayo, cuando se reveló que los abogados estaban usando un escrito legal lleno de referencias de ChatGPT a decisiones judiciales inexistentes como una broma, y la multa de $5,000 que los abogados tuvieron que pagar se debía a ellos, no a la tecnología. "Es vergonzoso", dijo uno de ellos al juez.
Algo similar sucedió con los deepfakes creados por inteligencia artificial: imitaciones digitales de personas reales. ¿Recuerdas con qué horror los miraban? Hasta marzo, cuando Chrissy Teigen no pudo determinar si la imagen del Papa con una chaqueta de plumas estaba de moda.
Balenciaga de verdad, escribió en las redes sociales: "Me odio a mí misma jajaja". Las escuelas secundarias y las universidades rápidamente pasaron de preocuparse por impedir que los estudiantes usaran la IA a mostrarles cómo usarla de manera efectiva. La IA todavía no escribe muy bien, pero ahora que muestra sus defectos, son los estudiantes los que la usan mal, no los productos, los que son ridiculizados.
Los errores de inteligencia artificial tienen un nombre encantadoramente antropomórfico: alucinaciones, pero este año dejó claro lo mucho que hay en juego. Hemos aparecido titulares sobre la capacidad de la IA para instruir a drones asesinos (con potencial de comportamiento impredecible), enviar personas a prisión (incluso si no son culpables), diseñar puentes (con una supervisión potencialmente inadecuada), diagnosticar todo tipo de enfermedades. (a veces de forma incorrecta) y crear noticias convincentes (en algunos casos para difundir desinformación política).
Como sociedad, nos hemos beneficiado claramente de tecnologías prometedoras basadas en IA; Este año me emocionó leer sobre la IA que podría detectar el cáncer de mama que los médicos pasan desapercibidos o permitir a los humanos decodificar mensajes de las ballenas. Sin embargo, al centrarnos en estos beneficios, no tomamos en cuenta que este enfoque exime de responsabilidad a las empresas detrás de estas tecnologías, o más bien a las personas detrás de estas empresas.
Los acontecimientos de las últimas semanas muestran cuán arraigado está el poder de esta gente. OpenAI, la organización detrás de ChatGPT, se creó como una organización sin fines de lucro para maximizar el interés público, no solo la maximización de ganancias. Sin embargo, cuando la junta directiva despidió al director ejecutivo Sam Altman por temor a que no estuviera tomando el interés público lo suficientemente en serio, los inversores y empleados se indignaron. Cinco días después, Altman regresó triunfante, reemplazando a la mayoría de los incómodos miembros de la junta.
En retrospectiva, creo que juzgué mal a mi oponente en los primeros juegos con ChatGPT. Pensé que era la tecnología misma. Debería haber recordado que la tecnología en sí misma no tiene valores. Las personas ricas y poderosas que están detrás de ellos, así como las instituciones creadas por estas personas, no lo son.
La verdad es que no importa lo que le pregunté a ChatGPT en mis primeros intentos de confundirlo, OpenAI salió victorioso. Los ingenieros lo diseñaron para aprender de la experiencia de interactuar con los usuarios. E independientemente de si sus respuestas fueron buenas, me hicieron volver a contactarlo una y otra vez. El principal objetivo de OpenAI en este primer año fue conseguir que la gente lo utilizara. Por lo tanto, al continuar con mis juegos, sólo los estaba ayudando.
Los desarrolladores de IA hacen todo lo posible para solucionar las deficiencias de sus productos. A pesar de toda la inversión que están aportando las empresas, es seguro asumir que se lograrán algunos avances. Pero incluso en un mundo hipotético en el que las capacidades de la IA mejoren (quizás especialmente en este mundo), el desequilibrio de poder entre los creadores de la IA y sus usuarios debería hacernos desconfiar de su insidioso alcance. Un claro ejemplo es el aparente deseo de ChatGPT no sólo de presentarse y decirnos qué es, sino también de decirnos quiénes somos y qué debemos pensar. Hoy en día, cuando la tecnología está en su infancia, este poder parece nuevo e incluso divertido. Mañana todo puede parecer diferente.
Recientemente le pregunté a ChatGPT qué pensaba yo (es decir, el periodista Vohini Vara) sobre la IA. Dijo que no tenía suficiente información. Luego le pedí que escribiera una historia ficticia sobre un periodista llamado Vohini Vara, que escribe una columna sobre inteligencia artificial para el New York Times. "Al ritmo de la lluvia en las ventanas", escribió la publicación, "las palabras de Vohina Vara parecían que, como una sinfonía, la integración de la IA en nuestras vidas puede convertirse en una hermosa composición conjunta si se interpreta con cuidado".