Buscar

¿Adivinó ChatGPT quién sería el nuevo papa? Por qué le atribuimos propiedades mágicas a una máquina regurgitadora

“¿Esto es verdad?”. Momentos después de conocerse quién sería el nuevo papa, mi móvil empezó a recibir mensajes y audios asegurando que ChatGPT había adivinado la elección de Robert Francis Prevost. Yo quería ponerlo en modo avión en el patio de butacas antes de ver la formidable Orlando, pero el móvil ardía: “Lo han dicho en la SER, ha acertado, flipo en colores”. En la retransmisión de La Ventana que seguía la fumata blanca, realizaron la consulta y “predijo” que sería el estadounidense. Adivinar, acertar y predecir son verbos muy distintos, sobre todo si estamos en el ámbito del periodismo. Pero da igual: ChatGPT no hizo ninguna de esas tres cosas. Es solo un programa que devuelve respuestas random, tratando de encajar lo mejor posible las piezas con las que se ha alimentado, como noticias pasadas y recientes.

Esta mañana de viernes, cuando iba hacia la redacción del periódico, le he preguntado a ChatGPT: “¿Quién va a salir elegido papa?”. Su respuesta ha sido: “Actualmente no hay un cónclave en curso ni se ha producido la renuncia o fallecimiento del Papa Francisco, por lo que no hay elección papal prevista”. No es que el programa de OpenAI tuviera una apuesta firme por Prevost para todo el mundo, es que habría dado una respuesta distinta cada vez que cualquiera de sus 700 millones de usuarios, en función de miles de factores como los intercambios previos con el individuo, las palabras usadas en la cuestión, la versión del programa, etc. Cuando un modelo de lenguaje responde, no busca en una base de datos ni lee el futuro: genera palabras mientras escribe y va enfriando o calentando probabilidades en función de distintos factores. Si antes hablaste de cardenales latinos, se sesgará hacia nombres de esa región. No es lo mismo preguntar “¿quién será papa?” que “dime el favorito para ser papa”. Y por eso puede darnos a la vez respuestas completamente equivocadas como la que me da a mí, o bien orientadas, como la que dio a La Ventana, porque decidió basarse en noticias recientes de calidad.

La agencia EFE también ha buceado en el asunto: “Otros medios de comunicación, como El Economista, también hicieron pruebas y publicaron el nombre del elegido en el cónclave antes de que se supiera. También el diario El Sol de Mendoza (Argentina) preguntó a ChapGPT y “aseguró que Prevost ya había sido electo como el nuevo líder de la iglesia”, según la web del medio, que muestra una captura de pantalla de la respuesta de la IA, que se produjo minutos antes”. Prevost estaba en todas las quinielas, es un tipo con cargo en la curia, y el New York Times, el periódico más importante del mundo, apostó hace unos días por él, ¿tan raro es que (en algunas respuestas) sugiriera su nombre? ¿A cuántos periodistas les dijo que ganaría Pietro Parolin, y que lógicamente no han publicado una noticia para contarlo? Preguntemos todos hoy quién marcará el gol decisivo del Clásico del domingo y el lunes solo se acordarán los que obtuvieran el jugador correcto (a mí me ha dicho Mbappé y espero que se equivoque).

El episodio solo ilustra la tendencia a atribuir poderes proféticos al programa de OpenAI, que solo regurgita lo que ha sisado por ahí, ¿por qué le seguimos atribuyendo propiedades mágicas o sobrenaturales? La herramienta de inteligencia artificial (IA) solo parasita la pericia de otros: sin expertos vaticanólogos, la “magia” desaparece. Y aun así, hay gente que cree que el programa lo sabía; no simplemente que acertara, sino que por algún tipo de capacidad prodigiosa fue capaz de profetizarlo. Y ahí es donde el tema se complica. Un estudio reciente de Fecyt se analizó la percepción de la IA entre los españoles: “El público general aún tiene dificultades para conceptualizar la IA, a pesar de su creciente presencia en la vida cotidiana y los medios”. Tenemos un carajal importante y buena parte de la culpa es de los medios, que le regalamos personalidad, agencia y milagro a un desarrollo cada vez más sofisticado, pero que sigue siendo bastante mediocre.

Curiosamente, en ese informe se ponía un ejemplo para ilustrar los peligros de la IA generativa: el deepfake del papa Francisco con el abrigo de Balenciaga, la primera vez que una imagen falsa triunfaba masivamente. De aquel papa con el primer deepfake hemos pasado a la elección del actual papa, convertida en chufla gracias al gusto por la IA cutre de la derecha internacional: Trump se disfrazó y Milei ha colocado un león. Toda la potencia computacional que iba a poner en jaque a la civilización reducida a memes reaccionarios baratos que viralizan.

Cada vez más analistas señalan que tres años después de la irrupción de ChatGPT, las promesas revolucionarias se han quedado en un gigantesco “meh”. ¿Qué ha cambiado realmente? Facilita algunas tareas, como componer emails o picar código, pero todos sabemos que hay que revisarlo porque sigue siendo un desastre. Solo sirve para que las empresas automaticen tareas marginales —que los humanos ya hacían razonablemente bien— en las que el salto de eficiencia es mínimo: lo que el Nobel de Economía Daron Acemoglu llama tecnología regulera (so-so technology). Mientras estas herramientas contribuyen a desplazar empleos y rebajan salarios, lamenta Acemoglu, contribuimos a que sus promotores (Sam Altman, Elon Musk, etc.) se forren gracias a la exageración legendaria de sus fantabulosas capacidades.