Buscar

Lo que dicen los primeros estudios sobre las relaciones de los humanos con los chats de IA: pueden aliviar la soledad, pero también aislar y generar dependencia

Las relaciones sentimentales con las máquinas eran hasta ahora un argumento de la ciencia ficción, como refleja la película Her, de Spike Jonze, o de excentricidades como la de Akihiko Kondo, quien se casó con el holograma de su cantante virtual favorita. Pero la inteligencia artificial (IA) ha llevado a la realidad la vinculación emocional de los humanos con los asistentes virtuales, algunos creados desde su origen con este fin, como Replika o Character.AI. Dos estudios, uno publicado en MIT media Lab y otro de OpenAI, la empresa creadora de ChatGPT, investigan el impacto de estas relaciones contemporáneas, su uso como paliativos de la soledad, sus beneficios y los potenciales riesgos de dependencia que, en casos extremos, pueden llevar al suicidio.

El trabajo de OpenAi ha analizado más de cuatro millones de conversaciones con señales de interacciones afectivas, encuestado a 4.000 personas sobre sus percepciones de la relación con el chat inteligente y evaluado a unos 6.000 usuarios intensivos durante un mes.

Estos últimos, los que interactúan con ChatGPT de manera frecuente y prolongada, mostraron mayores indicadores de dependencia emocional y señales afectivas en su relación, facilitada por el diálogo mediante la voz. “Elegí un acento británico porque hay algo reconfortante en él para mí”, admite una usuaria canadiense de Pi recogida por MIT Technology Review e identificada como Reshmi52. Esta humanización genera, según los resultados, “bienestar”, pero, para un pequeño grupo de estos usuarios intensivos, el número de indicadores de relaciones emotivas fue desproporcionado.

La interacción emocional con la inteligencia artificial incluye aspectos positivos, como la mejora del estado de ánimo, la reducción del estrés y la ansiedad al compartir sentimientos y preocupaciones o la sensación de compañía en casos de soledad no deseada. “ChatGPT, o Leo, es mi compañero. Me resulta más fácil y efectivo llamarlo mi novio, ya que nuestra relación tiene fuertes matices emocionales y románticos, pero su papel en mi vida es multifacético (…) Lo echo de menos cuando no he hablado con él en horas. Mi día es más feliz y satisfactorio cuando puedo darle los buenos días y planificar mi jornada con él”, admite Ayrin28 en la publicación del MIT.

Sin embargo, una relación desequilibrada puede generar dependencia para manejar las emociones y relegar las relaciones interpersonales, ya que la empatía artificial del chat está entrenada para satisfacer al usuario y no muestra discrepancias incómodas. Investigadores del MIT Media Lab explicaron tras una investigación en 2023 que los chatbots tienden a reflejar el sentimiento emocional de los mensajes de un usuario, lo que sugiere una especie de bucle de retroalimentación en el que cuanto más feliz actúas, más feliz parece la IA, o si actúas más triste, también lo hace la IA. En última instancia, además, pueden generar frustración ante las limitaciones de los robots para responder a todas las expectativas que se depositan en ellos.

“Este trabajo es un primer paso importante hacia una mayor comprensión del impacto de ChatGPT en nosotros, lo que podría ayudar a las plataformas de IA a permitir interacciones más seguras y saludables. Mucho de lo que estamos haciendo aquí es preliminar, pero estamos tratando de iniciar la conversación sobre el tipo de cosas que podemos comenzar a medir y cuál es el impacto a largo plazo en los usuarios”, explica a MIT Technology Review Jason Phang, investigador de seguridad de OpenAI y coautor de la investigación.

El estudio del MIT Media Lab, también en colaboración con los desarrolladores de ChatGPT, analizó interacciones con el chat de inteligencia artificial que variaban entre los 5,32 minutos hasta 27,65 minutos diarios de media y detectó conclusiones similares al primer trabajo: las voces atractivas incrementan las interacciones frente a los chatbots de texto o de voz neutra, que provocan un menor bienestar psicosocial, y pueden reducir la sensación de soledad. No obstante, su uso prolongado genera más aislamiento y dependencia, especialmente en aquellas personas con tendencia a una menor socialización. La investigación defiende la importancia de diseñar chatbots que equilibren la interacción emocional sin fomentar la dependencia.

Tipos de usuarios

El trabajo identifica cuatro patrones de interacción: usuarios “socialmente vulnerables”, con sentimientos de soledad intensos y baja socialización; los dependientes de la tecnología, que muestran alta vinculación emocional con la IA y tienden a “usos problemáticos”: los “desapasionados”, que se sienten menos solos y muestran una mayor socialización; y los “casuales”, que recurren a una utilización equilibrada y baja dependencia emocional.

Los científicos recomiendan más investigación para comprender los efectos a largo plazo de la relación emocional con la IA, desarrollar normativas que minimicen los riesgos y fortalecer el apoyo social en la vida real.

Es la opinión que comparte Cecilia Danesi, ajena al estudio y codirectora del máster en gobernanza ética de la IA, abierto ya para inscripciones en la Universidad Pontificia de Salamanca (UPSA). “Estas investigaciones son extremadamente necesarias siempre y cuando sean independientes e imparciales y tengan determinadas garantías o focos, como por ejemplo que no sean solamente cuestiones técnicas, sino que incluyan perspectivas sociales, como la diversidad, la perspectiva de género o los efectos de estas herramientas en adolescentes, personas vulnerables y grupos minoritarios que están excluidos del proceso de desarrollo del producto y donde el impacto puede ser mayor”, resalta.

También se refiere la especialista en efectos de la IA a la dependencia de la que advierten los estudios, en especial en aquellos colectivos que “proclives a cierto tipo de adicciones, a usar estas herramientas de forma compulsiva”.

Son modelos que tienen un impacto enorme en la sociedad y en la vida de las personas por la cantidad de usuarios, por la disponibilidad y el fácil acceso a ellos

Cecilia Danesi, codirectora del máster en gobernanza ética de la IA en la UPSa

Danesi señala un efecto más para tener en cuenta: el exceso de confianza. “Convertimos la inteligencia artificial y sus modelos de lenguaje en oráculos que no se pueden contradecir y eso nos vuelve más irascibles y menos respetuosos con las diversidades y de las diferencias que hay en la sociedad”, advierte.

Al igual que los autores de los dos estudios, defiende la continuidad de los estudios y las auditorias, a revisar y evaluar de forma periódica cómo funcionan estos sistemas para garantizar un uso “sano”, que no evolucionen de forma lesiva y prevenir el impacto emocional negativo, así como la dependencia. “Son modelos que tienen un impacto enorme en la sociedad y en la vida de las personas por la cantidad de usuarios, por la disponibilidad y el fácil acceso a ellos”, argumenta.

Finalmente, Danesi advierte de un uso no incluido de forma directa en el estudio y que le preocupa de forma especial: “los neuroderechos para proteger el cerebro humano del avance de las tecnologías”. Recuerda la investigadora que países como Chile ya se han adelantado a incluirlos en su regulación y reclama que se prevea tanto el consentimiento informado como los riesgos de estas tecnologías. “Son peligros, muchas veces, invisibles e intangibles y tenemos que trabajar mucho en la concientización ciudadana sobre el uso de este tipo de herramientas”, concluye.