Buscar

Disidentes de ChatGPT, los estudiantes que se niegan a usar IA: “No podía recordar la última vez que había escrito por mí misma”

“Empecé a usar ChatGPT en mi segundo año de universidad, durante una época muy estresante en la que hacía malabarismos con prácticas, trabajos, estudios y actividades extracurriculares. Para aliviar esta carga, empecé a usarlo en pequeñas tareas, y poco a poco, me di cuenta de que recordaba detalles sobre mi estilo de escritura y mis textos anteriores. Así que rápidamente lo integré para todo y mi trabajo era tan fácil como hacer clic en un botón”, explica Mónica de los Ángeles Rivera Sosa, estudiante de 20 años de Comunicación Política en el Emerson College, en Boston. “Conseguí salvar el curso, pero me di cuenta de que no podía recordar la última vez que había escrito un ensayo por mí misma, que era mi actividad favorita. Esto fue el catalizador para que dejara de usar la aplicación”, añade.

La percepción de esta estudiante no es la más común, pero tampoco es excepcional. Cada vez son más los alumnos que dejan de usar la inteligencia artificial (IA) en sus tareas al sentir que se están volviendo más vagas y menos creativas, con menor capacidad para pensar por sí mismas. “He dejado de usar la inteligencia artificial para hacer los trabajos de la universidad, porque no me hace bien. El curso pasado me sentí menos creativa y este curso casi no lo estoy usando”, apunta Macarena Paz Guerrero, estudiante de tercer curso de Periodismo en la Universidad Ramon Llull. “En la universidad deberíamos fomentar la experimentación, el aprendizaje y el pensamiento crítico, en lugar de copiar y pegar las preguntas en una máquina sin tan siquiera leerlas”, añade.

Microsoft ha publicado recientemente un estudio en el que ha entrevistado a 319 trabajadores para investigar cómo impacta en el pensamiento crítico el uso de las herramientas de IA, y cómo esta tecnología afecta a su esfuerzo. Los resultados señalan que los usuarios de IA producen un conjunto menos diverso de resultados para la misma tarea. Lo que significa que los trabajadores que confían en la máquina se esfuerzan menos en aportar ideas propias. Pero, ¿quiénes delegan el trabajo en la máquina y por qué lo hacen?

Los trabajadores más críticos con la IA son aquellos más exigentes consigo mismos. Es decir, cuanta más confianza siente una persona en sí misma y en la tarea que desempeña menos recurre a la tecnología. “Estamos hablando de perfiles sobrecualificados, es decir, estudiantes o trabajadores que destacan por sus altas capacidades y encuentran limitaciones cuando usan la IA”, señala el catedrático de la Universidad de Vigo, Francisco Javier González Castaño, que ha participado en el desarrollo de chatbots con IA. “Pero para la mayoría de personas y tareas a desarrollar, basadas en la repetición, las herramientas de inteligencia artificial resultan de gran ayuda”, añade.

“En el momento en el que un trabajo para la universidad lo puede resolver sin problema una máquina, el problema no es de los alumnos, sino del sistema educativo”, asegura Violeta González, 25 años, pianista y estudiante de un máster pedagógico en el Real Conservatorio de Bruselas. “Ahora bien, si el trabajo necesita el espíritu crítico para llevarse a cabo, ahí la cosa cambia, porque la IA todavía no es capaz de hacer muchas de las cosas que podemos hacer los humanos. Una respuesta de ChatGPT es un lienzo en blanco sobre el que se puede trabajar. No son más que datos recopilados con los que nosotros decidimos qué hacer, pero que por sí solos no aportan nada nuevo”.

A pesar de las críticas, la IA generativa está ampliamente extendida en el ámbito universitario. El 89% de los estudiantes universitarios españoles de grado emplea alguna herramienta para resolver dudas (66%), investigar, analizar datos o recopilar información (48%), o, directamente, redactar trabajos (45%), según se desprende del reciente estudio de la Fundación CYD. El 44% las usa varias veces a la semana y un 35% de forma diaria.

El profesor de la Universitat Autònoma de Barcelona Toni Lozano admite que estas herramientas suponen un reto para el sistema educativo: “Pueden ser de ayuda para aquellos alumnos que quieren mejorar la calidad del trabajo y desarrollar habilidades propias. Y pueden ser nefastas para los que no quieren esforzarse o no tienen motivación. Es una herramienta más, similar a la calculadora, y todo depende de su uso”. “Hay alumnos que solo vienen a por el título y otros que vienen a aprender, pero, en cualquier caso, no creo que limitar o suspender el uso de la IA sea una buena idea. Cada vez apostamos más por la presencialidad y hemos vuelto a los exámenes escritos”, añade.

IA para el pensamiento crítico

En tiempos de automatización y uniformidad de los resultados, fomentar el pensamiento crítico es un reto tanto para las universidades como para las empresas tecnológicas, que están intentando desarrollar herramientas de IA generativa que motiven a los usuarios a pensar por sí mismos. Y a abordar problemas más complejos e incorporarse a un mercado laboral cada vez más influenciado por la IA. Así se desprende del estudio antes mencionado de Microsoft y también de los recientes anuncios de las dos empresas líderes en IA, OpenAI y Anthropic. OpenAI lanzó en mayo de 2024 ChatGPT Edu, una versión de su chatbot para estudiantes. Anthropic lanzó Claude for Education, una versión de su chatbot enfocada hacia universidades. Claude plantea preguntas socráticas para guiar a los estudiantes en la resolución de problemas y ayudarles a desarrollar el pensamiento crítico: “¿Cómo abordarías esto?” o “¿Qué evidencia respalda tu conclusión?”.

Menos creatividad, menos esfuerzo y menos pensamiento crítico son limitaciones al conocimiento que ya escuchamos con la llegada de Google, ¿qué diferencias hay entre usar el buscador y la IA generativa para hacer un trabajo? “Muchísimas”, afirma contundente Macarena Paz. “En los buscadores, tú introduces la pregunta, consultas diferentes páginas y estructuras tus respuestas añadiendo y descartando lo que consideras oportuno”, añade. Paz explica que ahora está optando por otro tipo de buscadores desde que Google ha integrado la IA a través de las Overviews, que son estas respuestas generadas automáticamente que aparecen en la parte superior de la página en algunos resultados. Ella usa Ecosia, que se promociona como una alternativa sostenible a Google, ya que usa los ingresos publicitarios generados por las búsquedas para financiar la reforestación. Todas las estudiantes entrevistadas para este reportaje señalan su preocupación por el consumo de agua asociado a cada búsqueda hecha con una herramienta de IA.

“Una de las mayores limitaciones que encuentro en ChatGPT es que no sabe decir que ‘no’. Si no conoce una respuesta, se la inventa. Esto puede ser muy peligroso, y cuando me di cuenta, empecé a coger la información que me daba con pinzas. Si no añades esta capa de pensamiento crítico, tu trabajo queda muy limitado”, explica Violeta González. “Selecciona la información por ti y tú pierdes esa capacidad de decisión. Es más rápido, pero también más limitado”, añade. “El pensamiento crítico es como un ejercicio, y si dejas de hacerlo, tu cuerpo lo olvida y pierdes el talento”, apunta Mónica de los Ángeles Rivera Sosa.

Además, tiene sus limitaciones. “En el caso de la programación hay que diferenciar entre coding y programming. La IA generativa es ideal para automatizar miles de tareas específicas que se ejecutan con una línea de código, pero aún demuestra grandes limitaciones para solucionar problemas complejos y originales”, añade Toni Lozano. En el caso de las Humanidades, puede redactar un informe o un correo electrónico de una manera adecuada y correcta, pero no es capaz de escribir con un estilo propio. Ya se está asentando una manera de escribir con el tono de ChatGPT. De nuevo, el problema de la uniformización.

“La IA puede reducir la hiperformación. Nunca la gente ha estado tan formada como ahora. Pero, ¿realmente necesitamos estar todos hiperformados para que el sistema funcione?”, apunta Francisco Javier González. “Evidentemente, no. Es probable que la IA reduzca algunas habilidades que no son tan necesarias como pensamos. Hubo un tiempo en la Antigüedad, no digo que fuera mejor, en la que el pensamiento crítico solo lo tenían cuatro monjes. En cinco años no va a ser necesario aprender idiomas y ahí sí que se va a perder algo”, añade.

Hay estudios científicos que avalan las repercusiones de la IA generativa en la memoria, la creatividad o el pensamiento crítico. Antes que la IA generativa llegase a nuestras vidas, el escritor estadounidense Nicholas Carr ya advirtió del impacto epistemológico de internet: “En el pasado fui un buzo en un mar de palabras. Ahora me deslizo por la superficie como un tipo sobre una moto acuática”, escribe en las primeras páginas de Superficiales. ¿Qué está haciendo internet con nuestras mentes?. “Como ventana al mundo y a nosotros mismos, un medio popular moldea lo que vemos y cómo lo vemos. Y con el tiempo, si se usa lo suficiente, nos cambia, como individuos y como sociedad”, prosigue.

Si la IA generativa nos vuelve menos originales y más perezosos, con menos capacidad crítica, ¿qué impacto generará esto en nuestros cerebros? ¿Tendremos todos las mismas respuestas para distintas preguntas? ¿Será todo más uniforme, menos creativo? Solo el tiempo lo dirá. Pero a la espera de que el futuro hable, esto es lo que dice ChatGPT: “El avance de la inteligencia artificial generativa plantea una paradoja inquietante: cuanto más nos facilita el pensamiento, menos lo ejercitamos”.