Un nuevo estudio advierte sobre posibles costos cognitivos en el uso de modelos de lenguaje como ChatGPT en entornos educativos. Publicado en junio de 2025 en la plataforma científica arXiv, el trabajo utilizó análisis de electroencefalografía (EEG), evaluaciones lingüísticas y entrevistas con usuarios para investigar el impacto del uso de herramientas de inteligencia artificial en la escritura de ensayos.
El estudio reclutó a 54 participantes y los dividió en tres grupos: uno utilizó únicamente ChatGPT (grupo LLM), otro recurrió a motores de búsqueda, y el tercero escribió sin ayuda (grupo Solo Cerebro). Durante tres sesiones, cada grupo escribió ensayos bajo las mismas condiciones. En una cuarta sesión, se invirtieron los roles: quienes habían usado LLM debieron escribir sin él, y viceversa.
A lo largo de los experimentos se midió la actividad cerebral mediante EEG y se analizaron los textos con procesamiento de lenguaje natural (PLN). También se incluyeron entrevistas con los participantes después de cada sesión, para conocer su experiencia subjetiva.
Uno de los hallazgos más llamativos fue la diferencia en los patrones de conectividad neuronal. Quienes escribieron sin ayuda mostraron redes cerebrales más activas y extensas. El grupo que usó motores de búsqueda tuvo un nivel intermedio. En contraste, el grupo asistido por ChatGPT exhibió el acoplamiento neuronal más débil, lo que sugiere una menor exigencia cognitiva.
La cuarta sesión arrojó datos aún más reveladores: quienes pasaron de ChatGPT a escritura manual mostraron menor compromiso cerebral y debilidad en las redes alfa y beta. Por el contrario, quienes pasaron de escribir por sí mismos a usar LLM activaron nuevas regiones visuales y prefrontales, similares a los patrones del grupo que usó motores de búsqueda.
Te puede interesar: ¿Cuál corrector con IA funciona mejor en español? Así se comparan Correcto, Grammarly, LanguageTool y Quillbot
Los resultados también mostraron diferencias en el contenido generado. Aunque los ensayos eran coherentes, los del grupo LLM fueron menos variados en temas y frases. Además, quienes usaron ChatGPT reportaron sentir menos “propiedad” sobre sus textos y mostraron dificultades para recordar detalles minutos después de haberlos escrito.
En términos pedagógicos, el estudio plantea una alerta: aunque los modelos como ChatGPT pueden facilitar la escritura y generar contenido rápido, podrían también limitar el esfuerzo cognitivo que normalmente impulsa el aprendizaje profundo. La paradoja es clara: cuanto más delegamos en las máquinas, menos se activa nuestro cerebro.
Los autores aclaran que su intención no es demonizar el uso de la IA en la educación. Subrayan que los beneficios de los LLM son evidentes y útiles, pero que es urgente estudiar los efectos a largo plazo en habilidades como la memoria, la creatividad y la escritura. También señalan que el estudio tiene limitaciones importantes.
Por ejemplo, los participantes pertenecían a un mismo entorno académico y geográfico. Además, la investigación se centró exclusivamente en ChatGPT, sin incluir otros modelos de lenguaje. Tampoco se analizaron las etapas específicas del proceso de redacción (como planificación o corrección), y el uso de EEG no permite una localización precisa de regiones cerebrales profundas.
Los autores planean nuevos estudios que incluyan más participantes, tareas variadas, otras modalidades (como audio) y tecnologías como fMRI. También insisten en evitar simplificaciones como decir que “la IA nos vuelve más tontos”.
Este estudio, uno de los primeros en medir de forma tan amplia los efectos neurocognitivos del uso de LLM en contextos educativos, abre el debate sobre cómo equilibrar el acceso a herramientas inteligentes sin comprometer la autonomía intelectual.