Desde el lanzamiento de ChatGPT a finales de 2022, millones de personas han comenzado a utilizar modelos de lenguaje grandes para acceder al conocimiento. Y es fácil entender su atractivo: hacer una pregunta, obtener una síntesis pulida y seguir adelante – se siente como un aprendizaje sin esfuerzo.
Sin embargo, un nuevo artículo del que soy coautor ofrece evidencia experimental de que esta facilidad puede tener un costo: cuando las personas confían en modelos de lenguaje grandes para resumir información sobre un tema, tienden a desarrollar un conocimiento menos profundo sobre él en comparación con el aprendizaje a través de una búsqueda estándar de Google.
Comparativa en la adquisición de conocimiento: chatgpt vs. búsqueda tradicional
Jin Ho Yun y yo, ambos profesores de marketing, presentamos este hallazgo en un artículo basado en siete estudios con más de 10,000 participantes. La mayoría de los estudios utilizaron el mismo paradigma básico: se les pidió a los participantes que aprendieran sobre un tema – como cultivar un huerto – y se les asignó aleatoriamente a hacerlo utilizando un LLM como ChatGPT o de la "manera antigua", navegando por enlaces utilizando una búsqueda estándar de Google.
No se pusieron restricciones sobre cómo usaban las herramientas; podían buscar en Google todo el tiempo que quisieran y podían continuar solicitando a ChatGPT si sentían que querían más información. Una vez que completaron su investigación, se les pidió que escribieran consejos a un amigo sobre el tema basándose en lo que aprendieron.
Menos esfuerzo, menos información
Los datos revelaron un patrón consistente: las personas que aprendieron sobre un tema a través de un LLM versus la búsqueda web sintieron que aprendieron menos, invirtieron menos esfuerzo en escribir posteriormente sus consejos y, en última instancia, escribieron consejos que fueron más cortos, menos factuales y más genéricos.
A su vez, cuando este consejo fue presentado a una muestra independiente de lectores, que no sabían qué herramienta se había utilizado para aprender sobre el tema, encontraron que el consejo era menos informativo, menos útil y tenían menos probabilidades de adoptarlo.
Encontramos que estas diferencias eran robustas en una variedad de contextos. Por ejemplo, una posible razón por la que los usuarios de LLM escribieron consejos más breves y genéricos es simplemente que los resultados de LLM expusieron a los usuarios a menos información ecléctica que los resultados de Google.
Para controlar esta posibilidad, realizamos un experimento donde los participantes fueron expuestos a un conjunto idéntico de hechos en los resultados de sus búsquedas de Google y ChatGPT. Asimismo, en otro experimento mantuvimos constante la plataforma de búsqueda – Google – y variamos si los participantes aprendieron de los resultados estándar de Google o de la función AI Overview de Google.
Comparativa entre la profundidad del aprendizaje
Los hallazgos confirmaron que, incluso manteniendo constantes los hechos y la plataforma, aprender de las respuestas sintetizadas de LLM condujo a un conocimiento menos profundo en comparación con recopilar, interpretar y sintetizar información por uno mismo a través de enlaces web estándar. En otras palabras, la síntesis automática, si bien conveniente, puede ser perjudicial para la retención y comprensión a largo plazo.
¿Por qué el uso de LLMs pareció disminuir el aprendizaje? Uno de los principios más fundamentales del desarrollo de habilidades es que las personas aprenden mejor cuando están activamente involucradas con el material que están tratando de aprender.
El papel de la actividad cognitiva en la asimilación del conocimiento
Cuando aprendemos sobre un tema a través de la búsqueda de Google, enfrentamos mucha más "fricción": debemos navegar por diferentes enlaces web, leer fuentes de información e interpretarlas y sintetizarlas nosotros mismos. Este proceso activo, aunque desafiante, es crucial para el desarrollo de una comprensión profunda.
Esta fricción, sin embargo, conduce al desarrollo de una representación mental más profunda y original del tema en cuestión. Pero con los LLMs, todo este proceso se realiza en nombre del usuario, transformando el aprendizaje de un proceso más activo a uno pasivo.
Para ser claros, no creemos que la solución a estos problemas sea evitar el uso de LLMs, especialmente dados los beneficios innegables que ofrecen en muchos contextos. Más bien, nuestro mensaje es que las personas simplemente necesitan volverse usuarios más inteligentes o estratégicos de los LLMs – lo que comienza por comprender los dominios en los que los LLMs son beneficiosos versus perjudiciales para sus objetivos.
Estrategias para un uso consciente de la inteligencia artificial en el aprendizaje
¿Necesita una respuesta rápida y factual a una pregunta? Siéntase libre de usar su copiloto de IA favorito. Pero si su objetivo es desarrollar un conocimiento profundo y generalizable en un área, confiar únicamente en las síntesis de LLM será menos útil.
Como parte de mi investigación sobre la psicología de la nueva tecnología y los nuevos medios, también estoy interesado en si es posible hacer que el aprendizaje con LLM sea un proceso más activo. En otro experimento, probamos esto haciendo que los participantes interactuaran con un modelo GPT especializado que ofrecía enlaces web en tiempo real junto con sus respuestas sintetizadas.
Allí, sin embargo, descubrimos que una vez que los participantes recibieron un resumen de LLM, no estaban motivados para profundizar en las fuentes originales. El resultado fue que los participantes aún desarrollaron un conocimiento menos profundo en comparación con aquellos que usaron Google estándar.
Fomentando la participación activa en el aprendizaje asistido por IA
Construyendo sobre esto, en mi investigación futura planeo estudiar herramientas de IA generativa que impongan fricciones saludables para las tareas de aprendizaje – específicamente, examinando qué tipos de salvaguardias o badenes motivan con mayor éxito a los usuarios a aprender activamente más allá de las respuestas fáciles y sintetizadas.
Tales herramientas parecerían particularmente críticas en la educación secundaria, donde un desafío importante para los educadores es cómo equipar mejor a los estudiantes para que desarrollen habilidades fundamentales de lectura, escritura y matemáticas, al mismo tiempo que se preparan para un mundo real donde los LLMs probablemente sean una parte integral de su vida diaria.
Fuentes y recursos de información
Alter, A., Oppenheimer, D., Epley, N., & Eyre, R. (2007). Overcoming intuition: Metacognitive difficulty activates analytic reasoning.. Journal of Experimental Psychology: General, 136, (4), 569-576. DOI: 10.1037/0096-3445.136.4.569
Shiri Melumad. (2025). Learning with AI falls short compared to old-fashioned web search. The Conversation. DOI: 10.64628/aai.eqghtgf5t