Andrew Heiss, profesor de la Universidad de Georgia, sobre el uso de la inteligencia artificial en trabajos académicos: “La IA cita artículos y publicaciones inventados”
Cuidado con lo que lees
El docente se muestra preocupado por la cantidad de desinformación que ya ha llegado al mundo profesional

“Las cosas generadas por IA se propagan a otras cosas reales, por lo que los estudiantes las ven citadas en cosas reales y asumen que son reales”, explica Heiss.

“Esta aplicación te resume todo el temario y te hace los trabajos, estudiar nunca fue tan fácil”. ¿Has escuchado alguna vez esta sugerencia en vídeos en redes sociales? Sobre todo en época de exámenes o entrega de trabajos finales, está a la orden del día.
Chat GPT y otros tantos modelos de lenguaje de inteligencia artificial (IA) generadores de texto que realizan tareas complejas se han convertido en los “ayudantes” de referencia para miles de jóvenes en todo el mundo. Sin embargo, muchos estudiantes no se han dado cuenta de un detalle clave: estos modelos de IA pueden mentirles. No solo a ellos, también a profesores e investigadores que corrigen trabajos o buscan fuentes fiables para sus tesis.

Andrew Heiss, profesor adjunto del Departamento de Gestión Pública y Políticas de la Escuela Andrew Young de Estudios Políticos de la Universidad Estatal de Georgia; estaba calificando los trabajos de sus alumnos cuando notó algo alarmante: algunas de las citas aportadas se referían a artículos o publicaciones que no existían en realidad.
¿Qué ocurre cuando una generación entera confía en referencias inventadas? El caso de Heiss es solo la punta del iceberg. Lo que el docente halló en su investigación no fue solo que algunos de sus alumnos hacían trampa; el docente se dio cuenta al revisar estos artículos que las citas generadas por IA también forman parte habitual del mundo académico a nivel profesional.
Heiss: “Todo parece real y transparente”
“Ha habido muchos artículos generados por IA, y estos suelen ser detectados y retirados rápidamente”, declara Heiss a Rolling Stone. El problema surge cuando los artículos que incluyen referencias a material de investigación inexistente se citan en otros artículos, por lo que se dan por válidos. Esto hace que estudiantes y académicos identifiquen esas “fuentes” como fiables sin confirmar nunca su veracidad.
Los estudiantes no parecen reparar en que los modelos de lenguaje no “buscan” fuentes por defecto, sino que predicen la siguiente palabra más probable según patrones aprendidos previamente. Las IA generan texto plausible, no verificado, por lo que cuando se les pide referencias, pueden crear citas con un modelo perfecto, pero contenido completamente falso. Como un espejismo en el desierto, las citas inventadas parecen reales hasta que intentas corroborarlas.

Cuanto más se repiten estas citas falsas, sin cuestionarlas, más se refuerza la ilusión de su autenticidad. Unas citas falsas que se han convertido en una auténtica pesadilla para los expertos en investigación. Muchos usuarios confían excesivamente en estos modelos, copiando las citas sin verificarlas o contrastarlas con bases de datos reales como pueden ser PubMed o Scopus.Según algunas estimaciones, se desperdicia hasta el 15 % de sus horas de trabajo analizando registros inexistentes. Detectarlas requiere acceso y tiempo, algo que no todos los estudiantes tienen.
Un estudio de 2023 (Walters et al., Nature) realizó una investigación, utilizando ChatGPT-3.5 y ChatGPT-4 para producir breves revisiones bibliográficas sobre 42 temas multidisciplinarios, recopilando datos sobre 636 citas bibliográficas (referencias) encontradas en 84 artículos.

Los investigadores buscaron en múltiples bases de datos y sitios web para determinar la prevalencia de citas inventadas, identificar errores en las citas de artículos no inventados y evaluar la adherencia al formato de cita APA. Dentro de este conjunto de documentos, el 55% de las citas GPT-3.5 y el 18% de las citas GPT-4 resultaron ser inventadas.
¿Cómo se puede mitigar?
- Usar IA solo para redacción y estructura, no para referencias.
- Verificar todas las citas en bases académicas reales.
- Exigir DOI o URL verificables.
- Usar IA con acceso explícito a buscadores académicos.
- Formación obligatoria en alfabetización en IA.
Heiss también observó que las notas generadas por IA podían resultar convincentes para el lector porque incluían los nombres de académicos vivos y títulos que se parecían mucho a otros artículos o estudios que existen en realidad. “Los datos generados por IA se propagan a otros datos reales, por lo que los estudiantes los ven citados en datos reales y asumen que lo son”, lamenta Heiss. “Se confunden al no comprender por qué pierden puntos por usar fuentes falsas cuando otras fuentes reales los usan”.