Inteligencia Artificial, Publicación y redacción científica

ChatGPT tiene un problema: ignora artículos fraudulentos

Un nuevo año (y ya son ocho en este blog, 36.000 visitas solo en 2025) merece ser iniciado con un tema candente. Abrimos 2026 hablando de Inteligencia Artificial y sus sesgos. Ya he explicado aquí que ChatGPT puede ser útil si se usa bien pero, ¿y si no podemos fiarnos de estos grandes modelos de lenguaje para hacer Ciencia?

Me explico: una investigación reciente que cito al final de este post han comprobado que el número total de publicaciones científicas se duplica aproximadamente cada 15 años. Por otro lado, el número estimado de artículos fraudulentos se duplica cada 18 meses, lo cual sugiere que el sistema basado en el famoso «publish or perish» (publica o perece) tiene una vertiente turbia que en nada favorece a los avances científicos: cárteles de citación, publicaciones pagadas¿sabría identificar ChatGPT artículos dudosos? ¿estamos seguros de que las fuentes que ofrecen los modelos de IA son reales, actualizadas, fiables? Yo tengo mis dudas. Vamos a intentar despejarlas en este post.

ChatGPT y otros modelos de lenguaje tienen sesgos e ignoran información relevante [Imagen: Freepik]

1. ¿Qué es una retractación científica?

En el mundo académico, se conoce como retractación la retirada intencional de un artículo ya publicado por algún error grave que compromete tanto a su autor o autores como al medio que lo publica. Algunas causa de retractación son fraude, plagio, falta de honestidad, manipulación u omisión de datos, conclusiones parciales o engañosas, falta de confiabilidad en el método empleado, falta de ética, conflictos de intereses, pagos ocultos de laboratorios o marcas para obtener un determinado resultado… La lista es larga. Un caso famoso fue un artículo publicado en 1998 en The Lancet que vinculaba la administración de la vacuna triple viral con el autismo en niños y que la propia revista retractó en 2010 al demostrarse la falsedad de los datos. Aunque las retractaciones son necesarias para mantener la confianza en la investigación y a la larga benefician su credibilidad, suelen ser escasas porque acarrean un estigma.

2. ¿Detecta ChatGPT publicaciones retractadas?

Parece ser que no y ese ese el problema. Un estudio de 2025 que cito al final de este post recopiló 217 artículos retractados y confirmó que ChatGPT no hacía mención de que habían sido retirados. Es más: en al menos 190 casos los calificó de excelentes o teorías líderes a nivel mundial. Solo 27 de ellos recibieron críticas en las explicaciones del algoritmo y 5 fueron tildados de controvertidos. ¿Eso es todo? Sinceramente, es muy poco. Además de peligroso para el conocimiento científico.

Los modelos de lenguaje de gran tamaño (LLM por sus siglas en inglés) están siendo entrenados para analizar tendencias y elaborar discursos acerca de estas tendencias. Pero como bien sabemos los historiadores y humanistas, lo que queda en los márgenes suele contener información interesante e incluso vital para comprender o refutar un fenómeno. De ahí la importancia del pensamiento crítico en el análisis de lo que ChatGPT nos ofrece como información verídica.

3. Así puedes evaluar la fiabilidad de lo que te cuenta ChatGPT

1. Haz buenas preguntas

La rapidez con la que todo lo queremos nos impide planificar bien las búsquedas. Cuanto más genérica sea la pregunta, más posibilidades hay de que la IA se líe o nos la cuele. Orienta bien las preguntas, siendo concreto y utilizando lenguaje específico del tema sobre el que estás investigando. Háblale a la IA como un profesional y explícale cómo deseas que te conteste y ordene los resultados. A medida que progrese, afina las preguntas un poco más, tomando de cada respuesta solo lo que te interese. La IA no es un amigo, es una herramienta y en parte, devuelve lo que tú le das.

2. Sé humano: piensa con esa cabecita

Repito de nuevo (soy pesada, lo sé) que la IA es un gran invento siempre que se use conscientemente. Esto quiere decir que no siempre va a solucionar todos nuestros problemas, solo nos sirve de apoyo. Si algo te resulta sospechoso, desconfía. El instinto rara vez suele fallar y en eso, un humano (incluso un bebé) le lleva ventaja a ChatGPT. El cerebro humano es mucho más plástico y adaptable que cualquier algoritmo. Úsalo para seguir teniendo el control de tu propio trabajo (algo que también sirve para las revistas depredadoras).

3. Contrasta y comprueba

Ante la más mínima duda, comprueba. Para los bulos existen webs como Maldita y para las fuentes científicas, basta con buscar la cabecera de la revista. En muchas ocasiones, ChatGPT da apariencia de verosimilitud a las fuentes porque mezcla las reales con las ficticias utilizando patrones. Haz varias búsquedas para comprobar coincidencia de datos en al menos dos fuentes diferentes. Si las dudas persisten, visita la biblioteca universitaria para que sus profesionales te echen una mano. Varias mentes en sintonía piensan mejor. No hay versión de software que supere eso (todavía).

Y tú, ¿eres de los que cree a pies juntillas en la IA? La tecnología es un apoyo para actividades sin valor añadido, pero confiar en ella a ciegas suele entrañar riesgos. Docendo Discitur es una web confiable. ¡Consúltame!

FUENTES CITADAS:

«Fraudulent Scientific Papers Are Booming». The Economist, 6 de agosto de 2025.

Chawla, D.S. «ChatGPT Tends to Ignore Retractions on Scientific Papers» Chemical & Engineering News, 15 de agosto de 2025.