Por Fabiano Couto Corrêa da Silva
Introducción

Imagen: Hiroyuki Sen vía Unsplash.
La integridad científica siempre ha sido un pilar fundamental de la confianza pública en la ciencia. Sin embargo, vivimos un momento de crisis sin precedentes, en el que la escala, la sofisticación y la velocidad de los fraudes científicos desafían los mecanismos tradicionales de control y verificación. La expansión de la inteligencia artificial (IA) introduce una complejidad inédita: al mismo tiempo que ofrece herramientas poderosas para detectar anomalías y fraudes, abarata y escala la producción de contenido fraudulento de forma alarmante. Para editores, revisores e investigadores, esta es una conversación de gran importancia para preservar la confianza en la ciencia como institución social.
En el libro ¿Quem controla seus dados?1, sostengo que la expansión de la IA, aliada a la concentración de plataformas y flujos de datos, intensifica el colonialismo informacional y exige transparencia, procedencia y una gobernanza soberana para salvaguardar la integridad científica.
La crisis contemporánea: la industrialización del fraude científico
La integridad científica enfrenta una crisis de escala industrial. El fenómeno de las “paper mills”,verdaderas fábricas de artículos fraudulentos, representa una transformación cualitativa en la naturaleza de la mala conducta científica. Ya no se trata de casos aislados de investigadores deshonestos, sino de operaciones comerciales organizadas que producen estudios falsos en masa para venderlos a investigadores presionados por la lógica de “publicar o perecer”.
Las cifras son alarmantes. Estudios recientes documentan un aumento exponencial en el número de retracciones de artículos científicos en las últimas dos décadas. Estimaciones conservadoras sugieren que hasta 400.000 artículos fraudulentos se infiltraron en la literatura científica en las últimas dos décadas, mientras que solo 7.275 retracciones fueron registradas oficialmente como relacionadas con esas organizaciones, revelando la magnitud oculta del problema.
Los números son alarmantes. Estudios recientes muestran que el número de retracciones ha venido aumentando a lo largo de los años, aunque represente una proporción pequeña del total de publicaciones, y que muchos artículos siguen recibiendo un volumen sustancial de citas incluso después de haber sido retractados (2024)2. Al mismo tiempo, análisis sobre las paper mills indican que organizaciones especializadas ya han logrado publicar muchos miles de manuscritos fabricados en revistas revisadas por pares, comercializando la autoría científica como un servicio (2024)3. En conjunto, estos estudios sugieren que la mala conducta científica no se limita a casos aislados, sino que adopta formas estructuradas y de gran escala, con efectos duraderos sobre la literatura científica.
La pandemia de COVID-19, con su carrera desesperada por publicaciones, exacerbó dramáticamente este problema. Artículos sobre tratamientos milagrosos, datos fabricados sobre la eficacia de medicamentos y estudios con metodologías dudosas inundaron las revistas científicas, muchos de los cuales solo fueron retractados meses o años después, cuando el daño a la salud pública ya estaba hecho.
Esta “industrialización del fraude” revela fragilidades profundas de un sistema de revisión por pares sobrecargado y de un modelo de publicación que, a veces, prioriza la cantidad en detrimento de la calidad. Revisores voluntarios, a menudo trabajando sin remuneración y bajo presión de tiempo, no tienen condiciones para detectar fraudes cada vez más sofisticados. Las editoriales, a su vez, enfrentan el dilema entre mantener la velocidad de publicación (y, en consecuencia, sus ingresos) e invertir en verificaciones rigurosas que ralentizan el proceso.
La inteligencia artificial: arma de doble filo
La IA generativa representa un cambio de paradigma en esta crisis. Si antes el fraude exigía un esfuerzo considerable, como fabricar datos, manipular imágenes, escribir textos coherentes, hoy es posible generar contenido fraudulento con una facilidad pasmosa. Esto lleva a una tipología ampliada de la mala conducta científica, que va mucho más allá del plagio y de la fabricación tradicional de datos.
Generación de contenido fraudulento multimodal
La IA puede crear no solo textos académicamente plausibles, sino también imágenes científicas falsas (como láminas de microscopía, gráficos de experimentos, imágenes de resonancia magnética), videos e incluso audios de entrevistas o testimonios. Herramientas de IA generativa pueden producir conjuntos de datos enteros que parecen estadísticamente válidos pero que son completamente ficticios. La sofisticación de estas fraudes hace extremadamente difícil su detección, incluso para revisores experimentados.
Implicaciones epistemológicas profundas
La propia naturaleza de la evidencia científica se ve cuestionada en este nuevo contexto. Si una imagen puede ser generada por IA de forma indistinguible de una imagen real, ¿cómo confiar en lo que vemos? Si los datos pueden fabricarse con distribuciones estadísticas perfectas, ¿cómo distinguir lo real de lo falso? La cuestión de la «autoría» también se vuelve difusa. ¿Quién es autor de un texto generado con ayuda de una IA? ¿El investigador que proporcionó el prompt? ¿La empresa que desarrolló el modelo? ¿La comunidad que generó los datos de entrenamiento?
El paradigma de la transparencia
Como se analiza en el post La paradoja de la transparencia en el uso de la IA generativa en la investigación académica4, publicado en el propio blog SciELO en Perspectiva,, declarar el uso de IA, aunque éticamente recomendable y cada vez más exigido por las revistas, puede llevar a una percepción de menor confiabilidad por parte de lectores. Esto crea un dilema para los investigadores: ser transparente sobre el uso de herramientas de IA puede perjudicar la recepción del trabajo; no declararlo puede considerarse mala conducta. Este paradoja revela la urgencia de desarrollar nuevas normas y expectativas sobre el papel de la IA en la producción científica.
Herramientas de detección y la carrera armamentista tecnológica
Afortunadamente, la misma tecnología que potencia el fraude también ofrece nuevas herramientas de defensa. Evolucionan constantemente los enfoques de detección, con el desarrollo de:
- Análisis forense digital avanzado — Técnicas sofisticadas para identificar manipulaciones en imágenes y datos, incluida la inspección de metadatos, la detección de patrones anómalos de compresión y la verificación de consistencia estadística en conjuntos de datos.
- Análisis lingüístico y estilométrico — Algoritmos capaces de detectar patrones textuales que sugieren generación por IA, incluida la evaluación de coherencia semántica, la detección de “alucinaciones” (informaciones plausibles pero falsas generadas por modelos de lenguaje) y la identificación de estilos de escritura inconsistentes.
- Tecnologías emergentes: Blockchain y procedencia de datos — El blockchain, con su capacidad de crear registros inmutables y rastreables, se está explorando como forma de garantizar la procedencia y la integridad de los datos de investigación. Sistemas de “timestamping” criptográfico pueden probar cuándo se recopilaron los datos, por quién y bajo qué condiciones, creando una cadena de custodia verificable.
Limitaciones y desafíos
No obstante, ninguna tecnología es una bala de plata. La carrera entre fraude y detección es constante y asimétrica: mientras los defraudadores solo necesitan encontrar una brecha, los sistemas de detección deben ser amplios e infalibles. Además, existe el riesgo de falsos positivos —trabajos legítimos erróneamente señalados como fraudulentos— y de sesgos algorítmicos, cuando los sistemas castigan desproporcionadamente a ciertos grupos de investigadores (por ejemplo, no anglófonos o de instituciones menos prestigiosas).
Dimensiones éticas y sociales que ponen en juego la confianza
El impacto final de esta crisis es la erosión de la confianza pública en la ciencia. Cada fraude descubierto, cada escándalo de “paper mill”, cada retracción de alto perfil mina la credibilidad de todo el sistema. En un momento en que enfrentamos desafíos globales que exigen respuestas basadas en evidencias, como el cambio climático, pandemias, desigualdades sociales, la pérdida de confianza en la ciencia es un riesgo existencial.
Esta crisis también tiene una dimensión de colonialismo científico. Las vulnerabilidades sistémicas, como la presión excesiva por publicar, la falta de recursos para verificaciones rigurosas y la dependencia de plataformas y herramientas propietarias, afectan desproporcionadamente a investigadores e instituciones del Sur Global. Investigadores en países con menos recursos son más vulnerables a las ofertas de “paper mills”, que prometen publicaciones rápidas en revistas aparentemente legítimas. Al mismo tiempo, suelen ser los primeros sospechosos cuando se descubren fraudes, reforzando estereotipos perjudiciales.
La responsabilidad, por lo tanto, no puede ser solo individual. Es institucional y sistémica, y exige una transformación cultural profunda en prácticas de evaluación, incentivos y formación. Las universidades y agencias de fomento necesitan repensar las métricas de éxito académico, valorando la calidad por encima de la cantidad. Las editoriales deben invertir en procesos de verificación más robustos, aunque eso signifique publicar menos y más despacio. Y la comunidad científica en su conjunto debe desarrollar una cultura de transparencia, reproducibilidad y responsabilidad colectiva.
Hacia una gobernanza de la integridad científica
Para enfrentar la crisis de integridad en la era de la IA, no bastan soluciones paliativas o tecnológicas aisladas. Se requiere una gobernanza integrada que articule recomendaciones tecnológicas, reformas institucionales y, sobre todo, cooperación internacional. Construir un sistema científico íntegro y equitativo pasa por la soberanía científica; es decir, por la capacidad de cada comunidad de definir sus propias reglas y estándares de integridad, en diálogo con la comunidad global, sin imposiciones unilaterales de modelos desarrollados en el Norte.
La transparencia, la responsabilidad y la justicia epistémica deben ser los pilares de esta nueva arquitectura de confianza. Este es un desafío que exige el compromiso de todos los actores del ecosistema científico: investigadores, editores, revisores, instituciones, agencias de fomento y sociedad civil. La integridad científica no es solo una cuestión técnica o ética individual, sino una responsabilidad colectiva que define el futuro de la ciencia como institución social.
Posts de la serie sobre el libro Quem controla seus dados?
- Colonialismo de datos en la ciencia: una nueva forma de dominación epistémica
- Ciencia Abierta entre promesas y paradojas: ¿democratización o nueva dependencia?
- Integridad científica en la era de la IA: fraudes, manipulación y los nuevos desafíos de la transparencia
- Soberanía de datos científicos en las tensiones entre la apertura global y la autonomía local
Notas
1. SILVA, F. C. C. Quem controla seus dados? Ciência Aberta, Colonialismo de Dados e Soberania na era da Inteligência Artificial e do Big Data. São Paulo: Pimenta Cultural, 2025. [viewed 10 December 2025] https://10.31560/pimentacultural/978-85-7221-474-2. Available from: https://www.pimentacultural.com/livro/quem-controla-dados/ ↩
2. SCHMIDT, M. et al. Why do some retracted articles continue to get cited? Scientometrics [online]. 2024 vol. 129, pp. 7535–7563, ISSN:1588-2861 [viewed 10 December 2025] https://doi.org/10.1007/s11192-024-05147-4. Available from: https://link.springer.com/article/10.1007/s11192-024-05147-4 ↩
3. PARKER, L.; BOUGHTON, S.; BERO, L.; BYRNE, J. A. Paper mill challenges: past, present, and future. Journal of Clinical Epidemiology [online] 2024, v. 176 [viewed 10 December 2025] https://doi.org/10.1016/j.jclinepi.2024.111549. Available from: em: https://www.sciencedirect.com/science/article/pii/S0895435624003056 ↩
4. SAMPAIO, R. C. O paradoxo da transparência no uso de IA generativa na pesquisa acadêmica. Blog SciELO em Perspectiva, 2025 [viewed 10 December 2025]. Available from: https://blog.scielo.org/blog/2025/10/10/o-paradoxo-da-transparencia-no-uso-de-ia-generativa-na-pesquisa-academica/ ↩
Referencias
PARKER, L.; BOUGHTON, S.; BERO, L.; BYRNE, J. A. Paper mill challenges: past, present, and future. Journal of Clinical Epidemiology [online] 2024, v. 176 [viewed 10 December 2025] https://doi.org/10.1016/j.jclinepi.2024.111549. Available from: em: https://www.sciencedirect.com/science/article/pii/S0895435624003056
SILVA, F. C. C. Quem controla seus dados? Ciência Aberta, Colonialismo de Dados e Soberania na era da Inteligência Artificial e do Big Data. São Paulo: Pimenta Cultural, 2025. [viewed 10 December 2025] https://10.31560/pimentacultural/978-85-7221-474-2. Available from: https://www.pimentacultural.com/livro/quem-controla-dados/
SCHMIDT, M. et al. Why do some retracted articles continue to get cited? Scientometrics [online]. 2024 vol. 129, pp. 7535–7563, ISSN:1588-2861 [viewed 10 December 2025] https://doi.org/10.1007/s11192-024-05147-4. Available from: https://link.springer.com/article/10.1007/s11192-024-05147-4.
Sobre Fabiano Couto Corrêa da Silva
Fabiano Couto Corrêa da Silva es investigador en Ciencia de la Información, con foco en ciencia abierta, colonialismo de datos y soberanía informacional. Lidera el DataLab – Laboratorio de Datos, Métricas Institucionales y Reproducibilidad Científica, con énfasis en FAIR/CARE.
Traducido del original en portugués por Fabiano Couto Corrêa da Silva.
Como citar este post [ISO 690/2010]:















Comentarios recientes