Por Rafael Cardoso Sampaio

Imagen: Declan Sun via Unsplash.
La consolidación de la inteligencia artificial (IA) generativa, con herramientas como ChatGPT, Gemini, Claude, DeepSeek y similares, está transformando significativamente la producción de conocimiento académico. Las herramientas que facilitan la escritura, el análisis de datos y la generación de ideas se han vuelto omnipresentes, prometiendo aumentar la eficiencia y democratizar el acceso a la producción científica. Sin embargo, esta revolución tecnológica plantea un dilema ético central para los investigadores, enfrentándolos a la disyuntiva de seguir la recomendación consensuada de declarar el uso de IA y arriesgar su credibilidad, u omitirla y comprometer la integridad científica. Esta paradoja, en la que la transparencia choca con los costos sociales, revela tensiones entre la ética, la percepción y la innovación en el ámbito académico.
A nivel internacional, existe prácticamente un consenso sobre la necesidad de transparencia. Entidades como el Comité Internacional de Editores de Revistas Médicas (International Committee of Medical Journal. Editors, ICMJE) y el Comité de Ética de Publicaciones (Committee on Publication Ethics, COPE), y editoriales como Cambridge, Elsevier, Oxford y Taylor & Francis, exigen a los autores que declaren explícitamente el uso de IA generativa. Sampaio, Sabbatini, Limongi (2024, p. 20) en las Diretrizes para uso ético e responsável da Inteligência Artificial Generativa1 recomiendan que la declaración se realice al final del trabajo, en el formato “Declaración de IA y tecnologías asistidas por IA en el proceso de escritura”, según el modelo siguiente.
Durante la preparación de este trabajo, el/los autor(es) utilizaron la versión [número y/o fecha] de [nombre de la herramienta, modelo o servicio] para [justificar el motivo]. Tras utilizar esta herramienta/modelo/servicio, el/los autor(es) revisaron y editaron el contenido de acuerdo con el método científico y asumen plena responsabilidad por el contenido de la publicación.1
Las razones de este requisito son claras. Como señalan Hosseini, et al. (2023), las IA carecen de agencia moral o de la capacidad de responsabilizarse legal y moralmente de sus resultados, lo que deja la responsabilidad enteramente en manos de los autores humanos. Además, la transparencia es esencial para la reproducibilidad, un pilar de la ciencia, ya que los lectores y revisores deben estar familiarizados con todas las herramientas metodológicas utilizadas para evaluar críticamente los resultados (Meinel, et al., 2025). Finalmente, la declaración impide la atribución de crédito indebido, garantizando que el esfuerzo intelectual humano sea debidamente reconocido (Sampaio, Sabbatini, Limongi, 2024).
A pesar de este sólido consenso ético, la adhesión a la declaración es sorprendentemente baja, lo que expone la incómoda paradoja de que la transparencia tiene un alto costo. La investigación The transparency dilemma: How AI disclosure erodes trust2 de Schilke y Reimann (2025) demostró que las personas que declaran el uso de IA son sistemáticamente percibidas como menos confiables. A través de una sólida serie de trece experimentos, los autores descubrieron que publicitar el uso de IA erosiona sistemáticamente la confianza, independientemente de la tarea o la audiencia.
Como afirman, “la divulgación del uso de IA sirve como advertencia a los destinatarios de que el trabajo del divulgador no es puramente generado por humanos, lo que probablemente se considere ilegítimo y, en consecuencia, disminuya la confianza.”2 (Schilke y Reimann, 2025, pág. 2, énfasis añadido).
El mecanismo detrás de este efecto es precisamente la pérdida de legitimidad. El mundo académico, en particular, opera en base a expectativas institucionales sobre lo que constituye un “trabajo intelectual legítimo”, generalmente asociado con el esfuerzo, la originalidad y el conocimiento humano acumulado. La declaración del uso de IA rompe esta expectativa, generando dudas sobre la competencia y la capacidad de acción del investigador.
El estudio de Schilke y Reimann (2025)2 encontró que este efecto negativo persiste incluso cuando la declaración se mitiga con frases como “revisado por un humano” o “usado solo para corrección gramatical”. La mera mención de la IA es suficiente para desencadenar el sesgo negativo. Esto crea la esencia de la paradoja, en la que los investigadores que actúan con integridad son penalizados, mientras que quienes omiten información son recompensados con una percepción de mayor credibilidad en comparación.
En Brasil, el debate sobre el uso y la transparencia en el uso de la inteligencia artificial generativa en el ámbito científico es comprobadamente incipiente. El estudio Inteligência artificial e a escrita auxiliada por algoritmos: o que sinalizam as associações científicas e seus periódicos?3 realizado por Lopes, et al. (2024) analizaron 33 asociaciones científicas de diversos campos y 50 de sus revistas, y descubrieron que ninguna tenía una postura explícita sobre el tema y que, a junio de 2023, solo tres de las 50 revistas (6%) contaban con directrices formales sobre el uso de la IA en la escritura científica. Cuando se aborda el tema, las preocupaciones se centran en la autoría, el plagio y la ética, pero la mayoría de las publicaciones nacionales aún operan en un vacío regulatorio.
Un análisis reciente de la producción científica nacional publicada en Um panorama das diretrizes relacionadas ao uso de inteligência artificial nos principais periódicos da Área Interdisciplinar da CAPES,4 y realizado por Gomes y Mendes (2025) reveló que solo el 20,5% de las principales revistas del Área Interdisciplinaria de CAPES mencionan el uso de IA en sus directrices para autores. Sampaio, Sabbatini y Limongi (2024)1 demostraron que, a finales de 2024, aún no existían directrices claras por parte de las principales instituciones científicas, como el Ministério da Ciência, Tecnologia e Inovação (MCTI), el Ministério da Educação (MEC), la Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), el Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e incluso agencias estatales de financiación, como la Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) y Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro (Faperj).
El mismo escenario se repite en las propias universidades públicas, donde un estudio exploratorio divulgado por The Conversation Brasil5 encontró solo siete instituciones con normas o directrices sobre el uso de IA, de un universo de más de 150 instituciones encuestadas.
La falta de un debate estructurado y de directrices claras implica que el uso de la IA sigue asociado a estigmas de “estupidez”, “pereza” o “trampa” en el discurso académico informal. Esta percepción negativa crea un ambiente de miedo, en el que estudiantes e investigadores temen el juicio de sus pares, editores y agencias de financiación, lo que inhibe la divulgación y fomenta una cultura de secretismo. El resultado es un círculo vicioso en el que el estigma impide la divulgación, y la falta de declaraciones públicas por parte de investigadores respetados refuerza el estigma. En consecuencia, la IA se utiliza a menudo de forma clandestina, sin el escrutinio necesario para garantizar su uso ético y responsable.
Más allá de las barreras culturales, la implementación de la transparencia se enfrenta a importantes desafíos prácticos. Uno de ellos es la propia definición de “uso sustancial” de la tecnología, que sigue siendo objeto de amplio debate. Aún persisten muchas preguntas sobre qué es exactamente lo que debe divulgarse. En este punto, retomamos las sugerencias de Resnik y Hosseini en Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary?6 (2025, p. 6), quienes proponen tres criterios relevantes para identificar usos sustanciales de herramientas de IA en la investigación y dan algunos ejemplos prácticos (ver ejemplos al final del texto):
(a) La herramienta de IA toma decisiones que afectan directamente los resultados de la investigación. Por ejemplo, usar IA para extraer datos de artículos para realizar una revisión sistemática sería sustancial e intencional, ya que las decisiones de extracción de datos afectan los resultados de la revisión.
(b) La herramienta de IA genera o sintetiza contenido, datos o imágenes. Por ejemplo, usar IA para redactar secciones de un artículo, integrar notas u otra información, traducir el lenguaje del artículo o crear imágenes o datos sintéticos sería sustancial e intencional, ya que la IA genera o sintetiza nuevo contenido que afecta directamente los resultados de la investigación.
(c) La herramienta de IA analiza contenido, datos o imágenes. Por ejemplo, usar IA para analizar datos genómicos, texto o imágenes radiológicas sería sustancial e intencional, ya que produce análisis que respaldan los hallazgos y conclusiones y afectan el contenido de una publicación.6
Sin embargo, superar esta paradoja requiere una acción coordinada y un cambio cultural. La solución no es abandonar la transparencia, sino crear un entorno donde declarar el uso ético de la IA se considere una muestra de profesionalismo y responsabilidad, no un acto de valentía.
Es necesario promover un debate abierto que disocie el uso de la IA del fraude y la posicione como una herramienta legítima para apoyar la investigación, con universidades y programas de posgrado que incluyan capacitación sobre su uso ético y eficaz en sus planes de estudio. Armonizar las políticas editoriales también es un paso fundamental, así como desarrollar criterios más claros y objetivos para la declaración.
Finalmente, el cambio cultural depende de la acción de líderes académicos, como investigadores sénior, investigadores de productividad, editores y directores de agencias de financiación, quienes, al declarar abiertamente su uso responsable de la IA, pueden ayudar a normalizar la práctica y a desmantelar el estigma. En este sentido, Schilke y Reimann2 (2025) sugieren que la academia debería reconocer explícitamente el costo de la transparencia y trabajar activamente para reducirlo, principalmente a través de la educación pública sobre los beneficios del uso responsable de la IA, normalizándola como una herramienta de ayuda.
Como afirman Meinel, et al. En La información “más” transparente sobre la investigación: una cultura en evolución7 (2025), la transparencia es un pilar de la credibilidad científica. Sin ella, el mundo académico corre el riesgo de replicar sesgos, ocultar fallas y, en última instancia, perder la confianza pública. A medida que las instituciones desarrollan políticas más claras y armonizadas, cada investigador debe reflexionar sobre su propio uso de la IA y cómo comunicarlo responsablemente, como parte de un compromiso genuino con la integridad académica (Tang, et al., 2023). La transparencia, cuando se apoya en la comprensión y la educación, puede convertirse, en última instancia, no en un costo que se debe evitar, sino en un valor que se debe cultivar.
Es importante comprender que la lucha por la transparencia en el uso de la IA no es un fenómeno aislado, sino el último capítulo de un esfuerzo continuo por mejorar la integridad de la información científica. La reticencia a revelar el uso de la IA puede interpretarse como la creación de una “narrativa oculta” que excluye a un contribuyente no humano clave, motivada por el mismo temor de que revelar un proceso menos lineal y puramente humano podría disminuir la solidez de la investigación. Por lo tanto, el debate actual sobre la IA se inscribe en esta larga tradición de mejorar las prácticas de divulgación para que la ciencia sea más abierta, replicable y fiable (Meinel, et al., 2025).
A continuación, se presenta un modelo sencillo, presentado por Resnik y Hosseini6 (2025, p. 7), sobre las principales situaciones para declarar o no el uso de la IA:
| La declaración es obligatoria cuando, por ejemplo, se utiliza IA |
| ● Para formular preguntas o hipótesis, diseñar y realizar experimentos. |
| ● Para redactar partes del artículo, resumir, parafrasear, revisar significativamente o sintetizar el contenido textual. |
| ● Para traducir partes o la totalidad del artículo. |
| ● Para recopilar, analizar, interpretar o visualizar datos (cuantitativos o cualitativos). |
| ● Para extraer datos para una revisión bibliográfica (sistemática o de otro tipo) e identificar lagunas de conocimiento. |
| ● Para generar datos sintéticos e imágenes que se incluyen en el artículo o se utilizan en la investigación. |
| La declaración es opcional cuando, por ejemplo, se utiliza IA |
| ● Para editar texto existente en cuanto a gramática, ortografía u organización. |
| ● Para encontrar referencias o comprobar la relevancia de las referencias encontradas por personas. |
| ● Para localizar y generar ejemplos de contenido existente. |
| ● Para generar ideas y sugerir maneras de organizar un artículo o el título de un artículo/sección. |
| ● Para validar o proporcionar retroalimentación sobre ideas, texto y código existentes. |
| La divulgación es innecesaria cuando, por ejemplo, se utiliza IA |
| ● Para sugerir palabras o frases que mejoren la claridad/legibilidad de una oración existente. |
| ● Como parte de una operación más amplia en la que la IA no genera ni sintetiza contenido ni toma decisiones de búsqueda; por ejemplo, cuando la IA está integrada con otros sistemas/máquinas. |
| ● Como asistente digital, por ejemplo, para ayudar a organizar y mantener los recursos digitales y los flujos de trabajo de un proyecto. |
Tabla 1. Declaración sobre el uso de IA en la investigación y la redacción.
Declaración sobre IA y tecnologías asistidas por IA en el proceso de escritura
“Durante la preparación de este texto, el autor utilizó Gemini 2.5 Pro de Google y GLM 4.5 de Z.ai en septiembre de 2025 para la lluvia de ideas, la evaluación del texto y las mejoras gramaticales y semánticas. Tras utilizar estas herramientas, el autor revisó y editó el contenido de acuerdo con el método científico y asume la plena responsabilidad del contenido de la publicación.”
Notas
1. SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203 ↩
2. SCHILKE, O. and REIMANN, M. The transparency dilemma: How AI disclosure erodes trust. Organizational Behavior and Human Decision Processes [online]. 2025, vol. 188, 104405 [viewed 10 October 2025]. https://doi.org/10.1016/j.obhdp.2025.104405. Available from: https://www.sciencedirect.com/science/article/pii/S0749597825000172?via%3Dihub ↩
3. LOPES, C., et al. Artificial Intelligence and Writing Assisted by Algorithms: What Do Scientific Associations and Their Journals Signal? Cadernos De Educação Tecnologia e Sociedade [online]. 2024, vol. 17, no. 2, pp. 623–648 [viewed 10 October 2025]. https://doi.org/10.14571/brajets.v17.n2.623-648. Available from: https://brajets.com/brajets/article/view/1227 ↩
4. GOMES, R.A. and MENDES, T.A. Um panorama das diretrizes relacionadas ao uso de inteligência artificial nos principais periódicos da Área Interdisciplinar da CAPES. Encontros Bibli [online]. 2025, vol. 30, e103488 [viewed 10 October 2025]. https://doi.org/10.5007/1518-2924.2025.e103488. Available from: https://www.scielo.br/j/eb/a/SJk53dtyBBfVq583TJhtGTz ↩
5. SAMPAIO, R.C. Pesquisa feita nas principais universidades mostra que uso da IA segue desregulado no ensino superior brasileiro [online]. The Conversation. 2025 [viewed 10 October 2025]. Available from: https://theconversation.com/pesquisa-feita-nas-principais-universidades-mostra-que-uso-da-ia-segue-desregulado-no-ensino-superior-brasileiro-262838 ↩
6. RESNIK, D.B. and HOSSEINI, M. Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary? Accountability in Research [online]. 2025, pp. 1–13, 1545-5815 [viewed 10 October 2025]. https://doi.org/10.1080/08989621.2025.2481949. Available from: https://www.tandfonline.com/doi/full/10.1080/08989621.2025.2481949 ↩
7. MEINEL, R.D., et al. La información “más” transparente sobre la investigación: una cultura en evolución [online]. SciELO en Perspectiva, 2025 [viewed 09 October 2025]. Available from: https://blog.scielo.org/es/2025/09/04/la-informacion-mas-transparente-sobre-la-investigacion-una-cultura-en-evolucion/ ↩
Referencias
CHO, W.I., CHO, E. and SHIN, H. Three Disclaimers for Safe Disclosure: A Cardwriter for Reporting the Use of Generative AI in Writing Process. arXiv [online]. 2024 [viewed 10 October 2025]. https://doi.org/10.48550/arXiv.2404.09041. Available from: https://arxiv.org/abs/2404.09041
GOMES, R.A. and MENDES, T.A. Um panorama das diretrizes relacionadas ao uso de inteligência artificial nos principais periódicos da Área Interdisciplinar da CAPES. Encontros Bibli [online]. 2025, vol. 30, e103488 [viewed 10 October 2025]. https://doi.org/10.5007/1518-2924.2025.e103488. Available from: https://www.scielo.br/j/eb/a/SJk53dtyBBfVq583TJhtGTz
HOSSEINI, M., RESNIK, D. B. and HOLMES, K. The ethics of disclosing the use of artificial intelligence tools in writing scholarly manuscripts. Research Ethics [online]. 2023, vol. 19, no. 4, pp. 449–465 [viewed 10 October 2025]. https://doi.org/10.1177/17470161231180449. Available from: https://sigmapubs.onlinelibrary.wiley.com/doi/10.1111/jnu.12938
LOPES, C., et al. Artificial Intelligence and Writing Assisted by Algorithms: What Do Scientific Associations and Their Journals Signal? Cadernos De Educação Tecnologia e Sociedade [online]. 2024, vol. 17, no. 2, pp. 623–648 [viewed 10 October 2025]. https://doi.org/10.14571/brajets.v17.n2.623-648. Available from: https://brajets.com/brajets/article/view/1227
MEINEL, R.D., et al. La información “más” transparente sobre la investigación: una cultura en evolución [online]. SciELO en Perspectiva, 2025 [viewed 09 October 2025]. Available from: https://blog.scielo.org/es/2025/09/04/la-informacion-mas-transparente-sobre-la-investigacion-una-cultura-en-evolucion/
RESNIK, D.B. and HOSSEINI, M. Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary? Accountability in Research [online]. 2025, pp. 1–13, 1545-5815 [viewed 10 October 2025]. https://doi.org/10.1080/08989621.2025.2481949. Available from: https://www.tandfonline.com/doi/full/10.1080/08989621.2025.2481949
SAMPAIO, R.C. Pesquisa feita nas principais universidades mostra que uso da IA segue desregulado no ensino superior brasileiro [online]. The Conversation. 2025 [viewed 10 October 2025]. Available from: https://theconversation.com/pesquisa-feita-nas-principais-universidades-mostra-que-uso-da-ia-segue-desregulado-no-ensino-superior-brasileiro-262838
SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203
SCHILKE, O. and REIMANN, M. The transparency dilemma: How AI disclosure erodes trust. Organizational Behavior and Human Decision Processes [online]. 2025, vol. 188, 104405 [viewed 10 October 2025]. https://doi.org/10.1016/j.obhdp.2025.104405. Available from: https://www.sciencedirect.com/science/article/pii/S0749597825000172?via%3Dihub
TANG, A. et al. The importance of transparency: Declaring the use of generative artificial intelligence (AI) in academic writing. Journal of Nursing Scholarship [online]. 2024, vol. 56, no. 2, pp. 314–318 [viewed 10 October 2025]. https://doi.org/10.1111/jnu.12938. Available from: https://sigmapubs.onlinelibrary.wiley.com/doi/10.1111/jnu.12938
Sobre Rafael Cardoso Sampaio
Rafael Cardoso Sampaio es profesor titular del Programa de Posgrado en Ciencias Políticas de la Universidad Federal de Paraná. Cuenta con una beca de productividad del CNPq. Es uno de los autores, junto con Marcelo Sabbatini y Ricardo Limongi, del libro “Diretrizes para o uso ético e responsável da inteligência artificial generativa: um guia prático para pesquisadores“, publicado por la editora Intercom y es autor, junto con Dalson Figueiredo, de la guía introductoria “Prompts (¡Infalibles!) para la investigación académica con inteligencia artificial“, publicada por Edufpi.
Traducido del original en portugués por Ernesto Spinak.
Como citar este post [ISO 690/2010]:













Comentarios recientes