Por Ricardo Limongi França Coelho

Imagen: Bhushan Sadani vía Unsplash.
En el Libro II de La República, Platón presenta la alegoría del Anillo de Giges: un pastor que, al encontrar un anillo mágico capaz de hacerlo invisible, utiliza este poder para seducir a la reina, asesinar al rey y apoderarse del trono. La historia no es solo un relato de corrupción moral; es una profunda provocación filosófica. Si alguien pudiera actuar con la absoluta garantía de que sus acciones nunca serían descubiertas, ¿seguiría siendo justo? ¿O acaso la moral humana depende fundamentalmente del miedo a las consecuencias y de la mirada ajena?
Esta pregunta, formulada hace más de dos milenios, resurge en el contexto de la producción científica contemporánea. La inteligencia artificial generativa (IAG) ofrece a los investigadores una especie de anillo de invisibilidad: herramientas capaces de producir textos científicos, análisis e incluso imágenes de forma prácticamente indetectable. Ante esta realidad, la comunidad científica se enfrenta a la misma pregunta que Sócrates tuvo que responder a Glaucón: si la detección es defectuosa y las consecuencias inciertas, ¿qué sustenta la integridad científica?
La ilusión de la detección
La primera respuesta intuitiva al problema sería desarrollar mecanismos de vigilancia cada vez más sofisticados: detectores capaces de identificar textos generados por IA (Inteligência Artificial) y, por lo tanto, sancionar a los infractores. Sin embargo, este enfoque presenta graves limitaciones empíricas.
El estudio de Liang et al. (2023), GPT detectors are biased against non-native English writers1,publicado en la revista Patterns, demostró que los detectores de IA presentan un sesgo sistemático contra los escritores no nativos de inglés: el 97,8% de los ensayos del TOEFL (Test of English as a Foreign Language) se marcaron incorrectamente como generados por IA, con una tasa promedio de falsos positivos del 61,3%. La revisión sistemática de Weber-Wulff et al. (2023) ), Testing of detection tools for AI-generated text 2, evaluó 12 herramientas de detección y concluyó que las opciones disponibles “no son precisas ni fiables”, ya que la mitad de los textos generados por IA lograron evadir la detección tras la edición manual. OpenAI suspendió su clasificador en julio de 2023 debido a su baja precisión, y la Universidad de Vanderbilt desactivó la detección por IA de Turnitin, alegando preocupación por los falsos positivos. Estos datos revelan una asimetría fundamental: si bien la capacidad de generar texto mediante IA avanza exponencialmente, la capacidad de detectarlo sigue siendo estructuralmente limitada. El Anillo de Giges, en la práctica, funciona.
El escenario brasileño: un vacío institucional
Si las herramientas de detección son insuficientes, las instituciones tendrían que establecer directrices claras para orientar a los investigadores sobre el uso aceptable de la IA. A nivel internacional, existe convergencia. El COPE (Committee on Publication Ethics) estableció en 2024 que las herramientas de IA “no pueden cumplir con los requisitos de autoría, ya que no pueden asumir la responsabilidad del trabajo presentado”3. Nature prohíbe a los LLM como autores desde enero de 20234 y exige documentación en la sección de métodos. Science clasifica las infracciones como “mala conducta científica, no distinta de la alteración de imágenes o el plagio”.
En Brasil, sin embargo, persiste una brecha preocupante. Hasta la fecha, la CAPES y el CNPq no han publicado políticas formales sobre el uso de la IA en la producción científica. En abril de 2025, CAPES publicó un documento titulado “Inteligencia Artificial en Investigación y Financiamiento”, pero lo clasificó explícitamente como un “Documento de Discusión”, no como una política institucional vinculante.
SciELO se destaca como una virtuosa excepción en el contexto nacional, al haber publicado en septiembre de 2023 la “Guía para el uso de herramientas y recursos de Inteligencia Artificial en la comunicación de la investigación en la Red SciELO“5, que establece principios claros: declaración obligatoria de uso, verificación de contenido para detectar plagio, prohibición de la IA como autor y prohibición del uso de IA en la elaboración de informes de revisión.
Para subsanar parcialmente esta deficiencia, investigadores brasileños lanzaron en 2024 las “Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa”6, publicadas por Editora Intercom. El documento, escrito por Sampaio (UFPR), Sabbatini (UFPE) y Limongi (UFG), critica la dependencia de las políticas de empresas internacionales y propone la centralidad de la agencia humana en los procesos de investigación.
La paradoja de la transparencia
Incluso donde existen directrices, su eficacia se enfrenta a obstáculos. La llamada “paradoja de la transparencia“7, documentada por Sampaio (2025) en el blog SciELO en Perspectiva, revela una tensión: si bien declarar que el uso de la IA es éticamente correcto, hacerlo puede minar la confianza depositada en el investigador. Los estudios indican que solo el 5,7% de los autores revela voluntariamente el uso de la IA, una tasa significativamente inferior a la observada en investigaciones anónimas sobre prácticas del mundo real. El requisito de transparencia, paradójicamente, desincentiva la transparencia misma.
Esta paradoja pone de relieve que el problema no puede resolverse únicamente mediante normas externas. Cuando la detección falla, las directrices son inconsistentes y se desalienta la transparencia, ¿qué queda?
De la vigilancia a la educación: una respuesta socrática
La respuesta de Sócrates a la provocación de Glaucón fue argumentar que la justicia tiene un valor intrínseco: que ser justo vale la pena en sí mismo, independientemente de las recompensas o los castigos externos. Una persona verdaderamente justa seguiría actuando correctamente incluso con el Anillo de Giges, porque la integridad es fundamental para una vida plena.
Trasladada al contexto científico, esta perspectiva sugiere que la integridad en la investigación no puede depender principalmente de mecanismos de vigilancia y castigo. Debe cultivarse como un valor en sí mismo, parte constitutiva de lo que significa ser investigador.
La literatura reciente apunta en esta dirección. Das Deep et al. (2025), en Evaluating the Effectiveness and Ethical Implications of AI Detection Tools in Higher Education 8, una síntesis cualitativa publicada en la revista Information, documenta que la excesiva dependencia de la detección crea «una cultura de vigilancia que prioriza la vigilancia policial sobre la enseñanza». El marco de Alfabetización en IA de EDUCAUSE (2024) propone competencias organizadas en cuatro áreas: Comprensión Técnica, Habilidades de Evaluación, Aplicación Práctica y Consideraciones Éticas. El argumento central es que una respuesta sostenible implica la capacitación y el rediseño de las prácticas de evaluación, no la intensificación de la vigilancia tecnológica.
Las directrices brasileñas independientes de Sampaio, Sabbatini y Limongi (2024) se hacen eco de esta perspectiva al proponer competencias esenciales para los investigadores: comprender las herramientas de IA y sus limitaciones, mantener la autoría humana como elemento central, transparencia en las declaraciones de uso, evaluación crítica de los resultados, reconocimiento de sesgos y errores, y preservación de la agencia humana en el análisis.
Consideraciones finales
La alegoría del Anillo de Giges nos recuerda que la cuestión fundamental no es tecnológica, sino ética. Se seguirán desarrollando y eludiendo herramientas de detección. Se seguirán publicando directrices que serán inconsistentes entre instituciones. La pregunta que queda es: ¿qué tipo de investigador queremos formar?
La respuesta implica tres caminos complementarios. Primero, la transparencia como un valor, no como una obligación burocrática, lo que requiere afrontar la paradoja de la transparencia con políticas que no penalicen la honestidad. Segundo, una sólida formación ética que cultive la integridad como parte constitutiva de la identidad del investigador, no como una respuesta al miedo a ser descubierto. En tercer lugar, una revisión de las métricas de evaluación que priorizan la cantidad sobre la calidad y el impacto, creando incentivos perversos para el uso irresponsable de la IA.
Platón argumentó que Giges, al usar el anillo con fines corruptos, no se volvió más libre; se convirtió en esclavo de sus apetitos, alienado de su propia humanidad. Análogamente, el investigador que usa la IA para simular la producción científica no optimiza su carrera; vacía el sentido mismo de su actividad.
La invisibilidad que confiere la IA generativa es, en última instancia, una oportunidad para cuestionar: ¿hacemos ciencia por miedo a ser descubiertos o porque la búsqueda del conocimiento es constitutiva de quienes somos? La respuesta a esta pregunta determinará no solo las políticas institucionales, sino también el futuro de la comunicación científica.
Posts de la serie
- ¿Quién es la partera y quién es la parturienta? La perspectiva socrática para repensar la autoría y la responsabilidad epistémica en el uso de la IA en la producción científica
- Acuerdos transformativos en Brasil: ¿avance necesario o aumento de la dependencia?
- El Anillo de Giges y la IA en la ciencia: Cuando la invisibilidad desafía la integridad
Notas
1. LIANG, W., et al. GPT detectors are biased against non-native English writers. Patterns [online]. 2023, vol. 4, no. 7, art. 100779, ISSN: 2666-3899 [viewed 05 February 2026]. https://doi.org/10.1016/j.patter.2023.100779. Available from: https://www.cell.com/patterns/fulltext/S2666-3899(23)00130-7?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS2666389923001307%3Fshowall%3Dtrue↩
2.WEBER-WULFF, D., et al. Testing of detection tools for AI-generated text. International Journal for Educational Integrity [online]. 2023, vol. 19, art. 26, ISSN: 1833-2595. https://doi.org/10.1007/s40979-023-00146-z. Available from: https://link.springer.com/article/10.1007/s40979-023-00146-z↩
3.Authorship and AI tools [online]. Committee on Publication Ethics (COPE). 2024 [viewed 05 February 2026]. Available from: https://doi.org/10.24318/cCVRZBms↩
4. Artificial Intelligence (AI) – Editorial Policies [online]. Nature Portfolio. 2023 [viewed 05 February 2026]. Available from: https://www.nature.com/nature-portfolio/editorial-policies/ai↩
5.Guía de uso de herramientas y recursos de Inteligencia Artificial en la comunicación de investigaciones en la Red SciELO [online]. SciELO – Scientific Electronic Library Online, 2023 [viewed 05 February 2026]. Available from: https://www.scielo.org/es/sobre-el-scielo/metodologias-y-tecnologias/guia-de-uso-de-herramientas-y-recursos-de-inteligencia-artificial-en-la-comunicacion-de-investigaciones-en-la-red-scielo/↩
6. SAMPAIO, R.C., SABBATINI, M. e LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Disponível em: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203↩
7. SAMPAIO, R. La paradoja de la transparencia en el uso de la IA generativa en la investigación académica [online]. SciELO em Perspectiva, 2026 [viewed 05 February 2025]. Available from: https://blog.scielo.org/blog/2025/10/10/o-paradoxo-da-transparencia-no-uso-de-ia-generativa-na-pesquisa-academica/↩
8. DAS DEEP, S., et al. Evaluating the Effectiveness and Ethical Implications of AI Detection Tools in Higher Education. Information [online]. 2025, vol. 16, no. 10, art. 905, ISSN: 2078-2489 [viewed 05 February 2026]. https://doi.org/10.3390/info16100905. Available from: https://www.mdpi.com/2078-2489/16/10/905↩
Referencias
Artificial Intelligence (AI) – Editorial Policies [online]. Nature Portfolio. 2023 [viewed 05 February 2026]. Available from: https://www.nature.com/nature-portfolio/editorial-policies/ai
Authorship and AI tools [online]. Committee on Publication Ethics (COPE). 2024 [viewed 05 February 2026] https://doi.org/10.24318/cCVRZBms . Available from: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools
DAS DEEP, S., et al. Evaluating the Effectiveness and Ethical Implications of AI Detection Tools in Higher Education. Information [online]. 2025, vol. 16, no. 10, art. 905, ISSN: 2078-2489 [viewed 05 February 2026]. https://doi.org/10.3390/info16100905. Available from: https://www.mdpi.com/2078-2489/16/10/905
Guía de uso de herramientas y recursos de Inteligencia Artificial en la comunicación de investigaciones en la Red SciELO [online]. SciELO – Scientific Electronic Library Online, 2023 [viewed 05 February 2026]. Available from: https://www.scielo.org/es/sobre-el-scielo/metodologias-y-tecnologias/guia-de-uso-de-herramientas-y-recursos-de-inteligencia-artificial-en-la-comunicacion-de-investigaciones-en-la-red-scielo
LIANG, W., et al. GPT detectors are biased against non-native English writers. Patterns [online]. 2023, vol. 4, no. 7, art. 100779, ISSN: 2666-3899 [viewed 05 February 2026]. https://doi.org/10.1016/j.patter.2023.100779. Available from: https://www.cell.com/patterns/fulltext/S2666-3899(23)00130-7?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS2666389923001307%3Fshowall%3Dtrue
SAMPAIO, R.C., SABBATINI, M. e LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Disponível em: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203
SAMPAIO, R.; SABBATINI, M.; LIMONGI, R. Pesquisadores lançam diretrizes IAG [online]. SciELO em Perspectiva, 2025 [viewed 05 February 2026]. Available from: https://blog.scielo.org/blog/2025/02/05/pesquisadores-lancam-diretrizes-iag/
SAMPAIO, R. La paradoja de la transparencia en el uso de la IA generativa en la investigación académica [online]. SciELO em Perspectiva, 2026 [viewed 05 February 2025]. Available from: https://blog.scielo.org/blog/2025/10/10/o-paradoxo-da-transparencia-no-uso-de-ia-generativa-na-pesquisa-academica/
THORP, H. H. ChatGPT is fun, but not an author. Science [online]. 2023, vol. 379, no. 6630, pp. 313-313, ISSN: 0036-8075 [viewed 05 February 2026]. https://doi.org/10.1126/science.adg7879. Available from: https://www.science.org/doi/10.1126/science.adg7879
WEBER-WULFF, D.; ANOHINA-NAUMECA, A.; BJELObaba, S.; FOLTÝNEK, T.; GUERRERO-DIB, J.; POPOOLA, O.; ŠIGUT, P.; WADDINGTON, L. Testing of detection tools for AI-generated text. International Journal for Educational Integrity [online]. 2023, vol. 19, no. 26, pp. 1-39, ISSN: 1833-2595 [viewed 05 February 2026]. https://doi.org/10.1007/s40979-023-00146-z. Available from: https://link.springer.com/article/10.1007/s40979-023-00146-z
Sobre Ricardo Limongi França Coelho
Profesor de Marketing e Inteligencia Artificial, Universidad Federal de Goiás (UFG), Goiânia–GO, y editor jefe de la revista Brazilian Administration Review (BAR) de la ANPAD, becario DT-CNPq.
Traducido del original en portugués por Ernesto Spinak.
Como citar este post [ISO 690/2010]:















Comentarios recientes