{"id":5815,"date":"2025-10-10T10:00:40","date_gmt":"2025-10-10T13:00:40","guid":{"rendered":"https:\/\/blog.scielo.org\/es\/?p=5815"},"modified":"2025-10-09T16:27:17","modified_gmt":"2025-10-09T19:27:17","slug":"la-paradoja-de-la-transparencia-en-el-uso-de-la-ia-generativa-en-la-investigacion-academica","status":"publish","type":"post","link":"https:\/\/blog.scielo.org\/es\/2025\/10\/10\/la-paradoja-de-la-transparencia-en-el-uso-de-la-ia-generativa-en-la-investigacion-academica\/","title":{"rendered":"La paradoja de la transparencia en el uso de la IA generativa en la investigaci\u00f3n acad\u00e9mica"},"content":{"rendered":"<p><strong>Por Rafael Cardoso Sampaio<\/strong><\/p>\n<div id=\"attachment_5816\" style=\"width: 224px\" class=\"wp-caption alignright\"><a href=\"http:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2025\/10\/declan-sun-Lg3M3QErpyY-unsplash.jpg\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-5816\" class=\"wp-image-5816 size-medium\" title=\"Fotograf\u00eda de un paisaje visto a trav\u00e9s de un cristal estriado.\" src=\"http:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2025\/10\/declan-sun-Lg3M3QErpyY-unsplash-214x300.jpg\" alt=\"Fotograf\u00eda de un paisaje visto a trav\u00e9s de un cristal estriado.\" width=\"214\" height=\"300\" srcset=\"https:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2025\/10\/declan-sun-Lg3M3QErpyY-unsplash-214x300.jpg 214w, https:\/\/blog.scielo.org\/es\/wp-content\/uploads\/sites\/3\/2025\/10\/declan-sun-Lg3M3QErpyY-unsplash.jpg 712w\" sizes=\"auto, (max-width: 214px) 100vw, 214px\" \/><\/a><p id=\"caption-attachment-5816\" class=\"wp-caption-text\"><em>Imagen: <a href=\"https:\/\/unsplash.com\/pt-br\/fotografias\/uma-imagem-abstrata-de-uma-superficie-de-metal-com-linhas-Lg3M3QErpyY\">Declan Sun via Unsplash<\/a>.<\/em><\/p><\/div>\n<p>La consolidaci\u00f3n de la inteligencia artificial (IA) generativa, con herramientas como <em>ChatGPT<\/em>, <em>Gemini<\/em>, <em>Claude<\/em>, <em>DeepSeek<\/em> y similares, est\u00e1 transformando significativamente la producci\u00f3n de conocimiento acad\u00e9mico. Las herramientas que facilitan la escritura, el an\u00e1lisis de datos y la generaci\u00f3n de ideas se han vuelto omnipresentes, prometiendo aumentar la eficiencia y democratizar el acceso a la producci\u00f3n cient\u00edfica. Sin embargo, esta revoluci\u00f3n tecnol\u00f3gica plantea un dilema \u00e9tico central para los investigadores, enfrent\u00e1ndolos a la disyuntiva de seguir la recomendaci\u00f3n consensuada de declarar el uso de IA y arriesgar su credibilidad, u omitirla y comprometer la integridad cient\u00edfica. Esta paradoja, en la que la transparencia choca con los costos sociales, revela tensiones entre la \u00e9tica, la percepci\u00f3n y la innovaci\u00f3n en el \u00e1mbito acad\u00e9mico.<\/p>\n<p>A nivel internacional, existe pr\u00e1cticamente un consenso sobre la necesidad de transparencia. Entidades como el Comit\u00e9 Internacional de Editores de Revistas M\u00e9dicas (<em>International Committee of Medical Journal. Editors<\/em>, ICMJE) y el Comit\u00e9 de \u00c9tica de Publicaciones (<em>Committee on Publication Ethics<\/em>, COPE), y editoriales como Cambridge, Elsevier, Oxford y Taylor &amp; Francis, exigen a los autores que declaren expl\u00edcitamente el uso de IA generativa. Sampaio, Sabbatini, Limongi (2024, p. 20) en las <a href=\"https:\/\/www.portcom.intercom.org.br\/ebooks\/detalheEbook.php?id=57203\" target=\"_blank\" rel=\"noopener\"><em>Diretrizes para uso \u00e9tico e respons\u00e1vel da Intelig\u00eancia Artificial Generativa<\/em><\/a><a id=\"nt1\" href=\"#rf1\"><sup>1<\/sup><\/a> recomiendan que la declaraci\u00f3n se realice al final del trabajo, en el formato \u201cDeclaraci\u00f3n de IA y tecnolog\u00edas asistidas por IA en el proceso de escritura\u201d, seg\u00fan el modelo siguiente.<\/p>\n<p style=\"padding-left: 40px;\">Durante la preparaci\u00f3n de este trabajo, el\/los autor(es) utilizaron la versi\u00f3n [n\u00famero y\/o fecha] de [nombre de la herramienta, modelo o servicio] para [justificar el motivo]. Tras utilizar esta herramienta\/modelo\/servicio, el\/los autor(es) revisaron y editaron el contenido de acuerdo con el m\u00e9todo cient\u00edfico y asumen plena responsabilidad por el contenido de la publicaci\u00f3n.<a id=\"nt1\" href=\"#rf1\"><sup>1<\/sup><\/a><\/p>\n<p>Las razones de este requisito son claras. Como se\u00f1alan Hosseini, <em>et al<\/em>. (2023), las IA carecen de agencia moral o de la capacidad de responsabilizarse legal y moralmente de sus resultados, lo que deja la responsabilidad enteramente en manos de los autores humanos. Adem\u00e1s, la transparencia es esencial para la reproducibilidad, un pilar de la ciencia, ya que los lectores y revisores deben estar familiarizados con todas las herramientas metodol\u00f3gicas utilizadas para evaluar cr\u00edticamente los resultados (Meinel, <em>et al<\/em>., 2025). Finalmente, la declaraci\u00f3n impide la atribuci\u00f3n de cr\u00e9dito indebido, garantizando que el esfuerzo intelectual humano sea debidamente reconocido (Sampaio, Sabbatini, Limongi, 2024).<\/p>\n<p>A pesar de este s\u00f3lido consenso \u00e9tico, la adhesi\u00f3n a la declaraci\u00f3n es sorprendentemente baja, lo que expone la inc\u00f3moda paradoja de que la transparencia tiene un alto costo. La investigaci\u00f3n <a href=\"https:\/\/doi.org\/10.1016\/j.obhdp.2025.104405\" target=\"_blank\" rel=\"noopener\"><em>The transparency dilemma: How AI disclosure erodes trust<\/em><\/a><a id=\"nt2\" href=\"#rf2\"><sup>2<\/sup><\/a> de Schilke y Reimann (2025) demostr\u00f3 que las personas que declaran el uso de IA son sistem\u00e1ticamente percibidas como menos confiables. A trav\u00e9s de una s\u00f3lida serie de trece experimentos, los autores descubrieron que publicitar el uso de IA erosiona sistem\u00e1ticamente la confianza, independientemente de la tarea o la audiencia.<\/p>\n<p>Como afirman, \u201c<em>la divulgaci\u00f3n del uso de IA sirve como advertencia a los destinatarios de que el trabajo del divulgador no es puramente generado por humanos, lo que probablemente se considere ileg\u00edtimo y, en consecuencia, disminuya la confianza.<\/em>\u201d<a id=\"nt2\" href=\"#rf2\"><sup>2<\/sup><\/a> (Schilke y Reimann, 2025, p\u00e1g. 2, \u00e9nfasis a\u00f1adido).<\/p>\n<p>El mecanismo detr\u00e1s de este efecto es precisamente la p\u00e9rdida de legitimidad. El mundo acad\u00e9mico, en particular, opera en base a expectativas institucionales sobre lo que constituye un &#8220;trabajo intelectual leg\u00edtimo&#8221;, generalmente asociado con el esfuerzo, la originalidad y el conocimiento humano acumulado. La declaraci\u00f3n del uso de IA rompe esta expectativa, generando dudas sobre la competencia y la capacidad de acci\u00f3n del investigador.<\/p>\n<p>El estudio de Schilke y Reimann (2025)<a id=\"nt2\" href=\"#rf2\"><sup>2<\/sup><\/a> encontr\u00f3 que este efecto negativo persiste incluso cuando la declaraci\u00f3n se mitiga con frases como &#8220;revisado por un humano&#8221; o &#8220;usado solo para correcci\u00f3n gramatical&#8221;. La mera menci\u00f3n de la IA es suficiente para desencadenar el sesgo negativo. Esto crea la esencia de la paradoja, en la que los investigadores que act\u00faan con integridad son penalizados, mientras que quienes omiten informaci\u00f3n son recompensados \u200b\u200bcon una percepci\u00f3n de mayor credibilidad en comparaci\u00f3n.<\/p>\n<p>En Brasil, el debate sobre el uso y la transparencia en el uso de la inteligencia artificial generativa en el \u00e1mbito cient\u00edfico es comprobadamente incipiente. El estudio <a href=\"https:\/\/doi.org\/10.14571\/brajets.v17.n2.623-648\" target=\"_blank\" rel=\"noopener\"><em>Intelig\u00eancia artificial e a escrita auxiliada por algoritmos: o que sinalizam as associa\u00e7\u00f5es cient\u00edficas e seus peri\u00f3dicos?<\/em><\/a><a id=\"nt3\" href=\"#rf3\"><sup>3<\/sup><\/a> realizado por Lopes, <em>et al<\/em>. (2024) analizaron 33 asociaciones cient\u00edficas de diversos campos y 50 de sus revistas, y descubrieron que ninguna ten\u00eda una postura expl\u00edcita sobre el tema y que, a junio de 2023, solo tres de las 50 revistas (6%) contaban con directrices formales sobre el uso de la IA en la escritura cient\u00edfica. Cuando se aborda el tema, las preocupaciones se centran en la autor\u00eda, el plagio y la \u00e9tica, pero la mayor\u00eda de las publicaciones nacionales a\u00fan operan en un vac\u00edo regulatorio.<\/p>\n<p>Un an\u00e1lisis reciente de la producci\u00f3n cient\u00edfica nacional publicada en <a href=\"https:\/\/doi.org\/10.5007\/1518-2924.2025.e103488\" target=\"_blank\" rel=\"noopener\"><em>Um panorama das diretrizes relacionadas ao uso de intelig\u00eancia artificial nos principais peri\u00f3dicos da \u00c1rea Interdisciplinar da CAPES<\/em><\/a>,<a id=\"nt4\" href=\"#rf4\"><sup>4<\/sup><\/a> y realizado por Gomes y Mendes (2025) revel\u00f3 que solo el 20,5% de las principales revistas del \u00c1rea Interdisciplinaria de CAPES mencionan el uso de IA en sus directrices para autores. Sampaio, Sabbatini y Limongi (2024)<a id=\"nt1\" href=\"#rf1\"><sup>1<\/sup><\/a> demostraron que, a finales de 2024, a\u00fan no exist\u00edan directrices claras por parte de las principales instituciones cient\u00edficas, como el <em>Minist\u00e9rio da Ci\u00eancia, Tecnologia e Inova\u00e7\u00e3o<\/em> (MCTI), el <em>Minist\u00e9rio da Educa\u00e7\u00e3o<\/em> (MEC), la <em>Coordena\u00e7\u00e3o de Aperfei\u00e7oamento de Pessoal de N\u00edvel Superior<\/em> (Capes), el <em>Conselho Nacional de Desenvolvimento Cient\u00edfico e Tecnol\u00f3gico<\/em> (CNPq) e incluso agencias estatales de financiaci\u00f3n, como la <em>Funda\u00e7\u00e3o de Amparo \u00e0 Pesquisa do Estado de S\u00e3o Paulo<\/em> (FAPESP) y <em>Funda\u00e7\u00e3o de Amparo \u00e0 Pesquisa do Estado do Rio de Janeiro<\/em> (Faperj).<\/p>\n<p>El mismo escenario se repite en las propias universidades p\u00fablicas, donde un estudio exploratorio divulgado por <em>The Conversation Brasil<\/em><a id=\"nt5\" href=\"#rf5\"><sup>5<\/sup><\/a> encontr\u00f3 solo siete instituciones con normas o directrices sobre el uso de IA, de un universo de m\u00e1s de 150 instituciones encuestadas.<\/p>\n<p>La falta de un debate estructurado y de directrices claras implica que el uso de la IA sigue asociado a estigmas de &#8220;estupidez&#8221;, &#8220;pereza&#8221; o &#8220;trampa&#8221; en el discurso acad\u00e9mico informal. Esta percepci\u00f3n negativa crea un ambiente de miedo, en el que estudiantes e investigadores temen el juicio de sus pares, editores y agencias de financiaci\u00f3n, lo que inhibe la divulgaci\u00f3n y fomenta una cultura de secretismo. El resultado es un c\u00edrculo vicioso en el que el estigma impide la divulgaci\u00f3n, y la falta de declaraciones p\u00fablicas por parte de investigadores respetados refuerza el estigma. En consecuencia, la IA se utiliza a menudo de forma clandestina, sin el escrutinio necesario para garantizar su uso \u00e9tico y responsable.<\/p>\n<p>M\u00e1s all\u00e1 de las barreras culturales, la implementaci\u00f3n de la transparencia se enfrenta a importantes desaf\u00edos pr\u00e1cticos. Uno de ellos es la propia definici\u00f3n de &#8220;uso sustancial&#8221; de la tecnolog\u00eda, que sigue siendo objeto de amplio debate. A\u00fan persisten muchas preguntas sobre qu\u00e9 es exactamente lo que debe divulgarse. En este punto, retomamos las sugerencias de Resnik y Hosseini en <a href=\"https:\/\/doi.org\/10.1080\/08989621.2025.2481949\" target=\"_blank\" rel=\"noopener\"><em>Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary?<\/em><\/a><a id=\"nt6\" href=\"#rf6\"><sup>6<\/sup><\/a> (2025, p. 6), quienes proponen tres criterios relevantes para identificar usos sustanciales de herramientas de IA en la investigaci\u00f3n y dan algunos ejemplos pr\u00e1cticos (ver ejemplos al final del texto):<\/p>\n<p style=\"padding-left: 40px;\">(a) La herramienta de IA toma decisiones que afectan directamente los resultados de la investigaci\u00f3n. Por ejemplo, usar IA para extraer datos de art\u00edculos para realizar una revisi\u00f3n sistem\u00e1tica ser\u00eda sustancial e intencional, ya que las decisiones de extracci\u00f3n de datos afectan los resultados de la revisi\u00f3n.<\/p>\n<p style=\"padding-left: 40px;\">(b) La herramienta de IA genera o sintetiza contenido, datos o im\u00e1genes. Por ejemplo, usar IA para redactar secciones de un art\u00edculo, integrar notas u otra informaci\u00f3n, traducir el lenguaje del art\u00edculo o crear im\u00e1genes o datos sint\u00e9ticos ser\u00eda sustancial e intencional, ya que la IA genera o sintetiza nuevo contenido que afecta directamente los resultados de la investigaci\u00f3n.<\/p>\n<p style=\"padding-left: 40px;\">(c) La herramienta de IA analiza contenido, datos o im\u00e1genes. Por ejemplo, usar IA para analizar datos gen\u00f3micos, texto o im\u00e1genes radiol\u00f3gicas ser\u00eda sustancial e intencional, ya que produce an\u00e1lisis que respaldan los hallazgos y conclusiones y afectan el contenido de una publicaci\u00f3n.<a id=\"nt6\" href=\"#rf6\"><sup>6<\/sup><\/a><\/p>\n<p>Sin embargo, superar esta paradoja requiere una acci\u00f3n coordinada y un cambio cultural. La soluci\u00f3n no es abandonar la transparencia, sino crear un entorno donde declarar el uso \u00e9tico de la IA se considere una muestra de profesionalismo y responsabilidad, no un acto de valent\u00eda.<\/p>\n<p>Es necesario promover un debate abierto que disocie el uso de la IA del fraude y la posicione como una herramienta leg\u00edtima para apoyar la investigaci\u00f3n, con universidades y programas de posgrado que incluyan capacitaci\u00f3n sobre su uso \u00e9tico y eficaz en sus planes de estudio. Armonizar las pol\u00edticas editoriales tambi\u00e9n es un paso fundamental, as\u00ed como desarrollar criterios m\u00e1s claros y objetivos para la declaraci\u00f3n.<\/p>\n<p>Finalmente, el cambio cultural depende de la acci\u00f3n de l\u00edderes acad\u00e9micos, como investigadores s\u00e9nior, investigadores de productividad, editores y directores de agencias de financiaci\u00f3n, quienes, al declarar abiertamente su uso responsable de la IA, pueden ayudar a normalizar la pr\u00e1ctica y a desmantelar el estigma. En este sentido, Schilke y Reimann<a id=\"nt2\" href=\"#rf2\"><sup>2<\/sup><\/a> (2025) sugieren que la academia deber\u00eda reconocer expl\u00edcitamente el costo de la transparencia y trabajar activamente para reducirlo, principalmente a trav\u00e9s de la educaci\u00f3n p\u00fablica sobre los beneficios del uso responsable de la IA, normaliz\u00e1ndola como una herramienta de ayuda.<\/p>\n<p>Como afirman Meinel, <em>et al<\/em>. En <a href=\"https:\/\/blog.scielo.org\/es\/2025\/09\/04\/la-informacion-mas-transparente-sobre-la-investigacion-una-cultura-en-evolucion\/\" target=\"_blank\" rel=\"noopener\">La informaci\u00f3n \u201cm\u00e1s\u201d transparente sobre la investigaci\u00f3n: una cultura en evoluci\u00f3n<\/a><a id=\"nt7\" href=\"#rf7\"><sup>7<\/sup><\/a> (2025), la transparencia es un pilar de la credibilidad cient\u00edfica. Sin ella, el mundo acad\u00e9mico corre el riesgo de replicar sesgos, ocultar fallas y, en \u00faltima instancia, perder la confianza p\u00fablica. A medida que las instituciones desarrollan pol\u00edticas m\u00e1s claras y armonizadas, cada investigador debe reflexionar sobre su propio uso de la IA y c\u00f3mo comunicarlo responsablemente, como parte de un compromiso genuino con la integridad acad\u00e9mica (Tang, <em>et al<\/em>., 2023). La transparencia, cuando se apoya en la comprensi\u00f3n y la educaci\u00f3n, puede convertirse, en \u00faltima instancia, no en un costo que se debe evitar, sino en un valor que se debe cultivar.<\/p>\n<p>Es importante comprender que la lucha por la transparencia en el uso de la IA no es un fen\u00f3meno aislado, sino el \u00faltimo cap\u00edtulo de un esfuerzo continuo por mejorar la integridad de la informaci\u00f3n cient\u00edfica. La reticencia a revelar el uso de la IA puede interpretarse como la creaci\u00f3n de una &#8220;narrativa oculta&#8221; que excluye a un contribuyente no humano clave, motivada por el mismo temor de que revelar un proceso menos lineal y puramente humano podr\u00eda disminuir la solidez de la investigaci\u00f3n. Por lo tanto, el debate actual sobre la IA se inscribe en esta larga tradici\u00f3n de mejorar las pr\u00e1cticas de divulgaci\u00f3n para que la ciencia sea m\u00e1s abierta, replicable y fiable (Meinel, <em>et al<\/em>., 2025).<\/p>\n<p>A continuaci\u00f3n, se presenta un modelo sencillo, presentado por Resnik y Hosseini<a id=\"nt6\" href=\"#rf6\"><sup>6<\/sup><\/a> (2025, p. 7), sobre las principales situaciones para declarar o no el uso de la IA:<\/p>\n<p>&nbsp;<\/p>\n<table border=\"2px\" width=\"100%\" cellpadding=\"5%\">\n<tbody>\n<tr>\n<td><strong>La declaraci\u00f3n es obligatoria cuando, por ejemplo, se utiliza IA<\/strong><\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para formular preguntas o hip\u00f3tesis, dise\u00f1ar y realizar experimentos.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para redactar partes del art\u00edculo, resumir, parafrasear, revisar significativamente o sintetizar el contenido textual.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para traducir partes o la totalidad del art\u00edculo.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para recopilar, analizar, interpretar o visualizar datos (cuantitativos o cualitativos).<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para extraer datos para una revisi\u00f3n bibliogr\u00e1fica (sistem\u00e1tica o de otro tipo) e identificar lagunas de conocimiento.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para generar datos sint\u00e9ticos e im\u00e1genes que se incluyen en el art\u00edculo o se utilizan en la investigaci\u00f3n.<\/td>\n<\/tr>\n<tr>\n<td><strong>La declaraci\u00f3n es opcional cuando, por ejemplo, se utiliza IA<\/strong><\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para editar texto existente en cuanto a gram\u00e1tica, ortograf\u00eda u organizaci\u00f3n.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para encontrar referencias o comprobar la relevancia de las referencias encontradas por personas.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para localizar y generar ejemplos de contenido existente.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para generar ideas y sugerir maneras de organizar un art\u00edculo o el t\u00edtulo de un art\u00edculo\/secci\u00f3n.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para validar o proporcionar retroalimentaci\u00f3n sobre ideas, texto y c\u00f3digo existentes.<\/td>\n<\/tr>\n<tr>\n<td><strong>La divulgaci\u00f3n es innecesaria cuando, por ejemplo, se utiliza IA<\/strong><\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Para sugerir palabras o frases que mejoren la claridad\/legibilidad de una oraci\u00f3n existente.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Como parte de una operaci\u00f3n m\u00e1s amplia en la que la IA no genera ni sintetiza contenido ni toma decisiones de b\u00fasqueda; por ejemplo, cuando la IA est\u00e1 integrada con otros sistemas\/m\u00e1quinas.<\/td>\n<\/tr>\n<tr>\n<td>\u25cf\u00a0 \u00a0 \u00a0 Como asistente digital, por ejemplo, para ayudar a organizar y mantener los recursos digitales y los flujos de trabajo de un proyecto.<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>&nbsp;<\/p>\n<p style=\"text-align: center;\"><strong>Tabla 1. Declaraci\u00f3n sobre el uso de IA en la investigaci\u00f3n y la redacci\u00f3n.<\/strong><\/p>\n<p>&nbsp;<\/p>\n<h3>Declaraci\u00f3n sobre IA y tecnolog\u00edas asistidas por IA en el proceso de escritura<\/h3>\n<p>&#8220;Durante la preparaci\u00f3n de este texto, el autor utiliz\u00f3 Gemini 2.5 Pro de Google y GLM 4.5 de Z.ai en septiembre de 2025 para la lluvia de ideas, la evaluaci\u00f3n del texto y las mejoras gramaticales y sem\u00e1nticas. Tras utilizar estas herramientas, el autor revis\u00f3 y edit\u00f3 el contenido de acuerdo con el m\u00e9todo cient\u00edfico y asume la plena responsabilidad del contenido de la publicaci\u00f3n.&#8221;<\/p>\n<h3>Notas<\/h3>\n<p>1. SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso \u00e9tico e respons\u00e1vel da Intelig\u00eancia Artificial Generativa: um guia pr\u00e1tico para pesquisadores. S\u00e3o Paulo: Editora Intercom, 2024. Available from:\u00a0<a href=\"https:\/\/www.portcom.intercom.org.br\/ebooks\/detalheEbook.php?id=57203\" target=\"_blank\" rel=\"noopener\">https:\/\/www.portcom.intercom.org.br\/ebooks\/detalheEbook.php?id=57203<\/a> <a id=\"rf1\" href=\"#nt1\">\u21a9<\/a><\/p>\n<p>2. SCHILKE, O. and REIMANN, M. The transparency dilemma: How AI disclosure erodes trust. <em>Organizational Behavior and Human Decision Processes<\/em> [online]. 2025, vol. 188, 104405 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.1016\/j.obhdp.2025.104405\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1016\/j.obhdp.2025.104405<\/a>. Available from: <a href=\"https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0749597825000172?via%3Dihub\" target=\"_blank\" rel=\"noopener\">https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0749597825000172?via%3Dihub<\/a> <a id=\"rf2\" href=\"#nt2\">\u21a9<\/a><\/p>\n<p>3. LOPES, C., <em>et al.<\/em> Artificial Intelligence and Writing Assisted by Algorithms: What Do Scientific Associations and Their Journals Signal? <em>Cadernos De Educa\u00e7\u00e3o Tecnologia e Sociedade<\/em> [online]. 2024, vol. 17, no. 2, pp. 623\u2013648 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.14571\/brajets.v17.n2.623-648\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.14571\/brajets.v17.n2.623-648<\/a>. Available from: <a href=\"https:\/\/brajets.com\/brajets\/article\/view\/1227\" target=\"_blank\" rel=\"noopener\">https:\/\/brajets.com\/brajets\/article\/view\/1227<\/a> <a id=\"rf3\" href=\"#nt3\">\u21a9<\/a><\/p>\n<p>4. GOMES, R.A. and MENDES, T.A. Um panorama das diretrizes relacionadas ao uso de intelig\u00eancia artificial nos principais peri\u00f3dicos da \u00c1rea Interdisciplinar da CAPES. <em>Encontros Bibli<\/em> [online]. 2025, vol. 30, e103488 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.5007\/1518-2924.2025.e103488\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.5007\/1518-2924.2025.e103488<\/a>. Available from: <a href=\"https:\/\/www.scielo.br\/j\/eb\/a\/SJk53dtyBBfVq583TJhtGTz\" target=\"_blank\" rel=\"noopener\">https:\/\/www.scielo.br\/j\/eb\/a\/SJk53dtyBBfVq583TJhtGTz<\/a> <a id=\"rf4\" href=\"#nt4\">\u21a9<\/a><\/p>\n<p>5. SAMPAIO, R.C. Pesquisa feita nas principais universidades mostra que uso da IA segue desregulado no ensino superior brasileiro [online]. The Conversation. 2025 [viewed 10 October 2025]. Available from: <a href=\"https:\/\/theconversation.com\/pesquisa-feita-nas-principais-universidades-mostra-que-uso-da-ia-segue-desregulado-no-ensino-superior-brasileiro-262838\" target=\"_blank\" rel=\"noopener\">https:\/\/theconversation.com\/pesquisa-feita-nas-principais-universidades-mostra-que-uso-da-ia-segue-desregulado-no-ensino-superior-brasileiro-262838<\/a> <a id=\"rf5\" href=\"#nt5\">\u21a9<\/a><\/p>\n<p>6. RESNIK, D.B. and HOSSEINI, M. Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary? <em>Accountability in Research<\/em> [online]. 2025, pp. 1\u201313, 1545-5815 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.1080\/08989621.2025.2481949\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1080\/08989621.2025.2481949<\/a>. Available from: <a href=\"https:\/\/www.tandfonline.com\/doi\/full\/10.1080\/08989621.2025.2481949\" target=\"_blank\" rel=\"noopener\">https:\/\/www.tandfonline.com\/doi\/full\/10.1080\/08989621.2025.2481949<\/a> <a id=\"rf6\" href=\"#nt6\">\u21a9<\/a><\/p>\n<p>7. MEINEL, R.D.,\u00a0<em>et al.<\/em>\u00a0La informaci\u00f3n \u201cm\u00e1s\u201d transparente sobre la investigaci\u00f3n: una cultura en evoluci\u00f3n [online].\u00a0<i>SciELO en Perspectiva<\/i>, 2025 [viewed\u00a009 October 2025]. Available from: <a href=\"https:\/\/blog.scielo.org\/es\/2025\/09\/04\/la-informacion-mas-transparente-sobre-la-investigacion-una-cultura-en-evolucion\/\" target=\"_blank\" rel=\"noopener\">https:\/\/blog.scielo.org\/es\/2025\/09\/04\/la-informacion-mas-transparente-sobre-la-investigacion-una-cultura-en-evolucion\/<\/a>\u00a0<a id=\"rf7\" href=\"#nt7\">\u21a9<\/a><\/p>\n<h3>Referencias<\/h3>\n<p>CHO, W.I., CHO, E. and SHIN, H. Three Disclaimers for Safe Disclosure: A Cardwriter for Reporting the Use of Generative AI in Writing Process. <em>arXiv<\/em> [online]. 2024 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.48550\/arXiv.2404.09041\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.48550\/arXiv.2404.09041<\/a>. Available from: <a href=\"https:\/\/arxiv.org\/abs\/2404.09041\" target=\"_blank\" rel=\"noopener\">https:\/\/arxiv.org\/abs\/2404.09041<\/a><\/p>\n<p>GOMES, R.A. and MENDES, T.A. Um panorama das diretrizes relacionadas ao uso de intelig\u00eancia artificial nos principais peri\u00f3dicos da \u00c1rea Interdisciplinar da CAPES. <em>Encontros Bibli<\/em> [online]. 2025, vol. 30, e103488 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.5007\/1518-2924.2025.e103488\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.5007\/1518-2924.2025.e103488<\/a>. Available from: <a href=\"https:\/\/www.scielo.br\/j\/eb\/a\/SJk53dtyBBfVq583TJhtGTz\" target=\"_blank\" rel=\"noopener\">https:\/\/www.scielo.br\/j\/eb\/a\/SJk53dtyBBfVq583TJhtGTz<\/a><\/p>\n<p>HOSSEINI, M., RESNIK, D. B. and HOLMES, K. The ethics of disclosing the use of artificial intelligence tools in writing scholarly manuscripts. <em>Research Ethics<\/em> [online]. 2023, vol. 19, no. 4, pp. 449\u2013465 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.1177\/17470161231180449\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1177\/17470161231180449<\/a>. Available from: <a href=\"https:\/\/sigmapubs.onlinelibrary.wiley.com\/doi\/10.1111\/jnu.12938\" target=\"_blank\" rel=\"noopener\">https:\/\/sigmapubs.onlinelibrary.wiley.com\/doi\/10.1111\/jnu.12938<\/a><\/p>\n<p>LOPES, C., <em>et al.<\/em> Artificial Intelligence and Writing Assisted by Algorithms: What Do Scientific Associations and Their Journals Signal? <em>Cadernos De Educa\u00e7\u00e3o Tecnologia e Sociedade<\/em> [online]. 2024, vol. 17, no. 2, pp. 623\u2013648 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.14571\/brajets.v17.n2.623-648\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.14571\/brajets.v17.n2.623-648<\/a>. Available from: <a href=\"https:\/\/brajets.com\/brajets\/article\/view\/1227\" target=\"_blank\" rel=\"noopener\">https:\/\/brajets.com\/brajets\/article\/view\/1227<\/a><\/p>\n<p>MEINEL, R.D.,\u00a0<em>et al.<\/em>\u00a0La informaci\u00f3n \u201cm\u00e1s\u201d transparente sobre la investigaci\u00f3n: una cultura en evoluci\u00f3n [online].\u00a0<i>SciELO en Perspectiva<\/i>, 2025 [viewed\u00a009 October 2025]. Available from: https:\/\/blog.scielo.org\/es\/2025\/09\/04\/la-informacion-mas-transparente-sobre-la-investigacion-una-cultura-en-evolucion\/<\/p>\n<p>RESNIK, D.B. and HOSSEINI, M. Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary? <em>Accountability in Research<\/em> [online]. 2025, pp. 1\u201313, 1545-5815 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.1080\/08989621.2025.2481949\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1080\/08989621.2025.2481949<\/a>. Available from: <a href=\"https:\/\/www.tandfonline.com\/doi\/full\/10.1080\/08989621.2025.2481949\" target=\"_blank\" rel=\"noopener\">https:\/\/www.tandfonline.com\/doi\/full\/10.1080\/08989621.2025.2481949<\/a><\/p>\n<p>SAMPAIO, R.C. Pesquisa feita nas principais universidades mostra que uso da IA segue desregulado no ensino superior brasileiro [online]. The Conversation. 2025 [viewed 10 October 2025]. Available from: <a href=\"https:\/\/theconversation.com\/pesquisa-feita-nas-principais-universidades-mostra-que-uso-da-ia-segue-desregulado-no-ensino-superior-brasileiro-262838\" target=\"_blank\" rel=\"noopener\">https:\/\/theconversation.com\/pesquisa-feita-nas-principais-universidades-mostra-que-uso-da-ia-segue-desregulado-no-ensino-superior-brasileiro-262838<\/a><\/p>\n<p>SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso \u00e9tico e respons\u00e1vel da Intelig\u00eancia Artificial Generativa: um guia pr\u00e1tico para pesquisadores. S\u00e3o Paulo: Editora Intercom, 2024. Available from:\u00a0<a href=\"https:\/\/www.portcom.intercom.org.br\/ebooks\/detalheEbook.php?id=57203\" target=\"_blank\" rel=\"noopener\">https:\/\/www.portcom.intercom.org.br\/ebooks\/detalheEbook.php?id=57203<\/a><\/p>\n<p>SCHILKE, O. and REIMANN, M. The transparency dilemma: How AI disclosure erodes trust. <em>Organizational Behavior and Human Decision Processes<\/em> [online]. 2025, vol. 188, 104405 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.1016\/j.obhdp.2025.104405\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1016\/j.obhdp.2025.104405<\/a>. Available from: <a href=\"https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0749597825000172?via%3Dihub\" target=\"_blank\" rel=\"noopener\">https:\/\/www.sciencedirect.com\/science\/article\/pii\/S0749597825000172?via%3Dihub<\/a><\/p>\n<p>TANG, A. <em>et al<\/em>. The importance of transparency: Declaring the use of generative artificial intelligence (AI) in academic writing. <em>Journal of Nursing Scholarship<\/em> [online]. 2024, vol. 56, no. 2, pp. 314\u2013318 [viewed 10 October 2025]. <a href=\"https:\/\/doi.org\/10.1111\/jnu.12938\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1111\/jnu.12938<\/a>. Available from: <a href=\"https:\/\/sigmapubs.onlinelibrary.wiley.com\/doi\/10.1111\/jnu.12938\" target=\"_blank\" rel=\"noopener\">https:\/\/sigmapubs.onlinelibrary.wiley.com\/doi\/10.1111\/jnu.12938<\/a><\/p>\n<p>&nbsp;<\/p>\n<h3>Sobre Rafael Cardoso Sampaio<\/h3>\n<p>Rafael Cardoso Sampaio es profesor titular del Programa de Posgrado en Ciencias Pol\u00edticas de la Universidad Federal de Paran\u00e1. Cuenta con una beca de productividad del CNPq. Es uno de los autores, junto con Marcelo Sabbatini y Ricardo Limongi, del libro &#8220;<em>Diretrizes para o uso \u00e9tico e respons\u00e1vel da intelig\u00eancia artificial generativa: um guia pr\u00e1tico para pesquisadores<\/em>&#8220;, publicado por la <a href=\"https:\/\/www.portcom.intercom.org.br\/ebooks\/detalheEbook.php?id=57203\" target=\"_blank\" rel=\"noopener\">editora Intercom<\/a> y es autor, junto con Dalson Figueiredo, de la gu\u00eda introductoria &#8220;<em>Prompts (\u00a1Infalibles!) para la investigaci\u00f3n acad\u00e9mica con inteligencia artificial<\/em>&#8220;, publicada por <a href=\"https:\/\/www.amazon.com.br\/Infal%C3%ADveis-Pesquisa-Acad%C3%AAmica-Intelig%C3%AAncia-Artificial-ebook\/dp\/B0FJMVS1ZG\/ref=sr_1_1?__mk_pt_BR=%C3%85M%C3%85%C5%BD%C3%95%C3%91&amp;crid=25SG8R41W1FFO&amp;dib=eyJ2IjoiMSJ9.I7y5emTp-0qXxCknv_f_dTKP2hnH1iXGFqJiphU1-D5kCXqHpI95uoEu87a8ysNCeJYYBoK6ir1JH4iZ4FCs-8iVQW7wWxtFMTWIn3OaQ5cbRRw68Vz3L-pVI_Vy1-YqweY70FRN8ARD3KMWF_0iTWBiukPomw8-nFJ4uHcHDx7Gc12k6iCYIawPihCqynw2KypZSKUNy_P7wexMCglIYNpjL_qChpfiz_NiFm8JD6KXMBKQ09SqcyNOX11IYHIN38_vt95MISISrlVMKK48kkfCwtX5hGWGPgGRuKKN0yU.7XETWMpPze7aay60A2gvyV16zY0B5n8vl-nzgYsbIEA&amp;dib_tag=se&amp;keywords=prompts+pesquisa&amp;qid=1758467630&amp;sprefix=prompts+pesquisa%2Caps%2C215&amp;sr=8-1\" target=\"_blank\" rel=\"noopener\">Edufpi<\/a>.<\/p>\n<p>&nbsp;<\/p>\n<p>Traducido del original en <a href=\"https:\/\/blog.scielo.org\/blog\/2025\/10\/10\/o-paradoxo-da-transparencia-no-uso-de-ia-generativa-na-pesquisa-academica\/\" target=\"_blank\" rel=\"noopener\">portugu\u00e9s<\/a> por Ernesto Spinak.<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>El uso de la IA generativa en la investigaci\u00f3n acad\u00e9mica genera una paradoja entre la transparencia y la credibilidad. Una investigaci\u00f3n revela que declarar el uso de la IA, aunque \u00e9tico, puede disminuir la confianza en el investigador. La falta de directrices claras y el estigma asociado a la IA dificultan la adopci\u00f3n de la transparencia necesaria para garantizar la integridad cient\u00edfica. <span class=\"ellipsis\">&hellip;<\/span> <span class=\"more-link-wrap\"><a href=\"https:\/\/blog.scielo.org\/es\/2025\/10\/10\/la-paradoja-de-la-transparencia-en-el-uso-de-la-ia-generativa-en-la-investigacion-academica\/\" class=\"more-link\"><span>Read More &rarr;<\/span><\/a><\/span><\/p>\n","protected":false},"author":103,"featured_media":5816,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":"","_links_to":"","_links_to_target":""},"categories":[3],"tags":[7,37,78],"class_list":["post-5815","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-analisis","tag-comunicacion-cientifica","tag-etica-en-la-comunicacion-cientifica","tag-inteligencia-artificial"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/posts\/5815","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/users\/103"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/comments?post=5815"}],"version-history":[{"count":4,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/posts\/5815\/revisions"}],"predecessor-version":[{"id":5820,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/posts\/5815\/revisions\/5820"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/media\/5816"}],"wp:attachment":[{"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/media?parent=5815"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/categories?post=5815"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.scielo.org\/es\/wp-json\/wp\/v2\/tags?post=5815"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}