O paradoxo da transparência no uso de IA generativa na pesquisa acadêmica

Por Rafael Cardoso Sampaio

A consolidação da inteligência artificial (IA) generativa, com ferramentas como ChatGPT, Gemini, Claude, DeepSeek e afins, está transformando significativamente a produção de conhecimento acadêmico. Ferramentas que auxiliam na redação, análise de dados e geração de ideias se tornaram onipresentes, prometendo aumentar a eficiência e democratizar o acesso à produção científica. No entanto, essa revolução tecnológica impõe um dilema ético central aos pesquisadores, colocando-os diante da escolha entre seguir a recomendação consensual de declarar o uso de IA e arriscar sua credibilidade, ou omiti-lo e comprometer a integridade científica. Este paradoxo, no qual a transparência colide com custos sociais, revela tensões entre ética, percepção e inovação na academia.

Internacionalmente, temos praticamente um consenso da necessidade de transparência. Entidades, como o Comitê Internacional de Editores de Revistas Médicas (International Committee of Medical Journal. Editors, ICMJE) e o Comitê de Ética em Publicação (Committee on Publication Ethics, COPE), e editoras, a exemplo de Cambridge, Elsevier, Oxford, Taylor & Francis, exigem que autores declarem explicitamente o emprego de IAs generativas. Sampaio, Sabbatini, Limongi (2024, p. 20) nas Diretrizes para uso ético e responsável da Inteligência Artificial Generativa1 recomendam que a declaração seja feita ao final do trabalho, no formato “Declaração de IA e tecnologias assistidas por IA no processo de escrita”, conforme o modelo abaixo.

Durante a preparação deste trabalho, o(s) autor(es) utilizou(aram) [nome da ferramenta, modelo ou serviço] versão [número e/ou data] para [justificar o motivo]. Após o uso desta ferramenta/modelo/serviço, o(s) autor(es) revisou(aram) e editou(aram) o conteúdo em conformidade com o método científico e assume(m) total responsabilidade pelo conteúdo da publicação.1

As razões para essa obrigatoriedade são claras. Como destacam Hosseini, et al. (2023), as IAs não possuem agência moral ou capacidade de serem responsabilizadas legal e moralmente por seus resultados, recaindo a responsabilidade inteiramente sobre os autores humanos. Adicionalmente, a transparência é essencial para a reprodutibilidade, um pilar da ciência, pois leitores e revisores precisam conhecer todas as ferramentas metodológicas utilizadas para avaliar criticamente os resultados (Meinel, et al., 2025). Por fim, a declaração evita a atribuição de crédito indevido, garantindo que o esforço intelectual humano seja devidamente reconhecido (Sampaio, Sabbatini, Limongi, 2024).

Apesar desse forte consenso ético, a adesão à declaração é surpreendentemente baixa, expondo um paradoxo desconfortável de que ser transparente tem um alto custo. A pesquisa The transparency dilemma: How AI disclosure erodes trust2 de Schilke e Reimann (2025) demonstrou que pessoas que declaram o uso de IA são sistematicamente percebidas como menos confiáveis. Através de uma robusta série de treze experimentos, os autores constataram que a divulgação do uso de IA corrói a confiança de forma consistente, independentemente da tarefa ou do público.

Como eles afirmam, “a divulgação do uso de IA serve como um alerta aos destinatários de que o trabalho do divulgador não é puramente gerado por humanos, o que provavelmente é visto como ilegítimo e, consequentemente, diminui a confiança.”2 (Schilke e Reimann, 2025, p. 2, grifos meus).

O mecanismo por trás desse efeito é justamente a perda de legitimidade. Particularmente, a academia opera com base em expectativas institucionais sobre o que constitui “trabalho intelectual legítimo”, geralmente associado ao esforço, à originalidade e ao conhecimento humano acumulado. A declaração de uso de IA quebra essa expectativa, gerando dúvidas sobre a competência e a agência do pesquisador.

O estudo de Schilke e Reimann (2025)2 descobriu que esse efeito negativo persiste mesmo quando a declaração é atenuada com frases como “revisado por um humano” ou “usado apenas para correção gramatical”. A simples menção da IA é suficiente para acionar o viés negativo. Cria-se, assim, o coração do paradoxo, no qual o pesquisador que age com integridade é penalizado, enquanto aquele que omite a informação é recompensado com uma percepção de maior credibilidade na comparação.

No Brasil, A discussão acerca da utilização e da transparência no emprego de inteligência artificial generativa no campo científico é, comprovadamente, incipiente. O estudo Inteligência artificial e a escrita auxiliada por algoritmos: o que sinalizam as associações científicas e seus periódicos?3 conduzido por Lopes, et al. (2024) analisou 33 associações científicas de diversas áreas e 50 de seus periódicos, constatou que nenhuma das associações possuía posicionamento explícito sobre o tema e que apenas três dos 50 periódicos (6%) tinham, até junho de 2023, diretrizes formais sobre o uso de IA na escrita científica. Quando o tema é abordado, as preocupações se concentram em autoria, plágio e ética, mas a maioria das publicações nacionais ainda opera em um vácuo normativo.

Recentemente, um panorama da produção científica nacional publicado em Um panorama das diretrizes relacionadas ao uso de inteligência artificial nos principais periódicos da Área Interdisciplinar da CAPES,4 conduzido por Gomes e Mendes (2025), revelou que apenas 20,5% dos principais periódicos da Área Interdisciplinar da CAPES mencionam o uso de IA em suas diretrizes para autores. Sampaio, Sabbatini, Limongi (2024)1 evidenciaram que, ao final de 2024, ainda não havia diretrizes claras por parte das principais instituições ligadas à Ciência, como o Ministério da Ciência, Tecnologia e Inovação (MCTI), o Ministério da Educação (MEC), a Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e mesmo agências de fomento estadual, como Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) e Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro (Faperj).

O mesmo cenário se repete nas próprias universidades públicas, no qual um estudo exploratório divulgado pelo The Conversation5 foi capaz de encontrar apenas sete instituições com alguma regra ou diretriz sobre o uso de IA em um universo de mais de 150 instituições verificadas.

A falta de um debate estruturado e de diretrizes claras faz com que o uso de IA permaneça associado a estigmas de “burrice”, “preguiça” ou “trapaça” no discurso acadêmico informal. Essa percepção negativa cria um ambiente de medo, no qual estudantes e pesquisadores temem o julgamento de seus pares, editores e agências de fomento, o que inibe a declaração e fomenta uma cultura de sigilo. O resultado é um círculo vicioso no qual o estigma impede a declaração e a ausência de declarações públicas por pesquisadores respeitados reforça o estigma. Consequentemente, a IA é frequentemente empregada de forma clandestina, sem o escrutínio necessário para garantir seu uso ético e responsável.

Além das barreiras culturais, a implementação da transparência enfrenta desafios práticos significativos. Um desafio é a própria definição de “uso substancial” da tecnologia, que é ainda um ponto de amplo debate. Ainda pairam muitas dúvidas sobre o que exatamente precisa ser declarado. Neste momento, assumimos as sugestões de Resnik e Hosseini em Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary?6 (2025, p. 6), que propõem três critérios relevantes para identificar usos substanciais de ferramentas de IA na pesquisa e dão alguns exemplos práticos (ver exemplos ao fim do texto):

(a) A ferramenta de IA toma decisões que afetam diretamente os resultados da pesquisa. Por exemplo, usar IA para extrair dados de artigos para realizar uma revisão sistemática seria substancial e intencional, pois as decisões de extração de dados afetam os resultados da revisão.

(b) A ferramenta de IA gera ou sintetiza conteúdo, dados ou imagens. Por exemplo, usar IA para escrever seções de um artigo, integrar notas ou outras informações, traduzir o idioma do artigo ou criar imagens ou dados sintéticos seria substancial e intencional, pois a IA gerou ou sintetizou novos conteúdos que afetam diretamente os resultados da pesquisa.

(c) A ferramenta de IA analisa conteúdo, dados ou imagens. Por exemplo, usar IA para analisar dados genômicos, texto ou imagens radiológicas seria substancial e intencional, pois produz análises que apoiam descobertas e conclusões e afetam o conteúdo de uma publicação.

Todavia, para superar esse paradoxo, são necessárias ações coordenadas e uma mudança cultural. A solução não está em abandonar a transparência, mas em construir um ambiente em que a declaração do uso ético de IA seja vista como um sinal de profissionalismo e responsabilidade e não um ato de coragem.

Deve-se promover um debate aberto que desassocie o uso de IA da fraude e o posicione como uma ferramenta legítima de apoio à pesquisa, com universidades e programas de pós-graduação incluindo em seus currículos o treinamento sobre seu uso ético e eficaz. A harmonização das políticas editoriais também é um passo fundamental, assim como o desenvolvimento de critérios mais claros e objetivos de declaração.

Finalmente, a mudança cultural depende da ação de líderes acadêmicos, como pesquisadores seniores, bolsistas de produtividade, editores e diretores de agências de fomento que, ao declararem abertamente seu uso responsável de IA, podem ajudar a normalizar a prática e desmantelar o estigma. Nesse sentido, Schilke e Reimann2 (2025) sugerem que a academia deve reconhecer explicitamente o custo da transparência e trabalhar ativamente para reduzi-lo, principalmente através da educação pública sobre os benefícios do uso responsável de IA, normalizando-a como uma ferramenta de auxílio.

Como afirmam Meinel, et al. em O relato “mais” transparente da pesquisa: uma cultura em evolução7 (2025), a transparência é um pilar da credibilidade científica. Sem ela, a academia corre o risco de replicar vieses, ocultar falhas e, em última instância, perder a confiança pública. Enquanto as instituições desenvolvem políticas mais claras e harmonizadas, cabe a cada pesquisador refletir sobre seu próprio uso de IA e como comunicá-lo de maneira responsável, como parte de um compromisso genuíno com a integridade acadêmica (Tang, et al., 2023). A transparência, quando apoiada pela compreensão e pela educação, pode finalmente se tornar não um custo a ser evitado, mas um valor a ser cultivado.

É importante situar que a luta pela transparência no uso da IA não é um fenômeno isolado, mas sim o capítulo mais recente de um esforço contínuo para aprimorar a integridade do relato científico. A hesitação em declarar o uso de IA pode ser vista como a criação de um “relato oculto” que exclui um colaborador não-humano fundamental, motivada pelo mesmo receio de que a revelação de um processo menos linear e puramente humano possa diminuir a força da pesquisa. Portanto, o debate atual sobre IA se insere nessa longa tradição de aprimoramento das práticas de relato para tornar a ciência mais aberta, replicável e confiável (Meinel, et al., 2025).

Abaixo, um modelo simples apresentado por Resnik e Hosseini6 (2025, p. 7) sobre as principais situações para declarar ou não o uso de IA:

 

A divulgação é obrigatória quando, por exemplo, se usa IA
●      Para formular perguntas ou hipóteses, elaborar e conduzir experimentos.
●      Para redigir partes do artigo, resumir, parafrasear, revisar significativamente ou sintetizar conteúdo textual.
●      Para traduzir partes ou a totalidade do artigo.
●      Para coletar, analisar, interpretar ou visualizar dados (quantitativos ou qualitativos).
●      Para extrair dados para revisão da literatura (sistemática ou não) e identificar lacunas de conhecimento.
●      Para gerar dados sintéticos e imagens relatados no artigo ou utilizados na pesquisa.
A divulgação é opcional quando, por exemplo, se usa IA
●      Para editar texto existente quanto à gramática, ortografia ou organização.
●      Para encontrar referências ou verificar a relevância de referências encontradas por humanos.
●      Para localizar e gerar exemplos para conteúdo existente.
●      Para fazer brainstorming e sugerir formas de organizar um artigo ou o título de um artigo/seção.
●      Para validar e/ou oferecer feedback sobre ideias, texto e código existentes.
A divulgação é desnecessária quando, por exemplo, se usa IA
●      Para sugerir palavras ou frases que melhorem a clareza/leiturabilidade de uma frase existente.
●      Como parte de uma operação maior na qual a IA não está gerando ou sintetizando conteúdo nem tomando decisões de pesquisa; por exemplo, quando a IA está integrada a outros sistemas/máquinas.
●      Como assistente digital, por exemplo, para ajudar a organizar e manter ativos digitais e fluxos de trabalho de um projeto.

 

Tabela 1. Divulgação do uso de IA em pesquisa e escrita.

 

Declaração de IA e tecnologias assistidas por IA no processo de escrita

“Durante a preparação deste texto, o autor utilizou o Gemini 2.5 Pro do Google e o GLM 4.5 da Z.ai em setembro de 2025 para brainstorming, avaliação do texto e melhorias gramaticais e semânticas ao texto. Após o uso destas ferramentas, o autor revisou e editou o conteúdo em conformidade com o método científico e assume total responsabilidade pelo conteúdo da publicação”.

Notas

1. SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203

2. SCHILKE, O. and REIMANN, M. The transparency dilemma: How AI disclosure erodes trust. Organizational Behavior and Human Decision Processes [online]. 2025, vol. 188, 104405 [viewed 10 October 2025]. https://doi.org/10.1016/j.obhdp.2025.104405. Available from: https://www.sciencedirect.com/science/article/pii/S0749597825000172?via%3Dihub

3. LOPES, C., et al. Artificial Intelligence and Writing Assisted by Algorithms: What Do Scientific Associations and Their Journals Signal? Cadernos De Educação Tecnologia e Sociedade [online]. 2024, vol. 17, no. 2, pp. 623–648 [viewed 10 October 2025]. https://doi.org/10.14571/brajets.v17.n2.623-648. Available from: https://brajets.com/brajets/article/view/1227

4. GOMES, R.A. and MENDES, T.A. Um panorama das diretrizes relacionadas ao uso de inteligência artificial nos principais periódicos da Área Interdisciplinar da CAPES. Encontros Bibli [online]. 2025, vol. 30, e103488 [viewed 10 October 2025]. https://doi.org/10.5007/1518-2924.2025.e103488. Available from: https://www.scielo.br/j/eb/a/SJk53dtyBBfVq583TJhtGTz

5. SAMPAIO, R.C. Pesquisa feita nas principais universidades mostra que uso da IA segue desregulado no ensino superior brasileiro [online]. The Conversation. 2025 [viewed 10 October 2025]. Available from: https://theconversation.com/pesquisa-feita-nas-principais-universidades-mostra-que-uso-da-ia-segue-desregulado-no-ensino-superior-brasileiro-262838

6. RESNIK, D.B. and HOSSEINI, M. Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary? Accountability in Research [online]. 2025, pp. 1–13, 1545-5815 [viewed 10 October 2025]. https://doi.org/10.1080/08989621.2025.2481949. Available from: https://www.tandfonline.com/doi/full/10.1080/08989621.2025.2481949

7. MEINEL, R.D., et al. O relato “mais” transparente da pesquisa: uma cultura em evolução [online]. SciELO em Perspectiva, 2025 [viewed 09 October 2025]. Available from: https://blog.scielo.org/blog/2025/09/04/o-relato-mais-transparente-da-pesquisa-uma-cultura-em-evolucao/

Referências

CHO, W.I., CHO, E. and SHIN, H. Three Disclaimers for Safe Disclosure: A Cardwriter for Reporting the Use of Generative AI in Writing Process. arXiv [online]. 2024 [viewed 10 October 2025]. https://doi.org/10.48550/arXiv.2404.09041. Available from: https://arxiv.org/abs/2404.09041

GOMES, R.A. and MENDES, T.A. Um panorama das diretrizes relacionadas ao uso de inteligência artificial nos principais periódicos da Área Interdisciplinar da CAPES. Encontros Bibli [online]. 2025, vol. 30, e103488 [viewed 10 October 2025]. https://doi.org/10.5007/1518-2924.2025.e103488. Available from: https://www.scielo.br/j/eb/a/SJk53dtyBBfVq583TJhtGTz

HOSSEINI, M., RESNIK, D. B. and HOLMES, K. The ethics of disclosing the use of artificial intelligence tools in writing scholarly manuscripts. Research Ethics [online]. 2023, vol. 19, no. 4, pp. 449–465 [viewed 10 October 2025]. https://doi.org/10.1177/17470161231180449. Available from: https://sigmapubs.onlinelibrary.wiley.com/doi/10.1111/jnu.12938

LOPES, C., et al. Artificial Intelligence and Writing Assisted by Algorithms: What Do Scientific Associations and Their Journals Signal? Cadernos De Educação Tecnologia e Sociedade [online]. 2024, vol. 17, no. 2, pp. 623–648 [viewed 10 October 2025]. https://doi.org/10.14571/brajets.v17.n2.623-648. Available from: https://brajets.com/brajets/article/view/1227

MEINEL, R.D., et al. O relato “mais” transparente da pesquisa: uma cultura em evolução [online]. SciELO em Perspectiva, 2025 [viewed 09 October 2025]. Available from: https://blog.scielo.org/blog/2025/09/04/o-relato-mais-transparente-da-pesquisa-uma-cultura-em-evolucao/

RESNIK, D.B. and HOSSEINI, M. Disclosing artificial intelligence use in scientific research and publication: When should disclosure be mandatory, optional, or unnecessary? Accountability in Research [online]. 2025, pp. 1–13, 1545-5815 [viewed 10 October 2025]. https://doi.org/10.1080/08989621.2025.2481949. Available from: https://www.tandfonline.com/doi/full/10.1080/08989621.2025.2481949

SAMPAIO, R.C. Pesquisa feita nas principais universidades mostra que uso da IA segue desregulado no ensino superior brasileiro [online]. The Conversation. 2025 [viewed 10 October 2025]. Available from: https://theconversation.com/pesquisa-feita-nas-principais-universidades-mostra-que-uso-da-ia-segue-desregulado-no-ensino-superior-brasileiro-262838

SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203

SCHILKE, O. and REIMANN, M. The transparency dilemma: How AI disclosure erodes trust. Organizational Behavior and Human Decision Processes [online]. 2025, vol. 188, 104405 [viewed 10 October 2025]. https://doi.org/10.1016/j.obhdp.2025.104405. Available from: https://www.sciencedirect.com/science/article/pii/S0749597825000172?via%3Dihub

TANG, A. et al. The importance of transparency: Declaring the use of generative artificial intelligence (AI) in academic writing. Journal of Nursing Scholarship [online]. 2024, vol. 56, no. 2, pp. 314–318 [viewed 10 October 2025]. https://doi.org/10.1111/jnu.12938. Available from: https://sigmapubs.onlinelibrary.wiley.com/doi/10.1111/jnu.12938

Sobre Rafael Cardoso Sampaio

Rafael Cardoso Sampaio é professor permanente do Programa de Pós-graduação em Ciência Política da Universidade Federal do Paraná. É bolsista em produtividade do CNPq. É um dos autores, com Marcelo Sabbatini e Ricardo Limongi, do livro “Diretrizes para o uso ético e responsável da inteligência artificial generativa: um guia prático para pesquisadores” publicado pela editora Intercom e é autor, com Dalson Figueiredo, do guia introdutório “Prompts (Infalíveis!) para Pesquisa Acadêmica com Inteligência Artificial” publicado pela Edufpi.

 

 

Como citar este post [ISO 690/2010]:

SAMPAIO, R.C. O paradoxo da transparência no uso de IA generativa na pesquisa acadêmica [online]. SciELO em Perspectiva, 2025 [viewed ]. Available from: https://blog.scielo.org/blog/2025/10/10/o-paradoxo-da-transparencia-no-uso-de-ia-generativa-na-pesquisa-academica/

 

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Post Navigation