Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG)

Rafael Cardoso Sampaio, Professor de Política, Universidade Federal do Paraná (UFPR) e bolsista produtividade do CNPq 1D, Curitiba, PR, Brasil

Marcelo Sabbatini, Professor do Centro de Educação e do Programa de Pós-Graduação em Educação Matemática e Tecnológica, Universidade Federal de Pernambuco (UFPE), Recife, PE, Brasil

Ricardo Limongi, Professor de Marketing e Inteligência Artificial, Universidade Federal de Goiás (UFG), Goiânia, GO, e Editor-Chefe do periódico Brazilian Administration Review (BAR), Maringá, PR, Brasil

Em nossa obra Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores,1 lançada pela editora da Sociedade Brasileira de Estudos Interdisciplinares da Comunicação (Intercom) no final de 2024, procuramos oferecer um referencial sólido para pesquisadores brasileiros em um contexto de adoção crescente de ferramentas de IA generativa (IAG).

Diante da marcada ausência de materiais similares, a premissa do trabalho é estabelecer parâmetros para a incorporação desta tecnologia às práticas de pesquisa, contribuindo como ponto de partida para as discussões ou no avanço da cultura de Inteligência Artificial nas instituições.

A estrutura da obra se fundamenta em duas dimensões complementares: uma vertente normativa e outra metodológica-operacional. No âmbito normativo, estabelecemos princípios como a transparência metodológica – com ênfase na documentação integral dos processos automatizados –, a preservação da autoria intelectual e a proteção contra a apropriação inadequada de dados por sistemas proprietários internacionais.

Buscamos enfatizar a centralidade da agência humana nos processos de pesquisa, como a elaboração do quadro teórico-metodológico e a análise interpretativa dos resultados e contemplam: compreensão das ferramentas de IAG, autoria humana, transparência, integridade da pesquisa acadêmica, plágio, originalidade e direitos autorais, preservação da agência humana, uso eticamente orientado e letramento em IA para pesquisadores.

Na dimensão prática e metodológica, apresentamos protocolos específicos para desafios recorrentes na prática acadêmica contemporânea. A obra propõe metodologias para mitigar vieses linguísticos em revisões bibliográficas automatizadas e critérios para avaliação da qualidade textual em produções assistidas por IA. Propomos diretrizes para o tratamento ético de dados sensíveis, incluindo procedimentos de anonimização e validação cruzada entre análises humanas e computacionais.

A segunda parte, de caráter mais prático, aborda atividades típicas da pesquisa acadêmica, como são a exploração inicial de ideias, busca de materiais acadêmicos, leitura e resumo de materiais acadêmicos, escrita, análise e apresentação de resultados, programação, transcrição, tradução, pareceres e avaliações, seleção, agentes de IA e, finalmente, a detecção de texto gerado por IAG.

Buscamos ilustrar os dilemas com exemplos concretos apresentados na literatura científica e coletados em nossa experiência com bancas examinadoras e grupos de pesquisa. Por exemplo, observamos que revisões de literatura assistidas por IA frequentemente desconsideram fontes brasileiras, direcionando-se a artigos em inglês, mesmo quando solicitadas fontes em português.

Ainda mais, podem se limitar a artigos de acesso livre, o que nem sempre reflete o estado da arte de um campo. Outro exemplo relevante é o uso desatento de chatbots para a redação de seções metodológicas, podendo levar à produção de textos genéricos, que não capturam a complexidade dos dados obtidos.

Nossa obra também critica a falsa objetividade que as ferramentas de detecção de IA propagam. Com exemplos práticos, demonstramos como softwares como GPTZero podem falhar ao classificar textos de pesquisadores não nativos em língua inglesa ou daqueles que adotam estilos mais sucintos.

Em vez da confiança irrestrita nessas ferramentas, sugerimos a identificação de sinais discretos de autoria artificial, como a falta de exemplos empíricos ou citações excessivamente amplas. Com isso, também defendemos o foco na construção de uma cultura de integridade acadêmica na qual a IAG surja como ferramenta.

Além de estabelecer diretrizes, nosso livro1 convida à reflexão sobre o papel da IAG na pesquisa científica. Discutimos como balancear os ganhos de eficiência com a preservação da criatividade e do desenvolvimento de habilidades analíticas. Propomos que a tecnologia seja integrada em etapas mais mecânicas, como a revisão de gramática e a organização de referências, preservando atividades cognitivas essencialmente humanas.

Por fim, ressaltamos, em primeiro lugar, a urgência de se estabelecerem diretrizes institucionais brasileiras, uma vez que a falta de regulamentações pelo CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico) e pela CAPES (Fundação Coordenação de Aperfeiçoamento de Pessoal de Nível Superior) expõe os pesquisadores às políticas instáveis de empresas internacionais, e institucionais.

Em segundo lugar, pela própria lógica do mercado que alimenta as empresas responsáveis por esses modelos, ressaltamos a importância da criação de modelos específicos para a ciência brasileira, rodando em “nuvens soberanas” e evitando que nossos resultados mais relevantes sejam facilmente compartilhados com tais corporações.

Portanto, o guia não quer se estabelecer como palavra final em uma questão altamente complexa e em constante mudança, mas realizar um convite para que, em conjunto, universidades, periódicos e agências de fomento criem um marco regulatório que proteja a integridade da pesquisa nacional que incorpore, de maneira consciente, o potencial transformador da IA generativa.

O ebook pode ser baixado gratuitamente em

Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores

Declaração do uso de inteligência artificial generativa

Este texto foi elaborado e corrigido com o auxílio do DeepSeek (v. 3), Claude (versão Sonnet 3.5) e MariTalk (versão Sabiá 3) em janeiro de 2025. Após o uso destas ferramentas, os autores revisaram e editaram o conteúdo em conformidade com o método científico e assumem total responsabilidade pelo conteúdo da publicação.

Nota

1. SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203

Referência

SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Available from: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203

Links externos

Claude

DeepSeek

GPTZero

MariTalk

 

Como citar este post [ISO 690/2010]:

SAMPAIO, R.C., SABBATINI, M. and LIMONGI, R. Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG) [online]. SciELO em Perspectiva, 2025 [viewed ]. Available from: https://blog.scielo.org/blog/2025/02/05/pesquisadores-lancam-diretrizes-iag/

 

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Post Navigation