ChatGPT e outras IAs transformarão toda a pesquisa científica: reflexões iniciais sobre usos e consequências – parte 2

Rafael Cardoso Sampaio, Professor permanente do Programa de Pós-graduação em Ciência Política e Comunicação da Universidade Federal do Paraná (UFPR)

Maria Alejandra Nicolás, Professora do Programa de Mestrado em Políticas Públicas e Desenvolvimento da Universidade Federal da Integração Latino-Americana (UNILA)

Tainá Aguiar Junquilho, Professora do Mestrado em Direito do IDP

Luiz Rogério Lopes Silva, Professor substituto do Departamento de Ciência e Gestão da Informação da Universidade Federal do Paraná (UFPR)

Christiana Soares de Freitas, Professora dos Programas de Pós-graduação em Comunicação e em Governança e Inovação em Políticas Públicas Universidade de Brasília (UNB)

Marcio Telles, Professor permanente do Programa de Pós-Graduação em Comunicação e Linguagens da Universidade Tuiuti do Paraná (UTP)

João Senna Teixeira, Bolsista de pós-doutorado no Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT-DD) da Universidade Federal da Bahia (UFBA)

Na primeira parte deste ensaio,1 apresentamos seis usos principais de Inteligência Artificial (IA) para ajudar em diversas etapas do fazer científico, agora na segunda parte, iremos discutir consequências, riscos e paradoxos no uso de IAs para a pesquisa científica. Agora, nesta segunda parte, buscamos apresentar alguns desses riscos, que surgem em especial na utilização da IA generativa no campo científico e no fazer acadêmico. Embora todos os problemas não estejam sequer completamente mapeados, buscamos oferecer reflexões iniciais para subsidiar e fomentar o debate. Reforçando que ambos os ensaios são um resumo de uma reflexão maior já depositada em formato de artigo2 no SciELO Preprints.

1. Autoria e plágio

A tendência é que as IAs façam parte da elaboração dos textos acadêmicos, dificultando gradativamente a diferenciação entre textos produzidos por humanos ou por máquinas. Em especial, há a questão não resolvida de um texto que é escrito por um humano e apenas revisado pela inteligência artificial, isso é o suficiente para ele deixar de ser humano? Em outra possibilidade, se um humano cria uma boa parte de um texto, entretanto pede à IA para complementar, ele infringirá algum limite ético? Se pedirmos para IA ler um texto de nossa autoria e elaborar o resumo ou o título, ele será um texto da máquina? Isso tendo em vista que o humano revisou todos os textos e colocou seu nome como responsável. Há poucos consensos em torno dessas questões, exceto na questão de que inteligências artificiais não podem ser consideradas como autores de um trabalho acadêmico, já que não podem ser responsabilizadas pelo conteúdo produzido e se alguma ferramenta for utilizada, deve-se mencioná-la em seção apropriada do artigo acadêmico.

Como IAs podem facilmente gerar imagens, gráficos, tabelas e mesmo apresentações inteiras, mais que a discussão sobre o plágio ou a “cola”, como discutido anteriormente, parece-nos que a discussão mais profícua será aquela relacionada a autoria, direitos autorais, fontes e o limite da cooperação humano-máquina.

É importante notar que no momento de conclusão deste ensaio, nenhuma ferramenta de detecção de IA em texto foi avaliada como infalível ou verdadeiramente confiável. Inclusive, um estudo demonstrou que ela tendia a ter um viés contra não-nativos em inglês.  Finalmente, é vital reforçar que os large language models(LLMs) citados neste ensaio NÃO são capazes de detectar plágio ou uso de IA, razão pela qual não recomendamos aplicativos de detecção.

2. Diminuição da integridade do fazer científico

A falta de transparência sobre os critérios e algoritmos usados pelas IAs pode levar a uma falta de compreensão sobre como as decisões são tomadas. Por que a máquina recomendou a leitura de determinado texto em detrimento de outro? Por que ela recomendou fazer um teste estatístico ou uma representação visual específica? Além disso, vale ressaltar que LLMs podem ocasionalmente produzir respostas que parecem plausíveis à primeira vista, porém, ao exame mais atento, revelam-se desconectadas do contexto, factualmente incorretas ou consideravelmente distorcidas pelas inclinações do modelo.

Como pouco ou nada sabemos sobre os possíveis vieses não tratados e similares desses modelos, o risco de inconsistência ou imprecisão requer uma abordagem crítica ao avaliar e utilizar suas respostas, sublinhando a importância da supervisão humana rigorosa e da revisão meticulosa para assegurar a qualidade e confiabilidade da escrita científica. O uso de IAs dificulta a confiança nos resultados e limita a capacidade dos pesquisadores de avaliar sua validade e confiabilidade, tornando certos aspectos da pesquisa completamente não replicáveis.

3. Restrição do leque de possibilidades para a pesquisa

O padrão estabelecido pelo Google, também utilizado por indexadores acadêmicos, mostra uma série de links para páginas que tratam sobre o assunto solicitado partindo de critérios de relevância.

No novo paradigma estabelecido pelo ChatGPT, o principal output é uma resposta gerada pela máquina inicialmente e só depois links para aprofundamento. Não precisaremos entrar nos sites ou ler diferentes opiniões, mas tê-las sumarizadas pela inteligência artificial direto no chat ao continuar as questões nele, diminuindo o acesso aos dissensos e cristalizando as posições mais “relevantes”, podendo ter efeitos no aumento das desigualdades na produção do conhecimento científico.

Tal situação ainda tende a ser agravada, pois tais inteligências artificiais, apesar de serem treinadas em bases gigantescas, indexam prioritariamente a produção norte-americana, anglosaxã e europeia, notadamente quando estamos falando de IAs acadêmicas. Portanto, tenderão a reforçar uma visão muito específica de ciência, o que inclui determinados tipos de métodos e formas de análise que poderão se tornar ainda mais o padrão da pesquisa científica. Isso poderá ter efeitos nefastos especialmente sobre as pesquisas das humanidades ou sobre toda a pesquisa qualitativa de maneira geral.

4. Paradoxo da produção de conhecimentos

A automação de diversas tarefas e a terceirização de importantes escolhas para as inteligências artificiais podem vir a fomentar uma geração de futuros pesquisadores que conhecerão menos autores, fontes e dominarão ainda menos a literatura acadêmica e a base dos métodos de pesquisa e programação.

Assim, podemos facilmente imaginar futuros pesquisadores que vão “ler” dezenas de artigos simultaneamente; elaborar “revisões de literatura” automatizadas e substantivas; raspar, limpar e analisar quantidades massivas de dados; usar tais modelos e tecnologias para testar os limites do conhecimento humano e, supomos, até alcançar resultados mais substantivos e inovadores. Paradoxalmente, teremos pesquisadores “menos treinados”, “menos habilitados” e que ainda assim poderão realizar tarefas mais rápidas e significativas.

Finalmente, reconhecemos que tudo isso pode gerar uma gigantesca quantidade de lixo acadêmico sem valor, com uma maré de textos científicos mal escritos, sem novidades, sem critérios e sem rigor, buscando alimentar apenas revistas predatórias e os currículos de estudantes e professores em busca de financiamento.

5. As relações centro periferia e o colonialismo de dados

Além de quebrar as barreiras linguísticas em termos de leitura e escrita, a tecnologia também democratiza o papel dos assistentes de pesquisa, que só estavam disponíveis para pesquisadores renomados de instituições do norte global. Com ferramentas de IA, os pesquisadores podem realizar tarefas como anotações, arquivamento de citações, preparação de manuscritos, edição de manuscritos, preenchimento de formulários, transcrição de áudio, redação de e-mail, criação de lista de tópicos, tradução de texto e criação de apresentações – tarefas normalmente relegadas aos assistentes. Isso poderia diminuir o espaço gap entre a capacidade de produção e publicação entre pesquisadores do centro e da periferia do mundo acadêmico.

Ainda assim, boa parte dessas ferramentas é paga, e em dólar ou euro, limitando o acesso aos pesquisadores do sul global a elas. Outra discussão é se os recursos das universidades devem ir ou não para o uso de tais aplicativos e plataformas de IA. Se isso pode causar estranhamento no momento, cabe lembrar que já normalizamos o pagamento por servidores (Microsoft, Amazon etc.), softwares (NVivo, Atlas.ti, Stata, SPSS, Endnote, Office etc.) e pelo acesso a determinadas plataformas de artigos.

Considerando que os recursos de pesquisa do Sul global continuarão inferiores e que os centros irão pagar por ou desenvolver suas próprias IAs, o perigo recai não na diminuição, mas sim no aumento do gap da pesquisa entre centro e periferia. Corre-se o risco que pesquisadores do Sul global aumentem a sua dependência por tecnologias desenvolvidas pelo norte global, reforçando a questão do colonialismo de dados, já existente nas plataformas de redes sociais digitais.

Entretanto, apontamos um paradoxo em termos da internacionalização da pesquisa. Podemos ficar excessivamente dependentes das tecnologias criadas por esse centro, mas o número de aplicativos dedicados à tradução e correção das línguas aumentou em quantidade e qualidade, diminuindo o maior empecilho à publicação nas revistas mais importantes. Aplicativos como o Deepl já entregam traduções consideravelmente melhores que as do Google Tradutor e temos todas as ferramentas supracitadas de correção do inglês, como Grammarly, Quillbot, Writefull e afins. E todos LLMs sem exceção conseguem refinar os textos para ficarem mais próximos do texto acadêmico padrão.

Não defendemos o fim da tradução ou correção por humanos, apenas que haverá novas ferramentas para pesquisadores escreverem diretamente em outros idiomas e publicar nos principais periódicos.

Todas essas reflexões são bastante iniciais, porém buscam sair da discussão exclusiva sobre o plágio e o falseamento de provas por estudantes, buscando evidenciar que as mudanças serão muito mais significativas que estamos discutindo. Discutir então é algo vital para este momento.

A série “ChatGPT e outras IAs transformarão toda a pesquisa científica: reflexões iniciais sobre usos e consequências” consiste em dois posts

Notas

1. SAMPAIO, R.C., et al. ChatGPT e outras IAs transformarão toda a pesquisa científica: reflexões iniciais sobre usos e consequências – parte 1 [online]. SciELO em Perspectiva, 2023 [viewed 14 November 2023]. Available from: https://blog.scielo.org/blog/2023/11/10/chatgpt-e-outras-ias-transformarao-toda-a-pesquisa-cientifica-reflexoes-iniciais-sobre-usos-e-consequencias-parte-1/

2. SAMPAIO, R.C., et al. ChatGPT and other AIs will change all scientific research: initial reflections on uses and consequences. SciELO Preprints [online]. 2023 [viewed 14 November 2023]. https://doi.org/10.1590/SciELOPreprints.6686 . Available from: https://preprints.scielo.org/index.php/scielo/preprint/view/6686/version/7074

Referências

MOHL, P. Seeing threats, sensing flesh: human–machine ensembles at work. AI & Society [online]. 2020, vol.36, pp.1243-1252 [viewed 14 November 2023]. https://doi.org/10.1007/s00146-020-01064-1 . Available from: https://link.springer.com/article/10.1007/s00146-020-01064-1

SAMPAIO, R.C., et al. ChatGPT and other AIs will change all scientific research: initial reflections on uses and consequences. SciELO Preprints [online]. 2023 [viewed 14 November 2023]. https://doi.org/10.1590/SciELOPreprints.6686 . Available from: https://preprints.scielo.org/index.php/scielo/preprint/view/6686/version/7074

SAMPAIO, R.C., et al. ChatGPT e outras IAs transformarão toda a pesquisa científica: reflexões iniciais sobre usos e consequências – parte 1 [online]. SciELO em Perspectiva, 2023 [viewed 14 November 2023]. Available from: https://blog.scielo.org/blog/2023/11/10/chatgpt-e-outras-ias-transformarao-toda-a-pesquisa-cientifica-reflexoes-iniciais-sobre-usos-e-consequencias-parte-1/

Links externos

DeepL Translate: https://www.deepl.com/translator

Google Tradutor: https://translate.google.com.br/

Grammarly: https://www.grammarly.com/

QuillBot: https://quillbot.com/

SciELO Preprints: https://preprints.scielo.org/

Writefull: http://writefull.com/

 

Como citar este post [ISO 690/2010]:

SAMPAIO, R.C., et al. ChatGPT e outras IAs transformarão toda a pesquisa científica: reflexões iniciais sobre usos e consequências – parte 2 [online]. SciELO em Perspectiva, 2023 [viewed ]. Available from: https://blog.scielo.org/blog/2023/11/14/chatgpt-e-outras-ias-transformarao-toda-a-pesquisa-cientifica-reflexoes-iniciais-sobre-usos-e-consequencias-parte-2/

 

One Thought on “ChatGPT e outras IAs transformarão toda a pesquisa científica: reflexões iniciais sobre usos e consequências – parte 2

  1. Julio Cesar machado de Souza on November 27, 2023 at 14:20 said:

    Qual seria o comentário do chatGPT sobre esse artigo?

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Post Navigation