Por Ives da Silva Duque-Pereira e Sérgio Arruda de Moura
Meu “amigo”, o Robô

Imagem: kuu akura via Unsplash.
Vivemos um momento que conversar com uma máquina se tornou rotina na vida de muitas pessoas trazendo uma série de implicações agravadas pela tendência de antropomorfização das ferramentas. Seja pedindo ajuda para resolver um problema, conselho de amigo, escrevendo um texto ou tirando dúvidas acadêmicas, os chatbots de Inteligência Artificial Generativa (IA Gen) já estão entre nós — muitas vezes, nos respondendo com uma fluência impressionante. Mas será que conversar com um chatbot é o mesmo que dialogar? Como professor da Educação Básica e pesquisador me pergunto o que está, de fato, acontecendo nas interações entre estudantes e chatbots de Inteligência Artificial Generativa?
Essa pergunta nos levou a olhar para esses sistemas de inteligência artificial (IA) sob a lente da linguagem. Mais precisamente, da filosofia da linguagem de Mikhail Bakhtin, pensador russo que dedicou boa parte de sua obra a compreender como o sentido se constrói na relação entre as vozes de um discurso.
Muitas vozes e nenhuma agência?
Para Bakhtin, todo discurso é, por natureza, um diálogo. Mesmo quando escrevemos um texto sozinhos, estamos respondendo a algo — a outras ideias, a outros autores, a uma situação. É como se cada fala se colocasse num grande rio de enunciados, fluindo e se entrelaçando com o que já foi dito e o que ainda virá.
Mas e quando essa fala vem de um chatbot? Aparentemente, há ali uma resposta, uma interação. A linguagem flui, os estilos variam, o vocabulário se adapta. Só que, ao olhar mais de perto, algo se quebra. Não há consciência, nem intencionalidade humana aparente ou uma história de vida sustentando aquela resposta. O que vemos é uma performance — uma simulação de diálogo produzida por um algoritmo.
E é justamente isso que nos fez pensar no que chamamos de monologismo algorítmico. Um termo que nos ajuda a descrever o que acontece quando uma IA simula muitas vozes, mas todas passam por um mesmo filtro de algoritmo, treinado para evitar conflitos, equilibrar os lados e entregar uma fala “segura” que responda o que se espera. Embora pareçam dialogar, esses sistemas de IA operam sob uma lógica centralizadora, que simula multiplicidade de vozes, mas as uniformiza em respostas padronizadas, conciliadoras e desprovidas de conflito real.
Enquanto Bakhtin via o diálogo como um encontro entre consciências sociais concretas, cada uma com seu lugar no mundo, os chatbots apenas encenam essa alteridade. No fim, temos uma conversa em aparência, mas que, na essência, é organizada por um centro unificador que silencia as diferenças reais.
Chatbots como o ChatGPT conseguem variar bastante seus estilos — usam gírias, termos técnicos, emojis, citações — e isso pode até lembrar o conceito bakhtiniano de heteroglossia, essa mistura de linguagens sociais que compõem o discurso. Contudo, é preciso ir além da superfície e se perguntar se essas vozes estão ali por escolha consciente ou são apenas reproduções coladas, sem agência, sem conflito, sem tensão.
Na prática, o que muitas vezes temos é uma espécie de polifonia controlada. O chatbot apresenta diferentes pontos de vista, mas todos reconciliados dentro de uma mesma resposta. Nenhuma voz interrompe, provoca, desestabiliza. Tudo termina em harmonia. Mas o verdadeiro diálogo, como Bakhtin lembrava, nasce justamente do embate, do encontro com o outro em sua diferença.
O que isso tem a ver com ciência e educação?
Tudo. Se a linguagem é o solo da construção do conhecimento, precisamos perguntar que tipo de discurso estamos alimentando quando usamos essas ferramentas na educação, na pesquisa, na produção de conhecimento. Um chatbot que entrega respostas “neutras” pode parecer eficiente, mas também pode nos acostumar a uma lógica de respostas únicas, de verdades planas, de consensos que nunca foram debatidos.
É aqui que o letramento crítico em IA se torna urgente. Não basta saber usar uma IA para “ganhar tempo”, “aumentar a produtividade”, “auxiliar” ou “automatizar” tarefas. É preciso saber ler com olhos críticos as respostas que ela nos dá e nos perguntarmos sobre de onde vêm essas ideias? Quem está sendo citado? O que está sendo deixado de fora? Que valores estão embutidos nesse jeito de responder?
O modelo que propomos avalia, qualitativamente, respostas dadas por um chatbot (GPT-4.5) pelos conceitos de Bakhtin. Como exemplo, analisamos respostas de perguntas sobre temas escolares — desde “como lidar com a indisciplina” até “o que foram as revoluções industriais”. Analisamos a estrutura, os estilos de linguagem, os valores implícitos e o tipo de interação promovido.
Observamos que mesmo quando o chatbot simula diferentes pontos de vista, suas respostas tendem a ser conciliadoras, consensuais e isentas de conflito. Isso gera o que chamamos de diálogo simulado, pois não há confronto real de ideias, apenas uma superfície aparentemente dialógica, com simulação polifônica.
Um dos efeitos mais preocupantes é a homogeneização do discurso. Quando um chatbot responde sempre tentando agradar, evitar polêmicas e apresentar todos os lados “igualmente”, ele nos impede de ver o conflito, a desigualdade, a disputa de narrativas que compõem o mundo real. Em vez de provocar o pensamento, ele o embala em uma resposta polida. E isso pode ser perigoso, sobretudo na escola e na universidade, espaços que deveriam fomentar o pensamento crítico.
Os chatbots tendem a reforçar vozes dominantes e a excluir saberes periféricos, críticas radicais e visões alternativas. Com isso, criam a sensação de que há apenas um jeito de pensar, um consenso “natural” — quando, na verdade, a ciência e a educação avançam justamente pelo conflito de ideias, pela diversidade de perspectivas.
IA, discurso e ciência: quem fala por trás da máquina?
Mais do que dominar ferramentas, precisamos reconhecer os limites do que elas podem (ou não) nos dizer. Precisamos de metodologias que analisem esses discursos com profundidade, que entendam que por trás de cada resposta aparentemente neutra, há decisões, ideologias, padrões e omissões.
Acreditamos que precisamos, cada vez mais, de metodologias analíticas críticas para investigar os impactos da IA na linguagem, na educação e na ciência. O modelo de análise que propomos está longe de ser definitivo, mas é uma contribuição que esperamos que seja recebida como uma tentativa de oferecer um caminho metodológico que não romantiza a tecnologia, mas também não a demoniza. Ele busca compreender o discurso da IA como um fenômeno social, ideológico e situado — e, portanto, analisável com as ferramentas das ciências humanas.
A IA pode, sim, ser uma aliada — desde que a tratemos com a mesma seriedade e criticidade que damos a qualquer outra fonte de discurso. Afinal, não é porque uma resposta vem da máquina que ela está fora da política, da ideologia ou do contexto social.
Ao articular a teoria de Bakhtin à análise de sistemas como o ChatGPT, defendemos que não há discurso sem ideologia. Mesmo que um chatbot pareça neutro, suas respostas são moldadas por seleções humanas prévias — de dados, parâmetros, filtros. Assim, surge a necessidade de perguntar quem fala através da IA? Quais vozes ela amplifica? Quais silencia?
Para o campo da comunicação científica, essa análise abre caminhos para pensar criticamente o uso de ferramentas algorítmicas em processos editoriais, práticas de escrita, avaliação de manuscritos e produção de conhecimento. A IA pode ser uma aliada, mas somente se compreendida dentro do tecido ideológico, discursivo e político que a constitui.
Para ler o preprint, acesse
DUQUE-PEREIRA, I.S. and MOURA, S.A. Monologismo Algorítmico e Dialogismo Simulado: uma análise bakhtiniana do discurso mediado por chatbots de IA. SciELO Preprints [online]. 2025 [viewed 30 April 2025]. https://doi.org/10.1590/SciELOPreprints.11590. Available from: https://preprints.scielo.org/index.php/scielo/preprint/view/11590
Sobre Ives da Silva Duque-Pereira
Ives da Silva Duque Pereira é doutorando no Programa de Pós-Graduação em Cognição e Linguagem da Universidade Estadual do Norte Fluminense Darcy Ribeiro (UENF). Professor ligado a Secretaria de Estado de Educação do Rio de Janeiro (SEEDUC-RJ) e na Fundação de Apoio à Escola Técnica (FAETEC).
Sobre Sérgio Arruda de Moura
Sérgio Arruda de Moura é professor no Programa de Pós-Graduação em Cognição e Linguagem da Universidade Estadual do Norte Fluminense Darcy Ribeiro (UENF).
Como citar este post [ISO 690/2010]:
Últimos comentários