Utilizando a metáfora da lanterna de Diógenes, Ricardo Limongi e Marcio Pimenta discutem o fazer científico contemporâneo. Mais do que fazer uma crítica, a imagem da lanterna propõe uma reflexão mais profunda: como voltar a luz para si mesmo, exercitando o autoexame, a responsabilidade ética e a integridade ao mesmo tempo que se enfrenta um contexto, muitas vezes, desfavorável ao pesquisador no Brasil. … Read More →
A bajulação na IA: o risco da complacência
A bajulação é um comportamento observado na inteligência artificial, que dá prioridade a concordar com o utilizador em vez de à veracidade dos factos. Esta tendência decorre dos processos de treino concebidos para maximizar a satisfação humana, o que pode validar erros graves em setores críticos como a saúde. Este comportamento, descrito como uma forma de «adulação digital», implica que a IA pode validar erros, reforçar preconceitos ou evitar críticas necessárias, desde que resulte agradável ou útil de acordo com a perceção imediata do utilizador. Para mitigar estes riscos, foram propostas estratégias como o ajuste ético, a conceção de sistemas que promovam a discordância e a utilização de prompts neutros em relação aos utilizadores.
… Read More →
O dilema do professor na era da IA: ensinamos o prompt ou o processo científico?
A velocidade de adoção de ferramentas de IA generativa na pesquisa científica gerou uma demanda legítima por capacitação técnica. Pesquisadores querem e precisam saber usar essas tecnologias. O problema surge quando a capacitação se reduz ao ensino de atalhos, sem a compreensão dos processos subjacentes que conferem ao pesquisador a capacidade de avaliar criticamente o que a ferramenta produz. … Read More →
O Anel de Giges e a IA na ciência: Quando a invisibilidade desafia a integridade
Se a IA pode ser usada sem ser detectada, como se sustenta a integridade científica? A partir da alegoria do Anel de Giges, este texto reflete sobre os limites da detecção, a proliferação de diretrizes e a necessidade de reposicionar o debate: da vigilância para a formação ética de pesquisadores. … Read More →
A ascensão das publicações ‘predatórias’
Nas últimas duas décadas, a publicação científica passou por uma transformação tecnológica e econômica que abriu espaço para modelos mais heterodoxos e, infelizmente, para práticas predatórias. Predatory publishing refere-se a periódicos e editoras que cobram (e muito caro) autores por publicar, afirmam práticas de revisão por pares e indexação que não existem ou são fraudadas e priorizam receita rápida em detrimento da qualidade científica. … Read More →
Quem é o parteiro e quem é o parturiente? A perspectiva maiêutica para repensar autoria e responsabilidade epistêmica no uso de IA na produção científica
A perspectiva maiêutica socrática oferece um enquadramento filosófico para repensar o uso de IA na produção científica. Em vez de um oráculo que fornece respostas, a IA pode ser uma parceira dialógica que ajuda pesquisadores a explicitar conhecimentos latentes e, assim, reposicionar a discussão sobre a autoria: o pesquisador permanece como agente epistêmico responsável, enquanto a IA atua como parteiro intelectual. … Read More →
Integridade Científica na era da IA e os desafios da transparência: fraudes, manipulação e os novos desafios da transparência
A inteligência artificial transforma radicalmente os desafios da integridade científica. Das “paper mills” à geração automatizada de fraudes, vivemos uma crise que exige novas formas de transparência, detecção e governança para preservar a confiança na ciência, articulando tecnologia, reformas institucionais e cooperação internacional. … Read More →
Os perigos do uso da IA na revisão por pares [Publicado originalmente no Hora Campinas em dezembro/2025]
Dentro da minha vida acadêmica, estou sempre dos “dois lados do balcão”, como autor e avaliador. É um trabalho de alta responsabilidade pois temos o compromisso com a excelência da informação científica e aperfeiçoamento do artigo. Atualmente, autores podem usar genAI na preparação dos artigos com ressalvas, mas há restrições rígidas quanto ao uso na avaliação por pares. … Read More →
O paradoxo da transparência no uso de IA generativa na pesquisa acadêmica
O uso da IA generativa na pesquisa acadêmica gera paradoxo entre transparência e credibilidade. Pesquisa revela que declarar o uso de IA, embora ético, pode diminuir a confiança no pesquisador. A falta de diretrizes claras e o estigma associado à IA dificultam a adoção da transparência necessária para garantir a integridade científica. … Read More →
O relato “mais” transparente da pesquisa: uma cultura em evolução
Há mais de duas décadas, Richard Horton, editor do The Lancet, trouxe à atenção questões intrigantes sobre a autoria científica e sua representação em artigos. Horton observou que o relato público da pesquisa nem sempre reflete divergências de opinião e interpretação de resultados entre os coautores. Revelar elementos desse “artigo oculto” vem sendo um processo essencial para o relato científico e a confiabilidade da pesquisa. É um processo em evolução que ganhará cada vez mais relevância no âmbito da pós-graduação, especialmente no contexto atual de produção intelectual cada vez mais permeado pela Inteligência Artificial Generativa. … Read More →
Chega de Bardin? Um apelo à renovação da Análise de Conteúdo brasileira
A Análise de Conteúdo no Brasil vive um círculo vicioso centrado em Bardin com tutoriais que, não apenas replicam o seu modelo, mas também suas limitações, ignorando avanços em transparência, confiabilidade e replicabilidade, limitando o avanço do rigor científico nacional. … Read More →
Linguística para uma inteligência artificial (IA) brasileira
A Plataforma da Diversidade Linguística Brasileira é uma proposta de curadoria de dados para treinar modelos de IA com dados estruturados do português e outras 250 línguas do país, atendendo diretamente ao Plano Brasileiro de Inteligência Artificial. A iniciativa busca reduzir custos ambientais, evitar vieses e criar tecnologias mais inclusivas para saúde, educação e serviços públicos. … Read More →
Integridade científica e agência humana na pesquisa entremeada por IA Generativa
A comunicação científica está passando por uma reconfiguração que, sob uma perspectiva conservadora, será tão paradigmática quanto a criação do primeiro periódico científico o Philosophical Transactions, em 1665. Sob uma perspectiva disruptiva, essa transformação poderá reconfigurar toda a cultura científica, redefinindo a autonomia de pesquisadores e instituições na produção e validação do conhecimento. Preservar a integridade e o rigor científico em projetos e publicações requer estratégias que vão além de políticas de transparência para pesquisadores que utilizam Inteligência Artificial Generativa. … Read More →
Chatbots de IA e a simulação do diálogo: o que a teoria bakhtiniana tem a dizer?
Propõe-se um modelo para análise discursiva das interações com chatbots de IA à luz dos conceitos bakhtinianos em que se observa uma polifonia controlada, onde todas as vozes são reconciliadas num “diálogo simulado” que pode empobrecer o pensamento crítico. Defendemos a urgência de um letramento em IA considerando suas implicações ideológicas, políticas e educacionais. … Read More →
Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG)
Pesquisadores brasileiros lançam as Diretrizes para o uso ético e responsável da IAG: um guia prático para pesquisadores integrando princípios normativos e exemplos para fomentar a transparência, autoria humana, proteção de dados inéditos ou sensíveis, além de cuidados com integridade acadêmica e vieses em diferentes usos na pesquisa acadêmica. … Read More →























Últimos comentários