Tag: Inteligência Artificial

A lanterna de Diógenes e o autoexame do pesquisador: integridade científica sob pressão

Fotografia de uma mão segurando uma lanterna acesa em meio à paisagem de floresta à luz do dia.

Utilizando a metáfora da lanterna de Diógenes, Ricardo Limongi e Marcio Pimenta discutem o fazer científico contemporâneo. Mais do que fazer uma crítica, a imagem da lanterna propõe uma reflexão mais profunda: como voltar a luz para si mesmo, exercitando o autoexame, a responsabilidade ética e a integridade ao mesmo tempo que se enfrenta um contexto, muitas vezes, desfavorável ao pesquisador no Brasil. Read More →

A bajulação na IA: o risco da complacência

Fotografia de dois homens conversando enquanto mexem em computadores sob uma mesa.

A bajulação é um comportamento observado na inteligência artificial, que dá prioridade a concordar com o utilizador em vez de à veracidade dos factos. Esta tendência decorre dos processos de treino concebidos para maximizar a satisfação humana, o que pode validar erros graves em setores críticos como a saúde. Este comportamento, descrito como uma forma de «adulação digital», implica que a IA pode validar erros, reforçar preconceitos ou evitar críticas necessárias, desde que resulte agradável ou útil de acordo com a perceção imediata do utilizador. Para mitigar estes riscos, foram propostas estratégias como o ajuste ético, a conceção de sistemas que promovam a discordância e a utilização de prompts neutros em relação aos utilizadores.
Read More →

O dilema do professor na era da IA: ensinamos o prompt ou o processo científico?

Fotografia de uma pessoa digitando em um laptop sobre uma mesa, vista de cima, com luz natural e mãos sobre o teclado.

A velocidade de adoção de ferramentas de IA generativa na pesquisa científica gerou uma demanda legítima por capacitação técnica. Pesquisadores querem  e precisam  saber usar essas tecnologias. O problema surge quando a capacitação se reduz ao ensino de atalhos, sem a compreensão dos processos subjacentes que conferem ao pesquisador a capacidade de avaliar criticamente o que a ferramenta produz. Read More →

O Anel de Giges e a IA na ciência: Quando a invisibilidade desafia a integridade

Luzes desfocadas em efeito bokeh, formando uma composição abstrata

Se a IA pode ser usada sem ser detectada, como se sustenta a integridade científica? A partir da alegoria do Anel de Giges, este texto reflete sobre os limites da detecção, a proliferação de diretrizes e a necessidade de reposicionar o debate: da vigilância para a formação ética de pesquisadores. Read More →

A ascensão das publicações ‘predatórias’

Fotografia de linhas abstratas em tons neutros.

Nas últimas duas décadas, a publicação científica passou por uma transformação tecnológica e econômica que abriu espaço para modelos mais heterodoxos e, infelizmente, para práticas predatórias. Predatory publishing refere-se a periódicos e editoras que cobram (e muito caro) autores por publicar, afirmam práticas de revisão por pares e indexação que não existem ou são fraudadas e priorizam receita rápida em detrimento da qualidade científica. Read More →

Quem é o parteiro e quem é o parturiente? A perspectiva maiêutica para repensar autoria e responsabilidade epistêmica no uso de IA na produção científica

Fotografia de uma mão tocando uma lâmpada

A perspectiva maiêutica socrática oferece um enquadramento filosófico para repensar o uso de IA na produção científica. Em vez de um oráculo que fornece respostas, a IA pode ser uma parceira dialógica que ajuda pesquisadores a explicitar conhecimentos latentes e, assim, reposicionar a discussão sobre a autoria: o pesquisador permanece como agente epistêmico responsável, enquanto a IA atua como parteiro intelectual. Read More →

Integridade Científica na era da IA e os desafios da transparência: fraudes, manipulação e os novos desafios da transparência

Imagem digital de feixes de luz azuis.

A inteligência artificial transforma radicalmente os desafios da integridade científica. Das “paper mills” à geração automatizada de fraudes, vivemos uma crise que exige novas formas de transparência, detecção e governança para preservar a confiança na ciência, articulando tecnologia, reformas institucionais e cooperação internacional. Read More →

Os perigos do uso da IA na revisão por pares [Publicado originalmente no Hora Campinas em dezembro/2025]

Imagem de formas geométricas abstratas brancas e pretas em um fundo branco.

Dentro da minha vida acadêmica, estou sempre dos “dois lados do balcão”, como autor e avaliador. É um trabalho de alta responsabilidade pois temos o compromisso com a excelência da informação científica e aperfeiçoamento do artigo. Atualmente, autores podem usar genAI na preparação dos artigos com ressalvas, mas há restrições rígidas quanto ao uso na avaliação por pares. Read More →

O paradoxo da transparência no uso de IA generativa na pesquisa acadêmica

Fotografia de uma paisagem, vista por um vidro canelado

O uso da IA generativa na pesquisa acadêmica gera paradoxo entre transparência e credibilidade. Pesquisa revela que declarar o uso de IA, embora ético, pode diminuir a confiança no pesquisador. A falta de diretrizes claras e o estigma associado à IA dificultam a adoção da transparência necessária para garantir a integridade científica. Read More →

O relato “mais” transparente da pesquisa: uma cultura em evolução

Fotografia de várias esquadrias de vidro em cores e níveis de transparência variados

Há mais de duas décadas, Richard Horton, editor do The Lancet, trouxe à atenção questões intrigantes sobre a autoria científica e sua representação em artigos. Horton observou que o relato público da pesquisa nem sempre reflete divergências de opinião e interpretação de resultados entre os coautores. Revelar elementos desse “artigo oculto” vem sendo um processo essencial para o relato científico e a confiabilidade da pesquisa. É um processo em evolução que ganhará cada vez mais relevância no âmbito da pós-graduação, especialmente no contexto atual de produção intelectual cada vez mais permeado pela Inteligência Artificial Generativa. Read More →

Chega de Bardin? Um apelo à renovação da Análise de Conteúdo brasileira

Fotografia de pessoas trabalhando ao redor de uma mesa

A Análise de Conteúdo no Brasil vive um círculo vicioso centrado em Bardin com tutoriais que, não apenas replicam o seu modelo, mas também suas limitações, ignorando avanços em transparência, confiabilidade e replicabilidade, limitando o avanço do rigor científico nacional. Read More →

Linguística para uma inteligência artificial (IA) brasileira

Ilustração digital mostrando uma representação de um cérebro composta por circuitos.

A Plataforma da Diversidade Linguística Brasileira é uma proposta de curadoria de dados para treinar modelos de IA com dados estruturados do português e outras 250 línguas do país, atendendo diretamente ao Plano Brasileiro de Inteligência Artificial. A iniciativa busca reduzir custos ambientais, evitar vieses e criar tecnologias mais inclusivas para saúde, educação e serviços públicos. Read More →

Integridade científica e agência humana na pesquisa entremeada por IA Generativa

Fotografia de uma lousa onde foi escrito "ZCL-LLM-OPENAI".

A comunicação científica está passando por uma reconfiguração que, sob uma perspectiva conservadora, será tão paradigmática quanto a criação do primeiro periódico científico o Philosophical Transactions, em 1665. Sob uma perspectiva disruptiva, essa transformação poderá reconfigurar toda a cultura científica, redefinindo a autonomia de pesquisadores e instituições na produção e validação do conhecimento. Preservar a integridade e o rigor científico em projetos e publicações requer estratégias que vão além de políticas de transparência para pesquisadores que utilizam Inteligência Artificial Generativa. Read More →

Chatbots de IA e a simulação do diálogo: o que a teoria bakhtiniana tem a dizer?

Imagem: kuu akura via Unsplash.

Propõe-se um modelo para análise discursiva das interações com chatbots de IA à luz dos conceitos bakhtinianos em que se observa uma polifonia controlada, onde todas as vozes são reconciliadas num “diálogo simulado” que pode empobrecer o pensamento crítico. Defendemos a urgência de um letramento em IA considerando suas implicações ideológicas, políticas e educacionais. Read More →

Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG)

Recorte da capa do livro "Diretrizes para o uso ético e responsável da IAG: um guia prático para pesquisadores"

Pesquisadores brasileiros lançam as Diretrizes para o uso ético e responsável da IAG: um guia prático para pesquisadores integrando princípios normativos e exemplos para fomentar a transparência, autoria humana, proteção de dados inéditos ou sensíveis, além de cuidados com integridade acadêmica e vieses em diferentes usos na pesquisa acadêmica. Read More →