Tag: Inteligência Artificial

O Anel de Giges e a IA na ciência: Quando a invisibilidade desafia a integridade

Luzes desfocadas em efeito bokeh, formando uma composição abstrata

Se a IA pode ser usada sem ser detectada, como se sustenta a integridade científica? A partir da alegoria do Anel de Giges, este texto reflete sobre os limites da detecção, a proliferação de diretrizes e a necessidade de reposicionar o debate: da vigilância para a formação ética de pesquisadores. Read More →

A ascensão das publicações ‘predatórias’

Fotografia de linhas abstratas em tons neutros.

Nas últimas duas décadas, a publicação científica passou por uma transformação tecnológica e econômica que abriu espaço para modelos mais heterodoxos e, infelizmente, para práticas predatórias. Predatory publishing refere-se a periódicos e editoras que cobram (e muito caro) autores por publicar, afirmam práticas de revisão por pares e indexação que não existem ou são fraudadas e priorizam receita rápida em detrimento da qualidade científica. Read More →

Quem é o parteiro e quem é o parturiente? A perspectiva maiêutica para repensar autoria e responsabilidade epistêmica no uso de IA na produção científica

Fotografia de uma mão tocando uma lâmpada

A perspectiva maiêutica socrática oferece um enquadramento filosófico para repensar o uso de IA na produção científica. Em vez de um oráculo que fornece respostas, a IA pode ser uma parceira dialógica que ajuda pesquisadores a explicitar conhecimentos latentes e, assim, reposicionar a discussão sobre a autoria: o pesquisador permanece como agente epistêmico responsável, enquanto a IA atua como parteiro intelectual. Read More →

Integridade Científica na era da IA e os desafios da transparência: fraudes, manipulação e os novos desafios da transparência

Imagem digital de feixes de luz azuis.

A inteligência artificial transforma radicalmente os desafios da integridade científica. Das “paper mills” à geração automatizada de fraudes, vivemos uma crise que exige novas formas de transparência, detecção e governança para preservar a confiança na ciência, articulando tecnologia, reformas institucionais e cooperação internacional. Read More →

Os perigos do uso da IA na revisão por pares [Publicado originalmente no Hora Campinas em dezembro/2025]

Imagem de formas geométricas abstratas brancas e pretas em um fundo branco.

Dentro da minha vida acadêmica, estou sempre dos “dois lados do balcão”, como autor e avaliador. É um trabalho de alta responsabilidade pois temos o compromisso com a excelência da informação científica e aperfeiçoamento do artigo. Atualmente, autores podem usar genAI na preparação dos artigos com ressalvas, mas há restrições rígidas quanto ao uso na avaliação por pares. Read More →

O paradoxo da transparência no uso de IA generativa na pesquisa acadêmica

Fotografia de uma paisagem, vista por um vidro canelado

O uso da IA generativa na pesquisa acadêmica gera paradoxo entre transparência e credibilidade. Pesquisa revela que declarar o uso de IA, embora ético, pode diminuir a confiança no pesquisador. A falta de diretrizes claras e o estigma associado à IA dificultam a adoção da transparência necessária para garantir a integridade científica. Read More →

O relato “mais” transparente da pesquisa: uma cultura em evolução

Fotografia de várias esquadrias de vidro em cores e níveis de transparência variados

Há mais de duas décadas, Richard Horton, editor do The Lancet, trouxe à atenção questões intrigantes sobre a autoria científica e sua representação em artigos. Horton observou que o relato público da pesquisa nem sempre reflete divergências de opinião e interpretação de resultados entre os coautores. Revelar elementos desse “artigo oculto” vem sendo um processo essencial para o relato científico e a confiabilidade da pesquisa. É um processo em evolução que ganhará cada vez mais relevância no âmbito da pós-graduação, especialmente no contexto atual de produção intelectual cada vez mais permeado pela Inteligência Artificial Generativa. Read More →

Chega de Bardin? Um apelo à renovação da Análise de Conteúdo brasileira

Fotografia de pessoas trabalhando ao redor de uma mesa

A Análise de Conteúdo no Brasil vive um círculo vicioso centrado em Bardin com tutoriais que, não apenas replicam o seu modelo, mas também suas limitações, ignorando avanços em transparência, confiabilidade e replicabilidade, limitando o avanço do rigor científico nacional. Read More →

Linguística para uma inteligência artificial (IA) brasileira

Ilustração digital mostrando uma representação de um cérebro composta por circuitos.

A Plataforma da Diversidade Linguística Brasileira é uma proposta de curadoria de dados para treinar modelos de IA com dados estruturados do português e outras 250 línguas do país, atendendo diretamente ao Plano Brasileiro de Inteligência Artificial. A iniciativa busca reduzir custos ambientais, evitar vieses e criar tecnologias mais inclusivas para saúde, educação e serviços públicos. Read More →

Integridade científica e agência humana na pesquisa entremeada por IA Generativa

Fotografia de uma lousa onde foi escrito "ZCL-LLM-OPENAI".

A comunicação científica está passando por uma reconfiguração que, sob uma perspectiva conservadora, será tão paradigmática quanto a criação do primeiro periódico científico o Philosophical Transactions, em 1665. Sob uma perspectiva disruptiva, essa transformação poderá reconfigurar toda a cultura científica, redefinindo a autonomia de pesquisadores e instituições na produção e validação do conhecimento. Preservar a integridade e o rigor científico em projetos e publicações requer estratégias que vão além de políticas de transparência para pesquisadores que utilizam Inteligência Artificial Generativa. Read More →

Chatbots de IA e a simulação do diálogo: o que a teoria bakhtiniana tem a dizer?

Imagem: kuu akura via Unsplash.

Propõe-se um modelo para análise discursiva das interações com chatbots de IA à luz dos conceitos bakhtinianos em que se observa uma polifonia controlada, onde todas as vozes são reconciliadas num “diálogo simulado” que pode empobrecer o pensamento crítico. Defendemos a urgência de um letramento em IA considerando suas implicações ideológicas, políticas e educacionais. Read More →

Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG)

Recorte da capa do livro "Diretrizes para o uso ético e responsável da IAG: um guia prático para pesquisadores"

Pesquisadores brasileiros lançam as Diretrizes para o uso ético e responsável da IAG: um guia prático para pesquisadores integrando princípios normativos e exemplos para fomentar a transparência, autoria humana, proteção de dados inéditos ou sensíveis, além de cuidados com integridade acadêmica e vieses em diferentes usos na pesquisa acadêmica. Read More →

Por onde começar com a IA no gerenciamento de pesquisas [Publicado originalmente no LSE Impact Blog em dezembro/2024]

Imagem gerada pelo Google DeepMind. A imagem possui um fundo roxo e é possível ler "How do large language models work?" com uma breve descrição abaixo.

A IA generativa está tendo um efeito transformador no trabalho acadêmico, mas também está remodelando os serviços profissionais e os setores de gerenciamento de pesquisa que o apoiam. Aqui, Anna Aston discute onde a IA pode ser útil para o gerenciamento de pesquisas e as ferramentas que os gerentes de pesquisa podem usar em diferentes áreas de seu trabalho. Read More →

Uma análise dos fundamentos epistemológicos do aprendizado de máquina

Fotografia de uma mão robótica e uma mão humana se aproximando uma da outra em um fundo liso, quase tocando as pontas dos dedos.

Aqui é apresentada uma análise crítica dos fundamentos lógico-epistêmicos do aprendizado de máquina, com foco na limitação da autonomia dos sistemas de IA na geração de conhecimento. Ela contrasta essa possibilidade com as restrições teóricas impostas pelo teorema da incompletude de Chaitin, que argumenta que a IA não pode superar a capacidade cognitiva humana. Texto em inglês. Read More →

Como traduzir escrita acadêmica para podcasts usando IA generativa [Publicado originalmente no LSE Impact Blog em junho/2024]

Imagem de uma obra de arte composta por várias letras lilás em uma formação que parece uma nuvem, gerada pelo Google DeepMind

Um dos benefícios da IA generativa é a capacidade de transformar uma mídia de texto para fala, para imagens e para vídeo. Neste post, Andy Tattersall explora um aspecto dessa habilidade, transformando seu arquivo de posts em podcast, o Talking Threads, discute como e porque isso poderia ser benéfico para a comunicação de pesquisa. Read More →