Algo grande está acontecendo na ciência mundial e o Brasil parece estar de fora novamente

Por Rafael Cardoso Sampaio e Manoel Galdino

Em fevereiro de 2026, a OpenAI e a Anthropic lançaram novos modelos no mesmo dia. Matt Shumer, cofundador de uma empresa de IA aplicada, publicou um texto viral com o título “Something Big Is Happening1 Shumer comparou o momento a fevereiro de 2020, quando quase ninguém prestava atenção a um vírus que, três semanas depois, mudaria o mundo. Ele descreveu como já não precisava executar o trabalho técnico de sua empresa. Bastava descrever o que queria em linguagem natural, sair para caminhar e voltar para encontrar o produto pronto. Os modelos recentes tinham algo que ele chamou de “julgamento” e “gosto”, a capacidade de saber qual é a decisão certa sem precisar ser instruído sobre cada detalhe.

Esse texto é sobre uma mudança em andamento na pesquisa científica global, acelerada por esses avanços, e sobre como o Brasil parece estar, mais uma vez, alheio a ela.

O que está sendo dito lá fora

Nas últimas semanas, pesquisadores de diversas áreas publicaram reflexões sobre o impacto dos agentes de IA (Inteligência Artificial) na pesquisa acadêmica. Não se trata de chatbots como o ChatGPT na versão gratuita. A categoria em questão são os “agentes de codificação” (coding agents), como o Claude Code, o Codex da OpenAI e o Antigravity da Google. Esses agentes escrevem código, executam scripts, coletam dados, analisam resultados, geram visualizações e redigem textos de forma autônoma.

Acadêmicos de várias disciplinas têm relatado mudanças que, até pouco tempo atrás, pareceriam improváveis, a exemplo de replicações quase perfeitas de artigos empíricos, produção de textos academicamente plausíveis em poucas horas, geração de resultados sedutores porém enganosos, criação de pacotes em R documentado e funcional e automatização de infraestrutura de pesquisa antes muito custosa.

Andy Hall, como descrito no post The 100x Research Institution2 entregou ao Claude Code um artigo próprio sobre voto por correio e pediu que o agente replicasse os resultados com dados novos. Uma auditoria independente, feita por Graham Straus, doutorando da UCLA, mostrou que as estimativas da IA ficaram muito próximas das humanas. Houve erros, mas o agente produziu em menos de uma hora, por cerca de dez dólares, um trabalho que levou dias para ser verificado.

Yascha Mounk narra em seu texto The Humanities Are About to Be Automated3, como usou o Claude Opus 4.6 para produzir um artigo acadêmico completo de teoria política em menos de duas horas. O resultado, nas palavras de Mounk, era “Rafael Cardoso Sampaio e Manoel Galdino“, um artigo que, com revisões menores, poderia ser publicado em um periódico sério da área.

Alexander Kustov, cientista político, publicou em março de 2026 dez teses para colegas que ainda não haviam percebido o  “chão se movendo”, em seu texto You should be freaking out about AI4. A IA já consegue fazer pesquisa em ciências sociais melhor do que a maioria dos professores.

Solomon Messing e Joshua Tucker, da Brookings Institution, publicaram um artigo com título que resume o clima: “The train has left the station5.” Em um mês, usaram agentes para transformar um método de análise em um pacote de R funcional e documentado, produzir um resumo de 20 páginas com visualizações e desenvolver a infraestrutura completa de um estudo piloto em cinco idiomas.

Paulo Carvão, colunista da Forbes, ofereceu a contraparte crítica em seu texto The Problem With Tech’s Latest ‘Something Big Is Happening’ Manifesto6. Reconheceu que a tecnologia é real, mas argumentou que o enquadramento de Shumer se aproximava de um discurso de vendas. Quando cada manifesto sobre IA termina com um convite para assinar o plano mais caro de uma ferramenta, é razoável desconfiar.

Esse é o panorama. Pesquisadores de universidades de prestígio nos Estados Unidos, na Europa e no Canadá estão debatendo se a pesquisa acadêmica como a conhecemos sobreviverá aos próximos cinco anos. Estão testando agentes, publicando resultados e ajustando suas práticas. A conversa é intensa, diversa e está acontecendo em tempo real.

O ponto de inflexão

Vale reconhecer que, até poucos meses atrás, era razoável olhar para a IA generativa com ceticismo pragmático. Os primeiros grandes modelos de linguagem alucinavam com frequência, inventavam referências bibliográficas, erravam contas básicas e produziam textos que pareciam plausíveis na superfície mas desmoronavam sob escrutínio. Muitos pesquisadores testaram o ChatGPT em 2023 ou 2024, constataram suas limitações e concluíram que a ferramenta não servia para trabalho sério. Essa avaliação estava correta naquele momento.

O problema é que esse momento já passou. Os modelos de fevereiro de 2026 são irreconhecíveis em relação aos de um ano atrás. A organização METR, que mede a duração de tarefas do mundo real que a IA consegue completar de ponta a ponta sem ajuda humana, em seu texto Task-Completion Time Horizons of Frontier AI Models7 registrou um avanço exponencial. Há cerca de um ano, a resposta era de aproximadamente dez minutos. Passou para uma hora e, depois, para várias horas. A medição mais recente, com o Claude Opus 4.5, mostrou a IA completando tarefas que levariam a um especialista humano quase cinco horas. E esse número vem dobrando a cada sete meses, com dados recentes sugerindo aceleração para cada quatro meses.

Mas não se trata apenas de velocidade. A mudança real, o ponto de inflexão, está na passagem do paradigma de chatbot para o paradigma de agente, como Marcos Antonio demonstra em seu texto Claude Code + TecJustiça: O Assistente Jurídico que Pensa, Age e Entrega Resultados8. Um chatbot conversa,  responde perguntas, sugere textos, resume documentos. Um agente atua (age!), logo recebe uma tarefa complexa, decompõe-na em etapas, executa cada etapa autonomamente (escrevendo e rodando código, coletando dados, gerando gráficos, redigindo texto), verifica seus próprios resultados e itera até considerar o trabalho concluído. A diferença não é de grau. É de natureza.

E essa diferença tem implicações diretas para a pesquisa científica. Quando Andy Hall relata que o Claude Code replicou e estendeu um estudo empírico inteiro em menos de uma hora, com resultados auditados que correlacionaram acima de 0,999 com o trabalho manual, não estamos mais no território da curiosidade tecnológica. Estamos no território da reorganização da produção científica.

O silêncio brasileiro

Nas semanas em que esses textos foram publicados, procuramos sistematicamente por reflexões equivalentes em português. Buscamos no Medium, no Substack, em blogs acadêmicos, em listas de discussão e em grandes jornais. O cenário é de quase silêncio absoluto. Com a exceção da excelente coluna de Alexandre Chiavegatto Filho, especialista em aprendizado de máquina na área de saúde, que já publicou alguns textos sobre os limites da capacidade de tais sistemas em Será que existe limite para a inteligência dos algoritmos de IA?9, aceleração das descobertas científicas através do uso de IA em Descobertas científicas com IA estão começando a virar realidade10, e sobre cientistas de IA, em IA com visão de mundo  e IA cientista: o que esperar da Inteligência Artificial em 202611, além do texto Claude Code: Uma revolução na pesquisa empírica em ciências sociais?12,escrito por um de nós. O restante que vimos foi feito na lógica de venda de cursos de escrita ou pesquisa com IA, como no exemplo Da revisão bibliográfica à escrita — Claude faz tudo isso GRATUITAMENTE13. Portanto, poucos textos críticos, poucas trocas no espaço público. Em um universo de centenas de milhares de pesquisadores brasileiros ativos.

Em nossa opinião, esse silêncio não é acidental. Ele reflete um padrão que se repete toda vez que uma mudança tecnológica de grande porte atinge a academia. O Brasil chega atrasado, não por falta de competência, mas por uma combinação de barreiras estruturais, falta de informação e uma certa resistência institucional à adoção de novas ferramentas.

Um exemplo ajuda a dimensionar o problema. Em uma palestra recente em um programa de pós-graduação em demografia, um de nós perguntou a uma plateia de cerca de 50 alunos, muitos deles pesquisadores em atividade, quantos sabiam o que era o Claude Code. Duas pessoas levantaram a mão. Duas em cinquenta. Não estamos falando de uma ferramenta obscura, mas do agente de codificação mais discutido na comunidade científica internacional nos últimos meses, objeto de textos na Brookings Institution, tema de capa de newsletters com dezenas de milhares de assinantes. E 96% de uma turma de pós-graduação em um programa de referência nunca tinha ouvido falar dele.

Enquanto isso, o debate público brasileiro sobre IA continua centrado na regulação. Um de nós escreveu sobre isso em texto anterior, Para que o Brasil não se torne cativo do ChatGPT14, argumentando que o Brasil corre o risco de se tornar cativo do ChatGPT se não construir capacidade própria em IA. A discussão sobre IA no Brasil é predominantemente jurídica e regulatória. Não queremos dizer que essa discussão seja irrelevante, mas ela acontece em paralelo a uma quase completa ausência de debate sobre o que a IA generativa, e agora os agentes de IA, estão fazendo com a prática da pesquisa científica.

Parece paradoxal que um país que produz ciência de qualidade reconhecida internacionalmente, que mantém programas de pós-graduação robustos e que tem pesquisadores publicando em periódicos de alto impacto em diversas áreas, simplesmente não esteja acompanhando uma mudança que seus pares no exterior consideram a mais relevante em décadas para a forma de se fazer ciência.

O problema do custo e do acesso

Aqui a contradição se torna mais aguda para o contexto brasileiro. As ferramentas mais poderosas não são gratuitas. A assinatura mais avançada do Claude (Claude Max) custa 200 dólares por mês. Ao câmbio atual, isso equivale a mais de mil reais. Por mês. Para um professor adjunto de uma universidade federal brasileira destinar cerca de 10% da renda a uma assinatura de IA não é uma decisão trivial. Para um doutorando com bolsa CAPES, isso seria um terço de sua bolsa e para um mestrando seria metade de seus ganhos, ou seja, é simplesmente inviável. E mesmo a versão paga mais básica do Claude ou ChatGPT, a 20 dólares por mês, representa um gasto relevante para os discentes.

O cenário incentiva um aumento ainda maior das desigualdades, em que pesquisadores em universidades americanas e europeias, que já ocupam o centro da produção científica global, ganham acesso a ferramentas que multiplicam sua produtividade por um fator que Andy Hall estima em 100x. Pesquisadores brasileiros, que já enfrentam desvantagens estruturais em termos de financiamento, acesso a dados e inserção em redes internacionais, ficam sem acesso às mesmas ferramentas, ou com acesso a versões menos capazes.

Para pesquisadores do Sul Global, que já são “ilustres desconhecidos lá fora”, a perspectiva é sombria. Se a produção científica acelerada por IA aumentar drasticamente o volume de submissões em periódicos internacionais, e se as redes de conexão pessoal voltarem a pesar mais na decisão editorial (como já pesaram antes do peer review moderno), quem não construiu essas redes no passado terá ainda mais dificuldade de publicar no futuro.

A distância entre o centro e a periferia da produção acadêmica mundial, que já era grande, pode aumentar consideravelmente nos próximos anos, não porque os pesquisadores brasileiros sejam menos competentes, mas porque não terão acesso às mesmas ferramentas.

O dilema do financiamento

Suponhamos que uma universidade ou agência de fomento brasileira decida enfrentar o problema e bancar assinaturas de agentes de IA para seus pesquisadores. A 200 dólares por mês por pesquisador, uma universidade com 500 pesquisadores ativos gastaria 100 mil dólares por mês, ou 1,2 milhão de dólares por ano. Esse dinheiro iria diretamente para a Anthropic, a OpenAI ou o Google. Empresas americanas, sediadas nos Estados Unidos, operando sob legislação americana.

A contradição é que o investimento público brasileiro em pesquisa, já insuficiente, passaria a alimentar as mesmas big techs que concentram poder sobre a infraestrutura cognitiva global, um problema já evidente no Brasil, como aponta Jamil Chade em seu texto Estado brasileiro gastou R$ 10 bi com Big Techs em 1 ano, alertam entidades15.  O cenário dos agentes de codificação agrava esse risco. Não se trata mais apenas de usar o ChatGPT para redigir e-mails ou resumir artigos. Trata-se de delegar a execução inteira de pedaços de projetos de pesquisa a sistemas controlados por empresas estrangeiras, com termos de uso que podem mudar a qualquer momento e com acesso aos dados, prompts e resultados dos pesquisadores brasileiros.

Esse dilema não tem solução simples. Não usar essas ferramentas significa ficar para trás; adotá-las sem estratégia significa aprofundar a dependência. Mas o problema não é apenas de acesso, mas também de diagnóstico. Antes de decidir como reagir, precisamos entender melhor que tipo de automação esses agentes introduzem no trabalho acadêmico.

Uma maneira útil de pensar o problema aparece no working paper O-Ring Automation16,dos economistas Joshua Gans e Avi Goldfarb. O ponto central é que, em muitas ocupações, o trabalho não é uma soma de tarefas independentes, mas um conjunto de etapas complementares. Quando a IA automatiza algumas delas, o efeito não é necessariamente substituir proporcionalmente o trabalhador. Pode ser, em vez disso, liberar tempo e atenção para as etapas restantes — justamente aquelas em que o julgamento humano continua sendo mais importante.

Isso ajuda a pensar a pesquisa acadêmica. Escrever um artigo envolve formular a pergunta de pesquisa, escolher o desenho do trabalho, analisar evidências, redigir textos, revisar, responder a críticas e recalibrar argumentos. Se os agentes automatizam partes desse processo, o principal efeito pode não ser eliminar o pesquisador, mas deslocar seu esforço para as etapas em que ele agrega mais valor.

Na escrita, por exemplo, a IA pode reduzir o custo do primeiro rascunho e da reorganização de trechos. Isso não elimina o trabalho humano relevante e pode inclusive aumentar o peso relativo da edição substantiva, da calibragem argumentativa e da interpretação da literatura.

Nessa perspectiva, o ganho da IA na academia não está em substituir integralmente o trabalho humano, mas em redistribuí-lo: menos tempo gasto em etapas mais rotineiras, mais tempo concentrado nas partes do processo em que o julgamento do pesquisador agrega mais valor.

Para além de políticas de acesso, investimento em modelos abertos e infraestrutura computacional própria, o enquadramento de Gans e Goldfarb sugere uma agenda mais concreta: experimentar. Se o trabalho acadêmico é composto por tarefas complementares, então a questão não é “automatizar a pesquisa” em abstrato, mas descobrir, na prática, como torná-la útil e mitigar seus riscos.

Os agentes erram e isso importa

Seria irresponsável apresentar esse cenário sem tratar dos problemas. Gans relatou ter passado dias convencido de uma descoberta que não existia. O modelo havia produzido resultados matematicamente incorretos com a confiança de quem tem certeza absoluta. LLMs são treinados para parecer convincentes, não para ter razão.

Messing e Tucker documentaram riscos de segurança. Um dos autores pediu a um agente que organizasse arquivos de dados e descobriu que a IA havia deletado metade deles. Há relatos de agentes que ingerem chaves de segurança armazenadas em diretórios locais. A qualidade do output também degrada em sessões longas. O próprio Hall, cujo experimento teve resultados impressionantes, documentou falhas. O agente deixou de incluir corridas eleitorais relevantes, não rodou cálculos que tinha condições de rodar e documentou mal decisões de coleta. Quando tentou ir além da replicação, a qualidade caiu.

Nada disso invalida o uso dessas ferramentas. Mas exige uma competência que ainda não faz parte do treinamento padrão de pesquisadores brasileiros, nem da maioria dos pesquisadores em qualquer lugar. Saber usar um agente de IA para pesquisa envolve saber formular instruções precisas, verificar resultados, identificar quando o agente está inventando algo e reconhecer quando parar e fazer o trabalho com métodos mais tradicionais.

O que fazer com tudo isso

Não queremos terminar este texto com o argumento do meio-termo equilibrado, aquele em que se diz que a tecnologia tem riscos e oportunidades e que o futuro depende de como a usarmos. Isso é verdade, mas é vago demais para ser útil. Também não queremos o argumento apocalíptico, de que a IA vai destruir a pesquisa ou substituir pesquisadores e que não há nada a fazer.

O enquadramento de Gans e Goldfarb é útil porque desloca a discussão da pergunta errada — se a IA vai ou não “substituir o pesquisador” — para a pergunta certa: em quais tarefas do trabalho acadêmico a automação gera mais ganho, em quais ela aumenta riscos e em quais ela eleva o valor do julgamento humano. Essa não é uma questão que pode ser resolvida apenas por intuição ou entusiasmo tecnológico. Ela exige experimentação sistemática.

Em vez de imaginar uma adoção uniforme, pesquisadores, programas de pós-graduação e agências de fomento precisarão aprender, por tentativa, erro e comparação, que partes do processo de pesquisa valem mais a pena automatizar. A resposta provavelmente não será a mesma para todas as áreas, métodos e etapas do trabalho científico. Em algumas disciplinas, o ganho pode estar na coleta, limpeza e documentação de dados; em outras, na prototipagem de código, na produção de gráficos ou na preparação de primeiras versões de texto. Em contrapartida, tarefas como definição da pergunta, avaliação de plausibilidade causal, interpretação substantiva dos resultados e edição argumentativa podem se tornar ainda mais centrais e importantes.

Isso também significa que o problema não é apenas acesso à ferramenta, mas difusão de protocolos. Como pedir a um agente que documente tudo o que fez? Como limitar sua autonomia para evitar deleções, vazamentos ou inferências espúrias? Como checar o que ele produziu antes de incorporar ao artigo? O desafio brasileiro não é só colocar essas ferramentas na mão dos pesquisadores, mas acelerar a circulação de boas práticas sobre quando usá-las, como supervisioná-las e onde não confiar nelas.

Para que o Brasil possa aproveitar o que a IA tem a oferecer, será preciso muita experimentação, compartilhamento de aprendizados e boas práticas, tendo em vista a nossa realidade. Afinal, temos massa crítica de pesquisadores competentes, temos instituições de pesquisa consolidadas e temos experiência em adaptar criativamente tecnologias a contextos de restrição de recursos. O que falta, neste momento, é atenção e difusão ampla das inovações. Falta que pesquisadores brasileiros acompanhem o que está acontecendo, testem as ferramentas, debatam os riscos e as oportunidades, pressionem agências de fomento por políticas de acesso e formem seus alunos para um cenário que já está se configurando.

Isso também terá de chegar às instituições de avaliação. Programas de pós-graduação, agências de fomento e periódicos precisarão distinguir melhor entre automação produtiva, automação irresponsável e mera inflação artificial de produtividade.

A cada mês que passa sem que isso aconteça, a distância aumenta. Não porque o Brasil não consiga fazer ciência de qualidade, mas porque os pesquisadores do outro lado do mundo estão fazendo a mesma ciência com ferramentas que multiplicam sua capacidade por ordens de magnitude. E nós, por enquanto, continuamos como se nada estivesse acontecendo.

Notas

1. SHUMER, M. Something Big Is Happening [online]. Matt shumer, 2026. [viewed 22 April 2026]. Available from: https://shumer.dev/something-big-is-happening

2. HALL, A. The 100x Research Institution [online]. Free Systems, 2026 [viewed 22 April 2026]. Available from: https://freesystems.substack.com/p/the-100x-research-institution

3. MOUNK, Y. The Humanities Are About to Be Automated [online]. Persuation , 2026 [viewed 22 April 2026]. Available from: https://www.persuasion.community/p/the-humanities-are-about-to-be-automated

4. RUTAR, T. You should be freaking out about AI [online]. Political Economy, Stats and Society, 2026. [viewed 22 April 2026]. Available from: https://statsandsociety.substack.com/p/you-should-absolutely-be-freaking

5. SOLOMON, M. and TUCKER, J. The train has left the station: Agentic AI and the future of social science research [online]. Brookings Institution. 2026. [viewed 22 April 2026]. Available from: https://www.brookings.edu/articles/the-train-has-left-the-station-agentic-ai-and-the-future-of-social-science-research/

6. CARVÃO, P. The problem with Tech’s Latest ‘Something Big Is Happening’ Manifesto [online]. Forbes, 2026. [viewed 22 April 2026]. Available from: https://www.forbes.com/sites/paulocarvao/2026/02/13/the-problem-with-techs-latest-something-big-is-happening-manifesto/

7. Task-Completion Time Horizons of Frontier AI Models [online]. METR. 2026 [viewed 22 April 2026]. Available from: https://metr.org/time-horizons/

8. Claude Code + TecJustiça: O Assistente Jurídico que Pensa, Age e Entrega Resultados. TecJustiça, 2026 [viewed 22 April 2026]. Available from: https://tecjustica.substack.com/p/claude-code-tecjustica-o-assistente

9. FILHO , A. C. Será que existe limite para a inteligência dos algoritmos de IA?. Estadão. 2026 [viewed 22 April 2026]. Available from: https://www.estadao.com.br/economia/alexandre-chiavegatto-filho/sera-que-existe-limite-para-a-inteligencia-dos-algoritmos-de-ia/

10. FILHO , A. C. Descobertas científicas com IA estão começando a virar realidade. Estadão. 2026 [viewed 22 April 2026]. Available from: https://www.estadao.com.br/economia/alexandre-chiavegatto-filho/descobertas-cientificas-com-ia-estao-comecando-a-virar-realidade/

11. FILHO , A. C. IA com visão de mundo  e IA cientista: o que esperar da Inteligência Artificial em 2026. Estadão. 2025 [viewed 22 April 2026]. Available from: https://www.estadao.com.br/economia/alexandre-chiavegatto-filho/ia-com-visao-de-mundo-e-ia-cientista-o-que-esperar-da-inteligencia-artificial-em-2026/

12. GALDINO, M. Claude Code: Uma revolução na pesquisa empírica em ciências sociais? Relações Internacionais e Métodos. 2026 [viewed 22 April 2026]. Available from: https://metodosri.substack.com/p/claude-code

13. FONSECA, D. Da revisão bibliográfica à escrita — Claude faz tudo isso GRATUITAMENTE. escritamestranews. 2026 [viewed 22 April 2026]. Available from: https://escritamestranews.substack.com/p/da-revisao-bibliografica-a-escrita

14. SAMPAIO, R.C. Para que o Brasil não se torne cativo do ChatGPT. Outras Palavras. 2026 [viewed 22 April 2026]. Available from: https://outraspalavras.net/tecnologiaemdisputa/para-que-o-brasil-nao-se-torne-cativo-do-chatgpt/

15. CHADE, J. Estado brasileiro gastou R$ 10 bi com Big Techs em 1 ano, alertam entidades. UOL. 2025 [viewed 22 April 2026]. Available from: https://noticias.uol.com.br/colunas/jamil-chade/2025/07/23/estado-brasileiro-gastou-r-10-bi-com-big-techs-em-1-ano-alertam-entidades.htm

16. GANS, J. S. and GOLDFARB, A. O-Ring Automation. National Bureau of Economic Research (NBER) [online]. 2026 [viewed 22 April 2026]. https://doi.org/10.3386/w34639. Available from: https://www.nber.org/papers/w34639

Links Externos

Da revisão bibliográfica à escrita — Claude faz tudo isso GRATUITAMENTE

Referências

CARVÃO, P. The problem with Tech’s Latest ‘Something Big Is Happening’ Manifesto [online]. Forbes, 2026. [viewed 22 April 2026]. Available from: https://www.forbes.com/sites/paulocarvao/2026/02/13/the-problem-with-techs-latest-something-big-is-happening-manifesto/

CHADE, J. Estado brasileiro gastou R$ 10 bi com Big Techs em 1 ano, alertam entidades. UOL. 2025 [viewed 22 April 2026]. Available from: https://noticias.uol.com.br/colunas/jamil-chade/2025/07/23/estado-brasileiro-gastou-r-10-bi-com-big-techs-em-1-ano-alertam-entidades.htm

Claude Code + TecJustiça: O Assistente Jurídico que Pensa, Age e Entrega Resultados. TecJustiça, 2026 [viewed 22 April 2026]. Available from: https://tecjustica.substack.com/p/claude-code-tecjustica-o-assistente

FILHO , A. C. Será que existe limite para a inteligência dos algoritmos de IA?. Estadão. 2026 [viewed 22 April 2026]. Available from: https://www.estadao.com.br/economia/alexandre-chiavegatto-filho/sera-que-existe-limite-para-a-inteligencia-dos-algoritmos-de-ia/

FILHO , A. C. Descobertas científicas com IA estão começando a virar realidade. Estadão. 2026 [viewed 22 April 2026]. Available from: https://www.estadao.com.br/economia/alexandre-chiavegatto-filho/descobertas-cientificas-com-ia-estao-comecando-a-virar-realidade/

FILHO , A. C. IA com visão de mundo  e IA cientista: o que esperar da Inteligência Artificial em 2026. Estadão. 2025 [viewed 22 April 2026]. Available from: https://www.estadao.com.br/economia/alexandre-chiavegatto-filho/ia-com-visao-de-mundo-e-ia-cientista-o-que-esperar-da-inteligencia-artificial-em-2026/

FONSECA, D. Da revisão bibliográfica à escrita — Claude faz tudo isso GRATUITAMENTE. escritamestranews. 2026 [viewed 22 April 2026]. Available from: https://escritamestranews.substack.com/p/da-revisao-bibliografica-a-escrita

GALDINO, M. Claude Code: Uma revolução na pesquisa empírica em ciências sociais? Relações Internacionais e Métodos. 2026 [viewed 22 April 2026]. Available from: https://metodosri.substack.com/p/claude-code

GANS, J. S. and GOLDFARB, A. O-Ring Automation. National Bureau of Economic Research (NBER) [online]. 2026 [viewed 22 April 2026]. https://doi.org/10.3386/w34639. Available from: https://www.nber.org/papers/w34639

HALL, A. The 100x Research Institution [online]. Free Systems, 2026 [viewed 22 April 2026]. Available from: https://freesystems.substack.com/p/the-100x-research-institution

MOUNK, Y. The Humanities Are About to Be Automated [online]. Persuation , 2026 [viewed 22 April 2026]. Available from: https://www.persuasion.community/p/the-humanities-are-about-to-be-automated

RUTAR, T. You should be freaking out about AI [online]. Political Economy, Stats and Society, 2026. [viewed 22 April 2026]. Available from: https://statsandsociety.substack.com/p/you-should-absolutely-be-freaking

SHUMER, M. Something Big Is Happening [online]. Matt shumer, 2026. [viewed 22 April 2026]. Available from: https://shumer.dev/something-big-is-happening

SOLOMON, M. and TUCKER, J. The train has left the station: Agentic AI and the future of social science research [online]. Brookings Institution. 2026. [viewed 22 April 2026]. Available from: https://www.brookings.edu/articles/the-train-has-left-the-station-agentic-ai-and-the-future-of-social-science-research/

 

Sobre Rafael Cardoso Sampaio

Rafael Cardoso Sampaio é professor do departamento de Ciência Política da Universidade Federal de Pernambuco. É bolsista em produtividade do CNPq. É um dos autores, com Marcelo Sabbatini e Ricardo Limongi, do livro “Diretrizes para o uso ético e responsável da inteligência artificial generativa: um guia prático para pesquisadores” publicado pela editora Intercom.

 

Sobre Manoel Galdino

Manoel Galdino é professor do departamento de Ciência Política da Universidade de São Paulo. É coordenador do Laboratório de Ciências Sociais Computacionais e Experimentais da USP, pesquisador do CAENI-USP e conselheiro das organizações Transparência Brasil e Instituto Não Aceito Corrupção.

 

Como citar este post [ISO 690/2010]:

Algo grande está acontecendo na ciência mundial e o Brasil parece estar de fora novamente [online]. SciELO em Perspectiva, 2026 [viewed ]. Available from: https://blog.scielo.org/blog/2026/04/22/algo-grande-esta-acontecendo-na-ciencia-mundial-e-o-brasil-parece-estar-de-fora-novamente/

 

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Post Navigation