Tag: Inteligência Artificial

O relato “mais” transparente da pesquisa: uma cultura em evolução

Fotografia de várias esquadrias de vidro em cores e níveis de transparência variados

Há mais de duas décadas, Richard Horton, editor do The Lancet, trouxe à atenção questões intrigantes sobre a autoria científica e sua representação em artigos. Horton observou que o relato público da pesquisa nem sempre reflete divergências de opinião e interpretação de resultados entre os coautores. Revelar elementos desse “artigo oculto” vem sendo um processo essencial para o relato científico e a confiabilidade da pesquisa. É um processo em evolução que ganhará cada vez mais relevância no âmbito da pós-graduação, especialmente no contexto atual de produção intelectual cada vez mais permeado pela Inteligência Artificial Generativa. Read More →

Chega de Bardin? Um apelo à renovação da Análise de Conteúdo brasileira

Fotografia de pessoas trabalhando ao redor de uma mesa

A Análise de Conteúdo no Brasil vive um círculo vicioso centrado em Bardin com tutoriais que, não apenas replicam o seu modelo, mas também suas limitações, ignorando avanços em transparência, confiabilidade e replicabilidade, limitando o avanço do rigor científico nacional. Read More →

Linguística para uma inteligência artificial (IA) brasileira

Ilustração digital mostrando uma representação de um cérebro composta por circuitos.

A Plataforma da Diversidade Linguística Brasileira é uma proposta de curadoria de dados para treinar modelos de IA com dados estruturados do português e outras 250 línguas do país, atendendo diretamente ao Plano Brasileiro de Inteligência Artificial. A iniciativa busca reduzir custos ambientais, evitar vieses e criar tecnologias mais inclusivas para saúde, educação e serviços públicos. Read More →

Integridade científica e agência humana na pesquisa entremeada por IA Generativa

Fotografia de uma lousa onde foi escrito "ZCL-LLM-OPENAI".

A comunicação científica está passando por uma reconfiguração que, sob uma perspectiva conservadora, será tão paradigmática quanto a criação do primeiro periódico científico o Philosophical Transactions, em 1665. Sob uma perspectiva disruptiva, essa transformação poderá reconfigurar toda a cultura científica, redefinindo a autonomia de pesquisadores e instituições na produção e validação do conhecimento. Preservar a integridade e o rigor científico em projetos e publicações requer estratégias que vão além de políticas de transparência para pesquisadores que utilizam Inteligência Artificial Generativa. Read More →

Chatbots de IA e a simulação do diálogo: o que a teoria bakhtiniana tem a dizer?

Imagem: kuu akura via Unsplash.

Propõe-se um modelo para análise discursiva das interações com chatbots de IA à luz dos conceitos bakhtinianos em que se observa uma polifonia controlada, onde todas as vozes são reconciliadas num “diálogo simulado” que pode empobrecer o pensamento crítico. Defendemos a urgência de um letramento em IA considerando suas implicações ideológicas, políticas e educacionais. Read More →

Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG)

Recorte da capa do livro "Diretrizes para o uso ético e responsável da IAG: um guia prático para pesquisadores"

Pesquisadores brasileiros lançam as Diretrizes para o uso ético e responsável da IAG: um guia prático para pesquisadores integrando princípios normativos e exemplos para fomentar a transparência, autoria humana, proteção de dados inéditos ou sensíveis, além de cuidados com integridade acadêmica e vieses em diferentes usos na pesquisa acadêmica. Read More →

Por onde começar com a IA no gerenciamento de pesquisas [Publicado originalmente no LSE Impact Blog em dezembro/2024]

Imagem gerada pelo Google DeepMind. A imagem possui um fundo roxo e é possível ler "How do large language models work?" com uma breve descrição abaixo.

A IA generativa está tendo um efeito transformador no trabalho acadêmico, mas também está remodelando os serviços profissionais e os setores de gerenciamento de pesquisa que o apoiam. Aqui, Anna Aston discute onde a IA pode ser útil para o gerenciamento de pesquisas e as ferramentas que os gerentes de pesquisa podem usar em diferentes áreas de seu trabalho. Read More →

Uma análise dos fundamentos epistemológicos do aprendizado de máquina

Fotografia de uma mão robótica e uma mão humana se aproximando uma da outra em um fundo liso, quase tocando as pontas dos dedos.

Aqui é apresentada uma análise crítica dos fundamentos lógico-epistêmicos do aprendizado de máquina, com foco na limitação da autonomia dos sistemas de IA na geração de conhecimento. Ela contrasta essa possibilidade com as restrições teóricas impostas pelo teorema da incompletude de Chaitin, que argumenta que a IA não pode superar a capacidade cognitiva humana. Texto em inglês. Read More →

Como traduzir escrita acadêmica para podcasts usando IA generativa [Publicado originalmente no LSE Impact Blog em junho/2024]

Imagem de uma obra de arte composta por várias letras lilás em uma formação que parece uma nuvem, gerada pelo Google DeepMind

Um dos benefícios da IA generativa é a capacidade de transformar uma mídia de texto para fala, para imagens e para vídeo. Neste post, Andy Tattersall explora um aspecto dessa habilidade, transformando seu arquivo de posts em podcast, o Talking Threads, discute como e porque isso poderia ser benéfico para a comunicação de pesquisa. Read More →

Plataforma web pode revolucionar o processo de correção de redações

Imagem promocional do CRIA (corretor de redações por inteligência artificial), mostrando o logo da ferramenta, detalhes sobre suas funcionalidades e contatos das redes sociais, tudo sobre um fundo roxo.

Em busca de uma alternativa para o laborioso processo de correção de redações, mais especificamente em relação à identificação de fuga ao tema em redações, pesquisadores desenvolveram uma plataforma de feedback de textos que simula as diretrizes e notas do ENEM, o CRIA (Corretor de Redações por Inteligência Artificial). A ferramenta já está sendo utilizada por estudantes e profissionais da educação. Read More →

Agentes de IA, bots e GPTs acadêmicos

Imagem de uma obra de arte composta por várias pecinhas coloridas em formação geométrica, gerada pelo Google DeepMind

Os bots e GPTs acadêmicos são baseados em grandes modelos de linguagem, como o ChatGPT, desenhados e às vezes treinados para tarefas mais específicas. A ideia é que ao serem especializados, eles entregarão melhores resultados que os modelos “genéricos”. Este post apresenta alguns dos bots e GPTs acadêmicos. Read More →

Publicação em Large Language Model (LLM) [Publicado originalmente no blog Upstream em janeiro/2024]

Fotografia sobreposta de vários livros com as páginas dobradas em formato de avião sobre um fundo infinito preto.

O NYT iniciou o ano novo com uma ação judicial contra a OpenAI e a Microsoft. De acordo com o processo, a OpenAI e sua patrocinadora, a Microsoft, roubaram “milhões de artigos de notícias, investigações aprofundadas, artigos de opinião, resenhas, guias de instruções” e muito mais, protegidos por direitos autorais do The Times – tudo para treinar os LLMs da OpenAI. Read More →

A inteligência artificial tem alucinações?

Preenchimento de rede neural para "inteligência artificial", como feito pelo mini DALL-E.

Os aplicativos de IA têm demonstrado capacidades impressionantes, incluindo a geração de respostas muito fluentes e convincentes. No entanto, os LLMs, os chatbots e assim por diante são conhecidos por sua capacidade de gerar declarações não objetivas ou sem sentido, mais comumente conhecidas como “alucinações”. Será que eles estão usando drogas? Texto em espanhol. Read More →

A IA pode fazer uma avaliação confiável de artigos científicos?

Imagem de duas telas sobrepostas com palavras sobre um fundo roxo gerada pelo Google DeepMind

O custo da arbitragem de publicações científicas, tanto em termos de dinheiro quanto de tempo, está crescendo a proporções incontroláveis com os métodos atuais. É necessário usar a IA como um sistema de confiança e, assim, liberar recursos humanos para tarefas de pesquisa. Seria importante que o SciELO incorporasse progressivamente módulos de IA para avaliação em seu servidor de preprints como um avanço e desenvolvimento adicional das tecnologias que gerencia. Texto em espanhol. Read More →

Pesquisa e comunicação científica, IA e legislação iminente

Pirâmide de riscos em IA: na base da pirâme está o risco mínimo, acima está o risco limitado, seguido pelo alto risco e, no topo na pirâmide está o risco inaceitável.

A IA pode ser utilizada para gerar “papers” terroristas, espalhar vírus mortais ou aprender a fabricar bombas nucleares em casa? Existe legislação que nos possa proteger? Parece que regulamentação internacional está a caminho. Read More →