Por Ricardo Limongi França Coelho e Luis Carlos Coelho
Introdução

Imagem:
Liah Martens via Unsplash.
A emergência da inteligência artificial generativa (IA) na produção científica tem suscitado debates intensos sobre integridade, transparência e, sobretudo, autoria. Estudos recentes indicam que o uso de modelos de linguagem em artigos científicos cresceu exponencialmente: análises de grandes corpora identificaram evidências de modificação por IA em até 22,5% dos resumos de ciência da computação. Periódicos científicos de alto impacto, editoras e organizações de ética em publicação têm se posicionado de forma relativamente consensual: sistemas de IA não podem ser listados como autores. Contudo, para além das diretrizes normativas, permanece uma questão filosófica fundamental: qual é a natureza da relação entre pesquisador e IA no processo de produção do conhecimento?
Este texto propõe que a perspectiva maiêutica socrática,o método do “parto de ideias”, queoferece um enquadramento conceitual fecundo para repensar essa relação. Mais do que uma ferramenta de extração de informações, a IA pode ser compreendida como interlocutora dialógica que auxilia pesquisadores a articularem conhecimentos que já carregam em gestação.
A maiêutica como metáfora para a produção do conhecimento
O termo “maiêutica” deriva do grego maieutikós, que significa “arte de partejar”. Sócrates utilizou essa metáfora deliberadamente: assim como sua mãe, Fenarete, era parteira e ajudava mulheres a darem à luz crianças, ele se via como um parteiro de ideias, auxiliando seus interlocutores a darem à luz conhecimentos que já carregavam dentro de si, mas que ainda não haviam articulado nem tornado conscientes.
O método funciona essencialmente por meio de perguntas sucessivas. Em vez de transmitir conhecimento diretamente, Sócrates questionava seus interlocutores de modo a fazê-los examinar suas próprias crenças, identificar contradições em seus raciocínios e, gradualmente, chegar a compreensões mais refinadas. O pressuposto subjacente é que o conhecimento genuíno não pode ser simplesmente depositado em alguém de fora, mas deve emergir de um processo ativo de reflexão e de descoberta pessoal.
Essa perspectiva traz implicações profundas para a discussão sobre IA e autoria científica. Se o conhecimento genuíno emerge de um processo dialógico de questionamento e reflexão, então a questão central não é se a IA participou da produção do texto, mas como participou e, fundamentalmente, quem permanece responsável pelo conhecimento produzido.
Da extração à reflexão: reposicionando a relação pesquisador-IA
O uso predominante de sistemas de IA generativa na academia tem seguido uma lógica instrumental: a IA é tratada como um oráculo que fornece respostas prontas: textos, resumos, análises, códigos. Essa abordagem, que poderíamos chamar de extrativista, posiciona o pesquisador como consumidor passivo de outputs gerados pela máquina. Como alertam Birhane, et al. (2023) no artigo Science in the age of large language models1, publicado na Nature Reviews Physics, os modelos de linguagem de grande escala introduzem riscos significativos para a ciência, incluindo a possibilidade de erosão do pensamento crítico e da originalidade.
A perspectiva maiêutica sugere um reposicionamento radical dessa relação. Em vez de extrair respostas, o pesquisador pode usar a IA como parceira dialógica que o ajuda a explicitar, examinar e refinar ideias em gestação. O processo iterativo de prompting torna-se, assim, uma forma contemporânea de diálogo socrático: cada resposta da IA não é um ponto final, mas um estímulo a nova reflexão.
Nessa perspectiva, a IA assume o papel de “parteira”: faz perguntas, oferece perspectivas alternativas, identifica lacunas no raciocínio, desafia pressupostos. Mas quem “dá à luz” ao conhecimento continua sendo o pesquisador. A responsabilidade epistêmica, a capacidade e a obrigação de responder pelo conhecimento produzido permanece intransferível. Como argumenta Lloyd (2025) em Epistemic responsibility: toward a community standard for human-AI collaborations2, é necessário desenvolver padrões comunitários para colaborações humano-IA que preservem essa responsabilidade epistêmica.
Autoria e responsabilidade epistêmica: o consenso emergente
As principais organizações de ética em publicação científica convergem em um ponto fundamental: sistemas de IA não podem ser autores, pois não podem assumir responsabilidade. O COPE Council (2023)3 estabeleceu, em seu posicionamento oficial, que ferramentas de IA não satisfazem os requisitos de autoria porque “não podem ser responsabilizadas pelo trabalho” nem “gerenciar questões relacionadas à precisão, integridade e originalidade”. Na mesma direção, Hosseini, Rasmussen e Resnik (2023)4 argumentam em Using AI to write scholarly publications, que sistemas de processamento de linguagem natural não podem ser considerados autores por não possuírem agência moral.
O periódico Science foi categórico ao afirmar, por meio de seu editor-chefe, que “texto gerado por IA é (…) análogo a plágio” (Thorp, 2023, p. 313)5. A Nature estabeleceu suas próprias diretrizes, enfatizando que “modelos de linguagem de grande escala (LLM), como o ChatGPT, não satisfazem nossos critérios de autoria” (Nature Editorial, 2023, p. 612)6. Esses posicionamentos refletem uma compreensão profunda da natureza da autoria científica: ser autor não é apenas produzir texto, mas assumir responsabilidade epistêmica pelo conhecimento comunicado.
Uma análise bibliométrica conduzida por Ganjavi et al. (2024), publicada no BMJ no artigo Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis 7,examinou as diretrizes das 100 maiores editoras acadêmicas e dos 100 periódicos mais bem classificados. Os resultados revelaram que apenas 24% das editoras possuíam diretrizes específicas sobre IA generativa, mas, entre as que se posicionaram, 96-98% proibiram a atribuição de autoria a sistemas de IA. Evidenciando um consenso emergente que vincula autoria à responsabilidade, algo que máquinas, por definição, não podem assumir.
Implicações para políticas editoriais: da proibição à transparência qualificada
A perspectiva maiêutica oferece um enquadramento mais nuançado das políticas editoriais do que a dicotomia simples permissão/proibição. O que importa não é apenas se a IA foi utilizada, mas também a natureza dessa utilização e, fundamentalmente, se o pesquisador manteve sua posição de agente epistêmico responsável ao longo do processo.
Uma análise das diretrizes de grandes editoras revela nuances importantes. A Elsevier distingue entre usos aceitáveis (refinamento de linguagem, apoio à análise) e proibidos (geração de imagens científicas, produção de texto sem supervisão crítica). A Springer Nature enfatiza que o uso deve ser documentado nos métodos. Conforme documentado por Resnik e Hosseni(2024) en The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool8, há necessidade urgente de novas orientações éticas para o uso de IA na pesquisa científica, incluindo recomendações que abrangem desde a definição clara do papel da IA até os mecanismos de verificação de conteúdo gerado.
No contexto brasileiro, Sampaio, Sabbatini e Limongi (2025) propuseram em Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG)9 diretrizes específicas para o uso ético e responsável da IA generativa na pesquisa acadêmica, enfatizando princípios de transparência, responsabilidade e integridade. Como destacam Vasconcelos e Marušić (2025) no post A Integridade científica e agência humana na pesquisa entremeada por IA Generativa10 publicado no Blog SciELO em Perspectiva, a questão central é preservar a agência humana na pesquisa entremeada por IA generativa. Essas distinções apontam para um princípio comum: a transparência não deve ser um fim em si mesma, mas um meio para avaliar se a responsabilidade epistêmica foi adequadamente exercida.
Formação de pesquisadores: ensinar a dialogar, não a extrair
A perspectiva maiêutica tem implicações diretas para a formação de pesquisadores em competências relacionadas à IA, o que a literatura tem chamado de AI literacy, letramento em Inteligência Artificial Em What is AI Literacy? Competencies and Design Considerations11 Long e Magerko (2020) definiram AI literacy como “um conjunto de competências que permite aos indivíduos avaliar criticamente tecnologias de IA, comunicar e colaborar efetivamente com IA e usar IA como ferramenta” (p. 2). Os autores identificaram 17 competências essenciais, organizadas em dimensões que vão da compreensão técnica à avaliação ética.
Mais do que ensinar a usar ferramentas de IA de forma eficiente, trata-se de desenvolver a capacidade de dialogar criticamente com esses sistemas. Smith et al. (2024)12 propuseram “dez regras simples para usar modelos de linguagem de grande escala na ciência”, publicadas na PLoS Computational Biology, que incluem princípios como manter um ceticismo saudável, verificar os outputs, documentar o uso e compreender as limitações dos modelos.
Dessa forma, envolve competências específicas: formular perguntas que estimulem reflexão em vez de apenas solicitar respostas; avaliar criticamente os outputs gerados; identificar vieses, lacunas e inconsistências; e, fundamentalmente, manter consciência da própria posição como agente epistêmico responsável. São competências que ecoam a tradição socrática: o bom uso da IA, como o bom diálogo filosófico, exige disposição para questionar, inclusive a si mesmo.
Programas de pós-graduação e capacitações em metodologia científica precisam incorporar essas dimensões. Não se trata de proibir o uso de IA nem de incentivá-lo acriticamente, mas de formar pesquisadores capazes de utilizar essas tecnologias de modo a ampliarem, e não substituírem, sua agência intelectual.
Considerações finais: a IA como parteira, não como oráculo
A metáfora maiêutica oferece um enquadramento conceitual que transcende as dicotomias simplificadoras do debate atual sobre IA na ciência. Nem ferramenta neutra a ser usada sem restrições, nem ameaça de ser proibida, a IA generativa pode ser compreendida como interlocutora dialógica: uma “parteira” contemporânea que auxilia pesquisadores a darem à luz conhecimentos que já carregam em potência.
Essa perspectiva não resolve todas as tensões, mas persistem questões sobre viés algorítmico, desigualdade de acesso, impactos ambientais e riscos de homogeneização do pensamento científico. Porém, reposiciona a discussão sobre autoria em bases mais sólidas: a questão central não é a participação da IA, mas a manutenção da responsabilidade epistêmica do pesquisador.
Para a comunidade da comunicação científica, como editores, revisores, gestores de periódicos, o desafio é desenvolver mecanismos que avaliem não apenas a transparência no uso de IA, mas também a qualidade do processo dialógico que esse uso representa. Para pesquisadores, o desafio é aprender a usar a IA como Sócrates usava o diálogo: não para obter respostas prontas, mas para refinar o próprio pensamento.
Afinal, na maiêutica, o parteiro não é o protagonista do nascimento. Esse papel cabe a quem dá à luz. Na produção científica mediada por IA, o conhecimento genuíno continua a nascer do pesquisador. A IA pode auxiliar o parto, mas a responsabilidade pelo que nasce permanece, inescapavelmente, humana.
Notas
1.BIRHANE, A., et al. Science in the age of large language models. Nature Reviews Physics [online]. 2023, vol. 5, pp. 277-280.[viewed 21 January 2026] https://doi.org/10.1038/s42254-023-00581-4. Available from: https://www.nature.com/articles/s42254-023-00581-4 ↩
2.LLOYD, D. Epistemic responsibility: toward a community standard for human-AI collaborations. Frontiers in Artificial Intelligence [online]. 2025, vol. 8, 1635691. [viewed 21 January 2026]. https://doi.org/10.3389/frai.2025.1635691. Available from: https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2025.1635691/full ↩
3.COPE COUNCIL. COPE Authorship and AI tools [online]. Committee on Publication Ethics, 2023. [viewed 21 January 2026]. https://doi.org/10.24318/cCVRZBms. Available from: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools ↩
4.HOSSEINI, M., RASMUSSEN, L. M., e RESNIK, D. B. Using AI to write scholarly publications. Accountability in Research [online]. 2023, vol. 31, no. 7, pp. 715-723. [viewed 21 January 2026]. https://doi.org/10.1080/08989621.2023.2168535. Available from: https://www.tandfonline.com/doi/full/10.1080/08989621.2023.2168535 ↩
5.THORP, H. H. ChatGPT is fun, but not an author. Science [online]. 2023, vol. 379, no. 6630, p. 313. [viewed 21 January 2026]. https://doi.org/10.1126/science.adg7879. Available from: https://www.science.org/doi/10.1126/science.adg7879 ↩
6.Nature Editorial. Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature [online]. 2023, vol. 613, p. 612. [viewed 21 January 2026]. https://doi.org/10.1038/d41586-023-00191-1. Available from: https://www.nature.com/articles/d41586-023-00191-1 ↩
7.GANJAVI, C., et al. Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis. The BMJ [online]. 2024, vol. 384, e077192. [viewed 21 January 2026]. https://doi.org/10.1136/bmj-2023-077192. Available from: https://www.bmj.com/content/384/bmj-2023-077192 ↩
8.RESNIK, D. B., e HOSSEINI, M. The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool. AI Ethics [online]. 2024, vol. 5, no. 2, pp. 1499-1521. [viewed 21 January 2026]. https://doi.org/10.1007/s43681-024-00493-8. Available from: https://link.springer.com/article/10.1007/s43681-024-00493-8 ↩
9.SAMPAIO, R. C., SABBATINI, M., e LIMONGI, R. Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG) [online]. SciELO em Perspectiva, 2025. [viewed 21 January 2026]. Available from: https://blog.scielo.org/blog/2025/02/05/pesquisadores-lancam-diretrizes-iag/ ↩
10.VASCONCELOS, S., e MARUŠIĆ, A. Integridade científica e agência humana na pesquisa entremeada por IA Generativa [online]. SciELO em Perspectiva. 2025 [viewed 21 January 2026] Available from: https://blog.scielo.org/blog/2025/05/07/integridade-cientifica-e-agencia-humana-na-pesquisa-ia-gen/ ↩
11.LONG, D., e MAGERKO, B. What is AI Literacy? Competencies and Design Considerations. In: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. New York:, 2020 [viewed 21 January 2026]. https://doi.org/10.1145/3313831.3376727. Available from: https://dl.acm.org/doi/10.1145/3313831.3376727 ↩
12.SMITH, G. R., et al. Ten simple rules for using large language models in science, version 1.0. PLoS Computational Biology [online]. 2024, vol. 20, n.º 1, e1011767. [viewed 21 January 2026]. https://doi.org/10.1371/journal.pcbi.1011767. Available from: https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011767 ↩
Referências
BIRHANE, A., et al. Science in the age of large language models. Nature Reviews Physics [online]. 2023, vol. 5, pp. 277-280.[viewed 21 January 2026] https://doi.org/10.1038/s42254-023-00581-4. Available from: https://www.nature.com/articles/s42254-023-00581-4
COPE COUNCIL. COPE Authorship and AI tools [online]. Committee on Publication Ethics, 2023. [viewed 21 January 2026]. https://doi.org/10.24318/cCVRZBms. Available from: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools
GANJAVI, C., et al. Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis. The BMJ [online]. 2024, vol. 384, e077192. [viewed 21 January 2026]. https://doi.org/10.1136/bmj-2023-077192. Available from: https://www.bmj.com/content/384/bmj-2023-077192
HOSSEINI, M., RASMUSSEN, L. M., e RESNIK, D. B. Using AI to write scholarly publications. Accountability in Research [online]. 2023, vol. 31, no. 7, pp. 715-723. [viewed 21 January 2026]. https://doi.org/10.1080/08989621.2023.2168535. Available from: https://www.tandfonline.com/doi/full/10.1080/08989621.2023.2168535
LIANG, W., et al. Quantifying large language model usage in scientific papers. Nature Human Behaviour [online]. [viewed 21 January 2026]. https://doi.org/10.1038/s41562-025-02273-8. Available from: https://www.nature.com/articles/s41562-025-02273-8
LLOYD, D. Epistemic responsibility: toward a community standard for human-AI collaborations. Frontiers in Artificial Intelligence [online]. 2025, vol. 8, 1635691. [viewed 21 January 2026]. https://doi.org/10.3389/frai.2025.1635691. Available from: https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2025.1635691/full
LONG, D., e MAGERKO, B. What is AI Literacy? Competencies and Design Considerations. In: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. New York:, 2020 [viewed 21 January 2026]. https://doi.org/10.1145/3313831.3376727. Available from: https://dl.acm.org/doi/10.1145/3313831.3376727
Nature Editorial. Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature [online]. 2023, vol. 613, p. 612. [viewed 21 January 2026]. https://doi.org/10.1038/d41586-023-00191-1. Available from: https://www.nature.com/articles/d41586-023-00191-1
RESNIK, D. B., e HOSSEINI, M. The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool. AI Ethics [online]. 2024, vol. 5, no. 2, pp. 1499-1521. [viewed 21 January 2026]. https://doi.org/10.1007/s43681-024-00493-8. Available from: https://link.springer.com/article/10.1007/s43681-024-00493-8
SAMPAIO, R. C., SABBATINI, M., e LIMONGI, R. Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG) [online]. SciELO em Perspectiva, 2025. [viewed 21 January 2026]. Available from: https://blog.scielo.org/blog/2025/02/05/pesquisadores-lancam-diretrizes-iag/
SMITH, G. R., et al. Ten simple rules for using large language models in science, version 1.0. PLoS Computational Biology [online]. 2024, vol. 20, n.º 1, e1011767. [viewed 21 January 2026]. https://doi.org/10.1371/journal.pcbi.1011767. Available from: https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011767
THORP, H. H. ChatGPT is fun, but not an author. Science [online]. 2023, vol. 379, no. 6630, p. 313. [viewed 21 January 2026]. https://doi.org/10.1126/science.adg7879. Available from: https://www.science.org/doi/10.1126/science.adg7879
VASCONCELOS, S., e MARUŠIĆ, A. Integridade científica e agência humana na pesquisa entremeada por IA Generativa [online]. SciELO em Perspectiva. 2025 [viewed 21 January 2026] Available from: https://blog.scielo.org/blog/2025/05/07/integridade-cientifica-e-agencia-humana-na-pesquisa-ia-gen/
Sobre Ricardo Limongi França Coelho
Professor de Marketing e Inteligência Artificial, Universidade Federal de Goiás (UFG), Goiânia–GO, e Editor-Chefe do periódico Brazilian Administration Review (BAR) da ANPAD, Bolsista DT-CNPq.
Sobre Luis Carlos Coelho
Economista pela Universidade de Mogi das Cruzes
Como citar este post [ISO 690/2010]:

















Últimos comentários