Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão.
Um estudo da revista Nature em parceria com a Grounded AI estima que mais de 111 mil publicações científicas de 2025 podem conter referências bibliográficas inválidas, muitas delas geradas por inteligência artificial. O fenômeno ocorre quando modelos de linguagem produzem informações que parecem verdadeiras, mas que na realidade não existem – chamadas de “alucinações” da IA.
No contexto acadêmico, isso se traduz em citações a estudos ou artigos que nunca foram publicados, o que compromete a integridade da pesquisa científica.
Como o estudo foi feito
Nature e Grounded AI analisaram mais de 4 mil publicações recentes de cinco grandes editoras internacionais: Elsevier, Sage, Springer Nature, Taylor & Francis e Wiley.
A cada trabalho foi atribuída uma pontuação de risco com base na quantidade de referências problemáticas e na probabilidade de terem sido geradas por IA.
Resultados da análise manual
A equipe revisou manualmente os 100 artigos com maior nível de suspeita:
-
65 artigos continham pelo menos uma referência inválida (apontava para publicação inexistente)
-
22 artigos tinham citações que correspondiam a trabalhos reais
-
13 artigos não foi possível determinar a validade (em parte por tratarem-se de publicações regionais ou em outros idiomas)
Extrapolação e estimativa
A partir desses resultados, os pesquisadores estimaram que cerca de 111 mil publicações científicas de 2025 podem ter referências inválidas. Os especialistas alertam que o número real pode ser ainda maior, pois a análise focou em editoras com maiores recursos de controle e revisão.
Impacto no processo editorial
O problema já está sendo detectado pelas próprias revistas acadêmicas. Alison Johnston, coeditora principal da publicação Review of International Political Economy, informou que rejeitou 25% de aproximadamente 100 manuscritos recebidos em janeiro devido à presença de referências falsas.
Nick Morley, cofundador da Grounded AI, explicou que os erros identificados em 2025 apresentam características diferentes das observadas antes da expansão dos modelos de linguagem. Isso sugere que a IA está introduzindo novas formas de erro, mais difíceis de detectar.
Desafios para a comunidade científica
As referências bibliográficas são um elemento central na validação do conhecimento, pois permitem rastrear fontes e verificar informações. A presença de citações inexistentes enfraquece esse sistema e pode afetar a credibilidade dos estudos publicados.
Soluções em curso
Editoras e plataformas acadêmicas estão começando a implementar ferramentas de detecção e protocolos mais rigorosos para identificar irregularidades. No entanto, o ritmo de adoção da IA na pesquisa supera, em muitos casos, a capacidade de controle dessas instituições.
Uso responsável da IA
O estudo destaca que o uso de modelos de linguagem na redação científica não é, por si só, problemático – pode trazer eficiência. Porém, a falta de supervisão adequada aumenta o risco de erros que podem passar despercebidos nos processos de revisão tradicionais.
