Confabulação, não alucinação: Por que a precisão terminológica importa na governança da IA
quinta-feira, 16 de abril de 2026
Atualizado às 07:17
Nos últimos anos, consolidou-se o hábito de dizer que sistemas de inteligência artificial “alucinam”. A expressão ganhou tração na mídia e na literatura técnica como um mecanismo de linguagem para descrever respostas incorretas geradas com aparente segurança. O problema é que o atalho pode ser um caminho errado, especialmente quando adotado em normas e documentos regulatórios.
Modelos de linguagem não percebem o mundo. Eles operam por padrões estatísticos, prevendo sequências plausíveis de palavras a partir de dados de treinamento. Ao errarem, não é por distorção perceptiva, mas porque completam padrões com fluência e coerência, mesmo quando o conteúdo é factualmente incorreto. Ambos os termos têm origem na psicologia e é justamente nela que a distinção importa: Enquanto alucinação descreve a percepção de algo que não existe, confabulação descreve a narração de algo que não ocorreu.
A analogia, contudo, é válida e tecnicamente mais rigorosa: O sistema não sabe que não sabe. Aliás, justamente por isso, é inútil pedir à ferramenta que “não alucine” ou “não confabule”: Ela não é capaz de saber onde e quando isso ocorreu.
Não por acaso, o NIST introduziu “confabulação” como alternativa mais precisa em seu AI 600-1 (Generative AI Profile), publicado em 2024. Curiosamente, o próprio documento referencia, em nota de rodapé, o International Scientific Report on the Safety of Advanced AI, que usa “alucinação” de forma recorrente, sem questionar sua exatidão. O detalhe não invalida o argumento: Revela, antes, que a imprecisão está disseminada mesmo nos estratos mais qualificados do debate. O ponto central é que, quando antropomorfizamos o erro, sua natureza computacional fica obscurecida e isso dificulta tanto a compreensão do risco quanto sua mitigação prática.
Esse posicionamento encontra respaldo na literatura científica. Em artigo publicado na PLOS Digital Health (Smith, Greaves e Panch, 2023), pesquisadores vinculados à Universidade de Ottawa, ao Imperial College London e a Harvard argumentam na mesma direção: Alucinação implica percepção sensorial e consciência - atributos que modelos de linguagem de grande escala não possuem -, enquanto confabulação descreve com rigor a reconstrução incorreta de informações a partir de padrões aprendidos, sem intenção de enganar e sem consciência do erro. Os autores alertam, ainda, que o uso de terminologia imprecisa tende a gerar equívocos que se tornam progressivamente mais difíceis de corrigir.
Importante destacar que o próprio artigo elabora uma tabela comparativa entre os dois termos, reconhecendo abertamente que confabulação tem como desvantagem ser menos conhecido e menos evocativo que alucinação. A honestidade intelectual do registro não enfraquece o argumento. Ao contrário, qualifica-o: A preferência por confabulação não é negação da utilidade comunicativa de alucinação, mas defesa de que, em contextos regulatórios e técnicos, o rigor deve prevalecer sobre a evocação.
Tive, inclusive, recentemente, duas experiências pedagógicas sobre isso.
Na primeira, consultei um modelo de última geração sobre o Papa Leão XIV. O sistema negou sua existência com tom assertivo, afirmando que o pontífice atual seria o Papa Francisco e chegou a acusar minhas fontes de disseminar fake news. Só recuou quando apresentei uma notícia do site oficial do Vaticano. Não posso afirmar que sua base de dados estava desatualizada, embora pareça óbvio: Afinal, a consulta foi há poucos dias, em uma ferramenta que já acessa a internet.
Na segunda, talvez mais reveladora para quem trabalha com pesquisa jurídica, pedi indicação de artigos doutrinários sobre determinado tema. O sistema gerou títulos, autores renomados e tradicionais naquele campo dogmático e publicações de aparência absolutamente verossímil, com referências a portais reconhecidos como Conjur e Migalhas. Solicitei os links. Todos foram fornecidos. Nenhum existia. Os domínios eram reais; os artigos, não.
Esse é o núcleo do problema: Não há erro de percepção, mas de construção. O modelo não mente. Ele completa padrões. A distinção tem consequências regulatórias concretas: quem aprende que a IA “alucina” tende a tratar o fenômeno como excepcional e detectável, algo que acontece raramente e de forma óbvia. Quem compreende que ela “confabula” percebe que o risco é estrutural, contínuo e, frequentemente, não detectável. Isso muda o comportamento do usuário, o design das salvaguardas e a lógica da responsabilização. Na prática, se o problema é nomeado como alucinação, a solução intuitiva aponta para a capacidade perceptiva do sistema, que simplesmente não existe. Se é nomeado como confabulação, aponta para onde a intervenção é possível: Os mecanismos de verificação de fontes, citação de referências e sinalização de incerteza.
Esse risco não é hipotético. Documentos públicos formais e recentes adotam “alucinação” sem qualquer ressalva sobre o debate técnico em curso. O Guia de Uso Responsável de IA da CGU (2025) define o termo no glossário sem questionar sua acurácia. O Glossário de IA Generativa no Serviço Público, do Serpro e Ministério da Fazenda, repete a mesma definição. O Radar Tecnológico 3, da ANPD, publicado em 2024, usa o termo entre aspas, com referência bibliográfica de 2003, mas sem sinalizar a alternativa já debatida na literatura. Nenhum deles menciona confabulação.
A adoção prematura e acrítica de terminologia imprecisa em atos normativos e administrativos cria ambiguidades operacionais reais. Se uma norma exige a “mitigação de alucinações”, o que exatamente deve ser auditado, medido ou documentado?
Enquanto alucinação evoca um fenômeno perceptivo inexistente em sistemas computacionais, induzindo a diagnósticos equivocados sobre a natureza do problema, confabulação orienta, ao nomear o mecanismo real - preenchimento inconsciente de lacunas com conteúdo inverídico -, com maior exatidão, tanto a compreensão do risco quanto a linguagem das normas que pretendem mitigá-lo.
Aprendi, com a Ministra Fátima Nancy Andrighi, ainda em sala de aula, que a precisão terminológica contribui para a segurança jurídica. Ela defendia o uso do nome jurídico, tal como prescrito na norma, em vez de equivalentes coloquiais (ex.: Quando a lei utilizar “petição inicial”, lançar mão de “peça exordial” pode parecer erudito, mas cria ruído onde se precisa de clareza). O mesmo princípio se aplica aqui. Quando a terminologia oficial aponta para um mecanismo inexistente (percepção sensorial) em vez do mecanismo real (preenchimento inconsciente de lacunas), a consequência prática é uma regulação construída sobre uma premissa equivocada.
Falar em confabulação, portanto, é mais preciso, mais técnico e, sobretudo, mais responsável. Aqui não se pretende tornar o apelo, por rigor terminológico, uma acusação. Trata-se, antes, de reconhecer uma necessidade ainda em construção.
Justamente por isso, reguladores e formuladores de políticas públicas deveriam liderar essa atualização, não perpetuar um atalho conveniente.
___________________
AGÊNCIA NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Radar Tecnológico n° 3: Inteligência Artificial Generativa. Brasília: ANPD, 2024. Disponível em: https://www.gov.br/anpd/pt-br/centrais-de-conteudo/documentos-tecnicos-orientativos/radar_tecnologico_ia_generativa_anpd.pdf. Acesso em: 13 abr. 2026.
BRASIL. CONTROLADORIA-GERAL DA UNIÃO (CGU). Guia de uso responsável de ferramentas de IA Generativa. Brasília: CGU, 2025. Disponível em: https://basedeconhecimento.cgu.gov.br/server/api/core/bitstreams/b5d18ee1-5d85-492c-ab72-43b1f84ccfe1/content. Acesso em: 13 abr. 2026.
INTERNATIONAL SCIENTIFIC PANEL ON AI SAFETY. International Scientific Report on the Safety of Advanced AI. [S.l.], 2024.
NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY (NIST). Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile. NIST AI 600-1. Gaithersburg: NIST, 2024. Disponível em: https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf. Acesso em: 12 abr. 2026.
SERPRO; MINISTÉRIO DA FAZENDA; MINISTÉRIO DA GESTÃO E DA INOVAÇÃO EM SERVIÇOS PÚBLICOS. Glossário de IA Generativa no Serviço Público. Brasília, 2024. Disponível em: https://www.gov.br/governodigital/pt-br/infraestrutura-nacional-de-dados/inteligencia-artificial-1/glossario-ia-generativa-no-servico-publico.pdf/view. Acesso em: 14 abr. 2026.
SMITH, Andrew L.; GREAVES, Felix; PANCH, Trishan. Hallucination or confabulation? Neuroanatomy as metaphor in Large Language Models. PLOS Digital Health, v. 2, n. 11, e0000388, nov. 2023. Disponível em: https://doi.org/10.1371/journal.pdig.0000388. Acesso em: 15 abr. 2026.

