A inteligência artificial deixou de ser promessa e passou a fazer parte do dia a dia das empresas. Ela analisa balanços, cruza dados reputacionais, avalia riscos ESG e apoia decisões estratégicas.
O problema é que existe um risco silencioso pouco discutido fora do meio técnico: a alucinação da IA.
Alucinação ocorre quando um sistema de IA gera informações plausíveis, estruturadas e convincentes, mas incorretas ou incompletas, sem indicar incerteza. O texto parece profissional. O raciocínio parece lógico. A conclusão parece sólida. Mas o fundamento pode estar errado.
Estudos acadêmicos mostram que esse não é um efeito esporádico, mas um fenômeno recorrente em modelos de linguagem quando o contexto ou dados confiáveis são insuficientes para fundamentar respostas.
E em gestão de riscos, isso é perigoso.
O erro não é a falha. É a falsa segurança.
Diferente de um erro humano, que geralmente vem acompanhado de dúvida ou hesitação, a IA erra com convicção.
Esse comportamento cria um ambiente propício para decisões mal fundamentadas, especialmente quando a IA é usada como “oráculo” e não como ferramenta de apoio.
Onde o risco se materializa na prática
1) Análise de Balanço Patrimonial e Demonstração do Resultado do Exercício – DRE
Ao analisar balanços e demonstrações de resultado, a IA pode:
Inferir indicadores financeiros sem acesso ao contexto contábil completo
Supor normalidade em margens que, na realidade, são atípicas para o setor
Ignorar práticas de maquiagem contábil que exigem leitura humana experiente
O resultado?
Indicadores aparentemente sólidos que levam a decisões catastróficas, como aprovar fornecedores financeiramente frágeis ou rejeitar parceiros saudáveis.
2) Avaliação de riscos ESG
Grande parte dos modelos de IA:
Considera prioritariamente informações públicas
Dá peso excessivo à ausência de multas ou sanções oficiais
Usa bases limitadas a listas restritivas e rankings genéricos
Na prática, isso gera distorções graves.
Uma empresa pode receber alta pontuação ESG simplesmente porque bases públicas limitadas podem, em alguns casos, superestimar a performance ESG pela ausência de registros negativos, por exemplo:
Não possui multas no IBAMA
Não aparece em listas públicas de sanções
Não foi alvo de reportagens negativas
Isso ignora que ESG é muito mais do que ausência de penalidades.
Não avalia cultura organizacional, práticas trabalhistas reais, cadeia de fornecedores, gestão de terceiros ou riscos sociais indiretos.
Ou seja: silêncio público não é evidência de boa prática.
3) Compliance e integridade
No compliance, o risco assume outra forma:
Falsos positivos, quando a IA sinaliza risco onde não existe
Falsos negativos, quando valida como seguro algo que não é
Modelos de linguagem podem:
Interpretar erroneamente estruturas societárias complexas
Não identificar conflitos de interesse não documentados
Considerar ausência de dados como ausência de risco
A ausência de dados não significa ausência de risco, um princípio básico em gestão de riscos e due diligence. Em compliance, isso deve ser sempre considerado antes de qualquer validação automática.
Em compliance, errar para menos é tão grave quanto errar para mais.
O problema estrutural: IA não investiga, ela infere
A IA inferirá padrões. Ela não faz investigação crítica ou revisão conscienciosa de dados, como um auditor ou analista experiente faria.
Quando os dados são incompletos, desatualizados ou superficiais, a inferência se transforma em alucinação.
O impacto real na gestão de fornecedores
Na gestão de fornecedores, esse risco se multiplica:
Um fornecedor pode parecer financeiramente saudável
Pode aparentar baixo risco reputacional
Pode apresentar “boa nota ESG”
E ainda assim representar risco operacional, trabalhista, ambiental ou ético relevante.
Sem validação humana, o processo se torna tecnicamente elegante e operacionalmente frágil.
A margem de erro que não pode ser ignorada
Estimativas de falhas de factualidade em modelos de linguagem podem atingir dezenas de porcentagem de respostas imprecisas em determinados cenários, o que significa que decisões críticas não devem ser baseadas exclusivamente em IA.
Desde 2023 para análise de documentos técnicos nossa melhor marca de erro foi de 30% chegando até 40% em contextos como:
Risco
Compliance
ESG
Gestão de terceiros
Essa margem é simplesmente inaceitável.
Conclusão: tecnologia sem critério é risco amplificado
A inteligência artificial é uma aliada poderosa.
Mas, sozinha, ela não substitui método, governança e análise humana especializada.
O caminho seguro não é escolher entre IA ou pessoas.
É estruturar processos que combinem:
Tecnologia para escala
Dados para eficiência
Critério humano para decisão
Em gestão de fornecedores, compliance e ESG, errar bonito continua sendo errar.
Perguntas Frequentes
1. O que significa “alucinação” em inteligência artificial?
Alucinação é quando a IA gera respostas coerentes e bem estruturadas, mas baseadas em informações incorretas, incompletas ou inventadas, sem indicar incerteza. O problema não é apenas o erro, mas a falsa sensação de precisão.
2. A IA pode errar mesmo analisando dados financeiros reais?
Sim. Mesmo com acesso a balanços e DREs, a IA pode interpretar números fora de contexto, inferir padrões inexistentes ou ignorar particularidades setoriais, levando a conclusões financeiras equivocadas e decisões de alto risco.
3. Por que avaliações ESG feitas por IA podem ser enganosas?
Porque a maioria dos modelos considera majoritariamente informações públicas. A ausência de multas, sanções ou notícias negativas não significa boas práticas ESG. ESG envolve cultura, gestão de pessoas, cadeia de fornecedores e governança, elementos que raramente aparecem em bases públicas.
4. A IA consegue substituir a análise humana em compliance?
Não. A IA pode apoiar, acelerar e organizar informações, mas não substitui julgamento crítico. Em compliance, falsos positivos e falsos negativos são comuns quando a análise depende apenas de padrões estatísticos e dados incompletos.
5. Qual o risco de usar IA de forma automática na gestão de fornecedores?
O risco é validar fornecedores inadequados ou rejeitar parceiros estratégicos com base em análises aparentemente técnicas, mas conceitualmente frágeis. Sem validação humana, o processo se torna eficiente na forma e perigoso no conteúdo.
6. Existe uma margem de erro aceitável para decisões baseadas em IA?
Em contextos críticos como risco, compliance e ESG, não. Enquanto as alucinações não forem controladas, estimativas apontam margens de erro entre 30% e 40% em análises exclusivamente automatizadas, o que é inaceitável para decisões estratégicas.
7. Qual é a forma segura de usar IA na análise de riscos?
A forma segura é combinar tecnologia com método e critério humano. A IA deve apoiar a análise, nunca decidir sozinha. Processos estruturados, validação técnica e governança clara são indispensáveis para reduzir riscos reais.
Fontes acadêmicas e institucionais que tratam de “alucinação em IA”
Ji, Z. et al. (2023) – Survey of Hallucination in Natural Language Generation
Publicado na ACM Computing Surveys.
É hoje uma das referências acadêmicas mais completas sobre o fenômeno de alucinação em modelos de linguagem.Maynez, J. et al. (2020) – On Faithfulness and Factuality in Abstractive Summarization
Publicado na ACL – Association for Computational Linguistics.
Analisa como modelos geram textos factualmente incorretos mesmo mantendo coerência linguística.OpenAI (2023) – GPT-4 Technical Report
Documento técnico oficial que reconhece explicitamente o problema de hallucinations e suas limitações em contextos críticos.
Harvard Business Review (HBR)
Why AI Hallucinates (2023)
The Problem With Relying Too Much on AI (2024)
Sobre o Autor



