Alucinação de IA
No contexto da IA, uma Alucinação é uma resposta confiante gerada por um Grande Modelo de Linguagem que não está alinhada com os seus dados de treino ou factos do mundo real. Ocorre quando o modelo "inventa" informação para preencher lacunas no conhecimento, muitas vezes porque dados de fonte autoritativos e estruturados estavam em falta ou eram pouco claros.
Por que as alucinações são um risco para a marca
As alucinações da IA representam riscos sérios para as empresas. Um LLM pode inventar um código de desconto falso para a sua loja, citar mal a sua política de devoluções, atribuir uma funcionalidade de um concorrente ao seu produto ou citar um preço desatualizado. Estas falsificações prejudicam a confiança dos clientes e podem criar responsabilidade legal. A causa raiz é geralmente dados em falta ou mal estruturados — quando uma IA não consegue encontrar informação clara e autoritativa, preenche lacunas com suposições probabilísticas. A principal defesa são dados estruturados via JSON-LD e Knowledge Graphs. Ao declarar explicitamente factos em formatos legíveis por máquinas, dá aos modelos de IA informação clara e verificável para citar, em vez de os forçar a alucinar respostas.
Resposta Factual da IA vs. Alucinação
Impacto no Mundo Real
Utilizador pergunta a chatbot sobre produto descontinuado
IA alucina: "Produto X disponível, $49.99"
Cliente encomenda, descobre a verdade, exige reembolso
O esquema do produto inclui "disponibilidade": "Descontinuado"
A IA afirma corretamente: "Produto X descontinuado"
O cliente obtém informações precisas e explora alternativas