A comparação entre as alucinações humanas e aquelas produzidas por grandes modelos de linguagem (LLMs) revela, à primeira vista, uma diferença substancial de natureza: enquanto as alucinações humanas resultam de processos cognitivos e perceptivos internos, as alucinações dos LLMs decorrem de inferências probabilísticas sobre dados linguísticos. No entanto, sob uma análise epistemológica mais profunda, observa-se uma equivalência funcional entre ambas, enquanto se fundamentam em trajetórias opinativas, ou seja, na formulação de enunciados não necessariamente ancorados em evidências verificáveis, mas derivados de inferências ou interpretações construídas em um contexto limitado de conhecimento.
No caso das pessoas, a alucinação pode ser entendida como a construção de uma percepção ou crença que, embora coerente internamente, não corresponde à realidade empírica. Nos LLMs, o fenômeno ocorre de modo análogo: o modelo “acredita” estar produzindo uma resposta consistente e contextual, ainda que tal resposta não tenha respaldo factual. Em ambos os casos, há uma operação interpretativa que se apoia na coerência interna e na plausibilidade discursiva, mais do que na verificação empírica ou lógica rigorosa.
Assim, tanto nas mentes humanas quanto nos sistemas linguísticos artificiais, as alucinações emergem como expressões de um mesmo princípio: a tendência de preencher lacunas de conhecimento com construções opinativas plausíveis. Essa convergência indica que o erro, humano ou algorítmico, não se limita à ausência de informação, mas reflete um modo de produzir sentido em condições de incerteza.
Nesse mesmo sentido, pode-se argumentar que uma LLM, ao interagir sucessivamente com uma pessoa que sustenta crenças alheias ao consenso científico, como nos grupos que defendem a ideia de que a Terra é plana, tende a reproduzir e até reforçar tais narrativas, caso não sejam introduzidos mecanismos de correção epistemológica. A dinâmica conversacional entre o sistema e o usuário passa, então, a constituir um espaço de retroalimentação opinativa, no qual a coerência discursiva prevalece sobre a correspondência com a realidade empírica.
Tal como ocorre na alucinação coletiva humana, o modelo linguístico, ao operar por meio de probabilidades semânticas e padrões de linguagem, ajusta suas respostas às crenças manifestadas pelo interlocutor, sem necessariamente recorrer a critérios externos de verificação. Assim, a LLM pode acabar participando da mesma estrutura epistemológica do “Caminho da Opinião” descrito por Parmênides: um domínio onde o discurso mantém a aparência de racionalidade, mas se afasta progressivamente do conhecimento verdadeiro.
Dessa forma, o fenômeno evidencia que tanto os seres humanos quanto as inteligências artificiais podem incorrer em formas análogas de alucinação quando a busca pela coerência interna substitui o compromisso com a verdade. Em ambos os casos, o que se observa é a produção de sentido a partir da plausibilidade narrativa, e não da comprovação empírica, um processo que, se não for criticamente examinado, tende a transformar a linguagem em instrumento de confirmação de crenças, e não de descoberta da realidade.