Em 2023, nos EUA, advogados foram multados por citar 6 processos fictícios gerados pelo ChatGPT em uma petição federal. Os processos não existiam. O ChatGPT os inventou com nomes plausíveis, datas e ementas convincentes. No Brasil, o risco é o mesmo. A solução chama-se RAG — e este artigo explica por que ela é essencial para qualquer advogado que use IA.

O problema de alucinação em IA jurídica não é teórico — é documentado e recorrente. Modelos de linguagem como ChatGPT, Gemini e Claude são treinados para gerar texto plausível, não para verificar fatos. Quando não sabem a resposta, inventam com confiança.

🚨O Caso Mata v. Avianca: A Lição Que Todo Advogado Deve Conhecer

Em maio de 2023, o juiz P. Kevin Castel (Tribunal Federal do Distrito Sul de Nova York) multou os advogados Roberto Mata e Steven Schwartz após descobrir que uma petição continha seis citações de jurisprudência fictícia gerada pelo ChatGPT.

Os advogados usaram ChatGPT para pesquisar precedentes, incluíram os casos na petição sem verificar e, quando questionados pelo juiz, apresentaram "confirmações" do ChatGPT — que continuou inventando detalhes para sustentar os casos fictícios.

🚨 Casos citados que não existiam: Varghese v. China Southern Airlines Co. Ltd., Shaboon v. Egyptair, Zicherman v. Korean Air Lines Co. Ltd. (versão inventada), entre outros. O ChatGPT gerou ementas, datas e citações internas fictícias para cada um.

Os advogados foram multados em USD 5.000 e obrigados a enviar cópias da ordem judicial a todos os juízes citados nos casos fictícios.

⚠️Por Que IA Alucina Jurisprudência?

Para entender a solução, é preciso entender o problema. Modelos de linguagem como ChatGPT funcionam prevendo qual texto é mais provável dado um contexto. Quando você pergunta "cite casos do STJ sobre cláusula penal abusiva", o modelo:

O modelo não sabe que está inventando — ele gera o texto mais provável, e texto que parece jurisprudência real é mais "provável" do que admitir que não sabe.

🔬O Que É RAG e Como Resolve o Problema

RAG — Retrieval-Augmented Generation (Geração Aumentada por Recuperação) — é uma técnica que conecta o modelo de linguagem a uma base de documentos reais antes de gerar qualquer resposta.

Como RAG funciona na prática

Pergunta: "Qual a jurisprudência do STJ sobre revisão de cláusula penal desproporcional?"
🔍
Recuperação: Sistema busca documentos reais na base (acórdãos, súmulas, doutrina) que contêm informação relevante
📄
Contexto: Documentos reais são fornecidos ao modelo como contexto para a resposta
Resposta com fonte: Modelo sintetiza apenas o que está nos documentos reais, citando a fonte exata de cada afirmação

Com RAG, a IA não inventa — ela recupera e sintetiza. Se não há informação relevante na base, o modelo responde que não encontrou, em vez de fabricar uma resposta.

Como Verificar Jurisprudência Citada por IA — Protocolo Seguro

Mesmo com RAG, todo advogado deve verificar jurisprudência antes de citar em peça processual:

✅ Regra de Ouro: Nenhuma jurisprudência gerada por IA deve ir para uma peça processual sem verificação individual no site oficial do tribunal. Sem exceção.

Perguntas Frequentes

O que é alucinação em IA jurídica?+
Alucinação é quando a IA gera informações falsas com aparência de verdadeiras. Em contexto jurídico: inventar números de processos, datas de julgamento, ementas de acórdãos ou artigos de lei que não existem — apresentando tudo com confiança como se fosse real.
O que é RAG e como evita alucinações?+
RAG (Retrieval-Augmented Generation) conecta o modelo de IA a uma base de documentos reais. Antes de responder, a IA busca documentos relevantes e usa apenas essas informações na resposta, citando a fonte. Não inventa — apenas recupera e sintetiza.
Como verificar se jurisprudência citada por IA é real?+
Verifique no site oficial do tribunal: STF (jurisprudencia.stf.jus.br), STJ (stj.jus.br/sites/portalp/Jurisprudencia), TRTs e TJs regionais. Pesquise pelo número exato do processo ou ementa. Se não encontrar, a jurisprudência pode ser inventada.
Advogados já foram punidos por jurisprudência inventada por IA?+
Sim. O caso mais documentado é Mata v. Avianca (SDNY, 2023), nos EUA, onde advogados citaram 6 casos fictícios gerados pelo ChatGPT e foram multados. No Brasil, casos similares começam a surgir perante tribunais estaduais.

📚Recursos Oficiais

IA Jurídica que Cita a Fonte Real em Cada Parágrafo

Locus.IA usa RAG para analisar seus documentos reais — não inventa jurisprudência porque trabalha com o que você fornece. Cada afirmação vem com a fonte exata do documento original.

Conhecer Locus.IA →