Resposta curta: Em 08 de abril de 2026, a Quinta Turma do STJ decidiu, de forma inédita, que relatórios técnicos produzidos por IA generativa não podem fundamentar denúncias ou sentenças em ação penal. Motivo: IA generativa opera por probabilidades estatísticas, pode "alucinar" (inventar informações com aparência de verdade) e não permite auditoria racional dos critérios usados. A decisão se soma à Resolução CNJ 615/2025, que já havia estabelecido 10 princípios obrigatórios para uso de IA no Judiciário.

Abril de 2026 marca a primeira decisão do STJ sobre IA generativa como meio de prova no Brasil. O precedente tem impacto imediato: delegados, promotores, advogados e juízes precisam recalibrar como a tecnologia entra no processo. Este artigo explica a decisão, o contexto regulatório que a precedeu, e o que muda na prática para quem atua no contencioso criminal.

⚖️A Decisão: O Que a Quinta Turma Decidiu

Em 08 de abril de 2026, julgando o Habeas Corpus nº 1.059.475/SP, a Quinta Turma do STJ, sob relatoria do Ministro Reynaldo Soares da Fonseca, rejeitou o uso de relatório elaborado por IA generativa como meio de prova em ação penal.

O Caso Concreto

O processo original tratava de suposta injúria racial ocorrida após partida de futebol em Mirassol (SP). A acusação supostamente ofendeu a vítima chamando-a de "macaco", conforme imagens capturadas em vídeo. Para embasar a denúncia, autoridades policiais utilizaram IA generativa para produzir relatório técnico interpretando o material audiovisual.

A defesa impetrou habeas corpus alegando que:

  1. O relatório foi produzido sem transparência sobre qual IA foi usada
  2. Não há reprodutibilidade — rodar o mesmo prompt pode gerar resultados diferentes
  3. A IA opera por probabilidades, não por raciocínio lógico-jurídico
  4. Há risco de "alucinação" — geração de conteúdo falso com aparência de verdadeiro

O Voto do Ministro Relator

Em seu voto, publicado pelo STJ em 08/04/2026, o Ministro Reynaldo Soares da Fonseca foi direto:

"A prova no processo penal deve permitir a construção de inferências lógicas e racionais sobre os fatos, exigindo não apenas licitude, mas também confiabilidade. É imperativa a exclusão de procedimentos carentes de aptidão racional."

Três fundamentos centrais:

  1. Falta de transparência — Não se sabe qual modelo foi usado, como foi treinado, quais vieses carrega
  2. Ausência de reprodutibilidade — Mesma pergunta pode gerar respostas diferentes
  3. Risco de alucinação — IA generativa pode produzir "informações imprecisas, irreais ou fabricadas com aparência de confiabilidade"
⚠️ Primeiro precedente: Esta é a primeira posição do STJ sobre IA generativa como meio de prova penal. Orientará tribunais inferiores nos próximos anos, imporá novos padrões para autoridades policiais e protegerá o devido processo legal contra provas "caixa-preta".

📜O Contexto: Resolução CNJ 615/2025

A decisão do STJ não surgiu no vácuo. Em 11 de março de 2025, o Conselho Nacional de Justiça havia publicado a Resolução nº 615/2025, vigente desde 14 de julho de 2025, estabelecendo a Política de Uso de IA no Judiciário brasileiro.

Os 10 Princípios Obrigatórios

Toda solução de IA utilizada no Judiciário deve observar os seguintes princípios:

# Princípio O Que Significa
1JustiçaIA não pode perpetuar injustiças históricas
2EquidadeTratamento igualitário entre partes
3InclusãoAcessibilidade e não-exclusão
4Não-discriminaçãoVieses algorítmicos devem ser corrigidos
5TransparênciaComo a IA opera deve ser auditável
6EficiênciaIA deve agregar valor real ao processo
7ExplicabilidadeDecisões assistidas por IA devem ser justificáveis
8ContestabilidadePartes podem questionar outputs de IA
9AuditabilidadeTrilha completa de uso
10ConfiabilidadeIA deve funcionar com qualidade comprovada

Supervisão Humana Obrigatória

O texto é explícito: a IA não substitui o juiz. Sistemas de IA podem:

Mas a decisão final permanece com o magistrado humano. Qualquer tentativa de automatizar o julgamento viola frontalmente a Resolução.

Comitê Nacional de IA do Judiciário (CNIAJ)

A Resolução criou o Comitê Nacional de IA do Judiciário, composto por magistrados, especialistas em tecnologia e representantes da sociedade civil. Missão: monitorar implementação, atualizar diretrizes conforme a tecnologia evolui, garantir conformidade ética.

Sistemas Atuais em Operação

🔍Por Que IA Generativa É Diferente de IA Tradicional?

O ponto crítico da decisão do STJ está na distinção entre tipos de IA. Não toda IA foi vedada — apenas IA generativa em contexto probatório.

IA Tradicional (Classificatória/Preditiva)

Essas IAs são determinísticas: mesmos dados geram mesmos resultados. São auditáveis e reprodutíveis.

IA Generativa (ChatGPT, Gemini, Claude, etc.)

É esta segunda categoria que o STJ rejeitou como meio de prova. A diferença é fundamental.

🛡️O Que Muda Para Advogados Criminalistas

1. Novo Argumento de Defesa

Se seu cliente foi denunciado com base em relatório de IA generativa, você agora tem precedente do STJ para impugnar a prova. Linha argumentativa:

2. Atenção ao Contraditório

A Resolução CNJ 615/2025 impõe princípio da contestabilidade. Em qualquer processo onde IA for usada, você tem direito a:

Peça isso em toda manifestação.

3. Cuidado Com Seu Próprio Uso

A decisão também serve contra você. Se você usar IA generativa para produzir peças ou laudos anexos, cuidado com:

🚨 Alerta OAB: Casos recentes no Brasil mostram advogados sancionados pela OAB por submeter petições com citações fabricadas por ChatGPT. O precedente do STJ reforça o risco profissional de uso negligente de IA generativa.

4. Revisão Humana Rigorosa

Use IA como rascunho, nunca como versão final. Princípio inegociável: 100% do output passa por revisão humana antes de virar trabalho processual.

🏛️Impacto no Ministério Público e Polícia

Para a Polícia Judiciária

Laudos técnicos (vídeo, áudio, documentoscopia) devem seguir métodos científicos auditáveis. Uso de ChatGPT/Gemini para "interpretar" materiais não é aceito como prova pelo STJ.

O que pode continuar: OCR, transcrição automática, catalogação. O que não pode: interpretação probatória gerada por IA.

Para o Ministério Público

Denúncias baseadas em IA generativa tendem a ser rejeitadas. Procuradores devem:

Para Juízes

Sentenças não podem ser fundamentadas em outputs de IA generativa como se fossem prova. IA pode auxiliar na pesquisa, mas a convicção judicial deve estar lastreada em elementos auditáveis.

📅O Horizonte 2026-2027

Próximos Marcos Regulatórios

Tendências Esperadas

  1. Mais decisões restritivas em ações penais envolvendo IA
  2. Flexibilização em matéria cível — Onde as partes podem pactuar uso
  3. Padronização de laudos técnicos — Exigência de explicabilidade
  4. Normatização OAB — Diretrizes específicas para advogados usarem IA

Perguntas Frequentes

A decisão vale para todo tipo de IA? +
Não. O STJ foi específico sobre IA generativa (ChatGPT, Gemini, Claude e similares). IA tradicional/classificatória (sistemas como Victor do STF) continua aceita em contextos apropriados.
Posso usar IA para minha petição? +
Sim, mas sempre como rascunho com revisão humana rigorosa. Valide toda citação, todo artigo, todo número de processo. Alucinações são frequentes.
E se o juiz usar IA para decidir meu caso? +
A Resolução CNJ 615/2025 proíbe. Decisão final é sempre humana. Se houver indícios de automação, cabe impugnação.
O Ministério Público pode usar IA generativa? +
Para trabalho interno (organizar dados, rascunhos), sim. Como fundamento probatório em denúncia, o STJ agora diz: não.
Resolução CNJ 615 vale para advogados? +
Tecnicamente, endereça o Judiciário. Mas define o padrão de "uso responsável" que será referência. Advogados devem se alinhar — juízes e MPs tendem a aplicar os mesmos critérios ao avaliar trabalho privado.

📚Recursos Oficiais

🎯Conclusão: Um Marco Para a IA no Direito Brasileiro

A decisão de 08 de abril de 2026 não é isolada. É parte de uma arquitetura regulatória que o Brasil vem construindo desde 2023.

A Resolução CNJ 615/2025 estabeleceu os princípios. O STJ agora começou a aplicá-los concretamente a casos específicos. Espere mais decisões nos próximos meses — provavelmente expandindo a restrição em matéria criminal, mas permitindo flexibilidade em outros ramos do direito.

Para advogados, a mensagem é clara:

  1. Em matéria penal: Argumento poderoso contra provas baseadas em IA generativa
  2. No próprio trabalho: Cuidado redobrado com outputs de IA — alucinações são risco real
  3. Em qualquer contexto: Transparência, validação humana e trilha auditável são obrigatórios

O Judiciário brasileiro está desenhando, em tempo real, como IA pode e não pode coexistir com o devido processo legal. Você precisa acompanhar.

IA Jurídica Com Sigilo Absoluto

Locus.IA processa tudo 100% no seu computador — sem envio de dados, sem vazamento, sem subpoena de terceiros. Supervisão humana integral em cada análise. Alinhada aos princípios da Resolução CNJ 615/2025.

⚖️ Conhecer Locus.IA