Relatório produzido por inteligência artificial generativa, sem validação humana, não pode ser utilizado como prova em processo penal, conforme decidiu a Quinta Turma do Superior Tribunal de Justiça (STJ). O entendimento foi firmado no julgamento de habeas corpus relatado pelo ministro Reynaldo Soares da Fonseca, que resultou na exclusão do documento dos autos e no trancamento da ação.
Pela primeira vez, a Corte se posiciona sobre o uso de ferramentas de IA generativa como meio de prova criminal, estabelecendo um precedente relevante sobre os limites da tecnologia no sistema de Justiça brasileiro. Uma denúncia de injúria racial registrada após uma partida de futebol em Mirassol deu origem ao caso. De acordo com a acusação, o investigado teria proferido a palavra “macaco” contra a vítima, supostamente captada em vídeo.
A perícia oficial realizada pelo Instituto de Criminalística, no entanto, não confirmou a presença da expressão no áudio. Com base em análise técnica de fonética e acústica, o laudo concluiu que não havia elementos compatíveis com o termo apontado.

Em resposta ao resultado pericial, investigadores recorreram a ferramentas de inteligência artificial para examinar o conteúdo audiovisual. O relatório gerado indicou, em sentido oposto, a existência da fala ofensiva e acabou servindo de base para o oferecimento da denúncia pelo Ministério Público de São Paulo.
Ao avaliar a admissibilidade do material, o relator destacou que a controvérsia não está relacionada à legalidade da obtenção da prova ou à cadeia de custódia, mas à sua confiabilidade para sustentar uma acusação penal. Segundo o ministro, o sistema jurídico exige que os elementos probatórios permitam a construção de inferências lógicas e racionais, não se limitando ao critério de licitude.
Entre os pontos levantados no voto, também estão as limitações técnicas da inteligência artificial generativa. O relator observou que esses sistemas operam com base em probabilidades e padrões estatísticos, podendo produzir informações incorretas com aparência de veracidade.
“Um dos riscos inerentes à utilização da inteligência artificial generativa é a alucinação, que consiste na apresentação de informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade”, pontuou.
Além disso, foi ressaltado que as ferramentas utilizadas são voltadas ao processamento de textos e não à análise fonética de áudios, o que compromete sua adequação ao caso concreto. Outro aspecto destacado foi a ausência de fundamentação técnico-científica para afastar as conclusões da perícia oficial. Embora o juiz não esteja vinculado ao laudo, eventual divergência deve ser justificada com base em critérios idôneos, o que não ocorreu na situação analisada.
Na avaliação do relator, “a leitura da perícia oficial revela todo o raciocínio inferencial e técnico empregado, em oposição ao relatório simplista produzido pela inteligência artificial”. Com isso, concluiu que o documento não possui confiabilidade mínima para ser admitido como prova.
Como consequência da decisão, a Terceira Seção determinou a exclusão do relatório dos autos e estabeleceu que o juízo de origem deverá proferir nova decisão sobre a admissibilidade da acusação, sem considerar o material produzido por IA.
Acompanhe mais notícias da Rede ANC através do Instagram, Spotify ou da Rádio ANC.

