STJ rejeita relatório de IA como prova e impõe limites ao uso da tecnologia

Advertisement

A Quinta Turma do Superior Tribunal de Justiça (STJ) estabeleceu que relatórios produzidos por inteligência artificial (IA) generativa, sem supervisão humana, não podem ser utilizados como prova em processos penais. A decisão, que anula um documento usado em uma denúncia de injúria racial, foi baseada na falta de confiabilidade da tecnologia e abre um precedente sobre os limites do uso de IA no sistema judiciário brasileiro.

O caso analisado tratava de uma denúncia de injúria racial ocorrida em Mirassol (SP), onde o acusado teria chamado a vítima de “macaco”. A expressão teria sido gravada em vídeo, mas uma perícia oficial do Instituto de Criminalística não conseguiu confirmar a ofensa no áudio, baseando-se em análise técnica de fonética e acústica para sua conclusão.

De acordo com informações do jornal O Tempo, os investigadores utilizaram ferramentas de inteligência artificial para uma nova análise do vídeo. O relatório gerado pela tecnologia concluiu que a expressão ofensiva foi, de fato, pronunciada. Esse documento foi a principal base para a denúncia oferecida pelo Ministério Público de São Paulo (MPSP) contra o acusado.

A defesa do acusado recorreu da decisão, e o caso chegou ao STJ. No julgamento, relatado pelo ministro Reynaldo Soares da Fonseca, a Quinta Turma determinou a exclusão do relatório de IA dos autos do processo. Consequentemente, a ação penal foi trancada, ou seja, encerrada por falta de justa causa para prosseguir com a acusação.

Advertisement

Sistema jurídico exige confiabilidade na produção de provas

Ao analisar o recurso, o ministro Reynaldo da Fonseca argumentou que o problema central não era a legalidade da obtenção do relatório, mas sim sua capacidade de servir como um elemento confiável para sustentar uma acusação criminal. Ele destacou que o sistema jurídico exige que as provas permitam a construção de inferências lógicas e racionais sobre os fatos investigados.

O ministro apontou as limitações da IA generativa, que opera com base em probabilidades e pode gerar dados incorretos com aparência de verdade. “Um dos riscos inerentes à utilização da inteligência artificial generativa é a alucinação, que consiste na apresentação de informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade”, comentou. Ele também notou que as ferramentas usadas processam texto, não áudio, sendo inadequadas para análise fonética.

Afastamento da conclusão da perícia oficial deve ser fundamentado

Outro ponto destacado no voto foi a ausência de uma fundamentação técnica para descartar a conclusão da perícia oficial. O relator enfatizou que, embora um juiz não esteja estritamente vinculado a um laudo pericial, qualquer decisão contrária deve ser justificada com base em outros critérios técnicos igualmente válidos, o que não ocorreu no caso em questão.

“Na hipótese, a leitura da perícia oficial revela todo o raciocínio inferencial e técnico empregado, em oposição ao relatório simplista produzido pela inteligência artificial”, declarou o ministro. Diante disso, a conclusão foi que o documento gerado por IA não possuía a “confiabilidade epistêmica mínima” necessária para ser admitido como prova no processo penal.

Advertisement

Como a denúncia se baseava essencialmente no relatório de IA, a turma julgadora entendeu, de forma unânime, que não havia justa causa para o prosseguimento da ação. O processo foi trancado, mas foi ressalvada a possibilidade de uma nova denúncia ser apresentada, desde que fundamentada em provas consideradas válidas e confiáveis pelo sistema de justiça.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *