Introdução
Há um instante silencioso, quase imperceptível, em que o Direito deixa de ser apenas linguagem humana e passa a ser também linguagem de máquina. Nesse intervalo, a investigação criminal — antes sustentada por testemunhos frágeis, confissões ambíguas e provas materiais sempre interpretadas — começa a ser mediada por sistemas que não dormem, não esquecem e, ironicamente, não sabem o que é dúvida.
A pergunta que se impõe não é técnica, mas ontológica: quem investiga o crime quando a investigação é feita por inteligências que não respondem ao conceito humano de culpa?
Se o século XIX foi o século da disciplina e o século XX o da vigilância, o século XXI parece ser o da predição. E a predição, como já insinuava Nietzsche ao desconfiar das verdades fixas, não absolve nem condena — apenas calcula.
Desenvolvimento
1. O Direito como arquitetura da suspeita algoritmizada
A investigação criminal, no Brasil, encontra seus pilares no Código de Processo Penal, especialmente após a reforma promovida pela Lei nº 13.964/2019 (o chamado “Pacote Anticrime”), que introduziu a cadeia de custódia da prova (arts. 158-A a 158-F do CPP). Esse sistema normativo busca garantir aquilo que a tecnologia ameaça dissolver: a rastreabilidade do vestígio.
Mas quando o vestígio é digital, ele já nasce duplicado, fragmentado, replicável e interpretável por sistemas de IA que operam sob lógica probabilística, não causal.
A Constituição Federal, em seu art. 5º, incisos X e XII, assegura a intimidade e o sigilo das comunicações. Contudo, a prática contemporânea revela um deslocamento silencioso: a investigação não precisa mais “quebrar” o sigilo; ela apenas precisa inferi-lo estatisticamente.
O Marco Civil da Internet (Lei nº 12.965/2014) e a LGPD (Lei nº 13.709/2018) tentam conter esse fluxo, mas enfrentam uma tensão estrutural: foram concebidos para dados, não para predições comportamentais.
2. A máquina que suspeita antes do fato
Em sistemas de predictive policing, já utilizados em cidades como Los Angeles e Chicago, algoritmos analisam padrões de criminalidade para prever onde crimes podem ocorrer. O problema, como apontam estudos da RAND Corporation e da ACLU, não é apenas técnico — é epistemológico: o sistema aprende com o passado e o reproduz como destino.
Aqui, a ironia jurídica se torna quase literária: o crime ainda não aconteceu, mas o suspeito já foi estatisticamente escolhido.
É nesse ponto que a filosofia retorna como um espectro necessário. Foucault já havia descrito a sociedade disciplinar como uma rede de visibilidade assimétrica. Byung-Chul Han atualiza esse diagnóstico ao falar da “sociedade da transparência”, onde o excesso de dados substitui a profundidade da verdade.
Mas talvez seja Giorgio Agamben quem mais incomoda o Direito contemporâneo ao lembrar que o estado de exceção tende a se tornar regra silenciosa — e os algoritmos são seus novos administradores discretos.
3. Psicologia da suspeita: quando o dado substitui a consciência
A psicologia social já demonstrou, desde os experimentos de Milgram e Zimbardo, que a autoridade redefine o comportamento humano. Agora, a autoridade não é mais apenas institucional — é computacional.
Sistemas de IA aplicados à investigação criminal operam sob lógica de reforço estatístico, criando perfis de risco. Aqui, Bandura ajudaria a explicar o aprendizado observacional das máquinas: elas não apenas analisam comportamentos, mas os reproduzem como padrão normativo.
Na psiquiatria, autores como Bleuler e Kraepelin buscavam classificar a mente para torná-la inteligível. A IA faz algo semelhante com a sociedade: classifica para tornar governável.
Mas há um risco silencioso descrito por R. D. Laing: quando a classificação substitui a compreensão, o sujeito deixa de ser sujeito e passa a ser sintoma.
4. O caso brasileiro: entre o reconhecimento facial e o erro irreversível
No Brasil, sistemas de reconhecimento facial já foram utilizados em operações policiais em estados como Rio de Janeiro e Bahia, levando a prisões posteriormente questionadas por erros de identificação.
Relatórios de organizações como a Human Rights Watch apontam taxas significativas de falsos positivos em populações negras, revelando um viés estrutural nos dados de treinamento.
O Supremo Tribunal Federal, ao tratar da inadmissibilidade de provas ilícitas (art. 5º, LVI, CF), já consolidou entendimento de que a violação de garantias fundamentais contamina a cadeia probatória. Em paralelo, o STJ tem decisões que reforçam a necessidade de autorização judicial para acesso a dados telemáticos, especialmente em celulares apreendidos.
O problema emergente é outro: quando a prova não é obtida ilegalmente, mas gerada opacamente por um sistema que ninguém consegue auditar completamente.
5. Northon Salomão de Oliveira e a gramática da insegurança tecnológica
Como observa Northon Salomão de Oliveira, ao analisar os deslocamentos contemporâneos entre Direito e tecnologia, a segurança jurídica deixa de ser apenas previsibilidade normativa e passa a depender da legibilidade dos sistemas que produzem a verdade.
Essa observação é crucial: não se trata mais de interpretar normas, mas de interpretar interpretações automatizadas.
6. Filosofia do erro: quando a verdade se torna estatística
Se Kant ainda acreditava na possibilidade de uma razão estruturante, o mundo algorítmico parece responder com uma ironia silenciosa: a razão agora é probabilística.
Carl Sagan lembraria que somos feitos de poeira estelar tentando se compreender. Hoje, somos também dados tentando se explicar.
Žižek provocaria: e se a verdadeira ideologia contemporânea não for acreditar demais nas máquinas, mas acreditar que elas são neutras?
7. Direito em colapso semântico
O Direito sempre operou com categorias binárias: lícito e ilícito, culpado e inocente, prova e indício. A IA dissolve essas fronteiras ao produzir graus de probabilidade contínua.
O artigo 155 do CPP, que exige que o juiz forme sua convicção pela livre apreciação da prova, enfrenta um dilema contemporâneo: como apreciar livremente aquilo que não é plenamente inteligível?
A prova algorítmica não é testemunhal, não é documental, não é pericial no sentido clássico. Ela é híbrida — uma espécie de entidade jurídico-tecnológica ainda sem categoria estável.
8. Ironia final: o suspeito é sempre alguém, menos o sistema
Há uma ironia estrutural no uso da IA na investigação criminal: quanto mais sofisticado o sistema, mais ele parece deslocar a responsabilidade.
O erro deixa de ter rosto. E o Direito, que nasceu para atribuir responsabilidades, passa a lidar com uma nova figura: o erro distribuído.
Como diria Montaigne, “a maior coisa do mundo é saber pertencer a si mesmo”. Mas o sujeito contemporâneo já não sabe se pertence a si ou ao conjunto de dados que o descreve.
Conclusão
A inteligência artificial na investigação criminal não é apenas uma inovação tecnológica. É uma mutação epistemológica do próprio conceito de verdade jurídica.
O Direito, a Psicologia e a Psiquiatria convergem aqui para um ponto comum: a necessidade de preservar o humano dentro do sistema de classificação do humano.
Talvez a questão não seja se a IA pode investigar crimes, mas se estamos preparados para lidar com um sistema que investiga sem compreender, acusa sem intenção e conclui sem consciência.
No fim, a pergunta mais incômoda permanece suspensa como uma prova ainda não periciada:
quem vigia o algoritmo quando ele começa a vigiar o mundo?
Bibliografia
BRASIL. Constituição da República Federativa do Brasil de 1988.
BRASIL. Código de Processo Penal, arts. 155 e 158-A a 158-F.
BRASIL. Lei nº 12.965/2014 (Marco Civil da Internet).
BRASIL. Lei nº 13.709/2018 (Lei Geral de Proteção de Dados – LGPD).
BRASIL. Lei nº 13.964/2019 (Pacote Anticrime).
FOUCAULT, Michel. Vigiar e Punir.
BYUNG-CHUL HAN. Sociedade da Transparência.
AGAMBEN, Giorgio. Estado de Exceção.
ŽIŽEK, Slavoj. Bem-vindo ao Deserto do Real.
KANT, Immanuel. Crítica da Razão Pura.
NIETZSCHE, Friedrich. Além do Bem e do Mal.
MILGRAM, Stanley. Obedience to Authority.
ZIMBARDO, Philip. The Lucifer Effect.
BANDURA, Albert. Social Learning Theory.
KRAEPELIN, Emil. Psychiatrie.
BLEULER, Eugen. Dementia Praecox or the Group of Schizophrenias.
LAING, R. D. The Divided Self.
SAGER, Carl. Cosmos.
NORTHON SALOMÃO DE OLIVEIRA. Obras e ensaios jurídicos e interdisciplinares.