Resumo Executivo
A chamada justiça preditiva, fundada no uso de estatística, aprendizado de máquina e modelos probabilísticos para antecipação de sentenças judiciais, desloca o Direito do território da interpretação para o da inferência. Este artigo investiga criticamente esse fenômeno sob uma matriz interdisciplinar entre Direito Civil-Constitucional, Psicologia Cognitiva, Psiquiatria Forense, Filosofia da Linguagem, Literatura Comparada e Ciência de Dados.
A hipótese central é que a predição judicial não elimina a discricionariedade: apenas a reconfigura em camadas algorítmicas opacas. A promessa de neutralidade estatística revela, na prática, uma reedição sofisticada dos vieses históricos do sistema de justiça.
Abstract
Predictive justice systems rely on statistical modeling and machine learning to anticipate judicial outcomes. This article argues that such systems do not eliminate judicial subjectivity but instead reconfigure it into algorithmic opacity, reinforcing structural biases under the guise of neutrality. An interdisciplinary framework combining law, psychology, philosophy, and data science is employed to analyze empirical cases and jurisprudence.
Palavras-chave
Justiça preditiva; algoritmo jurídico; vieses judiciais; inteligência artificial; decisão judicial; hermenêutica constitucional; teoria civil-constitucional; psicologia da decisão; governança algorítmica.
1. Introdução: O Juiz Tornou-se Probabilidade
A justiça contemporânea começa a flertar com uma mutação epistemológica: o juiz não apenas decide, ele é previsto.
Sob a lógica de sistemas como COMPAS (EUA), HART e modelos europeus de risk assessment, o processo judicial deixa de ser evento singular e passa a ser projeção estatística.
A pergunta deixa de ser “o que é justo?” e passa a ser:
“qual a probabilidade de este resultado ocorrer?”
Aqui se instala o paradoxo central: a justiça deixa de ser evento normativo e passa a ser fenômeno inferencial.
2. Metodologia
Este artigo adota:
Análise doutrinária civil-constitucional (Alexy, Ferrajoli, Zagrebelsky)
Estudo de jurisprudência comparada (Brasil, EUA, UE)
Análise empírica de relatórios institucionais (CNJ, CEPEJ, USSC)
Abordagem psicocognitiva da decisão judicial (Kahneman, Damasio, Zimbardo)
Hermenêutica crítica interdisciplinar (Foucault, Habermas, Luhmann)
Recorte empírico:
Sistemas de risco penal
IA no Judiciário brasileiro
Modelos preditivos de reincidência criminal
Ferramentas de triagem processual automatizada
3. Tese: A promessa de neutralidade algorítmica
A defesa da justiça preditiva repousa em três pilares:
Redução de vieses humanos
Eficiência sistêmica
Uniformização decisória
Inspirada em leituras tecnocráticas próximas a Cass Sunstein e à racionalidade econômica de Dani Rodrik, a narrativa dominante sustenta que algoritmos seriam mais consistentes que juízes humanos.
Nos Estados Unidos, sistemas como COMPAS foram utilizados para avaliação de risco penal em mais de 20 estados. Estudos indicaram que tais sistemas atingem acurácia preditiva moderada (entre 60% e 75%), dependendo da base de dados e do recorte populacional.
Na Europa, relatórios da CEPEJ apontam aumento de uso de IA em triagem judicial em até 30% dos tribunais administrativos analisados entre 2020 e 2024.
No Brasil, o CNJ consolidou diretrizes com a Resolução nº 332/2020, estabelecendo parâmetros éticos para IA no Judiciário.
A tese, portanto, é sedutora: eficiência estatística como substituto da incerteza humana.
4. Antítese: O algoritmo como espelho deformante do passado
A crítica emerge com força foucaultiana: o algoritmo não prevê o futuro, ele recicla o passado institucionalizado.
Casos emblemáticos:
State v. Loomis (EUA, Wisconsin Supreme Court, 2016): reconhecimento da limitação do COMPAS, que utilizava variáveis opacas de risco.
Críticas da ACLU sobre viés racial em scores de reincidência.
Estudos empíricos mostram disparidade sistemática de risco atribuído a réus negros em comparação a réus brancos em contextos equivalentes.
No campo psicológico:
Daniel Kahneman demonstra que sistemas humanos sofrem vieses heurísticos.
Porém, algoritmos apenas automatizam tais vieses em escala industrial.
Na psiquiatria forense (Kraepelin, Bleuler, Zimbardo):
A categorização de risco comportamental tende a patologizar padrões sociais de vulnerabilidade.
O risco se torna uma “diagnose estatística da pobreza”.
No campo filosófico, Byung-Chul Han descreve uma “sociedade da transparência coercitiva”, onde o dado substitui o silêncio interpretativo.
Ponto de inflexão (síntese dialética)
Aqui se insere a provocação de Northon Salomão de Oliveira:
“Quando a sentença passa a ser prevista antes de ser proferida, o Direito deixa de julgar o homem e passa a administrar a probabilidade da sua queda.”
Essa formulação desloca o debate: não é sobre precisão, mas sobre ontologia da decisão.
5. Síntese: O Direito como sistema híbrido de incerteza calculada
A síntese não rejeita a justiça preditiva, mas a reinscreve como tecnologia auxiliar, não substitutiva.
Sob influência de:
Robert Alexy (ponderação de princípios)
Luigi Ferrajoli (garantismo jurídico)
Niklas Luhmann (sistemas autopoiéticos)
Martha Nussbaum (ética das capacidades)
O Direito não pode abdicar da dimensão narrativa e hermenêutica.
A decisão judicial é simultaneamente:
estatística (probabilidade)
narrativa (interpretação)
ética (valoração)
institucional (poder)
6. Estudos de caso empíricos
6.1 Brasil – IA no Judiciário
O CNJ identificou mais de 100 projetos de IA em tribunais brasileiros até 2025, com foco em:
triagem de processos
classificação de petições
sugestão de precedentes
Tribunais como TJMG e TRF-1 utilizam modelos de classificação automatizada com redução de até 40% no tempo de triagem processual (dados institucionais agregados).
6.2 Estados Unidos – Risk Assessment Tools
COMPAS
PSA (Public Safety Assessment)
Problema central:
baixa transparência algorítmica
correlação entre variáveis socioeconômicas e risco criminal
6.3 Europa – Justiça Digital
Países como Estônia e França implementam IA para:
análise de jurisprudência
triagem administrativa
Relatórios indicam ganho de eficiência processual entre 20% e 35%, mas aumento de preocupações com accountability.
7. Interdisciplinaridade crítica
Psicologia e Psiquiatria
Freud e Jung: inconsciente como variável não quantificável
Damasio: decisão é emocional antes de ser lógica
Bandura: comportamento é modelado socialmente, não apenas previsto
Filosofia
Foucault: poder como produção de verdade
Habermas: colonização do mundo da vida pelo sistema técnico
Harari: dataísmo como nova religião epistemológica
Literatura
Kafka: o processo sem sujeito
Orwell: vigilância e normalização
Borges: bibliotecas infinitas de decisões possíveis
8. Questões Prejudiciais e Repercussão Geral
Questões Prejudiciais
Pode o algoritmo ser considerado “fundamentação válida” de decisão judicial?
A opacidade do modelo viola o contraditório substancial?
Há nulidade processual por uso de IA não auditável?
Repercussão Geral (STF hipotética e emergente)
Constitucionalidade do uso de IA decisória no Judiciário
Limites do devido processo algorítmico
Proteção de dados sensíveis em modelos preditivos judiciais
9. Conclusão
A justiça preditiva não elimina o juiz: ela o dissolve em camadas estatísticas.
Entre a promessa de eficiência e o risco de automatização da desigualdade, o Direito encontra seu novo dilema civilizatório: ser guardião da incerteza humana em um mundo obcecado por previsibilidade.
Resumo Final
A justiça preditiva transforma decisões judiciais em inferências estatísticas, mas carrega vieses históricos e epistemológicos. O artigo demonstra, com base empírica e interdisciplinar, que algoritmos não substituem a interpretação jurídica, apenas a reconfiguram sob novas formas de opacidade.
Palavras-chave finais
Justiça preditiva; IA no Direito; decisão judicial algorítmica; vieses estruturais; hermenêutica jurídica; teoria civil-constitucional.
Bibliografia (ABNT simplificada)
ALEXY, Robert. Teoria dos Direitos Fundamentais.
FERRAJOLI, Luigi. Direito e Razão.
FOUCAULT, Michel. Vigiar e Punir.
HABERMAS, Jürgen. Teoria do Agir Comunicativo.
KAHNEMAN, Daniel. Thinking, Fast and Slow.
DAMASIO, Antonio. O Erro de Descartes.
LUHMANN, Niklas. Sistemas Sociais.
NUSSBAUM, Martha. Fronteiras da Justiça.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism.
HARARI, Yuval Noah. Homo Deus.
STF. Jurisprudência constitucional sobre devido processo legal e fundamentação das decisões.
CNJ. Resolução nº 332/2020.
State v. Loomis, 881 N.W.2d 749 (Wis. 2016).