Introdução — Quando a sentença não vem de um juiz, mas de um padrão
Há um novo tipo de silêncio nos tribunais contemporâneos. Não é o silêncio solene das cortes antigas, nem o vazio respeitoso entre a fala das partes. É um silêncio mais estranho: o silêncio do cálculo.
Em algum lugar entre servidores, bases de dados e redes neurais, decisões começam a ser sugeridas, calibradas, ranqueadas. O juiz continua ali, toga intacta, mas algo invisível já sussurrou antes dele: “probabilidade de reincidência alta”, “risco processual elevado”, “decisão recomendada”.
E então a pergunta, quase blasfema, se impõe:
pode uma justiça que não sonha ainda ser justiça?
Ou estamos assistindo ao nascimento de uma epistemologia jurídica sem consciência, onde o Direito se converte em estatística aplicada à dor humana?
I. A Razão que Calcula e o Mundo que Sofre
Schopenhauer talvez sorrisse com amargura: o mundo como vontade e representação agora também é o mundo como dataset e previsão.
Nietzsche, por sua vez, desconfiaria imediatamente: toda moral que se apresenta como neutra esconde uma vontade de poder disfarçada de técnica.
E Byung-Chul Han adicionaria um diagnóstico mais contemporâneo: a sociedade da transparência algorítmica não elimina a opacidade, apenas a desloca para dentro das máquinas.
Na ciência, Carl Sagan lembraria que “o universo não tem obrigação de fazer sentido para nós” — mas o Direito insiste que sim. E essa insistência é justamente o que o algoritmo não compreende: a tragédia, o contexto, o não mensurável.
Porque algoritmos não conhecem hesitação. E hesitar, no Direito, não é falha: é método.
II. O Direito como Arquitetura da Incerteza
O ordenamento jurídico brasileiro nasceu sob o signo da contenção do poder.
A Constituição Federal de 1988, em seu artigo 5º, não é apenas um catálogo de direitos — é uma engenharia contra o arbítrio:
inciso LIV: devido processo legal
inciso LV: contraditório e ampla defesa
inciso XXXV: inafastabilidade da jurisdição
Mas o algoritmo não “ouve”. Ele classifica.
E aqui surge um conflito estrutural: o Direito exige narrativa; o algoritmo produz correlação.
A Lei Geral de Proteção de Dados (Lei 13.709/2018) tenta intervir nesse abismo ao prever, em seu art. 20, o direito à revisão de decisões automatizadas que afetem interesses do titular. No entanto, a revisão humana, quando baseada em recomendação algorítmica, ainda é humana ou apenas simbólica?
O Conselho Nacional de Justiça, pela Resolução nº 332/2020, estabelece diretrizes éticas para o uso de inteligência artificial no Judiciário brasileiro, exigindo transparência, auditabilidade e não discriminação.
Mas uma pergunta incômoda permanece:
como auditar uma lógica que aprende sozinha a reproduzir o passado como destino?
III. O Caso COMPAS: quando o futuro vira suspeita
Nos Estados Unidos, o sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) tornou-se símbolo dessa nova era.
Em State v. Loomis (2016, Wisconsin Supreme Court), o réu contestou o uso de algoritmo na definição de sua pena. O tribunal permitiu o uso, mas reconheceu limitações: opacidade do modelo, viés potencial e impossibilidade de plena contestação.
O algoritmo não dizia: “você cometeu um crime”. Ele dizia algo mais perturbador:
“você provavelmente cometerá outro.”
Michel Foucault talvez chamasse isso de deslocamento da punição para a pré-criminalidade. A disciplina deixa de punir o ato e passa a punir a previsão.
E então o Direito deixa de olhar o que foi e passa a condenar o que ainda não existe.
IV. Psicologia do Julgamento: o humano diante da máquina
Albert Bandura falaria de desengajamento moral: quando decisões são mediadas por sistemas, a responsabilidade se dissolve.
Stanley Milgram lembraria que pessoas comuns obedecem sistemas percebidos como legítimos, mesmo quando produzem sofrimento.
Daniel Kahneman mostraria que heurísticas humanas são falíveis — mas ao substituí-las por algoritmos, apenas trocamos um viés intuitivo por um viés matemático invisível.
Na psiquiatria, Bleuler talvez reconhecesse algo inquietante: uma forma de “pensamento autista institucional”, onde o sistema opera fechado em sua própria lógica interna, indiferente ao mundo vivido.
E Winnicott sussurraria algo ainda mais profundo: sem espaço transicional, sem simbolização, a realidade se torna traumática. O algoritmo não simboliza. Ele reduz.
V. O Juiz Invisível: quando o dado substitui a escuta
No Brasil, tribunais vêm adotando sistemas de triagem processual, análise de precedentes e sugestão de decisões.
O argumento é sempre o mesmo: eficiência, celeridade, racionalização da carga judicial.
Mas a eficiência não é neutra. Ela escolhe o que sacrificar.
Byung-Chul Han chamaria isso de “positividade tóxica do desempenho”: tudo deve ser rápido, fluido, otimizado — inclusive a justiça.
O problema é que o sofrimento humano não é otimizado.
Um processo de família, uma prisão preventiva, uma decisão sobre liberdade não são problemas de engenharia. São conflitos existenciais travestidos de autos.
VI. Entre o Código e o Caos: o dilema epistemológico
O Direito sempre lidou com o indeterminável.
Kant já advertia: o entendimento humano não acessa a coisa em si, apenas fenômenos organizados por categorias.
Mas o algoritmo vai além: ele não interpreta fenômenos, ele os substitui por probabilidades.
E aqui surge a ruptura epistemológica:
O juiz trabalha com narrativa
O algoritmo trabalha com correlação
O humano vive contradição
A máquina elimina ambiguidade
Mas eliminar ambiguidade é também eliminar humanidade.
VII. Casos, dados e o real que insiste em escapar
Estudos do National Institute of Justice (EUA) mostram que sistemas preditivos de reincidência podem reproduzir vieses raciais históricos.
Na Europa, o debate em torno do AI Act (2024) classificou sistemas de justiça preditiva como de “alto risco”, exigindo controles rigorosos.
No Brasil, embora ainda incipiente, o uso de IA no Judiciário já envolve triagem de processos em tribunais superiores e análise de precedentes no STF e STJ.
Mas há um dado invisível, raramente citado em relatórios:
quanto mais o sistema automatiza decisões, mais ele reduz a capacidade institucional de aprender com exceções.
E a justiça, sem exceção, deixa de ser justiça e se torna administração de médias.
VIII. Ironia final: o algoritmo que não erra nunca
Há uma ironia silenciosa aqui.
O algoritmo não “erra” no sentido humano. Ele apenas reproduz padrões.
Mas talvez isso seja justamente o problema.
Nietzsche diria: a verdade que não pode ser contestada deixa de ser verdade e se torna dogma.
E um dogma estatístico é mais perigoso que um dogma religioso, porque se apresenta como ausência de dogma.
Conclusão — O Direito ainda pode sonhar?
Se o Direito é uma tentativa civilizatória de conter a violência do mundo, então sua essência não está na precisão, mas na escuta.
Algoritmos não escutam. Eles predizem.
E entre prever e compreender existe um abismo que nenhuma regressão logística atravessa.
Talvez o maior risco não seja o erro da máquina, mas a nossa rendição à sua autoridade silenciosa.
Como diria Hannah Arendt, o perigo não está apenas no mal radical, mas na banalidade do automatizado.
E então resta a pergunta final, que nenhum sistema consegue responder:
uma justiça que não hesita ainda reconhece aquilo que é humano?
Ou estaremos caminhando para um tribunal onde ninguém decide — apenas executa probabilidades que aprenderam a parecer destino?
Bibliografia essencial
Direito e regulação
Constituição Federal de 1988, art. 5º
Lei nº 13.709/2018 (Lei Geral de Proteção de Dados – LGPD)
Resolução CNJ nº 332/2020 (IA no Poder Judiciário)
State v. Loomis, Wisconsin Supreme Court, 2016
European Union Artificial Intelligence Act (2024)
Filosofia e teoria social
Nietzsche, F. – Genealogia da Moral
Foucault, M. – Vigiar e Punir
Byung-Chul Han – Sociedade do Cansaço
Kant, I. – Crítica da Razão Pura
Schopenhauer, A. – O Mundo como Vontade e Representação
Psicologia e psiquiatria
Bandura, A. – Teoria da aprendizagem social
Milgram, S. – Experimentos de obediência
Winnicott, D. W. – teoria do espaço transicional
Bleuler, E. – esquizofrenia e dissociação do pensamento
Kahneman, D. – heurísticas e vieses cognitivos
Ciência e cultura
Sagan, C. – Cosmos
Kahneman, D. – Thinking, Fast and Slow