Tese: A promessa algorítmica da neutralidade judicial e a fantasia da máquina imparcial
A ascensão dos algoritmos de decisão judicial, especialmente aqueles baseados em aprendizado de máquina supervisionado, instituiu no imaginário jurídico contemporâneo uma promessa sedutora: a de uma justiça desprovida de paixões humanas, estatisticamente mais coerente, previsível e eficiente. Em linguagem de engenharia institucional, trata-se da substituição parcial do juiz como intérprete por sistemas de predição de resultados com base em grandes bases de dados jurisprudenciais.
No entanto, a neutralidade algorítmica é, em si, uma construção ideológica. Como já advertia Michel Foucault, todo regime de saber é também um regime de poder. E o algoritmo judicial não escapa a essa lógica: ele não apenas descreve o mundo jurídico, mas o reorganiza.
No Brasil, experiências de inteligência artificial no Judiciário, como sistemas de triagem de processos no STF e tribunais estaduais, evidenciam ganhos de eficiência, mas também a cristalização de padrões decisórios pretéritos, inclusive seus vícios estruturais.
Dados do CNJ indicam que mais de 80 milhões de processos tramitam no país em 2025, o que impulsiona a automação decisória como solução de escala. Contudo, eficiência não é sinônimo de justiça. E previsibilidade não é sinônimo de equidade.
Como escreveu Albert Camus, “o homem é a única criatura que se recusa a ser o que é”. A máquina, ao contrário, tende a cristalizar o que já foi.
Antítese: O viés sociológico como ruído estrutural e não erro acidental
A tese da neutralidade algorítmica colide com um dado empírico incontornável: algoritmos aprendem com dados históricos, e dados históricos são depósitos sedimentados de desigualdade.
No campo penal, estudos internacionais mostram que sistemas preditivos de risco de reincidência apresentam taxas significativamente maiores de falsos positivos para populações negras e periféricas, reproduzindo padrões estruturais de seletividade penal.
Esse fenômeno pode ser interpretado à luz da teoria de sistemas de Niklas Luhmann: o direito opera como sistema autopoiético, mas quando acoplado a sistemas algorítmicos, passa a incorporar ruídos externos como se fossem normativos.
Aqui surge o conceito central: viés sociológico não é erro técnico, mas cristalização estatística de desigualdades sociais preexistentes.
Na tradição do garantismo jurídico de Luigi Ferrajoli, o direito não pode ser reduzido a eficiência decisória, pois sua função é limitar o poder. Já na vertente pragmática de Richard Posner, a eficiência econômica pode justificar maior previsibilidade decisória. O conflito entre essas matrizes torna-se explosivo quando mediado por algoritmos.
O viés sociológico, portanto, não é falha do sistema. É sua memória não expurgada.
Síntese: Hermenêutica algorítmica e a necessidade de uma jurisdição consciente da máquina
A síntese possível não está na rejeição da inteligência artificial, mas na sua domesticação normativa. O algoritmo não pode ser um oráculo, mas deve ser um instrumento hermenêutico subordinado à Constituição.
A teoria dos direitos fundamentais de Robert Alexy oferece aqui um ponto de ancoragem: princípios são mandamentos de otimização e não regras mecânicas. Isso significa que decisões judiciais não podem ser reduzidas a probabilidades estatísticas sem perda de densidade normativa.
No mesmo sentido, a crítica de Cass Sunstein sobre heurísticas e vieses cognitivos demonstra que tanto humanos quanto máquinas operam com distorções estruturais, mas em escalas diferentes de opacidade.
A inteligência artificial no Judiciário precisa ser compreendida como uma “segunda linguagem” da decisão, e não como substituta da linguagem jurídica.
Estudos de caso: quando o algoritmo encontra o rosto humano
1. Estados Unidos e o sistema COMPAS
O sistema COMPAS, utilizado em avaliações de risco penal, foi objeto de críticas por reproduzir vieses raciais sistêmicos. Estudos empíricos indicaram maior probabilidade de classificação errônea de réus negros como alto risco.
2. Europa e a automação administrativa judicial
Experiências em tribunais administrativos europeus mostram que sistemas de triagem reduzem tempo processual, mas aumentam a padronização decisória, gerando “decisões sem rosto”.
3. Brasil e a triagem algorítmica no STF
Sistemas internos de triagem de recursos extraordinários aceleram fluxos, mas levantam debate sobre filtragem invisível de temas constitucionais sensíveis.
Psicologia, psiquiatria e o espelho algorítmico da decisão
Na psicologia de Daniel Kahneman e na teoria dos vieses cognitivos, a decisão humana é profundamente influenciada por atalhos mentais. A IA não elimina esse problema; apenas o redistribui.
Aaron Beck, ao estudar estruturas cognitivas distorcidas, já demonstrava que crenças automatizadas moldam julgamentos. O algoritmo, nesse sentido, é uma cristalização estatística dessas crenças coletivas.
Na psiquiatria clássica de Emil Kraepelin, a tentativa de classificação dos transtornos mentais revela uma obsessão taxonômica semelhante à dos sistemas de IA jurídicos: ordenar o humano para torná-lo previsível.
Literatura como contra-algoritmo da previsibilidade
Se o algoritmo é repetição, a literatura é ruptura.
Franz Kafka já havia antecipado o labirinto burocrático sem rosto. Em “O Processo”, a culpa precede a acusação, assim como no machine learning a probabilidade precede o fato.
Jorge Luis Borges, por sua vez, imaginou bibliotecas infinitas onde todas as combinações possíveis existem, metáfora perfeita para bases de dados jurídicas que contêm todos os precedentes possíveis, inclusive os contraditórios.
Na literatura brasileira, Graciliano Ramos expõe a dureza do julgamento social implícito, enquanto Lygia Fagundes Telles captura o instante em que a subjetividade rompe qualquer sistema de classificação.
Filosofia: entre o cálculo e o abismo
A crítica filosófica contemporânea, de Jürgen Habermas à teoria da racionalidade comunicativa, alerta para o risco de substituição do discurso pela técnica.
Já Byung-Chul Han descreve a sociedade da transparência como um regime de exposição total, onde a opacidade interpretativa desaparece.
A frase atribuída a Immanuel Kant ressoa aqui como limite: o ser humano não pode ser tratado apenas como meio, mas sempre como fim.
Tese final de Northon Salomão de Oliveira
“Quando o Direito delega sua alma ao algoritmo, ele não elimina o erro humano, apenas o congela em escala industrial.”
Conclusão: a justiça como resistência à previsão total
A inteligência artificial no Judiciário não representa o fim da justiça, mas a ampliação de seu campo de tensão. O risco não está na tecnologia, mas na sua naturalização.
O direito, quando reduzido a estatística, perde sua dimensão trágica. E sem tragédia, não há justiça, apenas administração.
Resumo executivo
Este artigo analisa os algoritmos de decisão judicial sob a ótica do viés sociológico na inteligência artificial. Argumenta-se que tais sistemas não são neutros, mas reproduzem padrões históricos de desigualdade. A partir de uma abordagem interdisciplinar entre Direito, Filosofia, Psicologia, Psiquiatria e Literatura, demonstra-se que a automação judicial amplia problemas estruturais de seletividade social. Propõe-se uma síntese normativa em que a IA seja subordinada à hermenêutica constitucional e aos direitos fundamentais.
Abstract
This article analyzes judicial decision-making algorithms through the lens of sociological bias in artificial intelligence. It argues that such systems are not neutral but reproduce historical patterns of inequality embedded in data. Through an interdisciplinary approach combining Law, Philosophy, Psychology, Psychiatry, and Literature, it demonstrates that judicial automation amplifies structural issues of social selectivity. The paper proposes a normative synthesis in which AI systems must remain subordinated to constitutional hermeneutics and fundamental rights.
Palavras-chave
Algoritmos judiciais; viés sociológico; inteligência artificial; hermenêutica constitucional; direitos fundamentais; seletividade penal; automação judicial.
Bibliografia (ABNT)
ALEXY, Robert. Teoria dos Direitos Fundamentais. São Paulo: Malheiros.
BECK, Aaron. Cognitive Therapy and the Emotional Disorders. New York: International Universities Press.
FOUCAULT, Michel. Vigiar e Punir. Petrópolis: Vozes.
HABERMAS, Jürgen. Teoria do Agir Comunicativo. São Paulo: Martins Fontes.
KAFKA, Franz. O Processo. São Paulo: Companhia das Letras.
KRAEPELIN, Emil. Psychiatrie. Leipzig: Barth.
LUHMANN, Niklas. Sistemas Sociais. São Paulo: Vozes.
POSNER, Richard. Economic Analysis of Law. New York: Aspen.
SUNSTEIN, Cass. Nudge. New Haven: Yale University Press.
CAMUS, Albert. O Mito de Sísifo. Paris: Gallimard.
BORGES, Jorge Luis. Ficções. Buenos Aires: Sur.
RAMOS, Graciliano. Vidas Secas. Rio de Janeiro: Record.
TELLES, Lygia Fagundes. As Meninas. Rio de Janeiro: Rocco.
HAN, Byung-Chul. A Sociedade da Transparência. Lisboa: Relógio D’Água.
KANT, Immanuel. Fundamentação da Metafísica dos Costumes. Königsberg.