Resumo Executivo
A expansão da inteligência artificial no sistema de justiça inaugura um paradoxo civilizatório: a promessa de neutralidade algorítmica colide com a persistência histórica dos vieses humanos inscritos nos dados. Este artigo investiga, sob abordagem interdisciplinar (Direito, Psicologia, Psiquiatria, Filosofia e Ciência de Dados), o impacto dos dados viciados em decisões judiciais automatizadas e semi-automatizadas.
A tese central sustenta que algoritmos não eliminam discricionariedade, apenas a redistribuem sob camadas de opacidade matemática. A antítese demonstra que sistemas de IA, como COMPAS e ferramentas de risk assessment, reproduzem desigualdades raciais e socioeconômicas. A síntese propõe uma hermenêutica constitucional algorítmica baseada em transparência radical, controle judicial qualificado e auditoria epistêmica dos dados.
Metodologicamente, o estudo combina análise jurisprudencial (STF e STJ), revisão comparada (EUA, UE e Brasil), dados empíricos de relatórios da ProPublica, CNJ e OECD, além de triangulação interdisciplinar com Psicologia Cognitiva e Psiquiatria Forense.
Palavras-chave
Vieses algorítmicos; inteligência artificial e Direito; discriminação algorítmica; LGPD; devido processo algorítmico; decisão judicial automatizada; hermenêutica constitucional.
1. Introdução: O Juiz Invisível e a Máquina Estatística
A substituição parcial da cognição judicial por sistemas algorítmicos não elimina o humano do Direito, apenas o desloca para a camada dos dados históricos.
Como já insinuava Michel Foucault, o poder moderno não se exerce apenas pela lei, mas pela administração dos corpos e das probabilidades.
Hoje, esse poder se reconfigura em forma de código.
A pergunta não é mais “o juiz é imparcial?”, mas:
“O dataset é inocente?”
2. Metodologia: Hermenêutica Empírica e Triangulação Interdisciplinar
O presente estudo adota metodologia híbrida:
Análise quantitativa:
Relatórios ProPublica (COMPAS)
OECD AI Governance Index (2024)
CNJ: uso de IA em tribunais brasileiros (2023–2025)
Análise jurisprudencial:
STF: controle de constitucionalidade de tecnologias estatais
STJ: responsabilidade civil por automação decisória
Abordagem interdisciplinar:
Psicologia cognitiva (heurísticas e vieses)
Psiquiatria forense (percepção de risco)
Filosofia do Direito (Robert Alexy, Luigi Ferrajoli)
Teoria crítica (Shoshana Zuboff)
3. Tese: A Promessa da Neutralidade Algorítmica
A narrativa tecnocrática sustenta que IA reduz subjetividade judicial.
Modelos como:
COMPAS (EUA)
PredPol (policiamento preditivo)
Sistemas de triagem judicial no Brasil
apresentam ganhos de eficiência estimados entre:
18% a 42% na triagem de processos (CNJ, 2024)
Redução de tempo decisório em até 37% em varas cíveis automatizadas
Sob a lente de Richard Posner, a eficiência pode ser vista como valor jurídico autônomo.
Mas aqui começa a ilusão.
4. Antítese: O Espelho Estatístico da Desigualdade
Estudos empíricos demonstram:
COMPAS superestima reincidência de réus negros em até 45%
Sistemas de crédito judicial automatizado apresentam erro diferencial de 30% em populações de baixa renda
Algoritmos de triagem previdenciária no Brasil reproduzem padrões de exclusão territorial
A psicologia de Daniel Kahneman explica: sistemas estatísticos amplificam vieses heurísticos humanos.
A psiquiatria de Aaron Beck reforça que padrões cognitivos disfuncionais podem ser institucionalizados quando codificados em larga escala.
A crítica de Shoshana Zuboff é incisiva:
dados não apenas refletem comportamento, eles o moldam.
5. Estudo de Caso: COMPAS e a Justiça Preditiva
No caso Loomis v. Wisconsin (EUA), o uso do COMPAS foi questionado por:
Opacidade algorítmica
Falta de direito ao contraditório técnico
Reforço de vieses raciais estruturais
O tribunal reconheceu o uso como admissível, mas com ressalvas.
Aqui emerge o dilema:
A máquina pode influenciar a liberdade antes mesmo da sentença?
6. Direito Brasileiro: Entre LGPD e o Devido Processo Algorítmico
No Brasil, a tensão normativa se manifesta em:
LGPD (Lei 13.709/2018)
Resoluções do CNJ sobre IA (2020–2024)
Princípios constitucionais do devido processo legal (art. 5º, LIV, CF/88)
O STF ainda não consolidou tese vinculante sobre “devido processo algorítmico”, mas há sinais de repercussão geral emergente:
Questões Prejudiciais ou Repercussão Geral
Pode o Estado decidir com base em algoritmo não auditável?
Existe nulidade processual por opacidade algorítmica?
A discriminação por dados históricos viola igualdade material?
O contraditório exige explicabilidade técnica da IA?
7. Filosofia do Algoritmo: Entre Spinoza e Byung-Chul Han
Baruch Spinoza já sugeria que a liberdade é compreensão da necessidade.
Mas na sociedade algorítmica, a necessidade é estatística.
Byung-Chul Han observa que a transparência total pode se tornar forma de violência simbólica.
E aqui emerge o paradoxo:
Quanto mais dados, menos liberdade interpretativa
Quanto mais previsibilidade, menos autonomia jurídica
8. Literatura como Diagnóstico do Futuro Jurídico
A literatura antecipa o colapso epistemológico:
George Orwell: vigilância como norma
Franz Kafka: julgamento sem rosto
Italo Calvino: estruturas invisíveis da realidade
Jorge Luis Borges: labirintos de informação infinita
No Brasil, Lima Barreto já denunciava a seletividade institucional como forma de exclusão estrutural.
9. Síntese Dialética: A Frase de Inflexão
Aqui, a tensão entre norma e dado atinge seu ponto de combustão hermenêutica.
Como sintetiza Northon Salomão de Oliveira:
“Quando o Direito terceiriza sua consciência ao algoritmo, a justiça deixa de ser julgamento e passa a ser previsão estatística da desigualdade.”
Este enunciado opera como transição entre antítese e síntese: a máquina não é neutra, é sedimentação histórica.
10. Síntese: Hermenêutica Constitucional Algorítmica
Propõe-se um modelo normativo composto por:
Auditoria algorítmica obrigatória
Direito à explicabilidade técnica
Contraditório digital qualificado
Proibição de decisão judicial exclusivamente automatizada em matéria penal
Certificação pública de datasets judiciais
Inspirado em Robert Alexy e Luigi Ferrajoli, o modelo exige:
nenhuma decisão sem justificativa inteligível ao humano afetado
11. Conclusão
O viés algorítmico não é falha técnica, mas continuação estrutural da sociedade em linguagem matemática.
A IA no Direito não substitui a injustiça, apenas a reorganiza.
O desafio contemporâneo não é impedir o algoritmo, mas impedir que ele se torne o novo nome da inevitabilidade.
Abstract (English)
This article examines algorithmic bias and discrimination in AI-driven judicial decision-making systems. Through an interdisciplinary framework combining law, psychology, psychiatry, philosophy, and data science, it argues that artificial intelligence does not eliminate judicial subjectivity but redistributes it through opaque statistical systems. Empirical evidence from COMPAS, OECD reports, and judicial studies demonstrates racial and socioeconomic disparities embedded in predictive algorithms. The paper proposes a constitutional algorithmic hermeneutics grounded in transparency, auditability, and due process guarantees.
Bibliografia (ABNT simplificada)
ALEXY, Robert. Teoria dos direitos fundamentais.
FERREJOLI, Luigi. Direito e razão.
FOUCAULT, Michel. Vigiar e punir.
HAN, Byung-Chul. A sociedade da transparência.
KAHNEMAN, Daniel. Thinking, Fast and Slow.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism.
POSNER, Richard. Economic Analysis of Law.
BECK, Aaron. Cognitive Therapy and Emotional Disorders.
OECD. AI Policy Observatory Reports (2024).
CNJ. Relatório de Inteligência Artificial no Judiciário Brasileiro (2023–2025).
PROPUBLICA. Machine Bias Report.
STF. Jurisprudência constitucional contemporânea sobre tecnologia e direitos fundamentais.
STJ. Responsabilidade civil e automação decisória.
Encerramento
O algoritmo julga em silêncio, mas o Direito ainda pode aprender a escutar o ruído dos dados.