O julgamento invisível: algoritmos que decidem destinos na justiça automatizada

09/04/2026 às 18:59
Leia nesta página:

Introdução — quando o juiz não usa toga, mas código

Há um novo tipo de tribunal surgindo sem colunas, sem madeira, sem martelo. Ele não fala latim jurídico nem consulta doutrina. Ele apenas calcula.

O réu não entra algemado, entra como dado.

E o veredicto não vem de uma sentença humana, mas de uma probabilidade: risco de inadimplência, chance de reincidência, probabilidade de fraude, score de crédito, perfil comportamental, compatibilidade algorítmica.

Como perguntaria Montaigne, se vivesse entre servidores e nuvens digitais: o que resta do humano quando sua alma é reduzida a previsão estatística?

A questão não é mais apenas jurídica. É ontológica.

Quem decide o destino quando a decisão foi previamente distribuída por modelos matemáticos treinados em ruínas sociais?

Aqui o Direito encontra a Psicologia, a Psiquiatria e a Filosofia como quem se encontra numa sala sem portas: ninguém sabe exatamente como entrou, mas todos precisam decidir como sair.

I. O império silencioso dos algoritmos: entre Kant e o banco de dados

Kant sonhava com uma razão universal. Hoje temos algo mais pragmático e menos honroso: uma racionalidade preditiva.

Os algoritmos não julgam como seres morais, mas como economistas da realidade. Eles otimizam. Reduzem incerteza. Eliminam ruído humano.

Byung-Chul Han chamaria isso de psicopolítica do dado: não somos mais disciplinados por proibições, mas guiados por antecipações. Não há “você não pode”, mas “você provavelmente não é adequado”.

No Direito brasileiro, essa tensão aparece de forma concreta na Lei Geral de Proteção de Dados (Lei 13.709/2018), especialmente no:

Art. 6º (princípios da finalidade, adequação, necessidade e transparência)

Art. 20 (direito de revisão de decisões automatizadas)

O legislador tentou inscrever Kant no código civil do século XXI: toda decisão automatizada deve, em tese, ser explicável, revisável e contestável.

Mas o algoritmo ri em silêncio estatístico. Ele não explica. Ele correlaciona.

E aqui surge a primeira ironia jurídica: como exigir motivação de uma estrutura que não possui intenção?

II. O caso Loomis e o julgamento probabilístico da alma

Nos Estados Unidos, o caso State v. Loomis (2016) tornou-se um marco sombrio.

Um sistema algorítmico chamado COMPAS auxiliou na definição da pena de um réu, estimando risco de reincidência.

O tribunal aceitou seu uso, mas com ressalvas: o algoritmo não deveria ser o único fator decisório.

Mas a pergunta permanece como espectro jurídico:

Se o juiz confia no algoritmo, quem é o juiz?

E se o juiz não confia, por que ele o usa?

Schopenhauer talvez sorrisse com amargura: a vontade do mundo apenas trocou de linguagem, do desejo humano para a probabilidade matemática.

III. Psicologia e psiquiatria do perfil: o sujeito como previsão

Freud veria aqui uma mutação curiosa: o inconsciente deixou de ser reprimido e passou a ser modelado.

Jung talvez falasse em arquétipos digitais: padrões que não emergem do inconsciente coletivo, mas de datasets coletivos.

Já Aaron Beck, pai da terapia cognitiva, reconheceria algo inquietante: os algoritmos funcionam como terapeutas invertidos. Eles não curam distorções cognitivas. Eles as institucionalizam.

E Zimbardo, com seu experimento de Stanford ecoando em servidores globais, talvez dissesse: o sistema não apenas observa o comportamento humano, ele o induz.

O problema psiquiátrico aqui não é o indivíduo.

É o sistema que aprende com a patologia coletiva e a transforma em norma estatística.

IV. Foucault no servidor: vigilância sem carcereiro

Foucault descreveu o panóptico: o poder que vigia sem ser visto.

Os algoritmos são o panóptico sem torre.

Não há vigia humano. Há apenas uma arquitetura de inferência contínua.

Cada clique é um sintoma.

Cada pausa, um diagnóstico.

Cada ausência, uma suspeita.

E o mais inquietante: não há necessidade de coerção direta. O comportamento é moldado antes mesmo de se tornar escolha.

Aqui Habermas entra em conflito com o código: como sustentar uma esfera pública racional quando a própria visibilidade é mediada por sistemas opacos de ranqueamento?

V. Direito em colapso epistemológico: quando a prova é probabilidade

No processo jurídico tradicional, a prova é narrativa: testemunhos, documentos, vestígios.

No processo algorítmico, a prova é correlação.

Mas correlação não é causalidade.

E aqui nasce uma fratura epistemológica.

O Código de Processo Civil brasileiro exige fundamentação das decisões judiciais (art. 489). Mas como fundamentar uma decisão que se apoia em uma estrutura que não revela seus pesos internos?

O risco é claro: um Direito que deixa de julgar fatos e passa a validar inferências.

O juiz deixa de ser intérprete e passa a ser homologador de modelos.

VI. Casos reais: o preconceito escondido na matemática

A ciência já demonstrou o que o Direito começa a enfrentar com atraso:

O sistema de recrutamento da Amazon foi descontinuado após reproduzir viés contra mulheres, ao aprender com dados históricos masculinizados.

Sistemas de reconhecimento facial apresentaram taxas significativamente maiores de erro em pessoas negras, como demonstrado em estudos do MIT Media Lab.

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

O sistema Google Photos já rotulou pessoas negras de forma racista em seus primeiros modelos públicos.

Aqui não há malícia humana. Há algo mais inquietante: a cristalização estatística do preconceito.

Como diria Nietzsche, o problema não é que o algoritmo seja injusto. O problema é que ele é eficaz em repetir a injustiça do mundo.

VII. Byung-Chul Han, Piketty e a economia do destino

Piketty falaria em desigualdade estrutural reproduzida por dados.

Byung-Chul Han falaria em transparência coercitiva.

Carl Sagan lembraria que somos poeira estelar tentando se compreender através de máquinas que criamos.

E Agamben talvez apontasse o ponto mais crítico: o estado de exceção algorítmico, onde decisões são tomadas fora do alcance da deliberação pública.

O destino deixa de ser existencial e passa a ser computacional.

VIII. O dilema jurídico final: quem responde pelo algoritmo?

Aqui o Direito encontra seu abismo mais profundo.

Se o algoritmo erra, quem responde?

O programador?

A empresa?

O Estado?

O usuário?

O conjunto de dados históricos da humanidade?

A responsabilidade jurídica, baseada em dolo e culpa, encontra dificuldade em operar sobre sistemas distribuídos e opacos.

A doutrina começa a falar em responsabilidade objetiva por risco algorítmico, mas ainda tropeça na falta de transparência técnica.

O Direito tenta alcançar uma entidade que não tem rosto, nem intenção, nem consciência. Apenas desempenho.

Conclusão — o último julgamento ainda é humano, mas por quanto tempo?

Talvez o maior equívoco contemporâneo seja acreditar que algoritmos decidem.

Eles não decidem. Eles antecipam.

Quem ainda decide é a estrutura social que os alimenta.

O problema não é a máquina.

É o espelho que ela se tornou.

Entre Kant e o servidor, entre Freud e o dataset, entre Foucault e o painel de controle, surge uma pergunta que não é técnica, mas existencial:

queremos um Direito que julga pessoas ou um sistema que classifica probabilidades de pessoas?

Se a justiça for apenas cálculo, então a humanidade será apenas variável.

E ainda assim, talvez reste algo indomável: a capacidade humana de questionar o próprio cálculo.

Bibliografia essencial

BRASIL. Lei nº 13.709/2018 (Lei Geral de Proteção de Dados Pessoais - LGPD).

BRASIL. Código de Processo Civil, Lei nº 13.105/2015.

FOCAULT, Michel. Vigiar e Punir.

HAN, Byung-Chul. Psicopolítica; Sociedade do Cansaço.

KANT, Immanuel. Crítica da Razão Pura.

NIETZSCHE, Friedrich. Além do Bem e do Mal.

ZUBOFF, Shoshana. The Age of Surveillance Capitalism.

LIPTON, Zachary; RIBEIRO, Marco Tulio. Estudos sobre interpretabilidade de modelos.

MIT MEDIA LAB. Gender Shades: estudo sobre viés em reconhecimento facial.

STATE v. LOOMIS, 2016, Wisconsin Supreme Court.

PIKETTY, Thomas. Capital in the Twenty-First Century.

SINGER, Peter. Practical Ethics.

SANDER, Michael J. Justice: What's the Right Thing to Do?

SAGE Journals / NIST reports on algorithmic bias in facial recognition.

Sobre o autor
Northon Salomão de Oliveira

Northon Salomão de Oliveira é um jurista, escritor e consultor brasileiro com atuação em Presidente Prudente e Curitiba. Com uma trajetória que atravessa mais de duas décadas na Caixa Econômica Federal. Sua atuação profissional articula o rigor técnico do Direito com reflexões oriundas da filosofia, literatura, economia, ciência e das artes, estabelecendo um diálogo incomum entre normas e artes. À frente do escritório Northon Advocacia desde 2019, acumula experiência em consultorias para grandes instituições como Nestlé, Arezzo e Cultura Inglesa. No campo intelectual, destaca-se como ensaísta e articulista, explorando temas que transitam entre o Direito, a filosofia existencial e a literatura. Seus textos estão sempre presentes em veículos como Jusbrasil, JusNavigandi, Exame, Folha de S.Paulo, Administradores e em livros na Amazon, onde consolida sua produção autoral. Contato: (18) 99812.7830

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos