O algoritmo não está desumanizando o Direito: ele está revelando que o Direito já era parcialmente desumano

09/04/2026 às 19:07
Leia nesta página:

Introdução: quando a máquina não inventa o abismo, apenas ilumina o que já estava lá

Há uma superstição contemporânea, elegante como um vitral digital: a ideia de que o algoritmo chegou para “desumanizar” o Direito. Como se antes dele houvesse um tribunal habitado por anjos estoicos, juízes imunizados ao erro, e uma racionalidade pura, não contaminada por estatísticas ocultas, vieses cognitivos ou pressões institucionais.

Mas talvez o problema seja justamente o contrário.

E se o algoritmo não estiver retirando humanidade do Direito, mas expondo a quantidade de humanidade já perdida nele?

A pergunta não é tecnológica. É ontológica.

Quando sistemas preditivos sugerem penas, calculam riscos de reincidência ou organizam prioridades processuais, o espanto moral surge como se tivéssemos descoberto uma nova forma de frio. Mas como lembraria Michel Foucault, o poder nunca foi caloroso. Ele apenas aprendeu a parecer humano.

O Direito, esse grande teatro de decisões sobre destinos, estaria apenas descobrindo seu espelho mais impiedoso: a matemática.

E a pergunta que resta é desconfortável:

o problema é a máquina ou a sinceridade do que ela revela?

1. Filosofia da decisão: entre o cálculo e o abismo moral

Immanuel Kant acreditava que o julgamento jurídico deveria ser guiado por uma razão universalizável. Mas a universalidade kantiana não previa que o mundo seria convertido em dados, nem que decisões sobre liberdade seriam filtradas por vetores estatísticos.

Já Friedrich Nietzsche talvez risse disso tudo com ironia: não há justiça neutra, apenas interpretações vestidas de toga.

O algoritmo, nesse cenário, não cria o niilismo jurídico. Ele apenas remove o figurino.

Byung-Chul Han nos lembraria que vivemos numa sociedade da transparência coercitiva, onde tudo é quantificável, inclusive o risco humano. O Direito, antes narrativa simbólica de legitimidade, torna-se painel de controle.

E então surge o desconforto essencial:

Se a decisão judicial sempre carregou intuição, medo, experiência e cultura, o que exatamente estamos defendendo quando exigimos “neutralidade humana”?

2. Psicologia e psiquiatria da sentença: o juiz também é um sistema falível

A psicologia experimental há décadas desmonta a ilusão da racionalidade pura.

Experimentos como os de Stanley Milgram e Philip Zimbardo mostraram que autoridade e contexto podem distorcer julgamentos morais de forma sistemática.

Já a teoria de vieses cognitivos de Daniel Kahneman (não listado, mas essencial aqui) reforça o mesmo diagnóstico: o juiz humano não decide como um computador jurídico idealizado, mas como um organismo sujeito a atalho mental, fadiga decisória e heurísticas.

Na psiquiatria forense, autores como Aaron T. Beck demonstraram que até julgamentos sobre risco e comportamento futuro são profundamente influenciados por estruturas cognitivas distorcidas.

O que isso significa?

Que a suposta “humanidade” da decisão judicial inclui também:

preconceito implícito,

raciocínio probabilístico defeituoso,

influência emocional inconsciente,

e variação drástica entre julgadores.

O algoritmo, nesse contexto, não é uma alienação. É uma formalização da inconsistência humana.

E aqui surge o paradoxo cruel:

A máquina não sente.

Mas o humano sente demais para ser consistente.

3. Direito positivo: quando a lei já era parcialmente algorítmica

O Direito brasileiro nunca foi completamente humano no sentido emocional. Ele sempre foi estruturalmente mecanizado.

O Código Penal, ao prever dosimetria (art. 59), já transforma vida em cálculo jurídico.

O Código de Processo Civil, ao estruturar precedentes e filtros de admissibilidade, já opera como sistema de triagem decisória.

A Constituição Federal de 1988, em seu art. 5º, LIV e LV, garante devido processo legal e contraditório, mas não garante ausência de assimetria cognitiva entre julgadores.

E aqui entra o ponto crítico: a Lei Geral de Proteção de Dados (Lei 13.709/2018), especialmente o art. 20, já reconhece o problema das decisões automatizadas:

direito à revisão de decisões tomadas unicamente com base em tratamento automatizado.

Ou seja, o próprio ordenamento jurídico admite que decisões podem ser automatizadas — e que isso exige controle, não pânico moral.

No cenário internacional, o caso State v. Loomis (EUA, 2016) discutiu o uso do COMPAS (algoritmo de risco de reincidência) na dosimetria penal. A Suprema Corte de Wisconsin manteve sua utilização, mas reconheceu limitações de transparência e vieses.

A questão não foi se o algoritmo era “demasiado desumano”.

Mas se ele era menos arbitrário do que o humano médio.

4. O Direito como máquina moral imperfeita: Foucault encontra o dataset

Georg Wilhelm Friedrich Hegel via o Direito como manifestação do espírito objetivo. Já Foucault o via como tecnologia disciplinar.

Hoje, ambos parecem convergir ironicamente em um ponto: o Direito sempre foi uma máquina de classificação.

O algoritmo apenas remove o verniz retórico e mostra o mecanismo:

classificação de condutas,

previsão de riscos,

distribuição de punições,

administração de populações jurídicas.

Niklas Luhmann diria que o Direito é um sistema autopoiético, fechado em sua própria linguagem. O algoritmo apenas acelera essa autopoiese.

Assine a nossa newsletter! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos

E então surge uma ironia filosófica quase desconfortável:

Se o Direito já operava como sistema de redução da complexidade humana, por que nos surpreendemos quando ele começa a fazer isso com mais eficiência?

5. Dados empíricos: a ilusão da neutralidade humana

Estudos empíricos mostram padrões perturbadores:

Juízes tendem a ser mais severos antes do almoço (fadiga decisória).

Decisões variam significativamente entre magistrados em casos idênticos.

Sistemas de predição criminal nos EUA apresentaram viés racial em diversos estudos acadêmicos, especialmente o COMPAS.

Mas há outro dado igualmente importante:

Algoritmos bem calibrados reduzem variabilidade decisória e aumentam consistência estatística.

O problema então não é apenas justiça vs máquina.

É estabilidade vs moralidade.

E aqui o dilema de John Rawls reaparece como fantasma: como garantir justiça em um sistema inevitavelmente desigual em suas condições iniciais?

6. Crítica existencial: o humano como erro estatístico sensível

Arthur Schopenhauer talvez dissesse que a vontade precede a razão. Logo, toda decisão jurídica é contaminada por impulso existencial.

Sigmund Freud acrescentaria: o juiz também decide com o inconsciente.

Viktor Frankl lembraria que até mesmo dentro do sofrimento há sentido, mas isso não elimina o problema estrutural: decisões jurídicas são atravessadas por biografia emocional.

O algoritmo não tem biografia.

E isso é simultaneamente seu defeito e sua virtude.

7. O ponto de ruptura: quando a neutralidade se torna violência silenciosa

Se o Direito humano erra de forma desigual e o algoritmo erra de forma consistente, qual erro é mais aceitável?

Essa pergunta não é técnica. É ética.

Amartya Sen argumentaria que justiça não é apenas procedimento, mas capacidade real de liberdade.

Martha Nussbaum reforçaria que dignidade exige reconhecimento da singularidade humana, algo que sistemas automatizados tendem a reduzir.

Mas aqui surge a provocação central:

E se a singularidade humana já estivesse sendo ignorada pelo próprio sistema jurídico humano há séculos?

O algoritmo apenas tornou isso mensurável.

Conclusão: o espelho que não mente

O algoritmo não é o inimigo do Direito.

Ele é seu confessionário matemático.

Ele não inventa a frieza institucional. Ele a quantifica.

Ele não cria a desigualdade decisória. Ele a expõe.

Ele não substitui o humano. Ele o desnuda.

E talvez a pergunta mais inquietante não seja se devemos aceitar algoritmos no Direito.

Mas sim:

Se estamos prontos para admitir que parte do Direito sempre foi uma sofisticada engenharia de distanciamento humano, agora apenas mais visível sob luz computacional.

Como diria Albert Camus, o verdadeiro problema filosófico não é evitar o absurdo, mas encará-lo sem disfarces.

O algoritmo, nesse sentido, não desumaniza o Direito.

Ele apenas remove o disfarce que o humano usava para não perceber sua própria parcial desumanidade institucional.

E isso não é o fim da justiça.

É talvez o início da sua fase mais honesta.

Bibliografia essencial

BRASIL. Constituição Federal de 1988, art. 5º, LIV e LV.

BRASIL. Lei nº 13.709/2018 (Lei Geral de Proteção de Dados), art. 20.

State v. Loomis, 881 N.W.2d 749 (Wisconsin Supreme Court, 2016).

FOUCAULT, Michel. Vigiar e Punir.

KANT, Immanuel. Crítica da Razão Prática.

NIETZSCHE, Friedrich. Além do Bem e do Mal.

SCHOPENHAUER, Arthur. O Mundo como Vontade e Representação.

FREUD, Sigmund. O Ego e o Id.

ZIMBARDO, Philip. The Lucifer Effect.

MILGRAM, Stanley. Obedience to Authority.

BECK, Aaron T. Cognitive Therapy and Emotional Disorders.

RAWLS, John. A Theory of Justice.

SEN, Amartya. The Idea of Justice.

NUSSBAUM, Martha. Creating Capabilities.

BYUNG-CHUL HAN. A Sociedade da Transparência.

LUHMANN, Niklas. Law as a Social System.

FRANKL, Viktor. Man’s Search for Meaning.

CAMUS, Albert. O Mito de Sísifo.

HOBBES, Thomas. Leviatã (referência estrutural do Estado e controle).

Sobre o autor
Northon Salomão de Oliveira

Northon Salomão de Oliveira é um jurista, escritor e consultor brasileiro com atuação em Presidente Prudente e Curitiba. Com uma trajetória que atravessa mais de duas décadas na Caixa Econômica Federal. Sua atuação profissional articula o rigor técnico do Direito com reflexões oriundas da filosofia, literatura, economia, ciência e das artes, estabelecendo um diálogo incomum entre normas e artes. À frente do escritório Northon Advocacia desde 2019, acumula experiência em consultorias para grandes instituições como Nestlé, Arezzo e Cultura Inglesa. No campo intelectual, destaca-se como ensaísta e articulista, explorando temas que transitam entre o Direito, a filosofia existencial e a literatura. Seus textos estão sempre presentes em veículos como Jusbrasil, JusNavigandi, Exame, Folha de S.Paulo, Administradores e em livros na Amazon, onde consolida sua produção autoral. Contato: (18) 99812.7830

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos