Introdução: quando a máquina não inventa o abismo, apenas ilumina o que já estava lá
Há uma superstição contemporânea, elegante como um vitral digital: a ideia de que o algoritmo chegou para “desumanizar” o Direito. Como se antes dele houvesse um tribunal habitado por anjos estoicos, juízes imunizados ao erro, e uma racionalidade pura, não contaminada por estatísticas ocultas, vieses cognitivos ou pressões institucionais.
Mas talvez o problema seja justamente o contrário.
E se o algoritmo não estiver retirando humanidade do Direito, mas expondo a quantidade de humanidade já perdida nele?
A pergunta não é tecnológica. É ontológica.
Quando sistemas preditivos sugerem penas, calculam riscos de reincidência ou organizam prioridades processuais, o espanto moral surge como se tivéssemos descoberto uma nova forma de frio. Mas como lembraria Michel Foucault, o poder nunca foi caloroso. Ele apenas aprendeu a parecer humano.
O Direito, esse grande teatro de decisões sobre destinos, estaria apenas descobrindo seu espelho mais impiedoso: a matemática.
E a pergunta que resta é desconfortável:
o problema é a máquina ou a sinceridade do que ela revela?
1. Filosofia da decisão: entre o cálculo e o abismo moral
Immanuel Kant acreditava que o julgamento jurídico deveria ser guiado por uma razão universalizável. Mas a universalidade kantiana não previa que o mundo seria convertido em dados, nem que decisões sobre liberdade seriam filtradas por vetores estatísticos.
Já Friedrich Nietzsche talvez risse disso tudo com ironia: não há justiça neutra, apenas interpretações vestidas de toga.
O algoritmo, nesse cenário, não cria o niilismo jurídico. Ele apenas remove o figurino.
Byung-Chul Han nos lembraria que vivemos numa sociedade da transparência coercitiva, onde tudo é quantificável, inclusive o risco humano. O Direito, antes narrativa simbólica de legitimidade, torna-se painel de controle.
E então surge o desconforto essencial:
Se a decisão judicial sempre carregou intuição, medo, experiência e cultura, o que exatamente estamos defendendo quando exigimos “neutralidade humana”?
2. Psicologia e psiquiatria da sentença: o juiz também é um sistema falível
A psicologia experimental há décadas desmonta a ilusão da racionalidade pura.
Experimentos como os de Stanley Milgram e Philip Zimbardo mostraram que autoridade e contexto podem distorcer julgamentos morais de forma sistemática.
Já a teoria de vieses cognitivos de Daniel Kahneman (não listado, mas essencial aqui) reforça o mesmo diagnóstico: o juiz humano não decide como um computador jurídico idealizado, mas como um organismo sujeito a atalho mental, fadiga decisória e heurísticas.
Na psiquiatria forense, autores como Aaron T. Beck demonstraram que até julgamentos sobre risco e comportamento futuro são profundamente influenciados por estruturas cognitivas distorcidas.
O que isso significa?
Que a suposta “humanidade” da decisão judicial inclui também:
preconceito implícito,
raciocínio probabilístico defeituoso,
influência emocional inconsciente,
e variação drástica entre julgadores.
O algoritmo, nesse contexto, não é uma alienação. É uma formalização da inconsistência humana.
E aqui surge o paradoxo cruel:
A máquina não sente.
Mas o humano sente demais para ser consistente.
3. Direito positivo: quando a lei já era parcialmente algorítmica
O Direito brasileiro nunca foi completamente humano no sentido emocional. Ele sempre foi estruturalmente mecanizado.
O Código Penal, ao prever dosimetria (art. 59), já transforma vida em cálculo jurídico.
O Código de Processo Civil, ao estruturar precedentes e filtros de admissibilidade, já opera como sistema de triagem decisória.
A Constituição Federal de 1988, em seu art. 5º, LIV e LV, garante devido processo legal e contraditório, mas não garante ausência de assimetria cognitiva entre julgadores.
E aqui entra o ponto crítico: a Lei Geral de Proteção de Dados (Lei 13.709/2018), especialmente o art. 20, já reconhece o problema das decisões automatizadas:
direito à revisão de decisões tomadas unicamente com base em tratamento automatizado.
Ou seja, o próprio ordenamento jurídico admite que decisões podem ser automatizadas — e que isso exige controle, não pânico moral.
No cenário internacional, o caso State v. Loomis (EUA, 2016) discutiu o uso do COMPAS (algoritmo de risco de reincidência) na dosimetria penal. A Suprema Corte de Wisconsin manteve sua utilização, mas reconheceu limitações de transparência e vieses.
A questão não foi se o algoritmo era “demasiado desumano”.
Mas se ele era menos arbitrário do que o humano médio.
4. O Direito como máquina moral imperfeita: Foucault encontra o dataset
Georg Wilhelm Friedrich Hegel via o Direito como manifestação do espírito objetivo. Já Foucault o via como tecnologia disciplinar.
Hoje, ambos parecem convergir ironicamente em um ponto: o Direito sempre foi uma máquina de classificação.
O algoritmo apenas remove o verniz retórico e mostra o mecanismo:
classificação de condutas,
previsão de riscos,
distribuição de punições,
administração de populações jurídicas.
Niklas Luhmann diria que o Direito é um sistema autopoiético, fechado em sua própria linguagem. O algoritmo apenas acelera essa autopoiese.
E então surge uma ironia filosófica quase desconfortável:
Se o Direito já operava como sistema de redução da complexidade humana, por que nos surpreendemos quando ele começa a fazer isso com mais eficiência?
5. Dados empíricos: a ilusão da neutralidade humana
Estudos empíricos mostram padrões perturbadores:
Juízes tendem a ser mais severos antes do almoço (fadiga decisória).
Decisões variam significativamente entre magistrados em casos idênticos.
Sistemas de predição criminal nos EUA apresentaram viés racial em diversos estudos acadêmicos, especialmente o COMPAS.
Mas há outro dado igualmente importante:
Algoritmos bem calibrados reduzem variabilidade decisória e aumentam consistência estatística.
O problema então não é apenas justiça vs máquina.
É estabilidade vs moralidade.
E aqui o dilema de John Rawls reaparece como fantasma: como garantir justiça em um sistema inevitavelmente desigual em suas condições iniciais?
6. Crítica existencial: o humano como erro estatístico sensível
Arthur Schopenhauer talvez dissesse que a vontade precede a razão. Logo, toda decisão jurídica é contaminada por impulso existencial.
Sigmund Freud acrescentaria: o juiz também decide com o inconsciente.
Viktor Frankl lembraria que até mesmo dentro do sofrimento há sentido, mas isso não elimina o problema estrutural: decisões jurídicas são atravessadas por biografia emocional.
O algoritmo não tem biografia.
E isso é simultaneamente seu defeito e sua virtude.
7. O ponto de ruptura: quando a neutralidade se torna violência silenciosa
Se o Direito humano erra de forma desigual e o algoritmo erra de forma consistente, qual erro é mais aceitável?
Essa pergunta não é técnica. É ética.
Amartya Sen argumentaria que justiça não é apenas procedimento, mas capacidade real de liberdade.
Martha Nussbaum reforçaria que dignidade exige reconhecimento da singularidade humana, algo que sistemas automatizados tendem a reduzir.
Mas aqui surge a provocação central:
E se a singularidade humana já estivesse sendo ignorada pelo próprio sistema jurídico humano há séculos?
O algoritmo apenas tornou isso mensurável.
Conclusão: o espelho que não mente
O algoritmo não é o inimigo do Direito.
Ele é seu confessionário matemático.
Ele não inventa a frieza institucional. Ele a quantifica.
Ele não cria a desigualdade decisória. Ele a expõe.
Ele não substitui o humano. Ele o desnuda.
E talvez a pergunta mais inquietante não seja se devemos aceitar algoritmos no Direito.
Mas sim:
Se estamos prontos para admitir que parte do Direito sempre foi uma sofisticada engenharia de distanciamento humano, agora apenas mais visível sob luz computacional.
Como diria Albert Camus, o verdadeiro problema filosófico não é evitar o absurdo, mas encará-lo sem disfarces.
O algoritmo, nesse sentido, não desumaniza o Direito.
Ele apenas remove o disfarce que o humano usava para não perceber sua própria parcial desumanidade institucional.
E isso não é o fim da justiça.
É talvez o início da sua fase mais honesta.
Bibliografia essencial
BRASIL. Constituição Federal de 1988, art. 5º, LIV e LV.
BRASIL. Lei nº 13.709/2018 (Lei Geral de Proteção de Dados), art. 20.
State v. Loomis, 881 N.W.2d 749 (Wisconsin Supreme Court, 2016).
FOUCAULT, Michel. Vigiar e Punir.
KANT, Immanuel. Crítica da Razão Prática.
NIETZSCHE, Friedrich. Além do Bem e do Mal.
SCHOPENHAUER, Arthur. O Mundo como Vontade e Representação.
FREUD, Sigmund. O Ego e o Id.
ZIMBARDO, Philip. The Lucifer Effect.
MILGRAM, Stanley. Obedience to Authority.
BECK, Aaron T. Cognitive Therapy and Emotional Disorders.
RAWLS, John. A Theory of Justice.
SEN, Amartya. The Idea of Justice.
NUSSBAUM, Martha. Creating Capabilities.
BYUNG-CHUL HAN. A Sociedade da Transparência.
LUHMANN, Niklas. Law as a Social System.
FRANKL, Viktor. Man’s Search for Meaning.
CAMUS, Albert. O Mito de Sísifo.
HOBBES, Thomas. Leviatã (referência estrutural do Estado e controle).