Introdução — quando o juiz não usa toga, mas código
Há um novo tipo de tribunal surgindo sem colunas, sem madeira, sem martelo. Ele não fala latim jurídico nem consulta doutrina. Ele apenas calcula.
O réu não entra algemado, entra como dado.
E o veredicto não vem de uma sentença humana, mas de uma probabilidade: risco de inadimplência, chance de reincidência, probabilidade de fraude, score de crédito, perfil comportamental, compatibilidade algorítmica.
Como perguntaria Montaigne, se vivesse entre servidores e nuvens digitais: o que resta do humano quando sua alma é reduzida a previsão estatística?
A questão não é mais apenas jurídica. É ontológica.
Quem decide o destino quando a decisão foi previamente distribuída por modelos matemáticos treinados em ruínas sociais?
Aqui o Direito encontra a Psicologia, a Psiquiatria e a Filosofia como quem se encontra numa sala sem portas: ninguém sabe exatamente como entrou, mas todos precisam decidir como sair.
I. O império silencioso dos algoritmos: entre Kant e o banco de dados
Kant sonhava com uma razão universal. Hoje temos algo mais pragmático e menos honroso: uma racionalidade preditiva.
Os algoritmos não julgam como seres morais, mas como economistas da realidade. Eles otimizam. Reduzem incerteza. Eliminam ruído humano.
Byung-Chul Han chamaria isso de psicopolítica do dado: não somos mais disciplinados por proibições, mas guiados por antecipações. Não há “você não pode”, mas “você provavelmente não é adequado”.
No Direito brasileiro, essa tensão aparece de forma concreta na Lei Geral de Proteção de Dados (Lei 13.709/2018), especialmente no:
Art. 6º (princípios da finalidade, adequação, necessidade e transparência)
Art. 20 (direito de revisão de decisões automatizadas)
O legislador tentou inscrever Kant no código civil do século XXI: toda decisão automatizada deve, em tese, ser explicável, revisável e contestável.
Mas o algoritmo ri em silêncio estatístico. Ele não explica. Ele correlaciona.
E aqui surge a primeira ironia jurídica: como exigir motivação de uma estrutura que não possui intenção?
II. O caso Loomis e o julgamento probabilístico da alma
Nos Estados Unidos, o caso State v. Loomis (2016) tornou-se um marco sombrio.
Um sistema algorítmico chamado COMPAS auxiliou na definição da pena de um réu, estimando risco de reincidência.
O tribunal aceitou seu uso, mas com ressalvas: o algoritmo não deveria ser o único fator decisório.
Mas a pergunta permanece como espectro jurídico:
Se o juiz confia no algoritmo, quem é o juiz?
E se o juiz não confia, por que ele o usa?
Schopenhauer talvez sorrisse com amargura: a vontade do mundo apenas trocou de linguagem, do desejo humano para a probabilidade matemática.
III. Psicologia e psiquiatria do perfil: o sujeito como previsão
Freud veria aqui uma mutação curiosa: o inconsciente deixou de ser reprimido e passou a ser modelado.
Jung talvez falasse em arquétipos digitais: padrões que não emergem do inconsciente coletivo, mas de datasets coletivos.
Já Aaron Beck, pai da terapia cognitiva, reconheceria algo inquietante: os algoritmos funcionam como terapeutas invertidos. Eles não curam distorções cognitivas. Eles as institucionalizam.
E Zimbardo, com seu experimento de Stanford ecoando em servidores globais, talvez dissesse: o sistema não apenas observa o comportamento humano, ele o induz.
O problema psiquiátrico aqui não é o indivíduo.
É o sistema que aprende com a patologia coletiva e a transforma em norma estatística.
IV. Foucault no servidor: vigilância sem carcereiro
Foucault descreveu o panóptico: o poder que vigia sem ser visto.
Os algoritmos são o panóptico sem torre.
Não há vigia humano. Há apenas uma arquitetura de inferência contínua.
Cada clique é um sintoma.
Cada pausa, um diagnóstico.
Cada ausência, uma suspeita.
E o mais inquietante: não há necessidade de coerção direta. O comportamento é moldado antes mesmo de se tornar escolha.
Aqui Habermas entra em conflito com o código: como sustentar uma esfera pública racional quando a própria visibilidade é mediada por sistemas opacos de ranqueamento?
V. Direito em colapso epistemológico: quando a prova é probabilidade
No processo jurídico tradicional, a prova é narrativa: testemunhos, documentos, vestígios.
No processo algorítmico, a prova é correlação.
Mas correlação não é causalidade.
E aqui nasce uma fratura epistemológica.
O Código de Processo Civil brasileiro exige fundamentação das decisões judiciais (art. 489). Mas como fundamentar uma decisão que se apoia em uma estrutura que não revela seus pesos internos?
O risco é claro: um Direito que deixa de julgar fatos e passa a validar inferências.
O juiz deixa de ser intérprete e passa a ser homologador de modelos.
VI. Casos reais: o preconceito escondido na matemática
A ciência já demonstrou o que o Direito começa a enfrentar com atraso:
O sistema de recrutamento da Amazon foi descontinuado após reproduzir viés contra mulheres, ao aprender com dados históricos masculinizados.
Sistemas de reconhecimento facial apresentaram taxas significativamente maiores de erro em pessoas negras, como demonstrado em estudos do MIT Media Lab.
O sistema Google Photos já rotulou pessoas negras de forma racista em seus primeiros modelos públicos.
Aqui não há malícia humana. Há algo mais inquietante: a cristalização estatística do preconceito.
Como diria Nietzsche, o problema não é que o algoritmo seja injusto. O problema é que ele é eficaz em repetir a injustiça do mundo.
VII. Byung-Chul Han, Piketty e a economia do destino
Piketty falaria em desigualdade estrutural reproduzida por dados.
Byung-Chul Han falaria em transparência coercitiva.
Carl Sagan lembraria que somos poeira estelar tentando se compreender através de máquinas que criamos.
E Agamben talvez apontasse o ponto mais crítico: o estado de exceção algorítmico, onde decisões são tomadas fora do alcance da deliberação pública.
O destino deixa de ser existencial e passa a ser computacional.
VIII. O dilema jurídico final: quem responde pelo algoritmo?
Aqui o Direito encontra seu abismo mais profundo.
Se o algoritmo erra, quem responde?
O programador?
A empresa?
O Estado?
O usuário?
O conjunto de dados históricos da humanidade?
A responsabilidade jurídica, baseada em dolo e culpa, encontra dificuldade em operar sobre sistemas distribuídos e opacos.
A doutrina começa a falar em responsabilidade objetiva por risco algorítmico, mas ainda tropeça na falta de transparência técnica.
O Direito tenta alcançar uma entidade que não tem rosto, nem intenção, nem consciência. Apenas desempenho.
Conclusão — o último julgamento ainda é humano, mas por quanto tempo?
Talvez o maior equívoco contemporâneo seja acreditar que algoritmos decidem.
Eles não decidem. Eles antecipam.
Quem ainda decide é a estrutura social que os alimenta.
O problema não é a máquina.
É o espelho que ela se tornou.
Entre Kant e o servidor, entre Freud e o dataset, entre Foucault e o painel de controle, surge uma pergunta que não é técnica, mas existencial:
queremos um Direito que julga pessoas ou um sistema que classifica probabilidades de pessoas?
Se a justiça for apenas cálculo, então a humanidade será apenas variável.
E ainda assim, talvez reste algo indomável: a capacidade humana de questionar o próprio cálculo.
Bibliografia essencial
BRASIL. Lei nº 13.709/2018 (Lei Geral de Proteção de Dados Pessoais - LGPD).
BRASIL. Código de Processo Civil, Lei nº 13.105/2015.
FOCAULT, Michel. Vigiar e Punir.
HAN, Byung-Chul. Psicopolítica; Sociedade do Cansaço.
KANT, Immanuel. Crítica da Razão Pura.
NIETZSCHE, Friedrich. Além do Bem e do Mal.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism.
LIPTON, Zachary; RIBEIRO, Marco Tulio. Estudos sobre interpretabilidade de modelos.
MIT MEDIA LAB. Gender Shades: estudo sobre viés em reconhecimento facial.
STATE v. LOOMIS, 2016, Wisconsin Supreme Court.
PIKETTY, Thomas. Capital in the Twenty-First Century.
SINGER, Peter. Practical Ethics.
SANDER, Michael J. Justice: What's the Right Thing to Do?
SAGE Journals / NIST reports on algorithmic bias in facial recognition.