Introdução: o juiz, o algoritmo e o abismo
Se Nietzsche tivesse assistido a uma audiência contemporânea, talvez não perguntasse mais “quem somos?”, mas “quem decide por nós?”. E pior: “quem programa quem decide?”.
O Direito, outrora templo de linguagem, retórica e prudência aristotélica, começa a dialogar com entidades que não sonham, não sofrem, não hesitam. Algoritmos não têm angústia existencial. Não conhecem o peso de uma sentença. Mas julgam.
No Brasil e no mundo, sistemas de inteligência artificial já participam de decisões judiciais, triagem de processos, análise de risco penal. Surge, então, um dilema perturbador:
Pode o Direito permanecer humano quando suas engrenagens passam a ser operadas por lógicas não humanas?
Ou, como sussurraria Foucault em tom quase clínico: estaríamos substituindo o poder disciplinar por um poder algorítmico invisível e incontestável?
Desenvolvimento
1. Filosofia: o algoritmo como novo Leviatã silencioso
Nietzsche desconfiava das verdades absolutas. Chamava-as de “ilusões necessárias”. O algoritmo, hoje, veste esse mesmo traje: promete neutralidade, eficiência, imparcialidade.
Mas será?
Hannah Arendt já alertava para a banalidade do mal. O perigo não está no monstro consciente, mas na engrenagem que funciona sem reflexão. Um algoritmo enviesado não odeia. Ele apenas executa. E, nesse automatismo, pode reproduzir injustiças com precisão cirúrgica.
Habermas entraria na conversa incomodado: onde está o espaço do discurso? O Direito não é apenas decisão, é processo comunicativo. Quando substituímos argumentação por cálculo, reduzimos o humano à estatística.
Byung-Chul Han talvez fosse mais ácido:
“Não estamos sendo oprimidos por máquinas. Estamos sendo seduzidos por elas.”
E o Direito, seduzido, começa a trocar prudência por velocidade.
2. Psicologia e Psiquiatria: o inconsciente do código
Freud ensinou que o ser humano não é senhor de si. O inconsciente governa silenciosamente.
Agora, substituímos o inconsciente humano por um inconsciente algorítmico.
Qual a diferença?
O humano pode ser analisado, interpretado, tratado.
O algoritmo? Nem sempre é transparente. Surge o fenômeno da “caixa-preta algorítmica”.
Daniel Kahneman demonstrou que decisões humanas sofrem vieses cognitivos.
Mas estudos empíricos mostram algo inquietante: algoritmos treinados com dados históricos tendem a amplificar esses mesmos vieses.
Exemplo clássico:
O sistema COMPAS, nos Estados Unidos, utilizado para prever reincidência criminal, foi acusado de discriminação racial (ProPublica, 2016).
Réus negros eram classificados como mais propensos à reincidência, mesmo com histórico semelhante ao de réus brancos.
Aqui, Lacan talvez ironizasse:
“O algoritmo não erra. Ele repete.”
3. Direito: entre a lei seca e a realidade líquida
No Brasil, a Constituição Federal estabelece:
Art. 5º, LIV: devido processo legal
Art. 5º, LV: contraditório e ampla defesa
Art. 93, IX: decisões judiciais devem ser fundamentadas
Agora imagine uma decisão baseada em IA cuja lógica não pode ser explicada.
Como garantir o contraditório se o réu não entende o critério que o condena?
A Lei Geral de Proteção de Dados (Lei 13.709/2018) prevê no art. 20 o direito à revisão de decisões automatizadas. Mas a prática ainda engatinha.
O CNJ já implementa sistemas como o “Victor” (STF) e o “Sinapses”, voltados à automação judicial. A promessa: eficiência. O risco: desumanização.
4. Jurisprudência e casos reais
Brasil
STJ – REsp 1.799.306: reforça a necessidade de fundamentação clara das decisões judiciais.
STF – HC 126.292: debate sobre execução antecipada da pena mostra como decisões judiciais são sensíveis a contextos interpretativos — algo que algoritmos não capturam.
Internacional
Caso Loomis v. Wisconsin (2016):
A Suprema Corte de Wisconsin permitiu o uso do COMPAS na sentença.
Crítica central: o réu não teve acesso ao funcionamento do algoritmo.
Resultado: uma decisão judicial baseada parcialmente em um raciocínio inacessível.
Isso fere frontalmente o ideal kantiano de dignidade humana:
o indivíduo deixa de ser fim em si mesmo para se tornar variável estatística.
5. Dados empíricos: o brilho e a sombra
Estudo da MIT (2019): sistemas de reconhecimento facial apresentam taxas de erro muito maiores para pessoas negras e mulheres.
Pesquisa da Stanford Law School: algoritmos de predição criminal podem reproduzir desigualdades estruturais do sistema penal.
Relatório da OECD (2021): alerta para riscos éticos e jurídicos da IA na administração pública.
No Brasil:
O CNJ aponta que mais de 80 milhões de processos tramitam no Judiciário.
A IA surge como solução logística. Mas a pergunta permanece:
resolver o volume justifica sacrificar a essência?
6. Integração interdisciplinar: o Direito como organismo vivo
Aristóteles via o Direito como prudência prática (phronesis).
Damasio mostrou que decisões humanas dependem de emoção e razão integradas.
Sem emoção, não há justiça.
Sem razão, não há coerência.
O algoritmo tem razão sem emoção.
O humano, emoção sem garantia de razão.
Talvez a solução não esteja na substituição, mas na cooperação crítica.
7. Análise crítica: ironia, vertigem e perigo
O Direito sempre foi um teatro.
Mas agora o roteiro está sendo escrito por códigos.
E o mais curioso: acreditamos que isso nos torna mais justos.
Žižek provavelmente riria:
“Vocês criaram uma máquina para eliminar o erro humano… e esqueceram que os dados são humanos.”
Estamos criando uma justiça sem rosto.
Sem hesitação.
Sem culpa.
Uma justiça perfeita — e talvez, por isso mesmo, profundamente injusta.
Conclusão: humanizar o inumano ou aceitar o novo destino?
Humanizar o Direito diante da inteligência artificial não é rejeitar a tecnologia.
É impor limites.
É lembrar que:
Justiça não é apenas eficiência
Decisão não é apenas cálculo
Verdade não é apenas probabilidade
O Direito precisa permanecer imperfeito.
Porque é na imperfeição que reside sua humanidade.
Talvez a pergunta final não seja sobre a inteligência artificial, mas sobre nós:
Estamos preparados para continuar sendo humanos em um sistema que já não precisa de humanidade para funcionar?
Ou, em tom quase poético e inquietante:
quando o algoritmo aprender a julgar… ainda haverá algo em nós que mereça ser julgado?
Bibliografia e Referências
Direito
Constituição Federal de 1988
Lei 13.709/2018 (LGPD)
STJ – REsp 1.799.306
STF – HC 126.292
CNJ – Relatórios sobre IA no Judiciário
Casos internacionais
Loomis v. Wisconsin (2016)
ProPublica – COMPAS Analysis (2016)
Filosofia
Nietzsche, Friedrich – Além do Bem e do Mal
Foucault, Michel – Vigiar e Punir
Habermas, Jürgen – Teoria do Agir Comunicativo
Kant, Immanuel – Fundamentação da Metafísica dos Costumes
Byung-Chul Han – Psicopolítica
Žižek, Slavoj – Violência
Psicologia e Psiquiatria
Freud, Sigmund – O Ego e o Id
Kahneman, Daniel – Thinking, Fast and Slow
Damasio, Antonio – O Erro de Descartes
Lacan, Jacques – Escritos
Estudos empíricos
MIT Media Lab (2019) – Facial Recognition Bias
Stanford Law School – Algorithmic Bias in Criminal Justice
OECD (2021) – AI and Public Governance