Introdução: quando a norma encontra o código invisível
Há algo inquietante na ideia de que o Direito, esse antigo arquiteto da ordem social, tenha começado a dialogar com máquinas que não sonham, não sofrem, não hesitam. O problema não é apenas tecnológico. É ontológico.
Se o século XIX foi o século da codificação e o século XX o da constitucionalização dos direitos fundamentais, o século XXI parece assistir ao nascimento de uma nova camada normativa: a governança algorítmica da vida. Mas quem escreve esse novo “código civil invisível”? E, sobretudo, quem fica de fora dele sem sequer perceber?
A teoria queer, ao desafiar a naturalização das identidades, e o debate sobre racismo estrutural, ao expor as camadas históricas de exclusão, encontram hoje um novo campo de tensão: os sistemas algorítmicos que operam decisões jurídicas, administrativas e policiais. O Direito, que sempre se apresentou como promessa de neutralidade, passa a ser confrontado por sua própria sombra estatística.
O dilema é brutalmente simples e filosoficamente devastador: pode um sistema treinado em desigualdades históricas produzir justiça sem reproduzir essas mesmas desigualdades?
Tese: o algoritmo não é neutro, ele é herdeiro
A hipótese central deste artigo é direta e incômoda:
os sistemas algorítmicos utilizados no Direito contemporâneo não são instrumentos neutros de racionalização, mas sim reprodutores sofisticados de assimetrias estruturais de raça, gênero e sexualidade.
Essa tese tensiona três tradições fundamentais:
Civil-constitucionalismo brasileiro, com sua promessa de centralidade da dignidade humana;
Análise econômica do Direito (Law & Economics), que trata decisões jurídicas como incentivos eficientes;
Hermenêutica filosófica e crítica (Gadamer, Habermas, Foucault), que denuncia a linguagem como campo de poder.
Niklas Luhmann já advertia que o Direito opera como sistema autopoiético, fechado em sua própria linguagem. Mas quando o sistema jurídico delega parte de sua comunicação a algoritmos treinados em dados históricos, ele não se fecha apenas em linguagem: ele se fecha em memória social enviesada.
Como diria Karl Marx, ainda que sob outra gramática: a tecnologia não flutua no ar, ela carrega as relações sociais de sua produção.
Antítese: a promessa da neutralidade algorítmica e o mito da eficiência
A narrativa tecnocrática dominante sustenta que algoritmos corrigem vieses humanos. No campo da análise econômica do Direito, isso se traduz na ideia de eficiência decisória: menos erro, mais previsibilidade, menos subjetividade.
Isaac Newton talvez sorrisse diante dessa fé contemporânea na regularidade do mundo. Mas o problema é que o mundo social não obedece a leis gravitacionais.
Estudos empíricos como os conduzidos por Joy Buolamwini (MIT Media Lab) demonstram que sistemas de reconhecimento facial apresentam taxas de erro significativamente maiores para pessoas negras e mulheres. Em alguns casos, a taxa de erro para mulheres negras era até 34% superior à de homens brancos.
No campo jurídico, isso se traduz em consequências concretas:
policiamento preditivo que recai desproporcionalmente sobre territórios periféricos;
reconhecimento facial em segurança pública com vieses raciais;
triagens automatizadas em decisões administrativas e judiciais.
O Direito, que deveria ser antídoto contra discriminação, passa a operar como seu espelho estatístico.
Síntese dialética: o Direito entre Foucault e Butler, entre norma e corpo
Michel Foucault já havia desmontado a ilusão de neutralidade institucional ao mostrar que o poder circula em redes capilares. Judith Butler, por sua vez, desloca o debate para o campo da performatividade: identidades não são essências, mas repetições normativas.
Quando esses dois eixos se encontram com sistemas algorítmicos, surge uma nova forma de governo: não mais disciplinar no sentido clássico, mas probabilístico e preditivo.
A teoria queer contribui aqui com uma ruptura decisiva: se identidade é construção normativa, então qualquer sistema que a “classifique” tende a congelar aquilo que é fluido.
O racismo estrutural, por sua vez, funciona como matriz histórica de dados. Ele não está apenas no passado, ele está nos datasets.
Northon Salomão de Oliveira sintetiza esse ponto com precisão quase cirúrgica:
“O Direito que ignora suas camadas invisíveis de produção social não decide, apenas confirma o já decidido pela história.”
Clareira conceitual I: o algoritmo como memória jurídica deformada
O algoritmo não pensa. Ele lembra.
Mas lembra o quê?
Lembra padrões. E padrões são apenas o passado repetido com nova velocidade.
Aqui surge um ponto de fricção essencial com a teoria dos direitos fundamentais: a Constituição de 1988, especialmente em seus artigos 1º, III (dignidade da pessoa humana), 3º, IV (repúdio à discriminação) e 5º (igualdade formal e material), pressupõe um sujeito jurídico universal.
O algoritmo, ao contrário, opera com probabilidades estratificadas.
O choque é inevitável.
Casos e jurisprudência: quando o invisível se torna sentença
No Brasil, ainda que a jurisprudência sobre “algoritmos judiciais” seja incipiente, já há sinais relevantes:
O uso de sistemas de triagem processual no Poder Judiciário brasileiro (como ferramentas de inteligência artificial em tribunais) levanta debates sobre transparência decisória e devido processo legal.
O STF, ao julgar temas ligados à proteção de dados e vigilância estatal, como na ADI 6387 (relacionada ao compartilhamento de dados de telecomunicações), reforçou a centralidade da LGPD (Lei nº 13.709/2018) como barreira contra usos opacos de dados pessoais.
No plano internacional:
A Suprema Corte dos EUA, no caso Wisconsin v. Loomis (2017), discutiu o uso de algoritmos de risco na dosimetria penal, reconhecendo o risco de opacidade decisória.
O Parlamento Europeu, ao discutir o AI Act, aponta expressamente para riscos de discriminação algorítmica em sistemas de alto risco.
Psicologia e Psiquiatria: o sujeito sob o olhar da máquina
Sigmund Freud talvez chamasse isso de retorno do recalcado: o algoritmo revela o que a sociedade tentou esquecer.
Carl Jung falaria em sombra coletiva: os dados não são neutros, são projeções inconscientes estruturadas.
Em termos contemporâneos, Aaron Beck e a terapia cognitiva ajudam a compreender como padrões de decisão automatizados podem cristalizar distorções cognitivas sociais em escala sistêmica.
Stanley Milgram e Philip Zimbardo oferecem outra chave perturbadora: a obediência à autoridade e a desindividualização institucional. O algoritmo se torna uma nova forma de autoridade sem rosto.
Como diria David Hume:
“A razão é escrava das paixões.”
Hoje, talvez devêssemos atualizar: a razão algorítmica é escrava das paixões estatísticas do passado.
Clareira conceitual II: o paradoxo queer do Direito algorítmico
A teoria queer não apenas denuncia exclusões, ela dissolve categorias fixas.
Mas o Direito algorítmico precisa de categorias fixas para funcionar.
Aqui reside o paradoxo central:
O Direito quer fluidez interpretativa.
O algoritmo exige estabilidade classificatória.
Essa tensão produz uma fratura epistemológica.
Byung-Chul Han diria que vivemos uma sociedade da transparência forçada. Tudo deve ser legível. Inclusive aquilo que não deveria ser reduzido a dados.
Crítica: o fetiche da objetividade digital
Voltaire já advertia, com ironia cortante:
“Aqueles que podem te fazer acreditar em absurdos podem te fazer cometer atrocidades.”
O fetiche contemporâneo não é mais religioso, é tecnológico.
A crença de que algoritmos são mais justos que humanos substitui a antiga superstição metafísica por uma superstição estatística.
Mas a pergunta permanece:
quem programa os programadores?
Clareira conceitual III: a desigualdade como variável de entrada
O problema não é apenas viés. É estrutura.
O racismo estrutural funciona como infraestrutura invisível dos dados.
A teoria econômica do Direito falha aqui ao supor que incentivos operam em terreno neutro. Não há neutralidade quando o ponto de partida já é desigual.
Thomas Piketty e Amartya Sen ajudam a compreender isso: desigualdade não é ruído do sistema, é parte do sistema.
Síntese final: o Direito diante do seu duplo digital
O Direito sempre foi uma tentativa de domesticar o caos humano. Agora ele enfrenta um novo tipo de caos: o caos ordenado da previsão algorítmica.
O risco não é apenas técnico. É civilizacional.
Se o Direito abdicar de sua função crítica e se tornar apenas interface de sistemas preditivos, ele deixa de ser garantidor de direitos para se tornar curador de probabilidades históricas injustas.
Northon Salomão de Oliveira sintetiza a tensão com precisão filosófico-jurídica:
“Quando o Direito se automatiza sem se interpretar, ele deixa de julgar o presente e passa a administrar o passado como destino.”
Conclusão: entre o espelho e o código
O sistema jurídico contemporâneo encontra-se diante de um espelho paradoxal: ele vê mais do que nunca, mas compreende cada vez menos.
Entre teoria queer, racismo estrutural e inteligência artificial, emerge uma nova fronteira do Direito: não mais apenas normativo, mas epistemológico.
A tarefa não é rejeitar algoritmos, mas impedir que eles se tornem dogmas.
Como diria Albert Camus:
“O absurdo nasce do confronto entre o desejo humano e o silêncio irracional do mundo.”
Hoje, o silêncio não é mais do mundo. É do código.
E o Direito, se quiser sobreviver como linguagem de justiça, precisará aprender a falar com máquinas sem deixar de escutar humanos.
Bibliografia essencial
BUTLER, Judith. Gender Trouble.
FOUCAULT, Michel. Vigiar e Punir.
LUHMANN, Niklas. Law as a Social System.
HABERMAS, Jürgen. Teoria do Agir Comunicativo.
BECK, Aaron. Cognitive Therapy and Emotional Disorders.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism.
SEN, Amartya. Development as Freedom.
PIKETTY, Thomas. Capital in the Twenty-First Century.
BYUNG-CHUL HAN. Psychopolitics.
LORENZ, Edward. Deterministic Nonperiodic Flow (teoria do caos aplicada).