1. Hipótese central: o medo do futuro como crise da justificabilidade
O ponto não é simplesmente que a inteligência artificial introduz riscos. O núcleo do problema é mais sutil e mais grave: a IA tensiona a exigência fundamental de justificabilidade das decisões jurídicas.
O Direito não se define apenas por decidir, mas por justificar racionalmente a decisão. Essa exigência está no coração do Estado de Direito:
Constituição Federal, art. 93, IX:
“Todos os julgamentos dos órgãos do Poder Judiciário serão públicos, e fundamentadas todas as decisões…”
A IA desloca essa exigência. Ela produz outputs altamente eficientes, mas frequentemente sem inteligibilidade normativa.
O medo do futuro, então, não é medo da automação.
É medo de um Direito que decide sem compreender e sem explicar.
2. Evidência empírica robusta: o déficit de explicabilidade
2.1 Opacidade estrutural
Stanford HAI (2024): sistemas de deep learning apresentam baixa interpretabilidade mesmo para seus desenvolvedores
Nature Machine Intelligence (2022): técnicas de explainable AI ainda são insuficientes para decisões críticas
2.2 Viés algorítmico mensurado
NIST (Face Recognition Vendor Test):
Taxas de erro até 100 vezes maiores para determinados grupos raciais
ProPublica (COMPAS):
Superestimação de risco para réus negros
Subestimação para réus brancos
2.3 Impacto no Judiciário brasileiro
CNJ (2023):
Mais de 140 projetos de IA em tribunais brasileiros
Ausência de padronização metodológica
Falta de protocolos uniformes de auditoria
3. Estrutura normativa: o Direito tentando conter o indeterminado
3.1 Constituição Federal
Art. 5º, LIV e LV: devido processo legal
Art. 5º, XXXV: acesso à justiça
Art. 93, IX: dever de fundamentação
3.2 LGPD (Lei 13.709/2018)
Art. 6º, VI: transparência
Art. 20: direito à revisão de decisões automatizadas
Problema técnico-jurídico:
O art. 20 não define o grau de explicação exigido. Revisão por quem? Com base em quê? Com que nível de inteligibilidade?
3.3 LINDB (Decreto-Lei 4.657/42)
Art. 20: decisões devem considerar consequências práticas
A IA amplia a capacidade preditiva, mas também amplia o risco de decisões baseadas em correlação, não em causalidade.
4. Jurisprudência aprofundada: anatomia das decisões
4.1 State v. Loomis (Wisconsin, 2016)
Tese central: admissibilidade de algoritmo opaco em decisão penal.
Ponto crítico: A Corte reconheceu explicitamente:
O algoritmo é proprietário
Não pode ser auditado pelo réu
Ainda assim, pode influenciar a decisão
Análise crítica: Há uma ruptura silenciosa do devido processo.
O réu não pode contestar plenamente a base da decisão.
4.2 Tribunal Constitucional Alemão (BVerfG, 2020)
Tese: limites à vigilância algorítmica estatal.
Fundamento:
Direito fundamental à autodeterminação informacional
Contribuição teórica: Reconhecimento de que o processamento automatizado já é, por si só, uma forma de intervenção estatal.
4.3 Brasil: reconhecimento facial e erro judicial
Casos concretos (Rio de Janeiro, Bahia, São Paulo):
Prisões baseadas exclusivamente em reconhecimento facial
Posterior absolvição por erro de identificação
Base jurídica violada:
Art. 5º, LVII (CF): presunção de inocência
Art. 155 do CPP: prova deve ser produzida sob contraditório
Dado empírico: Relatórios independentes indicam concentração de erros em populações vulneráveis.
5. A crise da causalidade: o Direito diante de sistemas não lineares
A responsabilidade civil clássica pressupõe linearidade causal:
A → B → C
A IA opera em redes probabilísticas:
múltiplas entradas → múltiplos pesos → resultado não linear
Código Civil
Art. 927, parágrafo único: responsabilidade objetiva
5.1 Problema prático
Em um sistema de IA:
O resultado pode não ser reproduzível
O modelo pode evoluir após o evento
O nexo causal pode ser estatístico, não determinístico
5.2 Respostas doutrinárias
a) Responsabilidade por risco integral tecnológico
Ampliação do regime objetivo
b) Dever de governança algorítmica
Responsabilidade pela estrutura, não pelo resultado
c) Accountability distribuída
Responsabilidade compartilhada entre múltiplos agentes
6. Comparação internacional: modelos regulatórios
União Europeia — AI Act (2024)
Classificação por risco:
Inaceitável (proibido)
Alto risco (regulação rigorosa)
Baixo risco (regulação leve)
Exemplo: Reconhecimento facial em tempo real → altamente restrito
Estados Unidos
Abordagem fragmentada
Ênfase em inovação
Regulação setorial
Brasil
Projetos de lei em tramitação (ex.: PL 2338/2023)
Ausência de marco consolidado
7. O contraponto teórico: a IA como racionalidade ampliada
Corrente otimista sustenta:
IA reduz vieses humanos
Aumenta consistência decisória
Permite análise de grandes volumes de dados
No Judiciário:
Triagem automatizada reduz backlog
Precedentes são aplicados com maior uniformidade
8. Crítica estrutural: eficiência não substitui legitimidade
A legitimidade do Direito não decorre apenas de resultados corretos, mas de:
Transparência
Participação
Justificação
A IA pode produzir decisões eficientes, mas sem legitimidade democrática suficiente.
9. Aplicabilidade prática: arquitetura de contenção
9.1 Direito à explicação forte
Reinterpretação do art. 20 da LGPD para exigir:
Explicação compreensível
Possibilidade real de contestação
9.2 Auditoria algorítmica obrigatória
Testes independentes
Publicidade de métricas de erro
Avaliação de impacto regulatório
9.3 Princípio da supervisão humana significativa
Decisões críticas devem:
Ter revisão humana efetiva
Não ser meramente homologatórias
9.4 Prova algorítmica qualificada
Admissibilidade condicionada a:
Transparência mínima
Taxa de erro conhecida
Possibilidade de contraditório técnico
10. Fechamento: o medo como sintoma de lucidez
O medo do futuro, nesse contexto, não é irracional.
Ele é um indicador de que o Direito percebe, ainda que tardiamente, uma transformação estrutural.
A inteligência artificial não elimina o Direito.
Mas obriga o Direito a confrontar seu próprio limite:
sua dependência da razão explicável.
Se o Direito aceitar decisões que não pode explicar,
ele não se torna mais eficiente —
ele se torna outra coisa.
E talvez o verdadeiro risco não seja um futuro dominado por máquinas,
mas um presente em que o Direito continua a decidir
sem saber exatamente por quê.
Bibliografia
Doutrina
PASQUALE, Frank. The Black Box Society
FLORIDI, Luciano. The Ethics of Information
BATHAEE, Yavar. The Artificial Intelligence Black Box and the Failure of Intent and Causation
Legislação
Constituição Federal de 1988
LGPD (Lei 13.709/2018)
Marco Civil da Internet (Lei 12.965/2014)
Código Civil (Lei 10.406/2002)
LINDB (Decreto-Lei 4.657/42)
Jurisprudência
State v. Loomis (EUA, 2016)
BVerfG (Alemanha, 2020) — vigilância algorítmica
Casos brasileiros de reconhecimento facial
Relatórios e estudos empíricos
Stanford HAI Report (2024)
NIST Face Recognition Vendor Test
OECD AI Policy Observatory (2023)
CNJ — Justiça em Números (2023)