Inteligência Artificial e o medo do futuro: a crise da justificabilidade no Direito e o risco de uma jurisdição sem consciência

12/04/2026 às 12:01
Leia nesta página:

1. Hipótese central: o medo do futuro como crise da justificabilidade

O ponto não é simplesmente que a inteligência artificial introduz riscos. O núcleo do problema é mais sutil e mais grave: a IA tensiona a exigência fundamental de justificabilidade das decisões jurídicas.

O Direito não se define apenas por decidir, mas por justificar racionalmente a decisão. Essa exigência está no coração do Estado de Direito:

Constituição Federal, art. 93, IX:

“Todos os julgamentos dos órgãos do Poder Judiciário serão públicos, e fundamentadas todas as decisões…”

A IA desloca essa exigência. Ela produz outputs altamente eficientes, mas frequentemente sem inteligibilidade normativa.

O medo do futuro, então, não é medo da automação.

É medo de um Direito que decide sem compreender e sem explicar.

2. Evidência empírica robusta: o déficit de explicabilidade

2.1 Opacidade estrutural

Stanford HAI (2024): sistemas de deep learning apresentam baixa interpretabilidade mesmo para seus desenvolvedores

Nature Machine Intelligence (2022): técnicas de explainable AI ainda são insuficientes para decisões críticas

2.2 Viés algorítmico mensurado

NIST (Face Recognition Vendor Test):

Taxas de erro até 100 vezes maiores para determinados grupos raciais

ProPublica (COMPAS):

Superestimação de risco para réus negros

Subestimação para réus brancos

2.3 Impacto no Judiciário brasileiro

CNJ (2023):

Mais de 140 projetos de IA em tribunais brasileiros

Ausência de padronização metodológica

Falta de protocolos uniformes de auditoria

3. Estrutura normativa: o Direito tentando conter o indeterminado

3.1 Constituição Federal

Art. 5º, LIV e LV: devido processo legal

Art. 5º, XXXV: acesso à justiça

Art. 93, IX: dever de fundamentação

3.2 LGPD (Lei 13.709/2018)

Art. 6º, VI: transparência

Art. 20: direito à revisão de decisões automatizadas

Problema técnico-jurídico:

O art. 20 não define o grau de explicação exigido. Revisão por quem? Com base em quê? Com que nível de inteligibilidade?

3.3 LINDB (Decreto-Lei 4.657/42)

Art. 20: decisões devem considerar consequências práticas

A IA amplia a capacidade preditiva, mas também amplia o risco de decisões baseadas em correlação, não em causalidade.

4. Jurisprudência aprofundada: anatomia das decisões

4.1 State v. Loomis (Wisconsin, 2016)

Tese central: admissibilidade de algoritmo opaco em decisão penal.

Ponto crítico: A Corte reconheceu explicitamente:

O algoritmo é proprietário

Não pode ser auditado pelo réu

Ainda assim, pode influenciar a decisão

Análise crítica: Há uma ruptura silenciosa do devido processo.

O réu não pode contestar plenamente a base da decisão.

4.2 Tribunal Constitucional Alemão (BVerfG, 2020)

Tese: limites à vigilância algorítmica estatal.

Fundamento:

Direito fundamental à autodeterminação informacional

Contribuição teórica: Reconhecimento de que o processamento automatizado já é, por si só, uma forma de intervenção estatal.

4.3 Brasil: reconhecimento facial e erro judicial

Casos concretos (Rio de Janeiro, Bahia, São Paulo):

Prisões baseadas exclusivamente em reconhecimento facial

Posterior absolvição por erro de identificação

Base jurídica violada:

Art. 5º, LVII (CF): presunção de inocência

Art. 155 do CPP: prova deve ser produzida sob contraditório

Dado empírico: Relatórios independentes indicam concentração de erros em populações vulneráveis.

5. A crise da causalidade: o Direito diante de sistemas não lineares

A responsabilidade civil clássica pressupõe linearidade causal:

A → B → C

A IA opera em redes probabilísticas:

múltiplas entradas → múltiplos pesos → resultado não linear

Código Civil

Art. 927, parágrafo único: responsabilidade objetiva

5.1 Problema prático

Em um sistema de IA:

O resultado pode não ser reproduzível

O modelo pode evoluir após o evento

O nexo causal pode ser estatístico, não determinístico

5.2 Respostas doutrinárias

a) Responsabilidade por risco integral tecnológico

Ampliação do regime objetivo

b) Dever de governança algorítmica

Responsabilidade pela estrutura, não pelo resultado

c) Accountability distribuída

Responsabilidade compartilhada entre múltiplos agentes

6. Comparação internacional: modelos regulatórios

União Europeia — AI Act (2024)

Classificação por risco:

Inaceitável (proibido)

Alto risco (regulação rigorosa)

Baixo risco (regulação leve)

Exemplo: Reconhecimento facial em tempo real → altamente restrito

Estados Unidos

Abordagem fragmentada

Ênfase em inovação

Regulação setorial

Brasil

Projetos de lei em tramitação (ex.: PL 2338/2023)

Ausência de marco consolidado

7. O contraponto teórico: a IA como racionalidade ampliada

Corrente otimista sustenta:

IA reduz vieses humanos

Aumenta consistência decisória

Permite análise de grandes volumes de dados

No Judiciário:

Triagem automatizada reduz backlog

Precedentes são aplicados com maior uniformidade

8. Crítica estrutural: eficiência não substitui legitimidade

A legitimidade do Direito não decorre apenas de resultados corretos, mas de:

Transparência

Participação

Justificação

A IA pode produzir decisões eficientes, mas sem legitimidade democrática suficiente.

9. Aplicabilidade prática: arquitetura de contenção

9.1 Direito à explicação forte

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

Reinterpretação do art. 20 da LGPD para exigir:

Explicação compreensível

Possibilidade real de contestação

9.2 Auditoria algorítmica obrigatória

Testes independentes

Publicidade de métricas de erro

Avaliação de impacto regulatório

9.3 Princípio da supervisão humana significativa

Decisões críticas devem:

Ter revisão humana efetiva

Não ser meramente homologatórias

9.4 Prova algorítmica qualificada

Admissibilidade condicionada a:

Transparência mínima

Taxa de erro conhecida

Possibilidade de contraditório técnico

10. Fechamento: o medo como sintoma de lucidez

O medo do futuro, nesse contexto, não é irracional.

Ele é um indicador de que o Direito percebe, ainda que tardiamente, uma transformação estrutural.

A inteligência artificial não elimina o Direito.

Mas obriga o Direito a confrontar seu próprio limite:

sua dependência da razão explicável.

Se o Direito aceitar decisões que não pode explicar,

ele não se torna mais eficiente —

ele se torna outra coisa.

E talvez o verdadeiro risco não seja um futuro dominado por máquinas,

mas um presente em que o Direito continua a decidir

sem saber exatamente por quê.

Bibliografia

Doutrina

PASQUALE, Frank. The Black Box Society

FLORIDI, Luciano. The Ethics of Information

BATHAEE, Yavar. The Artificial Intelligence Black Box and the Failure of Intent and Causation

Legislação

Constituição Federal de 1988

LGPD (Lei 13.709/2018)

Marco Civil da Internet (Lei 12.965/2014)

Código Civil (Lei 10.406/2002)

LINDB (Decreto-Lei 4.657/42)

Jurisprudência

State v. Loomis (EUA, 2016)

BVerfG (Alemanha, 2020) — vigilância algorítmica

Casos brasileiros de reconhecimento facial

Relatórios e estudos empíricos

Stanford HAI Report (2024)

NIST Face Recognition Vendor Test

OECD AI Policy Observatory (2023)

CNJ — Justiça em Números (2023)

Sobre o autor
Northon Salomão de Oliveira

Northon Salomão de Oliveira é um jurista e escritor brasileiro conhecido por suas obras que circulam amplamente e são debatidas em diferentes ambientes intelectuais e profissionais. Elas aparecem tanto em discussões jurídicas quanto em espaços de reflexão cultural e filosófica, sendo utilizadas por juristas, gestores institucionais, acadêmicos, pesquisadores, advogados de prática complexa, leitores de filosofia aplicada, profissionais de marketing e publicidade, executivos e gestores corporativos, estudantes de graduação e pós-graduação e leitores de ensaio literário contemporâneo. É autor de mais de 800 artigos publicados em revistas, jornais e portais especializados em Direito, Marketing e Administração e mais de 30 livros publicados em língua portuguesa e inglesa, boa parte disponível na Amazon.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos