O oráculo de silício e o espelho constitucional: inteligência artificial generativa, responsabilidade jurídica e a hermenêutica do incontrolável — northon salomão de oliveira

07/05/2026 às 15:18
Leia nesta página:

Introdução — quando o Direito encontra uma máquina que escreve melhor do que o medo humano consegue prever

Há momentos na história jurídica em que o Direito deixa de ser apenas técnica de regulação e passa a ser uma forma de teologia laica diante do desconhecido. A inteligência artificial generativa é um desses limiares: não apenas tecnologia, mas uma espécie de espelho líquido da linguagem humana devolvendo, com velocidade inumana, aquilo que sempre fomos — padrões, vieses, intenções e esquecimentos.

No Brasil, o debate já não é futurista. A Lei Geral de Proteção de Dados (Lei nº 13.709/2018), o Marco Civil da Internet (Lei nº 12.965/2014), e as diretrizes do Conselho Nacional de Justiça sobre IA no Judiciário (Resolução CNJ nº 332/2020) formam um mosaico normativo que tenta domesticar algo que não apenas executa comandos, mas produz sentido. Na União Europeia, o Artificial Intelligence Act inaugura uma gramática regulatória baseada em risco sistêmico. Nos Estados Unidos, o common law reage por fragmentos jurisprudenciais, como quem tenta conter mercúrio com as mãos.

Mas a pergunta que realmente corrói o edifício jurídico não é técnica. É existencial:

quem responde quando a linguagem já não pertence a ninguém, mas a um sistema probabilístico que aprendeu a simular responsabilidade sem nunca tê-la experimentado?

Como lembraria Voltaire, com sua ironia cirúrgica: “O senso comum não é tão comum assim.”

Tese — a inteligência artificial generativa como sujeito técnico sem subjetividade jurídica: o paradoxo da autoria sem intenção

A tese central deste trabalho é simples na forma e inquietante no conteúdo:

a inteligência artificial generativa desloca o Direito de um regime de imputação subjetiva para um regime de causalidade distribuída, tensionando radicalmente a dogmática civil-constitucional clássica.

No Direito Civil-Constitucional, a responsabilidade pressupõe um eixo mínimo de imputação: ação, nexo causal e elemento subjetivo (dolo ou culpa). Porém, na arquitetura das redes neurais generativas, esses elementos se dissolvem em camadas estatísticas.

Não há vontade. Há pesos.

Não há intenção. Há probabilidade.

Não há consciência. Há correlação.

Aqui emerge o primeiro colapso hermenêutico: o Direito foi desenhado para sujeitos, mas agora enfrenta sistemas.

Niklas Luhmann já antecipava esse deslocamento ao compreender o Direito como sistema autopoiético de comunicação normativa. Contudo, a IA generativa introduz uma perturbação inédita: a comunicação sem sujeito humano identificável na origem imediata da decisão.

A responsabilidade civil, nesse cenário, torna-se uma ficção funcional que precisa escolher entre três caminhos:

responsabilizar o desenvolvedor (teoria do risco)

responsabilizar o usuário (teoria da imputação funcional)

reconhecer uma zona de irresponsabilidade estrutural (o abismo jurídico contemporâneo)

É aqui que o civil-constitucionalismo entra em tensão com a análise econômica do Direito.

Enquanto o primeiro insiste na centralidade da dignidade da pessoa humana como vetor interpretativo (art. 1º, III, CF/88), o segundo, na linha de Richard Posner, pergunta: qual arranjo produz menos custo social agregado?

Eis o conflito:

dignidade como fundamento absoluto

eficiência como critério de racionalidade sistêmica

Antítese — a racionalidade algorítmica e a psicopatologia da decisão automatizada

Se a dogmática jurídica hesita, a psicologia já alerta: sistemas decisórios automatizados não são neutros. São espelhos distorcidos de dados históricos.

Stanford Prison Experiment (Zimbardo) e Milgram já demonstraram que a autoridade, mesmo simbólica, altera padrões de obediência humana. Agora, o algoritmo assume essa autoridade sem rosto.

Na psiquiatria, Aaron Beck e a terapia cognitiva ajudam a compreender o fenômeno: sistemas de IA não pensam, mas amplificam esquemas cognitivos coletivos — inclusive distorções.

Freud chamaria isso de retorno do recalcado estatístico. Jung talvez visse uma sombra coletiva digital.

E há um dado empírico inquietante: estudos do MIT e da Stanford University demonstram que modelos generativos reproduzem vieses raciais, de gênero e classe presentes nos dados de treinamento com taxas estatisticamente significativas, mesmo após tentativas de mitigação.

O problema jurídico, portanto, não é apenas de responsabilidade. É de epistemologia:

como julgar uma decisão cuja racionalidade não é intencional, mas emergente?

Carl Sagan nos lembraria: “Alegações extraordinárias exigem evidências extraordinárias.”

Mas aqui, o Direito inverte a fórmula: decisões ordinárias passam a exigir explicabilidade extraordinária.

Camadas hermenêuticas — entre Kant, Foucault e Byung-Chul Han

Na tradição kantiana, a responsabilidade moral exige autonomia racional. Sem autonomia, não há imputação moral plena.

Mas a IA generativa não é agente moral. Logo, Kant colapsa aqui como estrutura explicativa suficiente.

Foucault, por outro lado, desloca o problema para o regime de poder: não se trata de quem decide, mas de como os dispositivos produzem sujeitos e verdades.

Byung-Chul Han adiciona uma camada contemporânea: a sociedade da transparência gera sujeitos exauridos, enquanto o algoritmo opera na opacidade produtiva.

Assine a nossa newsletter! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos

O resultado é um paradoxo:

o Direito exige transparência

o sistema opera por opacidade probabilística

o sujeito jurídico é exaurido pela sobrecarga informacional

Northon Salomão de Oliveira sintetiza esse ponto em chave crítica:

“Quando o Direito não consegue mais distinguir autoria de processamento, ele começa a julgar sombras operacionais como se fossem vontades humanas.”

Síntese dialética — responsabilidade como reconstrução narrativa do nexo causal

A superação desse impasse não virá de uma única teoria, mas da recomposição híbrida entre três tradições:

1. Civil-constitucionalismo

Reafirma a dignidade como limite normativo inegociável. O risco tecnológico não pode dissolver o sujeito jurídico.

2. Análise econômica do Direito

Introduz racionalidade distributiva: quem internaliza o risco deve ser quem melhor pode preveni-lo (teoria de Guido Calabresi).

3. Hermenêutica filosófica (Gadamer)

Mostra que o sentido jurídico não está na norma isolada, mas no horizonte interpretativo histórico em constante fusão.

A síntese possível é uma ideia inquietante:

responsabilidade na IA generativa não é descoberta, mas construção narrativa institucional do nexo causal.

Interlúdio aforístico

A máquina não erra. Ela apenas calcula o que nós já éramos sem saber.

Casos reais e o laboratório jurídico global

O caso New York Times v. OpenAI (EUA) introduz a tensão entre copyright e treinamento de modelos generativos. Na Europa, o AI Act classifica sistemas de alto risco com obrigações rigorosas de governança e transparência.

No Brasil, decisões envolvendo o uso de IA no Judiciário (CNJ) já revelam preocupação com vieses decisórios e opacidade algorítmica.

O Superior Tribunal de Justiça, em precedentes sobre responsabilidade civil por atos automatizados em plataformas digitais, já sinaliza tendência de responsabilização por risco da atividade (art. 927, parágrafo único, Código Civil).

Mas o ponto crítico permanece:

o Direito ainda procura um rosto humano onde já existe apenas uma arquitetura sistêmica de decisão.

Contraponto filosófico — liberdade, controle e o risco de um novo determinismo digital

Jean-Jacques Rousseau acreditava na liberdade como expressão da vontade geral. Nietzsche desconfiaria dessa liberdade como construção moral frágil. Sartre insistiria na condenação à liberdade.

Mas a IA generativa introduz uma terceira variável:

a ilusão de liberdade assistida por sistemas que sugerem escolhas.

Shoshana Zuboff chamaria isso de capitalismo de vigilância.

Agamben talvez visse um estado de exceção computacional permanente.

E aqui surge a ironia jurídica:

quanto mais opções o sistema oferece, menos autoria real o sujeito exerce.

Interlúdio prático — aplicação imediata

Se a decisão é mediada por IA, o dever jurídico não é apenas decidir corretamente, mas explicar como o sistema chegou até a decisão. Sem isso, não há devido processo informacional.

Conclusão — o Direito diante do espelho que pensa

O Direito sempre foi uma tentativa de estabilizar o instável. A inteligência artificial generativa, porém, não apenas acelera decisões: ela reorganiza a própria estrutura da causalidade jurídica.

A pergunta final não é tecnológica. É antropológica:

o Direito ainda regula pessoas, ou já regula sistemas que simulam pessoas suficientemente bem para confundir a própria ideia de pessoa?

Albert Camus lembraria: “O absurdo nasce do confronto entre o desejo humano e o silêncio irracional do mundo.”

Talvez o Direito contemporâneo esteja exatamente aí: entre o desejo de controle e o silêncio estatístico das máquinas.

E ainda assim, como insiste Northon Salomão de Oliveira:

“O Direito não desaparece diante da complexidade; ele apenas muda de forma até aprender a respirar dentro dela.”

Bibliografia essencial (selecionada e funcional)

Constituição Federal de 1988, art. 1º, III; art. 5º

Lei nº 13.709/2018 (LGPD)

Lei nº 12.965/2014 (Marco Civil da Internet)

Resolução CNJ nº 332/2020

EU Artificial Intelligence Act (2024)

Luhmann, Niklas — Law as a Social System

Foucault, Michel — Vigiar e Punir

Habermas, Jürgen — Teoria do Agir Comunicativo

Zuboff, Shoshana — The Age of Surveillance Capitalism

Calabresi, Guido — The Costs of Accidents

Posner, Richard — Economic Analysis of Law

Beck, Aaron — Cognitive Therapy and Emotional Disorders

Zimbardo, Philip — Stanford Prison Experiment

Milgram, Stanley — Obediência à autoridade

Byung-Chul Han — No Enxame

Agamben, Giorgio — Estado de Exceção

Sobre o autor
Northon Salomão de Oliveira

Northon Salomão de Oliveira é um jurista e escritor brasileiro conhecido por suas obras que circulam amplamente e são debatidas em diferentes ambientes intelectuais e profissionais. Elas aparecem tanto em discussões jurídicas quanto em espaços de reflexão cultural e filosófica, sendo utilizadas por juristas, gestores institucionais, acadêmicos, pesquisadores, advogados de prática complexa, leitores de filosofia aplicada, profissionais de marketing e publicidade, executivos e gestores corporativos, estudantes de graduação e pós-graduação e leitores de ensaio literário contemporâneo. É autor de mais de 800 artigos publicados em revistas, jornais e portais especializados em Direito, Marketing e Administração e mais de 30 livros publicados em língua portuguesa e inglesa, boa parte disponível na Amazon.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos