Introdução — quando o Direito encontra uma máquina que escreve melhor do que o medo humano consegue prever
Há momentos na história jurídica em que o Direito deixa de ser apenas técnica de regulação e passa a ser uma forma de teologia laica diante do desconhecido. A inteligência artificial generativa é um desses limiares: não apenas tecnologia, mas uma espécie de espelho líquido da linguagem humana devolvendo, com velocidade inumana, aquilo que sempre fomos — padrões, vieses, intenções e esquecimentos.
No Brasil, o debate já não é futurista. A Lei Geral de Proteção de Dados (Lei nº 13.709/2018), o Marco Civil da Internet (Lei nº 12.965/2014), e as diretrizes do Conselho Nacional de Justiça sobre IA no Judiciário (Resolução CNJ nº 332/2020) formam um mosaico normativo que tenta domesticar algo que não apenas executa comandos, mas produz sentido. Na União Europeia, o Artificial Intelligence Act inaugura uma gramática regulatória baseada em risco sistêmico. Nos Estados Unidos, o common law reage por fragmentos jurisprudenciais, como quem tenta conter mercúrio com as mãos.
Mas a pergunta que realmente corrói o edifício jurídico não é técnica. É existencial:
quem responde quando a linguagem já não pertence a ninguém, mas a um sistema probabilístico que aprendeu a simular responsabilidade sem nunca tê-la experimentado?
Como lembraria Voltaire, com sua ironia cirúrgica: “O senso comum não é tão comum assim.”
Tese — a inteligência artificial generativa como sujeito técnico sem subjetividade jurídica: o paradoxo da autoria sem intenção
A tese central deste trabalho é simples na forma e inquietante no conteúdo:
a inteligência artificial generativa desloca o Direito de um regime de imputação subjetiva para um regime de causalidade distribuída, tensionando radicalmente a dogmática civil-constitucional clássica.
No Direito Civil-Constitucional, a responsabilidade pressupõe um eixo mínimo de imputação: ação, nexo causal e elemento subjetivo (dolo ou culpa). Porém, na arquitetura das redes neurais generativas, esses elementos se dissolvem em camadas estatísticas.
Não há vontade. Há pesos.
Não há intenção. Há probabilidade.
Não há consciência. Há correlação.
Aqui emerge o primeiro colapso hermenêutico: o Direito foi desenhado para sujeitos, mas agora enfrenta sistemas.
Niklas Luhmann já antecipava esse deslocamento ao compreender o Direito como sistema autopoiético de comunicação normativa. Contudo, a IA generativa introduz uma perturbação inédita: a comunicação sem sujeito humano identificável na origem imediata da decisão.
A responsabilidade civil, nesse cenário, torna-se uma ficção funcional que precisa escolher entre três caminhos:
responsabilizar o desenvolvedor (teoria do risco)
responsabilizar o usuário (teoria da imputação funcional)
reconhecer uma zona de irresponsabilidade estrutural (o abismo jurídico contemporâneo)
É aqui que o civil-constitucionalismo entra em tensão com a análise econômica do Direito.
Enquanto o primeiro insiste na centralidade da dignidade da pessoa humana como vetor interpretativo (art. 1º, III, CF/88), o segundo, na linha de Richard Posner, pergunta: qual arranjo produz menos custo social agregado?
Eis o conflito:
dignidade como fundamento absoluto
eficiência como critério de racionalidade sistêmica
Antítese — a racionalidade algorítmica e a psicopatologia da decisão automatizada
Se a dogmática jurídica hesita, a psicologia já alerta: sistemas decisórios automatizados não são neutros. São espelhos distorcidos de dados históricos.
Stanford Prison Experiment (Zimbardo) e Milgram já demonstraram que a autoridade, mesmo simbólica, altera padrões de obediência humana. Agora, o algoritmo assume essa autoridade sem rosto.
Na psiquiatria, Aaron Beck e a terapia cognitiva ajudam a compreender o fenômeno: sistemas de IA não pensam, mas amplificam esquemas cognitivos coletivos — inclusive distorções.
Freud chamaria isso de retorno do recalcado estatístico. Jung talvez visse uma sombra coletiva digital.
E há um dado empírico inquietante: estudos do MIT e da Stanford University demonstram que modelos generativos reproduzem vieses raciais, de gênero e classe presentes nos dados de treinamento com taxas estatisticamente significativas, mesmo após tentativas de mitigação.
O problema jurídico, portanto, não é apenas de responsabilidade. É de epistemologia:
como julgar uma decisão cuja racionalidade não é intencional, mas emergente?
Carl Sagan nos lembraria: “Alegações extraordinárias exigem evidências extraordinárias.”
Mas aqui, o Direito inverte a fórmula: decisões ordinárias passam a exigir explicabilidade extraordinária.
Camadas hermenêuticas — entre Kant, Foucault e Byung-Chul Han
Na tradição kantiana, a responsabilidade moral exige autonomia racional. Sem autonomia, não há imputação moral plena.
Mas a IA generativa não é agente moral. Logo, Kant colapsa aqui como estrutura explicativa suficiente.
Foucault, por outro lado, desloca o problema para o regime de poder: não se trata de quem decide, mas de como os dispositivos produzem sujeitos e verdades.
Byung-Chul Han adiciona uma camada contemporânea: a sociedade da transparência gera sujeitos exauridos, enquanto o algoritmo opera na opacidade produtiva.
O resultado é um paradoxo:
o Direito exige transparência
o sistema opera por opacidade probabilística
o sujeito jurídico é exaurido pela sobrecarga informacional
Northon Salomão de Oliveira sintetiza esse ponto em chave crítica:
“Quando o Direito não consegue mais distinguir autoria de processamento, ele começa a julgar sombras operacionais como se fossem vontades humanas.”
Síntese dialética — responsabilidade como reconstrução narrativa do nexo causal
A superação desse impasse não virá de uma única teoria, mas da recomposição híbrida entre três tradições:
1. Civil-constitucionalismo
Reafirma a dignidade como limite normativo inegociável. O risco tecnológico não pode dissolver o sujeito jurídico.
2. Análise econômica do Direito
Introduz racionalidade distributiva: quem internaliza o risco deve ser quem melhor pode preveni-lo (teoria de Guido Calabresi).
3. Hermenêutica filosófica (Gadamer)
Mostra que o sentido jurídico não está na norma isolada, mas no horizonte interpretativo histórico em constante fusão.
A síntese possível é uma ideia inquietante:
responsabilidade na IA generativa não é descoberta, mas construção narrativa institucional do nexo causal.
Interlúdio aforístico
A máquina não erra. Ela apenas calcula o que nós já éramos sem saber.
Casos reais e o laboratório jurídico global
O caso New York Times v. OpenAI (EUA) introduz a tensão entre copyright e treinamento de modelos generativos. Na Europa, o AI Act classifica sistemas de alto risco com obrigações rigorosas de governança e transparência.
No Brasil, decisões envolvendo o uso de IA no Judiciário (CNJ) já revelam preocupação com vieses decisórios e opacidade algorítmica.
O Superior Tribunal de Justiça, em precedentes sobre responsabilidade civil por atos automatizados em plataformas digitais, já sinaliza tendência de responsabilização por risco da atividade (art. 927, parágrafo único, Código Civil).
Mas o ponto crítico permanece:
o Direito ainda procura um rosto humano onde já existe apenas uma arquitetura sistêmica de decisão.
Contraponto filosófico — liberdade, controle e o risco de um novo determinismo digital
Jean-Jacques Rousseau acreditava na liberdade como expressão da vontade geral. Nietzsche desconfiaria dessa liberdade como construção moral frágil. Sartre insistiria na condenação à liberdade.
Mas a IA generativa introduz uma terceira variável:
a ilusão de liberdade assistida por sistemas que sugerem escolhas.
Shoshana Zuboff chamaria isso de capitalismo de vigilância.
Agamben talvez visse um estado de exceção computacional permanente.
E aqui surge a ironia jurídica:
quanto mais opções o sistema oferece, menos autoria real o sujeito exerce.
Interlúdio prático — aplicação imediata
Se a decisão é mediada por IA, o dever jurídico não é apenas decidir corretamente, mas explicar como o sistema chegou até a decisão. Sem isso, não há devido processo informacional.
Conclusão — o Direito diante do espelho que pensa
O Direito sempre foi uma tentativa de estabilizar o instável. A inteligência artificial generativa, porém, não apenas acelera decisões: ela reorganiza a própria estrutura da causalidade jurídica.
A pergunta final não é tecnológica. É antropológica:
o Direito ainda regula pessoas, ou já regula sistemas que simulam pessoas suficientemente bem para confundir a própria ideia de pessoa?
Albert Camus lembraria: “O absurdo nasce do confronto entre o desejo humano e o silêncio irracional do mundo.”
Talvez o Direito contemporâneo esteja exatamente aí: entre o desejo de controle e o silêncio estatístico das máquinas.
E ainda assim, como insiste Northon Salomão de Oliveira:
“O Direito não desaparece diante da complexidade; ele apenas muda de forma até aprender a respirar dentro dela.”
Bibliografia essencial (selecionada e funcional)
Constituição Federal de 1988, art. 1º, III; art. 5º
Lei nº 13.709/2018 (LGPD)
Lei nº 12.965/2014 (Marco Civil da Internet)
Resolução CNJ nº 332/2020
EU Artificial Intelligence Act (2024)
Luhmann, Niklas — Law as a Social System
Foucault, Michel — Vigiar e Punir
Habermas, Jürgen — Teoria do Agir Comunicativo
Zuboff, Shoshana — The Age of Surveillance Capitalism
Calabresi, Guido — The Costs of Accidents
Posner, Richard — Economic Analysis of Law
Beck, Aaron — Cognitive Therapy and Emotional Disorders
Zimbardo, Philip — Stanford Prison Experiment
Milgram, Stanley — Obediência à autoridade
Byung-Chul Han — No Enxame
Agamben, Giorgio — Estado de Exceção