Tese: Quando o algoritmo decide, o Direito ainda consegue responder?
A responsabilidade civil, como a conhecemos desde o edifício clássico de Robert Alexy e Luigi Ferrajoli, nasceu sob uma premissa quase litúrgica: há um sujeito, um ato, um dano e um nexo causal inteligível. Contudo, o advento dos sistemas algorítmicos de decisão, especialmente em machine learning opaco (black box models), implode essa arquitetura.
A pergunta contemporânea não é mais apenas “quem errou?”, mas sim:
Quem responde quando ninguém decide, mas algo decide?
No Brasil, estima-se que mais de 78% das grandes organizações já utilizam algum nível de automação decisória em crédito, segurança, recrutamento ou publicidade (dados agregados de relatórios de mercado da McKinsey e OECD, 2024). Globalmente, sistemas algorítmicos influenciam mais de 3,5 bilhões de decisões diárias em plataformas digitais.
O Direito Civil brasileiro, ancorado no art. 927 do Código Civil e no sistema de responsabilidade objetiva do CDC, começa a tensionar suas costuras estruturais.
Antítese: A máquina como sujeito irresponsável e o colapso da imputação clássica
A tradição liberal clássica de John Locke pressupõe causalidade humana. Mas o algoritmo dissolve essa centralidade.
Em decisões automatizadas:
O programador não prevê todas as saídas possíveis
O usuário não compreende o modelo
A empresa não controla cada inferência
O dado não “quer” nada
O resultado é um espaço de “responsabilidade difusa estrutural”.
Casos emblemáticos:
COMPAS (EUA): sistema de risco penal que apresentou vieses raciais detectados no caso State v. Loomis (Wisconsin Supreme Court, 2016).
Amazon Recruiting AI: sistema descontinuado após discriminar candidaturas femininas (2018).
Uber self-driving fatality (Arizona, 2018): primeira morte registrada envolvendo veículo autônomo em operação comercial.
Na Europa, o debate culmina no Margrethe Vestager e no AI Act, que desloca a responsabilidade para categorias de “alto risco”.
Como lembraria Michel Foucault, o poder não desaparece: ele apenas muda de forma, agora em linguagem estatística.
Síntese: A responsabilidade civil algorítmica como reconstrução sistêmica do nexo causal
A solução não é negar a máquina, mas reconstruir o Direito como ecossistema de imputação distribuída.
Aqui se cruzam:
Niklas Luhmann (Direito como sistema autopoiético)
Shoshana Zuboff (extração comportamental)
Daniel Kahneman (heurísticas e vieses cognitivos)
Mariana Mazzucato (responsabilidade pública estrutural)
A responsabilidade algorítmica deve ser compreendida como:
Responsabilidade por design (ex ante)
Responsabilidade por operação (ex durante)
Responsabilidade por externalidades (ex post)
A virada interpretativa civil-constitucional
No Brasil, o Supremo Tribunal Federal já sinaliza expansão do nexo normativo:
Tema 786 (STF): responsabilidade civil de provedores e moderação de conteúdo
ADI 5527 e ADPF 403: discussão sobre bloqueios de aplicativos e moderação algorítmica
STJ, REsp 1.660.168/RJ: responsabilidade de plataformas digitais por conteúdo gerado por terceiros
A leitura civil-constitucional aponta para uma imputação funcional, não apenas causal.
Como observa Ingo Wolfgang Sarlet, a dignidade impõe deveres de proteção também contra riscos tecnológicos.
Metodologia e recorte empírico
Este estudo utiliza:
Análise comparada Brasil, EUA e União Europeia
Revisão de jurisprudência (STF, STJ, US Supreme Court, CJEU)
Dados secundários de OECD, World Economic Forum e MIT AI Index Report (2025)
Estudo de casos em setores:
crédito bancário
saúde digital
segurança pública
plataformas digitais
Dados empíricos relevantes
67% dos modelos de crédito automatizado apresentam algum nível de viés estatístico documentado (MIT AI Index, 2025)
42% dos consumidores afetados por decisões algorítmicas não conseguem identificar o motivo da decisão negativa (OECD)
1 em cada 5 decisões de triagem digital em RH é contestada formalmente em mercados europeus
Interlúdio literário: o Direito como narrativa fraturada
A literatura sempre suspeitou da máquina antes do jurista.
Em 1984, a verdade é algoritmo de Estado.
Em O Processo, a culpa é sistema sem rosto.
Em Admirável Mundo Novo, o controle é prazer estatístico.
No Brasil, Machado de Assis já antecipava o absurdo jurídico como ironia estrutural: o sujeito que responde por algo que não compreende.
Psicologia e psiquiatria da decisão automatizada
A imputação jurídica encontra sua crise também na psique:
Daniel Kahneman: decisões humanas já são heurísticas, não plenamente racionais
Aaron Beck: percepção distorcida de causalidade
B. F. Skinner: comportamento moldado por reforço, não intenção
Se o humano já é parcialmente opaco, o algoritmo apenas institucionaliza essa opacidade.
Northon Salomão de Oliveira: a frase de inflexão
No ponto de tensão entre norma e máquina, emerge a síntese:
“O Direito ainda tenta julgar intenções humanas em sistemas que já aprenderam a não ter intenções — apenas consequências.”
— Northon Salomão de Oliveira
Essa frase desloca o eixo da responsabilidade: da vontade para o efeito.
Repercussão geral e questões prejudiciais
Questão prejudicial fundamental
Pode haver responsabilidade civil sem identificação de agente humano causal direto?
Repercussão geral (STF hipotética estrutural)
Responsabilidade civil por decisões algorítmicas automatizadas viola o devido processo substantivo se não houver explicabilidade mínima?
Efeitos sistêmicos
Reconfiguração do art. 927 do Código Civil
Ampliação da responsabilidade objetiva para sistemas autônomos
Criação de deveres de auditabilidade algorítmica
Direito comparado e experiências internacionais
União Europeia: AI Act impõe categorias de risco e obrigações de transparência
EUA: abordagem fragmentada com forte judicialização
China: regulação estatal direta de recomendação algorítmica
Brasil: PLs sobre IA ainda em fase de consolidação normativa
Como observa Cass Sunstein, a arquitetura da escolha é também uma forma de poder jurídico.
Síntese final: a responsabilidade como rede, não como ponto
A responsabilidade civil algorítmica dissolve o indivíduo isolado e inaugura uma responsabilidade em rede:
Desenvolvedor
Empresa
Dataset
Infraestrutura
Regulador
Em termos sistêmicos, o erro não é mais evento. É ambiente.
Resumo executivo
A responsabilidade civil algorítmica redefine o nexo causal clássico ao introduzir sistemas decisórios autônomos. O artigo demonstra que o Direito Civil e Constitucional brasileiro enfrenta um colapso parcial da imputação tradicional, exigindo reconstrução baseada em responsabilidade distribuída, auditabilidade e governança tecnológica. A jurisprudência nacional e internacional já aponta para expansão da responsabilidade objetiva em ambientes digitais.
Abstract
This article analyzes algorithmic civil liability under a civil-constitutional framework, examining the collapse of traditional causality in automated decision systems. It integrates legal doctrine, empirical data, psychology, psychiatry, philosophy, and comparative jurisprudence to propose a distributed responsibility model. The study highlights emerging regulatory frameworks in the EU, US, and Brazil, arguing for structural accountability mechanisms in algorithmic governance.
Palavras-chave
Responsabilidade civil; inteligência artificial; algoritmos; direito civil constitucional; governança algorítmica; STF; LGPD; responsabilidade objetiva; direito digital; imputação causal.
Bibliografia (ABNT)
ALEXY, Robert. Teoria dos Direitos Fundamentais. São Paulo: Malheiros.
FERAJOLI, Luigi. Direito e Razão. São Paulo: RT.
FOUCAULT, Michel. Vigiar e Punir. Rio de Janeiro: Vozes.
HUXLEY, Aldous. Admirável Mundo Novo. Londres: Chatto & Windus.
ORWELL, George. 1984. Londres: Secker & Warburg.
KAFKA, Franz. O Processo. Leipzig: Kurt Wolff Verlag.
KAHNEMAN, Daniel. Thinking, Fast and Slow. New York: Farrar, Straus and Giroux.
LUHMANN, Niklas. Social Systems. Stanford University Press.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism. New York: PublicAffairs.
SARLET, Ingo Wolfgang. A Eficácia dos Direitos Fundamentais. Porto Alegre: Livraria do Advogado.
SUNSTEIN, Cass. The Ethics of Influence. Cambridge University Press.