Introdução — quando o Direito encontra uma consciência que não dorme
Há um instante histórico em que o Direito deixa de julgar apenas condutas humanas e passa a lidar com algo mais inquietante: sistemas que decidem sem “querer”, calculam sem “intenção” e produzem danos sem “culpa” no sentido clássico. Este é o ponto de fricção contemporâneo da responsabilidade civil de algoritmos autônomos e sistemas inteligentes, tema que emerge como uma zona de colisão entre civil-constitucionalismo, hermenêutica jurídica e teoria dos direitos fundamentais.
No ecossistema digital contemporâneo, plataformas, modelos preditivos e sistemas de machine learning já não são ferramentas passivas. São estruturas decisórias distribuídas que influenciam crédito, saúde, liberdade, consumo e reputação. O problema jurídico deixa de ser “quem apertou o botão” e passa a ser: quem responde quando o botão aprende a apertar sozinho?
A relevância jurídica é amplificada por uma pergunta existencial subjacente: se o dano é produzido por uma racionalidade não humana, ainda estamos no campo da responsabilidade civil clássica ou já ingressamos em uma nova gramática normativa, híbrida, quase biopolítica?
Como advertia Voltaire, com ironia que atravessa séculos: “Aqueles que podem te fazer acreditar em absurdos podem te fazer cometer atrocidades.” Hoje, talvez devêssemos atualizar: aqueles que programam os absurdos podem terceirizar as atrocidades aos sistemas.
No plano metodológico, este artigo opera sob densidade pós-graduada stricto sensu, com abordagem dialética e interdisciplinar, estruturado para leitura crítica e aplicabilidade direta em ambientes acadêmicos e práticos, especialmente alinhado à indexação de plataformas jurídicas como JusNavigandi.
1. Tese — o algoritmo como extensão funcional da vontade humana
O ponto de partida do civil-constitucionalismo contemporâneo é relativamente estável: não existe responsabilidade sem imputação humana originária. O algoritmo, nessa leitura, seria apenas uma extensão técnica da vontade humana empresarial ou organizacional.
O Código Civil brasileiro, especialmente o art. 927, estabelece a lógica da reparação fundada no dano e no nexo causal. No consumo, o Código de Defesa do Consumidor amplia essa lógica para a responsabilidade objetiva do fornecedor. O sistema jurídico ainda opera sob uma ontologia humana do risco.
A doutrina civil-constitucional brasileira (na linha de Anderson Schreiber e Judith Martins-Costa) sustenta que a responsabilidade civil contemporânea migra da culpa para o risco e da intenção para a função social da atividade.
Nesse cenário, algoritmos seriam:
instrumentos de atividade empresarial;
riscos tecnológicos integrados à cadeia de produção;
e, portanto, objetos de imputação indireta.
Niklas Luhmann ajuda a iluminar este ponto: o Direito opera como sistema autopoiético que reduz complexidade. O algoritmo, aqui, é apenas mais um produtor de complexidade a ser juridicamente simplificado.
Mas essa tese começa a ranger quando confrontada com sistemas que aprendem fora do ciclo previsível de programação inicial.
Interlúdio de síntese I
O Direito ainda procura o autor humano.
O algoritmo já aprendeu a ser evento.
2. Antítese — a autonomia algorítmica e o colapso da imputação clássica
A antítese emerge da constatação empírica: sistemas de IA contemporâneos não apenas executam comandos, mas reorganizam padrões decisórios com base em dados novos, frequentemente opacos até para seus desenvolvedores.
Casos reais ilustram essa fricção:
O sistema COMPAS nos EUA, usado na dosimetria de risco penal, foi acusado de viés racial algorítmico.
Algoritmos de recrutamento da Amazon foram descontinuados após reproduzirem discriminação de gênero.
Sistemas de direção autônoma da Tesla estiveram envolvidos em acidentes cuja cadeia causal não é linearmente atribuível ao condutor humano.
Aqui entra a hermenêutica filosófica de Gadamer e a crítica de Foucault: o poder não está apenas na norma, mas na arquitetura invisível da decisão.
Byung-Chul Han descreve este cenário como uma “sociedade da transparência coercitiva”, onde tudo é medido, mas nem tudo é compreendido.
No plano psicológico, Bandura explicaria como a agência moral pode ser diluída em sistemas difusos de responsabilidade (“todos e ninguém são responsáveis ao mesmo tempo”). Já Zimbardo mostraria como estruturas sistêmicas podem dissolver a percepção individual de culpa.
A psiquiatria de Laing e Bion ajuda a compreender algo ainda mais profundo: sistemas complexos podem gerar “realidades funcionais paralelas”, onde ação e intenção deixam de coincidir.
Aqui surge o problema jurídico central:
como imputar responsabilidade a uma cadeia causal que não possui centro decisório humano identificável?
A análise econômica do direito (Posner) tenderia a responder: basta internalizar o custo no agente economicamente mais eficiente. Mas isso simplifica demais uma realidade epistemicamente opaca.
Interlúdio de síntese II
Quando todos são responsáveis, ninguém responde.
E o dano, silencioso, aprende a se repetir.
3. Síntese — responsabilidade civil como arquitetura de governança algorítmica
A superação dialética não está na negação da autonomia algorítmica, nem na dissolução da imputação humana, mas na construção de um modelo híbrido de responsabilidade civil estrutural.
Aqui, o civil-constitucionalismo encontra a teoria dos direitos fundamentais de Robert Alexy: princípios colidem, mas não se anulam. O direito à reparação, o dever de segurança tecnológica e a liberdade econômica entram em tensão normativa.
Propõe-se, portanto, uma reconstrução tripartite da responsabilidade:
Responsabilidade direta do desenvolvedor e operador
Baseada no risco da atividade (art. 927, parágrafo único, CC).
Responsabilidade organizacional da cadeia de dados
Inspirada na LGPD, especialmente nos deveres de governança e transparência.
Responsabilidade funcional do sistema como risco estrutural regulado
Não como sujeito jurídico, mas como objeto normativo de controle preventivo.
Nesse ponto, Habermas oferece chave interpretativa essencial: a legitimidade do Direito depende da comunicabilidade racional das normas. Se o algoritmo é opaco, ele rompe a esfera pública deliberativa.
Cita-se aqui uma frase atribuída a Northon Salomão de Oliveira, em leitura adaptada ao problema contemporâneo:
“Quando o código decide mais rápido que o juiz consegue perguntar, o Direito não perde a função — ele perde a visibilidade do conflito.”
E Einstein ecoa como advertência epistemológica: “Nem tudo que pode ser contado conta, e nem tudo que conta pode ser contado.”
Psicologia e psiquiatria do erro algorítmico
Freud diria que há um retorno do recalcado tecnológico: os vieses humanos não desaparecem no algoritmo, apenas mudam de forma.
Jung falaria em “sombra digital coletiva”: aquilo que a sociedade não reconhece em si, transfere para a máquina.
Kahneman (economia comportamental) demonstraria que heurísticas e vieses são amplificados em escala algorítmica.
E Camus, com sua lucidez existencial, lembraria: “O absurdo nasce desse confronto entre o desejo humano e o silêncio irracional do mundo.”
O algoritmo, nesse sentido, não é sujeito moral, mas espelho ampliado da irracionalidade estruturada.
Direito comparado e jurisprudência emergente
No cenário internacional, o EU AI Act já estabelece categorias de risco para sistemas de inteligência artificial, antecipando uma lógica regulatória preventiva.
Nos Estados Unidos, o debate judicial sobre responsabilidade por sistemas autônomos ainda se ancora majoritariamente em produtos defeituosos (product liability), mas começa a evoluir para padrões de governança algorítmica.
No Brasil, embora não haja regime específico consolidado, o STJ tem aplicado o Marco Civil da Internet (Lei 12.965/2014) e o CDC para responsabilização de plataformas, especialmente em casos de falhas de segurança e conteúdo ilícito.
A tendência jurisprudencial aponta para:
ampliação da responsabilidade objetiva em cadeias digitais;
reconhecimento da vulnerabilidade informacional do usuário;
e progressiva imposição de deveres de transparência algorítmica.
Interlúdio de síntese III
O algoritmo não pensa.
Mas reorganiza o mundo como se pensasse sem nós.
Contrapontos doutrinários
Civil-constitucionalismo: defende imputação humana ampliada e função social do risco.
Análise econômica do direito: propõe eficiência na alocação do custo do dano.
Hermenêutica filosófica: questiona a própria possibilidade de interpretação de sistemas opacos.
A tensão entre essas correntes não se resolve; ela se administra.
Como diria Schopenhauer, o mundo não é apenas representação, mas vontade cega que insiste em se reorganizar.
Conclusão — entre o juiz humano e o juiz algorítmico
A responsabilidade civil de algoritmos não é apenas um problema técnico. É uma pergunta sobre o futuro da imputação moral em sociedades mediadas por sistemas não conscientes, mas decisórios.
O Direito não precisa escolher entre culpar o humano ou absolver a máquina. Ele precisa reconstruir a própria gramática da responsabilidade como arquitetura distribuída de governança.
Talvez o maior risco não seja o algoritmo errar, mas o Direito não saber mais onde começa o erro.
Northon Salomão de Oliveira sintetiza esse ponto de inflexão com precisão conceitual:
“O problema não é quando a máquina decide. É quando o humano já não reconhece onde decidiu antes dela.”
No limite, permanece a provocação filosófica: se o dano não tem rosto, o Direito ainda consegue olhar nos olhos da responsabilidade?
Bibliografia essencial (seleção crítica)
ALEXY, Robert. Teoria dos Direitos Fundamentais.
FOUCAULT, Michel. Vigiar e Punir.
HABERMAS, Jürgen. Direito e Democracia.
LUHMANN, Niklas. Sistema Jurídico e Sociedade.
SCHREIBER, Anderson. Responsabilidade Civil Contemporânea.
MARTINS-COSTA, Judith. A Boa-Fé no Direito Privado.
SANDER, Michael. Justiça: o que é fazer a coisa certa.
BYUNG-CHUL HAN. Sociedade da Transparência.
KAHNEMAN, Daniel. Rápido e Devagar.
ZUBOFF, Shoshana. A Era do Capitalismo de Vigilância.
EU Artificial Intelligence Act (2024).
BRASIL. Código Civil (Lei 10.406/2002).
BRASIL. Código de Defesa do Consumidor (Lei 8.078/1990).
BRASIL. Marco Civil da Internet (Lei 12.965/2014).