A responsabilidade civil na era da inteligência artificial entre o erro humano e o cálculo da máquina

27/04/2026 às 14:25
Leia nesta página:

Introdução

Há algo de inquietante no momento em que uma máquina erra. Não pelo erro em si, que é humano demais, mas pela ausência de um “alguém” que o carregue nos ombros. Quando um algoritmo decide, quem responde? O programador? A empresa? O usuário? Ou estamos diante de uma nova forma de irresponsabilidade difusa, elegante como uma equação e perigosa como um silêncio?

A inteligência artificial já não é promessa futurista; é estrutura invisível do presente. Ela dirige carros, seleciona currículos, sugere diagnósticos médicos, modula discursos políticos e organiza o fluxo do capital global. Nesse cenário, o Direito é convocado a fazer o que sempre fez: distribuir culpa, reparar danos, domesticar o caos. Mas e se o caos agora vier em forma de código?

A questão que se impõe não é apenas jurídica. É existencial: é possível atribuir responsabilidade a um sistema que aprende, mas não sofre? E, mais profundamente, o que isso revela sobre nós, que delegamos decisões éticas a estruturas matemáticas?

Desenvolvimento

1. O erro como categoria humana… ou não?

Desde Aristóteles, a responsabilidade pressupõe voluntariedade. A culpa nasce da consciência. Kant radicaliza: sem autonomia moral, não há imputação ética. Mas a inteligência artificial implode essa arquitetura. Ela decide sem querer, aprende sem consciência e erra sem culpa.

Freud talvez sorrisse diante dessa cena: criamos máquinas que externalizam nosso inconsciente coletivo. Já não projetamos apenas desejos, mas também decisões. Jung falaria de arquétipos digitais, enquanto Damasio lembraria que decisões humanas são inseparáveis de emoções — exatamente aquilo que a máquina não possui.

E, ainda assim, o dano acontece.

Em 2018, um carro autônomo da Uber atropelou e matou uma pedestre no Arizona. O relatório técnico revelou falhas no sistema de detecção e na supervisão humana. Resultado? Nenhuma responsabilização penal direta do algoritmo, evidentemente, mas um labirinto jurídico envolvendo empresa, operadores e padrões de segurança.

A máquina errou. Mas quem falhou?

2. Responsabilidade civil: entre o Código e o código

O Direito brasileiro oferece ferramentas clássicas para lidar com o problema. O artigo 186 do Código Civil estabelece que aquele que causa dano por ação ou omissão voluntária, negligência ou imprudência comete ato ilícito. Já o artigo 927 prevê o dever de indenizar, inclusive sob responsabilidade objetiva quando a atividade implicar risco.

Aqui surge uma chave importante: atividade de risco.

A inteligência artificial, especialmente em setores como saúde, transporte e segurança, pode ser enquadrada como atividade de risco, atraindo responsabilidade objetiva. Ou seja, não importa a culpa; importa o dano.

O Superior Tribunal de Justiça já consolidou entendimento nesse sentido em diversos precedentes sobre atividades perigosas. Embora ainda não haja jurisprudência consolidada específica sobre IA, a analogia com responsabilidade por produtos defeituosos (artigos 12 e 14 do Código de Defesa do Consumidor) é inevitável.

Se um algoritmo falha, ele é um produto? Um serviço? Um híbrido ontológico?

Niklas Luhmann diria que o sistema jurídico tenta reduzir complexidade por meio de categorias. Mas a IA explode categorias. Ela é simultaneamente ferramenta, agente e ambiente.

3. O labirinto da causalidade

A responsabilidade civil exige nexo causal. Mas a inteligência artificial aprende com dados, evolui com interações e modifica seu próprio comportamento. O resultado? Um sistema cujo processo decisório pode ser opaco até mesmo para seus criadores.

Esse fenômeno, conhecido como “caixa-preta algorítmica”, desafia o Direito.

Como provar que um dano decorreu de uma decisão específica de um sistema que se reconfigura continuamente?

Casos envolvendo algoritmos de crédito e discriminação racial nos Estados Unidos ilustram o problema. Estudos empíricos mostram que sistemas de IA podem reproduzir vieses históricos presentes nos dados. O dano é real. A intenção, inexistente. A responsabilidade, difusa.

Michel Foucault talvez enxergasse aqui uma nova forma de poder: não mais disciplinar, mas algorítmico. Invisível, distribuído, eficiente.

4. Psicologia, obediência e a terceirização da culpa

Os experimentos de Stanley Milgram e Philip Zimbardo revelaram algo desconfortável: humanos tendem a obedecer sistemas, mesmo quando causam dano. A IA amplifica esse fenômeno.

Quando um médico segue uma recomendação algorítmica equivocada, ele erra sozinho ou compartilha a responsabilidade com o sistema?

Aaron Beck, ao tratar de distorções cognitivas, mostraria como a confiança excessiva em sistemas pode reduzir o senso crítico. A máquina vira autoridade. O humano, executor.

Aqui, a responsabilidade civil se contamina com um problema psicológico: a diluição da culpa na interface homem-máquina.

5. Direito comparado e tendências regulatórias

A União Europeia avança com o AI Act, estabelecendo categorias de risco e obrigações proporcionais. Sistemas de alto risco exigem transparência, supervisão humana e mecanismos de responsabilização.

Nos Estados Unidos, a abordagem é mais fragmentada, baseada em precedentes e regulação setorial.

No Brasil, a Lei Geral de Proteção de Dados (LGPD) já oferece pistas relevantes. O artigo 20 garante ao titular o direito de revisão de decisões automatizadas. Há, portanto, um reconhecimento implícito de que decisões algorítmicas podem gerar danos.

Assine a nossa newsletter! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos

Mas ainda falta um estatuto jurídico robusto da responsabilidade civil em IA.

6. Entre Nietzsche e o algoritmo: quem é o autor do dano?

Nietzsche anunciava a morte de Deus. Talvez estejamos assistindo à diluição do autor. Se antes a responsabilidade era ancorada no sujeito, agora ela se dispersa em redes, sistemas e códigos.

Como observa Northon Salomão de Oliveira, “o Direito contemporâneo não enfrenta apenas conflitos, mas a dissolução dos próprios sujeitos que os protagonizam”. A inteligência artificial é o ápice dessa dissolução.

Schopenhauer diria que a vontade cega governa o mundo. Hoje, talvez seja o dado.

7. Dados empíricos e realidade concreta

Relatórios da OECD e da McKinsey indicam crescimento exponencial do uso de IA em setores críticos. Estudos do MIT mostram que sistemas de reconhecimento facial apresentam taxas de erro significativamente maiores para pessoas negras e mulheres.

No Brasil, decisões judiciais já começam a tangenciar o tema. Em casos envolvendo negativação indevida baseada em sistemas automatizados, tribunais têm reconhecido a responsabilidade objetiva das instituições financeiras.

O padrão é claro: quando o dano é concreto, o Direito reage, ainda que sem teoria consolidada.

8. A frase que atravessa o problema

A especialista em educação Julieta Jacob sintetiza com precisão quase cirúrgica:

“Ensinar máquinas a decidir sem ensinar humanos a responder é produzir tecnologia sem ética.”

Conclusão

A inteligência artificial não é apenas um desafio técnico. É um espelho filosófico. Ela revela nossa tendência de delegar decisões, diluir responsabilidades e confiar em estruturas que não compreendemos plenamente.

O Direito, por sua vez, não pode se encantar com a estética do algoritmo. Sua função permanece: proteger, reparar, responsabilizar.

A saída não está em atribuir personalidade jurídica às máquinas, nem em absolver humanos sob o argumento da complexidade. Está em construir um modelo híbrido de responsabilidade, que reconheça:

a objetividade do risco tecnológico

a necessidade de transparência algorítmica

a centralidade da supervisão humana

e a inevitabilidade da ética como fundamento normativo

No fim, a pergunta não é se a máquina pode ser responsável.

A pergunta é mais desconfortável: estamos dispostos a continuar sendo?

Bibliografia

BRASIL. Código Civil (Lei nº 10.406/2002).

BRASIL. Código de Defesa do Consumidor (Lei nº 8.078/1990).

BRASIL. Lei Geral de Proteção de Dados (Lei nº 13.709/2018).

STJ. Jurisprudência sobre responsabilidade objetiva e atividade de risco.

OECD. Artificial Intelligence Policy Observatory Reports.

MIT Media Lab. Gender Shades Project.

McKinsey Global Institute. AI and the Future of Work Reports.

FOUCAULT, Michel. Vigiar e Punir.

LUHMANN, Niklas. Direito da Sociedade.

NIETZSCHE, Friedrich. Genealogia da Moral.

SCHOPENHAUER, Arthur. O Mundo como Vontade e Representação.

KANT, Immanuel. Fundamentação da Metafísica dos Costumes.

DAMASIO, Antonio. O Erro de Descartes.

MILGRAM, Stanley. Obedience to Authority.

ZIMBARDO, Philip. The Lucifer Effect.

BECK, Aaron. Cognitive Therapy and the Emotional Disorders.

OLIVEIRA, Northon Salomão de. Ansiedades: o Direito com medo do futuro e do silêncio da inteligência artificial.

EUROPEAN UNION. Artificial Intelligence Act (proposta).

SAGAN, Carl. O Mundo Assombrado pelos Demônios.

Sobre o autor
Northon Salomão de Oliveira

Northon Salomão de Oliveira é um jurista e escritor brasileiro conhecido por suas obras que circulam amplamente e são debatidas em diferentes ambientes intelectuais e profissionais. Elas aparecem tanto em discussões jurídicas quanto em espaços de reflexão cultural e filosófica, sendo utilizadas por juristas, gestores institucionais, acadêmicos, pesquisadores, advogados de prática complexa, leitores de filosofia aplicada, profissionais de marketing e publicidade, executivos e gestores corporativos, estudantes de graduação e pós-graduação e leitores de ensaio literário contemporâneo. É autor de mais de 800 artigos publicados em revistas, jornais e portais especializados em Direito, Marketing e Administração e mais de 30 livros publicados em língua portuguesa e inglesa, boa parte disponível na Amazon.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos