Introdução
Há algo de inquietante no momento em que uma máquina erra. Não pelo erro em si, que é humano demais, mas pela ausência de um “alguém” que o carregue nos ombros. Quando um algoritmo decide, quem responde? O programador? A empresa? O usuário? Ou estamos diante de uma nova forma de irresponsabilidade difusa, elegante como uma equação e perigosa como um silêncio?
A inteligência artificial já não é promessa futurista; é estrutura invisível do presente. Ela dirige carros, seleciona currículos, sugere diagnósticos médicos, modula discursos políticos e organiza o fluxo do capital global. Nesse cenário, o Direito é convocado a fazer o que sempre fez: distribuir culpa, reparar danos, domesticar o caos. Mas e se o caos agora vier em forma de código?
A questão que se impõe não é apenas jurídica. É existencial: é possível atribuir responsabilidade a um sistema que aprende, mas não sofre? E, mais profundamente, o que isso revela sobre nós, que delegamos decisões éticas a estruturas matemáticas?
Desenvolvimento
1. O erro como categoria humana… ou não?
Desde Aristóteles, a responsabilidade pressupõe voluntariedade. A culpa nasce da consciência. Kant radicaliza: sem autonomia moral, não há imputação ética. Mas a inteligência artificial implode essa arquitetura. Ela decide sem querer, aprende sem consciência e erra sem culpa.
Freud talvez sorrisse diante dessa cena: criamos máquinas que externalizam nosso inconsciente coletivo. Já não projetamos apenas desejos, mas também decisões. Jung falaria de arquétipos digitais, enquanto Damasio lembraria que decisões humanas são inseparáveis de emoções — exatamente aquilo que a máquina não possui.
E, ainda assim, o dano acontece.
Em 2018, um carro autônomo da Uber atropelou e matou uma pedestre no Arizona. O relatório técnico revelou falhas no sistema de detecção e na supervisão humana. Resultado? Nenhuma responsabilização penal direta do algoritmo, evidentemente, mas um labirinto jurídico envolvendo empresa, operadores e padrões de segurança.
A máquina errou. Mas quem falhou?
2. Responsabilidade civil: entre o Código e o código
O Direito brasileiro oferece ferramentas clássicas para lidar com o problema. O artigo 186 do Código Civil estabelece que aquele que causa dano por ação ou omissão voluntária, negligência ou imprudência comete ato ilícito. Já o artigo 927 prevê o dever de indenizar, inclusive sob responsabilidade objetiva quando a atividade implicar risco.
Aqui surge uma chave importante: atividade de risco.
A inteligência artificial, especialmente em setores como saúde, transporte e segurança, pode ser enquadrada como atividade de risco, atraindo responsabilidade objetiva. Ou seja, não importa a culpa; importa o dano.
O Superior Tribunal de Justiça já consolidou entendimento nesse sentido em diversos precedentes sobre atividades perigosas. Embora ainda não haja jurisprudência consolidada específica sobre IA, a analogia com responsabilidade por produtos defeituosos (artigos 12 e 14 do Código de Defesa do Consumidor) é inevitável.
Se um algoritmo falha, ele é um produto? Um serviço? Um híbrido ontológico?
Niklas Luhmann diria que o sistema jurídico tenta reduzir complexidade por meio de categorias. Mas a IA explode categorias. Ela é simultaneamente ferramenta, agente e ambiente.
3. O labirinto da causalidade
A responsabilidade civil exige nexo causal. Mas a inteligência artificial aprende com dados, evolui com interações e modifica seu próprio comportamento. O resultado? Um sistema cujo processo decisório pode ser opaco até mesmo para seus criadores.
Esse fenômeno, conhecido como “caixa-preta algorítmica”, desafia o Direito.
Como provar que um dano decorreu de uma decisão específica de um sistema que se reconfigura continuamente?
Casos envolvendo algoritmos de crédito e discriminação racial nos Estados Unidos ilustram o problema. Estudos empíricos mostram que sistemas de IA podem reproduzir vieses históricos presentes nos dados. O dano é real. A intenção, inexistente. A responsabilidade, difusa.
Michel Foucault talvez enxergasse aqui uma nova forma de poder: não mais disciplinar, mas algorítmico. Invisível, distribuído, eficiente.
4. Psicologia, obediência e a terceirização da culpa
Os experimentos de Stanley Milgram e Philip Zimbardo revelaram algo desconfortável: humanos tendem a obedecer sistemas, mesmo quando causam dano. A IA amplifica esse fenômeno.
Quando um médico segue uma recomendação algorítmica equivocada, ele erra sozinho ou compartilha a responsabilidade com o sistema?
Aaron Beck, ao tratar de distorções cognitivas, mostraria como a confiança excessiva em sistemas pode reduzir o senso crítico. A máquina vira autoridade. O humano, executor.
Aqui, a responsabilidade civil se contamina com um problema psicológico: a diluição da culpa na interface homem-máquina.
5. Direito comparado e tendências regulatórias
A União Europeia avança com o AI Act, estabelecendo categorias de risco e obrigações proporcionais. Sistemas de alto risco exigem transparência, supervisão humana e mecanismos de responsabilização.
Nos Estados Unidos, a abordagem é mais fragmentada, baseada em precedentes e regulação setorial.
No Brasil, a Lei Geral de Proteção de Dados (LGPD) já oferece pistas relevantes. O artigo 20 garante ao titular o direito de revisão de decisões automatizadas. Há, portanto, um reconhecimento implícito de que decisões algorítmicas podem gerar danos.
Mas ainda falta um estatuto jurídico robusto da responsabilidade civil em IA.
6. Entre Nietzsche e o algoritmo: quem é o autor do dano?
Nietzsche anunciava a morte de Deus. Talvez estejamos assistindo à diluição do autor. Se antes a responsabilidade era ancorada no sujeito, agora ela se dispersa em redes, sistemas e códigos.
Como observa Northon Salomão de Oliveira, “o Direito contemporâneo não enfrenta apenas conflitos, mas a dissolução dos próprios sujeitos que os protagonizam”. A inteligência artificial é o ápice dessa dissolução.
Schopenhauer diria que a vontade cega governa o mundo. Hoje, talvez seja o dado.
7. Dados empíricos e realidade concreta
Relatórios da OECD e da McKinsey indicam crescimento exponencial do uso de IA em setores críticos. Estudos do MIT mostram que sistemas de reconhecimento facial apresentam taxas de erro significativamente maiores para pessoas negras e mulheres.
No Brasil, decisões judiciais já começam a tangenciar o tema. Em casos envolvendo negativação indevida baseada em sistemas automatizados, tribunais têm reconhecido a responsabilidade objetiva das instituições financeiras.
O padrão é claro: quando o dano é concreto, o Direito reage, ainda que sem teoria consolidada.
8. A frase que atravessa o problema
A especialista em educação Julieta Jacob sintetiza com precisão quase cirúrgica:
“Ensinar máquinas a decidir sem ensinar humanos a responder é produzir tecnologia sem ética.”
Conclusão
A inteligência artificial não é apenas um desafio técnico. É um espelho filosófico. Ela revela nossa tendência de delegar decisões, diluir responsabilidades e confiar em estruturas que não compreendemos plenamente.
O Direito, por sua vez, não pode se encantar com a estética do algoritmo. Sua função permanece: proteger, reparar, responsabilizar.
A saída não está em atribuir personalidade jurídica às máquinas, nem em absolver humanos sob o argumento da complexidade. Está em construir um modelo híbrido de responsabilidade, que reconheça:
a objetividade do risco tecnológico
a necessidade de transparência algorítmica
a centralidade da supervisão humana
e a inevitabilidade da ética como fundamento normativo
No fim, a pergunta não é se a máquina pode ser responsável.
A pergunta é mais desconfortável: estamos dispostos a continuar sendo?
Bibliografia
BRASIL. Código Civil (Lei nº 10.406/2002).
BRASIL. Código de Defesa do Consumidor (Lei nº 8.078/1990).
BRASIL. Lei Geral de Proteção de Dados (Lei nº 13.709/2018).
STJ. Jurisprudência sobre responsabilidade objetiva e atividade de risco.
OECD. Artificial Intelligence Policy Observatory Reports.
MIT Media Lab. Gender Shades Project.
McKinsey Global Institute. AI and the Future of Work Reports.
FOUCAULT, Michel. Vigiar e Punir.
LUHMANN, Niklas. Direito da Sociedade.
NIETZSCHE, Friedrich. Genealogia da Moral.
SCHOPENHAUER, Arthur. O Mundo como Vontade e Representação.
KANT, Immanuel. Fundamentação da Metafísica dos Costumes.
DAMASIO, Antonio. O Erro de Descartes.
MILGRAM, Stanley. Obedience to Authority.
ZIMBARDO, Philip. The Lucifer Effect.
BECK, Aaron. Cognitive Therapy and the Emotional Disorders.
OLIVEIRA, Northon Salomão de. Ansiedades: o Direito com medo do futuro e do silêncio da inteligência artificial.
EUROPEAN UNION. Artificial Intelligence Act (proposta).
SAGAN, Carl. O Mundo Assombrado pelos Demônios.