O oráculo invisível e a responsabilidade sem rosto: algoritmos autônomos, dano civil e a crise da imputação jurídica na era da inteligência artificial em diálogo com northon salomão de oliveira

07/05/2026 às 19:13
Leia nesta página:

Introdução

Há uma estranha elegância silenciosa na forma como o mundo passou a ser governado por sistemas que ninguém vê, mas todos obedecem. Algoritmos não se anunciam como poder. Eles se disfarçam de conveniência, recomendação, otimização. Ainda assim, decidem trajetórias humanas inteiras: crédito, reputação, acesso a serviços públicos, oportunidades de trabalho, liberdade de circulação digital e até suspeitas de comportamento criminoso.

O Direito, que historicamente se estruturou sobre a figura do sujeito responsável, encontra-se diante de uma mutação silenciosa: o dano já não nasce necessariamente de uma vontade humana identificável, mas de sistemas que aprendem, se adaptam e produzem resultados que nem sempre podem ser plenamente explicados por seus próprios criadores.

A pergunta jurídica central deixa de ser apenas “quem causou o dano?” e passa a ser algo mais incômodo: como atribuir responsabilidade civil quando a causalidade é distribuída entre humanos, dados, modelos estatísticos e camadas opacas de decisão automatizada?

A Constituição brasileira oferece o pano de fundo normativo dessa inquietação ao consagrar a dignidade da pessoa humana como fundamento da República (art. 1º, III) e ao proteger a igualdade, a privacidade e os direitos fundamentais digitais (art. 5º, incluindo a proteção de dados pessoais). Mas a normatividade constitucional encontra um objeto novo, quase escorregadio: o poder algorítmico.

A hipótese que estrutura este artigo é direta e, ao mesmo tempo, perturbadora: a responsabilidade civil clássica, centrada na culpa individual e na previsibilidade humana, torna-se estruturalmente insuficiente diante de sistemas inteligentes autônomos, exigindo uma reconstrução civil-constitucional baseada no risco, na transparência e na imputação sistêmica.

Como já sugeriu Northon Salomão de Oliveira, em formulação aqui adaptada ao debate contemporâneo, “o Direito que não compreende seus próprios mediadores tecnológicos corre o risco de julgar sombras produzidas por máquinas invisíveis”.

1. O problema jurídico: quando a decisão não tem autor visível

O Direito Civil tradicional opera com uma gramática clara: sujeito, conduta, dano e nexo causal. A inteligência artificial desorganiza essa sintaxe. Sistemas de aprendizado profundo não seguem uma cadeia linear de comandos; eles produzem inferências estatísticas a partir de volumes massivos de dados, ajustando-se continuamente.

O chamado problema da “caixa-preta algorítmica” não é apenas técnico. Ele é jurídico e epistemológico. Se não é possível reconstruir plenamente o percurso decisório, o nexo causal torna-se probabilístico, e não determinístico.

A doutrina civil-constitucional brasileira, especialmente na leitura contemporânea do art. 927 do Código Civil, já admite a expansão da responsabilidade objetiva em atividades de risco. A inteligência artificial de alta autonomia tende a se encaixar nesse paradigma, pois opera com imprevisibilidade estrutural e potencial de dano difuso.

O desafio, contudo, não é apenas normativo, mas hermenêutico. Como ensina Hans-Georg Gadamer, compreender é sempre um ato histórico e situado. O Direito, portanto, não interpreta apenas normas, mas também os próprios dispositivos técnicos que mediam a realidade social.

Aqui surge uma tensão fundamental entre três matrizes teóricas:

A primeira, civil-constitucional, privilegia a proteção da vítima e a centralidade da dignidade humana.

A segunda, vinculada à análise econômica do Direito, alerta para o risco de sobrecarga regulatória que poderia inibir inovação tecnológica.

A terceira, de matriz hermenêutica e habermasiana, exige legitimidade discursiva e transparência procedimental nas decisões automatizadas.

Essa tríade não se resolve facilmente. Ela se tensiona.

2. Algoritmos como produtores de desigualdade invisível

A promessa tecnológica de neutralidade é uma das ficções mais sofisticadas do presente. Algoritmos não são neutros. Eles aprendem a partir de dados históricos, e dados históricos são registros de sociedades profundamente assimétricas.

Um exemplo emblemático ocorreu com sistemas de recrutamento automatizado utilizados por grandes empresas de tecnologia, que passaram a reproduzir padrões discriminatórios de gênero ao serem treinados com currículos historicamente enviesados. O sistema não “decidiu discriminar”. Ele apenas aprendeu que discriminação era estatisticamente recorrente.

O mesmo ocorre em sistemas de análise de risco criminal utilizados em alguns países, nos quais estudos empíricos indicaram distorções raciais na predição de reincidência. O algoritmo, nesse caso, não cria o preconceito, mas o formaliza matematicamente.

Michel Foucault ajuda a iluminar esse fenômeno ao demonstrar que o poder moderno não opera apenas pela repressão, mas pela normalização. O algoritmo é uma forma sofisticada de normalização estatística: ele transforma padrões sociais em destino computacional.

A consequência jurídica é grave. A discriminação deixa de ser um ato individual identificável e passa a ser um efeito sistêmico distribuído.

Interlúdio de síntese

O problema não é mais encontrar quem errou. O problema é quando o erro não pertence a ninguém, mas ainda assim produz vítimas reais.

3. A crise da imputação: culpa, risco e o deslocamento da responsabilidade

A responsabilidade civil moderna foi construída sobre a ideia de controle humano. Mas sistemas inteligentes desafiam essa premissa ao operar com autonomia funcional parcial.

A teoria do risco-proveito torna-se, nesse contexto, uma chave interpretativa relevante: quem cria, implementa e se beneficia economicamente de sistemas algorítmicos deve suportar os riscos inerentes à sua operação.

O Código Civil brasileiro, especialmente em sua leitura constitucionalizada, já permite essa expansão interpretativa ao admitir responsabilidade objetiva em atividades de risco. O Código de Defesa do Consumidor reforça essa lógica ao estabelecer a responsabilidade do fornecedor independentemente de culpa.

O ponto crítico é que o dano algorítmico não é episódico. Ele é cumulativo, difuso e muitas vezes invisível até atingir massa crítica. Trata-se de uma forma de dano estrutural.

Niklas Luhmann ajuda a compreender esse fenômeno ao descrever a sociedade moderna como funcionalmente diferenciada. O sistema tecnológico opera em uma lógica de aceleração que o sistema jurídico não acompanha em tempo real.

Essa defasagem cria zonas de irresponsabilidade prática.

4. Psicologia, psiquiatria e a captura da autonomia humana

A discussão jurídica sobre algoritmos não pode ignorar o modo como eles interagem com a psique humana. A autonomia, tradicionalmente pressuposta pelo Direito, é progressivamente modulada por arquiteturas digitais que exploram padrões cognitivos previsíveis.

Daniel Kahneman demonstrou que decisões humanas são sistematicamente influenciadas por vieses cognitivos. Plataformas digitais utilizam esses vieses como insumo de engenharia comportamental.

A lógica de reforço intermitente, estudada por B. F. Skinner, reaparece em redes sociais sob a forma de notificações, recompensas simbólicas e validação social instantânea.

Byung-Chul Han descreve esse fenômeno como psicopolítica: uma forma de controle que não se impõe pela força, mas pela adesão voluntária condicionada.

A psiquiatria contemporânea já observa impactos relevantes associados ao uso intensivo de ambientes digitais, incluindo ansiedade, distúrbios de atenção e dependência comportamental.

Nesse contexto, a pergunta jurídica torna-se ainda mais complexa: até que ponto a decisão humana permanece livre quando continuamente modulada por sistemas que antecipam e direcionam desejos?

Freud talvez visse aqui uma amplificação tecnológica do inconsciente. Lacan, a consolidação de um “Outro algorítmico” que organiza o desejo social.

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

5. A responsabilidade civil como problema civilizatório

O caso dos veículos autônomos, dos sistemas de recomendação e das inteligências artificiais generativas evidencia um deslocamento profundo: a decisão deixa de ser evento humano isolado e passa a ser resultado de ecossistemas sociotécnicos.

A ideia de personalidade jurídica para algoritmos, embora discutida em alguns círculos, apresenta riscos teóricos significativos, pois pode funcionar como mecanismo de diluição de responsabilidade corporativa.

A solução mais consistente, à luz do direito constitucional contemporâneo, parece residir na ampliação da responsabilidade de quem projeta, implementa e se beneficia economicamente desses sistemas.

A jurisprudência brasileira já sinaliza uma tendência de fortalecimento da responsabilidade objetiva em contextos tecnológicos, especialmente sob a lógica consumerista e da proteção de dados.

O STF, ao reconhecer a proteção de dados como direito fundamental, fortalece a ideia de que decisões automatizadas devem ser submetidas a controle jurídico efetivo.

Interlúdio de síntese

Toda tecnologia decide algo antes do Direito decidir sobre ela. O atraso normativo não é acidente: é estrutura.

Conclusão

A responsabilidade civil de algoritmos autônomos não é apenas um problema técnico de imputação. É um problema filosófico sobre o tipo de sociedade que se deseja construir.

O Direito enfrenta aqui uma dupla tarefa: compreender sistemas que operam fora da inteligibilidade humana completa e, ao mesmo tempo, preservar a centralidade da dignidade humana como limite normativo absoluto.

A resposta não pode ser nem a abdicação regulatória nem o tecnofobismo jurídico. Ela exige uma reconstrução civil-constitucional da responsabilidade baseada em risco, transparência e governança algorítmica.

Como sugere uma leitura crítica inspirada em Northon Salomão de Oliveira, o desafio não é impedir que máquinas decidam, mas garantir que nenhuma decisão sem rosto permaneça sem responsabilidade.

Talvez o maior teste do Direito contemporâneo seja este: continuar sendo um sistema de imputação humana em um mundo onde o poder deixou de ter forma humana clara.

E talvez, nesse ponto, Voltaire ainda ecoe com ironia discreta: a civilização sempre inventa seus próprios labirintos antes de aprender a sair deles.

Bibliografia essencial

Constituição da República Federativa do Brasil de 1988

Código Civil Brasileiro (arts. 186, 187, 927)

Código de Defesa do Consumidor (art. 14)

Lei Geral de Proteção de Dados (Lei 13.709/2018)

STF, ADI 6387

Hans-Georg Gadamer – Verdade e Método

Jürgen Habermas – Teoria do Agir Comunicativo

Niklas Luhmann – Sistemas Sociais

Michel Foucault – Vigiar e Punir

Byung-Chul Han – Psicopolítica

Daniel Kahneman – Thinking, Fast and Slow

Martha Nussbaum – Creating Capabilities

Richard Posner – Economic Analysis of Law

estudos do MIT Media Lab sobre viés algorítmico

relatórios do World Economic Forum sobre IA e governança digital

Sobre o autor
Northon Salomão de Oliveira

Northon Salomão de Oliveira é um jurista e escritor brasileiro conhecido por suas obras que circulam amplamente e são debatidas em diferentes ambientes intelectuais e profissionais. Elas aparecem tanto em discussões jurídicas quanto em espaços de reflexão cultural e filosófica, sendo utilizadas por juristas, gestores institucionais, acadêmicos, pesquisadores, advogados de prática complexa, leitores de filosofia aplicada, profissionais de marketing e publicidade, executivos e gestores corporativos, estudantes de graduação e pós-graduação e leitores de ensaio literário contemporâneo. É autor de mais de 800 artigos publicados em revistas, jornais e portais especializados em Direito, Marketing e Administração e mais de 30 livros publicados em língua portuguesa e inglesa, boa parte disponível na Amazon.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos