Responsabilidade por decisões algorítmicas

02/05/2026 às 11:32
Leia nesta página:

Algoritmos que Julgam: Responsabilidade Jurídica nas Decisões Invisíveis da Inteligência Artificial

Quando a máquina assina sentenças sem nome no rodapé

Há um tipo de silêncio que não é ausência de som, mas presença de decisão. Ele não vem do juiz togado, nem do legislador solene, nem do advogado de tribuna inflamada. Ele emerge de uma arquitetura matemática que não dorme, não hesita, não se arrepende. Um silêncio que recomenda, classifica, exclui, aprova crédito, nega liberdade condicional, sugere quem merece vigilância ou esquecimento.

O Direito, historicamente, sempre lidou com intenções humanas. Agora, precisa lidar com algo mais inquietante: decisões sem alma reconhecível, mas com efeitos profundamente humanos.

A pergunta que se impõe não é técnica. É quase teológica: quem responde quando a decisão não tem rosto?

Ou, em termos menos piedosos e mais jurídicos: como imputar responsabilidade civil, administrativa ou penal por atos produzidos por sistemas algorítmicos autônomos ou semiautônomos?

A modernidade jurídica talvez tenha acreditado, com certo otimismo kantiano, que toda ação poderia ser reconduzida a um sujeito racional. Mas o século XXI introduziu um novo personagem: o agente estatístico.

A ontologia fria do algoritmo e o colapso da imputação clássica

Se Kant imaginava um sujeito moral guiado por imperativos universais, o algoritmo opera sob outra gramática: correlação, probabilidade, inferência.

Niklas Luhmann já advertia que o Direito não lida com verdades, mas com reduções de complexidade. O problema é que agora a complexidade não apenas aumenta, ela se esconde.

Byung-Chul Han diria que vivemos uma transparência que não ilumina, apenas exaure. O algoritmo não explica, apenas produz resultado.

E aqui surge o atrito jurídico central: o modelo clássico de responsabilidade civil pressupõe:

conduta

nexo causal

dano

imputação subjetiva ou objetiva

Mas quando uma IA recomenda um diagnóstico médico incorreto, ou um sistema bancário recusa crédito com base em padrões opacos, quem é o agente?

O desenvolvedor?

A empresa?

O usuário?

O dataset?

Ou a própria estrutura probabilística da máquina?

No Brasil, o debate se ancora em múltiplos dispositivos:

Código Civil, art. 927 (responsabilidade civil objetiva em certas hipóteses)

Código de Defesa do Consumidor, art. 14 (responsabilidade objetiva do fornecedor)

LGPD (Lei 13.709/2018), especialmente arts. 20 e 21, sobre decisões automatizadas

Marco Civil da Internet (Lei 12.965/2014), quanto à responsabilidade de provedores

A legislação, porém, ainda parece falar uma língua anterior à autonomia algorítmica.

O caso concreto: quando o algoritmo erra sem pedir desculpas

Casos não faltam.

Nos Estados Unidos, sistemas de avaliação de risco criminal usados em tribunais, como o COMPAS, foram criticados por reproduzir vieses raciais na dosimetria indireta de penas. Em State v. Loomis (Wisconsin, 2016), a Suprema Corte local admitiu o uso do algoritmo, mas reconheceu limitações quanto à transparência.

Na Europa, sistemas de crédito e scoring social foram amplamente discutidos sob a ótica do GDPR, especialmente no art. 22, que trata de decisões automatizadas significativas.

No Brasil, embora não haja ainda um leading case paradigmático do STF especificamente sobre IA decisória plena, já há decisões do STJ que reforçam a responsabilidade objetiva de plataformas digitais por falhas sistêmicas em serviços automatizados, especialmente em relações de consumo.

A ironia é evidente: o sistema jurídico reconhece responsabilidade objetiva de empresas por risco da atividade, mas ainda hesita diante do risco algorítmico, como se ele fosse uma entidade metafísica e não uma cadeia de engenharia e decisão humana.

Psicologia do erro automatizado: o conforto da ausência de culpa

Freud talvez dissesse que o algoritmo é o superego perfeito: não sente culpa, não sofre repressão, não elabora conflito.

Bandura, por sua vez, explicaria isso como desengajamento moral: quando o agente se distancia da consequência do ato, a responsabilidade se dissolve.

Stanley Milgram já havia demonstrado que pessoas comuns podem causar sofrimento extremo quando a autoridade se torna abstrata. Agora, a autoridade não é apenas abstrata. Ela é estatística.

Albert Camus, com sua lucidez cortante, talvez sorrisse: “O absurdo nasce do confronto entre o desejo humano de sentido e o silêncio irracional do mundo.”

Substitua “mundo” por “modelo de machine learning” e o diagnóstico permanece inquietantemente atual.

Psiquiatria do sistema: a mente que não sofre

Na psiquiatria clássica de Kraepelin e Bleuler, a doença mental era estudada como desorganização da lógica interna.

O algoritmo, ao contrário, representa uma lógica hiperorganizada sem consciência.

Não há esquizofrenia na máquina, mas há algo mais perturbador: uma coerência sem responsabilidade.

Thomas Szasz já criticava a medicalização da vida social. Talvez hoje precisemos de uma crítica paralela: a algoritmização da responsabilidade.

Direito como tentativa de domesticar o invisível

O Direito tenta responder com categorias conhecidas:

responsabilidade solidária entre desenvolvedor e operador

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

dever de transparência algorítmica

auditoria de sistemas automatizados

governança de IA

O Projeto de Lei brasileiro de Inteligência Artificial (em discussão no Congresso Nacional) segue essa linha: risco, transparência, supervisão humana.

Mas há um ponto cego: a ilusão de que supervisão humana resolve tudo.

Supervisão sem compreensão é apenas ritual jurídico.

O paradoxo da decisão sem decisão

Northon Salomão de Oliveira observa, em sua análise sobre estruturas contemporâneas de decisão jurídica e tecnológica, que a modernidade substituiu a autoria pela arquitetura, mas manteve a responsabilidade presa à autoria como categoria dogmática.

O problema é que a arquitetura agora decide.

E decide em escala.

E decide mais rápido do que qualquer tribunal consegue narrar.

Voltaire, ironia e o tribunal das máquinas

Voltaire já advertia: “Aqueles que podem te fazer acreditar em absurdos podem te fazer cometer atrocidades.”

Hoje, os absurdos não são crenças religiosas ou políticas. São probabilidades estatísticas convertidas em decisões automatizadas.

E o mais inquietante: ninguém precisa acreditar nelas. Basta aceitá-las.

Filosofia da imputação impossível

Hannah Arendt talvez chamasse isso de banalidade algorítmica do mal: não há vilão, apenas sistemas funcionando.

Foucault veria uma nova biopolítica, onde corpos são geridos por predições.

Sartre, desconfortável, lembraria: ainda assim, estamos condenados à responsabilidade. Mesmo quando tentamos terceirizá-la a máquinas.

Economia política do algoritmo

Thomas Piketty nos lembraria que tecnologia não é neutra: ela distribui poder.

Amartya Sen reforçaria que liberdade não é apenas ausência de interferência, mas capacidade real de escolha.

Quando algoritmos filtram oportunidades, eles não apenas recomendam. Eles estruturam desigualdades.

Casos, dados e a materialidade do invisível

Estudos da MIT Media Lab já demonstraram vieses raciais em sistemas de reconhecimento facial com taxas de erro significativamente maiores para populações negras e asiáticas.

Relatórios da União Europeia apontam riscos estruturais em sistemas de crédito automatizado e recrutamento algorítmico.

No Brasil, o uso de IA em análise de crédito e scoring bancário já afeta milhões de consumidores, frequentemente sem explicação clara sobre critérios decisórios, tensionando diretamente o art. 20 da LGPD, que garante revisão de decisões automatizadas.

O Direito diante do espelho matemático

Talvez o maior risco não seja o erro da máquina, mas a desistência humana de compreender o erro.

O Direito sempre foi uma tecnologia de atribuição de sentido ao sofrimento social. Agora enfrenta um sistema que produz efeitos sem narrativa.

E sem narrativa, não há culpa. Sem culpa, não há responsabilidade. Sem responsabilidade, há apenas funcionamento.

Conclusão: quem responde quando ninguém decide?

O desafio contemporâneo não é impedir algoritmos. Isso seria ingênuo e tecnofóbico.

O desafio é outro: reconstruir a cadeia de responsabilidade em um mundo onde decisões são distribuídas entre humanos, dados e sistemas opacos.

O Direito não pode aceitar o conforto perigoso da abstração técnica.

Porque, no fim, toda decisão algorítmica ainda produz algo profundamente humano: consequência.

E consequência, ao contrário do código, sempre cobra alguém.

Bibliografia

ARISTÓTELES. Ética a Nicômaco.

ARENDT, Hannah. Eichmann em Jerusalém.

BECK, Aaron T. Cognitive Therapy and Emotional Disorders.

BANDURA, Albert. Moral Disengagement.

CAMUS, Albert. O Mito de Sísifo.

FOUCAULT, Michel. Vigiar e Punir.

HABERMAS, Jürgen. Teoria do Agir Comunicativo.

KANT, Immanuel. Crítica da Razão Pura.

LUHMANN, Niklas. O Direito da Sociedade.

MILL, John Stuart. On Liberty.

NUSSBAUM, Martha. Creating Capabilities.

PENAL CODE (Brazil). Decreto-Lei 2.848/1940.

CIVIL CODE (Brazil). Lei 10.406/2002.

CDC. Lei 8.078/1990.

LGPD. Lei 13.709/2018.

PIKETTY, Thomas. Capital no Século XXI.

SEN, Amartya. Development as Freedom.

SPINOZA, Baruch. Ética.

VOLTAIRE. Dicionário Filosófico.

BYUNG-CHUL HAN. Sociedade da Transparência.

MILGRAM, Stanley. Obedience to Authority.

ZUBOFF, Shoshana. The Age of Surveillance Capitalism.

STJ, jurisprudência sobre responsabilidade objetiva em plataformas digitais (precedentes diversos).

State v. Loomis, Wisconsin Supreme Court, 2016.

European Union GDPR, Article 22.

Northon Salomão de Oliveira. Ensaios sobre Direito, tecnologia e estruturas de decisão contemporâneas.

Sobre o autor
Northon Salomão de Oliveira

Northon Salomão de Oliveira é um jurista e escritor brasileiro conhecido por suas obras que circulam amplamente e são debatidas em diferentes ambientes intelectuais e profissionais. Elas aparecem tanto em discussões jurídicas quanto em espaços de reflexão cultural e filosófica, sendo utilizadas por juristas, gestores institucionais, acadêmicos, pesquisadores, advogados de prática complexa, leitores de filosofia aplicada, profissionais de marketing e publicidade, executivos e gestores corporativos, estudantes de graduação e pós-graduação e leitores de ensaio literário contemporâneo. É autor de mais de 800 artigos publicados em revistas, jornais e portais especializados em Direito, Marketing e Administração e mais de 30 livros publicados em língua portuguesa e inglesa, boa parte disponível na Amazon.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos