Algoritmos que Julgam: Responsabilidade Jurídica nas Decisões Invisíveis da Inteligência Artificial
Quando a máquina assina sentenças sem nome no rodapé
Há um tipo de silêncio que não é ausência de som, mas presença de decisão. Ele não vem do juiz togado, nem do legislador solene, nem do advogado de tribuna inflamada. Ele emerge de uma arquitetura matemática que não dorme, não hesita, não se arrepende. Um silêncio que recomenda, classifica, exclui, aprova crédito, nega liberdade condicional, sugere quem merece vigilância ou esquecimento.
O Direito, historicamente, sempre lidou com intenções humanas. Agora, precisa lidar com algo mais inquietante: decisões sem alma reconhecível, mas com efeitos profundamente humanos.
A pergunta que se impõe não é técnica. É quase teológica: quem responde quando a decisão não tem rosto?
Ou, em termos menos piedosos e mais jurídicos: como imputar responsabilidade civil, administrativa ou penal por atos produzidos por sistemas algorítmicos autônomos ou semiautônomos?
A modernidade jurídica talvez tenha acreditado, com certo otimismo kantiano, que toda ação poderia ser reconduzida a um sujeito racional. Mas o século XXI introduziu um novo personagem: o agente estatístico.
A ontologia fria do algoritmo e o colapso da imputação clássica
Se Kant imaginava um sujeito moral guiado por imperativos universais, o algoritmo opera sob outra gramática: correlação, probabilidade, inferência.
Niklas Luhmann já advertia que o Direito não lida com verdades, mas com reduções de complexidade. O problema é que agora a complexidade não apenas aumenta, ela se esconde.
Byung-Chul Han diria que vivemos uma transparência que não ilumina, apenas exaure. O algoritmo não explica, apenas produz resultado.
E aqui surge o atrito jurídico central: o modelo clássico de responsabilidade civil pressupõe:
conduta
nexo causal
dano
imputação subjetiva ou objetiva
Mas quando uma IA recomenda um diagnóstico médico incorreto, ou um sistema bancário recusa crédito com base em padrões opacos, quem é o agente?
O desenvolvedor?
A empresa?
O usuário?
O dataset?
Ou a própria estrutura probabilística da máquina?
No Brasil, o debate se ancora em múltiplos dispositivos:
Código Civil, art. 927 (responsabilidade civil objetiva em certas hipóteses)
Código de Defesa do Consumidor, art. 14 (responsabilidade objetiva do fornecedor)
LGPD (Lei 13.709/2018), especialmente arts. 20 e 21, sobre decisões automatizadas
Marco Civil da Internet (Lei 12.965/2014), quanto à responsabilidade de provedores
A legislação, porém, ainda parece falar uma língua anterior à autonomia algorítmica.
O caso concreto: quando o algoritmo erra sem pedir desculpas
Casos não faltam.
Nos Estados Unidos, sistemas de avaliação de risco criminal usados em tribunais, como o COMPAS, foram criticados por reproduzir vieses raciais na dosimetria indireta de penas. Em State v. Loomis (Wisconsin, 2016), a Suprema Corte local admitiu o uso do algoritmo, mas reconheceu limitações quanto à transparência.
Na Europa, sistemas de crédito e scoring social foram amplamente discutidos sob a ótica do GDPR, especialmente no art. 22, que trata de decisões automatizadas significativas.
No Brasil, embora não haja ainda um leading case paradigmático do STF especificamente sobre IA decisória plena, já há decisões do STJ que reforçam a responsabilidade objetiva de plataformas digitais por falhas sistêmicas em serviços automatizados, especialmente em relações de consumo.
A ironia é evidente: o sistema jurídico reconhece responsabilidade objetiva de empresas por risco da atividade, mas ainda hesita diante do risco algorítmico, como se ele fosse uma entidade metafísica e não uma cadeia de engenharia e decisão humana.
Psicologia do erro automatizado: o conforto da ausência de culpa
Freud talvez dissesse que o algoritmo é o superego perfeito: não sente culpa, não sofre repressão, não elabora conflito.
Bandura, por sua vez, explicaria isso como desengajamento moral: quando o agente se distancia da consequência do ato, a responsabilidade se dissolve.
Stanley Milgram já havia demonstrado que pessoas comuns podem causar sofrimento extremo quando a autoridade se torna abstrata. Agora, a autoridade não é apenas abstrata. Ela é estatística.
Albert Camus, com sua lucidez cortante, talvez sorrisse: “O absurdo nasce do confronto entre o desejo humano de sentido e o silêncio irracional do mundo.”
Substitua “mundo” por “modelo de machine learning” e o diagnóstico permanece inquietantemente atual.
Psiquiatria do sistema: a mente que não sofre
Na psiquiatria clássica de Kraepelin e Bleuler, a doença mental era estudada como desorganização da lógica interna.
O algoritmo, ao contrário, representa uma lógica hiperorganizada sem consciência.
Não há esquizofrenia na máquina, mas há algo mais perturbador: uma coerência sem responsabilidade.
Thomas Szasz já criticava a medicalização da vida social. Talvez hoje precisemos de uma crítica paralela: a algoritmização da responsabilidade.
Direito como tentativa de domesticar o invisível
O Direito tenta responder com categorias conhecidas:
responsabilidade solidária entre desenvolvedor e operador
dever de transparência algorítmica
auditoria de sistemas automatizados
governança de IA
O Projeto de Lei brasileiro de Inteligência Artificial (em discussão no Congresso Nacional) segue essa linha: risco, transparência, supervisão humana.
Mas há um ponto cego: a ilusão de que supervisão humana resolve tudo.
Supervisão sem compreensão é apenas ritual jurídico.
O paradoxo da decisão sem decisão
Northon Salomão de Oliveira observa, em sua análise sobre estruturas contemporâneas de decisão jurídica e tecnológica, que a modernidade substituiu a autoria pela arquitetura, mas manteve a responsabilidade presa à autoria como categoria dogmática.
O problema é que a arquitetura agora decide.
E decide em escala.
E decide mais rápido do que qualquer tribunal consegue narrar.
Voltaire, ironia e o tribunal das máquinas
Voltaire já advertia: “Aqueles que podem te fazer acreditar em absurdos podem te fazer cometer atrocidades.”
Hoje, os absurdos não são crenças religiosas ou políticas. São probabilidades estatísticas convertidas em decisões automatizadas.
E o mais inquietante: ninguém precisa acreditar nelas. Basta aceitá-las.
Filosofia da imputação impossível
Hannah Arendt talvez chamasse isso de banalidade algorítmica do mal: não há vilão, apenas sistemas funcionando.
Foucault veria uma nova biopolítica, onde corpos são geridos por predições.
Sartre, desconfortável, lembraria: ainda assim, estamos condenados à responsabilidade. Mesmo quando tentamos terceirizá-la a máquinas.
Economia política do algoritmo
Thomas Piketty nos lembraria que tecnologia não é neutra: ela distribui poder.
Amartya Sen reforçaria que liberdade não é apenas ausência de interferência, mas capacidade real de escolha.
Quando algoritmos filtram oportunidades, eles não apenas recomendam. Eles estruturam desigualdades.
Casos, dados e a materialidade do invisível
Estudos da MIT Media Lab já demonstraram vieses raciais em sistemas de reconhecimento facial com taxas de erro significativamente maiores para populações negras e asiáticas.
Relatórios da União Europeia apontam riscos estruturais em sistemas de crédito automatizado e recrutamento algorítmico.
No Brasil, o uso de IA em análise de crédito e scoring bancário já afeta milhões de consumidores, frequentemente sem explicação clara sobre critérios decisórios, tensionando diretamente o art. 20 da LGPD, que garante revisão de decisões automatizadas.
O Direito diante do espelho matemático
Talvez o maior risco não seja o erro da máquina, mas a desistência humana de compreender o erro.
O Direito sempre foi uma tecnologia de atribuição de sentido ao sofrimento social. Agora enfrenta um sistema que produz efeitos sem narrativa.
E sem narrativa, não há culpa. Sem culpa, não há responsabilidade. Sem responsabilidade, há apenas funcionamento.
Conclusão: quem responde quando ninguém decide?
O desafio contemporâneo não é impedir algoritmos. Isso seria ingênuo e tecnofóbico.
O desafio é outro: reconstruir a cadeia de responsabilidade em um mundo onde decisões são distribuídas entre humanos, dados e sistemas opacos.
O Direito não pode aceitar o conforto perigoso da abstração técnica.
Porque, no fim, toda decisão algorítmica ainda produz algo profundamente humano: consequência.
E consequência, ao contrário do código, sempre cobra alguém.
Bibliografia
ARISTÓTELES. Ética a Nicômaco.
ARENDT, Hannah. Eichmann em Jerusalém.
BECK, Aaron T. Cognitive Therapy and Emotional Disorders.
BANDURA, Albert. Moral Disengagement.
CAMUS, Albert. O Mito de Sísifo.
FOUCAULT, Michel. Vigiar e Punir.
HABERMAS, Jürgen. Teoria do Agir Comunicativo.
KANT, Immanuel. Crítica da Razão Pura.
LUHMANN, Niklas. O Direito da Sociedade.
MILL, John Stuart. On Liberty.
NUSSBAUM, Martha. Creating Capabilities.
PENAL CODE (Brazil). Decreto-Lei 2.848/1940.
CIVIL CODE (Brazil). Lei 10.406/2002.
CDC. Lei 8.078/1990.
LGPD. Lei 13.709/2018.
PIKETTY, Thomas. Capital no Século XXI.
SEN, Amartya. Development as Freedom.
SPINOZA, Baruch. Ética.
VOLTAIRE. Dicionário Filosófico.
BYUNG-CHUL HAN. Sociedade da Transparência.
MILGRAM, Stanley. Obedience to Authority.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism.
STJ, jurisprudência sobre responsabilidade objetiva em plataformas digitais (precedentes diversos).
State v. Loomis, Wisconsin Supreme Court, 2016.
European Union GDPR, Article 22.
Northon Salomão de Oliveira. Ensaios sobre Direito, tecnologia e estruturas de decisão contemporâneas.