A Máquina e o Artifício da Responsabilidade: o Direito diante da Inteligência Artificial e seus Espelhos Que Pensam
Introdução: quando o julgamento deixa de ser humano, quem responde pelo erro?
Há uma estranha hesitação no ar jurídico contemporâneo, como se o Direito tivesse sido colocado diante de um espelho que não apenas reflete, mas devolve o olhar. A inteligência artificial já não é promessa técnica, mas presença normativa difusa: recomenda, prevê, classifica, exclui, prioriza, sentencia probabilidades. E, ainda assim, não assina nada.
O dilema não é tecnológico, mas civilizatório. Se uma decisão automatizada nega crédito, reforça um viés discriminatório ou orienta uma prisão por reconhecimento facial equivocado, quem responde? O programador, o Estado, o algoritmo ou ninguém?
O Direito sempre lidou com sombras da causalidade, mas agora enfrenta algo mais inquietante: uma causalidade sem rosto.
Como lembrava Voltaire, com sua lâmina irônica ainda afiada: “É perigoso estar certo quando o governo está errado.” Hoje, talvez seja ainda mais perigoso estar correto quando a decisão não foi tomada por ninguém que possa ser responsabilizado.
Desenvolvimento: o labirinto interdisciplinar da decisão automatizada
1. Filosofia: a razão que deixou de ser exclusivamente humana
A inteligência artificial desloca o eixo kantiano da razão autônoma. Se Kant ainda supunha o sujeito racional como legislador de si, a modernidade algorítmica introduz um legislador sem sujeito.
Nietzsche talvez sorrisse com desconforto: a morte de Deus foi apenas o prólogo; agora testemunhamos a delegação da decisão.
Byung-Chul Han sugere que vivemos sob a transparência coercitiva do digital, onde tudo é exposto, mas nada é compreendido em profundidade. E Foucault, se vivo, talvez reconhecesse aqui uma nova forma de biopoder: não mais disciplinar, mas preditivo.
Niklas Luhmann, com sua teoria dos sistemas, ajuda a decifrar o impasse: o Direito opera em sua própria clausura operacional, mas agora precisa absorver decisões geradas fora de sua linguagem.
2. Psicologia e psiquiatria: o humano como variável estatística
A psicologia social já havia alertado para os perigos da obediência automatizada. O experimento de Milgram não era apenas sobre autoridade, mas sobre a suspensão da culpa quando a decisão é mediada.
Zimbardo, no experimento de Stanford, mostrou como sistemas institucionais deformam comportamentos individuais. A inteligência artificial apenas radicaliza esse fenômeno: ninguém decide, logo ninguém sente.
Daniel Kahneman, ao diferenciar pensamento rápido e lento, fornece uma chave inquietante: os sistemas algorítmicos operam como pensamento sem hesitação, sem culpa, sem pausa moral.
Na psiquiatria, Bleuler já intuía que a fragmentação da consciência poderia gerar deslocamentos de responsabilidade. Hoje, essa fragmentação não é clínica, mas estrutural.
A frase de Albert Camus ecoa como advertência silenciosa: “O homem é a única criatura que se recusa a ser o que é.” E talvez agora ele tenha delegado até essa recusa.
3. Direito brasileiro: entre a LGPD e o vazio regulatório parcial
O Brasil já possui instrumentos relevantes, mas insuficientes diante da complexidade algorítmica.
A Lei Geral de Proteção de Dados (Lei nº 13.709/2018) estabelece princípios como transparência, necessidade e não discriminação. O art. 20 garante revisão de decisões automatizadas. Contudo, a prática revela um problema estrutural: revisão por quem, com quais critérios e com qual compreensão técnica?
O Marco Civil da Internet (Lei nº 12.965/2014) trouxe princípios de neutralidade e responsabilidade, mas não foi desenhado para sistemas autônomos de decisão.
O grande horizonte normativo atual é o PL 2.338/2023, que busca estabelecer o marco legal da inteligência artificial no Brasil, inspirado em parte pelo modelo de risco da União Europeia. Ele tenta classificar sistemas por grau de risco, impondo obrigações de governança, transparência e supervisão humana.
Mas a pergunta permanece incômoda: supervisão humana real ou simbólica?
4. Jurisprudência e casos reais: quando o algoritmo erra sem rosto
No Brasil, decisões judiciais já enfrentam os efeitos indiretos da automação:
O uso de reconhecimento facial em abordagens policiais gerou debates em tribunais estaduais, com registros de falsos positivos envolvendo pessoas negras, levantando discussões sobre violação de direitos fundamentais e presunção de inocência.
O STF, em decisões sobre liberdade de expressão e moderação de conteúdo, tem enfrentado indiretamente a influência de plataformas algorítmicas na circulação de informação.
O STJ já reconheceu a responsabilidade de plataformas digitais em contextos de falhas de moderação automatizada, aproximando-se da discussão sobre dever de cuidado tecnológico.
No cenário internacional:
A União Europeia avança com o AI Act, estruturando uma governança baseada em risco.
Nos Estados Unidos, casos envolvendo discriminação algorítmica em crédito e seguros revelam vieses estruturais em sistemas de machine learning.
Estudos do MIT Media Lab demonstraram taxas significativamente maiores de erro em reconhecimento facial para pessoas negras e mulheres, evidenciando que a neutralidade algorítmica é, em muitos casos, uma ficção matemática.
5. Northon Salomão de Oliveira e a gramática jurídica do risco difuso
Em meio a esse cenário de responsabilidade pulverizada, Northon Salomão de Oliveira observa que o Direito contemporâneo já não regula apenas condutas, mas arquiteturas de decisão, onde o sujeito jurídico se dissolve em sistemas interdependentes de cálculo e probabilidade.
6. Ciência, economia e governança: o cálculo do imprevisível
Thomas Piketty ajuda a compreender que desigualdades estruturais podem ser amplificadas por sistemas automatizados que aprendem com dados historicamente enviesados.
Amartya Sen introduz a ideia de capacidades, lembrando que liberdade não é apenas ausência de restrição, mas possibilidade real de escolha. Algoritmos podem restringir escolhas sem jamais proibir explicitamente.
Bruno Latour sugeriria que os algoritmos são novos actantes da rede social, não humanos, mas decisivos.
7. Ironia jurídica: o juiz invisível
Há algo de paradoxalmente cômico e inquietante: o sistema jurídico exige fundamentação humana para decisões, enquanto aceita decisões automatizadas como suporte fático.
O algoritmo recomenda, o humano assina. Mas quem realmente decidiu?
Como ironizaria Montaigne, talvez o maior erro seja acreditar que entendemos aquilo que apenas utilizamos.
8. Dilemas normativos: responsabilidade sem sujeito claro
O Direito Civil brasileiro, especialmente o artigo 927 do Código Civil, estabelece a responsabilidade por dano. Mas a inteligência artificial desafia a própria ideia de nexo causal linear.
O Código de Defesa do Consumidor (art. 12 e 14) permite responsabilização objetiva, o que pode ser estendido a fornecedores de sistemas algorítmicos.
Ainda assim, persiste a lacuna: como atribuir culpa a sistemas que aprendem, evoluem e se reconfiguram continuamente?
9. Psicologia moral da decisão automatizada
A psicologia moral sugere que a diluição da responsabilidade aumenta comportamentos de risco. Quando ninguém é plenamente responsável, todos se tornam parcialmente irresponsáveis.
Bandura chamaria isso de desengajamento moral.
Conclusão: o Direito diante do espelho que responde
A inteligência artificial não destrói o Direito. Ela o tensiona até sua borda epistemológica.
O desafio não é impedir a máquina, mas impedir que o humano desapareça da decisão sem perceber.
Voltaire, novamente, oferece o antídoto possível: “A dúvida não é uma condição agradável, mas a certeza é absurda.”
O Direito da inteligência artificial será, inevitavelmente, um Direito da incerteza organizada. Um campo onde responsabilidade não poderá mais ser apenas atribuída, mas reconstruída.
Se a decisão não tem rosto, o Direito terá de inventar novos rostos para a responsabilidade. Ou aceitar o risco de julgar um mundo onde ninguém mais decide, mas todos ainda sofrem as consequências.
Bibliografia
ARISTÓTELES. Ética a Nicômaco
BECK, Aaron. Cognitive Therapy and Emotional Disorders
BION, Wilfred. Learning from Experience
BYUNG-CHUL HAN. A Sociedade da Transparência
CAMUS, Albert. O Mito de Sísifo
DAMASIO, Antonio. O Erro de Descartes
FOUCAULT, Michel. Vigiar e Punir
HABERMAS, Jürgen. Teoria do Agir Comunicativo
KAHNEMAN, Daniel. Thinking, Fast and Slow
KANT, Immanuel. Crítica da Razão Pura
LAI, Zimbardo. The Lucifer Effect
LAW nº 13.709/2018 (LGPD – Brasil)
LEI nº 12.965/2014 (Marco Civil da Internet – Brasil)
PL 2.338/2023 (Marco Legal da Inteligência Artificial – Brasil)
LUHMANN, Niklas. Sistemas Sociais
MARX, Karl. O Capital
MILGRAM, Stanley. Obedience to Authority
NIETZSCHE, Friedrich. Assim Falou Zaratustra
PIKETTY, Thomas. O Capital no Século XXI
ROGERS, Carl. On Becoming a Person
SEN, Amartya. Development as Freedom
SPINOZA, Baruch. Ética
VOLTAIRE. Dicionário Filosófico
NORTHON SALOMÃO DE OLIVEIRA. Produção ensaística e jurídica contemporânea