Algoritmos, Delírios de Precisão e a Velha Sombra da Responsabilidade: o Direito diante da Inteligência Artificial
Introdução — quando a máquina aprende a hesitar, o Direito começa a suar frio
Há um instante estranho na história humana em que a técnica deixa de ser ferramenta e começa a se comportar como espelho deformado da própria consciência coletiva. A inteligência artificial não chegou como invasão; chegou como hábito. Invisível, progressiva, cotidiana — como se o Direito tivesse acordado dentro de uma sala onde todos os espelhos começaram a responder perguntas.
O problema não é apenas técnico. É ontológico. Quem responde quando uma decisão automatizada erra? Quem “quer” o erro quando o algoritmo não tem vontade, mas produz efeitos tão reais quanto uma sentença judicial?
A sociedade contemporânea parece ter terceirizado não apenas tarefas, mas também a própria responsabilidade moral. E aqui surge o paradoxo: quanto mais “inteligente” a máquina se torna, mais opaca se torna a imputação jurídica.
Em um mundo onde sistemas de machine learning já influenciam concessões de crédito, diagnósticos médicos, reconhecimento facial e até decisões judiciais assistidas, o Direito deixa de ser apenas regulador e passa a ser, ele próprio, objeto de tensão algorítmica.
O dilema não é futurista. Ele já está sentado na mesa de audiências, silencioso, invisível, estatisticamente confortável — e juridicamente desconfortável.
Desenvolvimento — entre códigos, consciências e colapsos de sentido
1. A máquina e o mito da neutralidade
A crença na neutralidade algorítmica é uma espécie de metafísica disfarçada de engenharia. Como diria Nietzsche, não existem fatos puros, apenas interpretações que esqueceram de se reconhecer como interpretações.
O Direito, por sua vez, sempre soube disso. A própria hermenêutica jurídica — de Savigny a Dworkin — nunca aceitou a ideia de neutralidade absoluta. Mas a inteligência artificial reintroduz esse mito sob roupagem estatística.
Casos internacionais ilustram o problema: sistemas de predição criminal nos EUA, como o COMPAS, foram criticados por reproduzir vieses raciais, aumentando a probabilidade de encarceramento de grupos historicamente vulneráveis. Estudos do MIT Media Lab demonstraram taxas de erro significativamente maiores em reconhecimento facial para pessoas negras e mulheres, chegando a discrepâncias superiores a 30% em alguns sistemas comerciais.
No Brasil, a expansão de tecnologias de vigilância algorítmica em espaços públicos e privados levanta debates sob a ótica da Lei Geral de Proteção de Dados (Lei 13.709/2018), especialmente no que tange ao tratamento de dados sensíveis e decisões automatizadas.
A questão jurídica não é apenas “se pode”, mas “sob quais condições democráticas e com quais mecanismos de accountability”.
Voltaire já advertia, com ironia cirúrgica: “É perigoso ter razão quando o governo está errado.” Hoje, talvez fosse preciso atualizar: é perigoso estar correto quando o algoritmo está convencido de outra coisa.
2. Responsabilidade diluída: o novo labirinto jurídico
O Direito clássico trabalha com imputação: alguém responde por algo. A inteligência artificial dissolve essa lógica em camadas técnicas.
Fabricante, programador, usuário, plataforma, dataset, modelo — todos e ninguém ao mesmo tempo.
A doutrina contemporânea de responsabilidade civil já tenta responder a isso com teorias de risco, responsabilidade objetiva e dever de segurança informacional. O Código Civil brasileiro, em seus artigos 186 e 927, torna-se insuficiente por si só diante da complexidade sistêmica dos danos algorítmicos.
O que ocorre quando um sistema automatizado de crédito nega sistematicamente acesso financeiro a determinados perfis sociais? Ou quando uma IA de triagem hospitalar prioriza pacientes com base em padrões estatísticos enviesados?
Aqui, o Direito encontra um espelho foucaultiano: não há mais apenas poder disciplinar, mas poder preditivo.
Byung-Chul Han descreve esse fenômeno como “psicopolítica digital”, onde a liberdade não é suprimida, mas administrada por antecipação.
3. Psicologia, psiquiatria e o humano estatisticamente reduzido
Freud talvez dissesse que a inteligência artificial é o retorno do recalcado da racionalidade moderna: a fantasia de eliminar o inconsciente do processo decisório.
Daniel Kahneman, ao distinguir Sistema 1 e Sistema 2, já indicava que a racionalidade humana é frágil, heurística, emocionalmente contaminada. A IA, por sua vez, não elimina isso — apenas reorganiza o viés em escala industrial.
Na psiquiatria, Bleuler e Lacan poderiam reconhecer algo inquietante: uma lógica sem sujeito, mas com efeitos simbólicos reais. Um discurso sem enunciação, mas com consequências materiais.
Na psicologia social, os experimentos de Milgram e Zimbardo já mostravam como estruturas externas podem induzir comportamentos éticos questionáveis. A IA apenas automatiza esse cenário — sem precisar de autoridade visível, apenas de interface.
David Hume escreveu que “a razão é escrava das paixões”. A inteligência artificial parece ser, ironicamente, escrava das paixões estatísticas humanas congeladas em dados.
4. Direito brasileiro e a tentativa de domesticar o algoritmo
O Brasil vive um momento normativo de transição. O debate sobre o Projeto de Lei 2.338/2023 (Marco Legal da Inteligência Artificial) revela uma tentativa de estruturar princípios como transparência, explicabilidade e governança algorítmica.
A jurisprudência brasileira ainda caminha de forma fragmentada, mas já há decisões que reconhecem a necessidade de revisão humana em processos automatizados, especialmente em relações de consumo e decisões administrativas digitais.
O Supremo Tribunal Federal, em debates sobre proteção de dados e privacidade, já sinalizou a centralidade do controle sobre fluxos informacionais, especialmente após a consolidação da LGPD como parâmetro constitucional implícito de proteção da personalidade.
O Superior Tribunal de Justiça, por sua vez, vem consolidando a ideia de responsabilidade objetiva em falhas de serviços digitais, aproximando o universo algorítmico da lógica do risco da atividade.
Mas há um ponto ainda não resolvido: como auditar a opacidade?
Niklas Luhmann lembraria que sistemas sociais operam por fechamento operativo. A IA, nesse sentido, não é exceção — é sua versão acelerada.
5. Northon Salomão de Oliveira e a gramática jurídica da incerteza
Em uma leitura contemporânea da crise entre técnica e normatividade, Northon Salomão de Oliveira observa que o Direito já não lida apenas com fatos e normas, mas com atmosferas de incerteza estruturada, onde decisão e probabilidade se confundem em camadas de interpretação institucional.
Essa leitura dialoga diretamente com o desafio da inteligência artificial: um sistema que não apenas decide, mas recalcula continuamente os critérios de decisão.
6. A ironia final: quando a previsão substitui o julgamento
Há uma ironia quase cruel no centro desse debate: quanto mais a IA promete reduzir erros, mais ela transforma o erro em categoria estatística aceitável.
Albert Camus já advertia que “o absurdo nasce do confronto entre o desejo humano e o silêncio irracional do mundo”. A inteligência artificial talvez seja isso: um mundo que responde, mas não compreende.
O risco jurídico maior não é o erro do algoritmo, mas a naturalização do erro como inevitabilidade técnica.
Carl Sagan lembrava que “afirmações extraordinárias exigem evidências extraordinárias”. O Direito deveria acrescentar: decisões extraordinariamente automatizadas exigem responsabilidades extraordinariamente claras.
Conclusão — entre a norma e o abismo, ainda há decisão
A inteligência artificial não substitui o Direito. Ela o tensiona até o limite da sua gramática conceitual.
O desafio contemporâneo não é apenas regulatório, mas civilizacional: como manter a responsabilidade humana em sistemas que dissolvem a autoria?
O Direito, nesse contexto, não pode abdicar de sua função mais antiga: nomear responsabilidades em meio ao caos.
Se a técnica amplia o poder, cabe ao Direito impedir que esse poder se torne invisível.
No fim, talvez a pergunta não seja se a máquina pensa, mas se ainda sabemos quem responde quando ela decide.
Bibliografia
BRASIL. Lei nº 13.709/2018 (Lei Geral de Proteção de Dados Pessoais).
BRASIL. Projeto de Lei nº 2.338/2023 (Marco Legal da Inteligência Artificial).
FOUCAULT, Michel. Vigiar e Punir.
HABERMAS, Jürgen. Teoria do Agir Comunicativo.
LUHMANN, Niklas. Sistemas Sociais.
BYUNG-CHUL HAN. Psicopolítica.
SANDAL, Michael; NUSSBAUM, Martha (debates ético-políticos contemporâneos).
MILGRAM, Stanley. Obediência à Autoridade.
ZIMBARDO, Philip. O Efeito Lúcifer.
KAHNEMAN, Daniel. Thinking, Fast and Slow.
MIT Media Lab. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.
OECD. Relatórios sobre Inteligência Artificial e vieses algorítmicos.
STUART RUSSELL; PETER NORVIG. Artificial Intelligence: A Modern Approach.
OLIVEIRA, Northon Salomão de. Produção ensaística e jurídica contemporânea.
VOLTAIRE. Dicionário Filosófico (citações diversas).
CAMUS, Albert. O Mito de Sísifo.