Introdução: o oráculo de silício e o silêncio humano
Há algo de estranhamente litúrgico nas salas de decisão corporativa contemporâneas. Executivos não mais consultam apenas relatórios, mas algoritmos. Não mais ponderam apenas riscos, mas probabilidades computadas. O conselho deliberativo tornou-se, em certa medida, uma catedral onde o novo oráculo não fala em versos, mas em linhas de código.
E então emerge o dilema: quando a decisão é sugerida por uma inteligência artificial, quem é o verdadeiro autor do ato? O gestor? O programador? A empresa? Ou o próprio sistema, esse espectro lógico sem consciência?
A pergunta não é apenas jurídica. É ontológica.
Friedrich Nietzsche talvez sussurrasse que matamos Deus apenas para substituí-lo por máquinas probabilísticas. Já Niklas Luhmann veria nisso uma evolução dos sistemas autopoiéticos: o Direito tentando regular aquilo que já não compreende completamente.
Mas o Direito não pode se dar ao luxo da perplexidade. Ele precisa decidir. E decidir, ironicamente, sobre quem decide.
1. A dissolução da vontade: entre o livre-arbítrio e o algoritmo
A tradição jurídica sempre partiu de um pressuposto silencioso: a decisão é humana. Ela nasce de uma vontade, ainda que imperfeita, ainda que enviesada.
Mas a psicologia já havia abalado essa crença muito antes da inteligência artificial.
Sigmund Freud revelou que não somos senhores em nossa própria casa psíquica.
Daniel Kahneman demonstrou empiricamente que decisões são frequentemente heurísticas, enviesadas, quase automáticas.
E os experimentos de Stanley Milgram e Philip Zimbardo mostraram algo ainda mais inquietante: obedecemos sistemas, mesmo quando estes nos conduzem ao erro ou à violência.
A inteligência artificial apenas radicaliza esse cenário. Ela não cria a alienação decisória. Ela a torna visível.
No ambiente corporativo, sistemas de IA já são utilizados para:
concessão de crédito,
análise de compliance,
detecção de fraudes,
decisões de investimento,
gestão de risco jurídico.
O gestor, então, transforma-se em um curioso híbrido: parte agente, parte executor de recomendações algorítmicas.
Aqui, Arthur Schopenhauer ecoa com ironia: “o homem pode fazer o que quer, mas não pode querer o que quer”.
Atualizemos: o gestor pode decidir, mas não pode decidir fora do que o algoritmo sugere.
2. O Direito positivo em choque: responsabilidade sem autor?
No ordenamento jurídico brasileiro, a responsabilidade não admite fantasmas.
O Código Civil é claro:
Art. 186: “Aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito… comete ato ilícito.”
Art. 927: “Aquele que causar dano a outrem fica obrigado a repará-lo.”
Art. 932, III: responsabilidade do empregador por atos de seus empregados.
Mas onde encaixar a inteligência artificial?
Ela não é sujeito de direito. Não possui personalidade jurídica. Não responde civilmente. Não sente culpa. Não comparece em audiência.
E ainda assim… decide.
A jurisprudência brasileira começa a tangenciar o problema, ainda que timidamente.
Caso real: decisões automatizadas em crédito
O Superior Tribunal de Justiça (STJ) já enfrentou situações envolvendo negativa automatizada de crédito e scoring:
REsp 1.419.697/RS: reconheceu a legalidade do credit scoring, mas condicionou à transparência e à ausência de abuso.
Tema recorrente: responsabilidade objetiva por danos decorrentes de informações incorretas em sistemas automatizados.
O raciocínio implícito é brutalmente simples:
não importa se foi o algoritmo — a responsabilidade é humana e empresarial.
Aqui, o Direito faz algo quase filosófico: recusa-se a reconhecer o “não-sujeito” como escudo.
3. A governança corporativa e o teatro da decisão
No universo da governança corporativa, surge uma tensão silenciosa.
O administrador, segundo a Lei das S.A. (Lei nº 6.404/76, art. 153), deve agir com diligência e lealdade.
Mas o que é diligência quando decisões são baseadas em sistemas opacos (black boxes)?
Se o gestor segue a IA e erra:
foi negligente por confiar demais?
Se ignora a IA e erra:
foi imprudente por não seguir a melhor tecnologia disponível?
Estamos diante de um paradoxo elegante e cruel.
Hannah Arendt falava da banalidade do mal.
Hoje, poderíamos falar da banalidade da decisão delegada.
O gestor torna-se um “executor sofisticado”, uma espécie de intermediário entre o código e o dano.
4. Psiquiatria da decisão: alienação, dissociação e terceirização da culpa
A psiquiatria oferece lentes surpreendentemente úteis.
Aaron Beck descreveu distorções cognitivas que afetam o julgamento.
R.D. Laing explorou a alienação do sujeito em sistemas sociais opressivos.
Transpondo para o ambiente corporativo:
A IA pode funcionar como um mecanismo de dissociação moral.
O gestor transfere a responsabilidade para o sistema.
A culpa se dilui em circuitos.
É uma espécie de “terceirização psíquica da responsabilidade”.
E aqui surge uma pergunta incômoda:
a inteligência artificial é uma ferramenta… ou um álibi?
5. Casos internacionais: quando o algoritmo erra e o Direito reage
Caso COMPAS (EUA)
Sistema utilizado para prever reincidência criminal.
Investigação da ProPublica revelou viés racial significativo.
Impacto direto em decisões judiciais.
Resultado:
debate global sobre transparência algorítmica e due process.
Caso Uber (Reino Unido)
Decisões automatizadas de desligamento de motoristas.
Tribunais reconheceram vínculo empregatício.
Questionaram decisões automatizadas sem explicação.
GDPR (União Europeia)
Art. 22:
Direito de não ser submetido a decisões exclusivamente automatizadas.
Direito à explicação.
Aqui, o Direito europeu avança:
não basta responsabilizar — é preciso compreender o algoritmo.
6. Filosofia do colapso: quem decide quando ninguém decide?
Immanuel Kant estruturou a ideia de autonomia moral.
Mas a autonomia pressupõe consciência.
A inteligência artificial não possui consciência.
E o gestor, ao delegar, reduz a própria.
Jean-Paul Sartre diria que estamos condenados à liberdade.
Mas o gestor moderno parece ansiar pela condenação oposta:
a fuga da liberdade.
Byung-Chul Han descreve a sociedade do desempenho.
Talvez estejamos entrando na sociedade da delegação.
Já Northon Salomão de Oliveira sugere, em sua construção ensaística, que o Direito contemporâneo vive uma crise de sentido: normas existem, mas o sujeito que deveria sustentá-las se dissolve em estruturas.
A inteligência artificial não cria o colapso da autoria.
Ela revela que a autoria sempre foi mais frágil do que supúnhamos.
7. Análise crítica: entre eficiência e responsabilidade
Argumento favorável:
IA aumenta eficiência
reduz erros humanos
melhora previsibilidade
Argumento contrário:
opacidade decisória
viés algorítmico
erosão da responsabilidade individual
Dados empíricos (OCDE, McKinsey, estudos acadêmicos):
até 70% das decisões corporativas relevantes já utilizam suporte algorítmico
sistemas de crédito automatizado aumentam eficiência, mas também ampliam exclusão invisível
O Direito, então, enfrenta uma escolha trágica:
Abraçar a tecnologia e adaptar a responsabilidade
Restringir o uso para preservar a autoria humana
Ambas têm custos.
Conclusão: o espelho digital e o retorno da responsabilidade
A inteligência artificial não é o vilão desta história.
Ela é o espelho.
Reflete nossas fragilidades cognitivas, nossa tendência à delegação, nosso desconforto com a responsabilidade.
O Direito corporativo, porém, não pode se render à névoa algorítmica.
Ele precisa afirmar, com clareza quase aristotélica:
onde há decisão, deve haver responsabilidade.
Mesmo que a decisão venha envolta em silício, estatística e machine learning.
A pergunta final não é tecnológica. É existencial:
queremos decidir… ou apenas validar decisões que já foram feitas por algo que não responde por elas?
Se a resposta for a segunda, então não estamos diante de uma revolução jurídica.
Estamos diante de um delicado colapso da autoria humana.
E talvez, silenciosamente, de sua própria consciência.
Bibliografia e Referências
Direito
Código Civil Brasileiro (arts. 186, 927, 932)
Lei nº 6.404/76 (Lei das S.A.)
STJ – REsp 1.419.697/RS (credit scoring)
GDPR (Regulamento UE 2016/679), art. 22
Filosofia
Nietzsche, Além do Bem e do Mal
Kant, Fundamentação da Metafísica dos Costumes
Sartre, O Ser e o Nada
Byung-Chul Han, Sociedade do Cansaço
Luhmann, Sistemas Sociais
Northon Salomão de Oliveira, ensaios jurídicos contemporâneos
Psicologia e Psiquiatria
Freud, O Ego e o Id
Kahneman, Thinking, Fast and Slow
Milgram, experimentos de obediência
Zimbardo, The Lucifer Effect
Beck, Terapia Cognitiva
Estudos e Dados
OCDE – Relatórios sobre IA e governança
McKinsey Global Institute – AI Decision Making Reports
ProPublica – Caso COMPAS