Introdução
O gerente morreu — não no sentido biológico, mas simbólico. Seu crachá ainda existe, talvez até seu CPF siga ativo no cadastro interno, mas sua função foi dissolvida num código que não pede café, não adoece e não hesita. No lugar da figura humana que media conflitos, interpreta normas e exercita o juízo prudencial, surge um sistema algorítmico que decide, recusa, concede e executa com a serenidade fria de uma equação.
A pergunta que se impõe, com a gravidade de um sino em catedral vazia, é simples e perturbadora: o que acontece com o Direito quando desaparece o humano que o encarnava?
Se o Direito sempre foi, como sugeria Aristóteles, uma técnica de justiça aplicada por homens a homens, o que resta quando a decisão passa a ser tomada por máquinas treinadas em dados passados — frequentemente enviesados, frequentemente opacos? Estaríamos diante de uma evolução civilizatória ou de um retrocesso elegante, embalado em interfaces minimalistas?
Desenvolvimento
1. O algoritmo como novo soberano silencioso
Niklas Luhmann já advertia que o Direito é um sistema autopoiético, que se reproduz por suas próprias operações. Mas o que acontece quando essas operações são delegadas a sistemas que não compreendem o mundo, apenas o correlacionam?
O algoritmo não julga: ele calcula.
E, no entanto, suas decisões produzem efeitos jurídicos concretos. No Brasil, sistemas de análise de crédito e concessão automatizada já operam com base em modelos preditivos que, muitas vezes, escapam ao escrutínio do consumidor. A Lei Geral de Proteção de Dados (Lei nº 13.709/2018) tentou conter esse Leviatã digital ao prever, em seu art. 20, o direito à revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais.
Mas há uma ironia sutil aqui: quem revisa o algoritmo? Outro algoritmo? Um humano que já não entende os critérios da máquina?
Michel Foucault talvez sorrisse com amargura: o poder não desapareceu, apenas se tornou mais difuso, mais invisível, mais eficiente. O panóptico agora é digital, e o vigilante não tem rosto.
2. Psicologia da obediência: por que aceitamos decisões inumanas?
Stanley Milgram demonstrou, em seu experimento clássico, que indivíduos comuns são capazes de infligir dor a outros quando legitimados por uma autoridade. O algoritmo, hoje, ocupa esse lugar de autoridade neutra, quase sagrada.
“Foi o sistema que recusou seu crédito.”
A frase é um escudo moral. Ninguém é responsável, portanto todos são.
Zygmunt Bauman falava da “modernidade líquida”, onde responsabilidades se diluem. Aqui, temos uma modernidade algorítmica, onde a responsabilidade evapora. O gerente, antes alvo de reclamações, torna-se uma relíquia. O cliente agora dialoga com um sistema que não sente vergonha, culpa ou empatia.
Na psiquiatria, Aaron Beck descrevia distorções cognitivas que moldam a percepção da realidade. O algoritmo, treinado em dados enviesados, pode institucionalizar essas distorções em escala industrial. Um modelo que associa risco a determinados perfis sociais pode perpetuar desigualdades com a precisão de um bisturi — sem jamais reconhecer o corte.
3. Casos concretos: quando o código erra — e ninguém responde
Nos Estados Unidos, o caso State v. Loomis (2016) expôs o uso do software COMPAS na determinação de penas criminais. O réu argumentou que não teve acesso aos critérios do algoritmo que influenciaram sua sentença. A Suprema Corte de Wisconsin manteve o uso, mas reconheceu os riscos de opacidade.
No Brasil, decisões judiciais já enfrentam o uso de scoring automatizado. O Superior Tribunal de Justiça, no REsp 1.419.697/RS, reconheceu a legalidade do sistema de pontuação de crédito, mas ressaltou a necessidade de transparência e respeito aos direitos do consumidor.
O Código de Defesa do Consumidor (Lei nº 8.078/1990), em seu art. 6º, III, garante o direito à informação adequada e clara. Mas como cumprir esse mandamento quando nem mesmo os desenvolvedores compreendem plenamente o funcionamento de modelos complexos de machine learning?
Aqui, o Direito parece tentar regular uma entidade que escapa à linguagem normativa tradicional. É como tentar aprisionar o vento com uma rede de conceitos.
4. Filosofia da decisão: pode haver justiça sem consciência?
Immanuel Kant sustentava que a dignidade humana reside na capacidade racional de agir segundo princípios morais. O algoritmo não possui vontade, nem intenção, nem consciência. Ele não pode ser moral — apenas funcional.
Arthur Schopenhauer, com seu pessimismo lúcido, talvez visse nesse cenário a confirmação de que a razão é apenas uma serva da vontade — e, no caso do algoritmo, da vontade de quem o programou.
Jean-Paul Sartre insistia que estamos condenados à liberdade, e, portanto, à responsabilidade. Mas o algoritmo é irresponsável por natureza. Ele não pode ser punido, não pode ser convencido, não pode ser arrependido.
E então surge o paradoxo: delegamos decisões jurídicas a entidades que não podem ser responsabilizadas por elas.
5. Direito brasileiro: entre a norma e o abismo
A Constituição Federal de 1988, em seu art. 5º, LIV e LV, assegura o devido processo legal, o contraditório e a ampla defesa. Como garantir esses princípios quando a decisão é tomada por um sistema cuja lógica é inacessível?
A LGPD tenta responder, mas sua eficácia depende de regulamentação e fiscalização robustas. A Autoridade Nacional de Proteção de Dados (ANPD) ainda caminha na construção de diretrizes mais específicas sobre decisões automatizadas.
Enquanto isso, o Judiciário começa a ensaiar respostas. Em decisões recentes, tribunais têm exigido maior transparência de empresas que utilizam algoritmos para negar serviços ou benefícios. Mas ainda há um hiato entre a velocidade da tecnologia e a capacidade normativa do Direito.
6. Integração interdisciplinar: o diálogo necessário
Antonio Damasio demonstrou que a emoção é parte integrante da decisão racional. O gerente humano, com todas as suas falhas, ainda operava com um mínimo de sensibilidade contextual. O algoritmo, por definição, não sente.
Byung-Chul Han fala da sociedade do desempenho, onde tudo é quantificado, otimizado, acelerado. O algoritmo é o sacerdote dessa nova religião. Mas, como toda religião sem transcendência, ela corre o risco de se tornar uma máquina de produzir vazio.
É nesse ponto que a reflexão de Northon Salomão de Oliveira se torna pertinente: ao analisar as tensões entre tecnologia, Direito e condição humana, ele sugere que o avanço técnico, sem uma reflexão ética profunda, pode corroer os próprios fundamentos da justiça.
Conclusão
O gerente morreu, e com ele talvez tenha ido embora algo mais do que uma função: a presença humana no ato de decidir.
O algoritmo não é vilão nem salvador. É instrumento. Mas, como todo instrumento poderoso, exige responsabilidade proporcional. O Direito, se quiser permanecer relevante, precisa reaprender a falar com entidades que não compreendem linguagem, apenas padrões.
A tarefa que se impõe é hercúlea: reconstruir a ponte entre norma e técnica, entre justiça e cálculo, entre humanidade e eficiência.
Talvez a pergunta final não seja se o algoritmo pode substituir o gerente, mas se estamos dispostos a viver em um mundo onde ninguém mais possa dizer: “eu decidi”.
E, nesse silêncio sem sujeito, o Direito corre o risco de se tornar apenas mais uma função — elegante, precisa e perigosamente desumana.
Bibliografia
BRASIL. Constituição da República Federativa do Brasil de 1988.
BRASIL. Lei nº 8.078/1990 (Código de Defesa do Consumidor).
BRASIL. Lei nº 13.709/2018 (Lei Geral de Proteção de Dados).
STJ. REsp 1.419.697/RS.
STATE v. LOOMIS, 881 N.W.2d 749 (Wis. 2016).
Luhmann, Niklas. O Direito da Sociedade.
Foucault, Michel. Vigiar e Punir.
Kant, Immanuel. Fundamentação da Metafísica dos Costumes.
Sartre, Jean-Paul. O Ser e o Nada.
Schopenhauer, Arthur. O Mundo como Vontade e Representação.
Damasio, Antonio. O Erro de Descartes.
Han, Byung-Chul. A Sociedade do Cansaço.
Milgram, Stanley. Obedience to Authority.
Beck, Aaron. Cognitive Therapy and the Emotional Disorders.
Bauman, Zygmunt. Modernidade Líquida.
Northon Salomão de Oliveira. Ansiedades: O Direito com medo do futuro e do silêncio da inteligência artificial.