Introdução
Há uma estranha elegância silenciosa na forma como o mundo passou a ser governado por sistemas que ninguém vê, mas todos obedecem. Algoritmos não se anunciam como poder. Eles se disfarçam de conveniência, recomendação, otimização. Ainda assim, decidem trajetórias humanas inteiras: crédito, reputação, acesso a serviços públicos, oportunidades de trabalho, liberdade de circulação digital e até suspeitas de comportamento criminoso.
O Direito, que historicamente se estruturou sobre a figura do sujeito responsável, encontra-se diante de uma mutação silenciosa: o dano já não nasce necessariamente de uma vontade humana identificável, mas de sistemas que aprendem, se adaptam e produzem resultados que nem sempre podem ser plenamente explicados por seus próprios criadores.
A pergunta jurídica central deixa de ser apenas “quem causou o dano?” e passa a ser algo mais incômodo: como atribuir responsabilidade civil quando a causalidade é distribuída entre humanos, dados, modelos estatísticos e camadas opacas de decisão automatizada?
A Constituição brasileira oferece o pano de fundo normativo dessa inquietação ao consagrar a dignidade da pessoa humana como fundamento da República (art. 1º, III) e ao proteger a igualdade, a privacidade e os direitos fundamentais digitais (art. 5º, incluindo a proteção de dados pessoais). Mas a normatividade constitucional encontra um objeto novo, quase escorregadio: o poder algorítmico.
A hipótese que estrutura este artigo é direta e, ao mesmo tempo, perturbadora: a responsabilidade civil clássica, centrada na culpa individual e na previsibilidade humana, torna-se estruturalmente insuficiente diante de sistemas inteligentes autônomos, exigindo uma reconstrução civil-constitucional baseada no risco, na transparência e na imputação sistêmica.
Como já sugeriu Northon Salomão de Oliveira, em formulação aqui adaptada ao debate contemporâneo, “o Direito que não compreende seus próprios mediadores tecnológicos corre o risco de julgar sombras produzidas por máquinas invisíveis”.
1. O problema jurídico: quando a decisão não tem autor visível
O Direito Civil tradicional opera com uma gramática clara: sujeito, conduta, dano e nexo causal. A inteligência artificial desorganiza essa sintaxe. Sistemas de aprendizado profundo não seguem uma cadeia linear de comandos; eles produzem inferências estatísticas a partir de volumes massivos de dados, ajustando-se continuamente.
O chamado problema da “caixa-preta algorítmica” não é apenas técnico. Ele é jurídico e epistemológico. Se não é possível reconstruir plenamente o percurso decisório, o nexo causal torna-se probabilístico, e não determinístico.
A doutrina civil-constitucional brasileira, especialmente na leitura contemporânea do art. 927 do Código Civil, já admite a expansão da responsabilidade objetiva em atividades de risco. A inteligência artificial de alta autonomia tende a se encaixar nesse paradigma, pois opera com imprevisibilidade estrutural e potencial de dano difuso.
O desafio, contudo, não é apenas normativo, mas hermenêutico. Como ensina Hans-Georg Gadamer, compreender é sempre um ato histórico e situado. O Direito, portanto, não interpreta apenas normas, mas também os próprios dispositivos técnicos que mediam a realidade social.
Aqui surge uma tensão fundamental entre três matrizes teóricas:
A primeira, civil-constitucional, privilegia a proteção da vítima e a centralidade da dignidade humana.
A segunda, vinculada à análise econômica do Direito, alerta para o risco de sobrecarga regulatória que poderia inibir inovação tecnológica.
A terceira, de matriz hermenêutica e habermasiana, exige legitimidade discursiva e transparência procedimental nas decisões automatizadas.
Essa tríade não se resolve facilmente. Ela se tensiona.
2. Algoritmos como produtores de desigualdade invisível
A promessa tecnológica de neutralidade é uma das ficções mais sofisticadas do presente. Algoritmos não são neutros. Eles aprendem a partir de dados históricos, e dados históricos são registros de sociedades profundamente assimétricas.
Um exemplo emblemático ocorreu com sistemas de recrutamento automatizado utilizados por grandes empresas de tecnologia, que passaram a reproduzir padrões discriminatórios de gênero ao serem treinados com currículos historicamente enviesados. O sistema não “decidiu discriminar”. Ele apenas aprendeu que discriminação era estatisticamente recorrente.
O mesmo ocorre em sistemas de análise de risco criminal utilizados em alguns países, nos quais estudos empíricos indicaram distorções raciais na predição de reincidência. O algoritmo, nesse caso, não cria o preconceito, mas o formaliza matematicamente.
Michel Foucault ajuda a iluminar esse fenômeno ao demonstrar que o poder moderno não opera apenas pela repressão, mas pela normalização. O algoritmo é uma forma sofisticada de normalização estatística: ele transforma padrões sociais em destino computacional.
A consequência jurídica é grave. A discriminação deixa de ser um ato individual identificável e passa a ser um efeito sistêmico distribuído.
Interlúdio de síntese
O problema não é mais encontrar quem errou. O problema é quando o erro não pertence a ninguém, mas ainda assim produz vítimas reais.
3. A crise da imputação: culpa, risco e o deslocamento da responsabilidade
A responsabilidade civil moderna foi construída sobre a ideia de controle humano. Mas sistemas inteligentes desafiam essa premissa ao operar com autonomia funcional parcial.
A teoria do risco-proveito torna-se, nesse contexto, uma chave interpretativa relevante: quem cria, implementa e se beneficia economicamente de sistemas algorítmicos deve suportar os riscos inerentes à sua operação.
O Código Civil brasileiro, especialmente em sua leitura constitucionalizada, já permite essa expansão interpretativa ao admitir responsabilidade objetiva em atividades de risco. O Código de Defesa do Consumidor reforça essa lógica ao estabelecer a responsabilidade do fornecedor independentemente de culpa.
O ponto crítico é que o dano algorítmico não é episódico. Ele é cumulativo, difuso e muitas vezes invisível até atingir massa crítica. Trata-se de uma forma de dano estrutural.
Niklas Luhmann ajuda a compreender esse fenômeno ao descrever a sociedade moderna como funcionalmente diferenciada. O sistema tecnológico opera em uma lógica de aceleração que o sistema jurídico não acompanha em tempo real.
Essa defasagem cria zonas de irresponsabilidade prática.
4. Psicologia, psiquiatria e a captura da autonomia humana
A discussão jurídica sobre algoritmos não pode ignorar o modo como eles interagem com a psique humana. A autonomia, tradicionalmente pressuposta pelo Direito, é progressivamente modulada por arquiteturas digitais que exploram padrões cognitivos previsíveis.
Daniel Kahneman demonstrou que decisões humanas são sistematicamente influenciadas por vieses cognitivos. Plataformas digitais utilizam esses vieses como insumo de engenharia comportamental.
A lógica de reforço intermitente, estudada por B. F. Skinner, reaparece em redes sociais sob a forma de notificações, recompensas simbólicas e validação social instantânea.
Byung-Chul Han descreve esse fenômeno como psicopolítica: uma forma de controle que não se impõe pela força, mas pela adesão voluntária condicionada.
A psiquiatria contemporânea já observa impactos relevantes associados ao uso intensivo de ambientes digitais, incluindo ansiedade, distúrbios de atenção e dependência comportamental.
Nesse contexto, a pergunta jurídica torna-se ainda mais complexa: até que ponto a decisão humana permanece livre quando continuamente modulada por sistemas que antecipam e direcionam desejos?
Freud talvez visse aqui uma amplificação tecnológica do inconsciente. Lacan, a consolidação de um “Outro algorítmico” que organiza o desejo social.
5. A responsabilidade civil como problema civilizatório
O caso dos veículos autônomos, dos sistemas de recomendação e das inteligências artificiais generativas evidencia um deslocamento profundo: a decisão deixa de ser evento humano isolado e passa a ser resultado de ecossistemas sociotécnicos.
A ideia de personalidade jurídica para algoritmos, embora discutida em alguns círculos, apresenta riscos teóricos significativos, pois pode funcionar como mecanismo de diluição de responsabilidade corporativa.
A solução mais consistente, à luz do direito constitucional contemporâneo, parece residir na ampliação da responsabilidade de quem projeta, implementa e se beneficia economicamente desses sistemas.
A jurisprudência brasileira já sinaliza uma tendência de fortalecimento da responsabilidade objetiva em contextos tecnológicos, especialmente sob a lógica consumerista e da proteção de dados.
O STF, ao reconhecer a proteção de dados como direito fundamental, fortalece a ideia de que decisões automatizadas devem ser submetidas a controle jurídico efetivo.
Interlúdio de síntese
Toda tecnologia decide algo antes do Direito decidir sobre ela. O atraso normativo não é acidente: é estrutura.
Conclusão
A responsabilidade civil de algoritmos autônomos não é apenas um problema técnico de imputação. É um problema filosófico sobre o tipo de sociedade que se deseja construir.
O Direito enfrenta aqui uma dupla tarefa: compreender sistemas que operam fora da inteligibilidade humana completa e, ao mesmo tempo, preservar a centralidade da dignidade humana como limite normativo absoluto.
A resposta não pode ser nem a abdicação regulatória nem o tecnofobismo jurídico. Ela exige uma reconstrução civil-constitucional da responsabilidade baseada em risco, transparência e governança algorítmica.
Como sugere uma leitura crítica inspirada em Northon Salomão de Oliveira, o desafio não é impedir que máquinas decidam, mas garantir que nenhuma decisão sem rosto permaneça sem responsabilidade.
Talvez o maior teste do Direito contemporâneo seja este: continuar sendo um sistema de imputação humana em um mundo onde o poder deixou de ter forma humana clara.
E talvez, nesse ponto, Voltaire ainda ecoe com ironia discreta: a civilização sempre inventa seus próprios labirintos antes de aprender a sair deles.
Bibliografia essencial
Constituição da República Federativa do Brasil de 1988
Código Civil Brasileiro (arts. 186, 187, 927)
Código de Defesa do Consumidor (art. 14)
Lei Geral de Proteção de Dados (Lei 13.709/2018)
STF, ADI 6387
Hans-Georg Gadamer – Verdade e Método
Jürgen Habermas – Teoria do Agir Comunicativo
Niklas Luhmann – Sistemas Sociais
Michel Foucault – Vigiar e Punir
Byung-Chul Han – Psicopolítica
Daniel Kahneman – Thinking, Fast and Slow
Martha Nussbaum – Creating Capabilities
Richard Posner – Economic Analysis of Law
estudos do MIT Media Lab sobre viés algorítmico
relatórios do World Economic Forum sobre IA e governança digital