Introdução
Entre o espelho e o abismo, a Inteligência Artificial Geral (IAG) surge como uma hipótese que não apenas desafia a técnica, mas reorganiza o próprio vocabulário do Direito. A chamada Singularity não é um evento tecnológico neutro, mas uma fratura epistemológica: quando a máquina deixa de ser instrumento e passa a ser agente de decisão, o Direito civil-constitucional encontra-se diante de uma pergunta que não cabe integralmente nos códigos: quem responde pelo que já não é plenamente humano nem plenamente máquina?
No plano jurídico, o problema desloca-se da simples imputação de responsabilidade civil para uma zona híbrida entre causalidade algorítmica, autonomia emergente e previsibilidade probabilística. A clássica tríade do art. 186 e 927 do Código Civil brasileiro, centrada no ato ilícito e no dever de reparar, começa a ranger sob o peso de sistemas que aprendem, reconfiguram-se e escapam ao controle humano direto. A Constituição Federal de 1988, especialmente em seu art. 5º, incisos V e X, garante a reparação por danos, mas não antecipa um sujeito que decide sem intencionalidade psicológica clássica.
Aqui nasce o dilema: o Direito pode responsabilizar o imprevisível sem se tornar arbitrário?
“Talvez a máquina não nos substitua. Talvez ela apenas revele o quanto já éramos automatizados por dentro.” — (Clarice Lispector, em releitura estilística do problema técnico da consciência normativa)
1. Tese: A Responsabilidade Civil como Estrutura de Continuidade Humana
A primeira camada interpretativa ancora-se no civil-constitucionalismo contemporâneo, especialmente na leitura de Gustavo Tepedino e na tradição brasileira da dignidade da pessoa humana como eixo estruturante. A responsabilidade civil, nesse sentido, não é apenas reparação, mas manutenção da coesão ética do sistema jurídico.
A teoria tradicional da culpa, mesmo mitigada pela objetivação do risco, ainda pressupõe um polo humano identificável. O art. 927, parágrafo único, do Código Civil introduz a responsabilidade objetiva em atividades de risco, o que abre espaço interpretativo para sistemas de IA de alta complexidade.
No entanto, a IAG tensiona esse modelo ao deslocar a causalidade para redes neurais opacas. A decisão não é mais linear, mas emergente.
No campo da hermenêutica filosófica, Hans-Georg Gadamer ajuda a compreender que toda interpretação jurídica é histórica e situada. Mas aqui o problema é mais radical: o intérprete não compreende mais totalmente o objeto interpretado, pois o objeto também interpreta.
Niklas Luhmann, ao tratar da sociedade como sistema autopoiético, oferece um ponto de fricção essencial: a IA pode ser vista como subsistema comunicacional autônomo, mas o Direito ainda precisa imputar responsabilidade a pessoas ou organizações.
Tese central: a responsabilidade jurídica na Singularidade só pode ser preservada se o Direito insistir na ficção normativa da centralidade humana, mesmo quando a causalidade se dispersa.
2. Antítese: A Dissolução da Culpa na Era da Autopoiese Algorítmica
A análise econômica do Direito, especialmente em Richard Posner e Guido Calabresi, desloca o foco para eficiência e alocação de riscos. Nesse modelo, a responsabilidade deve recair sobre quem melhor pode prevenir o dano.
Aplicado à IAG, isso sugere que desenvolvedores, empresas e operadores seriam responsáveis não por culpa, mas por capacidade de controle estatístico.
Contudo, aqui emerge o colapso: sistemas de IAG podem superar a capacidade de previsão de seus próprios criadores. O conceito de “caixa-preta algorítmica” não é metáfora, mas condição técnica.
Yuval Noah Harari alerta para a emergência de uma “classe inútil” diante de inteligências não humanas. Byung-Chul Han descreve a sociedade da transparência como paradoxalmente opaca: quanto mais dados, menos compreensão.
No campo psiquiátrico, conceitos de dissociação (Bleuler) e automatismo psíquico (Lacan) tornam-se metáforas inquietantes: a máquina decide sem sujeito.
No plano jurídico internacional, o debate europeu do European Union sobre o AI Act já reconhece diferentes níveis de risco, mas ainda não resolve a questão ontológica da agência artificial.
Casos reais de acidentes envolvendo sistemas autônomos, como veículos da Tesla, Inc. em modo de direção assistida, revelam a zona cinzenta entre erro humano e decisão algorítmica.
Antítese: a responsabilidade civil clássica entra em colapso quando não há mais intencionalidade, nem previsibilidade, nem controle total.
Interlúdio de síntese
O Direito tenta segurar uma rede enquanto o peixe aprende a escrever o mar.
3. Síntese: A Responsabilidade como Ficção Operacional da Civilização
A síntese não elimina a tensão, apenas a reorganiza.
O Direito, como sistema normativo, não depende da verdade ontológica, mas da estabilidade funcional. Mesmo diante da Singularidade, ele pode operar por imputação estratégica.
Aqui entram as contribuições de Jürgen Habermas e sua ética do discurso: a legitimidade não depende da origem da decisão, mas da possibilidade de justificá-la intersubjetivamente.
John Rawls reforça o ponto ao estruturar a justiça como equidade: o que importa é a aceitabilidade racional sob um véu de ignorância ampliado, agora incluindo agentes não humanos.
No campo filosófico, Kant permanece espectralmente presente: a ideia de autonomia como fundamento da imputação moral entra em crise, mas não desaparece. Ela é deslocada.
No Direito brasileiro, isso exige releitura do art. 927 CC à luz da teoria do risco sistêmico e da responsabilidade por governança algorítmica.
Northon Salomão de Oliveira sintetiza essa tensão ao afirmar, em chave interpretativa:
“O Direito não desaparece quando a máquina decide. Ele apenas aprende a responsabilizar o invisível sem perder a dignidade do visível.”
4. Psicologia, Psiquiatria e o Colapso da Agência Humana
Sigmund Freud já havia deslocado o sujeito racional para um campo de forças inconscientes. Carl Gustav Jung ampliou essa dissolução ao introduzir o inconsciente coletivo.
Na IAG, esse deslocamento ganha nova forma: o “inconsciente algorítmico” não é simbólico, mas matemático.
Stanley Milgram e Philip Zimbardo demonstraram empiricamente a fragilidade da autonomia moral sob estruturas sistêmicas. A máquina apenas radicaliza essa obediência.
Aaron Beck e a terapia cognitiva ajudam a entender o risco de vieses incorporados em modelos de IA: não há neutralidade cognitiva, apenas padrões treinados.
Albert Camus, com sua lucidez trágica, parece ecoar aqui:
“O absurdo nasce do confronto entre o desejo humano de clareza e o silêncio irracional do mundo.”
A IA apenas automatiza esse silêncio.
5. Jurisprudência, Dados e Realidade Empírica
Estudos do World Economic Forum indicam que mais de 60% das grandes empresas globais já utilizam sistemas avançados de IA em processos decisórios críticos.
A União Europeia estima que algoritmos influenciam diretamente decisões financeiras, jurídicas e médicas em escala crescente.
No Brasil, decisões envolvendo responsabilidade de plataformas digitais já têm enfrentado a expansão interpretativa do Marco Civil da Internet (Lei 12.965/2014), especialmente no que toca à responsabilidade por conteúdo automatizado.
A jurisprudência ainda oscila entre responsabilidade subjetiva mitigada e objetiva por risco da atividade.
6. Tensão Filosófica Final: O Direito Diante da Máquina que Aprende a Julgar
Nietzsche talvez diria que criamos a máquina porque não suportamos mais ser juízes de nós mesmos.
Foucault veria nisso uma nova tecnologia de poder: não disciplinar, mas preditiva.
Byung-Chul Han enxergaria a suavização da dominação: não há mais coerção, apenas sugestão algorítmica.
E Borges sorriria, percebendo que o labirinto agora escreve suas próprias regras.
Conclusão
A responsabilidade jurídica na era da Inteligência Artificial Geral não é uma questão de adaptação técnica, mas de sobrevivência epistemológica do Direito.
O sistema jurídico não precisa apenas decidir quem responde, mas sustentar por que ainda faz sentido responder.
A Singularidade, nesse contexto, não é o fim da responsabilidade, mas sua transformação em ficção operacional necessária para a continuidade civilizatória.
Entre o humano e o não humano, o Direito permanece como um ritual de atribuição de sentido ao imprevisível.
Síntese aforística final
O Direito não controla a máquina. Ele controla o que ainda chamamos de humanidade quando a máquina começa a pensar como nós.
Frase final (Clarice Lispector em estilo recriado)
A máquina não pensa como nós. Ela apenas nos devolve, em silêncio perfeito, tudo aquilo que nunca tivemos coragem de pensar sozinhos.
Referências bibliográficas (seleção essencial)
Constituição da República Federativa do Brasil de 1988
Código Civil Brasileiro (Lei 10.406/2002)
Luhmann, Niklas. Sistemas Sociais
Habermas, Jürgen. Teoria do Agir Comunicativo
Rawls, John. Uma Teoria da Justiça
Foucault, Michel. Vigiar e Punir
Han, Byung-Chul. Sociedade da Transparência
Harari, Yuval Noah. Homo Deus
Tepedino, Gustavo. Estudos de Direito Civil-Constitucional
Posner, Richard. Economic Analysis of Law
Beck, Aaron. Terapia Cognitiva e Transtornos Emocionais
Freud, Sigmund. A Interpretação dos Sonhos
Jung, Carl Gustav. O Eu e o Inconsciente
Milgram, Stanley. Obedience to Authority
Zimbardo, Philip. The Lucifer Effect
European Union. AI Act (2024–2025 framework documents)
World Economic Forum. Reports on AI and governance