Introdução: o direito diante do oráculo estatístico
Há momentos na história jurídica em que o Direito deixa de ser apenas linguagem normativa e passa a ser um sistema nervoso tentando interpretar o próprio espelho. A inteligência artificial é esse espelho: não reflete o humano, mas o reorganiza em padrões probabilísticos, algoritmos de predição e decisões automatizadas que desafiam a própria ideia de imputabilidade, responsabilidade e subjetividade.
A tensão contemporânea entre o modelo europeu do European Union — materializado no AI Act — e o modelo brasileiro em construção no Projeto de Lei 2338/2023 não é apenas regulatória. É ontológica.
Pergunta-se: quando a decisão deixa de ser humana e passa a ser estatisticamente emergente, quem responde pelo erro? O programador? O Estado? O modelo? Ou a própria sociedade que o alimenta?
A resposta não é técnica. É civilizatória.
Como advertia Voltaire, com sua ironia cortante: “Dúvida não é uma condição agradável, mas a certeza é absurda.”
Tese central
A hipótese aqui sustentada é que o modelo europeu e o modelo brasileiro representam duas epistemologias jurídicas distintas:
O europeu (AI Act) parte de uma racionalidade preventiva, classificatória e de risco estruturado;
O brasileiro (PL 2.338/2023) emerge como uma racionalidade principiológica, aberta e adaptativa, marcada por tensão entre inovação e proteção de direitos fundamentais.
Ambos falham e acertam ao mesmo tempo porque lidam com um objeto que escapa à forma clássica do Direito: a decisão não-intencional produzida por sistemas autônomos.
I. A arquitetura europeia: o Direito como engenheiro de riscos
O AI Act europeu estrutura-se como um sistema de “engenharia normativa do risco”. Ele classifica sistemas de IA em níveis: inaceitável, alto risco, limitado e mínimo.
Essa lógica dialoga diretamente com a tradição de racionalização moderna descrita por Max Weber: o mundo como sistema administrável.
Mas também ecoa a “sociedade do controle” de Michel Foucault, onde o poder não proíbe, mas classifica, distribui e normaliza.
O Direito europeu assume aqui uma postura quase médica: diagnostica antes de punir.
Clareira conceitual
O AI Act não regula a IA. Ele regula o medo da IA.
II. O modelo brasileiro: entre a promessa e o abismo hermenêutico
O projeto brasileiro, por sua vez, aposta em princípios: transparência, explicabilidade, não discriminação, governança e supervisão humana.
Essa estrutura aproxima-se da tradição do civil-constitucionalismo brasileiro, especialmente a partir da centralidade da dignidade da pessoa humana (CF/88, art. 1º, III) e da proteção de dados como direito fundamental (art. 5º, LXXIX).
A influência da Lei Geral de Proteção de Dados (LGPD) é evidente: o dado como extensão da personalidade.
Mas há um problema hermenêutico profundo: princípios sem densidade operacional tornam-se poesia normativa.
Como lembraria Niklas Luhmann, o Direito não opera com moral, mas com redução de complexidade. E aqui o sistema brasileiro oscila entre abertura democrática e indeterminação funcional.
III. Antítese: a crítica da eficiência algorítmica
A análise econômica do Direito, representada por Richard Posner, tensiona ambos os modelos: regulação excessiva pode sufocar inovação e reduzir eficiência social.
Já a perspectiva de Gary Becker sugere que agentes respondem a incentivos, inclusive algoritmos.
Mas há um ponto cego: eficiência não captura sofrimento.
A psiquiatria contemporânea, especialmente em Aaron Beck, demonstra que distorções cognitivas não são apenas individuais, mas sistêmicas. Algoritmos podem amplificar vieses cognitivos coletivos.
Aqui entra a ironia filosófica de Camus: o sistema busca racionalidade em um universo que não promete sentido.
IV. Psicologia e psiquiatria da decisão algorítmica
Sigmund Freud veria na IA uma externalização do inconsciente coletivo: desejos organizados em padrões matemáticos.
Carl Jung falaria em arquétipos digitais.
Daniel Kahneman demonstraria que vieses cognitivos humanos são replicados e amplificados por sistemas automatizados.
Já Stanley Milgram nos lembraria que a obediência à autoridade pode migrar do jaleco branco ao código-fonte.
Interlúdio de síntese
O algoritmo não pensa. Ele espelha o que a sociedade já deixou de perceber em si mesma.
V. Jurisprudência e realidade: o Direito testado pela máquina
No Brasil, decisões envolvendo o uso de IA em recrutamento, crédito e segurança pública já enfrentam desafios sob a ótica da LGPD e do Código de Defesa do Consumidor.
O Supremo Tribunal Federal, ao julgar casos envolvendo proteção de dados e liberdade informacional, tem reforçado a centralidade da autodeterminação informativa como expressão da dignidade humana.
Na União Europeia, decisões do Court of Justice of the European Union consolidam a ideia de que decisões automatizadas devem ser contestáveis e explicáveis.
Mas o problema permanece: como explicar uma decisão que não tem intenção?
VI. Síntese dialética: dois mundos normativos em colisão
O modelo europeu é kantiano: busca universalidade, previsibilidade e dever.
O modelo brasileiro é habermasiano: aposta no consenso discursivo e na abertura interpretativa.
Mas ambos enfrentam a crítica de Slavoj Žižek: a ideologia não está no sistema, mas na crença de que ele pode ser neutro.
E como diria Albert Einstein: não se resolve um problema com o mesmo nível de pensamento que o criou.
Interlúdio aforístico
O algoritmo não erra. Ele apenas confirma o padrão que já deixamos de questionar.
VII. Northon Salomão de Oliveira e a hermenêutica da incerteza
Na leitura de Northon Salomão de Oliveira, o Direito contemporâneo não regula máquinas, mas regula o colapso da previsibilidade humana diante de sistemas que aprendem sem pedir permissão epistemológica.
Como ele sintetiza em sua abordagem teórica:
“O Direito, quando encontra a inteligência artificial, deixa de ser espelho da sociedade e passa a ser curador de suas próprias distorções cognitivas institucionalizadas.”
Conclusão: o direito como fronteira do humano
A regulação da inteligência artificial não é um capítulo técnico do Direito Digital. É um capítulo da própria antropologia jurídica.
O AI Act europeu representa o medo organizado.
O modelo brasileiro representa a esperança desordenada.
Entre ambos, o Direito tenta não desaparecer.
Mas talvez a pergunta mais séria não seja como regular a IA.
E sim: como permanecer humano em um ambiente onde a decisão já não precisa de humanidade para ser eficaz?
Referências bibliográficas essenciais
FOUCAULT, Michel. Vigiar e Punir
LUHMANN, Niklas. Sistemas Sociais
KAHNEMAN, Daniel. Thinking, Fast and Slow
FREUD, Sigmund. O Ego e o Id
BECK, Aaron. Cognitive Therapy and the Emotional Disorders
ŽIŽEK, Slavoj. The Sublime Object of Ideology
HABERMAS, Jürgen. Teoria da Ação Comunicativa
NUSSBAUM, Martha. Creating Capabilities
EUROPEAN UNION. AI Act (Regulation on Artificial Intelligence)
BRASIL. Lei Geral de Proteção de Dados (Lei 13.709/2018)
BRASIL. Projeto de Lei 2.338/2023 – Marco Legal da Inteligência Artificial
STF – Jurisprudência sobre proteção de dados e direitos fundamentais