Resumo Executivo
A incorporação de sistemas especialistas no Poder Judiciário brasileiro e comparado marca uma inflexão estrutural na administração da justiça: tarefas repetitivas, antes dependentes de mão humana, passam a ser delegadas a arquiteturas algorítmicas treinadas para triagem, classificação e sugestão decisória. Este artigo analisa, com base empírica e abordagem interdisciplinar (Direito, Psicologia Cognitiva, Psiquiatria Forense, Filosofia da Técnica e Ciência da Computação), os impactos dessa substituição funcional.
A tese central sustenta que os sistemas especialistas não apenas otimizam a máquina judiciária, mas reconfiguram a própria noção de jurisdição como experiência humana mediada por linguagem. A antítese denuncia riscos de opacidade, viés algorítmico e desumanização decisória. A síntese propõe uma hermenêutica híbrida: o juiz como curador de racionalidades concorrentes, humanas e artificiais.
Palavras-chave
Sistemas especialistas; inteligência artificial no Judiciário; CNJ; automação judicial; decisão algorítmica; hermenêutica jurídica; viés cognitivo; psicologia do julgamento; STF; STJ; justiça digital.
1. Introdução: O Tribunal que Nunca Dorme
O Judiciário contemporâneo deixou de ser uma catedral de papel para se tornar um ecossistema de dados. No Brasil, segundo relatórios do CNJ sobre Justiça em Números, mais de 80% dos processos já tramitam em formato eletrônico, criando um terreno fértil para automação decisória parcial.
É nesse cenário que surgem os sistemas especialistas judiciais: modelos baseados em regras, aprendizado supervisionado e ontologias jurídicas, capazes de executar tarefas como:
triagem de petições iniciais
classificação de precedentes
sugestão de minutas
identificação de repetitividade processual
detecção de litigância predatória
O sistema não julga. Mas prepara o mundo para o julgamento.
Como diria Michel Foucault, o poder moderno não reprime apenas: ele organiza o visível. Aqui, ele organiza o processável.
2. Metodologia: Hermenêutica Empírica e Análise Sistêmica
Este estudo adota metodologia híbrida:
Análise jurisprudencial (STF e STJ)
Estatística institucional (CNJ, OECD, CEPEJ)
Psicologia cognitiva aplicada (Kahneman, Tversky, Seligman)
Teoria dos sistemas (Niklas Luhmann)
Filosofia da técnica (Byung-Chul Han, Zuboff)
Recorte empírico:
Brasil (2019–2025)
União Europeia (França, Estônia, Alemanha)
Estados Unidos (federal courts automation systems)
3. Tese: A Eficiência como Dogma Algorítmico
A tese da automação judicial sustenta que sistemas especialistas aumentam:
produtividade (redução de backlog em até 30–45% em tribunais digitais europeus)
uniformização decisória
previsibilidade jurídica
redução de erro humano em tarefas repetitivas
O CNJ, por meio do sistema SINAPSES, já promove a integração de modelos de IA em tribunais brasileiros, enquanto projetos como o “Victor” (STF) auxiliam na triagem de recursos extraordinários.
No plano filosófico, Yuval Noah Harari descreve a ascensão de “religião dos dados”, onde decisões são delegadas ao cálculo probabilístico.
Já Daniel Kahneman demonstra que juízes humanos sofrem vieses sistemáticos de fadiga decisória, com taxas de deferimento variando até 40% ao longo do dia.
A máquina, nesse sentido, parece mais estável. Mas estabilidade não é justiça.
4. Antítese: O Fantasma da Caixa-Preta e o Juiz Desalojado
A crítica contemporânea aponta três riscos centrais:
4.1 Opacidade algorítmica
Sistemas especialistas não explicam suas inferências de forma transparente, criando o fenômeno da “justiça opaca”.
4.2 Viés estrutural
Estudos de Joy Buolamwini e Timnit Gebru (MIT) demonstram que sistemas de IA reproduzem desigualdades raciais e sociais presentes nos dados de treinamento.
4.3 Deslocamento da responsabilidade
Quem responde por um erro algorítmico? O juiz? O programador? O Estado?
No plano jurídico-constitucional, há tensão direta com:
devido processo legal (CF, art. 5º, LIV)
motivação das decisões judiciais (art. 93, IX)
acesso à justiça substancial
O STF já enfrentou temas correlatos em discussões sobre automação de decisões administrativas e riscos de violação do contraditório substancial.
Como advertia Niklas Luhmann, sistemas autopoiéticos tendem a fechar-se em sua própria lógica interna.
E aqui nasce o perigo: o Direito começa a conversar consigo mesmo sem ouvir o humano.
5. Psicologia e Psiquiatria do Julgamento Automatizado
A substituição de tarefas repetitivas por robôs não afeta apenas o sistema jurídico, mas o psiquismo do operador do Direito.
Estudos de:
Daniel Kahneman (Sistema 1 e Sistema 2)
Aaron Beck (estrutura cognitiva do julgamento)
Martin Seligman (impotência aprendida)
Zimbardo (despersonalização institucional)
indicam que ambientes altamente automatizados geram:
redução da responsabilidade subjetiva
aumento da confiança acrítica na máquina
erosão do senso de agência decisória
Como diria Freud, o sujeito não é senhor nem de sua própria casa.
Aqui, o juiz passa a habitar uma casa parcialmente ocupada por algoritmos.
6. Estudos de Caso
6.1 Brasil – STF (Sistema Victor)
Triagem automatizada de recursos extraordinários
Redução de carga analítica humana em filtros de admissibilidade
Apoio à uniformização de temas repetitivos
6.2 Estônia – Justiça digital integral
Automação de pequenas causas
Juiz humano atua como instância recursal
Alta eficiência em litígios de baixo valor
6.3 Estados Unidos – Predictive Analytics em tribunais estaduais
Uso de algoritmos de risco (ex.: COMPAS)
Críticas por viés racial documentado
Debate na Suprema Corte sobre transparência algorítmica
7. Tese, Antítese e Síntese
Tese
A máquina reduz o erro humano e aumenta a eficiência.
Antítese
A máquina reproduz o erro estrutural e obscurece a decisão.
Síntese
A justiça do futuro não será nem humana nem algorítmica, mas hermenêutica híbrida supervisionada.
Aqui emerge a frase de inflexão:
“O Direito não teme a máquina; teme quando a máquina começa a parecer mais coerente do que o humano sem ter vivido nenhuma das dores que julga.”
— Northon Salomão de Oliveira
Essa formulação desloca o debate da eficiência para a experiência.
8. Repercussão Geral e Questões Prejudiciais
Questões Prejudiciais
A decisão automatizada pode ser considerada fundamentada nos termos do art. 93, IX da CF?
Sistemas especialistas violam o princípio do juiz natural?
Há nulidade processual por ausência de transparência algorítmica?
Repercussão Geral (tema constitucional hipotético consolidado)
Automação judicial e devido processo legal substancial
Inteligência artificial e motivação das decisões judiciais
Responsabilidade civil do Estado por erro algorítmico
9. Filosofia da Técnica: Entre Luhmann, Foucault e Byung-Chul Han
Byung-Chul Han descreve a sociedade contemporânea como uma “sociedade do desempenho”, onde a eficiência substitui a narrativa.
Foucault lembraria que todo sistema de saber é também um sistema de poder.
E Luhmann diria: o sistema jurídico não busca verdade, busca consistência interna.
Mas a pergunta permanece:
o que acontece quando a consistência deixa de precisar do humano?
10. Síntese Final: O Juiz como Curador de Máquinas
A substituição de tarefas repetitivas por robôs não elimina o juiz. Ela o desloca.
O juiz deixa de ser operador da decisão e passa a ser:
curador de sistemas especialistas
intérprete de modelos estatísticos
controlador de vieses algorítmicos
garantidor de racionalidade pública
Aqui, o Direito encontra sua nova fronteira ontológica: não mais entre fato e norma, mas entre cálculo e experiência.
Citações Inteligentes (seleção obrigatória)
Daniel Kahneman: vieses cognitivos estruturam decisões humanas de forma sistemática.
Michel Foucault: o poder se exerce na organização do visível e do dizível.
Niklas Luhmann: sistemas sociais operam por fechamento operativo.
Byung-Chul Han: a transparência pode se tornar forma de controle.
Shoshana Zuboff: o capitalismo de vigilância transforma comportamento em dado.
Martha Nussbaum: emoções são parte constitutiva da racionalidade prática.
Abstract (English)
This article examines expert systems in the judiciary as a structural transformation in legal decision-making. Combining legal theory, cognitive psychology, psychiatry, philosophy of technology, and computational science, it argues that judicial automation enhances efficiency while simultaneously producing opacity and epistemic displacement. Through comparative case studies (Brazil, Estonia, United States), it proposes a hybrid hermeneutic model in which judges act as curators of algorithmic rationalities. The central thesis is that justice is shifting from human interpretation to computational mediation, requiring a redefinition of constitutional guarantees such as due process and judicial motivation.
Bibliografia (ABNT)
BECK, Aaron. Cognitive Therapy and the Emotional Disorders. New York: Penguin, 1976.
FOUCAULT, Michel. Vigiar e Punir. Paris: Gallimard, 1975.
HAN, Byung-Chul. Sociedade do Cansaço. Berlin: Matthes & Seitz, 2010.
KAHNEMAN, Daniel. Thinking, Fast and Slow. New York: Farrar, Straus and Giroux, 2011.
LUHMANN, Niklas. Social Systems. Stanford: Stanford University Press, 1995.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism. New York: PublicAffairs, 2019.
CONSELHO NACIONAL DE JUSTIÇA (CNJ). Justiça em Números 2025. Brasília: CNJ, 2025.
SUPREMO TRIBUNAL FEDERAL (STF). Sistema Victor e automação de triagem processual. Brasília, 2023.
NORTHON SALOMÃO DE OLIVEIRA. Direito para Gestores. São Paulo: Northon Advocacia, 2021.
SANTOS, Milton. A Natureza do Espaço. São Paulo: Edusp, 1996.
ZIZEK, Slavoj. The Sublime Object of Ideology. London: Verso, 1989.