A retórica é sedutora: “celeridade”, “eficiência”, “desafogar pautas”. A Inteligência Artificial (IA) entra no Judiciário sob aplausos gerenciais, prometendo reduzir filas e padronizar rotinas. Mas há um risco nisto, é um risco civilizatório. Ao naturalizarmos que máquinas filtrem, priorizem e, pouco a pouco, orientem o conteúdo de decisões, flertamos com a “substituição prática” de juízes e com o esvaziamento da advocacia. O Direito passa a ser transformado em uma linha de montagem, onde o ser humano vira exceção e o caso concreto um “ruído estatístico”.
E não se trata de ficção e nem mesmo de alarde desproporcional. O Conselho Nacional de Justiça (CNJ) instituiu diretrizes para IA no Poder Judiciário, com ênfase em transparência, governança, prestação de contas e supervisão humana — um reconhecimento de que há riscos reais a mitigar.
A Resolução do CNJ de nº 332/2020 e sua atualização recente (615/2025), anunciam parâmetros éticos e exigem auditabilidade, proteção de dados e que a IA seja ferramenta de apoio, não substituto do julgador. Louvável no papel, porém se torna muito exigente na prática. O desafio está em garantir que “apoio” não se converta, na dinâmica forense, em piloto automático sob chancela humana meramente operacional.
Enquanto as normas avançam, a implementação corre. No Supremo Tribunal Federal, projetos como Victor/VitórIA foram concebidos para triagem e tratamento de grandes volumes, identificando temas de repercussão e perfis de processos — redução de 40 minutos a meros segundos, afirma o próprio STF. É ganho operacional real, mas também um deslocamento silencioso de poder: quem controla a triagem controla a agenda do que chega ao olhar do ministro e quando chega, não?
No Superior Tribunal de Justiça, o Athos agrupa semanticamente processos e automatiza a seleção de recursos repetitivos. Relatórios oficiais descrevem treinamento com centenas de milhares de acórdãos; a ferramenta e-Juris extrai referências; e, mais recentemente, o “STJ Logos” — motor de IA generativa desenvolvido internamente — passou a “apoiar a produção de decisões” nos gabinetes. A linha está traçada: do apoio documental ao apoio redacional. Quanto mais sofisticado o “apoio”, me parece maior o risco de o humano virar revisor da máquina — e não o inverso.
Há ainda a Plataforma Sinapses, do CNJ, uma espécie de repositório e esteira nacional para treinar, versionar e distribuir modelos de IA entre tribunais. Já em 2023 se anunciavam 150 modelos ativos, de 29 órgãos, em parceria com o Programa Justiça 4.0. É óbvio que Escala é poder: a cada novo modelo replicado, também se replicam premissas, vieses e decisões de design invisíveis ao jurisdicionado. A regra de ouro — supervisão humana efetiva e prestação de contas — deve acompanhar a capilaridade dessa rede.
“Mas os magistrados continuarão julgando”, dir-se-á, afinal, é o que as normas garantem: IA como apoio, jamais como substituta, e com mecanismos de governança e accountability. A nossa própria OAB celebrou essa diretriz. Porém, as garantias normativas não são antídoto automático para o efeito “mão pesada” da automação: quando sistemas decidem a triagem, escrevem minutas, sugerem enquadramentos e apontam “precedentes relevantes”. Existe um sério risco de que a inércia organizacional tenda a convalidar o caminho indicado pela máquina, afinal, já não foi assim, em diversos casos ocorridos, com advogados, que estão sendo punidos por usarem o Chatgpt com jurisprudências criadas e direcionadas ao interesse do causídico, para o caso em específico? No Judiciário, o juiz permanece titular do ato, mas a moldura foi dada pelo algoritmo. A independência judicial passa, então, a disputar espaço com a dependência informacional, não?
O problema técnico-jurídico central tem nome: dados. Algoritmos aprendem com o passado — e o nosso passado não é neutro. Ele guarda assimetrias, vieses e injustiças sedimentadas em décadas de seletividade penal, desigualdade econômica e leituras restritivas de direitos. Quando esse passado treina modelos, há risco de “petrificação estatística” de decisões falhas, agora reproduzidas com velocidade industrial. O que ontem era apenas um erro pontual do humano, amanhã pode ser o padrão da máquina. Sem sentimentos, sem dúvida, sem arrependimento.
Esse déficit “afetivo-cognitivo” importa juridicamente. A Constituição exige motivação das decisões (art. 93, IX), devido processo legal, contraditório e ampla defesa. Uma motivação “estatística”, opaca e não explicável em termos compreensíveis, viola o dever de fundamentação e esvazia o contraditório: como impugnar uma “convicção” cuja lógica repousa em pesos e vetores inacessíveis? Ou, se acessíveis, de forma praticamente impossível de um leigo entender? Quando a IA antecipa “o que é relevante”, muito do que não se encaixa no padrão desaparece do radar decisório. E isso é preocupante.
Sem controle externo efetivo, cria-se a “jurisprudência de máquina”: o horizonte interpretativo passa a orbitar o que os modelos “aprenderam” e conseguem reconhecer. O espaço da advocacia para inventar argumentos, propor distinções, tensionar precedentes — precisamente o que move o Direito — encolhe. Se “não está no padrão”, o algoritmo não achará; se o algoritmo não achará, ninguém irá ler; se ninguém irá ler, a inovação morre! A IA, nesse arranjo, torna-se o maior conservador institucional já inventado: aprende com o que foi e, por isso mesmo, poderá bloquear o que pode vir a ser.
É preciso também disciplinar a cadeia de treinamento: quais bases foram usadas? com que curadoria? que vieses foram detectados e corrigidos? O estudo de caso do Athos revela a dimensão do volume documental e indica como escolhas de recortes temporais e taxonomias moldam o comportamento do modelo. Essas decisões técnicas são decisões jurídicas disfarçadas: a forma como se agrupa, etiqueta e pesa conteúdo afeta resultados. Por isso, auditoria não pode restringir-se à TI, devendo incluir controles jurídicos e participação da advocacia, em meu entender.
O CNJ, se crê, ciente do risco, estabelece deveres de transparência, prestação de contas e classificação por níveis de risco, impondo governança, monitoramento e mitigação. Ótimo começo, mas concordo que é preciso de salvaguardas materiais, dentre as quais: (i) proibição expressa de decisões automatizadas finais — nenhuma sentença ou acórdão pode se apoiar em conteúdo gerado por IA sem revisão humana de mérito, com declaração explícita de tal revisão; (ii) direito de contestar o algoritmo — a parte deve poder requerer logs, parâmetros e critérios de triagem que afetaram seu caso; (iii) rastreabilidade pública — painéis auditáveis, por órgão, indicando quando, onde e como a IA atuou, com métricas de erro e correção. Sem isso, a promessa de “supervisão humana” pode se degradar em mero “carimbo humano”.
Por fim, convém recordar o óbvio que se tenta esquecer: máquinas não têm consciência moral. Não percebem a hesitação de uma testemunha, a violência simbólica de um procedimento, o silêncio eloquente de quem tem medo do Estado. Elas não reconhecem a lágrima, nem a ironia, nem a dignidade ferida. O Direito — sobretudo o processual — é um teatro de humanidade, um ritual público onde a palavra ainda importa porque alguém a escuta. Transferir a escuta para sistemas é amputar a alma da Justiça. Espera-se que não seja por isso que se veja tantos embates contra a advocacia em promover a sustentação oral perante magistrados “de corpo e alma”, pois a palavra deve ser ouvida, o Magistrado é diretamente atingido e isso pode sim alterar sua visão da situação e a sua concepção sobre o caso em concreto.
A tecnologia pode — e deve — servir como ferramenta, nunca como senhorio. O Judiciário que se quer moderno não é o que terceiriza a consciência; é o que consegue usar máquinas para libertar tempo humano para aquilo que só humanos fazem: motivar com prudência, decidir com responsabilidade, corrigir injustiças com coragem, entre diversas outras capacidades que só humanos com consciência possuem. Se aceitarmos que algoritmos ditem a pauta, produzam minutas e, de modo invisível, fechem o horizonte do que é “relevante”, a advocacia definhará e a magistratura sobreviverá como máscara.
Antes que o entusiasmo com dashboards de produtividade nos cegue, vale reafirmar princípios: nenhum cidadão deve ser julgado por um sistema que não possa compreender, questionar e contraditar; nenhuma decisão pode apoiar-se em raciocínio que não possa ser traduzido em linguagem humana compreensível; nenhuma triagem pode excluir o dissenso criativo que faz o Direito avançar. A IA tem lugar, mas SEMPRE um lugar subordinado. Fora disso, o que se promete como futuro é apenas uma versão acelerada do passado, com todos os seus erros: um espelho polido do que fomos, aplicado, agora, sobre quem ainda poderíamos ser.
Se a Justiça quiser ser realmente “4.0”, que o seja em transparência e prestação de contas, não em abdicar do humano. Enquanto houver alguém diante do Estado pedindo o que é seu por direito, haverá algo que nenhum algoritmo pode entregar: a decisão que, além de legalmente correta, seja justa — porque nasce do encontro entre razão e consciência, não de uma soma de padrões. Esse encontro tem nome antigo e valor permanente: juiz e advogado, olhando um caso que é, antes de tudo, um ser humano.
Este texto é, antes de tudo, uma tentativa pessoal, de um advogado, de compreender e explicar um pouco da presença da Inteligência Artificial no Judiciário e seus riscos. Posso, evidentemente, estar equivocado em algum ponto técnico ou conceitual, e se assim for, que eu seja corrigido. Mas a essência do que pretendo transmitir permanece: é imprescindível manter viva a consciência de que o ser humano é insubstituível na tomada de decisões e na condução das questões que envolvem direitos e deveres. Sem essa presença viva, ponderada e responsável, corremos o risco de, um dia, acordar em um mundo onde ainda existam sentenças, mas já não exista Justiça.
BIBLIOGRAFIA.
ANAMATRA. Resolução 615/2024 atualiza a Resolução CNJ 332/2020. Brasília, DF, 2025. Disponível em: https://www.anamatra.org.br/imprensa/noticias/35567-resolucao-ia-cnj. Acesso em: 02 jul. 2025.
BRASIL. Conselho Nacional de Justiça. Resolução CNJ n.º 332, de 21 de agosto de 2020. Brasília, DF, 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 05 ago. 2025.
BRASIL. Conselho Nacional de Justiça. CNJ aprova resolução regulamentando o uso da IA no Poder Judiciário. Brasília, DF, 18 fev. 2025. Disponível em: https://www.cnj.jus.br/cnj-aprova-resolucao-regulamentando-o-uso-da-ia-no-poder-judiciario/. Acesso em: 08 ago. 2025.
BRASIL. Conselho Nacional de Justiça. Plataforma Sinapses / Inteligência Artificial. Brasília, DF, 2025. Disponível em: https://www.cnj.jus.br/sistemas/plataforma-sinapses/. Acesso em: 11 ago. 2025.
BRASIL. Conselho Nacional de Justiça. Plataforma Sinapses – Inteligência Artificial (seções: Histórico; Regulamentação; Ética e transparência). Brasília, DF, 2025. Disponível em: https://www.cnj.jus.br/sistemas/plataforma-sinapses/inteligencia-artificial/; https://www.cnj.jus.br/sistemas/plataforma-sinapses/historico/; https://www.cnj.jus.br/sistemas/plataforma-sinapses/regulamentacao/; https://www.cnj.jus.br/sistemas/plataforma-sinapses/etica-e-transparencia/. Acesso em: 11 ago. 2025.
BRASIL. Conselho Nacional de Justiça. Programa Justiça 4.0 divulga resultados de pesquisa sobre IA no Judiciário brasileiro. Brasília, DF, 28 maio 2024. Disponível em: https://www.cnj.jus.br/programa-justica-4-0-divulga-resultados-de-pesquisa-sobre-ia-no-judiciario-brasileiro/. Acesso em: 11 ago. 2025.
BRASIL. Conselho Nacional de Justiça. Justiça 4.0. Brasília, DF, 2025. Disponível em: https://www.cnj.jus.br/tecnologia-da-informacao-e-comunicacao/justica-4-0/. Acesso em: 07 jul. 2025.
FIGUEIREDO, Guilherme Silva. Projeto ATHOS: um estudo de caso sobre a inserção do Superior Tribunal de Justiça na era da inteligência artificial. Brasília, DF: STJ/BDJur, 2022. Disponível em: https://bdjur.stj.jus.br/bitstreams/0a2682f4-5e9e-4110-92f0-d0c48902736a/download. Acesso em: 07 jul. 2025.
Kaufman, Dora; JUNQUILHO, Tainá; REIS, Priscila. Externalidades negativas da inteligência artificial: conflitos entre limites da técnica e dos direitos humanos. Dossiê em Geopolítica, Criminologia e IA. Brasília, DF: STJ/BDJur, 2024. Disponível em: https://bdjur.stj.jus.br/server/api/core/bitstreams/af5a921e-1593-457f-adce-89356a623cdd/content. Acesso em: 15 jul. 2025.
MAGALHÃES, Renato Vasconcelos. Inteligência artificial e Direito: uma breve introdução histórica. Brasília, DF: STJ/BDJur, 2010. Disponível em: https://bdjur.stj.jus.br/bitstreams/c2eef397-f147-499a-a7fe-dcf4c4edab6d/download. Acesso em: 21 jul. 2025.
ORDEM DOS ADVOGADOS DO BRASIL – OAB. Nova norma do CNJ define regras para IA no Judiciário com participação da OAB. OAB, 19 fev. 2025. Disponível em: https://www.oab.org.br/noticia/62921/nova-norma-do-cnj-define-regras-para-ia-no-judiciario-com-participacao-da-oab. Acesso em: 15 jul. 2025.
PODER360. STJ usará ferramenta de IA para acelerar análise de processos. Brasília, DF, 2025. Disponível em: https://www.poder360.com.br/poder-justica/stj-usara-ferramenta-ia-para-acelerar-analise-de-processos/. Acesso em: 05 ago. 2025.
Programa das Nações Unidas para o Desenvolvimento (PNUD). Plataforma Sinapses reúne 150 modelos de inteligência artificial. UNDP, 13 jul. 2023. Disponível em: https://www.undp.org/pt/brazil/news/plataforma-sinapses-reune-150-modelos-de-inteligencia-artificial. Acesso em: 05 ago. 2025.
SUPERIOR TRIBUNAL DE JUSTIÇA (Brasil). STJ lança novo motor de inteligência artificial generativa para aumentar eficiência na produção de decisões (STJ Logos). Brasília, DF, 11 fev. 2025. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/2025/11022025-STJ-lanca-novo-motor-de-inteligencia-artificial-generativa-para-aumentar-eficiencia-na-producao-de-decisoes.aspx. Acesso em: 07 ago. 2025.
SUPERIOR TRIBUNAL DE JUSTIÇA (Brasil). Gabinetes conhecem, na prática, funcionamento do STJ Logos. Brasília, DF, 15 fev. 2025. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/2025/15022025-Gabinetes-conhecem--na-pratica--funcionamento-do-STJ-Logos-.aspx. Acesso em: 07 ago. 2025.
SUPERIOR TRIBUNAL DE JUSTIÇA (Brasil). Gabinetes concluem treinamento no STJ Logos. Brasília, DF, 24 abr. 2025. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/2025/12032025-Gabinetes-concluem-treinamento-no-STJ-Logos--novo-motor-de-inteligencia-artificial-generativa-do-tribunal.aspx. Acesso em: 07 ago. 2025.
SUPERIOR TRIBUNAL DE JUSTIÇA (Brasil). Inteligência artificial está presente em metade dos tribunais brasileiros, aponta estudo. Brasília, DF, 9 mar. 2021. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/09032021-Inteligencia-artificial-esta-presente-em-metade-dos-tribunais-brasileiros--aponta-estudo-inedito.aspx. Acesso em: 07 ago. 2025.
SUPERIOR TRIBUNAL DE JUSTIÇA (Brasil). Revolução tecnológica e desafios da pandemia marcaram gestão do ministro Noronha (menção ao e-Juris). Brasília, DF, 23 ago. 2020. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/23082020-Revolucao-tecnologica-e-desafios-da-pandemia-marcaram-gestao-do-ministro-Noronha-na-presidencia-do-STJ.aspx. Acesso em: 07 ago. 2025.
SUPREMO TRIBUNAL FEDERAL (Brasil). Projeto Victor avança para identificação de temas de repercussão geral. Brasília, DF, 19 ago. 2021. Disponível em: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=471331&ori=1. Acesso em: 03 ago. 2025.
SUPREMO TRIBUNAL FEDERAL (Brasil). STF finaliza testes de nova ferramenta de inteligência artificial (Victor e VitorIA). Brasília, DF, 11 maio 2023. Disponível em: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=507120&ori=1. Acesso em: 03 ago. 2025.
SUPREMO TRIBUNAL FEDERAL (Brasil). Relatório do Chamamento – Inteligência Artificial (anexo). Brasília, DF, 2023. Disponível em: https://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/RELATORIOCHAMAMENTO.INTELIGNCIA.ARTIFICIAL.pdf. Acesso em: 03 ago. 2025.
TRF1. CNJ estabelece normas para uso ético e transparente da inteligência artificial no Judiciário. Brasília, DF, 2025. Disponível em: https://www.trf1.jus.br/trf1/noticias/cnj-estabelece-normas-para-uso-etico-e-transparente-da-inteligencia-artificial-no-judiciario-. Acesso em: 11 ago. 2025.
TRIBUNAL SUPERIOR DO TRABALHO (Brasil). Inteligência artificial traz melhorias para tramitação de processos no TST (Bem-te-vi). Brasília, DF, 6 maio 2019. Disponível em: https://www.tst.jus.br/-/inteligencia-artificial-traz-melhorias-inovadoras-para-tramitacao-de-processos-no-tst. Acesso em: 15 jul. 2025.
TRIBUNAL SUPERIOR DO TRABALHO (Brasil). TST vence Prêmio Inovação Judiciário Exponencial com o programa Bem-te-vi. Brasília, DF, 13 out. 2020. Disponível em: https://www.tst.jus.br/-/tst-vence-pr%C3%AAmio-inova%C3%A7%C3%A3o-judici%C3%A1rio-exponencial-com-o-programa-bem-te-vi. Acesso em: 15 jul. 2025.
TRIBUNAL SUPERIOR DO TRABALHO (Brasil). Justiça do Trabalho incorpora inteligência artificial com foco na segurança e na ética. Brasília, DF, 6 fev. 2025. Disponível em: https://www.tst.jus.br/-/justi%C3%A7a-do-trabalho-incorpora-intelig%C3%AAncia-artificial-com-foco-na-seguran%C3%A7a-e-na-%C3%A9tica. Acesso em: 15 jul. 2025.
VALLE, Vanessa Costa Lage Ladeira. Decisão judicial assistida por inteligência artificial e o projeto Victor (STF). Revista de Informação Legislativa, Brasília, DF, v. 57, n. 225, p. 87-106, jan./mar. 2020. Disponível em: https://www.scielo.br/j/rinc/a/YKZfQPLJqT7F3P445KkmwnC. Acesso em: 24 jul. 2025.