Capa da publicação IA no Judiciário: CNJ e o dilema da transparência
Capa: Sora
Artigo Destaque dos editores

O dilema da transparência: uma análise da Resolução nº 615 do CNJ à luz da teoria do 'Homo sapientissimus'

Exibindo página 1 de 2
25/11/2025 às 08:07

Resumo:


  • O artigo investiga a tensão entre as exigências normativas de transparência e explicabilidade no uso da Inteligência Artificial pelo Poder Judiciário.

  • Aponta a incompatibilidade entre a lógica formal aristotélica e a cognição algorítmica, estatística e simbólica.

  • Sugere o treinamento da IA com a base de dados do magistrado como solução para segurança jurídica, atuando como um "aprendiz" alinhado ao julgador.

Resumo criado por JUSTICIA, o assistente de inteligência artificial do Jus.

A Resolução 615/CNJ exige transparência da IA, mas LLMs operam por lógica estatística, não aristotélica. Será que o treinamento por magistrado resolveria a insegurança jurídica da “caixa-preta”?

Resumo: O presente artigo investiga a tensão fundamental entre as exigências normativas de transparência e explicabilidade no uso da Inteligência Artificial (IA) pelo Poder Judiciário — consubstanciadas na Resolução 615 do Conselho Nacional de Justiça (CNJ) — e a realidade técnica dos Grandes Modelos de Linguagem (LLMs). A partir do conceito de Homo Sapientissimus, propõe-se uma análise da incompatibilidade entre a lógica formal aristotélica e a cognição algorítmica, estatística e simbólica. O estudo aponta a aporia da norma regulatória que, ao tentar dispor sobre transparência e uso de "caixa-preta" (IAgen), oscila entre a exigência de publicidade e a discricionariedade judicial. Utilizando aportes teóricos dos sociólogos Luhmann e Latour e do ciberneticista Aurel David, sugere-se que a solução para a segurança jurídica não reside na "abertura do código", nem na expressão da cognição algorítmica em termos de lógica formal, mas no "esquema de generalização" controlado: o treinamento da IA com a base de dados do próprio magistrado (fine-tuning), o que leva o algoritmo a atuar como um "aprendiz" alinhado, ética e juridicamente, ao julgador (“para cada juiz um aprendiz”).

Palavras-chave: Inteligência Artificial Jurídica (IAJ); Resolução 615/CNJ; Transparência algorítmica; Homo Sapientissimus; Lógica algorítmica.


Introdução: "Mehr Licht!" e a opacidade algorítmica.

"Mehr Licht!" (Mais luz!), a famosa frase atribuída a Goethe em seu leito de morte (1832), parece ecoar, atualmente, nos meios jurídico-acadêmicos, como um imperativo: “transparência, mais transparência!”. Das normas aos discursos, sempre que se trata do uso da Inteligência Artificial Generativa (IAgen) pelo Poder Judiciário, essa demanda vem à tona.

As lucubrações sobre o Homo sapientissimus 2, referentes ao tipo de lógica cognitiva algorítimica, trazidas em artigos anteriores, ajudam a explicar a opacidade de nossas lentes habituais que, muitas vezes, foram iludidas por fundamentações silogísticas vestidas de uma infalibilidade não provada. A compreensão dessa nova cognição ajuda a alinhavar uma resposta à ubíqua questão da transparência.

No cenário jurídico brasileiro, a Resolução 615 do CNJ3, louvável sob variados aspectos (veja-se a guinada que, a respeito, está dando a União Europeia4), surge como uma tentativa de regular o avanço mediante o uso da inteligência artificial e não com sua rejeição.

Atente-se, entretanto, que ao tempo em que autoriza a IA generativa no processo judicial, o ato normativo tenta, simultaneamente, impor requisitos de explicabilidade/transparência que a própria tecnologia, em seu estado da arte, talvez não possa oferecer integralmente em moldes humanos. Este artigo explora a incompatibilidade de fundo entre as exigências de transparência e a realidade de uma cognição puramente simbólica. Argumenta-se que o conhecimento mais profundo dessa nova lógica pode, paradoxalmente, abrandar as exigências de transparência total, deslocando o foco do "como a máquina pensou" para "como a máquina foi treinada para pensar".


1. A Resolução 615/CNJ e a aporia da transparência.

À luz dos paradigmas clássicos, a regulação do uso de IA no Judiciário brasileiro enfrenta um obstáculo epistemológico intransponível. A Resolução 615/CNJ, ao tratar da transparência, palavra que ocorre 27 vezes ao longo do texto, parece reconhecer tacitamente, sem confessar, a impossibilidade técnica de devassar o funcionamento interno das redes neurais profundas (Deep Learning).

Há, de fato, no texto normativo, uma ambiguidade orientativa. Por um lado, exige-se transparência, auditabilidade (aparece 5 vezes no texto) e explicabilidade (aparece 6 vezes no texto. Com a restrição do uso da IA generativa ao papel de "suporte" ou "auxílio" às atividades de decisão (art. 195), a norma faz uma primeira tentativa para contornar o chamado “problema da caixa-preta" (black box), reduzindo o peso decisório formal da máquina e deslocando a responsabilidade integralmente para o humano.

Sob outra ótica, essa mesma regulação traz uma contradição imanente. A norma oscila entre a obrigatoriedade objetiva da transparência e uma espécie de faculdade jurisdicional individual: cabe ao julgador decidir o quantum de informação a ser revelada aos jurisdicionados, num espectro que pode ir da opacidade total à descrição detalhada do uso da ferramenta.6

Ao permitir que (i) a confiabilidade do resultado dependa subjetivamente da supervisão do magistrado e (ii) a extensão dessa transparência varie conforme a vontade do julgador, flerta-se perigosamente com a insegurança jurídica. Se a transparência é um pressuposto inegociável do devido processo legal, ela não pode ser discricionária. Deixar que cada juiz delimite as fronteiras da opacidade algorítmica não se compadece com a garantia constitucional de fundamentação das decisões, nem com o princípio democrático maior da igualdade perante a lei.

Cabe, ademais, uma reflexão adicional, porque a norma exige o que a técnica nega e, para resolver o impasse, delega ao humano a responsabilidade de "validar" o inexplicável: existirá, de fato, uma barreira segura decorrente da mera limitação do uso ao "suporte/apoio"? Haverá ética e instrumentos de auditoria eficazes para conter a sedução algorítmica?

É imperioso recordar que a IA generativa oferecerá silogismos de fundamentação esteticamente superiores e, muitas vezes, mais consistentes que os produzidos pela média dos humanos. Frutos de alucinação? As ferramentas evoluíram muito neste quesito. Aprenderam até a apelar para a semântica para se autopoliciar.7 O que garante muito pouco porque elas continuam a operar no nível sintático apenas. Falam chinês com perfeição, embora não entendam o que estão falando, diria o filósofo John Searle, na genial analogia do quarto chinês.8 A equivalência semântica de dois termos, apontada pela constatação da entropia semântica, não implica o alcance do significado.9

As bases de dados jurídicas continuam "altamente alucinógenas", como de fato precisam ser. O alcance de uma Inteligência Artificial Jurídica (IAJ), multifacetada, não unificante (plural) e compatível com as exigências democráticas do sistema de decisão judicial, depende muito da governança relacionada ao aprendizado algorítmico. Se não houver um manejo adequado no treinamento dos modelos, restringindo o escopo do qual o algoritmo se abebera, na base e não no topo, as inferências estatísticas podem conduzir a decisão (a cognição algorítmica) para veredas não desejadas pelo julgador. Como sugere Pedro Domingos, ao tratar do segredo do machine learning e da indução, “Não estamos preocupados com todos os mundos possíveis [com todos os entendimentos possíveis e existentes], só com este no qual vivemos [este gabinete e este magistrado].”10 [expliquei] Do contrário, persuadido pelo silogismo que antecede a proposta de decisão, belo e convincente como só máquinas conseguem fazer, magistrados assinarão. Corrigir o que, diante da inatacável fundamentação? O controle do fluxo algorítmico tem de começar pelo treinamento adequado e limitado na base, para ser democrático.

A recente filosofia da inteligência artificial agêntica, tomada em nível bem abstrato, é a expressão desse pensamento. Trata-se de uma extrapolação criativa das lições antigas da engenharia de software: para cada atividade, uma função/rotina, um método. A IA dos agentes leva a antiga “modularidade e decomposição funcional”, de rotinas fixas e absolutamente determinísticas, ao uso de entidades (agentes) que, agora, decidem e agem por conta própria. Em termos, claro, porque ferramenta é sempre ferramenta. No tocante ao “agir por conta própria”, essa característica interessa pouco ao Direito (para não dizer nada!) na linha de decisão. Mas é por ela, devidamente matizada, que se pode chegar a uma inteligência artificial para o jurídico (IAJ).

A segurança jurídica aceitável tem de nascer de um pressuposto inafastável: para cada juiz, um aprendiz! 11 O modelo, tendo aprendido com a base do magistrado apoiado, restringir-se-á a analisar os novos processos com a ótica e o esquema de valoração que ele aplica.12 Além disso, o pressuposto democrático da pluralidade continuará garantido, deixando que o sistema processual, institucionalizado, apure, das muitas visões da base, a que deve prevalecer. Evita-se, assim, a imposição de visões únicas geradas por "centrais de comando" circunstanciais (controle top down, não democrático). O arco down-up-down, operado sistemicamente, é o que é capaz de promover a oxigenação continuada e pluralista do todo (retroalimentação cibernética).

A resposta às demandas de transparência pode passar por esse "enquadramento do algoritmo" aos horizontes do magistrado assistido. As fundamentações, frutos (i) da consideração de normas e fatos à luz da lógica hermenêutica e (ii) do esquema de valoração do magistrado em casos anteriores (seu dataset), serão fiéis ao passado dele. Nisso as novas técnicas de RAG (Retrieval-Augmented Generation), fine-tuning etc., avançaram muito. A resposta mais eficaz à ânsia por transparência pode vir por essa técnica de manejo.


2. O abismo cognitivo: da lógica aristotélica à probabilidade vetorial.

Para compreender a profundidade do desafio, é necessário dissecar a natureza da cognição que agora chega aos tribunais.

A tradição jurídica ocidental é herdeira direta da lógica formal aristotélica, estruturada sobre premissas, conclusões e a busca incessante pelo significado. Kelsen e sua definição de norma jurídica exprimem bem o fenômeno. Norma é o significado da proposição legislativa: “ [...] mais corretamente diz-se: a norma é um sentido, em vez de: a norma tem um sentido.”13 [grifei]. Cabe ao julgador fixar, como raiz de seu silogismo, um sentido do texto legislativo. Arremete-se, assim, diretamente ao âmbito semântico.

A Inteligência Artificial Generativa, contudo, habita um universo ontologicamente distinto.

A inteligência artificial [...] não partilha dessa base existencial. Os Large Language Models (LLMs), por exemplo, não 'compreendem' textos como nós. Eles não formam conceitos abstratos no sentido humano, nem buscam significados intrínsecos. Sua 'lógica' é de outra natureza: matemática, estatística e probabilística.14

Para o algoritmo, uma sentença judicial não é um ato de justiça, mas a geração de um corpo textual que possui a maior probabilidade estatística de ocorrer na sequência dos antecedentes. Trata-se de uma função algorítmica aplicada. Estabelece-se, aqui, um sofisticado esquema de generalização.15 Enquanto o jurista opera predominantemente pela dedução (aplicando a norma ao fato), a IA opera por uma indução massiva.

Essa distinção é crucial. A "caixa-preta" é uma característica intrínseca da "forma de pensar" do algoritmo. Assim como a física quântica exigiu novas lógicas para o micromundo, a IA exige que aceitemos uma "lógica algorítmica". Exigir que a IA explique seu raciocínio em termos silogísticos causais é um erro categorial. Tentar traduzir a complexidade de bilhões de parâmetros, ajustados matematicamente, em um arcabouço silogístico simples de "motivação" parece ser um exercício de redução que beira a ficção.

Não obstante, anteceder o resultado com uma fundamentação trazida do aprendizado, alterada em suas features 16 para os dados do processo em exame, pode atender aos reclames de transparência, porque gerada sobre um escopo limitado, do julgador, como proposto acima. A própria fundamentação, abstratamente tomada, entra no "esquema de generalização".

Assine a nossa newsletter! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos

3. Homo sapientissimus: a simbiose entre o saber e a ética humanos e a eficiência simbólica. Suporte automatizado ao suporte.

“La coincidence digne de remarque vient du fait que Platon a donné à ce terme [cibernética] son sens actuel d´une pure technique asservie .” (Aurel David)

Diante da impossibilidade de forçar a "caixa-preta" a falar a língua dos homens, surge a necessidade de uma nova categoria ontológica para o decisor jurídico. O conceito de Homo sapientissimus não se refere a uma substituição do humano pela máquina, muito menos do surgimento de um novo ente biológico, mas à emergência de uma cognição híbrida, uma espécie de emaranhamento entre a cognição humana e a algorítmica. A dicotomia entre símbolos e significados é o coração dessa nova entidade: um sistema social – o mais simples deles! - que Luhmann denomina de interação 17, produtor de resultados, em que cada partícipe (homem e máquina) entra com suas potencialidades e limitações. Latour chamaria este sistema de actante (um homem e sua tecnologia).18 Para o jurista humano, o símbolo é um portal para um universo de significados vivenciais e axiológicos. Nossa cognição é uma dança entre forma e conteúdo. Já a IA opera em um plano de eficácia simbólica pura e pode, treinada sobre os dados certos (e limitados), jogar na interação sua inigualável capacidade de análise e velocidade. O resultado produzido por esse sistema conjuga humanidade e algoritmicidade.

Para um Large Language Model, as palavras são tokens, sequências de caracteres que são convertidas em representações numéricas (vetores). [...] A IA não “sabe” o que é uma “árvore” [ou um “crime”] no sentido de tê-la visto, tocado ou compreendido [...]. O que ela “sabe” é a probabilidade estatística de que o token [...] apareça perto de [...] outros em seu gigantesco conjunto de treinamento.19

Essa manipulação "cega" de símbolos, desprovida de alma, é paradoxalmente o que permite à IA sua velocidade e amplitude sobre-humanas. O Homo sapientissimus nasce quando o magistrado, ciente dessas limitações da máquina, inclusive éticas, apropria-se da potência operacional que ela oferece na interação. Isso agudiza as exigências de ética postas ao subsistema humano, algo que o fine-tuning ameniza muito. Assessores (prestadores de suporte) humanos, em seu trabalho, comprometem-se, queiram ou não, com o “olhar ético” do magistrado auxiliado, além do técnico-valorativo. A interação humano x humano amplia os poderes do magistrado, sabe-se bem, mas ambos operam sob a mesma lógica cognitiva e idênticas limitações ontológicas. Já o sistema híbrido, humano x algoritmo/IA, permite um ganho sistêmico expressivo justamente pela diferenciação 20: funde-se a noção ética e o saber jurídico do julgador com a agilidade e amplitude analítica do algoritmo, criando uma unidade comunicacional (um sistema) de potência inédita.

Trata-se de uma simbiose onde a mente humana natural - lenta, porém criativa, perceptiva e com ética particular - entrelaça-se com a mente algorítmica - veloz, porém carente de significados.

A era do Homo sapientissimus não é apenas sobre ter ferramentas mais potentes; é sobre [...] uma simbiose em que a mente humana natural [...] se entrelaça (se emaranha) com a mente algorítmica, inigualável em sua capacidade de processar dados e identificar correlações.21

Nesse contexto, a transparência exigida pela Resolução 615/CNJ deve ser reinterpretada. Se a "caixa-preta" não nos permite ver o processo de pensamento da máquina (o "como"), ela nos oferece resultados (os "quês") que podem ser validados pela expertise humana. O magistrado torna-se o curador da lógica algorítmica, não porque confira tudo (o que deverá fazer, sempre, segundo a letra da lei), mas porque o algoritmo foi treinado para afinar sua ação à ação do julgador assistido. A IA funciona como uma "turbina intelectual" autocontrolada22 que, conforme a visionária observação do ciberneticista Aurel David, posta na epígrafe deste item, é capaz de navegar oceanos processuais com as cartas de navegação definidas pelo magistrado. Isso abre espaço para se pensar, adicionalmente, no “suporte automatizado ao suporte”: a garantia da coerência.

Aceitar o Homo sapientissimus implica aceitar que parte da nossa cognição jurídica passará a operar por vias não-humanas. O desafio não é tornar a IA humana (transparente e silogística), mas integrar sua lógica probabilística à nossa responsabilidade ética e ao nosso saber jurídico, garantindo que a bússola moral e as cartas de navegação surjam de mãos biológicas, enquanto o trabalho braçal da lógica simbólica é terceirizado para o silício.


Considerações Finais

A Resolução 615/CNJ representa um marco regulatório necessário, mas a sua eficácia real dependerá de uma interpretação que transcenda o fetichismo da transparência algorítmica total. Exigir que a máquina explique seus processos como um humano explicaria suas motivações é ignorar a ontologia da nova inteligência que se apresenta.

O caminho para um Judiciário eficiente e seguro na era da IA não passa pela rejeição da "caixa-preta", mas pela sua domesticação por meio da personalização. O Homo sapientissimus é a resposta evolutiva: um sistema onde a alucinação criativa da máquina é contida pelas balizas éticas e histórico-jurídicas impostas ao "algoritmo aprendiz de um juiz" (Para cada juiz, um aprendiz!).

Ao invés de temermos a opacidade do pensamento vetorial, devemos focar na consistência do resultado jurídico. Se a IA, devidamente treinada no dataset do magistrado, produz uma decisão que reflete, com a desejada acurácia, os valores e a técnica daquele juiz (cognição particular), a transparência se realiza não pela dissecação do código, mas pela coerência da justiça entregue. Neste início do século XXI, o Mehr Licht! de Goethe, agora reclamado pelo processo – mais transparência! -, talvez não venha de ver por meio da máquina, mas de ver com a máquina, sob a guia firme da consciência humana.

Assuntos relacionados
Sobre o autor
S. Tavares-Pereira

Mestre em Ciência Jurídica pela Univali/SC. Pós-graduado em Direito Processual Civil Contemporâneo pela PUC/RS. Doutorando em Direito pela ATITUS-FDV/RS. Juiz do trabalho aposentado do TRT/SC. Autor de "Devido processo substantivo" (2007) e de "Machine learning nas decisões. O uso jurídico dos algoritmos aprendizes" (Florianópolis: Artesam. 2021. 796 p.︎). Autor de inúmeros artigos da área de direito eletrônico, filosofia do Direito, direito Constitucional e Direito material e processual do trabalho. Várias participações em obras coletivas. Estuda, pesquisa e teoriza o processo eletrônico a partir do marco teórico da Teoria Geral dos Sistemas Sociais de Niklas Luhmann, tentando alcançar as características que fixou para um CIBERPROCESSO: máxima automação, extraoperabilidade, imaginalização mínima e máximo suporte à decisão. Foi programador de computador e analista de sistemas. Foi professor: (i) em tecnologia, lecionou lógica de programação, linguagem de programação, COBOL e banco de dados (FURB, Blumenau/SC e cursos avulsos); (ii) na área jurídica, lecionou Direito Constitucional, em nível de pós-graduação, e Direito Constitucional e Direito Processual do Trabalho em nível de graduação (ACE/Joinville; UNIVILLE; Amatra12).

Como citar este texto (NBR 6023:2018 ABNT)

PEREIRA, S. Tavares-. O dilema da transparência: uma análise da Resolução nº 615 do CNJ à luz da teoria do 'Homo sapientissimus'. Revista Jus Navigandi, ISSN 1518-4862, Teresina, ano 30, n. 8182, 25 nov. 2025. Disponível em: https://jus.com.br/artigos/116325. Acesso em: 5 dez. 2025.

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos