Resumo: Este artigo analisa a inevitável "autocolonização técnica" induzida pela inteligência artificial no campo do Direito, utilizando como ponto de partida a Resolução 615/2025 do Conselho Nacional de Justiça. Discutimos os desafios de regulamentar tecnologias que evoluem rapidamente, abordando a dificuldade de conciliar o avanço tecnológico com a preservação de valores democráticos e a estabilidade jurídica. O texto explora a distinção entre comunicação cibernética e hermenêutica, a diferença entre prompts e algoritmos, e como o modelo clássico de processamento de dados é transformado pela IA generativa. Avaliamos a Resolução 615 do CNJ como um marco importante, embora imperfeito, que busca equilibrar a tensão entre controle e pluralismo, incentivando o uso da IA no judiciário, mas com consciência de seus riscos e da própria provisoriedade. Finalizamos com reflexões sobre a autonomia dos tribunais, a segurança jurídica e a necessidade de transparência.
Palavras-chave: Inteligência artificial, autocolonização, Resolução CNJ 615, regulação, Direito.
Sumário: Introdução. 1. Conceitos operacionais. 1.1. Comunicação cibernética x hermenêutica. 1.2. Algoritmos, programas e prompts. 1.3. O clássico esquema “entrada-processamento-saída” desaparece? 1.3.1. Ajuste fino, caixas pretas e caixas cinzas. 1.3.2. Somente LLM e prompt? alucinações e entropias estatística e semântica. 1.3.3. O direito é alucinógeno. 2. A Resolução CNJ 615. 2.1. PLD - Product Liability Directive da União Europeia. 2.2. Desafio ao intérprete, flexibilidade e adaptabilidade. 2.3. Muitas mãos e visões. 2.4. Contradição: princípio da unidade procedimental em xeque. 3. Aspectos muito positivos da regulação. 4. Aspectos que exigem mais reflexão e atenção. 5. Disputas. Considerações finais.
INTRODUÇÃO
Três eventos inspiraram o título e o tema da conferência que embasa este artigo. Em janeiro/25, o Tribunal de Justiça do Paraná organizou um Congresso em Foz do Iguaçu sobre IA e processo. Voltei do evento assombrado. Muitos participantes, entusiasmados com a IA generativa. Em abril/25, quando recebi o convite para ministrar a conferência na ANCBA – Academia Nacional de Ciências de Buenos Aires, estava publicada a Resolução 615/CNJ3, sobre o uso da IA no PJ do Brasil, que entrou em vigor em 20 de julho de 2025. Ainda em abril/25, ministrei palestra de abertura numa Semana Jurídica da dinâmica Escola Judicial do TRT de Goiás. O assunto único era a IA, suas ferramentas, usos e possibilidades. Tudo regado do mesmo entusiasmo sentido no Congresso de Foz do Iguaçu.
Desses eventos veio a ideia de "autocolonização", que está no extenso título da conferência que ministrei na ANCBA (Direito, IAGen e a inexorável autocolonização técnica dos humanos: o que se pode regular? Uma resposta desde a perspectiva brasileira (Res. CNJ/615/13mar25). Como indígenas do terceiro milênio, hoje todos ficamos loucos para "ENTREGAR o reino EM TROCA dos fascinantes bibelôs". Queremos nos autocolonizar! Infelizmente, a meu ver, sem compreender os poderes, as fragilidades, as ameaças e a toxidade das novas ferramentas. Temos de avançar – uma obviedade empiricamente constatável no Brasil -, mas sem deixar que sistemas seculares e seus valores se percam nas transformações que a IA induz.
Então, o que se pode regular e como? Este é o tema deste artigo, embora se fixe numa específica função de um Poder do Estado.
A luta da regulação, de uma maneira geral e num sentido mais amplo, está evidente em todo o mundo. A União Europeia vai e volta, os EUA idem. Uma pressão de fundo, geopolítica, dificulta os esforços. Até o acordo comercial UE/EUA (do tarifaço) está parado por causa dessa regulação. Então, pode-se simplistamente perguntar: quais as fontes da dificuldade? A resposta tem de passar por dois aspectos capitais: 1) a tecnologia corre mais rápido que as regras e, claro, 2) A tecnologia tornou-se um fator geopolítico inafastável e, talvez, preponderante. Nenhum dos lados (democrático e não democrático) pode abrir mão da melhor tecnologia, sob pena de sucumbir.
Há apenas 3 anos, começamos com LLMs (Large Language Models) generalistas. O domínio da linguagem natural e a construção de saberes (aprendizado automático) a partir de dados iniciaram a evolução que está em curso. O anúncio do GPT-3, da Open AI, trouxe a aplicação e as pesquisas a serem desenvolvidas, a partir dali, para se chegar ao chatGPT e a todas as suas variantes.4 Aprendemos em pouquíssimo tempo a especializar os modelos generalistas, um trabalho que também está muito bem encaminhado. Avançamos, neste curto período, do ajuste fino para abordagens mais ambiciosas – RAG e , agora, os cientistas trabalham intensamente na captura dos processos cognitivos humanos5, capazes de nos levar quase à Inteligência Artificial Geral (IAG), cujo poder de generalização emulará, embora não perfeitamente, a capacidade humana de generalizar.6 As empresas viram valor nessa especialização do modelo para pequenos domínios e aplicaram em seus produtos e soluções. Com chips melhores (NVIDIA) e mais memória (parâmetros aos bilhões), os modelos andam fazendo coisas que ninguém esperava que fizessem. Ganharam habilidades inesperadas e têm surpreendido os cientistas com comportamentos e ações que não podem ser explicados, mas que funcionam. Pesquisa recente termina com uma frase emblemática. Após descrever as mil peripécias matemáticas feitas, os pesquisadores concluem mais ou menos assim: “Funcionou! Mas não temos explicação para isso, deve ter sido por benevolência divina”.
Um resultado marcante desses avanços é que tarefas cognitivas repetitivas ficaram ao alcance da tecnologia. Ora, a repetição é a base indispensável da automação. Isso virou a mesa! Não é só tecnologia nova. A IA mudou a forma como as pessoas se comunicam, decidem, produzem e, até, como regulam. O Direito tem como missão fundar expectativas (Niklas Luhmann) para gerar estabilidade. E está, também, sendo forçado a se reinventar, inclusive no tocante ao “como regular”. Não é fácil criar regras que protejam valores democráticos e, ao mesmo tempo, deem conta dos interesses econômicos, corporativos, trabalhistas e geopolíticos. Por isso, até as instituições reguladoras e os poderes do Estado acabam se atropelando. Sentem-se impotentes.
Um caminho válido e eficaz parece ser o do legislador brasileiro com a regulação da introdução de IA no processo judicial, que vamos tentar ver melhor: uma arquitetura regulatória de balizas fluidas, uma composição criativa, resiliente, aberta à tecnologia, mas sem ingenuidade. A regulação tem de conjugar a tensão natural entre controlar (que é do Direito) e preservar o pluralismo, a diversidade, além de ficar de olho no risco real de concentração de poder nas mãos de poucos controladores de algoritmos. A Resolução 615 do CNJ, de março/2025, tenta equilibrar diferentes interesses ao incorporar IA generativa no processo judicial. Não é perfeita, mas é um passo importante, e essas balizas podem escalar para outros contextos.
1. CONCEITOS OPERACIONAIS
A academia vive uma crise de conceitos. Tudo está muito transformado. Na ciberbabel em que estamos imersos, agora, todos falam de tudo, usam os significantes para se referir a significados que, na maioria das vezes, são pouco compartilhados e entendidos. A origem híbrida da nova realidade e seus elementos dificulta imensamente a abordagem dela pelos atores dos dois mundos (jurídico e tecnológico), como acertadamente alertou Latour (Reagregando o social).
Portanto, antes de ver a Res. 615, vejamos uns conceitos novos e alguns transformados pela chegada da IAgen. Selecionamos 3 conjuntos específicos: comunicação cibernética e hermenêutica; algoritmo e prompt e o famoso esquema bertalanffyano dos sistemas abertos: entrada -> processamento -> saída. Faremos isso de uma forma redutiva, de Carnap, lembrado por Willard Quine7, suficiente apenas para o âmbito deste artigo.
1.1. Comunicação cibernética x hermenêutica
Os humanos “babelizam” tudo. Sistemas tecnológicos usam exclusivamente a primeira porque funcionam simbolicamente apenas. Já os humanos, como provedores de estruturas para os sistemas sociais, utilizam a segunda – que é bem própria deles, pois trabalham com significados. Não foi por acaso que Niklas Luhmann, para abrir caminhos de teorização dos sistemas sociais (colocou a sociologia a andar de novo), expulsou os homens do interior deles e tentou enxergar apenas o sistema social, os fluxos comunicativos pelos quais se relacionam.
Tomemos, então, automatizar como troca de sistemas biológicos/psíquicos por sistemas tecnológicos. Por exemplo, muitos soldadores substituídos por um braço soldador, conforme o exemplo de Skiena8 ao tratar da heurística algorítmica. Isso é cibernético e bem wieneriano (Cibernética e sociedade). Mas há uma diferença essencial, básica, quando as substituições envolvem a substituição de sistemas psíquicos por algoritmos no âmbito dos sistemas sociais. As noções de comunicação cibernética e hermenêutica ajudam a entender essa diferença. A preocupação da cibernética é garantir que um sinal/símbolo emitido chegue íntegro ao destino. Se a comunicação, reduzida a essa transmissão simbólica, é efetiva, todo os mais ocorrerá como o esperado. Com o sinal correto (seja lá o que for), a função a ser executada é disparada. Não há pensamento, interpretação no sentido humano, dúvidas sobre o que virá a seguir, nada. Só ação reflexa. Para aquela entrada, está pronta uma saída. Tudo matematicamente estabelecido. Maquinalmente, como quando se envia o sinal de +, numa calculadora, seguido de um número e um símbolo de igual. Sabe-se que virá um resultado confiável e exato adicionando aquele valor ao que já estava registrado na calculadora. Uma adição. A comunicação homem x máquina, no caso, é causalmente fechada, deterministicamente definida e só não dará o resultado esperado se houver um problema técnico. O homem é o senhor da comunicação. Chegados os símbolos corretos, a máquina entregará o resultado esperado. Não há contingência na resposta maquínica.
Na comunicação hermenêutica, ao contrário, não há a unicidade de sentido dos símbolos ao serem recebidos. Dá-se um passo além da comunicação cibernética. A “definição do sentido” dos símbolos, no destino, “entra” na comunicação e a transforma. A interpretação que o receptor faz dos símbolos, influenciada pelo contexto e pela autorreferência (estado interno do receptor), determina a sequência comunicativa. Quem envia o sinal não sabe, como na comunicação meramente cibernética, qual será a reação do receptor e qual será o resultado, portanto. Não há reação predeterminada, causalmente amarrada à chegada dos símbolos, daqueles símbolos específicos. Esta parece ser a fronteira para a qual estamos caminhando e que dificilmente (não se pode arriscar mais nada, hoje em dia!) será suplantada pela inteligência artificial.
Essa característica marcante dos sistemas sociais, que trabalham com comunicação hermenêutica, alargada para o nível semântico, muda tudo. E ganha dramaticidade ao se promover automatizações (trocar sistemas psíquicos por outros de naturezas diferentes). Essa característica dos sistemas sociais, que constroem seus rumos operativos (estruturas), após cada evento comunicativo (envio e recepção de uma mensagem), é dada pelos sistemas psíquicos, autorreferentes, não causais. Embora ela crie problemas/dificuldades para a automatização, é igualmente fundamental para a preservação de valores democráticos em sistemas como o processual (contextualização, pluralidade, diversidade). E tal propriedade sistêmica se perde quando se substituem sistemas psíquicos por sistemas tecnológicos. Vale repetir: sistemas sociais e psíquicos são estruturalmente abertos, não causais e sujeitos a uma imprevisibilidade incontornável. Um sistema psíquico, diante de um fato ou uma norma, por exemplo, pode fazer A, B ou nada. Basta lembrar dos juízes das muitas varas de uma capital. E essa incerteza transmite-se para os sistemas sociais, que são sistemas de comunicação hermenêutica (incorporam a interpretação à comunicação). A teoria da dupla contingência ganha centralidade (Parsons/Niklas Luhmann) na explicação da formação dos sistemas sociais. Os agentes são forçados a trabalhar e conduzir suas ações com a consideração da eventual reação, sempre contingencial.
Sistemas cibernéticos são, ao contrário, estruturalmente fechados e causais: para a mesma entrada, o mesmo resultado é produzido. O emissor da mensagem sabe, de antemão, que se os símbolos chegarem corretamente, haverá em resposta a ação X. É possível, por isso, a automação com uso de caixas pretas. Canonicamente, os ciberneticistas (Ashby, por exemplo) explica as caixas pretas e a desnecessidade de seu exame interno pela coerência/consistência funcional matemática entre entradas e saídas. Não precisamos saber como o interruptor desliga e liga a luz. Basta saber que pode ser usado para obter o efeito desejado. Ora, substituir os sistemas psíquicos pelos tecnológicos envolve uma mudança de natureza dos sistemas e a perda de características críticas, compositivas do próprio sistema. Onde a humanidade (permita-se dizer assim) some e entra a máquina, perdem-se inúmeras qualidades sistêmicas consideradas valores no âmbito de atuação do sistema que sofre a substituição.
1.2. Algoritmos, programas e prompts.
Algoritmos são estruturas de comandos para serem executadas por computadores. Este “serem executadas” significa que são ordens passadas para o computador cumprir, estritamente, maquinalmente, para produzir o resultado esperado por quem elaborou as ordens. Quando se pensa numa estrutura algorítmica, pensa-se ciberneticamente: para este comando, obterei tal resposta/ação do computador. Não se espera que o computador, no dia, por qualquer razão, resolva dar uma resposta diferente da que sempre deu, cumprindo aquele comando.
A definição de programa de computador, na lei de software do Brasil (Lei 9.6099), traz exatamente essa descrição de algoritmo, porque programa é uma “expressão de um algoritmo em determinada linguagem” entendível por máquinas. “Para o cientista Skiena, ‘um algoritmo é um procedimento para realizar uma tarefa específica. Um algoritmo é a ideia por trás de qualquer programa de computador razoável.’10”11 Marque-se bem aí a primeira parte da afirmação: “procedimento para realizar uma tarefa específica”. Isso nos leva aos prompts e à justificação da presença dessas noções neste paper.
Assim como um programa é a expressão de um algoritmo, um prompt também é. Então, pode-se dizer que programas e prompts são a mesma coisa? Não.
Falemos de programa: a comunicação programador x máquina é cibernética e o computador não interpreta nada (no sentido humano de atribuição de significado), apenas executa cada instrução (comando) passada, na ordem dada. Se o resultado não for o desejado, o problema é do programador, que não soube ordenar os comandos ou escolhê-los adequadamente. Na verdade, entre o programa (expressão do algoritmo) e a máquina propriamente dita, há um outro programa – o sistema operacional – que recebe o comando do programa e faz a máquina cumprir o que o programa determina.
Prompt, pode-se dizer, é uma espécie diferente de programa. Ele também é a expressão de um algoritmo. Mas há diferenças fundamentais a observar. Prompts põem, nas mãos de humanos comuns (não treinados), um poder especial de programação que, até agora, só pessoas especialmente treinadas tinham. Diga-se, então, que são programas diferentes na forma: (1) são escritos em linguagem natural, coisa inconcebível até agora para “se comunicar com computadores”; logo, exprimindo-se o algoritmo em linguagem natural, está-se sujeito a muitos problemas pelas equivocidades linguageiras, regionalismos etc e não se pode esperar consistência cibernética em sua execução – os símbolos passados podem não corresponder aos necessários para a produção do resultado esperado pelo construtor do prompt; (2) prompts precisam conter os comandos, na ordem certa (lógica) e com o alcance correto, capaz de conduzir ao resultado esperado; quer dizer, o algoritmo que exprimem deve ser consistente; (3) prompts não passam pelos rígidos controles prévios, sintáticos, de linguagem, dos comandos dados (coisa que acontece com os programas) e (4) no caso da IAGen, quem faz o prompt não fala diretamente à máquina (ao sistema operacional), mas a um programa (exatamente a IAGen) que vai incorporá-lo à sua própria estrutura de comandos para a produção do resultado. Prompts, portanto, são algoritmos que falam indiretamente com a máquina utilizando a intermediação de outro programa (uma espécie de tradutor, a IAGen). Dito de outro jeito, quem faz um prompt dá comandos para a IAGen e não ao computador. É com ela que se trava o diálogo interativo.
Então, programas são feitos com linguagens formais, sintática e semanticamente consistentes, e são compilados (uma preparação prévia para ver se a gramática foi observada – a sintaxe da linguagem em que foi escrito). Prompts são comandos em linguagem natural, equívoca e imprecisa, e são executados sem compilação. O LLM (a IAGen) integra os comandos à sua própria estrutura operativa, dando-lhes forma de entendimento pela máquina (de cada comando, individualmente, pelo sistema operacional).
A ordem dos comandos, nos dois casos (programas e prompts), tem de ser lógica e os dois impactam diretamente os resultados. Por isso, atualmente, existem disciplinas dedicadas a ensinar a elaborar prompts. Fala-se, mesmo, numa engenharia de prompts, assim como há uma engenharia de software que cuida da produção de sistemas e programas. Adiante, referir-me-ei a algoritmo e programa sem muita distinção.
1.3. O clássico esquema "entrada-processamento-saída" desaparece?
O esquema clássico de Bertalanffy entrada->processamento->saída sofre uma transformação significativa com a IAgen. Primeiro, o algoritmo incumbido do processamento é um algoritmo aprendiz, clássico (codificado por humanos, como outros programas), uma estrutura feita para aprender, um "algoritmo bebê". Ele é previamente treinado com dados da vida real e gera um complemento estrutural para si mesmo (outras funções algorítmicas), a famosa caixa preta ou base de conhecimento. Com base em dados oferecidos para ele examinar e aprender (pense-se apenas na técnica do aprendizado supervisionado), o algoritmo aprendiz extrai padrões e os codifica para uso futuro preditivo. Nasce assim um modelo (fala-se muito dos LLMs - Large Language Models). Ao operar, quando processa dados, as transformações de entradas em saídas são feitas pelo modelo utilizando a caixa-preta (base de conhecimento).
No caso da IAGen, no processamento temos de acrescentar os prompts. O processamento do esquema de Bertalanffy deixa de ser um programa, apenas. O grande algoritmo que, de fato, roda, é esse conjunto: algoritmo aprendiz + base de conhecimento + prompt. São as funções algorítmicas desse conjunto que tratam a entrada e geram o resultado. Poder-se-ia pensar nos prompts como parte da entrada, mas isso é enganoso. O prompt interfere na produção do resultado, condicionando o comportamento operacional do algoritmo, mas ele é mais bem visto como um complemento estrutural do algoritmo e não como entrada. Se outro prompt for dado, a mesma “entrada” estará lá e a IAgen pode chegar a outro resultado. O que se transforma, entre as duas situações, são os comandos dados ao sistema operacional e não as entradas.
1.3.1. Ajuste fino, caixas pretas e caixas cinzas.
Atualmente, podemos fazer um treinamento adicional da rede neural, gerando uma base de conhecimento especializada ou, para marcar bem, um complemento da caixa preta original.
Vale registrar que o grande avanço feito a partir do lançamento do modelo GPT-3, em 2020, foi a separação entre o conhecimento agnóstico (geral e consolidado) e o conhecimento especializado, o que acelerou enormemente o treinamento das redes neurais. O aprendido aproveitável (domínio da linguagem natural, por exemplo), está pronto e dominado e não precisa ser reaprendido. A aceleração e a facilitação do retreinamento das neurais (atualizações ou especializações) são bem evidentes com esse movimento técnico. O ajuste fino tornou-se, assim, parte central do processo evolutivo das IAgen que são condicionadas a aproveitar o conhecimento geral e complementar-se para domínios restritos, especializados.
Dois registros devem ser feitos a partir dessa noção: (i) não se pode esquecer que, continuamente, novas funções e parâmetros são acrescentados ao algoritmo básico (o aprendiz), pelos programadores. Então, na fase de processamento Bertalanffyana, temos em funcionamento, de fato: o algoritmo original + suas alterações (estado atual) + sua base geral de conhecimento + a base especializada + o prompt e (ii) o algoritmo original e as alterações subsequentes do algoritmo são, na verdade, caixas cinzas. Programadores que fazem a manutenção e a otimização desses programas tem acesso integral a eles. As funções de transformação geradas pelo algoritmo nos treinamentos (as ditas bases de conhecimento) são, essas sim, as caixas-pretas, e nem os programadores sabem o conteúdo delas. O racional cognitivo pelo qual o algoritmo alcança o resultado é desconhecido.
A modelagem que adota a noção de aprendizado específico, com geração de uma base de conhecimento especializada, é indispensável ao Direito. O Tribunal de Justiça do Rio de Janeiro (TJ/RJ) construiu um assessor de juiz, o ASSIS, que aborda a questão do apoio ao magistrado sob essa ótica.
1.3.2. Somente LLM e Prompt? Alucinações e entropias estatística e semântica.
Com a noção de ajuste fino (e suas variações/evoluções), pode-se dar um último passo neste item dos conceitos.
Todos já ouvimos falar das alucinações: é quando o algoritmo inventa algo ou dá uma resposta descabida. Recentemente, pesquisadores liderados por Farquhar, sub classificaram as alucinações e chamaram ao maior grupo delas (80%) de confabulações.12 Elas acontecem bastante quando se processam dados sem fazer o ajuste fino do modelo. Usa-se, no caso, somente um LLM geral e o prompt. É o caso mais comum de interação dos usuários com qualquer dos modelos gerais do mercado
A pesquisa demonstrou que as alucinações, em regra, eram precedidas de uma situação interna denominada de entropia estatística ou probabilística, geradora de perplexidade (dúvida). De uma maneira bem simples e direta, adequada para este pequeno paper, pode-se exemplificar com a definição do próximo termo de uma frase que a IAGen está tentando formar. O princípio de funcionamento dela é estatístico. A tabulação estatística dos termos candidatos a serem o próximo dá a segurança para a escolha e continuidade da frase. Quando há um candidato com probabilidade significativamente mais alta que os demais, usá-lo não costuma gerar problema. Entretanto, se houver vários termos com probabilidades semelhantes, o algoritmo precisa fazer uma escolha. Na falta de amparo estatístico consistente, o algoritmo, levado pelo determinismo de sua concepção maquínica, seleciona algum deles e pode enveredar, então, pela alucinação. Os pesquisadores detectaram, assim, a situação fática interna (dados) indutora do problema.
Propuseram, então, um método (uma otimização heurística do algoritmo) para prevenir o problema. Utilizaram uma ferramenta existente nos LLMs e, detectada a situação de risco, submeteram os termos candidatos a uma classificação adicional, semântica (pelo sentido), com base em implicação bidirecional. Descreveram a técnica como aplicação da entropia semântica para resolver o problema das alucinações. Se a entropia probabilística é também semântica, o risco de alucinação inexiste. Há muitos termos que podem ser usados, pois têm o mesmo sentido (sinônimos?). Então, se a classificação gera diferentes conjuntos (os termos têm sentidos diferentes), há o risco alto de alucinação e o algoritmo é levado a interromper o diálogo. Do contrário, a entropia é também semântica e o algoritmo escolhe qualquer termo e continua a interação. O exemplo é baseado em words para facilitar. Mas a técnica aplica-se, igualmente, em âmbitos mais amplos, como o de sentenças (snippets).
1.3.3. O Direito é alucinógeno.
A fonte das alucinações deve acender um sinal vermelho em relação à automação de decisões jurídicas. Pode-se dizer que bases jurídicas, necessárias para o treinamento das redes neurais, são alucinógenas. Elas não são funcionais (em sentido matemático). Os mesmos dados, dependendo do juiz que aprecia o caso, podem conduzir a resultados diferentes. Ou seja, a conexão entre diferentes resultados e entradas idênticas é uma presença certa em bases jurídicas (corpi) dos sistemas democráticos, marcados pela pluralidade, pela diversidade e pelo livre convencimento. Na operação, se usamos apenas o LLM e se nosso prompt é malfeito, a IA precisa escolher um dos resultados, decidindo, então, qual é o Direito. Ela se depara com um quadro estatisticamente entrópico (vários resultados com mesma probabilidade de serem adequados) e "escolhe" um deles, apesar da não presença da entropia semântica. Exprimi esse dilema, que força a restrição de modelagens para a área de decisão, no capítulo 15 – Lei do Fator Hermenêutico, de Machine Learning nas decisões.13
Pode-se enfrentar o monstro das alucinações, no âmbito jurídico-decisional, com uma modelagem adequada, atenta à presença dessa característica das bases jurídicas e voltada à minimização dos riscos, combatendo-os pela forma de manejo dos dados e pelo escopo do treinamento (ajuste fino/RAG/captura de estruturas de cognição). Já existe ao menos uma solução, no Brasil, inspirada nessas ideias e abordagens (modelo ASSIS do Tribunal de Justiça do Rio de Janeiro). As ferramentas estão em evolução e, consequentemente, os modelos. É certo que modelagens, feitas até o presente momento, também apresentam necessidade de melhorias. Mas o relevante é a atenção para o problema, a compreensão dos riscos envolvidos e a crença em abordagens que visem especializar os modelos sem abrir canais para a supressão dos valores da pluralidade, da diversidade e da extinção do livre convencimento.