Resumo: O artigo analisa a automação das decisões judiciais, com uso de IA do Machine Learning, e os riscos associados à incorporação de soluções algorítmicas nos sistemas judiciais de decisão. Problematiza a proposta de substituir juízes humanos por máquinas, defendida por céticos antropológicos que consideram a uniformização das decisões uma solução para os problemas e deficiências da justiça atual, como atrasos e vieses. Ressalta que esses algoritmos, fundamentados em "machine learning", reproduzem padrões humanos enviesados, quando já presentes nas decisões com que aprendem, sem inventá-los. Destaca a importância da textura aberta das normas legisladas, que permite a flexibilidade e a adaptação delas às realidades sociais mutantes, pela via hermenêutica judicial. Algoritmos não são intérpretes. A tecnologia não pode ser instrumento para desenraizar o processo judicial de sua base constitucional. A discussão também se concentra na opacidade e na pretensa intencionalidade dos modelos tecnológicos, sonhadas por alguns, para realçar os riscos envolvidos. Por fim, propõe a necessidade de reflexão crítica, bem informada, sobre o uso de tecnologias no processo judicial, o que é um crescente desafio posto para os juristas.
Palavras-chave: IA e processo; Regulação; Decisão judicial; Permissões e riscos.
Introdução
A Resolução CNJ 615, de 13 de março de 20252, autorizou (regulamentou) o uso das novas tecnologias de inteligência artificial – especialmente os modelos grandes de linguagem (LLMs) - no suporte 3 à tarefa sensível da decisão. Juízes precisam ser ajudados. O modo de prestar essa indispensável ajuda, frente ao himalaia processual, que é a montanha mais alta do país, esconde riscos de variados tipos.4 Muitos direitos fundamentais processuais podem ser violados no caminho, segundo adverte a Resolução CNJ/615 em 15 de seus dispositivos.5
Esses riscos, no entanto, não podem ser fundamentos para a simples e direta negação do uso da inteligência artificial. A ciência dos riscos ajuda a avançar com mais segurança. E parece esse o pensamento do CNJ, cuja resolução foi bem ao se orientar pela lógica do suporte e não pela da substituição.6 A supervisão humana é posta como um imperativo na área jurídico-decisional. Enquanto não se alcança patamar para ir além disso, melhor seguir adiante utilizando a tecnologia disponível, mas com precaução.
A prestação jurisdicional, já tão mal avaliada pela população (em geral, em decorrência de prazos), precisa ser aperfeiçoada com o uso da tecnologia. E não deturpada. A modelagem – de que agora se fala tanto! – tem de transformar-se num dos principais instrumentos (se não for o único) para misturar tecnologia e direito processual com respeito à lei e, principalmente, à Constituição.
Modelar envolve a montagem de uma arquitetura de acoplamento dos poderes cibernéticos (instrumentais com potencial disruptivo jamais visto antes) com as mecânicas tradicionais, seculares, da tecnologia jurídica (o Direito, segundo Ferraz Jr.). O que usar, para que fins e com que limites são diretrizes que fazem parte da governança desse processo revolucionário que permite, finalmente, ajudar diretamente os decisores. Tudo definido com uma política de minimização de riscos7 e de manutenção e melhor concretização do sonho iluminista de igualdade perante a lei, com ética, equidade e respeito aos direitos fundamentais.8
Já temos em funcionamento um modelo, no TJRJ, denominado ASSIS (de assistente de juiz), que concretizou ideia lançada em artigo de 20189 (“para cada juiz um aprendiz”) e que demonstra a possibilidade de usar juridicamente os últimos instrumentos de IA do machine learning para ajudar maximamente os decisores. Tudo em consonância estrita com os comandos constitucionais e legais referentes ao processo judicial de decisão, pela modelagem arquitetural.
Vou seguir, nesta rápida e pontual análise do tema, com o item 6.3 do meu livro Machine Learning nas decisões. O uso jurídico dos algoritmos aprendizes. O capítulo 6 é dedicado a uma abordagem técnico-jurídica dos Modelos (enquanto técnica metódica da geração de soluções tecnológicas) e está voltado principalmente aos estudiosos do Direito.
Os Céticos antropológicos10
Em relação à questão da automação de decisões, é comum ver-se os céticos antropológicos se encherem de esperança de resolver certos “problemas e deficiências dos sistemas jurisdicionais” pela via uniformizadora da tecnologia. Pensam em livrar-se das incertezas introduzidas nas soluções pelos sistemas cognitivos humanos (os juízes e suas subjetividades) e da ineficiência das mecânicas jurídicas de revisão/uniformização.
Segundo o sonho dessa corrente cético-antropológica e ufano-tecnológica, é melhor uma máquina juiz, bem calibrada, que vai tratar a todos igualmente, do que:
(i) um time de magistrados humanos, cada um com sua solução bem talhada para cada caso, e
(ii) a fluidez de mecanismos de acerto e uniformização também conduzidos por humanos.
Para eles, basta chegar ao modelo adequado para se produzir, de repente, o cenário desejado de justiça e isonomia das decisões.11 Eles consideram, ainda, a paradoxalidade do Direito como apenas uma quimera filosoficamente alimentada – por humanos, portanto! Algoritmos não filosofam! – e o esforço de “valorizar a contextualização para a promoção da Justiça” é apenas a tentativa, segundo eles, de deixar para os juízes (sistemas psíquicos) a tarefa de decidir. Trata-se da prática conservadora e retrógrada que egoisticamente batalha pela manutenção do poder dos decisores humanos.
Em prol de suas posições, realçam os defeitos existentes no modelo tradicional, operado por decisores humanos, cuja abundância ninguém contesta: atrasos, inconsistências, erros grosseiros, preconceitos de todos os matizes exprimindo-se em decisões (vieses), os óbices à imparcialidade, a dependência de estruturas psíquicas pré-organizadas e socialmente condicionadas e por aí vai.
E alinham, sem grande compromisso – mais como promessa com cumprimento diferido ou postergável! - as imensas vantagens que podem ser trazidas por uma central única de decisão. Afinal, em todos os processos, estaria operando o mesmo juiz-máquina, ubíquo, poderoso, rápido e quase-onisciente, pois capaz de antever os problemas e turbulências que o evolver da realidade trará à luz. A maneira de “ver, analisar os dados e decidir” seria única, universal e isonômica. O dar a todos o que é seu seria mera conseqüência, óbvia e inescapável, na construção de uma sociedade intrinsecamente justa. As injustiças seriam episódicas, transitórias, até que entrasse em cena o juiz-máquina e corrigisse a falha.
As utopias sempre foram permitidas, cumpriram seu papel impulsionador e, uma vez implementadas, muitas vezes demonstraram seu lado mau. Preditivamente, pode-se pensar nos controladores da central, nos dedos únicos que conformarão o juiz-algoritmo e apertarão o botão vermelho de sua ativação. Pensando-se na linha de Ferraz Jr, do Direito como tecnologia social (um modo de obter coisas e produzir resultados, impositivamente), a centralização envolve a dação de um poder absoluto ao supervisor treinador/definidor/controlador do algoritmo.
Até que ponto uma ferramenta central, única e artificial, expressão de uma subjetividade psíquica, real e suprema, simples ou complexa (o que é irrelevante), é melhor que uma profusão de subjetividades difusas cujas decisões sejam submetidas a mecanismos de uniformização como é atualmente?
O computador boca-da-lei tornaria realidade o sonho de muitos em dar realidade aos seus próprios interesses. Será que a tendência democrática está mesmo fadada ao insucesso?
O processo, mesmo na sua expressão eletrônica (e-processo), não é o resultado de uma evolução natural, casuística, por variação e seleção. O processo tem suas raízes fortemente fincadas na letra constitucional, cujo sistema se ramifica e alarga pelos ramos da lei infraconstitucional. Mas a seiva que tudo alimenta vem das raízes para os ramos. O que isso quer dizer? Que a conformação do processo é um produto constitucional, de vontade e não do acaso, fora do alcance mutilador de arroubos utópico-tecnológicos. Defeitos podem ser minorados, virtudes podem ser aperfeiçoadas. Mas não se pode descolar o ramo do tronco, nem das raízes.
A tecnologia pode muito, mas não pode tudo.
Nem as possibilidades técnicas atuais – que são espetaculares -, nem os interesses humanos, sempre tão díspares, parecem se conjugar para realizar o desejo dos céticos antropológicos.
Tecnicamente, sabe-se muito bem, os algoritmos que aprendem (afinal, tratamos aqui do machine learning) são escravos do passado humano: reproduzem os padrões que os humanos selaram em suas decisões. Em quais decisões é a grande questão.12
Com viés? Sem viés? Com correção? Sem correção? Convenientes aos interesses de A, de B? Enfim, das decisões usadas para o treinamento, os algoritmos “aprenderão” (extrairão suas regras de ação ou funções) e replicarão se se depararem com casos idênticos (apenas outras instâncias dos mesmos casos).
Como informa Pedro Domingos, “[...] sem a orientação do conhecimento fornecido pelo cérebro de um adulto, eles podem facilmente se desviar do objetivo.”13 E isso não é apenas na passagem da situação de algoritmo-bebê para um algoritmo treinado. Toda expansão estrutural-operativa suporá, sempre, um “grande corpo de conhecimento, seja ele fornecido por humanos ou aprendido em execuções anteriores [nos casos de aprendizado por reforço], e usá-lo para orientar novas generalizações a partir de dados.”14 O aprendizado por reforço supõe um objetivo definido, prévio, e o aprendizado se faz mediante tentativa e erro, com recompensa ou penalização a cada tentativa. O algoritmo que aprendeu sozinho a jogar GO treinou-se por aprendizado com reforço, uma técnica de difícil consideração para aplicação na decisão judicial. A técnica da classificação15 é a que se tem mostrado mais adequada para o caso e, nela, utiliza-se em geral o aprendizado supervisionado.
Toda situação nova (os textos usam muito a palavra “novo” para dizer “não visto”, o que é diferente, [conforme explicado no item 2.6 do Capítulo 2 de meu livro], exigirá a chamada de um sistema psíquico cuja decisão poderá, aí sim, ser aprendida como padrão para casos indutivamente assemelhados que venham a aparecer no futuro.
Tais modelos – o algoritmo mais os padrões extraídos dos dados, das instâncias tomadas para aprender e testar – serão fiéis ao aprendido, não desenvolverão nada por si mesmos, nem bondades nem maldades, nem tendenciosidades inexistentes nos dados, nem virtudes que os humanos ainda não aprenderam a cultivar e inseminaram em suas decisões.
A alma de um modelo são seu algoritmo e a base de conhecimento que criou ao aprender (as funções de conversão de entradas em saídas). Esse conjunto constitui uma máquina virtual, opera como uma máquina, mecanicamente, causalmente e deterministicamente: só não entregará o resultado correspondente àquela entrada se houver um defeito, algo que o impeça de cumprir todos os passos operativos até o stop run. Nenhum modelo, de repente, terá uma noite ruim de desilusões e se transformará, moto proprio, numa arma de destruição em massa. Algoritmo não tem vontade ou intencionalidade, com diria Weber [Anexo 5, item 2, do livro].
Tecnologia: como emular os humanos e suas subjetividades?
Vale realçar, ainda sob o aspecto técnico, ser consenso que o homem, suas circunstâncias de vida e linguísticas constituem uma realidade cuja expressão é impossível modelar tecnologicamente. A aceitação desse limite vem-se exprimindo, no âmbito jurídico, de diferentes maneiras, ao longo das décadas, valendo citar Hart e sua teoria da textura aberta e Dworkin e a teoria principiológica subsequente. Sem mecanismos de ductibilidade, a tecnologia jurídica (o Direito) ficaria inviabilizada, como demonstra a próxima transcrição. Os códigos e seus enunciados normativos ganharam, por isso, forma adequada (abertura) para permitir a operação no nível programático (expressão de Niklas Luhmann16, para se referir à aplicação) e a entrega da prestação jurisdicional de viés “atualizante”.
Uma base constitucional erigida exclusivamente sobre normas-regras seria inflexível e não permitiria a “releitura atualizante”, preconizada por Gadamer17 e captada por Dworkin, a qual é indispensável para a permanência temporal das normas postas. A Constituição deve unir abertura e amplitude de normalização jurídica com determinação obrigatória, segundo Hesse, pois isso possibilita atender à transformação histórica e à disparidade das condições de vida, o que é indispensável para a estabilização “[...] capaz de preservar a vida da coletividade de uma dissolução em mudanças permanentes, imensas e que não mais podem ser vencidas.”18 Assim se obtém o que Hesse chama de mobilidade constitucional.19
Não é outro o entendimento de J.J. Gomes Canotilho. Referindo-se ao sistema jurídico do Estado de direito democrático português, afirma-o um sistema normativo aberto de regras e princípios. A juridicidade advém da dinâmica inerente ao sistema de normas que o representa. É aberto porque “[...] tem uma estrutura dialógica [...], traduzida na disponibilidade e ‘capacidade de aprendizagem’ das normas constitucionais para captarem a mudança da realidade e estarem abertas às concepções cambiantes da ‘verdade’ e da ‘justiça’ [...]”.20 Feito de normas para estruturar expectativas referentes a valores, programas, funções e pessoas, diz-se também normativo, continua o mestre português. E conclui ser um sistema de regras e princípios porque as normas podem “[...] revelar-se sob a forma de princípios como sob a sua forma de regras.” 21
Os princípios juridicamente válidos extrapolam o conceito positivista do Direito pois, estruturalmente, tornam obrigação jurídica a busca de concretização, ainda que aproximativa, de um ideal moral. Princípios, como o da dignidade da pessoa humana, da liberdade, da igualdade, da democracia e do Estado Social, estabelecem uma forçosa relação entre direito e moral e exigem, em casos de colisão ou vaguidade, lidar com as noções de Direito, como é, e Direito como deveria ser.22 O Direito deve instituir-se como um vir a ser em constante otimização, sem ponto de parada ou interrupção. Os princípios exigem, dos agentes políticos, sejam legisladores sejam aplicadores, uma perspectiva de contínuo e inesgotável aprimoramento da realidade social.23 24
Embora o texto se refira à função dos princípios para a duração das constituições, sabe-se que no nível das regras a ductibilidade é tão importante quanto, restrita apenas aos lindes constitucionalmente estabelecidos. Foi o que evidenciou Hart com sua teoria da textura aberta. Afinal, um legislador cansado da corrida da realidade precisa ser socorrido por um aplicador da lei ao caso concreto. A produção legislativa intencionalmente se faz modelável pelo magistrado.
Em nota anterior, grifei a alusão de Canotilho à capacidade de aprendizagem do Direito (da “tecnologia jurídica” capturar as mudanças da realidade), condição de sua permanência e operação, feita pela via dos sistemas psíquicos. É importante atentar que nesse nível, apesar do termo idêntico (aprendizagem), fala-se de coisas diferentes: uma coisa é o aprender psíquico pelo qual se encontram os caminhos operativos para enfrentar a realidade mutante; outra coisa é o aprender maquínico, imitativo, replicador de padrões aplicados no passado, presentes em bases de dados com as quais se “aprende”.
A fluidez estrutural atualizadora, proporcionada ao sistema funcional do Direito pelos sistemas psíquicos, nos espaços criados pela textura aberta, continua inalcançável sob o ponto de vista técnico. Retoricamente, pode-se tergiversar à vontade, como sói acontecer no âmbito jurídico. Teubner realça que o Direito tem seus dois círculos de argumentação: o decisório e o argumentativo.25 Essa dualidade generativa de estruturas operacionais – dois círculos que operam isoladamente, no plano dos dados, mas são abertos estruturalmente pela natureza mesma dos sistemas psíquicos - não se transpõe para o âmbito tecnológico. Ela funciona no sistema social porque os operadores – os provedores das estruturas - são psíquicos e participam dos dois âmbitos, reconstruindo estruturas permanentemente e aplicando as versões renovadas cá e lá.
Opacidade e intencionalidade: fragilidades da tecnologia.
Cathy O´Neil26 dá algumas características de um modelo perigoso, valendo destacar aqui duas delas: ser opaco e ser projetado para atuar em detrimento dos que estão submetidos a ele.
A opacidade é inerente aos modelos de aprendizado de máquina, classificados sempre como black box, inauditáveis etc.27 O fato de ser projetado para prejudicar os destinatários de sua aplicação envolve uma intencionalidade espúria de quem projetou e, naturalmente, demonstra o caráter ferramental, maquínico, não autônomo, do modelo.
Tudo isso expõe o desafio que está posto para os juristas: entender os limites e as possibilidades dos modelos de aprendizado de máquina – os ferramentais tecnológicos mais avançados de que puderam lançar mão até hoje - e definir onde e como usá-los no âmbito do e-processo. [Definir a modelagem adequada, jurídica!] No último capítulo de Machine learning nas decisões, trago uma sugestão de modelagem que, a meu ver, espanca os riscos apontados e, sem violar o sistema processual constitucionalmente estabelecido, permitirá que os magistrados se beneficiem maximamente da tecnologia.