Tecnologias e Processos: uma reflexão à luz das garantias fundamentais do processo

Resumo:


  • A tecnologia no âmbito judicial deve respeitar as garantias fundamentais do processo, como o devido processo legal, o contraditório e a ampla defesa.

  • O uso de inteligência artificial e robôs como o "Victor" do STF auxilia na gestão processual, mas levanta questões éticas e de transparência.

  • É essencial que a implementação de tecnologias no sistema de justiça seja feita de forma democrática, sem comprometer as garantias processuais e a busca pela justiça.

Resumo criado por JUSTICIA, o assistente de inteligência artificial do Jus.

As tecnologias, embora irrefreáveis, não devem permitir violações das garantias fundamentais e do devido processo legal, exigindo a construção democrática dos algoritmos e o uso da inteligência artificial a serviço dos jurisdicionados

Quando pensamos na relação entre tecnologias e processos, logo nos vem à mente aspectos como digitalização de processos, uma maior acessibilidade, etc. Entretanto, temos também que pensar na tecnologia diante das chamadas garantias fundamentais do processo, como o devido processo legal, conforme a CF-88,  a exigência de fundamentação das decisões jurídicas, o direito ao contraditório e à ampla defesa, a existência do chamado juiz natural, o acesso à justiça, a publicidade dos atos processuais etc.

        Na dimensão do direito ao contraditório e à ampla defesa, por exemplo, quando as partes litigam, podem influenciar na decisão judicial. Não estão ali apenas para serem ouvidas, mas para colaborar com a decisão que ficará a cargo do juiz. Por isso, podemos questionar: em que medida a utilização de novas tecnologias prestigia a fundamentação das decisões? Ou em que medida o uso dessas tecnologias interfere no exercício do contraditório? 

            Afinal, sabemos que existe um movimento de exponencialidade do uso de ferramentas, com a promoção da Justiça 4.0 e do acesso à Justiça Digital, com importante papel do Conselho Nacional de Justiça  – com a publicação, por exemplo, de Justiça em Números com dados estatísticos sobre o volume de processos existentes no Brasil, dado que não existia em 2004, quando o CNJ foi criado, e publicações como Inteligência Artificial e Poder Judiciário Brasileiro de 2019  – que permite um prognóstico de que cada vez mais teremos que lidar com o repertório de ferramentas tecnológicas que já começam a ser aderidos pelos Tribunais de Justiça e por tribunais superiores, como o próprio STF, para debelar um elevado número de processos.

            Com isso, o STF hoje possui um “robô”, o Victor, desenvolvido em parceria com a UnB. E há outros modelos, como o Sócrates do STJ; o Girimum, a Clara e o Poti, do TJRN; o Radar do TJMG; a Elis do TJPE etc. Porém, por mais que hoje os “robôs” existentes sirvam para um auxílio à tomada de decisões, com a identificação de dispositivos legais violados, listagens de casos análogos decididos a verificação de prescrição ou da competência, tudo isso se dá, no entanto, a partir de construções algorítmicas ainda pouco conhecidas. O alto índice de acurácia obtido até agora com o uso desses “robôs” (que já não correspondem a uma discussão sobre o futuro, mas sobre o presente do Direito) não tornam menores os riscos que sugerem: datasets (bancos de dados) viciados; opacidade de atuação e consequências técnicas de machine learning (aprendizagem das máquinas a partir de comandos dados por seres humanos) e deep learning (técnica em que as máquinas aprendem com os próprios dados); promoção de discriminações, etc.

            E sabemos que os algoritmos são opacos, nem os programadores têm acesso à total compreensibilidade a seu respeito. Os algoritmos podem ser enviesados (como nos demonstra o caso de Eric Loomis). Além disso, a atuação de “robôs” pode interferir justamente na construção do pronunciamento judicial e na fundamentação das decisões, podendo levar a interferências na accontability, na governança, na transparência – interferências que afetarão o devido processo legal. Por isso, hoje uma discussão importante é a possibilidade da construção cooperativa de algoritmos, sem que haja mecanismos ocultos para as partes litigantes no processo e na tomada de decisões pelo julgador, o que violaria garantias processuais constitucionais, como o contraditório e a ampla defesa. Nesse sentido, hoje há projetos de lei, como o PL 5051/19, tramitando no Senado e o PL 21/20, tramitando na Câmara dos Deputados; além da Resolução nº 332 de agosto de 2020 do CNJ e de legislação já existente, como a Lei Geral da Proteção de Dados.

         Esse conjunto referido demonstra que há um movimento de se buscar regulamentar o uso dessas ferramentas, que têm encontrado tantos entusiastas entre os nossos julgadores, com a AJUFE se pronunciando a favor de sua adoção pelos tribunais e o STF sendo a primeira suprema corte do mundo a adotar um modelo de inteligência artificial, o Victor, ainda voltado para separar peças e classificar documentos, mas que poderá vir a ter crescimento exponencial. Daí nos preocuparmos hoje com as implicações éticas e a transparência no uso dessas ferramentas, cabendo reflexões. 

            Por exemplo, podemos nos questionar sobre alguns aspectos: (1) será que a Inteligência Artificial não pode ser menos enviesada do que o próprio sistema de justiça, se os bancos de dados que alimentarem os “robôs” forem construídos democraticamente  e ouvindo segmentos da sociedade que hoje sofrem, por exemplo, com a seletividade do sistema penal? (2) a polissemia da expressão “Justiça” não será uma dificuldade intransponível pela inteligência artificial, no sentido de que um “julgamento justo” poderá se apoiar em diferentes concepções de Justiça, que não poderão ser captadas pela literalidade dos modelos matemáticos e algorítmicos dos “robôs”? (3) o uso dos “robôs”, visando mais eficiência não corresponde a uma desvalorização dos técnicos do Judiciário? (4) não chega a parecer paradoxal o “robô” Victor ser menção a Victor Nunes Leal, ministro do STF cassado pela Ditadura, que usava dados de julgamentos de outros ministros para exigir deles coerência, em um trabalho de convencimento, e não de precisão, e que levou à criação das chamadas Súmulas – sendo Nunes Leal um ser humano usando de sua inteligência, muito diferente do que será Victor? (5) a inteligência artificial não impedirá a inteligência humana de dar soluções mais criativas em alguns processos?

Justicia, a inteligência artificial do Jus Faça uma pergunta sobre este conteúdo:

            Na leitura de Eles os juízes, vistos por um advogado do processualista italiano Piero Calamandrei, constata-se em algumas passagens que litigar pode querer dizer que se tem fé na seriedade do Estado, lhe dando a possibilidade de, ao defender o direito de um cidadão, reafirmar sua razão de ser. Por isso, esse processualista diz que se visse os tribunais fecharem por falta de causas cíveis, não saberia se deveria se alegrar ou se entristecer: iria se alegrar, diz, se tal falta de causas cíveis se dessem porque ninguém mais estaria fazendo algo a ponto de surgir litígio; mas se entristeceria se isso se desse por não haver mais ninguém no mundo disposto a se rebelar contra uma injustiça. Esse é um dos pontos centrais que se pode ter na apreciação crítica do tema: a suposta necessidade de se resolver o volume de processos, empregando “robôs”, em vez da ampliação de profissionais que dessem celeridade aos processos, não poderá levar as pessoas a uma descrença nos tribunais, ao se começar a existir uma série de litígios com fim previsto e desfavorável aos litigantes justamente devido ao uso de “robôs”?

              Em suma, podemos concluir que as tecnologias, embora irrefreáveis, não devem permitir violações das garantias fundamentais e do devido processo legal, exigindo a construção democrática dos algoritmos e o uso da inteligência artificial a serviço dos jurisdicionados, sem que a eficiência e a racionalidade sejam os fins a serem alcançados, mas a Justiça.

 

Sobre o autor
Carlos Eduardo Oliva de Carvalho Rêgo

Advogado (OAB 254.318/RJ). Doutor e mestre em Ciência Política (UFF), especialista em ensino de Sociologia (CPII) e em Direito Público Constitucional, Administrativo e Tributário (FF/PR), bacharel em Direito (UERJ), bacharel e licenciado em Ciências Sociais (UFRJ), é professor de Sociologia da carreira EBTT do Ministério da Educação, pesquisador e líder do LAEDH - Laboratório de Educação em Direitos Humanos do Colégio Pedro II.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos