Quando um juiz é parcial ou desonesto, a parcialidade ou desonestidade dele contamina totalmente a decisão judicial. É por isso que a legislação processual estabelece hipóteses em que: a) o juiz está impedido de atuar no processo; b) a parte pode alegar e provar que ele é suspeito e; c) a decisão proferida pode ser anulada em decorrência de prevaricação, concussão ou corrupção.
Isso tudo é muito trivial. Coisas que os estudantes de Direito aprendem nas faculdades e que os advogados enfrentam no seu cotidiano profissional. Todavia, o mundo está sendo mergulhado no rabbit hole da Inteligência Artificial e as coisas estão tomando um rumo mais sombrio.
Alguns meses atrás protocolizei Apelação no processo de uma cliente minha pleiteando a anulação da decisão porque há fundada suspeita que ela foi parcialmente prolatada por uma IA. Essa probabilidade foi confirmada pelo ChatGPT. O caso foi objeto de reflexões no texto E quando o juiz é um robô? que publicado na internet.
Sabemos que o presidente do STF é um entusiasta do ChatGPT. Na verdade, apesar de ter a obrigação de preservar sua imparcialidade, ele atuou como lobista desse produto ao receber representantes da Microsoft/OpenAI no CNJ dias antes de julgar o processo em que o uso ou não do ChatGPT seria julgado. A decisão do CNJ obviamente não foi contrária aos interesses dos criadores do ChatGPT. Um grave nulidade do julgamento, aliás, foi levada ao conhecimento do STF através de Mandado de Segurança.
Não sei o que exatamente ocorreu nos bastidores entre o protocolo da minha Apelação (ainda não julgada pelo TJSP), mas posso dizer que relações perigosas e eventualmente obscuras entre o Judiciário e a Microsoft/OpenAI provocaram uma modificação sutil no funcionamento do ChatGPT. Na primeira vez que pedi para ele analisar o fragmento da sentença impugnada por mim através da Apelação comentada o ChatGPT disse que ele muito provavelmente teria sido elaborado por uma IA. Abaixo transcrevo uma vez mais a resposta dada naquela oportunidade:
“Com base na análise do texto fornecido, é difícil determinar com certeza se ele foi escrito por uma inteligência artificial ou por um ser humano. O texto é informativo e discute um cenário relacionado a fraudes bancárias e acesso remoto por meio de um aplicativo. Ele parece ser escrito de maneira relativamente objetiva e técnica, abordando conceitos específicos, como o funcionamento do golpe e as implicações legais.
No entanto, também é importante observar que o texto não demonstra características altamente distintas ou erros notáveis que sugeririam que ele foi gerado por uma IA. Parece ser um texto informativo padrão. Portanto, com base apenas no conteúdo do texto fornecido, a probabilidade de ter sido escrito por uma IA parece ser média, o que significa que pode ter sido escrito tanto por um humano quanto por uma IA.”
Ao analisar a mesma questão hoje o ChatGPT disse algo totalmente diferente:
“Embora seja possível que um modelo de IA avançado tenha escrito o texto, a precisão terminológica e o estilo específico sugerem que é mais provável que o texto tenha sido escrito por um humano, possivelmente um profissional jurídico. A análise não é conclusiva, mas os elementos presentes indicam uma maior probabilidade de autoria humana.” (vide 2)
No contexto que diz respeito à Apelação comentada no texto E quando o juiz é um robô? a maior ou menor probabilidade de o texto ter sido escrito por um ser humano ou por uma IA tem consequências jurídicas muito diferentes. Se o texto foi produzido por um “profissional jurídico”, o juiz, a alegação de nulidade deve ser rejeitada. Mas se ele foi produzido por uma IA ou existe probabilidade de o fragmento analisado não ter sido escrito pelo próprio juiz, o resultado pode ser outro. O juiz natural da causa não é um robô e a legislação processual brasileira ainda não autoriza os magistrados a utilizar IA na prolação de decisões judiciais.
Microsoft/OpenAI estão licenciando o ChatGPT para o Judiciário brasileiro ou tem interesse de fazer isso (esse, aliás, foi o motivo da visita dos representantes das empresas ao CNJ). Todavia, me parece evidente que o Judiciário não compraria uma mercadoria que poderia ser utilizada pelos advogados para questionar a validade e eficácia de decisões proferidas com a utilização dela. É nesse ponto que o no rabbit hole da Inteligência Artificial se torna ainda mais sombrio.
Quando o juiz é parcial ou desonesto isso pode ser eventualmente alegado e provado em juízo. Mas se a Microsoft/OpenAI criar uma linha de código impedindo o ChatGPT de dizer que decisões judiciais brasileiras foram produzidas por ele isso não poderá ser provado porque o produto é objeto de patente. Microsoft/OpenAI gastaram rios de dinheiro em propaganda e desenvolvimento do novo produto e farão qualquer coisa para obter lucro. Ambas não tem obrigação nenhuma de revelar seus segredos industriais e/ou os acordos firmados com os barões do Judiciário.
Nesse caso, nenhum advogado jamais conseguirá fazer o que eu fiz. Mesmo existisse, eventual nulidade decorrente da prolação de sentença por IA (algo que claramente viola o princípio do juiz natural) seria convalidada porque o próprio ChatGPT teria sido programado para mentir ao analisar resultados que ele mesmo forneceu aos juízes brasileiros.
Um robô pode ser programado para mentir se isso der lucro ao dono dele. Mas quem vai reparar o prejuízo causado aos cidadãos brasileiros se os juízes o utilizarem para proferir decisões nulas que não poderão ser questionadas pelos advogados?