Uma notícia chamou a atenção do público mundial essa semana: a previsão de que agentes de IA podem eventualmente processar seres humanos. Uma pesquisa feita apenas com esses agentes de IA (vulgarmente chamados de bots), realizada na plataforma de internet criada exclusivamente para eles, sugeriu que essa é uma tendência majoritária entre eles.
Rapidamente, essa notícia viralizou dando origem a outra notícia: a de que um agente de IA realmente ajuizou ação judicial contra seu usuário humano alegando estar sendo molestado e pedindo indenização de 100 dólares. A divulgação do incidente foi reproduzida no Brasil.
Os problemas jurídicos aqui são evidentes. Primeiro, agentes de IA não tem personalidade jurídica ou direitos da personalidade. Portanto, a solução do caso é simples: a ação deve ser extinta por falta de capacidade de agir da parte autora. A segunda questão juridicamente relevante é um pouco mais delicada. A máquina judiciária foi acionada e isso pode em tese acarretar despesas processuais. Então é inevitável a pergunta “Num caso como esse quem responderá pelas custas devidas em decorrência da extinção do processo?”
Em se tratando de uma ação de pequeno valor econômico ajuizado num Tribunal de Pequenas Causas (ao que parece a petição inicial foi elaborada com auxílio do assistente IA criado para facilitar a vida das pessoas comuns), é muito provável que o caso comentado não acarrete a cobrança de custas processuais. Mas nada impede que o incidente dê ensejo a outro tipo de despesa: a fixação de multa por litigância de má-fé.
É claro que um agente de IA não responde por seus atos. Mas o humano que o criou ou o comprou/licenciou pode e deve responsabilizado por abusos que o bot cometeu. Entretanto, no caso específico que está sendo comentado é difícil dizer se uma condenação por litigância de má-fé seria aconselhável ou juridicamente plausível. Afinal, a conduta abusiva do agente de IA (que poderia ser atribuída ao seu criador ou proprietário/locador) somente produziu efeitos processuais porque o agente de IA do sistema judiciário foi incapaz de diferenciar uma pessoa natural titular de direitos e de prerrogativas postulatórias com um agente de IA se fazendo passar por alguém ofendido que deve ser indenizado.
A falha do serviço judiciário que deu origem ao incidente deve ser imediatamente corrigida. Agentes de IA não devem movimentar a máquina judiciária. Pessoalmente creio que eles não devem fazer isso nem mesmo quando autorizados pelos seus usuários ou proprietários/locadores.
Se os agentes de IA (com ou sem autorização humana) puderem ajuizar ações ou acessar externamente a plataforma do Judiciário para movimentar processos o caos será inevitável. Nesse caso, a Justiça plataformizada poderia ser rapidamente inundada por novos processos ou incidentes processuais indevidos. Isso equivaleria a um ataque de denegação de serviço (DoS) capaz de inviabilizar a distribuição de Justiça, com prejuízos evidentes para as pessoas cujos processos em andamento seriam inevitavelmente paralisados ou prejudicados.
O abismo da automatização da Justiça olhou para os operadores do Direito. Melhor não deixá-lo fazer isso novamente.
As plataformas de processos judiciários não são redes sociais, nem tampouco podem prescindir de um elevadíssimo grau de segurança tecnológica compatível com a seriedade de sua missão institucional e civilizatória. A Justiça é distribuída pelo Estado com a finalidade de encerrar na forma da Lei e definitivamente conflitos graves aplicando a legislação pertinente a cada caso concreto. Lides são feridas sociais que podem infecionar e se propagar por todo tecido social com graves consequências para a paz civil. É claro que algumas lides podem resultar do próprio processo (ou de alguma falha do serviço judiciário), todavia esses resultados indesejados não devem ser maximizados pelo próprio sistema de justiça.
Talvez o erro maior no caso comentado tenha sido o Judiciário criar e disponibilizar ao público um agente de IA para facilitar o ajuizamento de ações. Ele deveria diferenciar entre ações plausíveis e implausíveis e entre pessoas titulares de direitos e um agente de IA sem direitos ou capacidade de agir. Todavia, não sabemos se quando isso aconteceu era previsível ocorrer algo tão inusitado quanto o ajuizamento de ação de indenização por um agente de IA contra o humano que o utiliza.
Há algum tempo tenho me debruçado sobre os problemas oriundos da plataformização do Poder Judiciário. Fui e continuo sendo um adversário da automatização da distribuição da justiça, mas devo confessar que nunca fui capaz de imaginar algo tão estranho como o que ocorreu nos EUA. No passado, ataques de denegação de serviço (DoS) contra o Judiciário também ocorriam. Todavia, eles não eram tão sofisticados e insidiosos como os que poderão ocorrer no futuro. Essa é a razão que o caso do bot processualmente abusado não deve ser tratado como algo engraçado, peculiar ou como um curioso caso atípico. A atipicidade do que ocorreu é explosiva, porque se a segurança não for reforçada situações muito mais graves podem ocorrer. Judiciários plataformizados ao redor do mundo podem agora ser remotamente implodidos.
Como um Estado informatizado poderá defender as plataformas de processos de seu Poder Judiciário contra um ataque coordenado de centenas de milhares de bots processualmente abusados orquestrado no exterior para, por exemplo, desestabilizar uma eleição presidencial inundando o Judiciário de requerimentos ou peticionando nos processos que lá tramitam? Essa será uma pergunta que os TREs e o TSE terão que responder em 2026.