Algoritmos podem ser rápidos, mas só a consciência é justa.

21/10/2025 às 16:07

Resumo:


  • A tecnologia avança, mas o ser humano continua insubstituível, sendo o único capaz de indagar sobre o sentido da vida, criar significados e contemplar o mistério da existência.

  • A "smartização" da sociedade é irreversível, com sistemas inteligentes já presentes no cotidiano, inclusive no campo jurídico, onde se debate o papel de advogados e juízes-robôs em alguns países.

  • A supervisão humana ativa é essencial no uso de inteligência artificial no Judiciário, garantindo a integridade das decisões, evitando a desumanização da justiça e preservando a confiança social nas decisões proferidas por seres humanos.

Resumo criado por JUSTICIA, o assistente de inteligência artificial do Jus.

“Concern for man and his fate must always form the chief interest of all technical endeavors.” (Albert Einstein)

Solainy Beltrão dos Santos1

O cérebro eletrônico faz tudo/ Faz quase tudo/ Mas ele é mudo/O cérebro eletrônico comanda/Manda e desmanda/ Ele é quem manda/ Mas ele não anda/Só eu posso pensar/Se Deus existe/ (...)/Só eu/Eu cá com meus botões/De carne e osso/ Eu falo e ouço (...).” Em 1969, Gilberto Gil já entoava a tensão entre homem e máquina na canção “Cérebro Eletrônico.” Mais de meio século depois, segue-se sem testemunhar uma “IA” capaz de replicar integralmente o “EU”.

A máquina calcula, responde, executa tarefas com precisão determinante, mas ela não sente, não hesita, não sonha. O ser humano permanece como o único a indagar sobre o sentido da vida, que cria significados, que contempla o mistério da existência e ousa imaginar o divino. A tecnologia avança, mas o “eu” continua insubstituível.

Por outro lado, a “smartização” da sociedade é um fenômeno irreversível. Chatbots, sistemas inteligentes, mecanismos de controle, diagnósticos automatizados, recomendações e modelos preditivos já fazem parte do cotidiano. No campo jurídico, essa transformação também se impõe. Debate-se amplamente o papel do advogado-robô, da administração pública digital e, em determinados países, já se discute a atuação de juízes-robôs. Um exemplo é a Estônia, que, por meio de uma estratégia voltada à inteligência artificial, vem desenvolvendo sistemas para julgar causas de pequeno valor.2 De forma semelhante, a China já conta com um serviço de litigância online, no qual os processos são analisados por uma juíza-robô.3

Diante desse cenário de mudanças rápidas, assenhorado pelo massivo uso de tecnologia, surge uma questão fundamental: no âmbito da atividade jurisdicional, seria legítimo e razoável permitir que a máquina decidisse sem a intervenção do humano?

A apresentação de exemplos reais oferece uma visão inicial esclarecedora. Em 2013, no estado de Wisconsin, Estados Unidos, Eric L. Loomis foi sentenciado a seis anos de prisão após furtar um veículo e empreender fuga. A decisão judicial foi influenciada por um software de avaliação de risco criminal denominado COMPAS. Ao justificar a sentença, o magistrado ressaltou a gravidade do crime, os antecedentes criminais e o fato de que a ferramenta indicava um risco extremamente elevado de reincidência.4 Caso semelhante ocorreu com Paul Zilly, condenado pelo furto de um cortador de grama e de algumas ferramentas. O relatório gerado pelo sistema mencionado apontou alto risco de reincidência em crimes violentos e risco médio de reincidência geral, o que impactou diretamente na decisão do juiz.

No contexto brasileiro, é cada vez mais comum ouvir nomes como Victor, Sócrates, Maria, Elis, Júlia, Larry, Judi, Adele, Galileu, Assis, entre outros. Apesar da familiaridade dos prenomes, nenhum deles se refere a pessoas: são robôs ou sistemas de IA já incorporados ao funcionamento do Judiciário nacional. Todavia, o fato de receberem nomes próprios não lhes confere a capacidade de julgar seres humanos.

Yuval Noah Harari destaca que, “não há motivo para supor que a inteligência artificial vá desenvolver consciência, porque inteligência e consciência são coisas muito diferentes. Inteligência é a aptidão para resolver problemas. Consciência é a aptidão para sentir coisas como dor, alegria, amor e raiva.”5 Harari também alerta para a tendência humana de confundir essas duas dimensões, já que, nos mamíferos, inteligência e consciência caminham juntas. Enquanto os seres humanos resolvem problemas sentindo, os computadores o fazem por vias completamente distintas.

Sob o argumento da modernização e pressionado pelo crescente volume de demandas, o Judiciário tem recorrido à inteligência artificial amparado nos princípios da eficiência administrativa (art. 37 da CF), da razoável duração do processo (art. 5º, LXXVIII, da CF) e até mesmo no cumprimento de metas quantitativas que serve como critério para promoção de magistrados (art. 93, II, c, da CF). No entanto, esse movimento, se conduzido de forma apressada ou meramente instrumental, pode levar a uma aplicação superficial da tecnologia, esvaziando seu potencial transformador e, pior, desumanizando a justiça. Tal movimento ameaça sua legitimidade simbólica, i.e, a confiança social de que as decisões judiciais são proferidas por seres humanos dotados de empatia e senso moral.

Se a justiça exige diálogo e compreensão intersubjetiva (Habermas); se o direito não é apenas regras, mas princípios morais que exigem interpretação humana (Dworkin) e se julgar é um ato político e ético (Arendt), então a adoção plena de tecnologias pelo Poder Judiciário exige mais do que infraestrutura: requer letramento digital dos seus operadores. Ademais, é indispensável garantir transparência, mecanismos de controle e auditabilidade em todas as fases de desenvolvimento e aplicação desses sistemas, sob pena de comprometer os próprios fundamentos da justiça.

É recomendável a presença de supervisão humana ativa, sobretudo considerando que o ato de julgar envolve valores éticos e morais que não podem ser plenamente codificados. Para garantir a integridade das decisões, é essencial que atos decisórios sejam validados por magistrados humanos. Embora não haja obrigação de comunicar ao jurisdicionado o uso de IA no processo decisório, o julgador deve informar ao tribunal ao qual está vinculado, por meio dos sistemas de controle interno, permitindo, assim, a realização de auditorias quando necessário.6

Outrossim, o uso indiscriminado da inteligência artificial, sem o devido letramento digital e como substituto de atividades humanas que demandam raciocínio crítico, pode acarretar sérias consequências para a formação intelectual e social. Além da redução do pensamento crítico (atrofia cognitiva, dependência tecnológica, perda de autoria, sedentarismo mental etc.), o enfraquecimento da criatividade já vem sendo observado entre usuários frequentes de IA7 intensificando a inquietação quanto ao equilíbrio entre os ganhos de produtividade e agilidade proporcionados pela IA e os prejuízos cognitivos associados ao seu uso. É imprescindível, portanto, a implementação de políticas que incentivem a educação crítica em tecnologia, promovendo o fortalecimento do raciocínio humano antes da dependência de sistemas de IA.

No caso de sua utilização pelo Judiciário, a supervisão humana a que se refere a Resolução n. 615/2025 do CNJ, deve ultrapassar a mera conferência, pois deve envolver, a reexecução do percurso lógico percorrido pelo sistema, o que pressupõe a possibilidade de verificação de como a IA chegou ao resultado apresentado. Tal cuidado se impõe sob pena de proferimento de decisões viciadas. Daí a importância do letramento digital e da criação de senso de responsabilidade, de modo que os operadores do Direito sejam capacitados a utilizar a IA como ferramenta de apoio à tomada de decisões com segurança, legitimidade e integridade.8

Isso se justifica, sobretudo, pela opacidade dos modelos algorítmicos, cujo funcionamento permanece inacessível à maioria da população, exceto a especialistas como matemáticos e cientistas da computação, o que torna as suas decisões, mesmo quando equivocadas ou prejudiciais, praticamente incontestáveis.9 Diante disso, é inadmissível delegar à IA decisões de grande relevância, pois estas envolvem dimensões éticas que os algoritmos, por sua natureza, são incapazes de compreender ou avaliar.10

A IA representa uma ferramenta valiosa de apoio ao trabalho dos operadores do Direito, mas não pode substituir a análise crítica e a interpretação próprias da racionalidade humana. Aceitar um juiz-robô em substituição ao juiz-pessoa significaria “julgar sem responsabilidade de julgador”, não havendo direito real ao contraditório diante de uma máquina,11 ainda que as decisões de um robô sejam, em tese, melhores do que a do humano.

A discussão sobre os riscos do uso de inteligência artificial na tomada de decisões judiciais exige, necessariamente, a análise da garantia do devido processo legal, com especial atenção à transparência algorítmica. No atual estágio tecnológico, é inviável delegar a atividade decisória a sistemas automatizados, dada a opacidade dos algoritmos,12 a ausência de mecanismos eficazes para controle de vieses e o risco concreto de introdução de distorções, alucinações informacionais e simplificações indevidas.

Outro relevante problema ético reside no potencial discriminatório dos algoritmos, que pode resultar em diferenciações baseadas em cor, gênero, raça, orientação sexual, deficiência, entre outros marcadores, contribuindo para a reprodução de preconceitos estruturais já arraigados na sociedade.

O construto argumentativo apresentado permite que se conclua que não é recomendável a delegação da atividade decisória para o algoritmo não supervisionado, de forma que as decisões que, porventura, sejam prolatadas, apenas por esse meio, carecem de legitimidade. Se se desconhece os critérios de agrupamento de padrões, a parte prejudicada sequer poderia refutar a decisão, por desconhecer os meios para impugnar a forma como a máquina chegou à sua conclusão.13

Posturas extremadas não se harmonizam com o atual estágio de evolução do Direito, especialmente diante dos riscos que a automação indiscriminada impõe às garantias processuais fundamentais. Além de afrontar princípios estruturantes do Estado Democrático, tal prática pode ensejar a inconstitucionalidade de decisões judiciais proferidas exclusivamente por sistemas de inteligência artificial. A reprodução automática de padrões decisórios, desprovida de análise casuística e da consideração das particularidades fáticas de cada demanda, configura violação ao artigo 93, IX, da CF, que exige fundamentação adequada e contextualizada por parte do magistrado.

A supervisão humana, repisa-se, é um aspecto fundamental para a utilização de IA nos sistemas de justiça e deve estar presente em diversas fases do desenvolvimento de algoritmos de IA. Além disso, deve haver treinamento e aprendizagem de forma contínua, visando a capacitação e a sensibilização dos profissionais sobre os desafios éticos associados aos vieses, incluindo a compreensão das implicações sociais dos algoritmos.14 Dessa constatação decorre a importância de compreender que o verdadeiro valor, o “novo petróleo”, não reside no uso de tecnologia, em si, mas na sabedoria empregada para aplicá-la.

Em arremate, ainda, a utilização de ferramentas tecnológicas não pode incutir na parte a percepção de que não foi devidamente ouvida ou tratada com justiça, uma vez que os meios eletrônicos carecem de humanização e, por conseguinte, de empatia. Portanto, a incorporação de tecnologias no âmbito judicial não pode negligenciar os aspectos humanos e simbólicos da justiça. Quando a sentença é vista pelos cidadãos apenas como um procedimento técnico, dissociado de sua essência e propósito maiores, corre-se o risco de desumanizá-la. Afinal, como bem expressou Frank Caprio, “sentenciar é tocar a alma da justiça com mãos de empatia, onde cada decisão carrega o peso da vida e o sopro da humanidade.”

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

Referências

BRASIL. Conselho Nacional de Justiça. Resolução nº 615, de 11 de março de 2025. Estabelece diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário. Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf. Acesso em: 21 out. 2025.

BURELL, Jenna. How the Machine 'Thinks:' Understanding Opacity in Machine Learning Algorithms. In: Big Data & Society jan/jun, 2016 Disponível em: https://ssrn.com/abstract=2660674 Acesso em: 16 out. 2025

FERNANDES, Erika Ribeiro; GRAGLIA, Marcelo Augusto Vieira. Inteligência Humana e Inteligência Artificial e os Desafios dos Vieses nos Algoritmos de IA. In: ISUS – Journal on Innovation and Sustainability, São Paulo, v. 15, n. 1, p. 133-142, fev./mar. 2024. Disponível em: http://dx.doi.org/10.23925/2179-3565.2023v15i1p133-142. Acesso em: 16.out.2025.

GERLICH, Michael et al. Estudo sobre os impactos cognitivos do uso frequente de inteligência artificial. In: Massachusetts Institute of Technology (MIT), 2025. Disponível em: https://exame.com/inteligencia-artificial/estudo-do-mit-revela-que-ia-pode-comprometer-atividade-cerebral-e-criatividade/. Acesso em: 15 out.2025.

GRECO, Luís. Poder de julgar sem responsabilidade de julgador: a impossibilidade jurídica do juiz-robô. São Paulo: Marcial Pons, 2020.

HARARI, Yuval Noah. 21 Lições para o Século 21. São Paulo: Companhia das Letras, 2018.

JuLIA. Justice, fundamental rights and artificial intelligence (101046631). Co-financiado pela Comissão Europeia. Disponível em: https://www.julia-project.eu/. Acesso em: 14 out.2025.

MASSARO, Vanessa. O juiz robô: uma realidade. Disponível em: https://hojepr.com/o-juiz-robo-uma-realidade/. Acesso em: 16 out. 2025.

O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça à democracia. Tradução Rafael Abraham. 1. ed. Santo André, SP: Editora Rua do Sabão, 2020, p. 7.

STATE v. LOOMIS (2016). Supreme Court of Wisconsin. State of Wisconsin, Plaintiff–Respondent, v. Eric L. LOOMIS, Defendant–Appellant. N.. 2015AP157–CR. Decided: July 13, 2016. Disponível em: https://caselaw.findlaw.com/court/wi-supreme-court/1742124.html. Acesso em: 23 abr. 2024.

VASDANE, Tara. Justiça robótica: o uso de tribunais pela Internet na China. Disponível em: https://www-lexisnexis-ca.translate.goog/en-ca/ihc/2020-02/robot-justice-chinas-use-of-internet-courts.page?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt&_x_tr_pto=tc. Acesso em: 16 out. 2025.


  1. *Mestra em Direito das Relações Sociais e Trabalhistas pelo UDF; Juíza do Trabalho Substituta no Tribunal Regional do Trabalho da 3ª Região; autora de livros e artigos jurídicos.

  2. MASSARO, Vanessa. O juiz robô: uma realidade. Disponível em: https://hojepr.com/o-juiz-robo-uma-realidade/. Acesso em: 16 out. 2025.

  3. VASDANE, Tara. Justiça robótica: o uso de tribunais pela Internet na China. Disponível em: https://www-lexisnexis-ca.translate.goog/en-ca/ihc/2020-02/robot-justice-chinas-use-of-internet-courts.page?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt&_x_tr_pto=tc. Acesso em: 16 out. 2025.

  4. STATE v. LOOMIS (2016). Supreme Court of Wisconsin. State of Wisconsin, Plaintiff–Respondent, v. Eric L. LOOMIS, Defendant–Appellant. N.. 2015AP157–CR. Decided: July 13, 2016. Disponível em: https://caselaw.findlaw.com/court/wi-supreme-court/1742124.html. Acesso em: 23 abr. 2024.

  5. HARARI, Yuval Noah. 21 Lições para o Século 21. São Paulo: Companhia das Letras, 2018, p. 62.

  6. Nesse sentido, inclusive, o CNJ aprovou a Resolução n. 615/2025 que estabelece normas para o uso de IA nos tribunais. O texto traz a obrigatoriedade da supervisão humana, a classificação dos sistemas de IA, conforme o nível de risco e a criação de uma instância responsável por monitorar e atualizar as diretrizes de uso da tecnologia nos tribunais brasileiros. Referido normativo, ainda, atualiza a Resolução n. 332/2020 do CNJ, incluindo a inteligência artificial generativa, embora corretamente proíba a utilização de IA que não possibilite a revisão humana dos dados e dos resultados propostos ou se utilizada para classificar/rankear pessoas com base em perfis sociais, prever crimes ou reincidência delitiva com base em dados comportamentais e reconhecer emoções por biometria (art. 10).

  7. GERLICH, Michael et al. Estudo sobre os impactos cognitivos do uso frequente de inteligência artificial. In: Massachusetts Institute of Technology (MIT), 2025. Disponível em: https://exame.com/inteligencia-artificial/estudo-do-mit-revela-que-ia-pode-comprometer-atividade-cerebral-e-criatividade/. Acesso em: 15 out.2025.

  8. Interessante iniciativa, nesse sentido, é o projeto “JuLIA” que é um plano de pesquisa europeu implementado por um consórcio de onze parceiros liderado pela Universitat Pompeu Fabra e tem como objetivo investigar o impacto do uso de inteligência artificial por tribunais e outras instituições públicas e privadas nos direitos fundamentais. No que se refere ao Poder Judiciário, o projeto busca orientar juízes e advogados na tradução dos mecanismos, garantindo conformidade com os direitos fundamentais e o Estado de Direito; facilitar o aprendizado mútuo entre juízes, profissionais jurídicos e especialistas técnicos; disseminar as melhores práticas interpretativas entre os tribunais nacionais e consolidar e ampliar a rede de instrutores para juízes criada por projetos anteriores. Vide JuLIA. Justice, fundamental rights and artificial intelligence (101046631). Co-financiado pela Comissão Europeia. Disponível em: https://www.julia-project.eu/. Acesso em: 14 out.2025.

  9. O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça à democracia. Tradução Rafael Abraham. 1. ed. Santo André, SP: Editora Rua do Sabão, 2020, p. 7.

  10. HARARI, Yuval Noah. 21 Lições para o Século 21. São Paulo: Companhia das Letras, 2018, p. 53.

  11. GRECO, Luís. Poder de julgar sem responsabilidade de julgador: a impossibilidade jurídica do juiz-robô. São Paulo: Marcial Pons, 2020, p. 59.

  12. Segundo Jenna Burrell, “a opacidade algorítmica é uma forma amplamente intencional de autoproteção por parte de empresas que desejam manter seus segredos comerciais e vantagens competitivas”. Vide BURELL, Jenna. How the Machine 'Thinks:' Understanding Opacity in Machine Learning Algorithms. In: Big Data & Society jan/jun, 2016 Disponível em: https://ssrn.com/abstract=2660674 Acesso em: 16 out. 2025.

  13. Nesse ponto, visando a explicação, o art. 20 da LGPD giza que o titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, sendo dever do controlador fornecer informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada.

  14. FERNANDES, Erika Ribeiro; GRAGLIA, Marcelo Augusto Vieira. Inteligência Humana e Inteligência Artificial e os Desafios dos Vieses nos Algoritmos de IA. In: ISUS – Journal on Innovation and Sustainability, São Paulo, v. 15, n. 1, p. 133-142, fev./mar. 2024. Disponível em: http://dx.doi.org/10.23925/2179-3565.2023v15i1p133-142. Acesso em: 16 out. 2025.

Sobre a autora
Solainy Beltrão dos Santos

Mestra em Direito das Relações Sociais e Trabalhistas pelo UDF; Juíza do Trabalho Substituta no Tribunal Regional do Trabalho da 3ª Região; autora de livros e artigos jurídicos.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos