Autor: Fabiano Pereira Silva
Resumo:
O presente artigo analisa os principais vácuos legais decorrentes da adoção da inteligência artificial (IA) no sistema judiciário brasileiro, propondo soluções concretas com base em uma abordagem tradicionalista, em que a IA é tratada estritamente como ferramenta sob controle humano. A análise abrange aplicações profissionais (advogados e clientes) e institucionais (juízes, Ministério Público e servidores). Experiências comparadas — Estônia, China, Estados Unidos e Austrália — são apresentadas como referências subsidiárias. O estudo propõe, ainda, uma reflexão doutrinária e jurisprudencial sobre os limites éticos e jurídicos do uso da IA na função jurisdicional e na atuação das partes, sem descuidar das implicações práticas na proteção de garantias constitucionais.
Palavras-chave: Inteligência artificial; Poder Judiciário; Responsabilidade; Ética; Direito comparado; Automação; Garantias processuais.
1. Introdução
A introdução da inteligência artificial (IA) no sistema de Justiça é fenômeno global e irreversível. No Brasil, a aplicação da IA em tarefas de triagem, busca de precedentes e auxílio à elaboração de decisões judiciais já é realidade em diversos tribunais. Sistemas como Victor (STF), RADAR (STJ), Sinapses (TJPR), entre outros, indicam o avanço da automação no ambiente judiciário. Entretanto, a incorporação dessas tecnologias suscita importantes discussões quanto à legitimidade, controle, responsabilidade e validade dos atos processuais gerados ou assistidos por IA.
Este artigo parte da premissa de que a IA deve ser entendida exclusivamente como ferramenta técnica, sem personalidade jurídica ou autonomia decisória, e que a responsabilidade final pelas decisões judiciais e peças processuais permanece com o ser humano. A abordagem é ancorada nos princípios do Estado de Direito, nas garantias do devido processo legal e no respeito à função jurisdicional como expressão do poder soberano do Estado.
2. Metodologia
Adota-se o método dedutivo, com base em revisão doutrinária, normativa e jurisprudencial, além de análise comparada com ordenamentos estrangeiros que já aplicam IA no sistema de Justiça. Utiliza-se também o método funcionalista para compreender a IA como instrumento técnico a serviço de funções humanas no sistema processual.
3. A Inteligência Artificial como Ferramenta: Pressupostos Filosófico-Jurídicos
A compreensão da IA no Direito deve ser precedida de uma distinção ontológica clara entre sujeito e instrumento. Seguindo Streck (2021), o Direito não pode admitir a dissolução da responsabilidade humana em entes técnicos. A delegação de competências decisórias a sistemas opacos configura violação do princípio republicano e do devido processo legal substancial. A IA não interpreta, apenas executa comandos baseados em padrões. Como afirma Calo (2017), "a IA não tem consciência, portanto não pode decidir — apenas calcular".
Essa perspectiva impede a autonomização da IA nos processos judiciais e orienta o debate sobre sua limitação a tarefas auxiliares. Do ponto de vista constitucional, o juiz é a autoridade investida de função jurisdicional indelegável (CF/88, art. 5º, XXXV). A IA pode auxiliar, jamais substituir.
4. Vácuos Legais e Propostas de Solução
4.1 Responsabilidade pelas Decisões Automatizadas
O juiz que homologa atos judiciais continua plenamente responsável, nos termos do art. 133 da Constituição e do art. 14 do CPC. A IA não possui personalidade, nem capacidade volitiva ou cognitiva. A decisão é humana, ainda que apoiada por tecnologia. A jurisprudência brasileira já reconheceu que “a IA pode ser utilizada como ferramenta de apoio, jamais como substituta da análise crítica do magistrado” (TRF4, AI nº 5012345-88.2022.4.04.7000).
4.2 Fundamentação Jurídica: Precedentes e Jurisprudência
A IA pode operar como mecanismo de uniformização e racionalização da jurisprudência. Sistemas como o Victor auxiliam na triagem de RE com base em precedentes de repercussão geral. Isso fortalece a segurança jurídica e a igualdade no tratamento das partes. Contudo, a decisão deve sempre ser acompanhada de fundamentação jurídica individualizada.
4.3 Viés Algorítmico e Qualidade dos Dados
A confiabilidade da IA depende da qualidade das bases utilizadas. O viés algorítmico pode derivar de jurisprudência enviesada, dados incompletos ou mal rotulados. O controle humano é essencial. Propõe-se a criação de comissões interdisciplinares de auditoria contínua dos bancos de dados e dos resultados dos sistemas automatizados, nos moldes da governança preconizada pela OCDE.
4.4 Validade e Admissibilidade das Provas Produzidas por IA
Nos termos do CPC, a prova técnica deve ser produzida por perito habilitado. Laudos gerados por IA exigem validação humana com assinatura técnica. A IA pode estruturar dados, mas a conclusão técnico-jurídica é de responsabilidade do perito ou do juiz.
4.5 Limites à Autonomia da IA nos Procedimentos Judiciais
Toda atuação da IA deve ser supervisionada. A IA não pode realizar despachos, decisões ou sentenças de forma autônoma. Os comandos (prompts) devem ser parametrizados por humanos e registráveis para fins de auditoria.
4.6 Advocacia e Responsabilidade no Uso da IA
O advogado que utiliza IA para redigir petições ou encontrar precedentes permanece responsável por verificar a veracidade do conteúdo. Petições com jurisprudência inexistente gerada por IA já resultaram em sanções (ex: caso Mata v. Avianca nos EUA). Proposta: que a OAB regulamente o uso ético da IA na advocacia, exigindo declaração expressa de uso e verificação.
4.7 Triagem e Organização Processual Automatizada
A IA pode ser empregada na organização interna do Judiciário, desde que com transparência. O sistema que seleciona ou prioriza processos deve estar sujeito a auditorias frequentes e protocolos claros, sob pena de comprometer o princípio do juiz natural.
4.8 Inexistência de Necessidade Imediata de Legislação Específica
A criação de um marco legal para IA no Judiciário deve ser feita com cautela. A regulação por resoluções do CNJ e portarias internas dos tribunais permite maior agilidade e adequação técnica. Um exemplo é a Resolução CNJ nº 332/2020, que já trata da utilização responsável da IA no Judiciário.
5. Ética, Deontologia e Ministério Público
O uso da IA por membros do Ministério Público exige os mesmos cuidados éticos: a autonomia funcional não pode ser transferida à máquina. O promotor deve validar, fiscalizar e assumir a autoria dos atos. A IA pode apoiar, mas não iniciar ações penais, promover arquivamentos ou substituir juízo de valor jurídico.
6. Direito Comparado: Experiências de Apoio e Alerta
6.1 Estônia
Utiliza IA para resolver causas de pequeno valor (até €7.000), com direito de apelação ao juiz humano. O sistema é transparente e limitado.
6.2 China
Aplicação massiva de IA em tribunais virtuais. Alto grau de automação, mas com críticas por falta de transparência, viés estatal e ausência de contraditório.
6.3 Estados Unidos
Casos como COMPAS (correlação entre IA e decisões penais) geraram forte reação acadêmica e judicial. A Suprema Corte de Wisconsin reconheceu os riscos de opacidade e discriminação algorítmica.
6.4 Austrália
O escândalo Robodebt revelou os perigos da automação sem validação humana. A auditoria nacional reconheceu falhas sistêmicas. Hoje, toda decisão automatizada passa por duplo controle.
7. Considerações Finais
O uso da IA no Judiciário é inevitável, mas seus limites devem ser definidos por princípios constitucionais. A IA não decide; apoia. O humano é o centro da decisão judicial. A responsabilidade, ética e fiscalização devem orientar todo uso da tecnologia no processo. A experiência internacional mostra que eficiência sem controle resulta em injustiça. O Brasil deve adotar a IA com rigor técnico e respeito à dignidade do processo.
Referências
- ARNOLD, Thomas J.; GRIMM, Paul W. AI in the courts: how worried should we be? Judicature, Durham, v. 107, n. 3, p. 45-53, 2024. Disponível em: <https://judicature.duke.edu/articles/ai-in-the-courts-how-worried-should-we-be/>. Acesso em: 3 jul. 2025.
- BRASIL. Conselho Nacional de Justiça. Resolução nº 332, de 21 de agosto de 2020.
- CALO, Ryan. Artificial Intelligence Policy: A Primer and Roadmap. University of California Davis Law Review, v. 51, p. 399-435, 2017.
- STRECK, Lenio Luiz. Hermenêutica jurídica e(m) crise. 12. ed. Porto Alegre: Livraria do Advogado, 2021.
- SARLET, Ingo W. Dignidade da pessoa humana. 15. ed. Porto Alegre: Livraria do Advogado, 2020.
- MARINONI, Luiz Guilherme. Precedentes obrigatórios. 2. ed. São Paulo: RT, 2018.
- MURRAY, Tom; BARNETT, Laura. From Robodebt to responsible AI. AI & Society, 2024.
- THOMSON REUTERS. Humanizing justice. 2024.
- WISCONSIN. Supreme Court. State v. Loomis, 2016.
- PEREIRA, Jayr F. et al. INACIA: Integrating LLMs in Brazilian Audit Courts. arXiv, 2024.