RESUMO
A utilização da inteligência artificial no Poder Judiciário brasileiro deixou de ser uma experiência pontual e passou a integrar rotinas institucionais em diferentes tribunais. Sistemas algorítmicos já auxiliam atividades como triagem processual, pesquisa de jurisprudência, organização de fluxos internos e elaboração de minutas. A Resolução CNJ nº 615/2025 surge como resposta normativa a essa realidade, ao atualizar o regime anterior e estabelecer diretrizes para o uso responsável da tecnologia, com ênfase em supervisão humana, transparência e governança. O presente artigo examina os efeitos desse marco regulatório sobre o acesso à justiça, com atenção especial a grupos vulneráveis, como pessoas em situação de pobreza, minorias étnico-raciais e outros segmentos socialmente desfavorecidos. Sustenta-se que a resolução cria oportunidades relevantes de ampliação do acesso e de racionalização da atividade jurisdicional, mas também deixa lacunas que podem repercutir negativamente sobre a proteção de direitos, sobretudo quando se consideram riscos de vieses algorítmicos e fragilidades na responsabilização institucional.
Introdução
O acesso à justiça constitui requisito indispensável ao Estado Democrático de Direito e não se esgota na possibilidade formal de provocar a jurisdição. Abrange a obtenção de decisões tempestivas, compreensíveis e materialmente justas. No Brasil, esse direito convive com obstáculos estruturais persistentes, como a morosidade processual, a sobrecarga dos tribunais, desigualdades regionais e barreiras socioeconômicas que atingem com maior intensidade grupos vulneráveis.
A expansão do uso da inteligência artificial no Judiciário insere-se nesse quadro como promessa de maior eficiência e racionalização de recursos. Ao mesmo tempo, suscita preocupações relacionadas à reprodução de desigualdades, à dificuldade de compreensão das decisões influenciadas por algoritmos e à preservação do protagonismo humano na atividade jurisdicional. A Resolução CNJ nº 615/2025 procura equilibrar esses interesses ao reconhecer o caráter auxiliar da IA e ao exigir supervisão humana permanente.
O objetivo deste artigo é analisar como as diretrizes da Resolução 615/2025 podem afetar, de forma concreta, o acesso à justiça de grupos vulneráveis. Parte-se da premissa de que tecnologias incorporam escolhas e valores e, por essa razão, produzem efeitos distintos conforme o modo como são implementadas e controladas. A análise combina aspectos normativos da resolução com experiências práticas de tribunais brasileiros e reflexões críticas sobre discriminação algorítmica, desigualdade social e inclusão digital.
1 A Resolução CNJ nº 615/2025 e o novo regime do uso da IA judicial
A Resolução CNJ nº 615/2025 revogou a Resolução nº 332/2020 e atualizou o marco regulatório do uso de inteligência artificial no Judiciário brasileiro. O novo texto dialoga com um estágio mais avançado de desenvolvimento tecnológico, no qual se destacam sistemas baseados em grandes modelos de linguagem e ferramentas capazes de gerar textos, análises e classificações de forma automatizada.
Entre seus principais eixos normativos estão a exigência de supervisão humana contínua, a vedação de decisões judiciais totalmente automatizadas, o estímulo à explicabilidade e à auditabilidade dos sistemas e a previsão de estruturas internas de governança tecnológica nos tribunais. A resolução também afirma que a IA deve servir como instrumento de apoio à atividade jurisdicional, sem substituir a valoração jurídica realizada por magistrados.
Sob a perspectiva do acesso à justiça, o texto normativo apresenta potencial ambíguo. Por um lado, reconhece e legitima ferramentas capazes de reduzir o tempo de tramitação dos processos e ampliar a capacidade de resposta do Judiciário. Por outro, não detalha mecanismos técnicos obrigatórios de mitigação de vieses, nem impõe auditorias externas independentes, o que pode comprometer a efetividade das garantias anunciadas.
2 Inteligência artificial e acesso à justiça: uma relação ambivalente
A relação entre inteligência artificial e acesso à justiça envolve ganhos potenciais e riscos relevantes. Sistemas automatizados podem acelerar procedimentos, organizar grandes volumes de informações e apoiar a uniformização de entendimentos. Ao mesmo tempo, quando aplicados sem critérios rigorosos de controle, tendem a reproduzir padrões decisórios existentes, inclusive aqueles permeados por discriminações e assimetrias sociais.
Para grupos vulneráveis, os efeitos dessa relação costumam ser mais intensos. Pessoas em situação de pobreza dependem com frequência de decisões judiciais em matérias repetitivas, como benefícios previdenciários e assistenciais, áreas nas quais a automação tende a ser mais utilizada. Minorias étnico-raciais aparecem de forma desproporcional em determinados ramos do sistema de justiça, especialmente no campo penal, o que amplia o impacto de eventuais vieses incorporados aos sistemas.
A promessa de neutralidade técnica, muitas vezes associada à IA, não se sustenta quando se observam os dados utilizados para treinamento dos modelos. Bases de decisões judiciais refletem práticas institucionais e padrões sociais preexistentes, o que exige cautela na adoção desses sistemas como instrumentos de apoio à decisão.
3 Potenciais benefícios da Resolução 615/2025 para grupos vulneráveis
Apesar das fragilidades identificadas, a Resolução CNJ nº 615/2025 abre espaço para avanços relevantes no acesso à justiça de grupos vulneráveis, desde que suas diretrizes sejam implementadas com atenção às desigualdades sociais.
Um dos principais benefícios possíveis está relacionado à redução do tempo de tramitação processual. Sistemas de IA aplicados à triagem de peças, à classificação de documentos e à organização de fluxos internos podem diminuir atrasos significativos. Para cidadãos em situação de vulnerabilidade econômica, a celeridade na apreciação de pedidos de tutela de urgência, concessão de benefícios ou medidas protetivas pode ter efeitos diretos sobre condições de vida.
Outro ponto positivo refere-se à ampliação do acesso à informação. Ferramentas baseadas em IA podem auxiliar na tradução da linguagem jurídica para formas mais acessíveis, favorecendo a compreensão do andamento processual por pessoas sem formação técnica. Embora a resolução não trate expressamente dessa dimensão comunicacional, sua ênfase na transparência cria condições para o desenvolvimento de iniciativas nesse sentido.
Há também a possibilidade de redução de disparidades regionais. O uso de sistemas de pesquisa inteligente de jurisprudência pode contribuir para maior coerência decisória, evitando que cidadãos em determinadas localidades sejam sistematicamente prejudicados por interpretações mais restritivas ou desatualizadas.
4 Riscos de reprodução de desigualdades e vieses algorítmicos
Os riscos associados ao uso da inteligência artificial no Judiciário tornam-se mais sensíveis quando observados a partir da realidade de grupos vulneráveis. O principal deles é a reprodução de vieses algorítmicos. Modelos treinados com dados judiciais refletem práticas decisórias anteriores e, por essa razão, tendem a replicar seletividades e estigmas presentes no funcionamento do sistema.
No âmbito penal, sistemas de apoio à triagem ou à análise de padrões decisórios podem reforçar maior rigor contra determinados grupos sociais. No campo cível e previdenciário, a padronização excessiva pode reduzir a atenção a situações individuais que exigem exame cuidadoso das condições de vulnerabilidade do jurisdicionado.
A Resolução 615/2025 faz referência à observância de princípios éticos, mas não impõe a realização obrigatória de avaliações de impacto algorítmico nem define parâmetros objetivos para auditorias independentes. Essa lacuna dificulta a identificação e a correção de distorções antes que produzam efeitos concretos sobre direitos fundamentais.
5 Transparência e o desafio da compreensão pelo cidadão
A transparência figura entre as diretrizes da Resolução CNJ nº 615/2025. Ainda assim, há diferença relevante entre a disponibilização formal de informações técnicas e a compreensão efetiva por parte do jurisdicionado. Para grupos vulneráveis, a dificuldade de entendimento tende a ser maior, especialmente quando se considera o baixo nível de escolaridade ou a ausência de assistência jurídica adequada.
A exigência de explicabilidade dos sistemas, se restrita a relatórios técnicos ou descrições genéricas, pode não ser suficiente para garantir o exercício pleno do contraditório e da ampla defesa. A compreensão de como a tecnologia influenciou determinado despacho ou decisão é condição relevante para que o cidadão possa questionar eventuais erros ou injustiças.
Nesse aspecto, a resolução poderia ter avançado ao estabelecer deveres mais claros de informação acessível ao jurisdicionado, sobretudo nos casos em que ferramentas de IA desempenham papel relevante no fluxo decisório.
6 Hermenêutica, Inteligência Artificial e Proteção de Grupos Vulneráveis
A incorporação da inteligência artificial ao Judiciário brasileiro recoloca uma questão anterior à técnica: o modo como se compreende a própria decisão jurídica. A Resolução CNJ nº 615/2025 regula instrumentos, impõe deveres formais e estabelece limites institucionais, mas não enfrenta de maneira explícita a concepção de Direito que sustenta o uso dessas tecnologias. Essa ausência teórica não é neutra. Sempre que sistemas algorítmicos passam a integrar rotinas decisórias, pressupõe-se, ainda que de forma implícita, uma determinada compreensão do que seja julgar.
A literatura crítica tem advertido que a promessa de neutralidade técnica tende a reduzir o Direito a um problema de cálculo, previsibilidade e eficiência. Essa leitura ignora que a decisão judicial não se confunde com a seleção de respostas estatisticamente mais frequentes, pois envolve interpretação normativa, linguagem, valores constitucionais e leitura do caso concreto. A hermenêutica jurídica, nesse sentido, não se apresenta como um método concorrente à tecnologia, mas como condição de possibilidade da própria juridicidade da decisão.
6.1 O imaginário técnico-jurídico e a ilusão da neutralidade
Sistemas de inteligência artificial são desenvolvidos a partir de bases de dados formadas por decisões pretéritas, padrões institucionais e escolhas humanas anteriores. A aparência de objetividade decorre do tratamento matemático dessas informações, não da ausência de valorações. Quando esse dado é desconsiderado, consolida-se a ideia de que a técnica produziria respostas mais racionais do que aquelas construídas no espaço interpretativo do Direito.
Essa crença afeta de modo mais intenso grupos vulneráveis. Decisões judiciais que envolvem pobreza, discriminação racial, exclusão social ou desigualdades estruturais exigem leitura sensível das circunstâncias concretas. A redução da atividade jurisdicional a padrões decisórios previamente consolidados tende a reforçar seletividades já existentes, ainda que sob aparência de imparcialidade.
A hermenêutica jurídica oferece um contraponto a esse imaginário ao afirmar que toda decisão pressupõe compreensão prévia da norma, do caso e da linguagem empregada. Não há decisão sem interpretação, nem interpretação dissociada do contexto social e constitucional em que o conflito se insere.
6.2 Supervisão humana e teoria da decisão
A Resolução CNJ nº 615/2025 exige supervisão humana permanente no uso de sistemas de inteligência artificial. Essa exigência, embora relevante, permanece indeterminada se não acompanhada de uma concepção material do que significa supervisionar. A simples validação formal do resultado produzido por um sistema automatizado não satisfaz o dever constitucional de decidir.
Supervisão pressupõe capacidade crítica para compreender os critérios utilizados pela tecnologia, identificar inadequações e recusar resultados incompatíveis com o ordenamento jurídico. Sem uma teoria da decisão que reconheça a dimensão interpretativa do Direito, a presença humana corre o risco de se converter em etapa meramente protocolar.
Para grupos vulneráveis, essa distinção é decisiva. A supervisão real permite que especificidades do caso concreto sejam consideradas mesmo quando o sistema sugere soluções padronizadas. A supervisão formal, ao contrário, apenas legitima decisões previamente moldadas por dados que refletem desigualdades persistentes.
6.3 Explicabilidade técnica e fundamentação jurídica
Outro ponto sensível reside na diferença entre explicabilidade técnica e fundamentação jurídica. A primeira diz respeito à descrição do funcionamento do sistema, dos parâmetros utilizados e das correlações identificadas. A segunda envolve a justificação normativa da decisão à luz da Constituição, da legislação e dos princípios jurídicos aplicáveis.
A exigência de explicabilidade prevista na Resolução 615/2025 não se confunde com o dever de fundamentação. Um relatório técnico capaz de indicar pesos estatísticos ou fluxos algorítmicos não substitui a argumentação jurídica exigida pelo devido processo legal. Para o jurisdicionado, especialmente aquele em situação de vulnerabilidade, compreender os motivos da decisão é condição para o exercício do contraditório e da ampla defesa.
A hermenêutica reforça essa distinção ao lembrar que decisões judiciais se legitimam pelo discurso racional dirigido aos destinatários do Direito, não pela descrição de procedimentos computacionais.
6.4 Vulnerabilidade, singularidade e interpretação do caso concreto
A proteção de grupos vulneráveis no âmbito judicial depende do reconhecimento da singularidade dos conflitos submetidos à apreciação jurisdicional. Situações de pobreza, exclusão social ou discriminação não se apresentam de forma uniforme e não podem ser adequadamente tratadas por modelos que privilegiam regularidades estatísticas.
A inteligência artificial, quando utilizada sem contenções interpretativas, tende a privilegiar o que se repete, o que é frequente, o que se ajusta a padrões. A hermenêutica, por sua vez, direciona o olhar do intérprete para o sentido do caso concreto, para as circunstâncias específicas e para a historicidade das normas aplicáveis. Essa diferença explica por que a automação decisória afeta de maneira desproporcional aqueles que já se encontram em posição de desvantagem social.
A preservação da dimensão interpretativa do Direito funciona, assim, como mecanismo de proteção material dos vulneráveis, impedindo que a eficiência técnica se sobreponha à justiça do caso concreto.
6.5 Hermenêutica como limite epistêmico da automação judicial
A contribuição da hermenêutica para o debate sobre inteligência artificial no Judiciário não reside na rejeição da tecnologia, mas na delimitação de seus limites. A técnica pode auxiliar a atividade jurisdicional em tarefas organizacionais, informacionais e de apoio, desde que subordinada à interpretação jurídica e à racionalidade constitucional.
Quando a automação avança para o núcleo decisório sem o devido controle interpretativo, corre-se o risco de transformar a jurisdição em exercício de aplicação automática de padrões. A hermenêutica atua como limite epistêmico dessa tendência, ao reafirmar que o Direito é prática interpretativa, discursiva e orientada por valores constitucionais.
A leitura da Resolução CNJ nº 615/2025 à luz da hermenêutica permite compreender que supervisão humana, explicabilidade e governança não são exigências meramente administrativas. Tratam-se de garantias necessárias para que a incorporação da inteligência artificial não comprometa a proteção de direitos fundamentais, sobretudo daqueles que mais dependem de uma jurisdição sensível às desigualdades sociais.
A consolidação de um uso responsável da inteligência artificial no Judiciário exige, portanto, mais do que regras técnicas. Exige a reafirmação do Direito como prática interpretativa, capaz de conter a técnica e orientá-la em favor da justiça material e do acesso efetivo à jurisdição.
7 Responsabilização e proteção de direitos fundamentais
A questão da responsabilização assume importância particular quando se analisam os impactos da IA sobre grupos vulneráveis. A Resolução 615/2025 não define de forma precisa quem deve responder por erros decorrentes do uso de sistemas algorítmicos, seja o tribunal, o desenvolvedor da tecnologia ou o magistrado que a utilizou como apoio.
Essa indefinição tende a prejudicar cidadãos que já enfrentam dificuldades para acionar mecanismos de controle institucional. A ausência de regras claras sobre responsabilidade fragiliza a contestação de decisões influenciadas por IA e reduz a efetividade da proteção de direitos fundamentais.
Para que a tecnologia seja compatível com uma concepção inclusiva de acesso à justiça, é necessário que existam caminhos claros de responsabilização e instrumentos eficazes de revisão dos atos praticados com apoio algorítmico.
8 Experiências práticas e efeitos sobre a vulnerabilidade
A observação de sistemas já utilizados por tribunais brasileiros contribui para a compreensão dos desafios colocados pela Resolução 615/2025. Ferramentas como o Victor, no Supremo Tribunal Federal, o Sócrates, no Tribunal de Justiça de São Paulo, e o Éolo, no Tribunal de Justiça de Minas Gerais, demonstram ganhos relevantes de eficiência administrativa.
Para grupos vulneráveis, entretanto, esses ganhos não eliminam riscos. A padronização de minutas e a automação de triagens podem reduzir a sensibilidade a situações específicas de pobreza, exclusão social ou discriminação. Além disso, a dificuldade de compreensão dos critérios utilizados pelos sistemas dificulta a impugnação informada de atos judiciais, o que enfraquece garantias processuais.
9 Linguagem Simples e Inteligência Artificial: A Explicabilidade como Garantia de Acesso
A implementação de sistemas de inteligência artificial nos tribunais exige um exame pormenorizado da Recomendação CNJ nº 144/2023, que instituiu o Pacto Nacional do Judiciário pela Linguagem Simples. Embora a Resolução 615/2025 estabeleça a transparência e a explicabilidade como diretrizes técnicas para o uso de algoritmos, a efetividade desses princípios depende da forma como a informação é transmitida ao destinatário final da norma. A complexidade intrínseca aos modelos de aprendizado de máquina, se somada ao hermetismo do vocabulário jurídico tradicional, pode aprofundar a exclusão de grupos vulneráveis, tornando a prestação jurisdicional um fenômeno incompreensível e, por extensão, inquestionável.
A convergência entre as duas normas revela que a simplificação da linguagem não é uma faculdade estética do magistrado, mas um requisito de validade ética para a adoção de tecnologias automatizadas. A explicabilidade algorítmica, quando restrita a relatórios de programação ou lógicas estatísticas, não atende ao comando constitucional do devido processo legal para quem desconhece os códigos da técnica. Portanto, o dever de informar como a tecnologia auxiliou a construção de um provimento judicial pressupõe o uso de termos diretos, estruturas sintáticas acessíveis e, sempre que possível, o apoio de recursos visuais que traduzam o fluxo decisório.
Para os segmentos socialmente desfavorecidos, a clareza da decisão judicial atua como mecanismo de controle da própria inteligência artificial. A compreensão imediata do que foi decidido permite ao jurisdicionado identificar se as particularidades do seu caso foram devidamente ponderadas ou se a automação resultou em uma aplicação genérica e despersonalizada. O uso de ferramentas de processamento de linguagem natural, inclusive, possui o potencial de auxiliar o Judiciário nessa tarefa, funcionando como um tradutor capaz de converter minutas densas em resumos informativos, desde que sob rigorosa supervisão humana.
Ao final, a democratização do Judiciário sob o regime da Resolução 615/2025 passa obrigatoriamente pela redução das distâncias comunicativas. O esforço institucional para simplificar a linguagem jurídica retira o cidadão da posição de espectador passivo de uma justiça mecanizada e o recoloca como sujeito de direitos, assegurando que o avanço tecnológico sirva à emancipação social e não ao isolamento técnico do poder estatal.
10 Condições para que a IA amplie o acesso à justiça
Para que a Resolução CNJ nº 615/2025 contribua de forma efetiva para a ampliação do acesso à justiça de grupos vulneráveis, algumas condições institucionais mostram-se indispensáveis. Entre elas estão a adoção de auditorias independentes, a realização de avaliações de impacto algorítmico, a definição clara de responsabilidades e o investimento contínuo na capacitação de magistrados e servidores.
Também se revelam necessárias políticas de inclusão digital e estratégias de comunicação acessível, capazes de evitar que a tecnologia introduza novas barreiras ao acesso à jurisdição. A inteligência artificial somente atuará como instrumento de justiça social se for utilizada de maneira crítica e orientada à redução das desigualdades existentes.
Conclusão
A Resolução CNJ nº 615/2025 representa um avanço normativo relevante ao estabelecer parâmetros para o uso da inteligência artificial no Judiciário brasileiro. Seu impacto sobre o acesso à justiça, especialmente no que se refere a grupos vulneráveis, dependerá menos da formulação abstrata das diretrizes e mais da forma como elas serão aplicadas pelos tribunais.
A IA pode contribuir para a redução da morosidade, para a ampliação do acesso à informação e para a melhoria da prestação jurisdicional. Sem mecanismos robustos de controle, mitigação de vieses e responsabilização, porém, há o risco de que a tecnologia apenas replique desigualdades já presentes no sistema de justiça.
A incorporação da inteligência artificial ao Judiciário não pode ser compreendida apenas como questão de eficiência administrativa ou de conformidade regulatória. O debate recoloca, de modo inevitável, a natureza da decisão jurídica e os limites da técnica no exercício da jurisdição. A leitura da Resolução CNJ nº 615/2025 à luz da hermenêutica jurídica permite reconhecer que supervisão humana, explicabilidade e governança somente cumprem função garantidora quando associadas a uma compreensão da decisão como ato interpretativo, vinculado à Constituição e atento às singularidades do caso concreto. Sem essa mediação teórica, a tecnologia tende a reforçar padrões decisórios preexistentes e a afetar de forma mais intensa aqueles que já se encontram em posição de vulnerabilidade social.
O desafio colocado pela Resolução 615/2025 consiste em transformar a eficiência tecnológica em instrumento efetivo de ampliação do acesso à justiça, com atenção especial à proteção dos direitos daqueles que tradicionalmente encontram maiores obstáculos na relação com o Judiciário.
Referências
ALMEIDA, Guilherme de Assis. Direitos humanos e tecnologia: desafios contemporâneos. Revista de Direito, Estado e Telecomunicações, Brasília, v. 14, n. 2, p. 45-72, 2022.
BARROSO, Luís Roberto. O novo direito constitucional brasileiro: contribuições para a construção teórica e prática da jurisdição constitucional no Brasil. 6. ed. São Paulo: Saraiva, 2022.
BOBBIO, Norberto. A era dos direitos. Tradução de Carlos Nelson Coutinho. Rio de Janeiro: Elsevier, 2004.
BRASIL. Conselho Nacional de Justiça. Resolução nº 332, de 21 de agosto de 2020. Dispõe sobre a ética, a transparência e a governança na produção e no uso de inteligência artificial no Poder Judiciário. Diário da Justiça Eletrônico, Brasília, 24 ago. 2020.
BRASIL. Conselho Nacional de Justiça. Resolução nº 615, de 18 de outubro de 2025. Estabelece diretrizes para o uso de sistemas de inteligência artificial no Poder Judiciário. Diário da Justiça Eletrônico, Brasília, 21 out. 2025.
BRASIL. Conselho Nacional de Justiça. Recomendação nº 144, de 25 de agosto de 2023. Institui o Pacto Nacional do Judiciário pela Linguagem Simples. Diário da Justiça Eletrônico, Brasília, 28 ago. 2023.
BRASIL. Constituição da República Federativa do Brasil. Brasília: Senado Federal, 2024.
COUTINHO, Jacinto Nelson de Miranda. Jurisdição, decisão e fundamentação: limites constitucionais do julgar. Revista de Processo, São Paulo, v. 47, n. 311, p. 17-42, 2022.
DONEDA, Danilo; MENDES, Laura Schertel. Inteligência artificial e proteção de dados pessoais: desafios regulatórios. Revista de Direito do Consumidor, São Paulo, v. 30, n. 129, p. 11-39, 2021.
FERRAJOLI, Luigi. Direitos e garantias: a lei do mais fraco. Tradução de Alexandre Salim et al. 4. ed. São Paulo: Revista dos Tribunais, 2014.
GADAMER, Hans-Georg. Verdade e método. Tradução de Flávio Paulo Meurer. 10. ed. Petrópolis: Vozes, 2019.
KELSEN, Hans. Teoria pura do direito. Tradução de João Baptista Machado. 8. ed. São Paulo: Martins Fontes, 2018.
LOPES, José Reinaldo de Lima. Acesso à justiça e desigualdade social no Brasil. Revista da Faculdade de Direito da USP, São Paulo, v. 115, p. 223-246, 2020.
MARMELSTEIN, George. Inteligência artificial e processo judicial. Salvador: JusPodivm, 2023.
MITIDIERO, Daniel. Fundamentação das decisões judiciais e precedentes. São Paulo: Revista dos Tribunais, 2021.
ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE). Artificial intelligence and justice systems. Paris: OECD Publishing, 2020.
SAINZ, Nilton; GABARDO, Emerson; ONGARATT, Natália. Discriminação Algorítmica no Brasil: Uma Análise da Pesquisa Jurídica e suas Perspectivas para a Compreensão do Fenômeno. Revista Direito Público, v. 21 n. 110 (2024): Seção de Artigos Originais. Disponível em: https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/7295/3391. Acesso em: 30 jan. 2026.
SARLET, Ingo Wolfgang. A eficácia dos direitos fundamentais. 14. ed. Porto Alegre: Livraria do Advogado, 2022.
SILVA, Virgílio Afonso da. Direitos fundamentais: conteúdo essencial, restrições e eficácia. 3. ed. São Paulo: Malheiros, 2021.
STRECK, Lenio; JUNG, Luã Nogueira. Hermenêutica e inteligência artificial: por uma Alternativa paradigmática ao imaginário técnico-Jurídico. Revista Direito Público, v. 21 n. 110 (2024): Seção de Artigos Originais. Disponível em: https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/7689?utm_source=copilot.com. Acesso em: 30 jan. 2026.
UNESCO. Recomendação sobre a ética da inteligência artificial. Paris: UNESCO, 2021.