O uso de inteligência artificial (IA) na investigação criminal: uma crítica criminológica à Portaria MJSP nº 961/2025

Leia nesta página:

O uso de inteligência artificial (IA) em práticas de investigação criminal e inteligência policial já não pertence ao terreno das inovações futuras, mas se tornou elemento estrutural das políticas de segurança pública contemporâneas. No Brasil, a Portaria MJSP nº 961/2025 surge como marco regulatório inédito ao disciplinar formalmente a aplicação de soluções tecnológicas, inclusive algoritmos de reconhecimento facial, ferramentas preditivas e sistemas de extração de dados digitais no campo da persecução penal. À primeira vista, trata-se de um avanço normativo em direção à responsabilização e ao uso ético das tecnologias. No entanto, à luz da criminologia crítica, é preciso examinar com cuidado os pressupostos ideológicos que sustentam essa nova etapa da racionalidade penal. O que está em jogo não é apenas o uso de tecnologias inovadoras, mas a consolidação de um modelo de vigilância algorítmica que pode intensificar, por vias automatizadas, os mesmos padrões seletivos, opacos e assimétricos que historicamente marcam a atuação do sistema de justiça criminal brasileiro.

Criminologia, algoritmos e o poder disciplinar das máquinas

O avanço da inteligência artificial (IA) nas estruturas estatais de controle tem reconfigurado profundamente os modos de vigilância, policiamento e investigação criminal. Longe de representar apenas uma inovação técnica, a adoção de tecnologias baseadas em algoritmos — como sistemas preditivos, reconhecimento facial e extração massiva de dados — insere-se em lógicas mais amplas de racionalização do controle social, expansão da vigilância e tecnocratização da gestão penal (Brayne, 2020; Lyon, 2007). No campo criminológico, tal fenômeno vem sendo interpretado como uma reatualização das dinâmicas panópticas descritas por Foucault (1975) — leitura que foi posteriormente desenvolvida pelos estudos contemporâneos sobre vigilância e controle tecnológico (Lyon, 2007; Zuboff, 2019) —, em que o poder disciplinar ganha sofisticação e opacidade com o uso de dispositivos técnicos cada vez mais automatizados, capazes de operar discriminações e previsões com base em padrões históricos de dados, frequentemente marcados por desigualdades estruturais. A introdução de IA nas práticas policiais não é neutra: ela reproduz — e, muitas vezes, amplifica — os vieses institucionais e sociais que atravessam o sistema penal.

Essa crítica tem sido desenvolvida por autores como Oscar Gandy Jr. (1993), ao formular a noção de panoptic sort, que designa o uso seletivo e estruturalmente desigual da informação na gestão de populações, especialmente por instituições de poder. Na mesma linha, Shoshana Zuboff (2019), ao tratar do capitalismo de vigilância, demonstra como a coleta e análise preditiva de dados pessoais transformam sujeitos em objetos de antecipação comportamental, com impactos diretos sobre o policiamento. Sarah Brayne (2020), por sua vez, em etnografia do Departamento de Polícia de Los Angeles, revela como o big data policial não apenas redefine os alvos da ação policial, mas também redesenha os próprios critérios de suspeição e prioridade institucional, reforçando padrões raciais e territoriais de repressão. Tais autores convergem na denúncia de que o uso estatal de tecnologias algorítmicas, ainda que sob a promessa de eficiência e neutralidade, opera como ferramenta de intensificação do controle sobre corpos e territórios já historicamente vulnerabilizados.

Ao lado dessas formulações, estudiosos como Andrew Ferguson (2017) e Ruha Benjamin (2019) aprofundam as críticas às promessas de neutralidade e precisão atribuídas aos sistemas de IA aplicados à segurança pública. Ferguson, ao analisar a ascensão do big data policing, demonstra como o uso de algoritmos no policiamento preditivo compromete o devido processo legal, ao deslocar a suspeita da evidência concreta para a predição estatística. Benjamin, por sua vez, introduz o conceito de discriminatory design para descrever como as tecnologias de segurança não apenas reproduzem, mas incorporam racializações e exclusões desde sua concepção. Essa literatura desautoriza a crença ingênua de que algoritmos seriam ferramentas objetivas: são, ao contrário, artefatos políticos, inscritos em relações de poder e historicamente situados. O desafio, portanto, não é apenas técnico, mas essencialmente jurídico, ético e político: como limitar os efeitos destrutivos de uma automação punitiva que ameaça corroer os princípios garantistas do processo penal?

Lições do direito comparado: riscos globais, respostas assimétricas

À luz da análise comparada, constata-se que diferentes sistemas jurídicos têm formulado respostas normativas heterogêneas — e, por vezes, assimétricas — diante da crescente incorporação de tecnologias de inteligência artificial no âmbito das políticas de segurança pública. A União Europeia, com a aprovação do Artificial Intelligence Act (Regulamento UE 2024/1689), consolidou um marco normativo de caráter pioneiro ao classificar sistemas de IA por níveis de risco, proibindo expressamente aqueles de “risco inaceitável”, como o reconhecimento biométrico remoto em tempo real, salvo hipóteses estritas de terrorismo ou crimes graves. A preocupação central da regulação europeia é a proteção dos direitos fundamentais e a garantia da supervisão humana nos processos decisórios, numa clara influência do modelo de Estado de Direito substancial (Floridi et al., 2018). Essa abordagem busca mitigar os riscos da “opacidade algorítmica”, estabelecendo mecanismos de auditabilidade, rastreabilidade e governança que pretendem responsabilizar tanto desenvolvedores quanto usuários públicos das tecnologias de IA.

Nos Estados Unidos, ao contrário, predomina um modelo fragmentado e mais permissivo, com ênfase na autorregulação e em iniciativas descentralizadas. A inexistência de uma legislação federal abrangente sobre o uso policial de IA permite que departamentos locais adotem soluções algorítmicas de maneira discricionária, como ocorreu com o PredPol, ferramenta de policiamento preditivo empregada em cidades como Los Angeles e Oakland. Estudos empíricos revelaram que tais ferramentas tendem a reforçar padrões de policiamento racialmente enviesado, criando ciclos de retroalimentação que naturalizam a vigilância excessiva sobre comunidades negras e latinas (Lum e Isaac, 2016; Ensign et al., 2017). Ainda que existam movimentos legislativos em estados como Illinois e Califórnia para proibir o reconhecimento facial em tempo real, a ausência de uma política nacional unificada evidencia a fragilidade institucional norte-americana em enfrentar os dilemas éticos e jurídicos da automação penal.

Em países como o Reino Unido, Canadá, Japão e China, os modelos de regulação variam conforme as tradições jurídicas e os arranjos político-institucionais. O Reino Unido, embora participante da rede internacional de Institutos de Segurança da IA, adota uma abordagem “pro-inovação”, pautada mais em guidelines do que em normas vinculantes, o que tem gerado críticas sobre a insuficiência dos mecanismos de proteção de dados e fiscalização pública (Calo & Citron, 2021). O Canadá avançou com o Artificial Intelligence and Data Act (AIDA), propondo uma estrutura regulatória para sistemas de alto risco, embora ainda em debate legislativo. Já o Japão, mesmo sem legislação específica, aderiu à convenção-quadro do Conselho da Europa sobre IA e Direitos Humanos, sinalizando interesse em alinhamento internacional. A China, por sua vez, adota uma perspectiva instrumentalista e centralizadora, regulamentando algoritmos sob o prisma da estabilidade social e da segurança nacional, com forte controle estatal e baixa transparência (Kobie, 2021). O contraste entre essas experiências revela que a inserção da IA na segurança pública é antes de tudo uma escolha política, dependente dos compromissos de cada sociedade com a democracia, o garantismo penal e os direitos fundamentais.

A Portaria MJSP nº 961/2025: inovação regulatória ou legitimação algorítmica do controle penal?

A Portaria MJSP nº 961/2025 constitui o primeiro marco normativo brasileiro voltado à regulamentação do uso de tecnologias da informação, especialmente ferramentas de inteligência artificial, nas atividades de investigação criminal e inteligência de segurança pública, aplicando-se tanto a órgãos federais quanto a estaduais e municipais que utilizem recursos dos fundos nacionais de segurança. Fundamentada na Lei nº 13.675/2018 (SUSP) e na Lei nº 14.600/2023, a norma estabelece como princípios norteadores o respeito aos direitos fundamentais, à proteção de dados e à proporcionalidade, estruturando-se em cinco capítulos que disciplinam desde as condições para o uso da IA — incluindo a vedação do reconhecimento biométrico em tempo real, salvo hipóteses excepcionais — até as obrigações técnicas de controle, registro e transparência. A utilização dessas tecnologias exige autorização judicial específica para acesso a dados sigilosos, vinculação a procedimentos formais e descarte de informações irrelevantes, além da implementação de mecanismos de segurança e responsabilização por uso indevido, configurando, assim, um esforço regulatório que busca equilibrar inovação e garantismo, mas que, como se discutirá, levanta dilemas éticos e jurídicos ainda não plenamente enfrentados.

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

Embora a Portaria MJSP nº 961/2025 invoque valores como proporcionalidade, respeito aos direitos fundamentais e prevenção de riscos, sua arquitetura normativa repousa sobre uma confiança implícita nas instituições policiais e nas tecnologias que estas operam. A lógica que permeia o texto normativo é a da tecnocracia regulatória, isto é, a suposição de que o problema da violação de direitos no uso de IA pode ser resolvido por protocolos, auditorias e registros em log. Entretanto, como adverte a criminologia crítica desde os anos 1970, os dispositivos legais tendem a funcionar mais como mecanismos de legitimação do poder punitivo do que como limites efetivos à sua expansão — crítica clássica formulada por Baratta (1999), ao destacar a seletividade estrutural do sistema penal e seu papel de reprodução das desigualdades sociais, e por Zaffaroni (2011), ao apontar a perda de legitimidade do direito penal como instrumento racional de controle. A portaria, ao admitir hipóteses amplas e pouco definidas para o uso de reconhecimento biométrico em tempo real — como “ameaça grave e iminente à integridade física” ou “busca de desaparecidos” (art. 11, §1º, b) —, cria brechas que podem ser instrumentalizadas por instituições historicamente marcadas por seletividade e discricionariedade repressiva. Em vez de conter o poder policial, a norma pode vir a expandi-lo sob a aura de inovação e legalidade.

Ademais, a portaria não enfrenta um dos aspectos mais sensíveis do debate criminológico contemporâneo: a constituição histórica e estrutural dos dados que alimentam os sistemas de inteligência artificial. Como advertido por Brayne (2020), Ferguson (2017) e Benjamin (2019), os dados sobre os quais operam os algoritmos são produzidos por práticas policiais enviesadas, construídas a partir de abordagens seletivas, denúncias anônimas racistas e mapeamentos territoriais estigmatizantes. Ao legitimar o uso de ferramentas de IA sem exigir uma auditoria crítica prévia da base empírica que as alimenta, a portaria silencia sobre os mecanismos de reprodução de injustiças estruturais que operam na base da “inteligência” artificial. Trata-se de uma omissão estrutural: ao não submeter os dados históricos a mecanismos de validação democrática e controle externo, a norma naturaliza a transposição da seletividade penal para um ambiente tecnificado, automatizado e menos visível ao controle público.

Por derradeiro, a portaria ignora as profundas assimetrias de poder entre os agentes estatais que operam as tecnologias e os sujeitos que delas são alvo. Como bem aponta Zuboff (2019), a vigilância algorítmica cria um novo regime de poder assimétrico, no qual os vigiados não sabem que estão sendo observados, não têm acesso aos critérios de classificação e não podem contestar sua posição nos sistemas automatizados. A portaria brasileira, ainda que faça menções à transparência e à prestação de contas, não prevê mecanismos concretos de controle social, como o envolvimento de defensorias públicas, ouvidorias independentes ou peritos externos nos processos de avaliação das tecnologias. Ao restringir o controle ao interior das corporações policiais e dos órgãos gestores, mantém o campo decisório hermético e tecnicamente inacessível à maior parte da sociedade. Em vez de democratizar a vigilância, a portaria pode institucionalizar um modelo de vigilância sem rosto, em que a opacidade algorítmica se soma à opacidade institucional das agências penais brasileiras.

Referências

BARATTA, Alessandro. Criminologia crítica e crítica do direito penal: introdução à sociologia do direito penal. 3. ed. Rio de Janeiro: Revan, 1999.

BENJAMIN, Ruha. Race after technology: abolitionist tools for the new Jim Code. Cambridge: Polity Press, 2019.

BRAYNE, Sarah. Predict and surveil: data, discretion, and the future of policing. New York: Oxford University Press, 2020.

CALO, Ryan; CITRON, Danielle. The Automated Administrative State: A Crisis of Legitimacy. Emory Law Journal, v. 70, n. 4, p. 797–836, 2021.

ENSIGN, Danielle et al. Runaway Feedback Loops in Predictive Policing. arXiv preprint, 2017. Disponível em: https://arxiv.org/abs/1706.09847. Acesso em: 2 jul. 2025.

FERGUSON, Andrew Guthrie. The rise of big data policing: surveillance, race, and the future of law enforcement. New York: NYU Press, 2017.

FOUCAULT, Michel. Vigiar e punir: nascimento da prisão. 24. ed. Petrópolis: Vozes, 1975.

GANDY JR., Oscar H. The panoptic sort: a political economy of personal information. Boulder: Westview Press, 1993.

KOBIE, Nicole. China’s AI Regulations: The New Normal. Wired Magazine, 2021. Disponível em: https://www.wired.com/story/china-regulate-ai-world-watching/. Acesso em: 2 jul. 2025.

LUM, Kristian; ISAAC, William. To predict and serve? Significance, v. 13, n. 5, p. 14–19, 2016.

LYON, David. Surveillance studies: an overview. Cambridge: Polity Press, 2007.

ZAFFARONI, Eugenio Raúl. Em busca das penas perdidas: a perda da legitimidade do sistema penal. 6. ed. Rio de Janeiro: Revan, 2011.

ZUBOFF, Shoshana. The age of surveillance capitalism: the fight for a human future at the new frontier of power. New York: PublicAffairs, 2019.

Sobre o autor
David Pimentel Barbosa de Siena

Possui graduação em Direito pela Faculdade de Direito de São Bernardo do Campo, especialização em Direito Penal pela Escola Paulista da Magistratura, mestrado e doutorado em Ciências Humanas e Sociais pela Universidade Federal do ABC. Atualmente é delegado de polícia do Estado de São Paulo, professor de Criminologia da Academia de Polícia "Dr. Coriolano Nogueira Cobra", professor de Direito Penal e coordenador do Observatório de Segurança Pública da Universidade Municipal de São Caetano do Sul.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos