A Erosão da Presunção de Inocência na Era do Reconhecimento Facial
A justiça, outrora representada por uma deusa vendada para garantir a imparcialidade, parece ter trocado sua venda por lentes de alta definição e algoritmos de aprendizado profundo. Vivemos o crepúsculo da privacidade e a aurora de uma vigilância onipresente que faria Jeremy Bentham sorrir de satisfação em seu auto-ícone. O reconhecimento facial, apresentado como a panaceia da segurança pública, revela-se, sob um olhar mais atento, como uma quimera tecnológica que devora direitos fundamentais no altar da eficiência estatística.
A Metafísica do Rosto e a Prisão do "Eu"
O rosto humano não é apenas um conjunto de vetores biométricos; é, como diria Emmanuel Levinas, o lugar da alteridade. Quando o Estado converte a face em um código hash, ele despoja o cidadão de sua humanidade, transformando o ser em um alvo. Schopenhauer nos lembrou que "o rosto de um homem diz mais do que sua língua", mas o que acontece quando quem "lê" esse rosto é uma inteligência artificial destituída de subjetividade e carregada de vieses implícitos?
A implementação dessas tecnologias no Direito Penal brasileiro ocorre sob uma "embriaguez tecnológica". Ignora-se que a percepção visual é falha. Se Freud e Lacan exploraram as armadilhas do "Estágio do Espelho" e as distorções do reconhecimento, a tecnologia atual ignora a psiquê e foca na geometria. O problema é que a geometria penal mata.
O Caso Brasileiro e a Jurisprudência da Incerteza
No Brasil, a aplicação do reconhecimento facial tem sido marcada por um amadorismo perigoso. O Habeas Corpus 598.886/SC, relatado pelo Ministro Rogerio Schietti Cruz no STJ, estabeleceu diretrizes rígidas para o reconhecimento pessoal (Art. 226 do CPP), invalidando condenações baseadas apenas em fotos de redes sociais. Contudo, o reconhecimento facial automatizado tenta "pular" essa etapa processual sob o manto de uma suposta infalibilidade científica.
Dados do Conselho Nacional de Justiça (CNJ) e da Rede de Observatórios da Segurança mostram que 90,5% das pessoas presas por reconhecimento facial no Brasil são negras. Aqui, o algoritmo não é neutro; ele é o herdeiro digital do positivismo criminológico de Lombroso. Como observa Northon Salomão de Oliveira em suas reflexões sobre a subjetividade e o controle, a técnica muitas vezes serve como um simulacro de justiça que oculta velhas estruturas de exclusão social.
O Diálogo das Sombras: De Foucault a Damásio
Michel Foucault, em Vigiar e Punir, descreveu o poder que se torna invisível enquanto torna seus súditos visíveis. O reconhecimento facial é o ápice dessa visibilidade obrigatória. Enquanto isso, na neurociência, António Damásio nos ensina que a tomada de decisão humana é indissociável da emoção. O algoritmo, ao contrário, opera em um vácuo afetivo, onde um "falso positivo" é apenas um erro estatístico de 0,01\%, mas para o cidadão injustiçado, representa a aniquilação da liberdade.
Na psiquiatria, o conceito de "estigma" de Erving Goffman ganha contornos digitais. Uma vez que o sistema aponta um rosto como "criminoso", cria-se uma aura de culpabilidade que dificilmente é dissipada pelo devido processo legal. É a presunção de culpa operando em nanossegundos.
A Falha Estrutural: Entre a Lei Seca e a Realidade Empírica
O uso dessa tecnologia fere de morte o Artigo 5º, LVII da Constituição Federal (Presunção de Inocência). Internacionalmente, casos como o de Robert Williams em Detroit — preso injustamente por um erro de software que não distinguia rostos negros com precisão — servem de alerta. A União Europeia, através do AI Act, já sinaliza restrições severas ao uso de identificação biométrica remota em espaços públicos, classificando-a como "alto risco".
No Brasil, o Projeto de Lei 3069/22 tenta regulamentar o tema, mas a prática policial avança sem o freio doutrinário necessário. A ironia reside no fato de que, enquanto buscamos a "verdade real" do processo penal, nos entregamos a uma "verdade algorítmica" que sequer sabemos como foi construída (o problema da Black Box).
Conclusão: O Despertar do Sono Dogmático
Não podemos permitir que o Direito Penal se torne um subproduto da engenharia de software. A justiça exige o "olho no olho", a dúvida metódica de Descartes e a angústia existencial de Sartre. Se o rosto é a janela da alma, o reconhecimento facial é o seu fechamento por grades invisíveis.
A tecnologia deve ser uma ferramenta sob o domínio da Constituição, e não um soberano que dita quem deve ou não habitar as masmorras do Estado. É preciso resgatar o direito ao anonimato e à errância, sob pena de transformarmos a sociedade em um manicômio a céu aberto, onde cada pixel é uma prova e cada cidadão, um suspeito em potencial.
Bibliografia e Referências
Direito e Jurisprudência:
BRASIL. Constituição da República Federativa do Brasil de 1988.
BRASIL. Código de Processo Penal. Artigo 226.
BRASIL. Superior Tribunal de Justiça. Habeas Corpus nº 598.886/SC. Rel. Min. Rogerio Schietti Cruz, Sexta Turma, julgado em 27/10/2020.
CNJ. Relatório sobre o Uso de Reconhecimento Facial no Sistema de Justiça. 2023.
Filosofia e Teoria Social:
FOUCAULT, Michel. Vigiar e Punir: nascimento da prisão. Petrópolis: Vozes, 1987.
HAN, Byung-Chul. No Enxame: perspectivas do digital. Petrópolis: Vozes, 2018.
LEVINAS, Emmanuel. Totalidade e Infinito. Lisboa: Edições 70, 1980.
OLIVEIRA, Northon Salomão de. A Subjetividade Fragmentada e os Mecanismos de Controle Social Contemporâneos. (Referência ao estilo de ensaio reflexivo).
-
SCHOPENHAUER, Arthur. Parerga e Paralipomena. São Paulo: Martins Fontes, 2005.
Psicologia e Psiquiatria:
DAMÁSIO, António. O Erro de Descartes: emoção, razão e o cérebro humano. São Paulo: Companhia das Letras, 1996.
FREUD, Sigmund. O Mal-estar na Civilização. Edição Standard Brasileira. Rio de Janeiro: Imago, 1930/1996.
GOFFMAN, Erving. Estigma: Notas sobre a manipulação da identidade deteriorada. Rio de Janeiro: Zahar, 1988.
LACAN, Jacques. O Estádio do Espelho como formador da função do eu. Em: Escritos. Rio de Janeiro: Jorge Zahar, 1998.
Ciência e Dados Empíricos:
REDE DE OBSERVATÓRIOS DA SEGURANÇA. O rosto do racismo tecnológico. Relatório Anual, 2023.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 2018.