5. Sistemas preditivos e IA´S: na perspectiva de garantia a direitos e princípios fundamentais constitucionais
Com a revolução industrial, no século XVII e a consequente diminuição dos processos manuais, passou-se a buscar agilidade na produção, possibilitando a substituição do homem por máquinas. Entretanto, com o avanço da tecnologia, surgiram outras necessidades, onde a difusão da internet transformou-se em ferramenta para disseminação, colaboração, troca ou até mesmo compartilhamento de informações, tornando-se bastante presente e procurando colaborar para mudanças gramaticais das redes sociais e dessa forma, influenciando na dinâmica social (Silva, 2022).
Entretanto, se por um lado a internet colabora com a sociedade, em outra perspectiva, existem grandes impactos negativos que a tecnologia inteligente pode trazer à democracia e ao âmbito jurídico. Neste sentido, os autores Chiarini e Silva (202, n.p.) afirmam que:
Tecnologias de informação e comunicação (TICs), por exemplo, possibilitaram mudanças sociais profundas e influenciaram a configuração das chamadas “sociedades do conhecimento” e “economias baseadas no conhecimento”, facilitando a comunicação, o compartilhamento de dados e o surgimento das redes virtuais. Embora, essas tecnologias não são neutras. Por um lado, as TICs permitiram uma difusão acelerada e deliberada de informações falsas (fake news) em dimensões assustadoras, por meio de redes sociais e também de contas autônomas programadas (conhecidas por bots) para espalhar mensagens, manipulando a opinião pública.
Partindo deste pressuposto, os resultados negativos das tecnologias têm sido notados como uma ameaça às democracias e à segurança jurídica. Nota-se que as TICs oferecem oportunidades significativas para o avanço da sociedade, sendo válido abordar e mitigar os desafios associados ao seu uso, a fim de promover um ambiente digital mais seguro, inclusivo e democrático.
Nesse viés, de acordo com Lemes (2019), potenciais efeitos negativos à democracia podem ser gerados pela tecnologia inteligente, sobretudo por terem sido revelados por seus operadores, outputs (saídas) com erros e distorções que reproduziam desigualdades e geravam injustiças. A sociedade brasileira, com uma grande intolerância ao risco, está rumando para um Estado de vigilância total, buscando uma maior sensação de segurança, questionando-se até que ponto essa necessidade de controle e vigilância não se tornará prejudicial?
Nessa esteira de pensamento, em uma perspectiva de chave mestra ao alcance do controle social, a motivação para utilização de meios tecnológicos, sobretudo no que concerne às inteligências artificiais, é constante, especialmente em momentos de emergência social, no entanto, a razão de eficácia nunca pode se sobressair às razões de legitimidade (Menezes e Sanllehí, 2021), atingindo e violando coletivamente direitos individuais constitucionais.
Sob o mesmo olhar, os entes de segurança pública devem atentar-se às normas e não utilizar dados pessoais e sensíveis da população, sem o devido tratamento e controle. A Lei nº 9.296/96, mais conhecida como Lei das Interceptações Telefônicas, cuida de estabelecer os critérios para a violação da privacidade e intimidade em casos de crimes graves, ou seja, no mesmo sentido, há necessidade de regulação para que a utilização dessa novel ferramenta tecnológica não seja instrumento de desmonte do sistema de garantias.
Na mesma ótica, Menezes e Sanllehí (2021) aduzem que as investigações prospectivas (phishing expeditions) são proibidas a partir do momento em que afetam um direito fundamental, necessitando de uma autorização prévia. Ou seja, as intervenções mais hostis devem ser antecipadas de suspeita razoável (probable cause). Todavia, a empolgação através dos métodos de análise mais sofisticado realizados por meio IA, podem gerar ocultações de dificuldades metodológicas, valendo ressaltar que, se não forem corrigidas, podem representar ameaças aos direitos fundamentais constitucionais dos indivíduos.
Fernandes (1977, p. 71-72), há quase 50 anos, abordava:
A vida privada é o direito de excluir razoavelmente da informação alheia ideias, fatos e dados pertinentes ao sujeito. Este poder jurídico atribuído à pessoa consiste, em síntese, em opor-se à divulgação de sua vida privada e a uma investigação desta, reduzindo a privacy a um jus prohibitionis, isto é, é um direito de proibir a intervenção ou o conhecimento alheio.
Notadamente, o direito à segurança é preocupação premente, relacionada à proteção e bem-estar da sociedade, garantindo estabilidade, proteção e confiança em uma gama de espectros, inclusive o tecnológico e o jurídico. Segundo um estudo de Sousa (2021), no Brasil, em 2019, começou a ser testada a tecnologia de reconhecimento facial, sendo presas 184 pessoas, já no primeiro ano de utilização, constatando-se que desse total, 90% eram pessoas negras. Compreende-se, nesse sentido, que a liberdade pessoal, integridade e dignidade devem ser compatíveis com a necessidade de segurança, ou melhor, a eficácia do sistema de controle deve estar associada ao arcabouço principiológico que norteia a carta política.
Diante do exposto, a constitucionalização do indivíduo e da privacidade é fundamental na construção e solidificação de uma sociedade democrática, uma vez que estabelece limites ao poder do Estado, evitando-se o retorno do Leviatã, em sua versão moderna, hi-tech.
Nesta senda, no tratamento de dados, existem direitos que devem ser sempre observados, quais sejam: o direito à privacidade; a honra; a imagem; a intimidade; a proteção de dados pessoais; a segurança e a liberdade de expressão. Acrescente-se ainda os princípios da relevância e da proporcionalidade, segundo os quais a coleta de dados pessoais deve ser mínima, de modo que seu uso seja realizado de maneira ética, transparente e responsável, levando em consideração os direitos e interesses individuais e só, excepcionalmente, o interesse coletivo.
Portanto, tal situação demanda por respostas jurídicas urgentes para essa sociedade tecnologicamente mais avançada, pois o uso dos sistemas preditivos e das inteligências artificiais vem, cotidianamente, acarretando lesões aos direitos fundamentais de forma coletiva.
6. A escassez legislativa acerca dos sistemas preditivos e IA’S
Uma das principais questões que pairam acerca do uso do policiamento preditivo é a falta de uma legislação clara e coerente relacionada a ele. Desse modo, vale destacar que a Constituição Federal de 1988, em seu artigo 5º, inciso LXXIX, define como direito fundamental o direito a proteção de dados pessoais: “é assegurado, nos termos da lei, o direito à proteção dos dados pessoais, inclusive nos meios digitais.” Assim, nota-se que é de suma importância que o ordenamento jurídico resguarde os dados pessoais dos indivíduos, o que implica diretamente nos sistemas preditivos e no uso de reconhecimento facial.
No afã de proteger tais direitos fundamentais, em 2018 entrou em vigência a Lei Geral de Proteção de Dados (LGPD), dispondo sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou pessoa jurídica de direito público ou privado. O seu o art. 6º traz alguns princípios que devem ser observados e respeitados quando houver o tratamento de dados pessoais, entre eles, destaca-se o do inciso VI: “transparência: garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial”
Em contrapartida, apesar de existir o dever de transparência aos titulares, a mesma lei dispõe no art. 4º, III, que não será aplicado os dispositivos ao tratamento de dados realizados para fins exclusivos de: a) segurança pública; b) defesa nacional; c) segurança do Estado; ou d) atividades de investigação e repressão de infrações penais.
Ou seja, o uso de reconhecimento facial ou tecnologias preditivas, torna-se indisponível aos indivíduos que serão alvos, visto que, terão seus dados sensíveis coletados e não poderão buscar a informação acerca do intuito da coleta ou de como está sendo realizado o tratamento de tais dados. Essa intransparência é uma lesão direta ao direito de proteção dos dados pessoais.
Ademais, a escassez de informações acerca de qual o funcionamento ou quais são os critérios de análise do sistema ou do banco de reconhecimento facial, direciona os indivíduos a um campo em que, caso sejam acusados erroneamente, não terão como se defender pela desinformação acerca da metodologia utilizada para encontrar o alvo, ferindo o direito à presunção de inocência e também à paridade de armas. Diferentemente do que o senso comum pensa, os casos de erros em reconhecimento facial são bastante recorrentes, o site O Globo registrou que, no Rio de Janeiro, em Copacabana, estava sendo utilizado um sistema que identificou, via reconhecimento facial, o rosto de uma mulher - Josiete Pereira do Carmo - e a apontou como foragida, com um mandado de prisão preventiva em aberto, a mulher foi detida e posteriormente foi comprovado que ela estava cumprindo sua pena - em regime aberto - e que foi recolhida equivocadamente por um erro do sistema (Grinberg; Araújo, 2024). Vale ressaltar que, na mesma época do caso anterior, O Globo emitiu uma notícia referente a um segundo indivíduo que foi solto devido a uma prisão equivocada, mesmo caso de Josiete, constava um mandado de prisão em aberto contra o argentino Silvio Gabriel Juarez, mas o rapaz já estava solto desde a audiência de custódia porque sua condenação foi extinta e em 2020, teve um alvará de soltura expedido em seu nome (Grinberg; Araújo, 2024). Erros humanos ocorrem na alimentação ou na sua ausência, mas a máquina, até então, é fruto de comandos humanos e estes, por sua condição de falibilidade, não devem impingir lesões como as narradas alhures.
Diante do exposto, a falibilidade nos processos de reconhecimentos é mais comum do que parece e, a desinformação dos indivíduos acerca do funcionamento de tais sistemas e de como seus dados estão sendo tratados gera uma insegurança no resultado das pesquisas e prisões provenientes desses modelos de segurança pública. Além disso, as prisões inadequadas que são realizadas, são extremamente vergonhosas e lesivas aos direitos fundamentais dos indivíduos.
No cenário mundial, o parlamento Europeu, em 13 de março de 2024 aprovou o primeiro marco regulatório acerca das IA ́ s. Com isso, Tudorache, um dos relatores do texto da novel regulação afirma que é o início de uma busca entre “um equilíbrio muito delicado entre o interesse pela inovação e os interesses que devem ser protegidos.” (PARLAMENTO...14 mar. 2024), evidenciando a necessidade de unir os interesses e criar um arcabouço jurídico que proteja não só o coletivo, mas o individual, de modo plural. De tal modo, destaca-se, em matéria publicada no portal Conjur (2024) que o denominado ‘AI Act’ 1 objetiva a transparência do uso das inteligências artificiais com a população, além disso, independentemente do cenário da criminalidade e de estratégias de segurança pública, é proibido que os agentes policiais utilizem-se do reconhecimento facial em tempo real, a única exceção é caso estejam a procura de um indivíduo condenado ou suspeito de crimes graves, como terrorismo, assassinato, tráfico, estupro e demais crimes explicitados na própria lei; para utilizar a ferramenta em outros cenários, é preciso prévia autorização judicial.
A regulamentação autoriza o uso de diversos sistemas de inteligência artificial desde que sejam analisados e classificados em graus de riscos que podem ofertar aos usuários; quanto maior o risco de violação de direitos, mais rigorosa a regulamentação. Nos casos dos sistemas que oferecem um alto risco, haverá uma avaliação obrigatória de impacto sobre direitos fundamentais e atrelado a isso, a própria população pode reivindicar alguma medida, caso seja desfavorável a ela. Dessa forma, cada estado-membro da União Europeia deve indicar uma entidade reguladora que será responsável pela fiscalização da adesão dos sistemas à regulamentação, possibilitando a aplicação de multas caso haja descumprimento.
Sob essa ótica, nota-se que a União Europeia deu um passo significativo no contexto mundial com relação a questão da regulamentação das inteligências artificiais, abrindo um leque de possibilidades e de incentivo para que o restante do mundo busque regulamentar o uso de tais sistemas e tecnologias, a fim de que inteligências artificiais e avanços tecnológicos não se tornem vilões dentro da sociedade, mas sim, aliados que possam convergir em questões públicas, sem inferir diretamente em lesões de garantias constitucionais fundamentais.
7. Conclusão
No presente artigo, não se pretende esgotar as abordagens acerca de um tema que prossegue em atualizações e refinamentos, e sim, trazer perspectivas iniciais do uso dessas tecnologias pelo poder público através do policiamento preditivo. Diante disso, conclui-se que tais ferramentas não representam, em sua totalidade, uma ameaça para o cumprimento das previsões legislativas, apenas carecem de maior detalhamento e regulamentação.
À luz das reflexões citadas anteriormente, pontua-se que: (i) existe uma carência no que tange ao marco legal, por ser uma matéria de recentes reflexões, onde os casos concretos são praticamente inéditos, necessitando de uma maior previsibilidade através de leis e normativas que garantam maior eficácia e responsabilidade no uso de IA’s em operações, (ii) a credibilidade de tais softwares não pode se sobressair à princípios e garantias constitucionais fundamentais, visto que, existe a possibilidade de erros, (iii) no que se refere à diminuição dos erros, atenta-se para a origem dos dados coletados pelos algoritmos que não são meramente imparciais, e sim, enviesados pelas perspectivas sociais, demandado um banco de dados ainda mais refinado, com rigor metodológico, responsável e em constante evolução crítica.
Diante dos pontos apresentados, percebe-se que a ação policial em casos de predição necessita de maior treinamento e aprimoramento, requerendo maior conhecimento de domínio acerca das ferramentas a serem utilizadas, para que, não se perpetuem injustiças penais. Além de que, faz-se necessário um trabalho paralelo da corporação policial aos sistemas preditivos e as IA´s, no afã de que o resultado atingido tecnologicamente não seja uma verdade absoluta, mas sim uma ferramenta de auxílio no âmbito da segurança pública.
Nesse viés, como exposto na pesquisa, o policiamento preditivo pode se tornar um instrumento de propagação de estigmas e injustiças no sistema jurídico-penal e deve ter seu uso de forma ponderada, consciente e crítica, onde os fornecedores de dados e os responsáveis pelo funcionamento do sistema, possam criar filtros entre os preconceitos e as convicções pessoais e a realidade social; para que, as tecnologias e as inteligências artificiais transformem-se em aliadas no processo de segurança social e não lesivas a direitos e garantias fundamentais.