Análise dos principais erros e benefícios da aplicação dessas ferramentas, de forma a apontar caminhos mais adequados no uso desses softwares no Brasil, haja vista existirem graves vieses discriminatórios nos softwares americanos mais utilizados.

1 INTRODUÇÃO

Nas últimas décadas, o uso de tecnologias da informação (TI) tem se ampliado em praticamente todos os setores da economia e da sociedade mundial, a ponto de ser considerada uma revolução mais disruptiva do que a Revolução Industrial. Não poderia ser diferente com o ramo jurídico. A TI tem transformado, paulatinamente, tanto as atividades administrativas em torno do Direito, como a gestão de processos judiciais e o acesso à jurisprudência dos Tribunais, quanto as atividades precipuamente jurídicas, como a análise de mérito de demandas judiciais (AGU, 2013; EPIC, 2017; FRAZÃO, 2018; CONJUR, 2018a; NUNES, RUBINGER, MARQUES, 2018).

Dentre as diversas ferramentas disponíveis, os algoritmos baseados em inteligência artificial têm se destacado, seja porque permitem automatizar processos complexos e demorados, seja porque abrem novas possibilidades de modelos de negócios para as empresas e de funcionalidades úteis para os usuários. Como exemplo, tem-se a análise e seleção de currículos para contratação, a recomendação de filmes, músicas e produtos de acordo com o gosto do usuário, a avaliação do desempenho profissional de professores do ensino básico, a moderação de comentários em redes sociais e portais de notícias, etc. (O’NEIL, 2016; FRAZÃO, 2017; TALBOT, FOSSETT, 2017; WORLD ECONOMIC FORUM, 2018).

Novamente, o mundo do Direito não ficou à margem dessa inovação e, cada vez mais, os algoritmos baseados em inteligência artificial são utilizados em várias situações jurídicas. Por exemplo, especialmente nos Estados Unidos (EUA), tem crescido o uso desses algoritmos nas investigações e abordagens policiais (FERGUSON, 2017; WORLD ECONOMIC FORUM, 2018), nas análises para concessão de fiança ou decretação de prisão preventiva, na estimativa do risco de reincidência de uma pessoa, na dosimetria da pena, entre outras funções (EPIC, 2017; SKIBBA, 2018).

Se, por um lado, há quem louve esses avanços, apontando o quanto isso auxilia na redução de subjetivismos indevidos na aplicação do Direito (CORBETT-DAVIES, GOEL, GONZÁLEZ-BAILÓN, 2017), por outro lado, há quem critique, assinalando que tais algoritmos reproduzem e ampliam concepções discriminatórias, além de violarem princípios constitucionais e direitos fundamentais básicos, como direito à ampla defesa, ao contraditório e à liberdade (O’NEIL, 2016; ANGWIN, LARSON, MATTU, KIRCHNER, 2016; FERGUSON, 2017; EPIC, 2017).

Nesse contexto, o presente artigo visa estudar como tem se desenvolvido esse fenômeno do uso de algoritmos baseados em inteligência artificial em decisões judiciais criminais nos Estados Unidos, com o intuito de delinear quais lições podem ser aprendidas para o eventual futuro uso dessa tecnologia no Poder Judiciário brasileiro.

A importância deste tema justifica-se pela ampliação no uso de algoritmos também no Brasil, o que, por ocorrer após alguns anos de experiências nos Estados Unidos, pode se beneficiar sobremaneira da análise sobre os erros e os acertos do emprego de algoritmos no Judiciário daquele país norte-americano.

A metodologia utilizada foi a leitura de livros, artigos científicos, estudos e notícias que abordam o tema, abrangendo desde o ponto de vista dos defensores do uso amplo e irrestrito de algoritmos baseados em inteligência artificial nas decisões judiciais, até a opinião dos que criticam esse uso e sustentam que esses algoritmos deveriam ser abolidos do Direito, passando por aqueles que propõem condições e modificações para um melhor uso de algoritmos no Direito.

A seção 2 discorre sobre a experiência norte-americana no uso dos algoritmos baseados em inteligência artificial, destacando as principais críticas e evoluções que ocorreram ao longo dos últimos anos. A seção 3 trata sobre os paradigmas atualmente em discussão para aprimorar o uso desses algoritmos nos EUA, enquanto a seção 4 traz propostas de como a aplicação dessa tecnologia poderia ocorrer no Direito Penal brasileiro em face do contexto local e do ordenamento jurídico nacional. A seção 5 conclui com base nas ideias discutidas.

2 PANORAMA DO USO DA INTELIGÊNCIA ARTIFICIAL NA JUSTIÇA CRIMINAL AMERICANA

Inicialmente, cabe esclarecer o que significa “algoritmos”. De acordo com Moschovakis (2001), não há uma definição universal e consensualmente aceita, embora esse conceito exista há séculos. Intuitivamente, pode-se dizer que “um algoritmo é uma sequência de regras que devem ser executadas na ordem exata para realizar determinada tarefa”, um método lógico que pode ser aplicado a qualquer campo do conhecimento, como uma receita culinária, a leitura de uma partitura musical ou a solução de um problema matemático (OCDE, 2017, p. 8).

Por seu turno, a inteligência artificial é um ramo da ciência da computação que estuda e desenvolve agentes inteligentes, assim chamados porque são máquinas executando, de forma dita inteligente, tarefas consideradas significativamente difíceis. Trata-se de termo criado por John McCarthy em 1956 (OCDE, 2017, p. 9).

Um dos subcampos da IA é o aprendizado de máquina, que permite que os computadores utilizem algoritmos para que, iterativamente, aprendam a partir dos dados previamente coletados e da experiência das iterações. Já em 1959, Arthur Samuel dizia que o “aprendizado de máquina fornece aos computadores a habilidade de aprender sem serem explicitamente programados”.

Apesar de esses conceitos existirem há décadas, o que se constata é que, com o desenvolvimento exponencial do capacidade de coleta, armazenamento e processamento de informações pelos computadores nas últimas décadas, bem como com a própria evolução da IA, em especial do aprendizado de máquina, o uso de algoritmos e IA se expandiu para todos os campos de conhecimento, com resultados que aparentam ser cada vez mais eficientes, eficazes e efetivos (O’NEIL, 2016; WORLD ECONOMIC FORUM, 2018).

2.1. Algoritmos e o Direito nos Estados Unidos

Devido ao seu grande número de empresas de TI, startups inovadoras e universidades renomadas, é natural que os Estados Unidos sejam um dos países com maior uso de tecnologias no Direito. A expectativa era de que a utilização de TI e, especialmente, inteligência artificial, agilizaria o trabalho dos advogados e procuradores, eliminando tarefas burocráticas, e tornaria a aplicação do Direito pelos magistrados e o trâmite processual mais objetivo, rápido e efetivo (CHIESI FILHO, 2017; NUNES et al, 2018).

Por exemplo, existem softwares que auxiliam na busca da jurisprudência mais adequada ao caso, o que é ainda mais importante no contexto jurídico norte-americano do common law. Também já há softwares que produzem peças jurídicas, bem como outros que analisam as decisões proferidas pelos julgadores na tentativa de prever probabilidades de qual será a decisão adotada em cada caso (CHIESI FILHO, 2017).

Outro uso que está se tornando cada vez mais popular é o reconhecimento facial de pessoas em locais públicos, correlacionando informações de diversos bancos de dados para selecionar quem será abordado pela polícia, quem pode ser um foragido e quem está cometendo algum crime (FERGUSON, 2017; CÂMARA DOS DEPUTADOS, 2019a). Ressalte-se que há muitos críticos a esses usos, que alegam haver desrespeito ao direito de privacidade das pessoas submetidas a esses reconhecimentos, bem como apontam haver até 98% de falsos positivos, fazendo com que pessoas inocentes sejam erroneamente identificadas como criminosas, principalmente com mulheres e etnias minoritárias, como mostraram vários estudos (AGÊNCIA CÂMARA, 2019a). Registre-se que essa discussão já chegou no Brasil, com exemplifica a audiência pública ocorrida na Câmara dos Deputados em 3/4/2019, sobre o uso de reconhecimento facial por autoridades brasileiras (AGÊNCIA CÂMARA, 2019b).

Em que pesem as nítidas vantagens da utilização de todas essas tecnologias, há riscos que não podem ser ignorados.

Cathy O’Neil destaca que os algoritmos são construídos para modelar uma realidade e, a partir dos dados fornecidos, responder com o resultado que seus criadores assim desejarem, de modo a solucionar o problema posto. Entretanto, a autora pontua que, “apesar de terem uma reputação de imparcialidade”, esses modelos, e, por consequência, os algoritmos, “refletem objetivos e ideologias” (2016, cap 1).

Isso porque “os valores e os desejos” de seus criadores influenciam suas escolhas, desde os dados que são coletados, passando pelas perguntas que vão direcionar o tratamento e análise desses dados, chegando até a própria definição do que pode ser considerado como sucesso do modelo (2016, cap 1). Assim, “modelos são opiniões envelopadas em matemática” (O’NEIL, 2016, cap. 1).

Por isso, o mau uso dessas ferramentas pode violar tanto direitos fundamentais das pessoas (O’NEIL, 2016; EPIC, 2017) como contribuir com a precarização e mecanização do próprio Direito. Afinal, trata-se de um ramo do conhecimento intrinsicamente subjetivo e influenciado por ciências como Sociologia. Isto implica que não é uma tarefa trivial parametrizar e quantificar objetivamente, em termos matemáticos, conceitos jurídicos naturalmente definidos por intermédio da interpretação (STRECK, 2019a; idem, 2019b; idem 2019c).

Talvez por essa dificuldade de traduzir de forma objetiva todo o processo decisório realizado pelo julgador, as empresas e os especialistas tenham optado por introduzir a IA aos poucos, começando pelas atividades que parecem, a primeira vista, mais objetivas e simples de serem automatizadas e analisadas por meio de algoritmos de IA.

2.2 O encontro da IA com o Direito Penal Americano

Em 1995, foi criado nos Estados Unidos um questionário, chamado de Level of Service Inventory - Revised (LSI-R), ou Inventário de Nível de Serviço - Revisado, que é aplicado aos presidiários para avaliar qual é o risco de reincidência de cada um, com base em ponderações estatísticas sobre as suas respostas. Dependendo da pontuação alcançada, o detento é classificado em alto, médio ou baixo risco de reincidência (O’NEIL, 2017, cap. 1).

Por exemplo, algumas das questões desse teste são: Quantas condenações criminais você já teve?; Qual foi a primeira vez que você se envolveu em uma situação com a polícia?; Seus amigos e parentes possuem histórico de condenações criminais? (O’NEIL, 2017, cap. 1).

Atualmente, esse questionário e sua análise computadorizada são utilizados em dezenas de estados americanos, sendo que em alguns, como Rhode Island, os testes servem apenas para selecionar quais presos serão submetidos a programas de prevenção à reincidência durante o encarceramento, enquanto que em outros, como Idaho e Colorado, os juízes efetivamente usam o resultado do questionário para guiar sua decisão na sentença (O’NEIL, 2017, cap. 1). Isto faz do LSI-R uma das mais populares ferramentas comerciais de análise de risco de reincidência criminal em uso nos EUA hoje em dia, sendo de propriedade da empresa canadense Multi-Health Systems (LARSON, MATTU, KIRCHNER, ANGWIN, 2016).

A outra ferramenta desse tipo que é oferecida por uma grande empresa da América do Norte é o Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), comercializado pela antiga Northpointe Inc., atual Equivant. Foi criada em 1989, por um professor de estatística e um funcionário de um programa de correção criminal, com o intuito de ser um aprimoramento da versão original do LSI. O COMPAS é utilizado em diversos momentos ao longo da justiça criminal e, segundo seus criadores, baseia-se nas principais teorias acerca das causas dos crimes (ANGWIN, 2016).

Também são utilizados dezenas de programas e algoritmos criados e desenvolvidos por acadêmicos e pelos próprios governos estaduais (LARSON, et. al., 2016). Um desses é o Public Safety Assessment, ou avaliador de segurança pública, desenvolvido pela Fundação Laura e John Arnold, e que é utilizado por New Jersey e Arizona (EPIC, 2017; O’BRIEN, KANG, 2018). A fundação afirma que seu algoritmo é simples e pode ser inspecionado por qualquer pessoa, em que pese não permitir a análise dos dados utilizados para treiná-lo. Além disso, baseia-se em 9 fatores de risco, que são variáveis objetivas diretamente relacionadas unicamente ao indivíduo objeto da avaliação (O’BRIEN, KANG, 2018).

Levantamento detalhado feito por uma associação americana revelou que 46 estados norte-americanos exigem o uso dessas ferramentas, pelos magistrados e pelos demais agentes públicos envolvidos, antes de decisões sobre condicionais, prisões preventivas, julgamento de mérito, substituições por penas alternativas, substituição da fiança em dinheiro, entre outras. Nos demais 4 estados, o uso dessas ferramentas é oficialmente recomendado, ainda que não seja expressamente obrigatório (EPIC, 2017).

Estima-se que existam mais de 60 softwares desse tipo em uso nos Tribunais norte-americanos, analisando esse e outros tipos de riscos, como de fuga antes do julgamento caso não seja decretada a prisão preventiva do acusado (SKIBBA, 2018).

O nível de complexidade dessas ferramentas varia. Alguns desses programas usam algoritmos simples, com pouco ou nenhuma aplicação de IA. Outros utilizam um grande número de variáveis, com nítidas aplicações de IA e, em especial, aprendizado de máquina. Cada ferramenta analisa e prioriza dados diferentes, dentre os quais: histórico criminal do acusado/réu/detento, seu gênero, sua idade, CEP da sua residência, histórico criminal de seus pais, informações das redes sociais, contas de energia elétrica e de água, arquivos de vídeo de câmeras de monitoramento público e histórico de ligações para pizzarias (SKIBBA, 2018).

Cabe registrar que a maioria dessas ferramentas não permite nenhuma espécie de auditoria pública de seus algoritmos ou dos dados utilizados para treiná-los, sob alegações de proteção à propriedade intelectual e de segredo comercial. Soma-se a isso o fato de que a maioria, senão todos, os estados norte-americanos adotam essas ferramentas sem exigirem a realização de um estudo imparcial e independente para assegurar a eficácia desses sistemas e o nível de confiança de suas previsões (EPIC, 2017).

2.3 Vieses e demais problemas identificados por acadêmicos e pela sociedade

À primeira vista, esse método parece ser mais efetivo e objetivo do que a mera avaliação subjetiva do magistrado. Corbett-Davies et al sustentam que mesmo algoritmos imperfeitos podem resultar em melhorias significativas para o sistema de justiça criminal (2017).

Entretanto, diversos estudos ao longo dos anos têm demonstrado que os algoritmos não apenas reproduzem os vieses e os preconceitos existentes no sistema de justiça criminal, como também os amplifica, contribuindo para, no longo prazo, aumentar as disparidades raciais e sociais (SIKBBA, 2018). Inclusive, ainda em 2014, o Procurador Chefe dos EUA, Eric Holder, já manifestava seu receio de que isso pudesse ocorrer, tendo solicitado que a Comissão de Sentenciamento dos EUA realizasse um estudo para verificar se essas ferramentas de avaliação de riscos de fato não estariam causando, inadvertidamente, tais resultados (ANGWIN, 2016).

A referida comissão não atendeu à solicitação, mas, um dos principais estudos acerca do tema e que se tornou referência para avaliações posteriores foi feito pelo ProPublica, em 2016, como parte de um estudo maior, destinado a examinar os efeitos poderosos mas ocultos dos algoritmos na vida dos norte-americanos (ANGWIN, 2016).

Os pesquisadores obtiveram, por intermédio de um pedido de acesso à informação pública, as avaliações calculadas pelo COMPAS para 18.610 pessoas, entre 2013 e 2014, presas em Broward County, no estado da Flórida. Essas informações foram comparadas com registros de prisões em anos posteriores, para mensurar a real taxa de reincidência dessas milhares de pessoas avaliadas pelo COMPAS. Foi empregado um extenso e meticuloso trabalho estatístico para analisar esses dados, posteriormente publicado livremente na internet para estimular outras análises e confirmações por outros pesquisadores (LARSON, 2016).

Os resultados desse estudo constataram que os indivíduos negros recebiam uma classificação de risco de reincidência mais alta do que a real taxa de reincidência verificada, enquanto os indivíduos brancos recebiam classificações muito mais baixas do que as reais. O mesmo comportamento foi observado no risco de reincidência violenta. O estudo ainda demonstrou que indivíduos negros tinham uma chance 77% maior do que brancos, com as mesmas variáveis de gênero, idade, histórico criminal e reincidência futura, de serem classificados como alto risco de reincidência violenta (ANGWIN, 2016; LARSON, 2016).

Essas conclusões são corroboradas por diversos outros estudos e avaliações de casos concretos, por todo o país, que ainda apontam outros fatores que desequilibram as análises, como o fato do indivíduo ter 19 anos de idade pode ter o mesmo peso estatístico que 3 registros prévios de violência doméstica e agressão (O’NEIL, 2016; FERGUSON, 2017; EPIC, 2017; SKIBBA, 2018).

Independentemente das análises sobre a acurácia das previsões geradas por esses algoritmos, é nítido que a metodologia empregada nessas ferramentas viola princípios básicos do Direito Penal. Basta lembrar que muitas das questões feitas pelo LSI-R não seriam admitidas se fossem feitas pela acusação em um julgamento. O Direito Penal prega que as pessoas devem ser julgadas pelo fato que cometeram, e não por quem são. Logo, é inadmissível que seja avaliado o histórico criminal de parentes ou amigos que nada tem a ver com o delito para efetuar a dosimetria da pena do réu (O’NEIL, 2016, cap 1).

O direito à ampla defesa e ao contraditório são fundamentais em qualquer democracia, porém estão sendo sonegados de cada um dos indivíduos submetidos a essas análises algoritmicas. Afinal, como recorrer de uma avaliação que não se entende nem se pode verificar? (SKIBBA, 2018).

Ana Frazão repudia esse uso acrítico de algoritmos e sistemas computadorizados, defendendo que “a transferência de processos decisórios para máquinas e algoritmos, tal como vem sendo feita na atualidade, transforma-os em verdadeiros oráculos do nosso tempo” (2018). Indo além, pode-se dizer que, em muitos aspectos, parece um retorno ao tempo dos julgamentos criminais decididos pelas ordálias.

Em artigo publicado no The New York Times, Ellora Israni, ex-engenheira de software do Facebook e pós-graduanda em Direito pela Harvard Law School, sintetiza com maestria o problema do uso de algoritmos proprietários no contexto judicial (2017):

Por enquanto, as únicas pessoas que conseguem ver como o COMPAS funciona por dentro são os seus programadores, que, de diversas formas, são menos equipados do que os juízes para fazer justiça. Juízes possuem capacitação legal, são limitados por juramentos éticos e são fiscalizados e responsabilizados não apenas por suas decisões, mas também por suas justificativas expressas em opiniões publicadas. Aos programadores, não se aplicam nenhuma dessas proteções.

Computadores podem ser inteligentes, mas não são sábios. Tudo o que eles sabem, nós os ensinamos, e ensinamos também nossos vieses. Eles não vão desaprendê-los sem transparência e ação corretiva por parte dos humanos. (tradução livre)

3 PARADIGMAS EM DISCUSSÃO PARA APRIMORAR O USO DE IA NA JUSTIÇA CRIMINAL AMERICANA

A ampla divulgação de diversos estudos apontando os erros e as fragilidades das ferramentas computacionais usadas no sistema da justiça criminal americana tem conscientizado cada vez mais atores mundiais acerca da importância de se desenvolverem instrumentos e regulamentações para aprimorar o uso de IA no Direito, sobretudo o Direito Penal.

Há uma profusão de propostas, inclusive tentativas de sistematização com atuação de organizações internacionais como a OCDE e o Fórum Econômico Mundial; de países como os integrantes da União Europeia; das próprias empresas do setor em uma espécie de autorregularão; de acadêmicos do Direito, da Ciência da Computação, da Estatística, da Matemática, entre outras áreas do conhecimento; de entidades e organizações da sociedade civil de vários países (O’NEIL, 2016; FERGUSON, 2017; WORLD ECONOMIC FORUM, 2018; POLONSKI, 2018; SAVCHUK, 2019; GREENE, 2019; CÂMARA DOS DEPUTADOS, 2019b).

Em comum, todas essas soluções propostas visam aumentar a transparência, possibilitando auditorias externas sobre os softwares que verifiquem e assegurem não só sua acurácia, mas também outros aspectos tão ou mais importantes, como a forma em que foram treinados, os dados utilizados, quais variáveis utiliza, quais pesos são atribuídos a cada variável, como seu modelo foi construído, quais premissas algoritmicas eventualmente violam regras e princípios jurídicos, etc.

Também se demanda que haja maior conscientização e capacitação para toda a população, envolvendo desde os magistrados e demais agentes públicos que serão obrigados a considerar os resultados dessas ferramentas em sua atuação e suas decisões, passando pelos advogados e procuradores do Ministério Público, até a população em geral, para viabilizar o controle social. Uma ampliação do entendimento das limitações e das fragilidades dos algoritmos permite que todos os que recebam essas informações façam uma avaliação mais criteriosa, em vez de confiar acriticamente nos softwares.

A maioria dos atores concorda que se faz necessário regulamentar princípios éticos mínimos a serem seguidos no desenvolvimento e na utilização de algoritmos de IA, bem como que os Estados precisam normatizar um conjunto mínimo de diretrizes, direitos, obrigações e sanções, que seja coerente com as regras vigentes nos demais países, com vistas a evitar abusos e violações.

Algoritmos são um problema global do século XXI e precisam ser tratados como tal na busca por soluções que protejam os indivíduos, mas que não impeçam a inovação e a evolução tecnológica.

4 CAMINHOS POSSÍVEIS PARA O USO DA IA NO DIREITO PENAL BRASILEIRO

Como era de se esperar, a tendência mundial de empregar cada vez mais tecnologias ao Direito e, em especial, ao processo judicial, também chegou ao Brasil. Existem diversas propostas de aplicações e projetos pilotos em andamento que pretendem trazer as vantagens e os benefícios dos algoritmos de IA para o mundo jurídico brasileiro.

4.1 Experiências e propostas de uso de IA no Direito brasileiro

Um exemplo é o software desenvolvido pela Advocacia-Geral da União (AGU) para auxiliar os advogados públicos a localizarem documentos e informações relacionadas a um processo que lhes seja distribuído (AGU, 2013). Também há experiências no Superior Tribunal de Justiça e no Supremo Tribunal Federal, para auxiliar na classificação de processos (CONJUR, 2018b; STF, 2018).

Aplicações semelhantes estariam sendo desenvolvidas de igual modo em parceria com o Tribunal de Justiça do Estado de Minas Gerais (TJMG) e com o Tribunal Superior do Trabalho (TST).

Tecnologias utilizadas nos EUA e em outros países, como o robô de IA da empresa IBM que auxilia na redação e análise de petições, já estão em uso em alguns escritórios maiores do Brasil (CHIESI FILHO, 2018).

Há, ainda, no mercado das empresas de tecnologia e startups de direito, as chamadas legal techs ou lawtechs, propostas de desenvolvimento de programas que façam análises acerca do mérito das alegações das partes, resumindo ao magistrado os principais pontos de cada peça e qual é a jurisprudência relacionada ao caso, bem como programas que alegam serem capazes de construir peças jurídicas com pouco ou nenhum auxílio humano (CONJUR, 2017; CHIESI FILHO, 2017; CONJUR, 2018a).

Como tem ocorrido na maioria dos países, essas propostas também receberam duras críticas de acadêmicos, de associações de advogados, de magistrados e da sociedade civil (CHIESI FILHO, 2017; FRAZÃO, 2017; CONJUR, 2018c; FRAZÃO, 2018; NUNES, RUBINGER, MARQUES, 2018; STRECK, 2019a; idem, 2019b; idem 2019c).

Muitas críticas se concentram na possível “uberização do Direito”, nas palavras de Lênio Streck (2019a), que seria transformar advogados em meros assinadores das peças produzidas pelos softwares, sem que haja qualquer reflexão jurídica, ao mesmo tempo em que ocorreria uma precarização da profissão de advogado, resultando em salários menores e redução dos postos de trabalho (CHIESI FILHO, 2017; CONJUR, 2018c). Lênio Streck vai além e, relembrando Raimundo Faoro, assinala que “não há democracia sem advogados” (2018b).

Por outro lado, os defensores dessas tecnologias apontam que isso já ocorre no dia-a-dia, seja com a reutilização de peças dentro do mesmo escritório, seja a partir da troca de modelos entre advogados por meio de redes sociais e outros meios de comunicação (CONJUR, 2018a).

4.2. Aplicação de algoritmos de IA nas decisões penais brasileiras

As críticas mais contundentes às novas tecnologias, contudo, abordam a legalidade, a constitucionalidade e até a viabilidade de se utilizar somente algoritmos para prever e proferir decisões judiciais (NUNES, VIANA, 2018; CARVALHO, 2018; STRECK, 2019a; idem, 2019b; idem 2019c).

Registre-se que, nos EUA, já houve tentativa de se levar a discussão sobre a constitucionalidade do uso desses algoritmos à Suprema Corte Americana, porém não houve êxito. Considerando as diferenças no modelo de jurisdição constitucional dos EUA e do Brasil, certamente tal discussão chegaria, mais cedo ou mais tarde, para apreciação do Supremo Tribunal Federal (STF).

Até onde se tem notícia, não há o desenvolvimento de ferramentas ou algoritmos específicos para decisões penais, mas nota-se que os atuais softwares disponíveis no mercado brasileiro podem abranger o tratamento de processos penais. Além disso, em face do atual estágio de utilização de tecnologias de IA na produção de decisões judiciais norte-americanas, como discutido ao longo do presente artigo, é razoável imaginar que essa tendência alcançará o Brasil no curto ou médio prazo.

Incialmente cabe destacar que a justiça criminal brasileira possui certas semelhanças com a norte-americana, assim como vários problemas estruturais da sociedade brasileira são comparáveis com os da norte-americana. Certamente, o maior exemplo é o racismo historicamente presente nas sociedades, que influencia e é influenciado pela seletividade do Direito Penal, encarcerando um percentual maior de negros do que outras etnias, quando comparado com a prevalência de negros na população total de cada país. A seletividade também se manifesta em outras vertentes, como classe social e gênero (CARVALHO, 2015).

Nesse cenário, é de se esperar que a introdução de ferramentas idênticas às norte-americanas resultará na ampliação dos problemas discriminatórios no sistema prisional e da justiça criminal no Brasil. As críticas feitas aos algoritmos usados nos EUA aplicar-se-iam de forma muito similar ao caso brasileiro.

Seria mais adequado que eventuais algoritmos implementados na justiça brasileira já levassem em consideração os erros e os acertos que programas similares tiveram nos EUA. Ainda seria recomendável que houvesse uma regulamentação no país, alinhada com as principais propostas internacionais de melhor regulação de algoritmos, visando afastar os riscos de vieses discriminatórios nos algoritmos aplicados no Brasil.

Além disso, um dos princípios básicos do Direito Penal brasileiro é a individualização da pena, não aparentando ser legal nem constitucional as generalizações embutidas nesses modelos de IA, como foi discutido ao longo do presente artigo.

Claudia Carvalho ressalta que aplicar essas ferramentas no Brasil representaria uma violação ao caput do art. 59 do Código Penal, que trata dos aspectos a serem considerados na dosimetria da pena, e ao art. 312 do Código de Processo Penal, que define as circunstâncias que permitem a prisão cautelar (2018).

Não há como substituir a interpretação de conceitos jurídicos indeterminados por avaliações matemáticas e estatísticas codificadas em algoritmos de IA (STRECK, 2019a; idem, 2019b; idem, 2019c).

Por outro lado, como sugere Claudia Carvalho (2018), ferramentas tecnológicas seriam muito benvindas para solucionar questões como o superencarceramento, monitorando automaticamente o tempo de cumprimento de pena dos detentos e alertando a serventia cartorária sobre o momento de análise de possíveis benefícios, evitando que a manutenção da situação atual, em que muitos detentos permanecem presos por tempo superior ao legalmente exigido, seja pela falta de concessão de benefício devido, seja pela falta de acompanhamento de sua pena.

5 CONCLUSÃO

No presente artigo, procurou-se analisar as experiências norte-americanas com o uso de algoritmos baseados em inteligência artificial para subsidiar decisões penais, com o intuito de sinalizar como tais tecnologias podem ser melhores aproveitadas no Brasil.

Com base na análise de literatura acerca do tema, constatou-se que, conforme a hipótese inicial do presente artigo, há diversas violações legais na utilização dessas ferramentas, seja por causa da metodologia empregada na construção desses softwares, seja por causa dos resultados que esses algoritmos produzem.

Note-se que existem diversas propostas de aprimoramento dos algoritmos e de maior regulamentação, para que os problemas sinalizados pelos estudiosos sejam solucionados ou ao menos tenham seu risco mitigado consideravelmente.

No caso do Brasil, verifica-se que o uso de IA tem crescido no âmbito do Direito, contudo ainda não há notícia do uso desses algoritmos em decisões penais. Isso não impede que sejam apontados caminhos mais adequados para a introdução dessas ferramentas no país, de modo que não haja violação legal nem constitucional aos direitos e garantias dos cidadãos.

6 REFERÊNCIAS

ADVOCACIA-GERAL DA UNIÃO (AGU). Advocacia-Geral aposta em inteligência artificial e automação de processos para agilizar trabalhos jurídicos. 26/2/2013. Disponível em: http://www.agu.gov.br/page/content/detail/id_conteudo/230719. Acesso em: 9/5/2019.

 

AGÊNCIA CÂMARA. Governo quer lei para regular vigilância estatal por meio de reconhecimento facial. 3/4/2019. 2019a. Disponível em: https://www2.camara.leg.br/camaranoticias/noticias/SEGURANCA/574469-POLITICA-PUBLICA-DE-COMBATE-A-CRIMINALIDADE-DEVE-SER-MAIS-ABRANGENTE,-DIZ-FORUM-DE-SEGURANCA-PUBLICA.html. Acesso em: 9/5/2019.

 

AGÊNCIA CÂMARA. Política pública de combate à criminalidade deve ser mais abrangente, diz Fórum de Segurança Pública. 3/4/2019. 2019b. Disponível em: https://www2.camara.leg.br/camaranoticias/noticias/SEGURANCA/574466-GOVERNO-QUER-LEI-PARA-REGULAR-VIGILANCIA-ESTATAL-POR-MEIO-DE-RECONHECIMENTO-FACIAL.html. Acesso em: 9/5/2019.

 

ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias. 23/5/2016. 2016. Disponível em: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm. Acesso em: 8/5/2019.

 

CÂMARA DOS DEPUTADOS. Apresentações dos participantes da audência pública sobre reconhecimento facial. 3/4/2019. 2019a. Disponível em: https://www2.camara.leg.br/atividade-legislativa/comissoes/comissoes-permanentes/cctci/audiencias-publicas/copy_of_2018/2019-04-03-reconhecimento-facial/03-04-2019-ap-reconhecimento-facial. Acesso em: 9/5/2019.

 

CÂMARA DOS DEPUTADOS. Apresentações dos participantes da audência pública sobre o impacto social das tecnologias de inteligência artificial. 24/4/2019. 2019b. Disponível em: https://www2.camara.leg.br/atividade-legislativa/comissoes/comissoes-permanentes/cctci/audiencias-publicas/copy_of_2018/2019-04-24-ap-inteligencia-artificial/24-04-2019-ap-o-impacto-social-das-tecnologias-de-inteligencia-artificial. Acesso em: 9/5/2019.

 

CÂMARA DOS DEPUTADOS. Aúdio e vídeo das audências públicas sobre reconhecimento facial e o impacto social das tecnologias de inteligência artificial. 2019c. Disponível em: https://www2.camara.leg.br/atividade-legislativa/comissoes/comissoes-permanentes/cctci/audiencias-publicas/copy_of_2018. Acesso em: 9/5/2019.

 

CARVALHO, Claudia da Costa Bonard. A inteligência artificial na Justiça dos EUA e o Direito Penal brasileiro. Revista Consultor Jurídico (CONJUR). 10/6/2018. Disponível em: https://www.conjur.com.br/2018-jun-10/claudia-bonard-inteligencia-artificial-direito-penal-brasileiro. Acesso em: 9/5/2019.

 

 

CARVALHO, Saulo. O encarceramento seletivo da juventude negra brasileira. 624 Rev. Fac. Direito UFMG, Belo Horizonte, n. 67, pp. 623 - 652, jul./dez. 2015. Disponível em: www.direito.ufmg.br/revista/index.php/revista/article/download/1721/1636. Acesso em 14/6/2019.

 

CHIESI FILHO, Humberto. Inteligência artificial é uma realidade e já afeta a área jurídica. Revista Consultor Jurídico (CONJUR). 15/9/2017. Disponível em: https://www.conjur.com.br/2017-set-15/chiesi-filho-inteligencia-artificial-afeta-area-juridica. Acesso em: 9/5/2019.

 

CONSULTOR JURÍDICO (CONJUR). Robôs permitem que juízes deixem de lado função de gestor de processos e varas. 26/8/2017. 2017. Disponível em: https://www.conjur.com.br/2017-ago-26/robos-permitem-juizes-deixem-lado-funcao-gestor. Acesso em: 9/5/2019.

 

CONSULTOR JURÍDICO (CONJUR). Em cenário de crise, legal techs podem melhorar o rendimento da advocacia, diz advogado. 5/5/2018. 2018a. Disponível em: https://www.conjur.com.br/2018-mai-05/proliferacao-legal-services-empobreceu-classe-advogado. Acesso em: 9/5/2019.

 

CONSULTOR JURÍDICO (CONJUR). STJ cria sistema de inteligência artificial para agilizar processos. 14/6/2018. 2018b. Disponível em: https://www.conjur.com.br/2018-jun-14/stj-cria-sistema-inteligencia-artificial-agilizar-processos. Acesso em: 9/5/2019.

 

CONSULTOR JURÍDICO (CONJUR). OAB anuncia grupo para regulamentar o uso de inteligência artificial. 2/7/2018. 2018c. Disponível em: https://www.conjur.com.br/2018-jul-02/oab-cria-grupo-regulamentar-uso-inteligencia-artificial. Acesso em: 9/5/2019.

 

CORBETT-DAVIES, Sam; GOEL, Sharad; GONZÁLEZ-BAILÓN, Sandra. Even Imperfect Algorithms Can Improve the Criminal Justice System. The New York Times. 20/12/2017. Disponível em: https://www.nytimes.com/2017/12/20/upshot/algorithms-bail-criminal-justice-system.html. Acesso em: 8/5/2019.

 

ELECTRONIC PRIVACY INFORMATION CENTER (EPIC). Algorithms in the criminal justice system. 2017. Disponível em: https://epic.org/algorithmic-transparency/crim-justice/. Acesso em: 8/5/2019.

 

FERGUSON, Andrew G. The rise of big data policing: surveillance, race, and the future of law enforcement. Nova Iorque: New York University Press. 2017. Edição digital.

 

FRAZÃO, Ana. Algoritmos e inteligência artificial. Jota. 16/5/2018. 2018. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/algoritmos-e-inteligencia-artificial-16052018. Acesso em: 16/5/2018.

 

FRAZÃO, Ana. Dados, estatísticas e algoritmos. Jota. 28/6/2017. 2017. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/dados-estatisticas-e-algoritmos-28062017. Acesso em: 16/5/2018.

 

GREENE, Tristan. Why the criminal justice system should abandon algorithms. 7/2/2019. Disponível em: https://thenextweb.com/artificial-intelligence/2019/02/07/why-the-criminal-justice-system-should-abandon-algorithms/. Acesso em: 8/5/2019.

 

ISRANI, Ellora Thadaney. When an algorithm helps send you to prison. The New York Times. 26/10/2017. Disponível em: https://www.nytimes.com/2017/10/26/opinion/algorithm-compas-sentencing-bias.html. Acesso em 8/5/2019.

 

KATZ, D. M.; BOMMARITO, M. J. II; BLACKMAN, J. A general approach for predicting the behavior of the Supreme Court of the United States. PLoS ONE 12(4): e0174698. 12/4/2017. Disponível em: https://doi.org/10.1371/journal.pone.0174698. Acesso em 9/5/2019.

 

LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren; ANGWIN, Julia. How we analyzed the COMPAS recidivism algorithm. 23/5/2016. 2016 Disponível em: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm. Acesso em: 8/5/2019.

 

MOSCHOVAKIS, Y. N. What is an Algorithm?, in B. Engquist and W. Schmid (editores), Mathematics Unlimited — 2001 and Beyond, Springer, pp. 919–936 (Part II). 2001. Disponível em www.cs.cmu.edu/~cdm/pdf/Moschovakis01.pdf. Acesso em 23/4/2019.

 

NUNES, Dierle; VIANA, Aurélio. Deslocar função estritamente decisória para máquinas é muito perigoso. Revista Consultor Jurídico (CONJUR). 22/1/2018. Disponível em https://www.conjur.com.br/2018-jan-22/opiniao-deslocar-funcao-decisoria-maquinas-perigoso. Acesso em 9/5/2019.

 

NUNES, Dierle; RUBINGER, Paula Caetano; MARQUES, Ana Luiza. Os perigos do uso da inteligência artificial na advocacia. Revista Consultor Jurídico (CONJUR). 9/7/2018. Disponível em: https://www.conjur.com.br/2018-jul-09/opiniao-perigos-uso-inteligencia-artificial-advocacia. Acesso em: 9/5/2019.

 

O’BRIEN, Matt; KANG, Dake. AI in the court: When algorithms rule on jail time. 31/1/2018. Disponível em: https://phys.org/news/2018-01-ai-court-algorithms.html. Acesso em: 8/5/2019.

 

O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. Nova Iorque: Crown Publishers. 2016. Edição digital.

 

OCDE. Algorithms and collusion: Competition policy in the digital age. 2017. Disponível em www.oecd.org/competition/algorithms-collusion-competition-policy-in-the-digital-age.htm. Acesso em 17/2/2019.

 

POLONSKI, Vyacheslav. Mitigating algorithmic bias in predictive justice: 4 design principles for AI fairness. 23/11/2018. Disponível em: https://towardsdatascience.com/mitigating-algorithmic-bias-in-predictive-justice-ux-design-principles-for-ai-fairness-machine-learning-d2227ce28099. Acesso em: 8/5/2019.

 

SAMUEL, Arthur. L. Some Studies in Machine Learning Using the Game of Checkers. IBM Journal of Research and Development. 1959. Disponível em: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.368.2254&rep=rep1&type=pdf. Acesso em 9/5/2019.

 

SAVCHUK, Katia. Justice by the numbers: meet the statistician trying to fix bias in criminal justice algorithms. 1/2/2019. Disponível em: https://psmag.com/social-justice/justice-by-the-numbers-meet-the-statistician-trying-to-fix-bias-in-criminal-justice-algorithms. Acesso em 8/5/2019.

 

SKIBBA, Ramin. A Calculating Look at Criminal Justice. Disponível em: https://undark.org/article/a-calculating-look-at-criminal-justice/. Acesso em: 8/5/2019.

 

STRECK, Lenio Luiz. Lawtechs, startups, algoritmos: Direito que é bom, nem falar, certo? Revista Consultor Jurídico. 16/5/2019. 2019a. Disponível em: https://www.conjur.com.br/2019-mai-16/senso-incomum-lawtechs-startups-algoritmos-direito-bom-nem-falar-certo. Acesso em 16/5/2019.

 

STRECK, Lenio Luiz. Distopia: os algoritmos e o fim dos advogados: kill all the lawyers! Revista Consultor Jurídico. 23/5/2019. 2019b. Disponível em: https://www.conjur.com.br/2019-mai-23/senos-incomum-distopia-algoritmos-fim-advogados-kill-all-the-lawyers. Acesso em 23/5/2019.

 

STRECK, Lenio Luiz. Que venham logo os intelectuais para ensinarem aos especialistas. Revista Consultor Jurídico. 30/5/2019. 2019c. Disponível em: https://www.conjur.com.br/2019-mai-30/senso-incomum-venham-logo-intelectuais-ensinarem-aos-especialistas. Acesso em 30/5/2019.

 

SUPREMO TRIBUNAL FEDERAL (STF). Inteligência artificial vai agilizar a tramitação de processos no STF. 30/5/2018. Disponível em: http://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=380038. Acesso em: 8/5/2019

 

TALBOT, David; FOSSETT, Jeff. Exploring the Role of Algorithms in Online Harmful Speech. Berkman Klein Center for Internet & Society at Harvard University. Agosto/2017.

 

WORLD ECONOMIC FORUM. AI is convicting criminals and determining jail time, but is it fair? 19/11/2018. Disponível em: https://www.weforum.org/agenda/2018/11/algorithms-court-criminals-jail-time-fair/. Acesso em: 8/5/2019.



Informações sobre o texto

Artigo premiado com o 1º lugar na categoria "Futuro da Justiça no Brasil" no I Concurso de Artigos Científicos do STJ, realizado em 2019.

Este texto foi publicado diretamente pela autora. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi.

Comentários

0

Autorizo divulgar minha mensagem juntamente com meus dados de identificação.
A divulgação será por tempo indeterminado, mas eu poderei solicitar a remoção no futuro.
Concordo com a Política de Privacidade e a Política de Tratamento de Dados do Jus.

Regras de uso