4. CAMINHOS POSSÍVEIS PARA O USO DA IA NO DIREITO PENAL BRASILEIRO
Como era de se esperar, a tendência mundial de empregar cada vez mais tecnologias ao Direito e, em especial, ao processo judicial, também chegou ao Brasil. Existem diversas propostas de aplicações e projetos pilotos em andamento que pretendem trazer as vantagens e os benefícios dos algoritmos de IA para o mundo jurídico brasileiro.
4.1. Experiências e propostas de uso de IA no Direito brasileiro
Um exemplo é o software desenvolvido pela Advocacia-Geral da União (AGU) para auxiliar os advogados públicos a localizarem documentos e informações relacionadas a um processo que lhes seja distribuído (AGU, 2013). Também há experiências no Superior Tribunal de Justiça e no Supremo Tribunal Federal, para auxiliar na classificação de processos (CONJUR, 2018b; STF, 2018).
Aplicações semelhantes estariam sendo desenvolvidas de igual modo em parceria com o Tribunal de Justiça do Estado de Minas Gerais (TJMG) e com o Tribunal Superior do Trabalho (TST).
Tecnologias utilizadas nos EUA e em outros países, como o robô de IA da empresa IBM que auxilia na redação e análise de petições, já estão em uso em alguns escritórios maiores do Brasil (CHIESI FILHO, 2018).
Há, ainda, no mercado das empresas de tecnologia e startups de direito, as chamadas legal techs ou lawtechs, propostas de desenvolvimento de programas que façam análises acerca do mérito das alegações das partes, resumindo ao magistrado os principais pontos de cada peça e qual é a jurisprudência relacionada ao caso, bem como programas que alegam serem capazes de construir peças jurídicas com pouco ou nenhum auxílio humano (CONJUR, 2017; CHIESI FILHO, 2017; CONJUR, 2018a).
Como tem ocorrido na maioria dos países, essas propostas também receberam duras críticas de acadêmicos, de associações de advogados, de magistrados e da sociedade civil (CHIESI FILHO, 2017; FRAZÃO, 2017; CONJUR, 2018c; FRAZÃO, 2018; NUNES, RUBINGER, MARQUES, 2018; STRECK, 2019a; idem, 2019b; idem 2019c).
Muitas críticas se concentram na possível “uberização do Direito”, nas palavras de Lênio Streck (2019a), que seria transformar advogados em meros assinadores das peças produzidas pelos softwares, sem que haja qualquer reflexão jurídica, ao mesmo tempo em que ocorreria uma precarização da profissão de advogado, resultando em salários menores e redução dos postos de trabalho (CHIESI FILHO, 2017; CONJUR, 2018c). Lênio Streck vai além e, relembrando Raimundo Faoro, assinala que “não há democracia sem advogados” (2018b).
Por outro lado, os defensores dessas tecnologias apontam que isso já ocorre no dia-a-dia, seja com a reutilização de peças dentro do mesmo escritório, seja a partir da troca de modelos entre advogados por meio de redes sociais e outros meios de comunicação (CONJUR, 2018a).
4.2. Aplicação de algoritmos de IA nas decisões penais brasileiras
As críticas mais contundentes às novas tecnologias, contudo, abordam a legalidade, a constitucionalidade e até a viabilidade de se utilizar somente algoritmos para prever e proferir decisões judiciais (NUNES, VIANA, 2018; CARVALHO, 2018; STRECK, 2019a; idem, 2019b; idem 2019c).
Registre-se que, nos EUA, já houve tentativa de se levar a discussão sobre a constitucionalidade do uso desses algoritmos à Suprema Corte Americana, porém não houve êxito. Considerando as diferenças no modelo de jurisdição constitucional dos EUA e do Brasil, certamente tal discussão chegaria, mais cedo ou mais tarde, para apreciação do Supremo Tribunal Federal (STF).
Até onde se tem notícia, não há o desenvolvimento de ferramentas ou algoritmos específicos para decisões penais, mas nota-se que os atuais softwares disponíveis no mercado brasileiro podem abranger o tratamento de processos penais. Além disso, em face do atual estágio de utilização de tecnologias de IA na produção de decisões judiciais norte-americanas, como discutido ao longo do presente artigo, é razoável imaginar que essa tendência alcançará o Brasil no curto ou médio prazo.
Incialmente cabe destacar que a justiça criminal brasileira possui certas semelhanças com a norte-americana, assim como vários problemas estruturais da sociedade brasileira são comparáveis com os da norte-americana. Certamente, o maior exemplo é o racismo historicamente presente nas sociedades, que influencia e é influenciado pela seletividade do Direito Penal, encarcerando um percentual maior de negros do que outras etnias, quando comparado com a prevalência de negros na população total de cada país. A seletividade também se manifesta em outras vertentes, como classe social e gênero (CARVALHO, 2015).
Nesse cenário, é de se esperar que a introdução de ferramentas idênticas às norte-americanas resultará na ampliação dos problemas discriminatórios no sistema prisional e da justiça criminal no Brasil. As críticas feitas aos algoritmos usados nos EUA aplicar-se-iam de forma muito similar ao caso brasileiro.
Seria mais adequado que eventuais algoritmos implementados na justiça brasileira já levassem em consideração os erros e os acertos que programas similares tiveram nos EUA. Ainda seria recomendável que houvesse uma regulamentação no país, alinhada com as principais propostas internacionais de melhor regulação de algoritmos, visando afastar os riscos de vieses discriminatórios nos algoritmos aplicados no Brasil.
Além disso, um dos princípios básicos do Direito Penal brasileiro é a individualização da pena, não aparentando ser legal nem constitucional as generalizações embutidas nesses modelos de IA, como foi discutido ao longo do presente artigo.
Claudia Carvalho ressalta que aplicar essas ferramentas no Brasil representaria uma violação ao caput do art. 59. do Código Penal, que trata dos aspectos a serem considerados na dosimetria da pena, e ao art. 312. do Código de Processo Penal, que define as circunstâncias que permitem a prisão cautelar (2018).
Não há como substituir a interpretação de conceitos jurídicos indeterminados por avaliações matemáticas e estatísticas codificadas em algoritmos de IA (STRECK, 2019a; idem, 2019b; idem, 2019c).
Por outro lado, como sugere Claudia Carvalho (2018), ferramentas tecnológicas seriam muito benvindas para solucionar questões como o superencarceramento, monitorando automaticamente o tempo de cumprimento de pena dos detentos e alertando a serventia cartorária sobre o momento de análise de possíveis benefícios, evitando que a manutenção da situação atual, em que muitos detentos permanecem presos por tempo superior ao legalmente exigido, seja pela falta de concessão de benefício devido, seja pela falta de acompanhamento de sua pena.
5. CONCLUSÃO
No presente artigo, procurou-se analisar as experiências norte-americanas com o uso de algoritmos baseados em inteligência artificial para subsidiar decisões penais, com o intuito de sinalizar como tais tecnologias podem ser melhores aproveitadas no Brasil.
Com base na análise de literatura acerca do tema, constatou-se que, conforme a hipótese inicial do presente artigo, há diversas violações legais na utilização dessas ferramentas, seja por causa da metodologia empregada na construção desses softwares, seja por causa dos resultados que esses algoritmos produzem.
Note-se que existem diversas propostas de aprimoramento dos algoritmos e de maior regulamentação, para que os problemas sinalizados pelos estudiosos sejam solucionados ou ao menos tenham seu risco mitigado consideravelmente.
No caso do Brasil, verifica-se que o uso de IA tem crescido no âmbito do Direito, contudo ainda não há notícia do uso desses algoritmos em decisões penais. Isso não impede que sejam apontados caminhos mais adequados para a introdução dessas ferramentas no país, de modo que não haja violação legal nem constitucional aos direitos e garantias dos cidadãos.
6. REFERÊNCIAS
ADVOCACIA-GERAL DA UNIÃO (AGU). Advocacia-Geral aposta em inteligência artificial e automação de processos para agilizar trabalhos jurídicos. 26/2/2013. Disponível em: https://www.agu.gov.br/page/content/detail/id_conteudo/230719. Acesso em: 9/5/2019.
AGÊNCIA CÂMARA. Governo quer lei para regular vigilância estatal por meio de reconhecimento facial. 3/4/2019. 2019a. Disponível em: https://www2.camara.leg.br/camaranoticias/noticias/SEGURANCA/574469-POLITICA-PUBLICA-DE-COMBATE-A-CRIMINALIDADE-DEVE-SER-MAIS-ABRANGENTE,-DIZ-FORUM-DE-SEGURANCA-PUBLICA.html. Acesso em: 9/5/2019.
AGÊNCIA CÂMARA. Política pública de combate à criminalidade deve ser mais abrangente, diz Fórum de Segurança Pública. 3/4/2019. 2019b. Disponível em: https://www2.camara.leg.br/camaranoticias/noticias/SEGURANCA/574466-GOVERNO-QUER-LEI-PARA-REGULAR-VIGILANCIA-ESTATAL-POR-MEIO-DE-RECONHECIMENTO-FACIAL.html. Acesso em: 9/5/2019.
ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias . 23/5/2016. 2016. Disponível em: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm. Acesso em: 8/5/2019.
CÂMARA DOS DEPUTADOS. Apresentações dos participantes da audência pública sobre reconhecimento facial. 3/4/2019. 2019a. Disponível em: https://www2.camara.leg.br/atividade-legislativa/comissoes/comissoes-permanentes/cctci/audiencias-publicas/copy_of_2018/2019-04-03-reconhecimento-facial/03-04-2019-ap-reconhecimento-facial. Acesso em: 9/5/2019.
CÂMARA DOS DEPUTADOS. Apresentações dos participantes da audência pública sobre o impacto social das tecnologias de inteligência artificial. 24/4/2019. 2019b. Disponível em: https://www2.camara.leg.br/atividade-legislativa/comissoes/comissoes-permanentes/cctci/audiencias-publicas/copy_of_2018/2019-04-24-ap-inteligencia-artificial/24-04-2019-ap-o-impacto-social-das-tecnologias-de-inteligencia-artificial. Acesso em: 9/5/2019.
CÂMARA DOS DEPUTADOS. Aúdio e vídeo das audências públicas sobre reconhecimento facial e o impacto social das tecnologias de inteligência artificial. 2019c. Disponível em: https://www2.camara.leg.br/atividade-legislativa/comissoes/comissoes-permanentes/cctci/audiencias-publicas/copy_of_2018. Acesso em: 9/5/2019.
CARVALHO, Claudia da Costa Bonard. A inteligência artificial na Justiça dos EUA e o Direito Penal brasileiro. Revista Consultor Jurídico (CONJUR). 10/6/2018. Disponível em: https://www.conjur.com.br/2018-jun-10/claudia-bonard-inteligencia-artificial-direito-penal-brasileiro. Acesso em: 9/5/2019.
CARVALHO, Saulo. O encarceramento seletivo da juventude negra brasileira. 624. Rev. Fac. Direito UFMG, Belo Horizonte, n. 67, pp. 623. - 652, jul./dez. 2015. Disponível em: www.direito.ufmg.br/revista/index.php/revista/article/download/1721/1636. Acesso em 14/6/2019.
CHIESI FILHO, Humberto. Inteligência artificial é uma realidade e já afeta a área jurídica. Revista Consultor Jurídico (CONJUR). 15/9/2017. Disponível em: https://www.conjur.com.br/2017-set-15/chiesi-filho-inteligencia-artificial-afeta-area-juridica. Acesso em: 9/5/2019.
CONSULTOR JURÍDICO (CONJUR). Robôs permitem que juízes deixem de lado função de gestor de processos e varas. 26/8/2017. 2017. Disponível em: https://www.conjur.com.br/2017-ago-26/robos-permitem-juizes-deixem-lado-funcao-gestor. Acesso em: 9/5/2019.
CONSULTOR JURÍDICO (CONJUR). Em cenário de crise, legal techs podem melhorar o rendimento da advocacia, diz advogado. 5/5/2018. 2018a. Disponível em: https://www.conjur.com.br/2018-mai-05/proliferacao-legal-services-empobreceu-classe-advogado. Acesso em: 9/5/2019.
CONSULTOR JURÍDICO (CONJUR). STJ cria sistema de inteligência artificial para agilizar processos. 14/6/2018. 2018b. Disponível em: https://www.conjur.com.br/2018-jun-14/stj-cria-sistema-inteligencia-artificial-agilizar-processos. Acesso em: 9/5/2019.
CONSULTOR JURÍDICO (CONJUR). OAB anuncia grupo para regulamentar o uso de inteligência artificial. 2/7/2018. 2018c. Disponível em: https://www.conjur.com.br/2018-jul-02/oab-cria-grupo-regulamentar-uso-inteligencia-artificial. Acesso em: 9/5/2019.
CORBETT-DAVIES, Sam; GOEL, Sharad; GONZÁLEZ-BAILÓN, Sandra. Even Imperfect Algorithms Can Improve the Criminal Justice System . The New York Times. 20/12/2017. Disponível em: https://www.nytimes.com/2017/12/20/upshot/algorithms-bail-criminal-justice-system.html. Acesso em: 8/5/2019.
ELECTRONIC PRIVACY INFORMATION CENTER (EPIC). Algorithms in the criminal justice system . 2017. Disponível em: https://epic.org/algorithmic-transparency/crim-justice/. Acesso em: 8/5/2019.
FERGUSON, Andrew G. The rise of big data policing: surveillance, race, and the future of law enforcement . Nova Iorque: New York University Press. 2017. Edição digital.
FRAZÃO, Ana. Algoritmos e inteligência artificial. Jota. 16/5/2018. 2018. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/algoritmos-e-inteligencia-artificial-16052018. Acesso em: 16/5/2018.
FRAZÃO, Ana. Dados, estatísticas e algoritmos. Jota. 28/6/2017. 2017. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/dados-estatisticas-e-algoritmos-28062017. Acesso em: 16/5/2018.
GREENE, Tristan. Why the criminal justice system should abandon algorithms . 7/2/2019. Disponível em: https://thenextweb.com/artificial-intelligence/2019/02/07/why-the-criminal-justice-system-should-abandon-algorithms/. Acesso em: 8/5/2019.
ISRANI, Ellora Thadaney. When an algorithm helps send you to prison . The New York Times. 26/10/2017. Disponível em: https://www.nytimes.com/2017/10/26/opinion/algorithm-compas-sentencing-bias.html. Acesso em 8/5/2019.
KATZ, D. M.; BOMMARITO, M. J. II; BLACKMAN, J. A general approach for predicting the behavior of the Supreme Court of the United States . PLoS ONE 12(4): e[017]4698. 12/4/2017. Disponível em: https://doi.org/10.1371/journal.pone.0174698. Acesso em 9/5/2019.
LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren; ANGWIN, Julia. How we analyzed the COMPAS recidivism algorithm . 23/5/2016. 2016. Disponível em: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm. Acesso em: 8/5/2019.
MOSCHOVAKIS, Y. N. What is an Algorithm? , in B. Engquist and W. Schmid (editores), Mathematics Unlimited — 2001 and Beyond, Springer, pp. 919–936 (Part II). 2001. Disponível em www.cs.cmu.edu/~cdm/pdf/Moschovakis01.pdf. Acesso em 23/4/2019.
NUNES, Dierle; VIANA, Aurélio. Deslocar função estritamente decisória para máquinas é muito perigoso. Revista Consultor Jurídico (CONJUR). 22/1/2018. Disponível em https://www.conjur.com.br/2018-jan-22/opiniao-deslocar-funcao-decisoria-maquinas-perigoso. Acesso em 9/5/2019.
NUNES, Dierle; RUBINGER, Paula Caetano; MARQUES, Ana Luiza. Os perigos do uso da inteligência artificial na advocacia. Revista Consultor Jurídico (CONJUR). 9/7/2018. Disponível em: https://www.conjur.com.br/2018-jul-09/opiniao-perigos-uso-inteligencia-artificial-advocacia. Acesso em: 9/5/2019.
O’BRIEN, Matt; KANG, Dake. AI in the court: When algorithms rule on jail time . 31/1/2018. Disponível em: https://phys.org/news/2018-01-ai-court-algorithms.html. Acesso em: 8/5/2019.
O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy . Nova Iorque: Crown Publishers. 2016. Edição digital.
OCDE. Algorithms and collusion: Competition policy in the digital age . 2017. Disponível em www.oecd.org/competition/algorithms-collusion-competition-policy-in-the-digital-age.htm. Acesso em 17/2/2019.
POLONSKI, Vyacheslav. Mitigating algorithmic bias in predictive justice: 4 design principles for AI fairness . 23/11/2018. Disponível em: https://towardsdatascience.com/mitigating-algorithmic-bias-in-predictive-justice-ux-design-principles-for-ai-fairness-machine-learning-d2227ce28099. Acesso em: 8/5/2019.
SAMUEL, Arthur. L. Some Studies in Machine Learning Using the Game of Checkers . IBM Journal of Research and Development. 1959. Disponível em: https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.368.2254&rep=rep1&type=pdf. Acesso em 9/5/2019.
SAVCHUK, Katia. Justice by the numbers: meet the statistician trying to fix bias in criminal justice algorithms . 1/2/2019. Disponível em: https://psmag.com/social-justice/justice-by-the-numbers-meet-the-statistician-trying-to-fix-bias-in-criminal-justice-algorithms. Acesso em 8/5/2019.
SKIBBA, Ramin. A Calculating Look at Criminal Justice . Disponível em: https://undark.org/article/a-calculating-look-at-criminal-justice/. Acesso em: 8/5/2019.
STRECK, Lenio Luiz. Lawtechs, startups, algoritmos: Direito que é bom, nem falar, certo? Revista Consultor Jurídico. 16/5/2019. 2019a. Disponível em: https://www.conjur.com.br/2019-mai-16/senso-incomum-lawtechs-startups-algoritmos-direito-bom-nem-falar-certo. Acesso em 16/5/2019.
STRECK, Lenio Luiz. Distopia: os algoritmos e o fim dos advogados: kill all the lawyers! Revista Consultor Jurídico. 23/5/2019. 2019b. Disponível em: https://www.conjur.com.br/2019-mai-23/senos-incomum-distopia-algoritmos-fim-advogados-kill-all-the-lawyers. Acesso em 23/5/2019.
STRECK, Lenio Luiz. Que venham logo os intelectuais para ensinarem aos especialistas. Revista Consultor Jurídico. 30/5/2019. 2019c. Disponível em: https://www.conjur.com.br/2019-mai-30/senso-incomum-venham-logo-intelectuais-ensinarem-aos-especialistas. Acesso em 30/5/2019.
SUPREMO TRIBUNAL FEDERAL (STF). Inteligência artificial vai agilizar a tramitação de processos no STF. 30/5/2018. Disponível em: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=380038. Acesso em: 8/5/2019
TALBOT, David; FOSSETT, Jeff. Exploring the Role of Algorithms in Online Harmful Speech . Berkman Klein Center for Internet & Society at Harvard University. Agosto/2017.
WORLD ECONOMIC FORUM. AI is convicting criminals and determining jail time, but is it fair? 19/11/2018. Disponível em: https://www.weforum.org/agenda/2018/11/algorithms-court-criminals-jail-time-fair/. Acesso em: 8/5/2019.