A Comissão Europeia, braço executivo da União Europeia, apresentou no dia 21 de abril de 2021 a sua proposta para regulamentação das tecnologias de inteligência artificial (IA)[1]. A proposta, que recebeu o nome de Artificial Intelligence Act[2], foi resultado de cerca de três anos de estudos, debates e sugestões sobre o tema[3] em organismos integrantes da UE e em consulta ao público[4]. A intenção do bloco europeu é não apenas regulamentar o uso da tecnologia no âmbito dos Estados-membros, mas tornar a Europa um “hub global de excelência e confiança em inteligência artificial”.
O objetivo é realmente alcançar uma posição de liderança como “global rulemaker” no processo de regulação de IA. Do mesmo modo como aconteceu com as políticas normativas de proteção de dados pessoais (com a edição do RGPD em 2018[5]), a Europa pretende assumir posição de vanguarda e liderança, induzindo a que outros países adotem legislação similar. Pode-se dizer que, sob esse prisma, a UE já alcançou o protagonismo desejado, pois a proposta apresentada é certamente um dos mais abrangentes conjuntos de normas regulatórias sobre IA.
A Comissão Europeia sustenta que é possível "garantir a segurança e os direitos fundamentais das pessoas” e, ao mesmo tempo, "reforçar o uso, investimento e inovação em IA"[6]. A inteligência artificial terá um impacto enorme em praticamente todas as áreas da atividade humana, nas próximas décadas. Os benefícios potenciais da IA na sociedade são diversos. Programas baseados em IA podem contribuir para reduzir a poluição, diminuir o número de acidentes e mortes no trânsito das cidades, revolucionar a medicina e criar novos procedimentos e tratamentos de assistência à saúde, melhorar a educação e auxiliar no combate ao crime e ao terrorismo. No período da pandemia, programas e aplicativos que funcionam baseados em inteligência artificial têm contribuído na luta contra a Covid-19, permitindo construir mapas de expansão da doença, diagnosticando a infecção por meio de scanners de tomografia computadorizada e auxiliando no desenvolvimento de vacinas e drogas contra o vírus. As tecnologias de IA têm potencial para incrementar produtividade em todos os setores da economia, criar novos mercados e trazer novas oportunidades de crescimento econômico.
Apesar dos incontáveis e fantásticos benefícios que a tecnologia pode trazer para a humanidade, sua utilização também vem acompanhada de certos riscos, pois tem o potencial de expor pessoas a erros de concepção e vícios de segurança, minando direitos e garantias fundamentais dos indivíduos, ameaçando a segurança das pessoas e comprometendo valores democráticos da sociedade. Certas características da IA, como a opacidade, complexidade e autonomia de alguns algoritmos, tornam difícil estabelecer a causa entre o funcionamento de um programa e os resultados. Nem sempre é possível determinar por que um sistema de IA chegou a um resultado específico. Como consequência, torna-se difícil acessar e provar quando alguém é injustamente discriminado pelo uso de um programa de seleção de candidatos a emprego ou a um benefício governamental, só para exemplificar algumas situações. O uso da tecnologia de IA pode dificultar ainda mais a correção de erros em decisões. Os riscos da utilização da IA são também facilmente demonstráveis em face das tecnologias de reconhecimento facial. O uso desse tipo de tecnologia em espaços públicos pode gerar efeito intrusivo acentuado na privacidade das pessoas, se não for adequadamente regulado. Defeitos de concepção em sistemas de IA podem resultar em discriminação para determinadas pessoas. Essas circunstâncias revelam os dois lados da inteligência artificial: oportunidades e riscos.
A proposta de regulamento europeu leva em conta esses dois aspectos distintos e aparentemente antagônicos das ferramentas artificialmente inteligentes. Por essa razão, procura encontrar o equilíbrio normativo, para fomentar e promover o desenvolvimento de tecnologias “AI-driven” sem esquecer a necessidade de construir um “human-centric” quadro regulatório. A construção de um quadro regulatório é indispensável para que as pessoas tenham confiança de que a tecnologia de IA é usada de maneira segura e em obediência à lei, incluindo o respeito aos direitos fundamentais individuais. O objetivo é garantir que os sistemas de IA colocados no mercado europeu sejam seguros e respeitem a legislação em vigor, garantindo a segurança jurídica necessária para fomentar investimento e inovação tecnológica. A intervenção legal é limitada ao mínimo necessário para abordar os riscos e problemas relacionados com o uso da tecnologia de IA, sem criar empecilhos ao desenvolvimento tecnológico ou elevar os custos do desenvolvimento de novas soluções e projetos.
A abordagem regulatória tem como premissa principal a hierarquização dos riscos oferecidos por sistemas e tecnologias que usam IA. Segundo essa visão regulatória baseada nos riscos (risk-based regulatory approach), as restrições e exigências aumentam conforme maiores sejam os riscos que os sistemas de IA possam oferecer a direitos e garantias fundamentais dos indivíduos. Os níveis de regulação são diferentes de acordo com os riscos, variam conforme os riscos que os sistemas de IA possam apresentar a valores da sociedade e direitos das pessoas. A concepção regulatória baseada nos níveis de riscos dos sistemas de IA tem um caráter de proporcionalidade, no sentido de que as restrições mais graves e exigências mais onerosas somente se aplicam a programas e aplicações que ofereçam maiores riscos à segurança e direitos fundamentais das pessoas. Para os demais, são reservadas poucas obrigações de transparência, como ocorre em relação aos aplicativos de “assistente pessoal”[7], para os quais se exige apenas que se dê conhecimento ao usuário de que está interagindo com um sistema de inteligência artificial. Em relação aos sistemas de alto risco (high-risk AI systems), as exigências regulatórias aumentam muito, passando pela obrigação de documentação, rastreabilidade, supervisão humana e outras imposições indispensáveis para mitigar consequências danosas aos usuários. Ao limitar as obrigações ao mínimo necessário para enfrentar o problema dos riscos atrelados à IA, a proposta da Comissão caracteriza-se por uma intervenção legal mínima, de forma a não embotar o desenvolvimento tecnológico ou criar custos desnecessários ao comércio de dispositivos e equipamentos artificialmente inteligentes.
Enquanto a maioria dos programas e algoritmos não apresenta maiores riscos, alguns sistemas que funcionam baseados em IA criam riscos para a segurança dos usuários, que precisam ser considerados para evitar danos às pessoas. Nessa acepção, a proposta classifica os sistemas de IA em três diferentes patamares de risco: os de "risco inaceitável" (unacceptable risk), os de "risco elevado" (high-risk) e os de "risco limitado" (limited risk) ou de "risco mínimo" (minimal risk). O desenvolvimento e utilização de sistemas que apresentem “risco inaceitável” são completamente vedados, em razão do elevado potencial de vulneração de direitos fundamentais. Em relação aos sistemas de “alto risco”, o Regulamento impõe severas restrições ao desenvolvimento, implementação e uso. Já quanto aos de “baixo ou risco mínimo”, a tolerância é quase plena, com pequenas exigências de transparência.
Num próximo artigo, explicaremos cada um desses conjuntos de sistemas artificialmente inteligentes e as exigências e requisitos impostos ao desenvolvimento e colocação no mercado de cada espécie.
A proposta de Regulamento ainda necessita de aprovação parlamentar. O Parlamento Europeu e os Estados-Membros vão avaliar a proposta da Comissão, num processo que pode levar anos, mas, se aprovada, suas regras serão aplicadas a qualquer provedor de sistema de IA, ainda que a empresa controladora ou provedora tenha sede fora do território europeu, desde que seu funcionamento afete pessoas localizadas na Europa.
Notas
[1] Inteligência artificial (por vezes mencionada pela sigla em português IA ou pela sigla em inglês AI - artificial intelligence) é a inteligência similar à humana exibida por sistemas de software, além de também ser um campo de estudo acadêmico.
[2] O nome completo atribuído à proposta legislativa é: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS. Cópia em PDF da proposta de regulação pode ser obtida em: https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence-artificial-intelligence
[3] Os trabalhos preparatórios começaram em 2018 com a criação de um Grupo de Alto Nível de Peritos em IA (HLEG – High Level Expert Group), que tinha uma composição abrangente de 52 especialistas renomados encarregados de aconselhar a Comissão sobre a implementação da Estratégia em Inteligência Artificial.
[4] Uma consulta pública online foi aberta em 19.02.20 juntamente com a publicação do “Livro Branco sobre Inteligência Artificial” (White Paper on Artificial Intelligence) e transcorreu até 14.06.20. O objetivo da consulta foi recolher pontos de vista e opiniões. Dirigiu-se a todas as partes interessadas dos setores público e privado, incluindo governos, autoridades locais, organizações comerciais e não comerciais, especialistas, acadêmicos e cidadãos. Depois de analisar todas as respostas, a Comissão publicou um resumo dos resultados e as respostas individuais no seu sítio web. Os resultados da consulta podem ser acessados em: https://ec.europa.eu/digital-single-market/en/news/white-paper-artificial-intelligence-public-consultation-towards-european-approach-excellence
[5] O RGPD - Regulamento Geral sobre a Proteção de Dados 2016/679 é um regulamento do direito europeu sobre privacidade e proteção de dados pessoais, que entrou em vigor em 25 de maio de 2018.
[6] Ver notícia publicada no site Jornal de Negócios, em 21.04.21, acessível em: https://www.jornaldenegocios.pt/empresas/tecnologias/detalhe/bruxelas-propoe-novas-regras-para-fomentar-confianca-na-inteligencia-artificial#:~:text=Empresas%20Tecnologias-,Bruxelas%20prop%C3%B5e%20novas%20regras%20para%20fomentar%20confian%C3%A7a%20na%20intelig%C3%AAncia%20artificial,de%20confian%C3%A7a%20na%20intelig%C3%AAncia%20artificial%E2%80%9D.
[7] Um assistente pessoal inteligente é um software que pode realizar tarefas ou serviços para um indivíduo. Exemplos de assistentes virtuais inteligentes são a Alexa (da Amazon), a Siri (da Apple), o Google Assistant (da Alphabet) e a Cortana (da Microsoft).