O Parlamento Europeu aprovou o Digital Services Act (DSA), a proposta legislativa europeia para regular a responsabilidade dos provedores de conteúdo e serviços na Internet. Reunidos em sessão plenária, os eurodeputados deram aval ao novo regulamento, com 530 votos a favor, 78 contra e 80 abstenções[1].
O texto do DSA já havia sido apresentado pela Comissão Europeia (braço executivo da União Europeia) desde dezembro de 2020, juntamente com o Digital Market Act (DMA), outro pacote legislativo que objetiva equilibrar a concorrência nos mercados digitais e restringir vantagens concorrenciais das grandes plataformas[2].
O Digital Services Act (DSA) tem o objetivo de criar um quadro legal das obrigações de sites e prestadores de serviços on-line, quanto ao conteúdo informacional que circula em suas estruturas e sistemas informatizados, bem como cria mecanismos para impedir a distribuição e comercialização de produtos nocivos e falsificados[3].
A União Europeia demorou para adotar medidas regulatórias, atualizando seu arcabouço legislativo. O problema da desinformação (fake news) e disseminação de conteúdos ilícitos e prejudiciais no âmbito de plataformas e aplicações na Internet reclamava providências legislativas há muito tempo. As plataformas on-line são usadas para disseminação de discurso do ódio (hate speech), promover a discriminação racial e étnica, fazer apologia ao terrorismo e divulgar pornografia digital infantil, dentre outros conteúdos informacionais ilícitos. A concepção e arquitetura técnica das “redes sociais” e plataformas on-line favorece a disseminação de discursos extremistas. Para aumentar o lucro com a venda de publicidade dirigida, os controladores das plataformas regulam seus algoritmos de maneira a impulsionar conteúdo apelativo, sensacionalista e extremista. Sistemas de “redes sociais” foram usados para fomentar a falsa ideia de fraude na eleição e deslegitimar a assunção de Joe Biden como Presidente dos EUA, bem como possibilitaram a organização dos eventos que culminaram com a invasão do prédio do Capitólio (onde funciona o Congresso dos EUA)[4]. Teorias negacionistas e informações errôneas sobre a pandemia da Covid-19 e campanhas antivacinas, responsáveis por minar a resposta governamental à crise sanitária, inundaram essas plataformas on-line. Esse quadro de descontrole informacional serviu para apressar uma reposta legislativa coordenada na União Europeia.
Mas para quem esperava uma resposta mais efetiva e dirigida à origem do problema das fake news e descontrole informacional nas redes telemáticas, a iniciativa legislativa da Comissão Europeia foi um completo desapontamento. Ao invés de atribuir maior “responsabilidade editorial” aos intermediários da comunicação on line, mantém a mesma lógica que inspirou, há vinte anos atrás, a edição da Diretiva 2000/31/EC que atribuiu completa imunização aos provedores, fincada na concepção de que não deveriam ser obrigados a realizar um monitoramento prévio e geral dos conteúdos que transitam em seus sistemas. O regime jurídico ancião de responsabilidade e a proibição de impor obrigações gerais de vigilância aos provedores de serviços digitais continuam mantidos.
O Digital Services Act (DSA)[5] atualiza e altera regras da Diretiva Europeia sobre comércio eletrônico (Diretiva 2000/31/EC)[6], texto que vigora há duas décadas e regula o funcionamento das organizações que operam comercialmente nos ambientes digitais criados pelas redes telemáticas. O novo texto mantém o princípio basilar esculpido na e-commerce Directive, que exclui a responsabilidade dos provedores de serviços on-line quanto aos conteúdos produzidos por seus usuários. Inspirada numa concepção de proteção de “direitos fundamentais” dos usuários dos serviços digitais – até mesmo o direito à anonimização é citado como digno de proteção nos ambientes digitais -, a nova regulamentação foca em regras e obrigações de transparência, além de estabelecer um regime de supervisão da atividade dos provedores de serviços digitais e aplicações no ciberespaço.
A proposta pretende garantir “que os cidadãos se expressem livremente, reforçando simultaneamente a participação do usuário” no ambiente digital. Não apenas procura atenuar os “riscos de bloqueio indevido ou injustificado do discurso”, como alarga as possibilidades de recurso contra decisões dos provedores no desempenho da atividade de moderação de conteúdos (automatizada ou realizada por moderadores humanos). Prevê a remoção pelos provedores apenas de conteúdos nitidamente ilegais, garantindo explicações ao usuário que tiver conteúdo removido e mecanismos de reclamação, bem como um mecanismo externo de resolução extrajudicial de litígios.
Toda a concepção do DSA está centrada no estabelecimento de uma “repartição adequada de responsabilidades” na luta contra a dissseminação de conteúdos ilegais entre os intermediários (provedores dos serviços digitais), seus destinatários e autoridades. Parte da equivocada concepção de que a criação de um regime de responsabilidade estrita para os provedores de serviços e plataformas conflita ou pode se contrapor a direitos fundamentais dos usuários, em especial o direito à liberdade de expressão. Foi por enxergar a existência de tensões entre a imposição de um regime mais rígido de responsabilidade para os provedores de conteúdo, de um lado, e a necessidade de salvaguardar garantias constitucionais dos usuários, de outro lado, que a Comissão apresentou um regime misto, mantendo a imunidade antes conferida pela e-commerce Directive porém criando certas obrigações de transparência e mecanismos de supervisão da atividade dos provedores de serviços on-line, notadamente no que diz respeito à atividade de moderação de conteúdo e funcionamento dos algoritmos de direcionamento da informação e publicidade. A proposta legislativa da Comissão Europeia cria, na sua própria definição, um “balanced regulatory approach”. Mantém a cláusula de imunidade dos provedores de serviços na Internet, quanto aos conteúdos informacionais que circulam em seus sistemas informatizados, impondo-lhes apenas algumas novas obrigações que não alteram a pedra de toque do velho regime jurídico. Na justificativa da proposta de Regulamento, reconhece-se que a Diretiva sobre comércio eletrônico constituiu um importante incentivo para o crescimento do mercado de serviços digitais, mas o crescimento dinâmico da economia digital, com o aparecimento de novos tipos de prestadores (nomeadamente as grandes plataformas digitais), coloca novos riscos para os usuários.
O sistema de limitação da responsabilidade dos provedores concebido na Diretiva sobre comércio eletrônico (e-Commerce Directive) é considerado a abordagem ideal para lidar com conteúdos ilícitos gerados por usuários dos serviços e plataformas on-line. O argumento é que a limitação da responsabilidade dos intermediários funciona como pilar para a liberdade de expressão (freedom of expression), e por isso não deve ser eliminada. Na opinião dos que pensam dessa maneira – e que influenciaram decisivamente a concepção do DSA -, o sistema vigente de responsabilidade limitada deve ser complementado com obrigações de transparência e mecanismos para auditagem do funcionamento do sistema de gerenciamento informacional, especialmente dos algoritmos de recomendação de conteúdo.
Para compensar a manutenção da imunidade, a opção legislativa adotada se baseia na criação de “obrigações assimétricas” (asymmetric obligations) de “devida diligência” (due diligence) para os provedores de serviços digitais, adaptadas ao tipo e à natureza do serviço intermediário e à capacidade do prestador. O regulamento cria obrigações gerais para todos os prestadores de serviços[7] e obrigações específicas para alguns (a exemplo dos serviços de hospedagem[8] e as “plataformas on line”[9]). Nodatamente em relação às “plataformas online de grande dimensão” (very large online platforms), atribui o dever de gestão de risco supervisionada (supervised risk management) de seu sistema informatizado, incluindo realizar avaliações de risco sobre os riscos sistêmicos relacionados com o funcionamento dos seus serviços, submeter-se a auditorias externas e independentes e apresentar relatórios de transparência[10]. Essas obrigações mais rígidas são impostas apenas a plataformas on-line muito grandes, que não só têm maior alcance, mas são também empresas de grande dimensão com um volume de negócios significativo. É no ecossistema digital das grandes plataformas on-line (very large online platforms) onde ocorrem frequentemente os riscos mais graves e elas têm a capacidade de absorver encargos adicionais. Consequentemente, embora as medidas sejam mais restritivas do que para outras empresas, elas são proporcionais à capacidade das empresas controladoras de grandes plataformas.
Para reforçar a garantia de aplicação do regulamento e observância das obrigações (de devida diligência) pelos provedores, é previsto ainda a criação dos coordenadores dos serviços digitais, que são as principais autoridades nacionais designadas pelos Estados-Membros para reforçar a aplicação do regulamento (artigo 38.º), bem como a criação do Comitê Europeu dos Serviços Digitais, um grupo consultivo independente de coordenadores dos serviços digitais (art. 47.º).
A ideia é que a gestão dos riscos de funcionamento das grandes plataformas seja supervionada por órgãos do Estado, que atuam na fiscalização da gestão do risco sistêmico. Autoridades e agentes estatais ficam encarregados da inspeção e auditoria de sistemas de moderação de conteúdos, sistemas de recomendação e publicidade das grandes plataformas.
Muito embora o regulamento preveja obrigações de “devida diligência” (due diligence) para os provedores de serviços digitais e crie uma estrutura de órgãos estatais de supervisão, para garantir a aplicação de suas normas, a pedra de toque do regime anterior não sofreu qualquer abalo. É frustrante verificar que a imunidade legal dos provedores de conteúdo sequer foi flexibilizada. É possível que fique até mais fortalecida, pois pelos termos da legislação proposta os usuários deverão ser informados sobre qualquer remoção de conteúdo, com direito a contestar e eventualmente ter a informação republicada, o que elimina ou ao menos diminui sensivelmente o poder editorial dos provedores e, consequentemente, a responsabilidade pelas consequências do conteúdo postado. Com efeito, os usuários passam a ter o direito de recorrer à Justiça para remover material hospedado pelo provedor ou recolocar conteúdo removido, mas não para responsabilizá-lo pela decisão tomada durante o processo de moderação de conteúdo. O usuário passa a ter o direito de contestar a decisão tomadada pelo provedor na atividade de moderação de conteúdo e recorrer a órgãos estatais administrativos para impugnar a decisão. Ao invés de excluir ou ao menos flexibilizar a imunidade legal dos provedores dos serviços de hospedagem de conteúdo, o regulamento terminou reforçando essa imunidade, ao “estatizar” a atividade de moderação de conteúdos.
É errada a visão de que a atividade de moderação de conteúdos desenvolvida pelos provedores pode limitar ou cercear a liberdade de expressão (freedom of expression) dos usuários. Não existe esse potencial conflito, pela simples razão de que os usuários (editores direto da informação) não têm direito de publicar o que quiserem, já que as plataformas são sistemas informatizados privados, e a relação entre eles e o controlador (proprietário) é regulada pelas normas de um contrato (termos de uso) privado.
Redes sociais, sistemas de edição de conteúdo instantâneo, não são espaços públicos, à semelhança de uma rua ou praça pública, onde qualquer um pode ter acesso e se expressar livremente, sem qualquer tipo de limitação quanto ao conteúdo de suas manifestações. São sistemas informatizados privados, gerenciados por empresas privadas, que coletam, analisam e monetizam os dados das pessoas e outras informações que circulam no interior de seus domínios digitais. O Poder Público não tem nada que interferir na atividade de moderação de conteúdos desempenhada pelos controladores de plataformas de serviços on-line, que hospedam conteúdo editado por terceiros (usuários do sistema). Nem a sociedade e nem os governos de países devem tomar qualquer medida técnica ou realizar despesas para combater o problema da desinformação no âmbito das plataformas e sistemas informatizados na Internet. Muito menos devem criar ou estruturar um corpo de autoridades e agentes estatais para monitorar, analisar e eventualmente servir como instância revisora das decisões proferidas pelos controladores, quanto à exclusão de informações postadas diretamente por usuários. Redes sociais, serviços especializados na locação de espaços para armazenamento de dados e plataformas para edição instantânea de conteúdos por terceiros são sistemas privados, daí que toda e qualquer lesão a direitos e interesses que ocorre nesses domínios digitais privados, deveria ser de inteira responsabilidade da empresa que os explora e obtém lucro com sua exploração.
Fake News (desinformação) e conteúdos prejudiciais em geral (discurso do ódio, incitação ao terrorismo e pornografia digital infantil, apenas para citar alguns) é um problema exclusivo do controlador da plataforma, porque somente ele tem os meios para restringir sua disseminação. É verdade que algumas dessas estruturas de comunicação digital adquiriram domínio dos mercados onde atuam, mas isso não as transforma em “espaços públicos”. O problema do monopólio que grandes empresas de tecnologia exercem sobre determinados setores de serviços na rede mundial de comunicação pode ser combatido de outras formas[11].
Não cremos que a proposta europeia seja a mais conveniente para lidar com o problema da desinformação na Internet. Esse regime jurídico híbrido criado pelo regulamento talvez não funcione. Auditorias e mecanismos que possibilitem maior transparência quanto ao funcionamento das plataformas, especialmente em relação aos algoritmos, no que diz respeito à forma como a informação é priorizada e orientada, certamente é uma boa política, mas não vai resolver o problema.
O regime criado pelo DSA pretende ser amplo o suficiente de modo a garantir conhecimento completo do funcionamento das plataformas, incluindo métricas de audiência, publicidade e microtargeting, mecanismos de busca, ranking e recomendação de conteúdos, moderação e política de remoção de conteúdos, fact-checking etc., mas essa abordagem da transparência de como funcionam os mecanismos e algoritmos de direcionamento de conteúdo não terá o resultado esperado. Os sistemas e plataformas on-line de intermediação são sistemas privados, de propriedade e sob o controle de empresas privadas. Alguma dose de transparência pode oferecer certa ideia de como os resultados personalizados são apresentados aos usuários, mas nunca uma real e completa visão do efetivo poder das plataformas em termos de controle informacional e os efeitos sociais. Leis que garantem segredos comerciais e industriais também servirão como barreira para penetração completa no funcionamento dos algoritmos de direção informacional. Por isso, quem imagina que poderá haver uma completa auditagem do funcionamento desses algoritmos talvez esteja enganado.
A intenção do bloco europeu é não apenas regulamentar a atividade dos intermediários prestadores de serviços digitais, mas de tornar a Europa um expoente dessa legislação. O objetivo é realmente alcançar uma posição de liderança como “global rulemaker” no processo de regulação de tecnologias da informação. Do mesmo modo como aconteceu com as políticas normativas de proteção de dados pessoais (com a edição do RGPD em 2018[12]) e, mais recentemente, com a proposta de regulação da inteligência artificial (IA)[13], a Europa pretende assumir uma posição de vanguarda e liderança, induzindo a que outros países adotem legislação similar.
Pode-se dizer que, sob esse prisma, a UE pode não alcançar o protagonismo desejado, pois, embora a proposta de regulamento apresentada seja certamente um dos mais abrangentes conjuntos de normas sobre o papel dos provedores de serviços digitais, é um caminho legislativo diverso do encontrado por outros países. Não somente os EUA, mas países europeus trabalharam em soluções legislativas voltadas a quebrar ou ao menos enfraquecer a imunidade dos provedores quanto aos conteúdos postados por seus usuários. Leis editadas na Alemanha[14], França e Áustria estabeleceram regimes jurídicos diferentes, para combater o problema da disseminação de conteúdos ilícitos, diminuindo o grau da imunidade dos provedores.
A proposta de Regulamento ainda necessita de aprovação conjunta. O Parlamento Europeu e o Conselho da UE vão agora iniciar os diálogos para se buscar um consenso em torno da proposta legislativa[15], que se espera seja definitivamente aprovada ainda neste semestre. Se aprovada, suas regras vão passar por um difícil teste. O novo regulamento é uma aposta ousada, de eficácia discutível e que pode tirar da UE a posição de farol legislativo para o resto do mundo.
[1] Ver notícia no site português Expresso, publicada em 15.01.22, acessível em: https://expresso.pt/internacional/parlamento-europeu-aprova-nova-lei-para-responsabilizar-plataformas-online/
[2] Ver notícia no site português Sapo, publicada em 15.12.20, acessível em: https://eco.sapo.pt/2020/12/15/bruxelas-propoe-novas-regras-para-travar-dominio-das-grandes-tecnologicas/
[3] A proposta regulatória é resultado de cinco anos de consultas a um vasto leque de diferentes partes interessadas no problema da difusão on-line de conteúdos ilícitos e prejudiciais, incluindo prestadores de serviços digitais, editores de meios de comunicação social, proprietários de marcas e outras empresas, utilizadores de serviços digitais, organizações da sociedade civil, autoridades nacionais, universidades, a comunidade técnica, organizações internacionais e o público em geral. Além disso, após elaborado o texto original do Regulamento Serviços Digitais (Digital Services Act) foi realizada uma consulta pública ao longo de 14 semanas (entre os dias 2 de junho e 8 de setembro de 2020), que também proporcionou o recebimento de diversas respostas e posições de um grupo diversificado de partes interessadas.
[4] Ver reportagem publicada na revista Wired, em 07.01.21, sob o título “Platforms must pay for their role in the insurrection”, disponível em: https://www.wired.com/story/opinion-platforms-must-pay-for-their-role-in-the-insurrection/
[5] O título completo atribuído à proposta legislativa é Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC. Traduzido para o português, o nome oficial é: REGULAMENTO DO PARLAMENTO EUROPEU E DO CONSELHO relativo a um mercado único de serviços digitais (Regulamento Serviços Digitais) e que altera a Diretiva 2000/31/CE. O texto completo da proposta legislativa pode ser encontrado em: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52020PC0825&from=en
[6] Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on certain legal aspects of information society services, in particular electronic commerce, in the Internal Market (Directive on electronic commerce) (OJ L 178, 17.7.2000, p. 1).
[7] Dentre as obrigações gerais estabelecidas para todos os prestados de serviços digitais, destacam-se: a) obrigação de criar um ponto único de contato para facilitar a comunicação direta com as autoridades; b) a obrigação de designar um representante legal para os prestadores não estabelecidos em nenhum Estado-Membro mas que ofereçam os seus serviços na UE (artigo 11.º); c) obrigação de estabelecer, nos seus termos e condições, quaisquer restrições que possam impor à utilização dos seus serviços (artigo 12.º); d) a obrigação de apresentação de relatórios de transparência relativos à remoção de conteúdos ilegais ou contrários aos termos e condições (artigo 13.º).
[8] Obrigações específicas para todos os prestadores de serviços de armazenamento em servidor (hosting services): a) criar mecanismos que permitam a terceiros notificar a presença de conteúdos alegadamente ilegais (artigo 14.º); b) fornecer ao usuário uma exposição dos motivos sobre os motivos de remoção de conteúdo ou bloqueio de acesso a informações por ele publicadas (artigo 15.º).
[9] Obrigações específicas para as “plataformas on line” : a) coletar e armazenar informações sobre os comerciantes que utilizam seu sistema, para possibilitar a avaliação da confiança pelos consumidores (art. 22.º); b) organizar a sua interface de modo a permitir aos comerciantes respeitar a legislação em matéria de proteção dos consumidores e segurança dos produtos (artigo 22.º, alínea a); c) publicar relatórios sobre as suas atividades de remoção de informações consideradas conteúdos ilegais ou contrárias aos seus termos e condições e de bloqueio do acesso às mesmas (art. 23.º); d) obrigações em matéria de transparência aplicáveis no que respeita à publicidade on line (artigo 24.º).
[10] Obrigações específicas para as “grandes plataformas on line”: a) realizar avaliações de risco sobre os riscos sistêmicos relacionados com o funcionamento dos seus serviços (artigo 26.º) e a tomar medidas razoáveis e eficazes destinadas a atenuar esses riscos (artigo 27.º); b) submeter-se a auditorias externas e independentes (artigo 28.º); c) dar acesso aos dados ao coordenador dos serviços digitais, à Comissão e aos investigadores habilitados (artigo 31.º); d) nomear um ou mais responsáveis pela conformidade para assegurar o cumprimento das obrigações estabelecidas no regulamento (artigo 32.º); d) apresentar de relatórios de transparência (artigo 33.º).
[11] Com a atualização das leis que regulam a competição na economia, para criar mecanismos legais que equilibrem a competição no âmbito das redes digitais, por exemplo. Esse inclusive é o objetivo de outro texto também recém aprovado pelo Parlamento Europeu, o Digital Markets Act (o DMA).
[12] O RGPD - Regulamento Geral sobre a Proteção de Dados 2016/679 é um regulamento do direito europeu sobre privacidade e proteção de dados pessoais, que entrou em vigor em 25 de maio de 2018.
[13] A Comissão Europeia apresentou no dia 21 de abril de 2021 a sua proposta para regulamentação das tecnologias de inteligência artificial (IA). A proposta recebeu o nome de Artificial Intelligence Act. Para saber mais sobre esse assunto, recomendamos a leitura de nosso artigo intitulado “A proposta regulatória da União Europeia para a inteligência artificial (1ª parte): a hierarquização dos riscos”, publicado na Revista Jus Navigandi, disponível em: https://jus.com.br/artigos/90816.
[14] Ver, a propósito da lei alemã, artigo de nossa autoria, intitulado “A nova lei alemã que obriga provedores de redes sociais a remover conteúdo publicado por usuários - Um modelo para o Brasil?”, publicado no site Jus Navigandi, disponível em: https://jus.com.br/artigos/63533/a-nova-lei-alema-que-obriga-provedores-de-redes-sociais-a-remover-conteudo-publicado-por-usuarios
[15] O processo legislativo ordinário na UE, também chamado de “codecisão” por colocar o Parlamento (órgão de parlamentares eleitos diretamente pelos cidadãos europeus) em pé de igualdade com o Conselho da UE (composto por ministros de governo de cada governo nacional), consiste na adoção de um regulamento, de uma diretiva ou de uma decisão conjuntamente. O Parlamento e o Conselho partilham o poder legislativo. O direito de iniciativa legislativa é sempre da Comissão Europeia. Depois que a Comissão apresenta uma proposta legislativa, o texto tramita separadamente pelo Conselho da UE e pelo Parlamento. Ambos os órgãos, de acordo com o processo legislativo ordinário, têm as mesmas funções: analisar a legislação, levantar questionamentos e sugerir adição, subtração ou alteração de pontos. Depois disso, seguem os diálogos para se buscar um consenso em torno da proposta. Se as duas instituições não chegarem a acordo, é convocado o Comitê de Conciliação (composto igualmente por membros do Parlamento e do Conselho). Se o texto acordado pelo Comitê de Conciliação for aceito por ambos, o ato legislativo é adotado.
O processo de codecisão foi introduzido pelo Tratado de Maastricht sobre a União Europeia (1992) e depois ampliado e adaptado para reforçar a sua eficácia pelo Tratado de Amsterdã (1999). Com o Tratado de Lisboa, que entrou em vigor em 01 de dezembro de 2009, passou a chamar-se processo legislativo ordinário e tornou-se o principal processo legislativo do sistema deliberativo.