1. Introdução
O Supremo Tribunal Federal concluiu, na tarde da última quinta-feira (dia 26.06.25), o julgamento de dois recursos extraordinários1 em que se discutia a constitucionalidade do art. 19 da Lei n. 12.965/14 (conhecida como o “Marco Civil da Internet”). Esse artigo de lei confere uma completa imunização aos provedores de serviços digitais e controladores de plataformas digitais, pois estabelece que não podem ser responsabilizados civilmente por danos decorrentes de conteúdos ilícitos publicados por terceiros (usuários das plataformas) e só devem suprimir conteúdo após receber ordem judicial2. A única exceção a essa regra está no art. 21 do próprio MCI, segundo o qual o provedor de aplicações de internet pode ser responsabilizado por imagens e vídeos contendo cenas de nudez ou de atos sexuais gerados por terceiros se, quando notificado, não promover a remoção do conteúdo3.
A Corte Suprema entendeu que o artigo 19 do MCI é “parcialmente inconstitucional”, pois “não confere proteção suficiente a bens jurídicos constitucionais de alta relevância”, como a proteção dos direitos fundamentais e dos valores democráticos. Os ministros se reuniram na Presidência do STF, na quinta-feira em que ocorreu a sessão do Plenário, para estabelecer os pontos consensuais do julgamento, a fim de redigir as teses jurídicas com repercussão geral 4. Elaboraram ao todo 14 enunciados, alguns com mais de um subitem5. A leitura dos enunciados das teses revela que o STF criou um regime de responsabilidades diversificado, que varia conforme o tipo de serviço prestado pelo provedor e a natureza dos conteúdos disseminados. Todos os esquemas jurídicos de responsabilização construídos na tese com repercussão geral do STF são baseados na responsabilidade fundada na culpa, não existindo esquema de imputação de responsabilidade objetiva aos provedores de serviços e aplicações na internet6. As regras que conformam o novo regime jurídico estabelecido para os provedores de serviços digitais passam a valer para o futuro, ou seja, têm eficácia a partir do julgamento, não retroagindo para alcançar fatos e situações já constituídas7. Adiante apresentamos um resumo explicativo das teses aprovadas.
2. Crimes de injúria, difamação e calúnia
Em relação a conteúdos que possam causar danos à honra, à reputação ou a direitos da personalidade dos indivíduos, continua a valer a norma do art. 19. do MCI. Os provedores só podem ser responsabilizados (dever de pagar indenização) se descumprirem uma ordem judicial para remoção de conteúdo8. A Corte entendeu que responsabilizar diretamente o provedor, nessas hipóteses, poderia de alguma forma embotar a “liberdade de expressão”.
Nesse ponto, o julgado da Corte Suprema causou certa frustração, pois danos relacionados com direitos da personalidade (direito ao nome, à imagem, à intimidade e à privacidade) constituem a maioria dos conflitos decorrentes de publicações em plataformas de redes sociais e outros serviços onde os conteúdos são disponibilizados instantaneamente pelos usuários. O ideal teria sido fixar o regime do “notice and take down” para esses casos, em que os conteúdos são removidos pelo provedor após notificação extrajudicial dos interessados (vítimas dos danos). Se não excluir o conteúdo apontado como ilícito ou prejudicial, depois de notificado, o provedor pode ser responsabilizado solidariamente com a pessoa (usuário) que fez a publicação. Tal regime garante a liberdade editorial do provedor de analisar a natureza do conteúdo, decidindo manter (ou não) o material informacional.
Ainda que tenha mantido a imunidade do provedor em relação a conteúdos que causem danos à reputação e à imagem das pessoas, o STF destacou que os controladores de plataformas e serviços de redes sociais podem fazer a remoção de conteúdos, de maneira voluntária, após serem notificados extrajudicialmente. Os provedores não são responsabilizados por conteúdos gerados por terceiros (usuários) que causem danos à reputação e honra das pessoas, mas podem fazer a remoção de maneira voluntária, após notificados pelo ofendido. No que tange, portanto, a conteúdos relacionados com danos à reputação e honra (direitos à intimidade e privacidade) das pessoas, os provedores continuam completamente imunizados.
Também ficou definido que, quando um fato ofensivo já reconhecido por decisão judicial for repetidamente replicado, todos os provedores deverão remover as publicações com idêntico conteúdo, quando notificados (extrajudicialmente). O beneficiário da decisão judicial não necessita ingressar novamente em juízo para obter nova ordem de retirada do material ofensivo, toda vez que for republicado em outra plataforma ou serviço de hospedagem9.
3. Crimes em geral
O STF estabeleceu outro esquema de responsabilização para os provedores quando se tratar de conteúdo informacional que constitua qualquer outra forma de crime, ilícito tipificado nas leis penais. O texto da tese de repercussão geral estatui que “o provedor de aplicações de internet será responsabilizado civilmente, nos termos do art. 21. do MCI, pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo” (Enunciado 3). Em se tratando de conteúdo informacional publicado por terceiros (usuários da plataforma digital) que constitua qualquer espécie de ilícito penal, o provedor será responsabilizado solidariamente com o difusor do conteúdo se não tomar providências para removê-lo em tempo hábil. Se o provedor se mantiver inerte, depois de notificado (extrajudicialmente) da existência de material informacional que se enquadre em algum tipo penal, em seu sistema informatizado, será responsabilizado juntamente com o ofensor original.
Aqui se trata de uma responsabilidade baseada no conhecimento do ilícito, ou seja, o provedor só pode ser responsabilizado se, devidamente cientificado da existência do material informacional ilícito, não adotar as providências para removê-lo de seu sistema informatizado. Trata-se do knowledge regime, baseado na culpa do provedor que se mantém na inércia mesmo tendo ciência da ilicitude que ocorra no ambiente digital sob seu controle.
É aceitável que o controlador de uma plataforma ou sistema informatizado não pode, em regra, ser responsabilizado pelo material informacional publicado e divulgado ao público instantaneamente, à falta de controle editorial, já que, nesses casos, quem faz a publicação do material não é ele, mas o usuário do sistema. O usuário é quem fornece o conteúdo, sem participação direta do mantenedor do site ou plataforma digital. Mas o operador do sistema permanece com o poder de retirar ou alterar o conteúdo da notícia ou informação. Embora não tenha sido ele que fixou a mensagem para o público, permanece com controle sobre a informação, devendo ser responsabilizado se permanecer inerte após tomar conhecimento do material informacional ilícito hospedado em seu sistema.
O esquema de responsabilização traçado no art. 21. do MCI da Internet também deve ser aplicado nos casos de contas e perfis falsos. É o que resulta dos termos em que foi redigida a tese de repercussão geral: “Aplica-se a mesma regra [art. 21 do MCI] nos casos de contas denunciadas como inautênticas” (parte final do Enunciado 3). Contas e perfis falsos (“perfis fake") são contas criadas em plataformas e serviços digitais com informações falsas ou com o propósito de se passar por outra pessoa, para fins de entretenimento, golpes, disseminação de informações incorretas ou para fins maliciosos. Elas podem ser usadas para uma variedade de atividades ilegais, incluindo golpes, difamação, assédio e até mesmo para influenciar eleições e mercados financeiros.
É de se entender que, na hipótese de contas ou perfis falsos, o provedor se submete ao sistema do “notice and takedown” (previsto no art. 21. do MCI) mesmo quando o conteúdo publicado por terceiros for de natureza difamatória, injuriosa ou caluniosa. O provedor do serviço digital ou controlador da plataforma deve ser responsabilizado se, após notificação, não retirar de “forma diligente” o conteúdo de caráter difamatório ou calunioso. Se o provedor, ao receber a notificação, exclui a publicação realizada pelo utente da conta falsa, desaparece sua responsabilidade em relação às consequências danosas que ela possa produzir.
O STF deveria ter estabelecido um regime jurídico de reponsabilidade civil mais gravoso para as hipóteses de contas e perfis falsos. Deveria ter imputado um esquema de responsabilidade solidária ou subsidiária para o provedor, para esses casos. É que quase sempre não se descobre a verdadeira identidade do usuário do sistema informatizado que criou a conta ou perfil fake. Assim, se não se responsabiliza o provedor, a vítima do dano fica sem possibilidade de reparação, o que não se compatibiliza com a teoria da responsabilidade civil, que se baseia na ideia do prejuízo para justificar a reparação ao lesado. Alguém sempre deve reparar o prejuízo causado a outrem. Repugna ao Direito a possibilidade de haver prejuízo sem a devida e correspondente compensação patrimonial (responsabilização). Não se podendo identificar o ofensor direto, aquele que torna a informação (conteúdo ilícito) pública, o controlador do sistema informatizado utilizado para a difusão da informação deveria responder pela reparação. Em suma, nos casos em que não se consegue alcançar o editor direto da informação, como nas hipóteses das contas e perfis fake, em que a identidade do verdadeiro editor da informação permanece oculta, o provedor do serviço digital ou controlador da plataforma deveria ser responsabilizado.
4. Presunção de responsabilidade
Foi erigido por meio do enunciado 4 da tese de repercussão geral um regime de presunção de responsabilidade, para certas situações em que o provedor tem um controle maior (prévio) sobre o conteúdo ou faz o impulsionamento do material informacional de forma automatizada, utilizando tecnologia específica para essa tarefa. Ficou estabelecido que, quando se tratar de anúncios e impulsionamentos pagos ou rede artificial de distribuição (por meio de chatbots ou robôs), o provedor responde pelo dano causado pelo conteúdo ilícito, ainda que não tenha sido notificado10.
A presunção de responsabilidade civil ocorre quando a lei estabelece que, em determinadas situações, a obrigação de indenizar (responsabilidade civil) é atribuída a alguém sem que seja necessária a comprovação de culpa. Nesses casos, a lei presume a existência de certos elementos da responsabilidade civil, como o dano e o nexo causal, ou até mesmo a culpa, invertendo o ônus da prova. Os ministros do STF entenderam de aplicar a presunção de responsabilidade em duas situações: anúncios e impulsionamentos pagos e rede artificial de distribuição (por meio de chatbots ou robôs). A culpa do provedor, pelos danos causados pelo conteúdo impulsionado ou distribuído dessas maneiras, é presumida. Nessas duas situações, o provedor tem que indenizar a vítima (o lesado pelo conteúdo prejudicial ou ilícito), mas pode comprovar que “atuou diligentemente e em tempo razoável para tornar indisponível o conteúdo”, para se eximir de responsabilidade. Se o operador da plataforma demonstra que “tomou as providências eficazes e tempestivas para remoção do conteúdo quando devidamente alertado, evidenciando uma atuação diligente conforme os padrões razoáveis esperados”, essa reação constitui causa excludente da responsabilidade.
A lógica da imposição desse regime um pouco mais gravoso (presunção de responsabilidade) para as situações de anúncios pagos e distribuição de conteúdo por meio de algoritmo de impulsionamento está na circunstância do prévio conhecimento do conteúdo. Se o provedor contrata com alguém a divulgação de um anúncio publicitário ou escolhe impulsionar certos conteúdos, é porque conhece de antemão a natureza desses conteúdos. A concepção jurídica para excluir a responsabilidade do provedor dos prejuízos causados por mensagens ou postagens dos usuários é que em regra ele não tem conhecimento da natureza nociva dos conteúdos. Só posteriormente, quando comunicado pela vítima, fica ciente do material informacional difundido no interior de seu sistema informatizado. Nas hipóteses de anúncio pago ou material impulsionado, a percepção é que o provedor já tem contato prévio com o conteúdo, antes de divulgá-lo ou impulsioná-lo. Assim, não se justifica que continue com isenção de responsabilidade, pois tem conhecimento prévio do material informacional.
Ainda assim, o STF foi muito tímido ao estabelecer somente uma “presunção de responsabilidade” que pode ser excluída simplesmente se o provedor, após notificado, promove a remoção do conteúdo em prazo breve. Deveria ter construído um regime de responsabilidade solidária para as hipóteses de conteúdo patrocinado (pago) ou impulsionado pelo próprio sistema (algoritmo ou sistema de distribuição) do controlador. Se o provedor, ao contratar o anúncio pago (e receber dinheiro pela publicação) ou escolher impulsionar determinada postagem, tem conhecimento prévio do conteúdo, deveria ser responsabilizado como o próprio editor (difusor) da informação. Na mídia tradicional, os editores da informação respondem diretamente pelas consequências que possam produzir. O diretor da publicação assume a responsabilidade pelo seu conteúdo, porque, em razão do trabalho que empreende, está em condições de controlar as informações. Como a decisão de publicar (ou não) uma informação pertence ao editor, tratando-se de verdadeira faculdade, decorre daí que exerce poder de controle sobre ela. Desse poder de controle decorre a responsabilidade pela publicação de informações danosas. A pressuposição é de que, se decide publicar alguma coisa, é porque tem conhecimento da natureza da informação publicada. Por essa razão, responde solidariamente com o fornecedor da informação.
O mesmo padrão de um editor da informação deveria ser estendido aos provedores de aplicações na Internet que recebem por anúncios publicados em seus sistemas ou quando decidem pelo impulsionamento de certos conteúdos (ainda que de maneira automatizada). Quando libera para publicação um anúncio pago ou impulsiona (privilegia) determinado conteúdo (ainda que não receba vantagem financeira pelo impulsionamento), o provedor tem poder de controle sobre a informação (anúncio pago ou conteúdo impulsionado). Portanto, em casos de anúncios pagos e conteúdos escolhidos para difusão impulsionada (privilegiada), deveria haver responsabilidade solidária entre a pessoa que paga o anúncio (anunciante) e a que permite a publicação (o provedor) e recebe dinheiro por isso. Da mesma forma, esse padrão de responsabilização deveria ser adotado em todos os casos em que o provedor, para fins de monetização ou não, impulsiona (e privilegia) determinados conteúdos dentro de seu sistema informatizado, utilizando tecnologias de distribuição informacional.
5. Crimes graves
O STF estabeleceu um “dever de cuidado” para os provedores em relação à circulação de conteúdos informacionais que constituam crimes graves (Enunciado 5). Na lista do que considerou “crimes graves”, a Corte incluiu:
(a) condutas e atos antidemocráticos que se amoldem aos tipos previstos nos artigos 296, parágrafo único, 359-L, 359-M, 359-N, 359-P e 359-R do Código Penal;
(b) crimes de terrorismo ou preparatórios de terrorismo, tipificados pela Lei nº 13.260/2016;
(c) crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, nos termos do art. 122. do Código Penal;
(d) incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos arts. 20, 20-A, 20-B e 20-C da Lei nº 7.716/1989;
(e) crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio ou aversão às mulheres (Lei nº 11.340/06; Lei nº 10.446/02; Lei nº 14.192/21; CP, art. 141, § 3º; art. 146- A; art. 147, § 1º; art. 147-A; e art. 147-B do CP);
(f) crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos termos dos arts. 217-A, 218, 218-A, 218-B e 218-C do Código Penal e dos arts. 240, 241-A, 241- C, 241-D do Estatuto da Criança e do Adolescente;
(g) tráfico de pessoas (CP, art. 149-A).
Quanto a esse rol taxativo de conteúdos que configuram de crimes graves, o provedor tem uma obrigação geral de vigilância para evitar a “circulação massiva” desse tipo de material informacional em seus sistemas informatizados. Nesse ponto, o STF parece ter atribuído para os provedores, em relação a conteúdos com ilicitude acentuada ou visível (crimes graves) o regime da “due diligence” (diligência devida), que exige que realizem monitoração de seus sistemas e adotem providências quando necessário. Prevê a remoção proativa pelos provedores de conteúdos nitidamente ilegais, para evitar que aconteça “falha sistêmica”11. Esta ocorre quando deixam “de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos” graves, “configurando violação ao dever de atuar de forma responsável, transparente e cautelosa”12.
A responsabilidade do provedor, quanto ao dever de vigilância proativa em relação aos crimes graves listados, somente se caracteriza na hipótese de “falha sistêmica”, não podendo sofrer sanções diante da “existência de conteúdo ilícito de forma isolada, atomizada”, situação que “não é, por si só, suficiente para ensejar a aplicação da responsabilidade civil” por quebra do “dever de cuidado” na monitoração de crimes graves13. A falha do “dever de cuidado” só se caracteriza diante de “circulação massiva” de conteúdos definidos como crimes graves, não ensejando a responsabilidade do provedor quando o aparecimento desses crimes ocorre em dimensão mínima, em uma ou outra oportunidade. Todavia, ocorrendo caso isolado de circulação de conteúdo informacional que configure crime grave, uma vez o provedor notificado da existência desse material, deve removê-lo sob pena de responder solidariamente com o editor direto da informação (usuário do sistema ou plataforma)14.
Tudo indica que o STF tenha se inspirado, nesse ponto, no Digital Services Act (DSA), a legislação europeia que regula a responsabilidade dos provedores de conteúdo e serviços na Internet. Foi esse o primeiro texto legislativo que, a fim de garantir que os serviços digitais não sejam utilizados de forma abusiva para atividades ilícitas e que os prestadores operam de forma responsável, criou obrigações de “devida diligência” (due diligence) para os provedores. Foi o DSA europeu que, ao aumentar as obrigações dos controladores de grandes plataformas, criou para eles obrigações de devida vigilância em relação a conteúdos nitidamente ilícitos, atribuindo-lhes a gestão dos riscos de funcionamento, para evitar o “risco sistêmico”15.
Provavelmente, essa nova obrigação de monitoração de conteúdos que configurem crimes graves, tal qual instituída agora pelo STF, não terá efetividade imediata no Brasil. A Corte não indicou os órgãos que ficariam encarregados da fiscalização da gestão do “risco sistêmico” das grandes plataformas e provedores de serviços digitais. Para reforçar a garantia de aplicação do regulamento e observância das obrigações (de devida diligência) pelos provedores, o DSA europeu criou os coordenadores dos serviços digitais (digital services coordinators), que são as principais autoridades nacionais designadas pelos Estados-Membros da UE para reforçar a aplicação do regulamento (artigo 38.º), bem como instituiu o Comitê Europeu dos Serviços Digitais, um grupo consultivo independente de coordenadores dos serviços digitais (art. 47.º). Os coordenadores dos serviços digitais auxiliam a Comissão Europeia (braço executivo da UE) a fiscalizar e fazer cumprir as normas da Lei de Serviços Digitais (DSA). A gestão dos riscos de funcionamento das grandes plataformas é supervionada por órgãos do Estado, que atuam na fiscalização da gestão do risco sistêmico. Autoridades e agentes estatais ficam encarregados da inspeção e auditoria de sistemas de moderação de conteúdos, sistemas de recomendação e publicidade das grandes plataformas, de forma a evitar a ocorrência de falhas sistêmicas.
Sem a criação no Brasil, à semelhança do que ocorreu na União Europeia, de uma estrutura de órgãos encarregados de fiscalizar a gestão do “risco sistêmico” das grandes plataformas, é pouco provável que a instituição do dever de vigilância de conteúdos que configurem as práticas de crimes graves tenha alguma efetividade. A simples criação de obrigações de “devida vigilância” para os provedores de serviços digitais, sem a instituição de um arcabouço de órgãos estatais de supervisão, para garantir a observância desses novos deveres, pode resultar desprovida de aplicabilidade concreta.
Outro ponto que precisa ser alertado é que a tese de repercussão geral do STF não diferencia os serviços e plataformas digitais de acordo com o tamanho. Parece que a obrigação de monitoração e vigilância de conteúdos que configurem crimes graves foi estabelecida indistintamente para todos os prestadores de serviços digitais e controladores de plataformas digitais, independentemente do porte ou natureza. A atribuição dessa obrigação de maneira indistinta pode dificultar o desenvolvimento de pequenas e médias empresas que prestem serviços na internet. O DSA europeu só estabelece esse tipo de obrigação, de maneira a evitar o chamado “risco sistêmico”, para as plataformas digitais de grande dimensão (very large online platforms)16.
Outro ponto desnecessário está presente no enunciado 5.5 da tese de repercussão geral. Esse item prevê que quando o provedor realiza por sua própria iniciativa – já que tem a obrigação de vigilância em relação a crimes graves - a remoção de conteúdo que lhe pareça nitidamente ilegal, nasce para a pessoa que fez a publicação (usuário da plataforma) o direito de requerer judicialmente o restabelecimento do material informacional removido, desde que demonstre ausência de ilicitude17.
Atribuir direito aos usuários das plataformas digitais (redes sociais) de contestar e eventualmente ter a informação republicada elimina ou ao menos diminui sensivelmente o poder editorial dos provedores e, consequentemente, a responsabilidade pelas consequências do conteúdo postado. Com efeito, os usuários passam a ter o direito de recorrer à Justiça para recolocar conteúdo removido, mas não para responsabilizar o provedor pela decisão tomada durante o processo de moderação de conteúdo. Tanto é assim que a parte final (do enunciado 5.5) da tese de repercussão geral estabelece que “ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor”. O usuário passa a ter o direito de contestar a decisão tomada pelo provedor na atividade de moderação de conteúdo e recorrer a órgãos judiciais para impugnar a decisão. Ao invés de flexibilizar a imunidade legal dos provedores dos serviços de hospedagem de conteúdo, a tese com repercussão geral terminou reforçando essa imunidade, ao “estatizar” a atividade de moderação de conteúdos.
É errada a visão de que a atividade de moderação de conteúdos desenvolvida pelos provedores pode limitar ou cercear a liberdade de expressão (freedom of expression) dos usuários. Não existe esse potencial conflito, pela simples razão de que os usuários (editores direto da informação) não têm direito de publicar o que quiserem, já que as plataformas são sistemas informatizados privados, e a relação entre eles e o controlador (proprietário) é regulada pelas normas de um contrato (termos de uso) privado.
Redes sociais, sistemas de edição de conteúdo instantâneo, não são espaços públicos, à semelhança de uma rua ou praça pública, onde qualquer um pode ter acesso e se expressar livremente, sem qualquer tipo de limitação quanto ao conteúdo de suas manifestações. São sistemas informatizados privados, gerenciados por empresas privadas, que coletam, analisam e monetizam os dados das pessoas e outras informações que circulam no interior de seus domínios digitais. O Poder Público não tem nada que interferir na atividade de moderação de conteúdos desempenhada pelos controladores de plataformas de serviços on-line, que hospedam conteúdo editado por terceiros (usuários do sistema).
É verdade que algumas dessas estruturas de comunicação digital adquiriram domínio dos mercados onde atuam, mas isso não as transforma em “espaços públicos”. O problema do monopólio que grandes empresas de tecnologia exercem sobre determinados setores de serviços na rede mundial de comunicação pode ser combatido de outras formas18.