III. A RESPONSABILIDADE DAS PLATAFORMAS DIGITAIS À LUZ DO DIREITO CONSTITUCIONAL E INTERNACIONAL
A crescente utilização das redes digitais como principal meio de circulação de informações e formação de opinião pública trouxe à tona a necessidade de repensar o papel das plataformas tecnológicas na ordem constitucional contemporânea. Essas plataformas — como redes sociais, aplicativos de mensagem e buscadores — deixaram de ser simples intermediárias neutras para se tornarem agentes com poder decisivo na modelagem do discurso público. Nesse contexto, discute-se se devem responder juridicamente por conteúdos de terceiros quando estes violam direitos fundamentais. O debate alcançou o Supremo Tribunal Federal no julgamento com repercussão geral sobre a constitucionalidade da responsabilização civil de provedores, especialmente diante de reiteradas omissões em remover conteúdos ilegais.
O tema ganha relevância porque se trata de conciliar dois valores fundamentais: a liberdade de expressão e a proteção da dignidade humana. De um lado, há o risco de censura e restrição indevida do debate público; de outro, há a omissão estatal e privada diante de violações de direitos perpetradas em ambientes digitais, como discursos de ódio, linchamentos virtuais, ataques à democracia e à integridade de processos eleitorais. Essa complexidade é analisada a seguir, com foco nos fundamentos constitucionais da responsabilidade das plataformas e nas experiências comparadas que inspiram soluções jurídicas inovadoras.
III.I. A responsabilidade civil das plataformas digitais e o regime do Marco Civil da Internet
O Marco Civil da Internet (Lei nº 12.965/2014) instituiu no Brasil um regime jurídico específico para o uso da internet, pautado em três eixos fundamentais: a neutralidade da rede, a proteção à privacidade e a liberdade de expressão. No tocante à responsabilidade civil, o artigo 19 da referida norma estabelece que o provedor de aplicações de internet só poderá ser responsabilizado por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar o conteúdo indisponível. Esse modelo — inspirado parcialmente no regime norte-americano — consagra a ideia de que as plataformas não respondem automaticamente pelo conteúdo postado por usuários, salvo em caso de descumprimento de ordem judicial.
Contudo, a aplicação prática do artigo 19 tem gerado intensas controvérsias. Críticos sustentam que o dispositivo cria um ambiente de impunidade digital, no qual as plataformas, mesmo diante de denúncias reiteradas, só se movimentam quando acionadas pelo Judiciário, o que é inviável em grande escala. Na era da viralização instantânea, um conteúdo ofensivo pode causar danos irreparáveis em poucas horas, e a exigência de ordem judicial para sua remoção acaba funcionando como escudo para a perpetuação de abusos. Em especial, vítimas de discursos de ódio, violências de gênero, racismo e desinformação política enfrentam barreiras quase intransponíveis para cessar os danos e responsabilizar os agentes envolvidos.
Diante desse cenário, o STF é chamado a interpretar o artigo 19 à luz da Constituição, especialmente em sua compatibilidade com os princípios da dignidade da pessoa humana, da proporcionalidade, da vedação ao anonimato e da tutela judicial efetiva. A Corte já sinalizou, em decisões recentes, que o dispositivo não deve ser interpretado como um salvo-conduto para a omissão das plataformas, sobretudo em casos flagrantes, reiterados ou sistemáticos de violações. A responsabilidade civil, nesses casos, decorre não do conteúdo em si, mas da inércia diante do conhecimento inequívoco do ilícito.
Importante destacar que, mesmo sob o regime do Marco Civil, já há decisões judiciais que reconhecem a responsabilidade objetiva das plataformas em casos específicos, especialmente quando sua conduta omissiva contribui para a perpetuação do dano. A evolução dessa jurisprudência aponta para a necessidade de um modelo mais equilibrado, que combine garantias à liberdade de expressão com instrumentos eficazes de reparação e prevenção de abusos, inclusive com incentivos para a adoção de mecanismos internos de moderação, transparência algorítmica e cooperação com autoridades públicas.
III.II. A experiência internacional e os parâmetros do direito comparado
O enfrentamento da responsabilidade das plataformas digitais não é exclusividade do Brasil. Diversos países têm enfrentado o mesmo dilema, buscando modelos jurídicos que assegurem a liberdade de expressão sem comprometer outros direitos fundamentais. A experiência internacional revela diferentes abordagens que podem inspirar o debate brasileiro, especialmente no tocante ao equilíbrio entre autorregulação, intervenção estatal e responsabilização jurídica.
Nos Estados Unidos, o regime da Seção 230 do Communications Decency Act garante ampla imunidade civil às plataformas, inclusive em relação a conteúdos de terceiros, o que tem sido criticado por propiciar um ambiente permissivo à disseminação de discursos extremistas e fake news. Ainda assim, crescem os debates no Congresso americano sobre a revisão desse regime, com propostas para condicionar a imunidade à adoção de boas práticas de moderação e transparência.
Na União Europeia, a Diretiva de Serviços Digitais (Digital Services Act – DSA), aprovada em 2022, instituiu um marco mais rigoroso, que impõe obrigações de diligência às grandes plataformas, como a remoção célere de conteúdos ilegais, auditorias externas, relatórios periódicos de transparência, e acesso de pesquisadores independentes aos dados das empresas. O modelo europeu reconhece que as plataformas não podem ser equiparadas à imprensa tradicional, mas tampouco podem alegar neutralidade quando atuam de forma ativa na curadoria, impulsionamento e monetização de conteúdos.
A Alemanha adotou a Lei NetzDG, que impõe prazos rígidos para a remoção de conteúdos ilícitos sob pena de multas milionárias, enquanto a França implementou medidas de responsabilização nas áreas de discurso de ódio e desinformação eleitoral. No Reino Unido, o Online Safety Bill prevê regras específicas para proteção de crianças e combate ao extremismo.
Essas experiências mostram que é possível conciliar liberdade de expressão com deveres de moderação responsáveis. O Brasil, ao decidir sobre a constitucionalidade da responsabilização civil das plataformas, tem a oportunidade de construir um modelo próprio, inspirado em parâmetros internacionais, mas adaptado às peculiaridades do contexto brasileiro, marcado por desigualdades estruturais, fragilidade institucional e alto índice de violência simbólica nas redes.
Ao se posicionar sobre o tema, o STF poderá reforçar o entendimento de que o ambiente digital não é um território sem lei e que a atuação das plataformas deve estar sujeita ao controle democrático, à transparência e à tutela efetiva dos direitos fundamentais.
IV. A LIBERDADE DE EXPRESSÃO E SEUS LIMITES NO AMBIENTE DIGITAL
O avanço das tecnologias de informação transformou a liberdade de expressão em um fenômeno de alcance global, imediatista e descentralizado. Essa reconfiguração gerou benefícios notáveis para a democratização da comunicação, mas também provocou efeitos colaterais alarmantes, como a propagação massiva de discursos de ódio, desinformação e linchamentos virtuais. Em um contexto em que cada indivíduo se tornou potencial emissor de mensagens com alto poder de difusão, o conceito tradicional de liberdade de expressão vem sendo tensionado por novas demandas sociais e jurídicas.
O Supremo Tribunal Federal, no julgamento da repercussão geral em análise, é chamado a enfrentar a delicada tarefa de definir os contornos constitucionais dessa liberdade no mundo digital. A Corte deve ponderar a liberdade de expressão com outros direitos igualmente fundamentais, como a dignidade da pessoa humana, a honra, a imagem, a privacidade e a própria integridade do processo democrático. Esse desafio envolve não apenas a definição teórica dos limites legítimos ao discurso, mas também o papel das plataformas na moderação de conteúdos e a responsabilidade do Estado na promoção de um espaço público saudável.
IV.I. O princípio constitucional da liberdade de expressão e sua função democrática
A liberdade de expressão é pedra angular das sociedades democráticas. Na Constituição Federal de 1988, está consagrada como direito fundamental no artigo 5º, inciso IV, bem como no artigo 220, que assegura a livre manifestação do pensamento, vedando qualquer forma de censura prévia. Essa proteção ampla encontra raízes no modelo liberal de democracia, segundo o qual o livre intercâmbio de ideias, opiniões e informações é condição indispensável para a formação da vontade política e para o controle social sobre os poderes públicos.
No entanto, essa liberdade não é absoluta. A própria Constituição impõe limites, como a vedação ao anonimato (art. 5º, IV), o respeito à honra e à imagem das pessoas (art. 5º, X), e a responsabilização posterior por eventuais abusos (art. 5º, V). Além disso, o artigo 220, §1º, afirma que nenhuma lei conterá dispositivo que possa constituir embaraço à plena liberdade de informação jornalística, mas também reforça, no §2º, que os meios de comunicação não podem se submeter a censura de natureza política, ideológica ou artística.
O STF, ao longo das últimas décadas, consolidou jurisprudência protetiva da liberdade de expressão, inclusive no julgamento da ADPF 130 (relativa à Lei de Imprensa), na qual afirmou que a livre manifestação de pensamento é essencial à democracia. Contudo, em decisões mais recentes, a Corte reconheceu que essa liberdade não pode servir de escudo para a prática de ilícitos, como no caso da criminalização da homofobia (ADO 26), da remoção de fake news em contexto eleitoral e da repressão a discursos antidemocráticos financiados por redes de desinformação.
Nesse contexto, ganha relevo o debate sobre os limites do discurso nas plataformas digitais. O desafio é evitar tanto a censura quanto a omissão, reconhecendo que a liberdade de expressão exige um ambiente protegido, onde todos possam se manifestar sem medo, mas onde também exista responsabilidade por abusos e danos causados a terceiros. A liberdade de expressão não pode ser confundida com o direito de agredir, difamar ou promover a violência simbólica. Tampouco pode ser usada como pretexto para a deslegitimação das instituições democráticas ou para a manipulação da verdade factual com fins autoritários.
IV.II. A moderação de conteúdo e os riscos da censura privada
Um dos pontos centrais da repercussão geral em exame pelo STF é a definição do papel das plataformas digitais na moderação de conteúdos gerados por seus usuários. Essas empresas, por meio de algoritmos e políticas internas, exercem poder significativo sobre o que pode ou não circular no ambiente virtual. Essa nova realidade levanta preocupações jurídicas sobre os riscos de censura privada, seletividade ideológica e opacidade nas decisões de remoção, desmonetização ou ocultamento de publicações.
Embora a liberdade de expressão seja tradicionalmente protegida contra atos estatais, o novo cenário revela que agentes privados — em especial as grandes plataformas — também têm capacidade de limitar a circulação de ideias. Essa interferência ocorre sem controle público adequado, com regras muitas vezes genéricas, decisões automatizadas e escassa transparência. Por isso, o debate sobre responsabilidade não pode ignorar a assimetria de poder entre usuários e plataformas, nem a necessidade de criar mecanismos legais que garantam o devido processo digital, com direito à informação, recurso e contestação.
O risco da censura privada é particularmente sensível em países marcados por polarização política e instabilidade institucional, como o Brasil. Casos de desmonetização arbitrária de canais, exclusão de conteúdos jornalísticos ou de caráter crítico, e banimento de perfis sem justificativa clara já foram registrados e motivaram questionamentos no Congresso Nacional. No entanto, a mera existência de abusos por parte das plataformas não deve justificar sua completa omissão. Ao contrário, é preciso encontrar um ponto de equilíbrio entre a autorregulação com responsabilidade e o controle estatal proporcional.
Algumas propostas legislativas, como o Projeto de Lei das Fake News (PL 2630/2020), buscam criar parâmetros mínimos para a moderação de conteúdos, exigindo das plataformas maior transparência, publicidade de decisões, relatórios de impacto e respeito a garantias fundamentais. Já a jurisprudência do STF começa a delinear critérios para afastar tanto a censura quanto a negligência, considerando que o espaço digital não é neutro e que a liberdade de expressão deve ser exercida com responsabilidade social.
O STF tem, assim, a oportunidade de construir um modelo normativo que reconheça o papel das plataformas como curadoras do debate público, mas que também exija dessas empresas compromissos efetivos com a pluralidade, a inclusão e a proteção contra discursos ilícitos. Essa decisão será crucial para definir os contornos jurídicos da liberdade de expressão no século XXI e para assegurar que a internet continue sendo um espaço de encontro, informação e cidadania — e não de exclusão, agressão e manipulação.
V. OS IMPACTOS DA DECISÃO DO STF PARA O ORDENAMENTO JURÍDICO E A SOCIEDADE
A decisão a ser proferida pelo Supremo Tribunal Federal no julgamento do tema com repercussão geral sobre os limites da liberdade de expressão nas plataformas digitais terá repercussões jurídicas, políticas e sociais de grande magnitude. O enfrentamento dessa matéria envolve não apenas a interpretação constitucional de direitos fundamentais conflitantes, como também a definição do papel do Estado, das empresas de tecnologia e dos próprios cidadãos na manutenção de um ambiente comunicacional ético, plural e democrático.
A Corte Constitucional brasileira tem, portanto, a responsabilidade de construir parâmetros normativos e jurisprudenciais que orientem não apenas a resolução do caso concreto, mas também sirvam de base para futuras decisões judiciais, ações legislativas e políticas públicas. Isso inclui definir quando e como o Judiciário pode exigir a remoção de conteúdos considerados ilícitos, quais são os limites da atuação das plataformas e qual o alcance da responsabilização civil e penal por danos decorrentes da circulação de conteúdos ofensivos, discriminatórios ou falsos.
V.I. A redefinição da jurisprudência sobre liberdade de expressão e o fortalecimento do controle jurisdicional sobre plataformas
Um dos principais efeitos da decisão do STF será a redefinição dos marcos jurisprudenciais que orientam a interpretação da liberdade de expressão no Brasil. Até então, a jurisprudência da Corte priorizou a proteção contra intervenções estatais, como no emblemático julgamento da ADPF 130, que declarou a não recepção da antiga Lei de Imprensa e reforçou o entendimento de que qualquer limitação prévia ao direito de se expressar deve ser considerada inconstitucional. Contudo, a realidade digital impõe novos desafios que exigem evolução no entendimento jurídico consolidado.
A Corte será chamada a enfrentar uma nova dimensão do fenômeno comunicacional: a moderação privada de conteúdo em larga escala, realizada por empresas com poder quase monopolista sobre o espaço público digital. Ao fazê-lo, precisará reinterpretar a liberdade de expressão à luz da realidade tecnológica contemporânea, considerando não apenas os aspectos formais do direito à manifestação de pensamento, mas também a sua materialização concreta, que pode ser obstada por algoritmos, políticas internas obscuras ou decisões unilaterais das plataformas.
A jurisprudência poderá, assim, caminhar para o reconhecimento da necessidade de controle jurisdicional mais ativo sobre atos de moderação de conteúdo, garantindo ao usuário um conjunto mínimo de garantias processuais: direito à informação sobre os motivos da remoção, possibilidade de recurso contra decisões automáticas, direito à reativação de conteúdo em caso de erro e, eventualmente, indenização por danos causados por bloqueios indevidos. Trata-se de assegurar que a liberdade de expressão não seja capturada por interesses econômicos ou enviesamentos ideológicos das plataformas.
Além disso, a decisão do STF poderá estabelecer balizas para o desenvolvimento da legislação infraconstitucional sobre o tema. A depender do conteúdo da decisão, o Congresso poderá ser compelido a revisar ou implementar dispositivos legais que disciplinem com clareza o funcionamento da moderação de conteúdo, estabelecendo obrigações de transparência, publicidade, devido processo e proteção de direitos fundamentais. Nesse contexto, a decisão judicial atuará como vetor de transformações legislativas e regulatórias.
V.II. Efeitos sociais e políticos: combate à desinformação, proteção da democracia e riscos de autoritarismo digital
A repercussão do julgamento também transcende o campo jurídico, alcançando esferas sensíveis da vida social e política. Em um cenário marcado pela erosão da confiança pública nas instituições, pela disseminação em massa de desinformação e pelo uso estratégico das redes sociais para manipular o debate político, a definição dos limites da liberdade de expressão digital assume um papel essencial na proteção da democracia. A decisão do STF poderá, portanto, contribuir decisivamente para o fortalecimento do ambiente democrático ou, ao contrário, abrir brechas para abusos e arbitrariedades.
De um lado, espera-se que a Corte sinalize com firmeza a ilegitimidade de discursos que atentem contra os direitos fundamentais, como o racismo, a homofobia, a incitação à violência, a misoginia ou a apologia de regimes autoritários. O combate à desinformação, quando pautado pela proteção da verdade factual, da integridade eleitoral e da dignidade humana, é um imperativo ético e jurídico do Estado Democrático de Direito. O STF pode, nesse sentido, reafirmar que a liberdade de expressão não protege a mentira deliberada nem o discurso de ódio.
De outro lado, é fundamental que a decisão evite legitimar práticas de censura encoberta, perseguição ideológica ou silenciamento de vozes dissidentes. A linha entre moderação e censura é tênue, e cabe ao Judiciário traçá-la com prudência, rigor técnico e respeito às liberdades fundamentais. O risco de um autoritarismo digital, operado tanto por agentes públicos quanto por corporações privadas, deve ser enfrentado com mecanismos institucionais de controle, fiscalização e responsabilização.
Outro impacto relevante será o fortalecimento da educação digital e do letramento midiático como política pública. O STF pode reconhecer que o enfrentamento das distorções do ambiente digital não depende apenas de decisões judiciais pontuais ou de remoções de conteúdo, mas de uma estratégia abrangente que envolva a formação crítica da cidadania, o incentivo à verificação de fatos, a valorização do jornalismo profissional e o apoio à ciência. Essa perspectiva estrutural é essencial para garantir que o direito à informação seja efetivamente exercido com qualidade, pluralismo e responsabilidade.
A decisão do STF poderá ainda repercutir em tratados internacionais de direitos humanos e nas políticas de regulação de plataformas adotadas por outros países. O Brasil poderá se tornar referência na construção de um modelo normativo equilibrado, que concilie liberdade e responsabilidade, pluralismo e dignidade, inovação e proteção de direitos. Assim, a decisão ultrapassa o caso concreto e se projeta como marco constitucional da era digital, com implicações profundas para o presente e o futuro da democracia brasileira.