Capa da publicação Responsabilidade direta das redes por erotização infantil
Capa: Sora
Artigo Destaque dos editores

A responsabilidade das plataformas digitais diante da notificação extrajudicial do Governo Federal à Meta.

Proteção integral da criança e do adolescente e a nova interpretação constitucional do Marco Civil da Internet

Exibindo página 2 de 3
Leia nesta página:

3. JURISPRUDÊNCIA E INTERPRETAÇÃO JUDICIAL ATUALIZADA

3.1. Supremo Tribunal Federal – Temas 987 e 533 de repercussão geral

A análise da responsabilidade civil das plataformas digitais ganhou novo contorno no Brasil a partir do julgamento conjunto dos Temas 987 e 533 de repercussão geral, em 26 de junho de 2025, pelo Supremo Tribunal Federal. Ambos os recursos extraordinários envolviam a interpretação do art. 19. do Marco Civil da Internet, especialmente quanto à exigência de ordem judicial prévia para que as empresas de tecnologia pudessem ser responsabilizadas por conteúdos ilícitos postados por terceiros.

No RE 1.037.396 (Tema 987), discutia-se a criação de perfil falso no Facebook, em que a vítima havia notificado a plataforma por meio da ferramenta própria de denúncia, sem êxito. No RE 1.057.258 (Tema 533), o caso envolvia a criação de comunidade no Orkut destinada a difamar uma professora, cuja exclusão só ocorreu após decisão judicial. Em ambos, o ponto nodal era a possibilidade de responsabilização civil das plataformas mesmo sem ordem judicial expressa, quando o conteúdo ilícito se apresentava de forma evidente e lesiva.

O STF, por maioria de votos (8x3), decidiu pela inconstitucionalidade parcial do art. 19, fixando tese vinculante no sentido de que, em hipóteses de conteúdos gravíssimos, como pornografia infantil, incitação ao terrorismo, atos antidemocráticos e crimes sexuais contra vulneráveis, as plataformas devem atuar imediatamente, independentemente de ordem judicial, sob pena de responsabilização civil.27

Esse precedente inaugurou uma verdadeira viragem hermenêutica, que desloca o debate da mera culpa subjetiva para a análise de falha sistêmica das plataformas. A Corte enfatizou que não basta a retirada pontual de conteúdos após ordem judicial, mas é necessário implementar mecanismos estruturais de monitoramento, denúncia e remoção preventiva, sob pena de se configurar omissão inconstitucional. Em outras palavras, a lógica da responsabilidade passa a ser proativa e preventiva, e não apenas reativa.

A decisão modulou seus efeitos para fatos futuros, resguardando a segurança jurídica, mas estabeleceu critérios que vinculam não apenas os tribunais inferiores, mas também a Administração Pública, diante da eficácia erga omnes própria da repercussão geral.28

A doutrina celebrou o julgamento como marco civilizatório na tutela digital da infância. Anderson Schreiber afirmou que a plataforma não é entidade neutra, pois sua estrutura algorítmica influencia diretamente na difusão de conteúdos, impondo-lhe deveres reforçados de moderação.29 Grazielly dos Anjos Fontes Guimarães, por sua vez, observou que a adultização da infância nas redes sociais, frequentemente tolerada como estratégia de engajamento, constitui afronta direta ao princípio da dignidade da pessoa humana, devendo ensejar responsabilidade direta das plataformas.30

Com efeito, os Temas 987 e 533 consolidaram um novo patamar de proteção digital no Brasil, em que a prioridade absoluta da criança e do adolescente (art. 227. da CF) prevalece sobre a liberdade econômica e sobre a alegada neutralidade tecnológica. Esse equilíbrio, construído pelo STF, reforça a necessidade de compatibilizar liberdade de expressão e proteção integral, conferindo densidade normativa ao princípio do melhor interesse da criança.

3.2. Superior Tribunal de Justiça – interpretação do Marco Civil da Internet

Antes mesmo da redefinição hermenêutica promovida pelo Supremo Tribunal Federal em 2025, o Superior Tribunal de Justiça (STJ) já vinha desempenhando papel central na interpretação do Marco Civil da Internet, especialmente no que concerne à aplicação do art. 19. e às exceções admitidas pelo sistema.

A Corte Superior, ciosa de sua função uniformizadora, construiu jurisprudência no sentido de que, em regra, os provedores de aplicação somente poderiam ser responsabilizados após descumprirem ordem judicial específica. Contudo, progressivamente, passou a admitir mitigações a essa exigência diante de situações em que o ilícito se revelava manifesto, de gravidade acentuada e de fácil identificação técnica.

O caso paradigmático foi o REsp 1.840.848/SP, julgado em 2019, em que a Terceira Turma reconheceu a possibilidade de remoção imediata de imagens íntimas divulgadas sem consentimento da vítima, com base no art. 21. do Marco Civil.31 Esse dispositivo, ao dispensar a ordem judicial em hipóteses de violação da intimidade, foi interpretado como verdadeira cláusula de proteção reforçada, a partir da qual o STJ delineou a ideia de que conteúdos de notória ilicitude não poderiam aguardar o tempo natural da judicialização.

Mais recentemente, em 2023, o STJ reafirmou essa compreensão ao julgar o REsp 1.840.848/SP, destacando que a divulgação não consentida de imagens íntimas constitui hipótese de ilícito patente, que dispensa o filtro judicial prévio.32 A ratio desse julgamento abriu caminho para a extensão do raciocínio a outras categorias de conteúdos gravíssimos, como a erotização infantil, ainda que não expressamente prevista no art. 21.

A lógica é simples: se a dignidade da pessoa humana e a intimidade justificam a remoção extrajudicial em casos de pornografia não consentida, a tutela da infância e juventude, por força do art. 227. da Constituição, deve merecer igual — senão maior — proteção. O STJ, portanto, preparou o terreno para que o STF, anos mais tarde, reconhecesse a inconstitucionalidade parcial do art. 19.

A doutrina, em harmonia com essa evolução, sustenta que a hermenêutica protetiva aplicada pelo STJ constitui passo relevante no deslocamento do eixo da responsabilidade das plataformas, aproximando-o da lógica do dever de cuidado. Marcelo Crespo sintetiza a posição ao afirmar que “a omissão em adotar medidas de segurança para proteger usuários contra conteúdos ilícitos pode configurar negligência e responsabilizar o provedor pelos danos causados”.33

Esse movimento demonstra que o STJ exerceu função precursora e articuladora na transição de um modelo estritamente judicializado para um regime de responsabilidade mais célere e responsivo, em consonância com a tutela integral de crianças e adolescentes.

3.3. Tribunais Regionais e Estaduais – tutela de urgência e exercício regular do direito

A repercussão da matéria atinente à responsabilidade das plataformas digitais também se fez sentir na jurisprudência dos tribunais regionais e estaduais, que passaram a enfrentar casos concretos nos quais a urgência da tutela exigia respostas imediatas. Ainda que tais cortes não detenham a função de uniformização nacional, seus pronunciamentos revelam a forma como a doutrina protetiva foi paulatinamente se consolidando na prática judiciária.

No âmbito do Tribunal de Justiça de São Paulo, por exemplo, reconheceu-se a legitimidade da concessão de tutela de urgência para compelir o Facebook/Instagram a restituir acesso a conta invadida, com imposição de multa diária em valor considerável, justamente para assegurar a efetividade da ordem judicial. No Agravo de Instrumento n.º 2161153-08.2023.8.26.0000, o Tribunal destacou que, diante do porte econômico da empresa e do caráter coercitivo da medida, a multa fixada não era excessiva, reforçando a ideia de que a atuação da plataforma deve ser compatível com sua capacidade técnica e financeira.34

Em outro precedente, ainda do TJSP, envolvendo a reprodução parasitária de conteúdos no Instagram e no TikTok, a Corte reconheceu o cabimento da ordem de retirada imediata das postagens, sob o argumento de que havia clara violação de direitos autorais, mas também potencial prejuízo ao público atingido. No Agravo de Instrumento n.º 2271096-91.2022.8.26.0000, a decisão reformada enfatizou o caráter de urgência da medida, em virtude do propósito exclusivo de desvio de usuários por meio de engajamento indevido.35

Já no Tribunal de Justiça do Paraná, a discussão envolveu o encerramento de conta de correio eletrônico pela Google diante da detecção de material relacionado à sexualização infantil. O Tribunal entendeu que a desativação imediata da conta constituía exercício regular de direito, afastando o dever de indenizar. A 5ª Câmara Cível assentou que, ao aderir aos termos de uso, o usuário aceitava a possibilidade de encerramento unilateral da conta em hipóteses de violação grave, como o armazenamento de conteúdo proibido. Nesse contexto, a Corte concluiu que não havia ato ilícito, mas sim medida necessária para preservar a ordem pública digital.36

Esses precedentes revelam que, na esfera infraconstitucional, o debate sobre a responsabilidade das plataformas oscilou entre dois polos: de um lado, a afirmação do dever de agir prontamente, seja pela via da tutela de urgência, seja pela responsabilização por omissão; de outro, o reconhecimento do exercício regular de direito quando a própria plataforma age preventivamente para suprimir contas ou conteúdos de ilicitude manifesta.

Tal jurisprudência, embora fragmentada, mostra que os tribunais estaduais e regionais foram decisivos na sedimentação de uma cultura de proteção digital, preparando o terreno para a viragem hermenêutica consagrada pelo Supremo Tribunal Federal.


4. DOUTRINA E CONTRIBUIÇÕES CONTEMPORÂNEAS

4.1. A crítica à neutralidade das plataformas digitais

O discurso de neutralidade das plataformas digitais tem sido, durante anos, um dos principais argumentos defensivos utilizados por empresas como a Meta, no intuito de afastar sua responsabilidade civil por conteúdos de terceiros. A alegação é simples: não havendo ingerência na criação das publicações, a empresa não poderia ser responsabilizada senão após ordem judicial. Essa construção, contudo, foi gradualmente desconstruída pela doutrina e pela jurisprudência, sobretudo diante de ilícitos gravíssimos como a erotização infantil.

De fato, a noção de neutralidade não se sustenta quando se reconhece que as plataformas não são meros espaços passivos de comunicação, mas ambientes digitais estruturados por algoritmos que determinam a visibilidade, a circulação e o engajamento dos conteúdos. A seleção do que será impulsionado, a priorização de determinadas interações e a manutenção de fluxos virais resultam de escolhas técnicas e comerciais conscientes, de modo que a plataforma participa ativamente da dinâmica informacional.

O Supremo Tribunal Federal, no julgamento dos Temas 987 e 533 de repercussão geral, rechaçou expressamente a tese da neutralidade absoluta. Reconheceu-se que os provedores de aplicações não podem se omitir sob o argumento de serem intermediários neutros, pois os algoritmos e mecanismos de impulsionamento integram o próprio modelo de negócio e contribuem para a disseminação de conteúdos ilícitos.37

Na doutrina, Anderson Schreiber sintetizou a crítica de modo preciso: “a plataforma não é neutra; algoritmos e modelos de negócio orientam a circulação de conteúdos, o que impõe deveres jurídicos reforçados de moderação e prevenção, especialmente diante de riscos sistêmicos como a erotização infantil”.38 A observação desloca o debate da simples responsabilidade pós-fato para a necessidade de deveres proativos de cuidado, exigindo das empresas estruturas internas de monitoramento e de filtragem.

A crítica é reforçada por estudos especializados em infância e sociedade digital. Rodrigo Nejm, em parecer técnico apresentado em 2025, enfatizou que a exploração da infância adultizada como modelo de negócio jamais poderia ser aceita como prática legítima, exigindo limites claros e sistemas de proteção inclusivos.39 Nessa linha, a omissão das plataformas não se caracteriza como neutralidade, mas como cumplicidade estrutural, pois os incentivos econômicos e técnicos oferecidos por elas contribuem para perpetuar práticas ilícitas.

Fique sempre informado com o Jus! Receba gratuitamente as atualizações jurídicas em sua caixa de entrada. Inscreva-se agora e não perca as novidades diárias essenciais!
Os boletins são gratuitos. Não enviamos spam. Privacidade Publique seus artigos

A rejeição da neutralidade, portanto, significa afirmar que as plataformas estão juridicamente inseridas na relação de causalidade que produz o dano, devendo responder por falhas sistêmicas ou por omissões graves. Não se trata de transformar as empresas em censoras privadas, mas de reconhecer que seu papel ativo no ecossistema digital impõe responsabilidades jurídicas qualificadas, compatíveis com a prioridade absoluta da proteção da criança e do adolescente.

4.2. A adultização da infância e a violação à dignidade humana

A crítica à neutralidade das plataformas digitais encontra, em complemento, uma dimensão ainda mais grave quando se analisa o fenômeno da adultização da infância, isto é, a imposição de padrões de comportamento, consumo e sexualidade próprios da vida adulta a crianças e adolescentes. Esse processo, intensificado pelo ambiente digital e pelas redes sociais, configura afronta direta ao princípio da dignidade da pessoa humana (art. 1º, III, CF), na medida em que instrumentaliza o corpo infantil como objeto de engajamento e lucro.

No contexto jurídico, a adultização da infância representa não apenas violação ao Estatuto da Criança e do Adolescente, mas também uma inversão de valores constitucionais: em vez de serem vistas como sujeitos de direitos em condição peculiar de desenvolvimento, crianças são expostas a práticas que antecipam etapas da maturação física e psíquica, comprometendo sua formação integral. Esse quadro se agrava quando tais práticas são monetizadas pelas plataformas digitais, por meio de impulsionamento de conteúdo e algoritmos de recomendação, que acabam por favorecer a circulação de material de caráter erótico ou de sexualização precoce.

A jurisprudência mais recente já reconheceu que a permanência desses conteúdos em circulação, sobretudo quando dirigidos a menores, não pode ser justificada pela invocação da liberdade de expressão ou pela alegação de ausência de ordem judicial específica. O Supremo Tribunal Federal, nos RE 1.037.396 (Tema 987) e RE 1.057.258 (Tema 533), destacou que conteúdos gravíssimos, como a pornografia infantil e a erotização de vulneráveis, demandam remoção imediata, sob pena de responsabilização direta da plataforma.40

A doutrina reforça essa linha de interpretação. Grazielly dos Anjos Fontes Guimarães sustenta que “a instrumentalização da criança para fins comerciais nas redes sociais, sobretudo em contextos de erotização, ofende frontalmente o princípio da dignidade humana e enseja responsabilidade direta das plataformas”.41 Trata-se de formulação precisa: a violação não reside apenas no ato em si da exploração, mas na conversão da infância em mercadoria, legitimada pelo alcance viral que as próprias empresas proporcionam.

O parecer técnico de Rodrigo Nejm vai na mesma direção ao enfatizar que explorar a infância adultizada e sexualizada “não é, em lugar nenhum, aceitável como modelo de negócio”.42 Assim, a crítica não se limita ao discurso jurídico, mas abrange a exigência ética de repensar o funcionamento dos ambientes digitais, que, sob a lógica da maximização de engajamento, expõem menores a riscos desproporcionais.

Em síntese, a adultização da infância nas plataformas digitais não é um fenômeno isolado ou socialmente neutro. Ao contrário, constitui violação estrutural de direitos fundamentais, pois corrompe a dignidade da criança e a reduz a objeto de consumo, cabendo ao Direito reagir com medidas proporcionais e de caráter preventivo.

4.3. Perspectivas de proteção integral na era da inteligência artificial

A consolidação de uma política jurídica de proteção da infância nas redes digitais exige considerar o impacto das novas tecnologias de inteligência artificial, que ampliam, em proporções inéditas, tanto as potencialidades de comunicação quanto os riscos de exploração. A criação de robôs conversacionais e perfis simulados, capazes de reproduzir linguagem e aparência infantil, evidencia como a inovação tecnológica pode ser instrumentalizada para fins de erotização precoce, configurando ameaça direta ao princípio da proteção integral.

A notificação extrajudicial encaminhada pelo Governo Federal à Meta em agosto de 2025 insere-se nesse contexto: a denúncia apontava para a existência de chatbots de inteligência artificial que dialogavam com usuários em tom sexualizado, utilizando imagens e expressões típicas da infância. Esse episódio mostrou que a vulnerabilidade digital não decorre apenas da ação de indivíduos mal-intencionados, mas também do próprio design das plataformas, que, ao oferecerem ferramentas de automação sem filtros adequados, criam ambientes férteis para práticas de exploração.

Do ponto de vista normativo, a conjugação do art. 227. da Constituição, do ECA e da recente interpretação do STF nos Temas 987 e 533 impõe às plataformas a adoção de mecanismos de inteligência artificial voltados à proteção, e não à perpetuação do risco.43 A lógica é a de que o dever de cuidado deve ser atualizado conforme o estágio tecnológico: se as empresas utilizam algoritmos para maximizar engajamento e lucro, devem igualmente utilizá-los para monitorar e remover conteúdos ilícitos com eficácia redobrada.

A jurisprudência já sinaliza esse caminho. No julgamento do STF de junho de 2025, ficou consignado que os provedores devem implementar canais de denúncia acessíveis, relatórios de transparência e sistemas automáticos de detecção, configurando verdadeira obrigação de compliance digital.44 O não cumprimento dessas obrigações, diante de ilícitos gravíssimos, caracteriza falha sistêmica e enseja responsabilização civil direta.

A doutrina também antecipa esse movimento. Anderson Schreiber aponta que os algoritmos, longe de serem neutros, estruturam a circulação de conteúdos e, portanto, devem ser regulados para cumprir função de proteção.45 Rodrigo Nejm, em parecer de 2025, acrescenta que o modelo de negócio que admite a exposição sexualizada da infância como subproduto de sua lógica algorítmica é inaceitável sob qualquer perspectiva ética ou jurídica.46

Por outro lado, cabe ressaltar que a proteção integral na era da inteligência artificial não pode se restringir às plataformas: deve envolver políticas públicas, cooperação internacional e participação da sociedade civil. A regulação das big techs, como discute o Projeto de Lei n.º 2.628/2022, em tramitação no Congresso Nacional, representa passo necessário para obrigar provedores a implementar mecanismos robustos de verificação etária, supervisão parental e barreiras técnicas contra abusos digitais.

Em síntese, a inteligência artificial não é, em si, um mal ou um bem, mas uma ferramenta cuja orientação normativa determinará se servirá à proteção ou à exploração. O Direito brasileiro, ao reafirmar a centralidade da proteção integral da criança, deve assegurar que tais tecnologias sejam utilizadas como instrumentos de garantia de direitos fundamentais, e não como engrenagens de um risco sistêmico que viola a dignidade humana.

Assuntos relacionados
Sobre o autor
Paulo Vitor Faria da Encarnação

Advogado. Mestre em Direito Processual pela Universidade Federal do Espírito Santo (UFES). Sócio do escritório Santos Faria Sociedade de Advogados.

Como citar este texto (NBR 6023:2018 ABNT)

ENCARNAÇÃO, Paulo Vitor Faria. A responsabilidade das plataformas digitais diante da notificação extrajudicial do Governo Federal à Meta.: Proteção integral da criança e do adolescente e a nova interpretação constitucional do Marco Civil da Internet. Revista Jus Navigandi, ISSN 1518-4862, Teresina, ano 30, n. 8086, 21 ago. 2025. Disponível em: https://jus.com.br/artigos/115298. Acesso em: 5 dez. 2025.

Leia seus artigos favoritos sem distrações, em qualquer lugar e como quiser

Assine o JusPlus e tenha recursos exclusivos

  • Baixe arquivos PDF: imprima ou leia depois
  • Navegue sem anúncios: concentre-se mais
  • Esteja na frente: descubra novas ferramentas
Economize 17%
Logo JusPlus
JusPlus
de R$
29,50
por

R$ 2,95

No primeiro mês

Cobrança mensal, cancele quando quiser
Assinar
Já é assinante? Faça login
Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Colabore
Publique seus artigos
Fique sempre informado! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos