Resumo: O artigo examina a responsabilidade civil das plataformas digitais diante da notificação extrajudicial enviada pelo Governo Federal à Meta, que exigiu medidas urgentes contra robôs responsáveis por promover erotização infantil no Instagram. A pesquisa analisa os fundamentos constitucionais e legais de proteção integral da criança e do adolescente, a evolução da jurisprudência do Superior Tribunal de Justiça e a decisão paradigmática do Supremo Tribunal Federal nos Temas 987 e 533, que declarou a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet. O trabalho demonstra que o princípio da prioridade absoluta (art. 227 da CF) exige das plataformas deveres reforçados de cuidado, afastando a alegação de neutralidade e impondo responsabilidade direta em casos de conteúdos gravíssimos. A conclusão aponta para a necessidade de mecanismos de compliance digital, políticas públicas integradas e uso da inteligência artificial voltado à prevenção, garantindo efetividade à proteção da infância no ambiente digital.
Palavras-chave: Plataformas digitais; responsabilidade civil; erotização infantil; prioridade absoluta; Marco Civil da Internet; Supremo Tribunal Federal; notificação extrajudicial.
INTRODUÇÃO
A crescente centralidade das redes sociais na vida cotidiana tem trazido, ao mesmo tempo, benefícios comunicacionais e desafios jurídicos de grande complexidade. Entre estes, avulta a necessidade de proteção da infância contra novas formas de exploração, em especial aquelas que se manifestam por meio da erotização precoce promovida em ambientes digitais. O episódio recente da notificação extrajudicial enviada pelo Governo Federal à empresa Meta, controladora do Instagram, no ano de 2025, requisitando a adoção de medidas urgentes contra robôs que simulavam perfis infantis com linguagem sexualizada, revela a gravidade do problema e a urgência de respostas jurídicas adequadas.
A questão não se limita ao âmbito administrativo. Trata-se de um problema que exige a interpretação conjugada de dispositivos constitucionais, como o art. 227. da Constituição da República, do Estatuto da Criança e do Adolescente e do Marco Civil da Internet, à luz da jurisprudência recente do Supremo Tribunal Federal e do Superior Tribunal de Justiça. O eixo da análise consiste em verificar se a atuação estatal, por meio da notificação extrajudicial, encontra respaldo no ordenamento e em que medida as plataformas digitais podem ser responsabilizadas civilmente pela permanência de conteúdos gravíssimos em seus sistemas.
O Supremo Tribunal Federal, ao julgar conjuntamente os Temas 987 e 533 de repercussão geral, declarou a inconstitucionalidade parcial do art. 19 do Marco Civil, fixando a possibilidade de responsabilização direta das plataformas quando se tratar de ilícitos notórios e gravíssimos, como pornografia infantil e crimes contra vulneráveis.1 Com isso, o Tribunal reafirmou que a neutralidade alegada pelas empresas não se sustenta diante do dever constitucional de proteção integral, deslocando o centro do debate para a exigência de estruturas preventivas eficazes.
A doutrina contemporânea acompanha esse movimento. Anderson Schreiber observa que os algoritmos e modelos de negócio das plataformas não são neutros, mas determinam a circulação de conteúdos, o que lhes impõe deveres jurídicos reforçados.2 Grazielly dos Anjos Fontes Guimarães ressalta que a adultização da infância em redes sociais constitui afronta direta à dignidade da pessoa humana, ensejando responsabilidade direta das plataformas.3 Rodrigo Nejm, especialista em educação digital, destaca que explorar a infância como estratégia de engajamento é modelo de negócio inaceitável sob qualquer perspectiva ética.4
Diante disso, este artigo busca analisar a responsabilidade civil das plataformas digitais à luz da Constituição, do ECA, do Marco Civil da Internet e da jurisprudência atual, examinando a legitimidade da atuação estatal por meio de notificações extrajudiciais e os limites jurídicos do dever de cuidado das empresas. O objetivo é demonstrar que a prioridade absoluta conferida à criança e ao adolescente impõe um novo paradigma regulatório, em que a proteção integral deve prevalecer sobre a lógica econômica das big techs.
1. FUNDAMENTOS CONSTITUCIONAIS E LEGAIS DA PROTEÇÃO INTEGRAL
1.1. O art. 227. da Constituição da República e a prioridade absoluta
O constituinte de 1988, em sua inequívoca intenção de conferir máxima proteção à infância e à juventude, consagrou no art. 227 da Constituição da República a regra da prioridade absoluta, impondo à família, à sociedade e ao Estado o dever irrecusável de assegurar, com primazia em relação a quaisquer outros interesses, o pleno desenvolvimento da criança e do adolescente. Trata-se de uma norma que, a rigor, não se exaure em simples proclamação programática, mas se reveste de densidade normativa suficiente para irradiar efeitos imediatos sobre as políticas públicas e sobre a atuação dos particulares que exploram atividades potencialmente nocivas a esse público.
A prioridade absoluta, como se depreende do próprio texto constitucional, deve ser compreendida em sua dupla dimensão: de um lado, como dever de proteção integral contra qualquer forma de violência, exploração ou negligência; de outro, como critério hermenêutico de prevalência, de modo que, havendo conflito entre a liberdade de iniciativa e a salvaguarda da dignidade da criança, esta última há de sobrepor-se sem hesitação. É precisamente nesse contexto que se enquadra a problemática da atuação de plataformas digitais, como o Instagram, diante da circulação de conteúdos que promovem a erotização de menores, fenômeno que a recente notificação extrajudicial do Governo Federal à Meta buscou coibir.
Não é demais recordar que o Supremo Tribunal Federal, em decisão paradigmática proferida em 26 de junho de 2025 (RE 1.037.396, Tema 987, e RE 1.057.258, Tema 533), firmou entendimento no sentido de que a omissão das plataformas digitais em remover conteúdos gravíssimos — dentre os quais se insere a pornografia infantil e toda forma de erotização de crianças e adolescentes — enseja sua responsabilização direta, independentemente de ordem judicial prévia.5 A ratio decidendi assenta-se, justamente, na exigência constitucional de prioridade absoluta, que não se compatibiliza com a inércia ou com o argumento de neutralidade empresarial.
A doutrina contemporânea tem reiterado que a consagração do art. 227. não se resume a uma cláusula retórica, mas projeta sobre os agentes econômicos deveres positivos de prevenção. Anderson Schreiber observa que “a plataforma não é neutra; algoritmos e modelos de negócio orientam a circulação de conteúdos, o que impõe deveres jurídicos reforçados de moderação e prevenção, especialmente diante de riscos sistêmicos como a erotização infantil”.6 Tal lição deixa claro que a prioridade absoluta não é apenas um mandamento dirigido ao Estado, mas irradia efeitos horizontais, vinculando também os particulares.
A hermenêutica constitucional, nesse campo, deve ser guiada pela centralidade da dignidade humana do menor, razão pela qual o art. 227. da Constituição não pode ser interpretado de modo restritivo, sob pena de desfigurar sua função precípua de tutela integral.
1.2. O Estatuto da Criança e do Adolescente e a vedação à exploração sexual
A Constituição de 1988, ao instituir a doutrina da proteção integral, encontrou no Estatuto da Criança e do Adolescente (Lei n.º 8.069/1990) o seu mais eloquente desenvolvimento normativo. Trata-se de diploma que, ao regulamentar o art. 227 da Constituição, erigiu a proteção da criança e do adolescente a patamar de direito fundamental, impondo obrigações jurídicas específicas ao Estado, à família e à sociedade.
Entre tais obrigações, avulta a vedação absoluta de qualquer forma de exploração sexual, que se revela não apenas em condutas de abuso direto, mas também em práticas de erotização precoce ou de adultização digital, cada vez mais comuns no ambiente das plataformas virtuais. A lei estatui, de modo peremptório, que a criança e o adolescente devem ser resguardados contra qualquer violação de sua dignidade sexual, e prevê, no art. 241-B, a criminalização da divulgação, inclusive em meios eletrônicos, de cenas de sexo ou pornografia envolvendo menores.
O ponto central que aqui se destaca é a incidência do dever jurídico de prevenção, que se impõe tanto ao Estado quanto a particulares que administram redes sociais. A jurisprudência recente do Superior Tribunal de Justiça já havia sinalizado nesse sentido ao assentar que, em hipóteses de violação manifesta e gravíssima, como ocorre com a erotização de crianças, não se pode exigir da vítima a judicialização prévia para compelir a remoção do conteúdo. Em precedente paradigmático, a Corte reconheceu que a divulgação não consentida de imagens íntimas pode ser objeto de remoção imediata mediante simples notificação, em aplicação do art. 21 do Marco Civil da Internet, justamente porque tais situações afetam a dignidade da pessoa humana em grau máximo.7
O reforço hermenêutico vem ainda do recente posicionamento do Supremo Tribunal Federal, que, no julgamento conjunto dos Temas 987 e 533, modulou a interpretação do art. 19. do Marco Civil para admitir a responsabilização direta das plataformas em casos de conteúdos gravíssimos, entre os quais se inclui a exploração sexual de menores.8 Tal entendimento coaduna-se com a sistemática protetiva do ECA, que repudia não só a prática efetiva do crime, mas também qualquer tolerância, omissão ou conivência que possa potencializar a circulação desses conteúdos.
Na doutrina, Grazielly dos Anjos Fontes Guimarães ressalta, em estudo de fôlego, que “a instrumentalização da criança para fins comerciais nas redes sociais, sobretudo em contextos de erotização, ofende frontalmente o princípio da dignidade humana e enseja responsabilidade direta das plataformas”.9 Com efeito, não basta a previsão normativa: a eficácia do ECA exige ação positiva, de caráter preventivo, para impedir a perpetuação da exploração no meio digital.
Assim, o Estatuto, em consonância com a Constituição, projeta uma obrigação normativa que vai além da repressão penal: cria um verdadeiro estatuto de responsabilidade social e empresarial, impondo aos provedores de aplicações digitais o dever de adotar mecanismos céleres e eficazes de bloqueio, remoção e filtragem de conteúdos que promovam a exploração sexual ou a erotização de crianças e adolescentes.
1.3. O Marco Civil da Internet e a evolução jurisprudencial sobre o art. 19
O Marco Civil da Internet (Lei n.º 12.965/2014) surgiu como diploma normativo destinado a estruturar princípios, garantias, direitos e deveres para o uso da internet no Brasil. Entre suas disposições, o art. 19. assumiu papel central no debate jurídico, ao estabelecer, como regra geral, que os provedores de aplicações somente poderiam ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tornassem indisponível o material ilícito.
A ratio legis era clara: evitar que a responsabilidade civil das plataformas se transformasse em censura privada, retirando da esfera estatal o controle de legalidade e constitucionalidade de conteúdos. Contudo, a evolução jurisprudencial demonstrou que a aplicação literal desse dispositivo não se harmonizava com situações de extrema gravidade, em que o ilícito se revela notório e a demora na remoção do conteúdo pode significar violação irreparável de direitos fundamentais.
Inicialmente, o Superior Tribunal de Justiça, em casos de divulgação não consentida de imagens íntimas, reconheceu que o art. 21. do Marco Civil já excepcionava a regra geral, autorizando a remoção imediata por simples notificação da vítima, sem necessidade de ordem judicial prévia.10 Tal entendimento abriu caminho para o reconhecimento de que, diante de violações que atingem diretamente a dignidade humana, a lógica da prioridade absoluta deveria prevalecer sobre a literalidade restritiva do art. 19.
Esse movimento culminou no julgamento histórico do Supremo Tribunal Federal, em 26 de junho de 2025, quando, ao apreciar conjuntamente os RE 1.037.396 (Tema 987) e RE 1.057.258 (Tema 533), a Corte declarou a inconstitucionalidade parcial do art. 19, fixando tese segundo a qual, em casos de conteúdos gravíssimos — como pornografia infantil, crimes sexuais contra vulneráveis, incitação ao terrorismo ou discriminação de gênero —, a plataforma pode ser responsabilizada independentemente de prévia ordem judicial.11
A decisão do STF não apenas modulou os efeitos do dispositivo, mas também introduziu uma verdadeira teoria da responsabilidade subjetiva qualificada das plataformas, assentando que não se trata de responsabilidade objetiva, mas sim de responsabilização decorrente da falha sistêmica ou omissão em adotar as melhores práticas de prevenção, detecção e remoção de conteúdos ilícitos. Assim, a neutralidade técnica alegada pelas empresas foi rejeitada, reconhecendo-se que algoritmos, modelos de negócios e políticas de engajamento exercem papel ativo na circulação de conteúdos.
A doutrina reforça essa compreensão. Anderson Schreiber observa que os provedores não podem se ocultar sob o manto da neutralidade, pois “a plataforma não é neutra; algoritmos e modelos de negócio orientam a circulação de conteúdos, o que impõe deveres jurídicos reforçados de moderação e prevenção”.12 A perspectiva crítica complementa-se pela análise de Rodrigo Nejm, especialista em educação digital, que sustenta ser inadmissível a exploração da infância adultizada e sexualizada como modelo de negócio.13
Com efeito, a evolução jurisprudencial brasileira acerca do art. 19. demonstra que a regra de responsabilidade condicionada à ordem judicial não pode ser aplicada cegamente a hipóteses de ilícitos notórios e gravíssimos. O princípio da proteção integral, em harmonia com o ECA e com o art. 227. da Constituição, exige das plataformas não apenas uma postura reativa, mas a adoção de mecanismos preventivos e eficazes de bloqueio e monitoramento, sob pena de se configurar violação sistêmica de dever jurídico.
2. RESPONSABILIDADE CIVIL DAS PLATAFORMAS DIGITAIS
2.1. O dever de cuidado e a teoria da responsabilidade subjetiva qualificada
A responsabilidade civil das plataformas digitais, no contexto da circulação de conteúdos ilícitos envolvendo crianças e adolescentes, deve ser analisada sob a ótica do dever jurídico de cuidado. Esse dever, decorrente diretamente do art. 227. da Constituição da República, não se esgota na obrigação negativa de abstenção, mas impõe condutas positivas de vigilância, prevenção e reação imediata diante de ilícitos notórios, como os casos de erotização infantil.
A jurisprudência recente do Supremo Tribunal Federal, no julgamento conjunto dos Temas 987 e 533 de repercussão geral, reconheceu que, diante de ilícitos gravíssimos, a responsabilização das plataformas não se condiciona à prévia ordem judicial, mas depende da comprovação de falha sistêmica ou omissão culposa em adotar medidas adequadas de prevenção e remoção.14 Essa evolução hermenêutica consolidou no Brasil a chamada responsabilidade subjetiva qualificada, na qual a imputação de responsabilidade exige a demonstração de que a plataforma não cumpriu os padrões diligentes esperados, seja pela ausência de mecanismos eficazes de monitoramento, seja pela inércia após ciência inequívoca do ilícito.
Não se trata, portanto, de responsabilidade objetiva no sentido clássico, mas de uma modalidade que se aproxima dela em função da gravidade do bem jurídico tutelado. A Corte Suprema deixou claro que não basta a existência de um caso isolado para ensejar responsabilidade, mas sim a comprovação de que houve deficiência estrutural ou falha sistêmica no modelo de prevenção, caracterizando negligência grave diante do dever constitucional de cuidado.
O Superior Tribunal de Justiça já havia antecipado esse raciocínio em hipóteses de divulgação de imagens íntimas, ao admitir a remoção imediata mediante simples notificação, com fundamento no art. 21. do Marco Civil da Internet.15 Nesses casos, a Corte reconheceu que a passividade das plataformas, mesmo diante de ciência extrajudicial, configura descumprimento do dever de cuidado, permitindo a responsabilização por omissão.
A doutrina acompanha essa tendência. Anderson Schreiber, em artigo publicado no JOTA, sustenta que os algoritmos não são instrumentos neutros, mas parte essencial do modelo de negócio, de modo que a ausência de regulação e controle constitui violação ao dever de cuidado.16 Grazielly dos Anjos Fontes Guimarães, por sua vez, observa que a adultização de crianças em redes sociais, quando tolerada pelas plataformas, representa afronta direta ao princípio da dignidade humana, atraindo sua responsabilidade direta.17
O dever de cuidado, assim compreendido, vincula as plataformas a um padrão jurídico superior, compatível com a gravidade dos direitos fundamentais em jogo. Essa qualificação da responsabilidade subjetiva não equivale a um retrocesso à mera análise de culpa individual, mas à construção de uma culpa institucional, aferida pela inadequação das estruturas internas das empresas diante da exigência de proteção integral da criança e do adolescente.
2.2. A responsabilidade objetiva em hipóteses de risco sistêmico
Embora a orientação prevalente do Supremo Tribunal Federal, ao modular a interpretação do art. 19. do Marco Civil da Internet, tenha sido a de estabelecer uma responsabilidade subjetiva qualificada, não se pode ignorar que determinados contextos impõem às plataformas digitais um regime mais rigoroso, de natureza objetiva, especialmente quando sua própria atividade cria ou intensifica riscos sociais de grande magnitude.
É o que se verifica em hipóteses de risco sistêmico, isto é, situações em que a estrutura do serviço, sua lógica algorítmica ou modelo de negócios favorecem, de forma reiterada e previsível, a circulação de conteúdos ilícitos. Nesse cenário, a aferição de culpa individual perde relevância, pois o ilícito se conecta diretamente ao risco inerente da atividade desempenhada. A exploração econômica da interação digital em larga escala, combinada ao uso de mecanismos de impulsionamento automático e robôs virtuais, cria uma ambiência que facilita a propagação de práticas criminosas, como a erotização infantil.
A jurisprudência recente do STF já reconheceu que, em casos de anúncios pagos ou impulsionamento de conteúdos ilícitos, a responsabilidade das plataformas é presumida, porquanto a intermediação econômica e a aprovação prévia da publicidade revelam participação ativa no ilícito.18 Essa presunção, de caráter objetivo, afasta a necessidade de prova de culpa, cabendo à empresa demonstrar que atuou com diligência suficiente e em tempo razoável para neutralizar o dano.
O Superior Tribunal de Justiça, ainda que em perspectiva distinta, já havia sinalizado que a mera tolerância à difusão de conteúdos de grave impacto social, mesmo após notificação, poderia caracterizar falha do serviço, ensejando a responsabilização civil nos moldes do Código de Defesa do Consumidor.19 A conjugação entre a teoria do risco da atividade e a proteção integral do ECA permite concluir que, ao menos em determinados cenários, a responsabilidade das plataformas aproxima-se da lógica objetiva.
Na doutrina, Grazielly dos Anjos Fontes Guimarães enfatiza que a instrumentalização da infância em redes sociais para fins de engajamento e monetização não é mero desvio episódico, mas um risco sistêmico produzido pela própria lógica do mercado digital, razão pela qual a responsabilidade não pode depender da demonstração de culpa.20 A leitura se reforça com o parecer técnico de Rodrigo Nejm, para quem “explorar a infância adultizada, sexualizada, exposta sem nenhum tipo de cuidado, não é, em lugar nenhum, aceitável como modelo de negócio”.21
Nesse contexto, a responsabilidade objetiva opera como mecanismo de tutela reforçada, coerente com o princípio da prioridade absoluta, funcionando como antídoto contra a ineficácia das medidas reativas. Ao reconhecer que certas práticas são inseparáveis do próprio risco da atividade, a ordem jurídica assegura que a proteção da infância não se torne refém da dificuldade probatória da culpa empresarial.
2.3. A repercussão da decisão do STF (RE 1.037.396 e RE 1.057.258)
O julgamento conjunto dos Recursos Extraordinários n.º 1.037.396 (Tema 987) e n.º 1.057.258 (Tema 533), realizado em 26 de junho de 2025 pelo Supremo Tribunal Federal, representa marco incontornável na evolução da responsabilidade civil das plataformas digitais no Brasil. Pela primeira vez, a Corte Constitucional declarou a inconstitucionalidade parcial do art. 19. do Marco Civil da Internet, fixando tese de repercussão geral segundo a qual, diante de conteúdos gravíssimos, como a pornografia infantil, a incitação ao terrorismo e a erotização de crianças, os provedores podem ser responsabilizados independentemente de ordem judicial prévia.22
A decisão rompeu com o entendimento tradicional de que a responsabilidade das plataformas dependeria sempre da inércia diante de ordem judicial específica, inaugurando um modelo normativo que combina a lógica do controle judicial difuso com a imposição de deveres positivos de cuidado às empresas de tecnologia. O STF reconheceu, em linguagem inequívoca, que a simples exigência de ordem judicial prévia tornava ineficaz a proteção de direitos fundamentais em situações de urgência, sobretudo quando se trata de preservar a integridade psíquica e moral de crianças e adolescentes.
Duas consequências práticas emergem da decisão. Em primeiro lugar, as plataformas passam a responder diretamente quando deixam de atuar com presteza na remoção de conteúdos ilícitos de gravidade manifesta, ainda que não haja decisão judicial. Em segundo lugar, o precedente exige que essas empresas adotem mecanismos internos de compliance digital, criando canais de denúncia acessíveis, relatórios de transparência e sistemas automáticos de detecção de conteúdos ilícitos, sob pena de verem configurada a falha sistêmica em sua atuação.23
A doutrina tem acolhido a decisão como uma redefinição estrutural do papel das plataformas. Anderson Schreiber afirma que “a plataforma não é neutra; algoritmos e modelos de negócio orientam a circulação de conteúdos, o que impõe deveres jurídicos reforçados de moderação e prevenção”.24 Já Rodrigo Nejm, em parecer técnico divulgado no mesmo ano, destaca que a omissão diante da exploração sexual de menores em ambientes digitais não pode ser tolerada sob qualquer argumento de neutralidade ou impossibilidade técnica.25
Além disso, a decisão do STF produziu repercussões nos tribunais infraconstitucionais, que passaram a reavaliar a aplicação do art. 19. do Marco Civil em hipóteses de tutela de urgência. Tribunais estaduais, como o TJSP, têm admitido a imposição de obrigações imediatas às plataformas, inclusive sob pena de multa, para compelir a remoção de conteúdos de erotização de crianças, independentemente da existência de ordem judicial específica prévia.26
Em síntese, a decisão do STF consolidou a passagem de um modelo de responsabilidade condicionada a um regime de responsabilidade qualificada e proativa, em que a inércia ou a ausência de mecanismos eficazes de prevenção caracteriza, em si mesma, violação constitucional. Trata-se, portanto, de precedente que não apenas redefine a interpretação do art. 19. do Marco Civil, mas também afirma a centralidade do art. 227. da Constituição na conformação do ambiente digital brasileiro.