Resumo: O presente artigo analisa a decisão do Supremo Tribunal Federal, proferida em 26 de junho de 2025, que declarou a inconstitucionalidade parcial do art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), flexibilizando a exigência de ordem judicial prévia para a responsabilização civil de plataformas digitais por conteúdos gerados por terceiros. A decisão introduziu, no ordenamento jurídico brasileiro, elementos do modelo de notice and take down, admitindo que a omissão na remoção de conteúdo manifestamente ilícito, após notificação inequívoca, pode ensejar responsabilidade, mesmo sem determinação judicial. Partindo de uma abordagem que conjuga análise constitucional, exame jurisprudencial e avaliação prática, discute-se o impacto dessa mudança na proteção de direitos fundamentais, na preservação da liberdade de expressão e na atuação de influenciadores, anunciantes e veículos de mídia. O estudo ainda identifica os desafios de harmonização legislativa e regulatória, bem como as perspectivas de adequação empresarial por meio da adoção de boas práticas, com vistas à construção de um espaço digital mais seguro e democrático, sem sacrificar o pluralismo e a livre circulação de ideias.
Palavras-chave: Marco Civil da Internet; Supremo Tribunal Federal; responsabilidade civil; notice and take down; liberdade de expressão; direitos fundamentais; plataformas digitais.
Sumário: 1. Introdução. 2. A decisão do STF e a reconfiguração do art. 19 do Marco Civil da Internet. 2.1. Contexto normativo e evolução legislativa. 2.2. A “blindagem” anterior e seu alcance jurisprudencial. 3. Fundamentos constitucionais da responsabilidade das plataformas digitais. 3.1. Liberdade de expressão e proteção de direitos fundamentais. 3.2. Colisão de direitos: dignidade da pessoa humana, integridade e livre manifestação. 4. O novo paradigma de responsabilização. 4.1. O modelo de notice and take down adotado pelo STF. 4.2. Conteúdo pago, replicações sucessivas e contas inautênticas. 4.3. O dever de diligência e a aferição da culpa ou negligência. 5. Impactos jurídicos e sociais da decisão. 5.1. Efeitos sobre influenciadores, anunciantes e veículos de mídia. 5.2. Consequências para a moderação e exclusão de conteúdos. 5.3. Possíveis conflitos judiciais e riscos de excesso ou omissão. 6. A decisão e o equilíbrio entre regulação e inovação. 6.1. Desafios para a harmonização legislativa e regulatória. 6.2. Perspectivas de adequação empresarial e boas práticas. 7. Considerações finais. Referências.
1. Introdução
A evolução tecnológica e a crescente centralidade das plataformas digitais na mediação das relações sociais, econômicas e políticas colocaram em evidência, nas últimas décadas, um conjunto de questões jurídicas complexas, sobretudo no que tange à responsabilidade civil por conteúdos gerados por terceiros. No Brasil, a Lei nº 12.965/2014, o denominado Marco Civil da Internet, constituiu marco normativo inaugural na sistematização de princípios, garantias e deveres aplicáveis à rede mundial de computadores, tendo no seu art. 19 um dos dispositivos mais debatidos, ao condicionar a responsabilização do provedor de aplicações de internet ao descumprimento de ordem judicial específica de remoção.
Esse modelo, concebido sob a justificativa de proteger a liberdade de expressão contra riscos de censura privada, estabeleceu uma barreira procedimental robusta à exclusão de conteúdos, transferindo ao Poder Judiciário a prerrogativa exclusiva de determinar a retirada de material ilícito. Contudo, a experiência prática evidenciou tensões entre essa blindagem normativa e a efetividade da tutela de outros direitos fundamentais, como a dignidade da pessoa humana, a proteção da honra e da imagem, a integridade psíquica e física, e a preservação do processo democrático contra práticas de desinformação massiva.
O Supremo Tribunal Federal, no julgamento concluído em 26 de junho de 2025, ao declarar a inconstitucionalidade parcial do art. 19, promoveu relevante inflexão interpretativa ao admitir que, em hipóteses específicas, a responsabilidade civil das plataformas decorra da omissão em remover conteúdo manifestamente ilícito após notificação inequívoca, mesmo que ausente ordem judicial prévia. Essa decisão, inspirada em elementos do modelo de notice and take down, buscou reequilibrar a ponderação entre liberdade de expressão e proteção de outros bens jurídicos de igual hierarquia constitucional.
O presente estudo tem por objetivo examinar, à luz dos fundamentos constitucionais e dos elementos constantes da decisão do STF, as implicações dessa mudança de paradigma para o ordenamento jurídico brasileiro e para a atuação dos diversos atores envolvidos — plataformas, influenciadores, anunciantes e veículos de mídia —, bem como identificar os desafios de harmonização legislativa e regulatória e as perspectivas de adequação empresarial às novas balizas. Adotar-se-á abordagem que conjuga análise normativa, exame da evolução jurisprudencial e avaliação crítica dos impactos sociais e econômicos da medida, em consonância com o método e a linguagem próprios da doutrina constitucional.
2. A decisão do STF e a reconfiguração do art. 19 do Marco Civil da Internet
2.1. Contexto normativo e evolução legislativa
A disciplina jurídica da responsabilidade civil das plataformas digitais, no ordenamento brasileiro, tem como marco fundamental o advento da Lei n.º 12.965, de 23 de abril de 2014, denominada Marco Civil da Internet (MCI), diploma que consolidou princípios, garantias, direitos e deveres para o uso da internet no Brasil, estabelecendo, ademais, diretrizes para a atuação estatal no setor. Entre as inovações normativas então introduzidas, destacou-se o art. 19, cujo conteúdo estabeleceu que o provedor de aplicações de internet somente poderia ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomasse as providências para tornar indisponível o material apontado como ilícito.
Tal disposição foi concebida, à época, como mecanismo protetivo à liberdade de expressão, evitando que os provedores, temendo litígios, promovessem remoções preventivas e indiscriminadas — o chamado chilling effect. Na essência, consagrou-se um modelo de responsabilização subsidiária e condicionada, de nítido caráter judicialista, em contraste com sistemas estrangeiros que adotam a lógica de notice and take down, em que a comunicação extrajudicial suficiente e clara impõe ao provedor o dever de agir diligentemente sob pena de responsabilização.
O regime estabelecido pelo art. 19, contudo, não permaneceu imune a críticas doutrinárias e pressões sociais. Diversos setores, especialmente ligados à proteção de direitos fundamentais como a dignidade da pessoa humana, a proteção da infância e da adolescência, e a preservação da integridade do processo democrático, apontaram que o modelo excessivamente dependente de decisão judicial criava barreiras para a tutela célere de situações de dano irreparável ou de risco iminente.
A jurisprudência, por sua vez, começou a enfrentar casos-limite, nos quais a exigência formal de ordem judicial específica revelava-se incompatível com a gravidade da ofensa e a urgência da resposta, notadamente em situações envolvendo discurso de ódio, desinformação massiva e violações de direitos da personalidade. Essa tensão entre o texto legal e as demandas concretas do ambiente digital contemporâneo, marcado pela instantaneidade e pelo alcance exponencial das comunicações, acabou por alimentar o debate sobre a necessidade de revisão do modelo normativo.
Foi nesse cenário que o Supremo Tribunal Federal, no julgamento concluído em 26 de junho de 2025, procedeu à declaração de inconstitucionalidade parcial do art. 19 do MCI, reconhecendo que, em determinadas hipóteses, a responsabilização do provedor pode decorrer da omissão em remover conteúdo ilícito após notificação inequívoca, ainda que não precedida de ordem judicial. Com isso, operou-se relevante inflexão na trajetória legislativa e interpretativa do dispositivo, deslocando-se, ao menos em parte, o eixo de proteção do provedor para a tutela direta e imediata dos direitos fundamentais em conflito no espaço virtual.
2.2. A “blindagem” anterior e seu alcance jurisprudencial
O art. 19 do Marco Civil da Internet, em sua redação original, foi concebido como cláusula de contenção da responsabilidade civil dos provedores de aplicações, estabelecendo verdadeira “blindagem” contra imputações diretas por conteúdos gerados por terceiros. Tal blindagem decorria da exigência de prévia ordem judicial específica para que se configurasse o dever de remoção e, por consequência, a responsabilização. Nessa configuração, a atuação do provedor permanecia, por assim dizer, em estado de neutralidade jurídica até a provocação jurisdicional, não sendo suficiente, para deflagrar sua obrigação de agir, qualquer comunicação extrajudicial, por mais precisa e documentada que fosse.
O fundamento declarado dessa solução normativa residia na preservação da liberdade de expressão como valor constitucional primário, bem como na intenção de evitar que provedores assumissem função de censores privados, submetendo a circulação de ideias e manifestações a filtros unilaterais, marcados pela insegurança jurídica e pelo risco de supressão indevida de conteúdos lícitos. A jurisprudência dos tribunais superiores, em especial do Superior Tribunal de Justiça, aderiu a essa leitura, consolidando, em diversos precedentes, a orientação segundo a qual somente o descumprimento de ordem judicial clara e específica poderia gerar responsabilidade indenizatória para a plataforma.
O alcance dessa blindagem jurisprudencial manifestava-se, pois, em três dimensões distintas: i) a exigência de ordem judicial nominando com precisão o conteúdo a ser removido, vedadas indicações genéricas; ii) a impossibilidade de responsabilização por omissão fundada apenas em notificações privadas ou informes administrativos, ainda que detalhados; e iii) a desconsideração, para fins de responsabilidade civil, de alegações de danos ocorridos no intervalo entre a ciência extrajudicial e a decisão judicial.
Esse entendimento, embora coerente com a literalidade do art. 19 e com a matriz liberal que o inspirou, revelava-se insuficiente diante da dinâmica dos danos digitais, nos quais a velocidade de disseminação e o potencial lesivo de certas publicações inviabilizam a espera por uma tutela jurisdicional definitiva. A consequência prática era a manutenção, no ambiente virtual, de conteúdos notoriamente ilícitos por lapsos de tempo suficientes para consolidar efeitos danosos de grande magnitude, especialmente em contextos de ofensa à honra, violação de direitos da criança e do adolescente, e propagação massiva de desinformação.
Assim, a “blindagem” conferida pelo modelo original, robustecida pela interpretação jurisprudencial predominante, acabou por gerar, na percepção social e doutrinária, uma assimetria: se, por um lado, reduzia o risco de supressão indevida da liberdade de expressão, por outro, comprometia a efetividade da tutela de outros direitos fundamentais igualmente protegidos pela Constituição, impondo ao lesado o ônus de suportar, até a ordem judicial, a continuidade da violação em ambiente de alta exposição pública. Essa tensão constituiu o pano de fundo sobre o qual o Supremo Tribunal Federal viria a intervir, redesenhando os contornos da responsabilidade civil dos provedores.
3. Fundamentos constitucionais da responsabilidade das plataformas digitais
3.1. Liberdade de expressão e proteção de direitos fundamentais
A liberdade de expressão ocupa, no sistema constitucional brasileiro, posição de proeminência, sendo assegurada pelo art. 5.º, incisos IV, IX e XIV, bem como pelo art. 220 da Constituição da República, que consagram, de modo abrangente, a livre manifestação do pensamento, a livre comunicação e a vedação de qualquer censura de natureza política, ideológica ou artística. Trata-se, pois, de garantia que constitui pressuposto indispensável ao funcionamento do regime democrático e ao exercício da cidadania, na medida em que possibilita a circulação de ideias, opiniões e informações, sem a qual não se realiza o pluralismo político, valor fundante do Estado Democrático de Direito.
Todavia, a proteção da liberdade de expressão não se apresenta como prerrogativa absoluta. A própria ordem constitucional impõe limites quando o seu exercício importa violação a outros direitos igualmente fundamentais, como a dignidade da pessoa humana (art. 1.º, III), a inviolabilidade da intimidade, da vida privada, da honra e da imagem (art. 5.º, X) e a proteção integral de crianças e adolescentes (art. 227). A tensão entre tais direitos revela o núcleo da problemática em exame: a necessidade de estabelecer critérios e parâmetros que permitam a harmonização entre a garantia de livre manifestação e a tutela eficaz dos demais bens jurídicos de igual estatura constitucional.
A jurisprudência nacional, especialmente no âmbito do Supremo Tribunal Federal, tem reiteradamente afirmado que a liberdade de expressão goza de primazia no conflito com outros direitos, devendo ser restringida apenas em hipóteses excepcionais e devidamente justificadas. No entanto, essa primazia não significa prevalência irrestrita, sendo possível – e necessário – o controle de conteúdos manifestamente ilícitos, cuja manutenção no espaço público digital produza danos concretos e relevantes.
No contexto das plataformas digitais, essa ponderação adquire contornos singulares. A natureza global, descentralizada e de alta velocidade de disseminação de informações torna potencialmente mais graves e imediatos os efeitos de discursos abusivos, discriminatórios ou deliberadamente falsos, capazes de afetar a honra individual, desestabilizar processos eleitorais ou incitar violência. A manutenção de um modelo excessivamente dependente da intervenção judicial, como se observava sob a égide do art. 19 do Marco Civil da Internet em sua redação original, implicava, em muitas situações, a perpetuação desses danos por lapsos temporais incompatíveis com a efetividade da tutela jurisdicional.
Nesse sentido, a decisão do STF de 2025, ao flexibilizar a exigência de ordem judicial como condição para a responsabilização dos provedores em determinadas hipóteses, buscou concretizar a proteção de direitos fundamentais que, embora distintos, possuem igual dignidade e hierarquia normativa. A liberdade de expressão, compreendida como vetor essencial da democracia, permanece resguardada; todavia, deixa de ser invocada como barreira intransponível à tutela de direitos fundamentais que reclamam resposta imediata, notadamente em casos de conteúdos cuja ilicitude se mostre evidente e cujo potencial lesivo demande ação pronta e diligente.
3.2. Colisão de direitos: dignidade da pessoa humana, integridade e livre manifestação
A colisão entre direitos fundamentais é fenômeno inerente ao sistema constitucional, especialmente quando valores de igual hierarquia e dignidade reclamam proteção simultânea. No campo da comunicação digital, essa tensão manifesta-se de forma acentuada entre a liberdade de expressão, de um lado, e a dignidade da pessoa humana, a integridade física e psíquica e a proteção de grupos vulneráveis, de outro. Trata-se de antagonismo que não se resolve por meio da simples prevalência de um direito sobre o outro, mas que demanda o emprego da técnica da ponderação, a fim de assegurar que a restrição imposta a um seja proporcional e necessária à proteção do outro.
A dignidade da pessoa humana, erigida a fundamento da República (art. 1.º, III, da Constituição Federal), constitui núcleo axiológico que irradia efeitos sobre toda a ordem jurídica, impondo limites a qualquer manifestação que reduza o indivíduo a objeto, exponha-o a humilhações, discriminação ou violência. A integridade, compreendida em sua dimensão física, moral e psicológica, é igualmente tutelada por dispositivos constitucionais expressos, como o art. 5.º, incisos III, V e X, que vedam tratamentos desumanos ou degradantes, asseguram indenização por danos morais e materiais e protegem a honra e a imagem das pessoas.
Quando tais direitos colidem com a livre manifestação do pensamento, o intérprete não pode adotar postura de neutralidade absoluta, sob pena de permitir que a liberdade se converta em instrumento de opressão. É justamente nesse ponto que a atuação das plataformas digitais assume relevância: ao servirem de veículos para a difusão de conteúdos, devem, em determinadas hipóteses, exercer um dever de cuidado que, se negligenciado, potencializa a violação a direitos fundamentais de terceiros.
O regime anterior, consolidado pela interpretação restritiva do art. 19 do Marco Civil da Internet, ao condicionar a remoção de conteúdos à prévia ordem judicial, conferia ampla proteção à livre manifestação, mas, simultaneamente, retardava a tutela de situações em que a violação à dignidade e à integridade era evidente e gravemente lesiva. Essa blindagem normativa e jurisprudencial, como já exposto, produzia um cenário em que a liberdade de expressão, compreendida de forma absoluta, acabava por sufocar outros direitos igualmente consagrados pela Constituição, esvaziando, em determinados casos, a própria eficácia da cláusula da dignidade humana.
A decisão do Supremo Tribunal Federal, ao declarar a inconstitucionalidade parcial do referido dispositivo legal, reconfigurou esse equilíbrio, permitindo que, em situações específicas — notadamente quando a ilicitude do conteúdo seja manifesta e a urgência da resposta se imponha —, a proteção da dignidade e da integridade prevaleça sobre a liberdade de expressão. Não se trata, evidentemente, de subordinar esta àqueles de forma perene, mas de reconhecer que, na prática constitucional, a harmonização entre direitos fundamentais exige que nenhum deles se imponha de modo a anular a essência do outro.
Com isso, a Corte reafirmou a compreensão de que a liberdade de expressão, embora central ao regime democrático, não é valor absoluto, devendo ser exercida em conformidade com o dever de respeito à dignidade da pessoa humana e à integridade individual e coletiva, pilares igualmente indispensáveis à ordem constitucional.
4. O novo paradigma de responsabilização
4.1. O modelo de notice and take down adotado pelo STF
A decisão do Supremo Tribunal Federal, proferida em 26 de junho de 2025, ao declarar a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet, introduziu, no ordenamento jurídico brasileiro, um deslocamento paradigmático no tratamento da responsabilidade civil das plataformas digitais, aproximando-o do modelo conhecido como notice and take down. Esse sistema, consagrado em legislações estrangeiras — notadamente no Digital Millennium Copyright Act norte-americano e em normas europeias sobre serviços digitais —, funda-se na premissa de que a responsabilização do provedor pode advir de sua inércia em remover conteúdo ilícito após receber notificação inequívoca, sem a necessidade de prévia ordem judicial.
O modelo adotado pelo STF não configura, todavia, transposição integral das experiências externas. A Corte estabeleceu balizas rigorosas para que a notificação, apta a gerar o dever de remoção e, por conseguinte, a responsabilidade, seja juridicamente eficaz: a comunicação deve conter identificação clara e inequívoca do conteúdo apontado como ilícito, a indicação precisa de sua localização (URL ou equivalente) e a descrição objetiva da natureza da ilicitude, acompanhada, quando possível, de elementos comprobatórios.
Ao fazê-lo, o Supremo buscou evitar dois riscos inerentes ao notice and take down irrestrito: i) a supressão arbitrária ou abusiva de conteúdos lícitos, por temor de responsabilização, o que configuraria censura privada; ii) a instrumentalização do mecanismo para inviabilizar o debate público e a circulação de informações de interesse coletivo. Nesse sentido, o dever de diligência imposto às plataformas não é absoluto, mas condicionado à clareza e precisão da denúncia e à evidência da ilicitude.
A adoção desse modelo implica, na prática, atribuir às plataformas digitais papel mais ativo na moderação de conteúdos, exigindo-lhes não apenas capacidade técnica para remover publicações de forma célere, mas também estruturas internas de análise capazes de identificar, de modo minimamente qualificado, se a notificação recebida atende aos requisitos fixados e se o conteúdo em questão ostenta ilicitude manifesta. A omissão, diante de denúncia que preencha tais critérios, passa a configurar conduta culposa ou negligente, ensejando a responsabilização civil.
Com isso, o STF procedeu a uma recalibração do equilíbrio entre liberdade de expressão e proteção de outros direitos fundamentais, reconhecendo que, no ambiente comunicacional digital, a exigência de ordem judicial prévia, como condição exclusiva para a responsabilização, não mais se mostra compatível com a necessidade de respostas rápidas e proporcionais a danos potencialmente irreparáveis. Trata-se, portanto, de um avanço interpretativo que, sem abolir a tutela jurisdicional como garantia contra remoções abusivas, introduz mecanismo célere e subsidiário para a tutela de direitos no espaço virtual.
4.2. Conteúdo pago, replicações sucessivas e contas inautênticas
A decisão do Supremo Tribunal Federal, ao redefinir o alcance do art. 19 do Marco Civil da Internet, não se limitou a estabelecer o dever de diligência genérico das plataformas diante de conteúdos manifestamente ilícitos. Reconheceu, igualmente, a necessidade de considerar, na aferição da responsabilidade civil, determinadas modalidades de difusão que, pela sua natureza ou estrutura, potencializam os efeitos lesivos e ampliam a dificuldade de contenção da violação. Entre essas modalidades, destacam-se o conteúdo pago, as replicações sucessivas e a atuação de contas inautênticas.
O conteúdo pago, que abrange anúncios patrocinados, posts promovidos e quaisquer outras formas de impulsionamento remunerado, reveste-se de particular relevância jurídica por duas razões. Primeiro, porque sua circulação decorre de decisão consciente e deliberada do provedor, que, ao intermediar e auferir lucro pela veiculação, assume posição mais próxima da coparticipação no ato lesivo. Segundo, porque a segmentação e o alcance ampliado proporcionados por tais mecanismos acentuam o potencial danoso da mensagem, tornando imperiosa uma postura mais proativa de análise e remoção. Assim, a Corte sinalizou que, nesses casos, o dever de agir não se limita à mera recepção de denúncia qualificada, mas pode ser antecipado pela própria política interna da plataforma, em atenção ao risco acentuado de lesão.
Quanto às replicações sucessivas, a realidade do ambiente digital evidencia que a manutenção de um conteúdo ilícito, mesmo que originariamente postado por um único usuário, tende a gerar um efeito multiplicador, em que múltiplas cópias ou variações do material são produzidas e disseminadas em curto espaço de tempo. Tal fenômeno — conhecido em alguns ordenamentos como reuploads — impõe às plataformas não apenas a remoção pontual, mas a adoção de medidas técnicas capazes de identificar e impedir novas publicações substancialmente idênticas. A omissão nesse campo pode configurar negligência, sobretudo quando a continuidade das replicações resulta em prolongamento e agravamento do dano.
Por fim, as contas inautênticas — perfis criados com identidade falsa ou para fins de manipulação coordenada de discurso — representam fator adicional de risco para a integridade do debate público e para a proteção de direitos individuais. Ao reconhecer esse elemento, o STF acentuou que a existência de rede organizada de perfis falsos, destinada a amplificar conteúdo ilícito, exige atuação célere e coordenada da plataforma, que deve promover a identificação e a suspensão dessas contas, evitando a perpetuação artificial do alcance e da repercussão de mensagens ofensivas ou fraudulentas.
Ao tratar dessas três modalidades, o Tribunal reforçou que a responsabilidade das plataformas não pode ser aferida de forma uniforme e abstrata, devendo levar em conta a forma específica de difusão do conteúdo e a intensidade do risco por ela gerado. Dessa forma, o conteúdo pago, as replicações sucessivas e as contas inautênticas passam a integrar, no plano jurisprudencial, categorias que demandam especial vigilância e resposta mais rigorosa, como corolário do dever de cuidado imposto pelo novo regime interpretativo.
4.3. O dever de diligência e a aferição da culpa ou negligência
O deslocamento interpretativo promovido pelo Supremo Tribunal Federal, ao reconhecer hipóteses de responsabilização das plataformas digitais independentemente de prévia ordem judicial, impõe a estas um dever jurídico positivo de diligência, cujo descumprimento poderá ensejar a imputação de culpa ou negligência. Tal dever, embora já presente de forma implícita na lógica contratual e no regime geral da responsabilidade civil, adquire contornos mais nítidos e exigentes diante da função social desempenhada por esses agentes na intermediação do discurso público contemporâneo.
O dever de diligência consiste, em sua essência, na obrigação de agir com a atenção, a cautela e os meios técnicos que se espera de um operador qualificado e consciente dos riscos inerentes à sua atividade. No contexto das plataformas digitais, isso significa dispor de mecanismos eficientes para recepção, processamento e verificação de notificações de conteúdo potencialmente ilícito, garantindo resposta célere e proporcional à gravidade da alegação. A omissão, nesses casos, deixa de ser mero lapso administrativo e passa a caracterizar conduta reprovável, pois perpetua a exposição do conteúdo ofensivo e amplia os danos dele decorrentes.
A aferição da culpa ou negligência, no novo modelo, não se resume a verificar se a plataforma foi formalmente cientificada do ilícito, mas envolve a análise das circunstâncias concretas que cercam a denúncia e a resposta oferecida. Elementos como o tempo decorrido entre a notificação e a remoção, a clareza das informações fornecidas pelo denunciante, a natureza e a gravidade do conteúdo, bem como a reincidência de casos semelhantes, tornam-se relevantes para aferir o grau de diligência efetivamente empregado.
Nesse quadro, ganha relevo o conceito de “ilicitude manifesta”, segundo o qual, diante de conteúdo cuja ilegalidade seja patente — por exemplo, material de abuso sexual infantil, incitação pública à prática de crimes, divulgação não autorizada de imagens íntimas —, a ausência de ação imediata da plataforma configura negligência grave, independentemente de maior aprofundamento probatório. Por outro lado, quando a suposta ofensa envolve juízo de valor ou apreciação contextual complexa, a diligência poderá se traduzir na busca de orientação jurídica interna ou externa antes da supressão do conteúdo, sem que isso implique automaticamente culpa pelo eventual lapso temporal.
Ao estabelecer essa matriz de análise, o STF não apenas impôs um padrão de conduta mais elevado às plataformas, como também reforçou o caráter funcional do dever de diligência: trata-se de instrumento destinado a garantir a efetividade da tutela de direitos fundamentais, equilibrando-a com a preservação da liberdade de expressão. A aferição da culpa ou negligência, nesse sentido, deixa de ser operação meramente formal para assumir a feição de juízo substancial, voltado a verificar se a conduta da plataforma, diante de um caso concreto, foi compatível com a expectativa de proteção jurídica que a Constituição e a legislação lhe impõem.