Em 6 meses, quantidade ultrapassa as 29,7 milhões de restrições a conteúdos registradas ao longo de 2024 inteiro; big techs atendem de 21% a 35% das notificações e esse tema tem sido sempre mencionado por Trump para sancionar países
As plataformas digitais barraram 41,4 milhões de conteúdos só no 1º semestre de 2025 nos países da União Europeia a partir de pedidos dos usuários, segundo o banco de dados oficial do bloco. O número supera as 29,7 milhões de restrições registradas ao longo do ano inteiro de 2024. Segundo uma amostra analisada pelo NetLab, núcleo de estudos digitais da UFRJ (Universidade Federal do Rio de Janeiro), as big techs atendem de 21% a 35% das notificações para retiradas de posts.
Neste mês de julho, os dados mostram que já houve restrições a 9 milhões de conteúdos de sites na Europa por causa da regulamentação local. O ano de 2025 protagonizará um recorde de dados vetados na internet por países europeus.
O debate sobre regulamentação do que pode ou não ser publicado em redes sociais e na internet em geral ganhou ainda mais relevo agora por causa da pressão do governo dos Estados Unidos, que é crítico ao modelo europeu. O presidente norte-americano, Donald Trump (republicano), classifica de censura o método utilizado pela União Europeia.
Trump defende o direito de as big techs se manterem legalmente apenas como plataformas de tecnologia e infensas a qualquer tipo de restrição. Nas semanas recentes, a Casa Branca reclamou do Brasil, que caminha para ter um sistema ainda mais rígido do que o europeu.
Missão da França nas Nações Unidas publicou mensagem em 14 de julho: “Na Europa, somos livres para falar, mas não para espalhar conteúdo ilegal”; Departamento do Estado dos EUA respondeu 8 dias depois: “Legislação protege líderes europeus de seu próprio povo”
No caso dos países da União Europeia, todos estão submetidos ao DSA (“Digital Services Act”), ou Ato de Serviços Digitais, que adotou o sistema “notice-and-takedown”: uma vez ciente de um conteúdo potencialmente ilegal, a plataforma precisa agir, mesmo que não haja uma ordem judicial para derrubada do post, sob pena de responsabilização.
No Brasil, a decisão do Supremo Tribunal Federal de 26 de junho, que passa a valer possivelmente em setembro, segue linha parecida, mas também inclui formas ativas de ação das plataformas –como em casos de anúncios e impulsionamentos pagos e uso de chatbots ou robôs.
LÓGICA DE DILIGÊNCIA
As regras europeias passaram a valer em 2022. Impõem uma série de obrigações, além de uma lógica de diligência às big techs. Leia a íntegra do DSA (PDF – 2 MB).
Os critérios para barrar conteúdo via notificação de usuários –especialmente em casos que envolvem temas subjetivos e não necessariamente ilegais– são alvo de debate na Europa, por falta de clareza da legislação. O tema voltou a ganhar destaque em 1º de julho de 2025, com a entrada em vigor de um código da DSA que obriga as grandes plataformas a serem ainda mais rigorosas no combate a notícias falsas. Eis a íntegra (PDF – 12 MB).
Os dados –assim como a implementação das regras– da União Europeia são uma espécie de spoiler do que poderá acontecer no Brasil, quando a decisão do STF entrar em vigor. A Corte retirou a obrigatoriedade de haver uma ordem judicial para a remoção de conteúdos, o que deve aproximar o país da realidade europeia. Os ministros fizeram, inclusive, diversas referências ao DSA na apresentação das teses do julgamento.
Diferentemente da União Europeia, entretanto, onde foi o Poder Legislativo o responsável por definir as regras, no Brasil o Congresso não atuou nessa área e o Supremo decidiu sozinho como deveria ser a norma.
Eis um resumo do que se passou na Europa no 1º semestre de 2025, com 41,4 milhões de conteúdos barrados na internet:
Os 41,4 milhões de conteúdos barrados por meio de notificações no 1º semestre de 2025 na União Europeia envolvem 104 plataformas. Foram publicações que usuários consideraram potencialmente ilegais ou com violações dos termos de uso elaborados pelas próprias empresas. Essa é outra diferença em relação ao Brasil. Na Europa, as empresas seguem certos parâmetros da regulação e estipulados pela lei e também criam regras internas –um aspecto que se aproxima de uma autorregulação regulada.
No Brasil, o próprio Supremo fez uma lista de temas que devem ser considerados impróprios e que devem ser retirados do ar. Na Europa, a lista da DSA é para o que a lei considera “risco sistêmico” e menos meticulosa do que a relação brasileira. Aqui, as big techs terão de sozinhas decidir se uma postagem é o que o STF descreve vagamente como “conduta” ou “ato considerado antidemocrático”. Por exemplo, criticar a Justiça Eleitoral ou as urnas eletrônicas, em tese, pode ser um conteúdo que venha a ser vetado.
As restrições na União Europeia são divididas em 4 categorias:
visibilidade (perda de alcance ou retirada);
operação de contas (limitação ou derrubada);
prestação de serviço (limitação ou proibição)’
desmonetização.
“O crescimento das restrições [em 2025] é natural porque se criou um hábito entre os usuários. A partir do momento que as plataformas começam a abrir os canais de notificação, as pessoas começam a recorrer mais”, diz Marie Santini, fundadora e diretora do NetLab.
Há uma curiosidade na derrubada de conteúdo na Europa: as redes sociais mais conhecidas, como Facebook, Instagram, X (antigo Twitter), YouTube e TikTok–, não são as que mais barram conteúdos a partir de demandas dos usuários.
Em 2025, quem liderou o ranking no 1º semestre, com 6,8 milhões de restrições, foi a Quora, plataforma de perguntas e respostas fundada por 2 ex-funcionários do Facebook. No caso da Quora, os motivos estão, em sua maioria, ligados a golpes e fraudes. A rede social X do empresário Elon Musk, por exemplo, barrou 449 mil posts, um volume bem menor. “Agentes tóxicos tendem a circular nas plataformas menos visadas”, afirma Santini.
Os dados oficiais mostram uma forte atuação das plataformas na hora de barrar conteúdos, para além das notificações. Se a retirada de conteúdo do ar por causa de pedidos de usuários está na casa dos milhões, as derrubadas totais (por vários motivos) chegam aos bilhões.
Segundo o levantamento do NetLab, mais de 99% das restrições são feitas por iniciativa das próprias empresas de tecnologia. O número chega à casa dos bilhões porque inclui todo tipo de conteúdo, como a retirada automatizada de spams, por exemplo.
COMO FUNCIONA
O Ato de Serviços Digitais da União Europeia tem 2 níveis de aplicação: nacional (internamente nos países) e comunitário (que vale para todo bloco).
Para os pequenos provedores, vale o monitoramento público prioritariamente nacional. Para os grandes provedores, os chamados VLOPs (“Very Large Online Platform”) ou VLOSEs (“Very Large Online Search Engines”)– com mais de 45 milhões de usuários ativos mensais no continente–, regras mais duras são aplicadas pela Comissão Europeia (órgão Executivo do bloco). As penas incluem multas que podem chegar a 6% do faturamento anual da empresa infratora.
Segundo Francisco Cruz, advogado, professor de direito do IDP (Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa) e especialista em políticas digitais, um aspecto importante do DSA é que “não há um dever geral de monitoramento” por parte das plataformas. Só que se essas empresas não seguirem o que manda o “Digital Services Act”, ficam vulneráveis a multas.
No sistema “notice-and-takedown”, quando há notificação sobre um conteúdo potencialmente ilegal, as empresas precisam tomar providências. Isso passa pela análise do conteúdo e uma tomada de decisão transparente, seja para removê-lo, seja para mantê-lo. A responsabilização das plataformas, portanto, não é automática.
O artigo 16 da lei europeia detalha o sistema de notificação. Se as plataformas seguirem esse procedimento, não podem ser responsabilizadas civilmente. As obrigações são estas:
acesso facilitado para receber notificação – a empresa precisa oferecer mecanismos de fácil acesso e compreensão para os usuários fazerem uma notificação sobre algo que considerem ilegal ou fora dos termos de uso da plataforma;
usuário precisa apresentar argumentos – o usuário precisa indicar como localizar o conteúdo e dar uma explicação embasada quanto à ilegalidade do conteúdo ou à inadequação com os termos de uso das plataformas;
como a notificação é recebida – se essas 2 condições acima são cumpridas, a empresa é considerada ciente. A partir daí, é obrigada a agir;
notificação ao usuário que fez o pedido – depois de decidir pela remoção ou manutenção do post, o usuário que fez a publicação precisa ser notificado.
recurso depois da decisão – o usuário pode contestar a plataforma; se a decisão for mantida depois do recurso, pode buscar uma solução de conflitos mediada pelo DSA ou então ir à Justiça.
O NetLab analisou amostras temporais no ano de 2024 e constatou que a maioria das notificações dos usuários para a retirada de conteúdos não é atendida. Eis íntegra do levantamento (PDF – 2 MB).
A ausência do “dever geral de monitoramento”, no modelo europeu, é ocupada pelo incentivo para que as plataformas realizem suas próprias investigações e tomem medidas para evitar o que é chamado de “risco sistêmico” –uma alta circulação de conteúdos ilegais sem que providências sejam tomadas. “As plataformas, assim, podem moderar sem ser acusadas de censura pelos usuários”, afirma Francisco Cruz, do IDP.
“O DSA é uma legislação mais light do que a chinesa, que controla diretamente os algoritmos, mais forte do que o modelo inglês e muito mais forte do que o modelo dos Estados Unidos, onde vigora um faroeste digital”, diz Silvio Meira, professor do centro de informática da UFPE (Universidade Federal de Pernambuco) e articulista do Poder360.
MECANISMOS DE TRANSPARÊNCIA
As big techs, no modelo europeu, acabam por atuar em uma “lógica de diligência”. Francisco Cruz explica: “As empresas têm de estudar o impacto das publicações e propor medidas para mitigar riscos. O que o regulador cobra é uma devida diligência. As plataformas precisam criar metodologias para detectar riscos e mitigá-los. A empresa informa os riscos, diz como detectá-los e mitigá-los para que o regulador se dê como satisfeito”.
Na prática, é uma legislação que estabelece mecanismos de transparência. “Como o regulador vai saber se está havendo, por exemplo, uma interferência estrangeira durante uma eleição? Criando-se mecanismos de transparência para a plataforma informar o regulador”, declara o professor do IDP.
O “coração” do Ato de Serviços Digitais, portanto, “é o dever de detectar e mitigar os riscos sistêmicos, apontando as medidas necessárias”. No caso de conteúdos ilegais, as plataformas têm de observar as regras do bloco e a legislação de cada país. Além disso, precisam estabelecer termos de uso em que apontem algumas definições.
A Meta, dona do Facebook e Instagram, por exemplo, define o que considera “discurso de ódio” desta maneira: “Um ataque direto contra pessoas com base em características protegidas, como raça, etnia, origem nacional, deficiência, afiliação religiosa, casta, orientação sexual, sexo, identidade de gênero e doença grave”.
Quanto à preservação do chamado “discurso cívico” –que envolve o combate a notícias falsas–, a empresa fundada por Mark Zuckerberg afirmou em seu mais recente relatório de risco sistêmico, entregue no fim de 2024, que “tenta prevenir interferências, aumentar a transparência, impedir a disseminação de informações falsas ou desinformação e empoderar as pessoas para votar”.
Esse é um aspecto que dialoga com a autorregulação regulada proposta pelo ministro do STF André Mendonça em seu voto (que foi derrotado) sobre o tema no julgamento realizado no Brasil. Também no Tribunal, o ministro Roberto Barroso usou a seguinte expressão para sintetizar esse tipo de atitude: “Dever de cuidado”.
Além da Meta, outras 18 big techs classificadas como VLOPs ou VLOSEs entregaram seus relatórios de risco sistêmico no final de 2024. Os reguladores podem pedir informações adicionais. E pesquisadores da sociedade civil podem acessar essas informações.
RISCOS SISTÊMICOS
O Ato de Serviços Digitais da União Europeia lista um rol de potenciais riscos sistêmicos a serem combatidos pelas grandes plataformas, a partir do modelo de negócio de cada empresa. Eis alguns deles:
conteúdos ilegais – difundir conteúdos considerado ilegais o realizar atividades ilegais (como terrorismo, exploração sexual de crianças, discurso de ódio, racismo, xenofobia, difamação, tráfico de drogas, incitação à violência e venda de produtos ilegais). Como definir se esses crimes estão sendo praticados? Levando em conta a legislação local dos países-membros;
impacto sobre direitos fundamentais – conteúdos que tenham impactos reais ou previsíveis do serviço no exercício de direitos fundamentais protegidos pela Carta dos Direitos Fundamentais da União Europeia, que incluem os direitos à dignidade humana, à vida privada e da criança e a liberdade de expressão;
interferência em temas eleitorais, cívicos ou segurança pública – conteúdos que tenham o que é considerado efeito negativo em processos democráticos, no discurso cívico, em processos eleitorais e na segurança pública;
saúde, crianças e violência de gênero – conteúdos que possam ter impactos negativos na proteção da saúde pública, dos menores de idade, e do bem-estar físico e mental em matéria de violência de gênero;
discriminação ilegal – tudo o que for vetado pela lei quando se trata de discriminação.
Segundo Francisco Cruz, os reguladores europeus avaliam o seguinte, a partir dos relatórios enviados pelas plataformas: “Existiu um cuidado com o conteúdo ilegal? O importante é debater no atacado, não no varejo”.
Por exemplo: uma publicação em dia de eleição dizendo falsamente que a votação foi cancelada –quando, na realidade, não foi– não cria necessariamente um cenário de “risco ao processo eleitoral”. Mas uma onda de publicações em grandes plataformas, com ampla repercussão, com potencial de desestimular a presença dos cidadãos nas urnas, pode caracterizar um “risco”. As plataformas vão ser cobradas nesse contexto. Agiram diante dos alertas? Tomaram providências para barrar as publicações falsas?
O mesmo pode acontecer no caso dos “impactos negativos da saúde pública”. Alguém dizendo falsamente que vacina causa autismo em meio a um surto de sarampo é uma coisa. Já algo bem diferente é uma onda de publicações com esse tipo de alegação (sem comprovação fundada cientificamente) em grandes plataformas e com potencial de ter impactos sanitários.
A legislação europeia, porém, não entra em detalhes sobre o que é um conteúdo que traz “risco eleitoral” ou “impacto negativo à saúde”. Por isso mesmo a detecção de riscos sistêmicos é alvo de debate e controvérsias. O órgão regulador leva em conta o volume das publicações, os tamanhos das plataformas onde os conteúdos circulam e os eventuais impactos na sociedade. Mas não é taxativo ao descrever exatamente qual tipo de conteúdo é passível de ser derrubado.
Em junho de 2023, em um evento da Global Network Initiative, uma ONG que combate censura na internet, especialistas de políticas digitais chamaram atenção para o “cabo de guerra” das definições de alguns termos, como “efeitos negativos no discurso cívico ou em eleições”. Eis o registro do debate (PDF – 517 KB).
“Nem tudo que ocasiona um risco sistêmico é ilegal. A desinformação é um risco sistêmico e as plataformas têm que atuar para combater esse tipo de risco. Mas o DSA não é claro sobre o que é um risco sistêmico. Quando uma desinformação se torna um risco sistêmico? Não tem muito critério. O DSA não delimita esses critérios”, diz Bruno Mattos, pesquisador do NetLab.
O banco de dados da Comissão Europeia mostra que é baixo o volume de remoções, por pedidos de usuários, de conteúdos com “efeitos negativos no discurso cívico ou em eleições”. Foram derrubados 9.768 posts depois de notificações entre os 41,4 milhões no 1º semestre de 2025.
O volume de conteúdos barrados via usuários relacionados ao “discurso de ódio” é maior: 1,7 milhão de demandas em 6 meses. Quem mais atendeu a notificações por potencial “discurso de ódio” em 2025 foi a plataforma Roblox, em que usuários criam seus próprios jogos e têm interações on-line. Foram 887 mil conteúdos derrubados.
Em uma análise dos primeiros relatórios de risco sistêmico entregues pelas plataformas aos reguladores, a Liberties, organização que se dedica às liberdades civis na Europa, afirmou que os documentos pouco avançaram no detalhamento do funcionamento dos algoritmos. “A maioria das plataformas fornece detalhes mínimos sobre como esses sistemas funcionam. O impacto da amplificação algorítmica de certo conteúdo sobre outros no discurso cívico permanece um grande ponto cego”, diz um artigo da organização publicado em março de 2025.
ATO CONTRA A DESINFORMAÇÃO
Desde 1º de julho de 2025 vigora o Código de Conduta Europeu sobre Desinformação. A autorregulação quanto ao tema foi substituída pela exigência de que VLOPs e VLOSEs cumpram obrigações mais rigorosas de transparência e auditoria quanto ao tema.
Entre as obrigações estão desmonetizar conteúdos e combater propagandas com desinformação e incentivar o letramento midiático. A adesão ao código foi voluntária –mais de 40 plataformas assinaram o termo, incluindo Meta, Microsoft, Google e TikTok. O X de Elon Musk foi uma das poucas plataformas que ficaram de fora.
A subjetividade quanto ao que é desinformação, entretanto, permanece. “É muito difícil chegar a uma clareza sobre o tema. O ponto é quanto há de verdade no que está se falando e quanto disso é aceito pela sociedade”, diz Silvio Meira, da UFPE. Ele explica: “Se alguém diz que a Terra é plana, não faz mal a ninguém. Mas se diz que a Terra é plana e por isso é preciso beber etanol, temos um problema”.
Uma das principais preocupações em torno do código do DSA é quanto à liberdade de expressão. “Agora, a Comissão Europeia tem autoridade para impor a ‘moderação de conteúdo’. As plataformas que não cumprirem as regras estão sujeitas a pesadas penalidades financeiras. Isso cria o ‘menor denominador comum’ para a censura em toda União Europeia”, escreveu em 1º de julho de 2025 a ADF (Alliance Defending Freedom), organização conservadora cristã norte-americana que lida com questões legais. “A abordagem do DSA quanto a conceitos vagos como ‘desinformação’, ‘discurso de ódio’ e ‘manipulação de informação’ pode levar à remoção generalizada de conteúdo on-line”, completou a ADF em mensagem no X –a publicação foi compartilhada por Elon Musk.
Em suma, o que a ADF argumenta é que a norma da União Europeia pode levar, em algum momento, a um processo de autocensura. As plataformas, com medo de serem punidas por inação, derrubam os conteúdos preventivamente, ainda que não fique muito claro se uma infração foi cometida.
COMISSÃO EUROPEIA E X
Francisco Cruz diz que, no geral, as plataformas estão se engajando na entrega dos relatórios à Comissão Europeia. “Mas é tudo muito novo. É uma espécie de TAC, os termos de ajuste de conduta do Ministério Público. Se os ajustes estão sendo feitos, o regulador se dá por satisfeito”.
A Comissão Europeia já abriu investigações contra plataformas. Um dos procedimentos começou em 2023 contra o X, de Elon Musk. O órgão Executivo constatou que a plataforma teria violado o DSA ao se recusar a fornecer dados a pesquisadores externos e a ser transparente quanto a anúncios na rede e no processo de verificação de autenticidade de usuários com conta verificada.
Uma 2ª frente de investigação apura a transformação da plataforma em um espaço de disseminação de discurso de ódio e desinformação. Segundo uma reportagem (para assinantes) do jornal norte-americano The New York Times, a multa a ser aplicada pode superar US$ 1 bilhão.
Depois da publicação da reportagem, em 3 de abril de 2025, o X divulgou um comunicado no qual afirmou que eventuais sanções seriam “um ato sem precedentes de censura política e um ataque à liberdade de expressão”.
Outros donos de plataformas já criticaram a regulação europeia. Em 7 de janeiro de 2025, Mark Zuckerberg, fundador da Meta (Instagram, Facebook e WhatsApp), afirmou que a Europa tem “um número cada vez maior de leis institucionalizando a censura e tornando difícil construir qualquer coisa inovadora”. Zuckerberg, nesse mesmo pronunciamento, afirmou que estava encerrando o trabalho das equipes da Meta dedicadas à checagem para combater a desinformação.
No mês seguinte, em 14 de fevereiro de 2025, as críticas partiram do governo dos Estados Unidos. O vice-presidente J.D. Vance fez um duro discurso em Munique, na Alemanha (íntegra em inglês – PDF – 98 kB). Criticou os reguladores da União Europeia que “pretendem encerrar as redes sociais durante períodos de agitação civil assim que identificarem o que consideraram, abre aspas, ‘conteúdo de ódio’ ”. Vance também relatou que nos Estados Unidos, “o governo anterior [do democrata Joe Biden] ameaçou e intimidou as empresas de mídia social a censurar” o que as autoridades consideravam ser “desinformação”.
HISTÓRICO DA REGULAÇÃO
A elaboração da legislação da internet pode ser dividida em duas fases.
A 1ª fase é anterior à onipresença das redes sociais na vida das pessoas, fenômeno consolidado na segunda metade da década de 2010. A web era vista como uma ferramenta de desenvolvimento econômico e um ambiente de democratização da informação.
Na União Europeia, os países-membros aprovaram a Diretiva sobre o Comércio Eletrônico em 2000 (leia a íntegra – PDF – 166 KB). No Brasil, o Congresso aprovou o Marco Civil da Internet em 2014 (leia a íntegra – 282 KB).
Nos 2 casos –assim como em outros países, como os Estados Unidos, em sua Seção 230 Lei de Decência nas Comunicações, de 1996 (leia a íntegra da seção – PDF – 58 KB)– uma diretriz se destacava: as plataformas digitais não poderiam ser responsabilizadas por conteúdos publicados por terceiros (equivalente ao artigo 19 do Marco Civil da Internet, agora parcialmente revogado pelo STF).
A ideia dessas legislações era garantir que as plataformas não fossem punidas pelo que publicam seus usuários porque senão passariam a remover indiscriminadamente todos os conteúdos potencialmente controversos para evitar ações na Justiça. Em um cenário assim, a livre circulação de ideias ficaria inviabilizada.
Silvio Meira lembra também que o poder de recomendação dos algoritmos ainda era sutil. “As pessoas, no geral, tinham acesso ao que procuravam, ao que postavam e na ordem que os conteúdos eram postados”, diz o professor da UFPE. Esse contexto começou a acabar há 10 anos: “Isso mudou em 2015. Os algoritmos passaram a mostrar conteúdos a partir do que as pessoas gostam de ver e a partir do que é mais lucrativo para as plataformas”.
Na política, a mudança ficou explícita em 2016, com o Brexit no Reino Unido e a 1ª vitória de Donald Trump na disputa pela Casa Branca. Foram campanhas marcadas pela alta disseminação de desinformação nas redes sociais, com algoritmos que privilegiam conteúdos radicalizados –quanto mais dissonante, maior o engajamento e, por consequência, maior audiência e maior lucro na venda de anúncios.
Foi nesse contexto que veio a 2ª fase de legislações da internet, com a isenção de responsabilidade das plataformas colocada em xeque. A Europa atualizou sua legislação ao adotar o DSA em 2022. Nos EUA, diversas iniciativas tentaram mudar a Seção 230 da Lei de Decência nas Comunicações, sem sucesso.
No Brasil, o Congresso enterrou projetos de lei de regulação, como o PL das Fake News, de 2020. Foi nesse ambiente que o STF considerou apropriado entrar no tema a partir de ações de responsabilização que chegaram à Corte.
ATUAÇÃO CONTROVERSA DO STF
Há diferenças entre o que os ministros do STF decidiram –revogação parcial do artigo 19 do Marco Civil da Internet– com aquilo que os legisladores europeus aprovaram 3 anos antes. “O DSA não revogou a Diretiva de Comércio Eletrônico de 2000, que é o Marco Civil da Internet europeu. O DSA é uma camada adicional”, afirma Francisco Cruz.
A atuação do Supremo é controversa em vários níveis.
Há pelo menos 2 aspectos sempre mencionados. O 1º é o ativismo do STF ao entrar em qualquer tema que considere relevante com o argumento que o Congresso se omitiu e não legislou. Os críticos dessa abordagem consideram essa atuação uma intromissão de um Poder (o Judiciário) no outro (o Legislativo, a quem caberia fixar as regras).
O Parlamento foi o caminho para a regulação das redes da União Europeia e para a aprovação de legislações nacionais anteriores ou posteriores ao ato do bloco. Foi o que aconteceu no Reino Unido, com seu “Online Safety Act”, de 2023 (íntegra – PDF – 15 MB); na Alemanha, com seu NetzDG (“Network Enforcement Act”), de 2017 (íntegra – PDF – 45 KB); e na França, com seu SREN (“Sécurité et Régulation de l’Espace Numérique”), atualizado em 2024, (íntegra – PDF – 763 KB).
“É assim nas democracias. O Legislativo aprova as leis, se desejar. Não no Judiciário”, opina o cientista político Fernando Schüler, em uma publicação no X, sobre a decisão do STF de decretar a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet.
O 2º aspecto alvo de controvérsias é a inoperância do Congresso e do Poder Executivo, que não se entendem sobre como aperfeiçoar as regras para o ambiente digital. O debate só fica polarizado entre os que dizem não ser necessárias regras à guisa de proteger a liberdade de expressão (“tudo se regula sozinho”) e os que defendem regulação dura, ampla e responsabilização das big techs.
A primeira-dama Janja Lula da Silva é ativa nessa discussão. Em um jantar para poucas pessoas em Pequim em 12 de maio de 2025, ela pediu ao presidente da China, Xi Jinping, que ajudasse o Brasil a regular a rede social TikTok, que pertence à chinesa ByteDance. O presidente Luiz Inácio Lula da Silva (PT) ficou irritado com o vazamento do pedido, mas em 3 de junho reafirmou que deseja apressar a regulação das redes sociais. A tarefa ficará a cargo do ministro da Secom (Secretaria de Comunicação), Sidônio Palmeira.
“Eu fiz questão de conversar com o presidente Xi Jinping sobre a necessidade de a gente ter uma pessoa para discutir essa questão do que se fazer na regulação e no tratamento dessas empresas de aplicativo, porque não é possível que o mundo seja transformado em um banco de mentira, e que vocês que são jornalistas tem que ficar desmentindo notícias que falam sobre as coisas. Muitas vezes até de notícias que vocês dão”, declarou Lula em junho.
A decisão do STF sobre a responsabilidade das plataformas aproxima o Brasil em parte das regras da União Europeia, mas ainda há uma série de dúvidas quanto à aplicação da legislação em território nacional. “Muita coisa vai precisar ser definida a partir da jurisprudência” declara Santini, do NetLab.
No editorial (para assinantes) “Supremo bagunça as redes sociais”, publicado em 28 de junho de 2025, o jornal O Estado de S. Paulo chamou a atenção para o fato de que, “na União Europeia, as obrigações mais rigorosas do DSA aplicam-se só a plataformas com mais de 45 milhões de usuários”. E completou: “Aqui, aplicam-se a tudo: do Google a fóruns de nicho, do Instagram ao Reclame Aqui. Lá, as regras foram deliberadas democraticamente. Aqui, foram improvisadas pelo Judiciário”.
Já o jornal Folha de S.Paulo, no editorial (para assinantes) “STF incentiva tumulto e censura ao legislar sobre a internet”, publicado em 29 de junho de 2025, destacou a obrigação de remoção no Brasil de conteúdos que atentem contra o Estado democrático de Direito: “Se a pornografia infantil pode ser facilmente identificada, para ficar num único caso, o mesmo não se dá com o que pode ou não caracterizar um ataque à democracia. Interpretações elásticas de magistrados nessa seara terão o potencial de incentivar censura a meras críticas, contestações e embates políticos”.
Com uma opinião diferente, o jornal O Globo, do Rio de Janeiro, apoiou a decisão do STF no editorial (para assinantes) “Julgamento de artigo do Marco Civil trouxe avanço”, publicado em 28 de junho de 2025: “O STF cumpriu o seu papel de disciplinar as redes diante da omissão reiterada do Congresso, onde o Projeto de Lei das Redes Sociais não andou. Mas isso não significa que deputados e senadores não devam assumir seu papel na regulação do tema”.
O Grupo Globo tem como principal adversário comercial no meio digital as big techs. As empresas da família Marinho se sentem, com razão, ameaçadas pela presença maciça de empresas de tecnologia oferecendo todo tipo de serviço de entretenimento e de informação no Brasil. Nos EUA, os consumidores já assistem mais ao YouTube (do Google) do que TVs abertas. É compreensível que nesse caso os editoriais do jornal O Globo defendam as decisões do STF de regular as big techs nas redes sociais, pois essa nova regra dará algum oxigênio para o maior conglomerado de mídia brasileiro.