A influência das redes sociais na violência escolar: regulação de plataformas digitais e proteção de direitos fundamentais

Natália Góis Ribeiro é graduada em Direito pela Universidade Presbiteriana Mackenzie - SP. Advogada na área de proteção de dados, direito digital e propriedade intelectual. Pesquisadora do núcleo de proteção online de crianças e adolescentes do Legal Grounds Institute. Pesquisadora no Núcleo de Regulação Jurídica da Inteligência Artificial do Grupo de Pesquisa de Direito e Inovação da Universidade Presbiteriana Mackenzie (GEDI).
Resumo
Este artigo analisa o impacto do uso indevido de redes sociais por crianças e adolescentes na intensificação da violência no ambiente escolar, com foco em atos extremos, como ataques armados, e destaca a necessidade de regulamentação das redes sociais como forma de mitigar o problema. A pesquisa identifica a correlação entre o aumento da violência nas escolas brasileiras e a exposição dos jovens a conteúdos nocivos online, evidenciando sua vulnerabilidade a discursos de ódio e incitação à violência. Metodologicamente, o estudo adota uma abordagem qualitativa, com base na análise das diretrizes das plataformas, além de uma revisão de literatura que abrange legislações nacionais e internacionais pertinentes. A análise também inclui uma sistematização das contribuições recebidas na consulta pública realizada pelo Comitê Gestor da Internet no Brasil em 2023, que reuniu perspectivas multissetoriais sobre a regulação de plataformas digitais. Os resultados demonstram que a autorregulação das plataformas é insuficiente para conter conteúdos prejudiciais, especialmente para o público infantojuvenil. Observa-se que os algoritmos de recomendação intensificam o engajamento com conteúdos radicais e nocivos, contribuindo para a normalização de condutas agressivas. A discussão ressalta a necessidade de uma intervenção estatal e uma colaboração multissetorial eficaz para estabelecer políticas de proteção digital, incluindo mecanismos de verificação etária e o fortalecimento da responsabilidade das plataformas, visando à garantia dos direitos fundamentais de crianças e adolescentes a partir de uma regulação assimétrica.
Introdução
A transformação digital redefine profundamente as dinâmicas sociais, econômicas e culturais. Nesse cenário, crianças e adolescentes acessam a Internet cada vez mais cedo. A pesquisa TIC Kids Online Brasil (CGI.br, 2023) aponta que 24% das crianças entrevistadas se conectaram pela primeira vez antes dos 6 anos. Com o aumento dessa presença no ambiente digital, crescem também as preocupações quanto aos riscos associados à exposição precoce.
Redes sociais, por suas características — como ranqueamento, recomendações algorítmicas e alcance massivo —, são identificadas como serviços de maior risco para o público infantojuvenil. Essas plataformas têm papel central na difusão de conteúdos nocivos, como discursos de ódio e violência, justificando abordagens regulatórias específicas e assimétricas (CTS-FGV, 2023). Essa abordagem reconhece que plataformas exercem funções e geram impactos distintos, devendo a regulação considerar o modelo de negócios, o papel no ecossistema digital, o grau de risco e o alcance, evitando regras uniformes para serviços heterogêneos.
No ambiente escolar, os efeitos são evidentes. Alunos compartilham e amplificam atos violentos e as plataformas são usadas para planejar ou divulgar ataques. O relatório “Ataques de violência extrema em escolas no Brasil: causas e caminhos” (VINHA, 2023) registrou crescimento significativo desses casos entre 2022 e 2023, destacando o envolvimento de jovens em comunidades virtuais que promovem violência e ódio.
A consulta pública sobre regulação de plataformas do CGI.br (2023) reforça a urgência do tema, com destaque para os impactos das plataformas sobre públicos vulneráveis, como crianças e adolescentes, cuja hipervulnerabilidade está ligada ao seu estágio de desenvolvimento (HENRIQUES, 2022). Contribuições alertaram para riscos como a disseminação de discurso de ódio, incitação ao crime e normalização da violência, reforçando a necessidade de regular plataformas com maior poder de influência, como as redes sociais.
Este artigo investiga como o uso indevido dessas redes contribui para o aumento da violência nas escolas, sobretudo pela amplificação de discursos de ódio e conteúdos violentos. Busca ainda formas eficazes de regulação, com foco na mitigação de danos.
A abordagem é qualitativa e explicativa, com foco em redes sociais de microblogging, identificadas como de alto impacto por sua dinâmica algorítmica e velocidade de disseminação (CGI.br, 2023). A escolha delimita o escopo regulatório, conforme a diretriz “quem regular”, que prioriza plataformas cujas funcionalidades afetam diretamente públicos vulneráveis.
A metodologia inclui a análise de documentos das plataformas (Termos de Uso e Diretrizes de Comunidade), literatura acadêmica, relatórios institucionais e legislações. São examinadas propostas normativas nacionais e internacionais, com foco em redes sociais, moderação de conteúdo e sistemas de recomendação. Também são integradas as contribuições da consulta pública do CGI.br, oferecendo uma visão multissetorial sobre a regulação voltada à proteção do público infantojuvenil.
2. A presença de crianças e adolescentes nas redes sociais: riscos e desafios legais
As plataformas do tipo redes sociais operam com base no modelo da economia da atenção. São moldadas por práticas associadas à maximização do engajamento e da receita publicitária. Essas plataformas geram receita ao oferecer publicidade direcionada, personalizada a partir da coleta e análise de dados pessoais. Esse modelo é viabilizado por arquiteturas algorítmicas que priorizam conteúdos mais envolventes – frequentemente polêmicos ou emocionalmente mobilizadores – com o objetivo de reter a atenção do usuário.
Esse modelo reflete o que Zuboff (2021) define como “Capitalismo de Vigilância”, em que o valor econômico decorre da vigilância comportamental e da predição de ações futuras dos usuários. Assim, o tempo de permanência na plataforma torna-se um ativo monetizável, incentivando práticas que favorecem o engajamento. Essa lógica de funcionamento influencia diretamente o ambiente informacional e o comportamento dos usuários, inclusive em contextos como o espaço escolar. A busca constante por engajamento favorece a amplificação de conteúdos apelativos e prejudiciais, resultado direto da lógica econômica que estrutura essas plataformas.
A consulta promovida pelo CGI.br (2023) reforçou a urgência de abordar os riscos enfrentados por crianças e adolescentes no ambiente digital. Como destaca João Coelho (2023), que atua na defesa de direitos de crianças e adolescentes no ambiente online, compreender esses riscos requer uma abordagem transversal que inclua a tipologia dos “4 Cs” proposta por Livingstone e Stoilova (2021): conteúdo (exposição a materiais prejudiciais), contato (abordagens de adultos mal-intencionados), conduta (participação ou testemunho de situações prejudiciais, como bullying) e contrato (exploração por meio de práticas como coleta inadequada de dados pessoais). No contexto da violência escolar, os riscos de conduta, como a incitação a comportamentos agressivos, são especialmente preocupantes, com as redes sociais desempenhando um papel central na amplificação desses problemas (CTS-FGV, 2023).
Embora o acesso à Internet ofereça oportunidades positivas, como aprendizado autodirigido, socialização e desenvolvimento da criatividade (INSTITUTO ALANA, 2024), essas potencialidades só serão plenamente realizadas se houver medidas robustas de regulamentação que enfrentem os riscos associados ao ambiente digital — como a exposição a conteúdos nocivos, a coleta abusiva de dados pessoais e a amplificação de discursos de ódio.
3. A relação entre uso de redes sociais por crianças e adolescentes o aumento da violência nas escolas
A violência nas escolas tem registrado aumento de incidentes graves na última década, como ataques armados. Entre 2002 e 2023, foram 36 ataques em escolas de educação básica no Brasil, com 49 mortes e 115 feridos — mais da metade entre 2022 e 2023 (MINISTÉRIO DA EDUCAÇÃO, 2023; VINHA, 2023).
Pesquisas que investigaram esse fenômeno, indicam que esse crescimento não decorre de uma causa única. Entre os fatores mais apontados estão: a disseminação de discursos de ódio nas redes sociais, a cultura de glorificação da violência, o aumento do bullying nas escolas e do cyberbullying, potencializado pelo uso inadequado das plataformas (MINISTÉRIO DA EDUCAÇÃO, 2023; VINHA, 2023).
A influência das redes sociais se relaciona, entre outros aspectos, à dinâmica algorítmica dessas plataformas, que expõem usuários — sem distinção etária — a conteúdos violentos e de ódio. Isso contribui para a normalização de comportamentos violentos. A pesquisa “Algoritmos, violência e juventude no Brasil” mostrou que 84,3% dos jovens entrevistados encontraram conteúdos violentos ou discriminatórios online, e 26% relataram que vídeos violentos influenciaram ataques físicos ou verbais (THINK TWICE BRASIL, 2023). Essas dinâmicas são resultado de decisões empresariais sobre design, moderação e políticas de uso, o que implica responsabilidade de seus operadores.
Além disso, algumas plataformas hospedam comunidades mórbidas com baixa moderação, onde circulam conteúdos ilícitos. Isso ocorre em serviços como Discord, Reddit, Telegram e X, bem como em fóruns abertos, chats privados ou modelos híbridos.
As redes também têm sido utilizadas para planejar e divulgar atos violentos. Ataques escolares frequentemente são anunciados nesses espaços, contribuindo para o fenômeno de crimes por imitação. A notoriedade desses conteúdos amplia o impacto dos ataques e incentiva novos autores (NÚCLEO JORNALISMO, 2023). A recorrência desses casos evidencia que falhas de moderação de conteúdos nocivos, somadas à lógica algorítmica de engajamento, estão ligadas a modelos de negócio que devem ser enfrentados por meio da regulação.
A consulta pública do CGI.br (2023) reforça a necessidade de uma regulação assimétrica, que considere os diferentes tipos de plataformas e os riscos associados a cada uma. Redes sociais, orientadas por algoritmos que priorizam o engajamento, exigem mais transparência nos sistemas de recomendação e limites à disseminação de conteúdos nocivos. Fóruns e chats privados, com menor automação mas usados para propagar conteúdos ilegais, demandam supervisão mais rigorosa e responsabilização, sem violar direitos fundamentais.
A coexistência de múltiplos serviços em uma mesma plataforma — como redes sociais, fóruns e chats privados — exige que a regulação considere as particularidades de cada funcionalidade. Regular por serviço permite aplicar obrigações com maior precisão, evitando tanto excessos que inviabilizam serviços legítimos quanto lacunas regulatórias que permitam riscos sem controle adequado.
4. Responsabilização das plataformas digitais e direitos das crianças e adolescentes: debates regulatórios
O acesso de crianças e adolescentes às redes sociais e o impacto de conteúdos prejudiciais na formação de comportamentos violentos evidenciam os limites da autorregulação das plataformas digitais. A responsabilização dessas empresas deve ser entendida como exigência legal, com fundamento na Constituição Federal e no Estatuto da Criança e do Adolescente (Lei nº 8.069/90).
O artigo 227 da Constituição atribui à família, ao Estado e à sociedade — incluindo as plataformas — o dever compartilhado de garantir proteção integral a crianças e adolescentes. Isso exige uma regulação que considere a complexidade do ecossistema digital e os diferentes graus de ingerência exercidos pelas plataformas.
A Associação Brasileira de Internet, em contribuição à consulta do CGI.br (2023), defende uma regulação assimétrica, inspirada no modelo europeu Digital Markets Act, classificando plataformas conforme funcionalidades e riscos (ABRANET, 2023). Redes sociais com sistemas de recomendação algorítmica, por exemplo, teriam maior responsabilidade sobre a circulação de conteúdos nocivos.
Nesse contexto, é fundamental considerar o Marco Civil da Internet (Lei nº 12.965/2014), que define redes sociais como provedoras de aplicação — ou seja, responsáveis por disponibilizar conteúdos criados por terceiros. O artigo 19 da lei prevê a responsabilização civil dessas plataformas apenas mediante ordem judicial, com o objetivo de proteger a liberdade de expressão. O artigo 21, por sua vez, estabelece uma exceção: responsabilização sem ordem judicial em casos de violação de intimidade envolvendo nudez ou atos sexuais de caráter privado.
Atualmente, há debates sobre a interpretação do artigo 19. A consulta pública do CGI.br (2023) registrou posições multissetoriais sobre esse regime. Alguns pesquisadores defendem a responsabilização das plataformas por conteúdos de terceiros, alegando que o artigo prioriza a liberdade de expressão em detrimento de outros direitos fundamentais. João Coelho, por exemplo, argumenta que as plataformas devem responder por conteúdos que violem direitos de crianças e adolescentes, especialmente quando não demonstrarem ter exercido o dever de cuidado (COELHO, 2023).
Defensores do regime atual veem o artigo 19 como essencial para garantir a liberdade de expressão, evitando a retirada de conteúdos por notificações extrajudiciais, o que poderia comprometer a pluralidade de opiniões e o debate público (INSTITUTO VERO; ITS RIO; CEPI FGV, 2023). Contribuições da como a Associação Brasileira de Internet e Organização que fomenta o Direito à comunicação e democracia (ABRANET; DIRACOM, 2023), apontam que, embora o artigo 19 tenha papel relevante na proteção de valores como a liberdade de expressão, poderia ser aprimorado com a inclusão de exceções específicas para situações que envolvam a proteção de danos aos grupos vulneráveis, como crianças e adolescentes. Tais sugestões não negam a importância da liberdade de expressão, mas propõem caminhos para garantir que ela seja exercida em equilíbrio com outros direitos fundamentais, dentro de um ecossistema digital mais seguro e ético.
Desde a promulgação do Marco Civil da Internet (BRASIL, 2014), o cenário digital evoluiu significativamente. Naquela época, as redes sociais não operavam com o mesmo nível de algoritmos persuasivos de recomendação que se observa atualmente (CGI.BR, 2023)1. O uso desses mecanismos de engajamento ampliou o potencial de influência das plataformas, com consequências que antes eram imprevisíveis à época da publicação da legislação, e que hoje demandam reflexão sobre a responsabilidade por parte de seus operadores.
Outro fator relevante é o aumento expressivo de crianças e adolescentes no ambiente digital, com perfis ativos nas redes sociais, o que tem aumentado o tempo de exposição a conteúdos potencialmente prejudiciais (CGI.BR, 2023). Essa maior exposição além de ser um resultado da evolução do acesso à Internet, resulta, também, de sistemas desenhados para maximizar o tempo de permanência dos usuários sem salvaguardas proporcionais à sua vulnerabilidade.
Diante dessas transformações, levanta-se a necessidade de revisão do regime de responsabilidade das plataformas, cuja lógica atual se baseia em um modelo de economia da atenção. Ao recomendarem conteúdos com base em dados, as plataformas deixam de ser apenas intermediárias passivas e passam a exercer um papel central na mediação da experiência digital.
A repercussão do tema foi reconhecida pelo Supremo Tribunal Federal (STF) que deu início ao julgamento sobre a constitucionalidade do regime de responsabilidade estabelecidos pelo Marco Civil da Internet mas, até o momento deste escrito, ainda carece de decisão2.
No legislativo, o Projeto de Lei 2.630/2020 (BRASIL, 2020) foi proposto com o objetivo de estabelecer regras mais rígidas para o combate à desinformação nas plataformas digitais e fomentar a responsabilidade de plataformas no ambiente online. Apesar dos avanços regulatórios propostos, até o momento de escrita deste artigo a proposta permanece em tramitação.
O dever de cuidado das plataformas é essencial para proteger os direitos fundamentais de crianças e adolescentes. Apesar de o Superior Tribunal de Justiça (STJ, 2024), no Recurso Especial n. 2139749, reconhecer a legitimidade das plataformas para moderar conteúdos que violem suas Diretrizes de Comunidade, a autorregulação tem se mostrado insuficiente para prevenir riscos graves, como a disseminação de discursos de ódio e conteúdos violentos. Assim, é indispensável complementá-la com supervisão externa e normas claras que assegurem maior responsabilidade na moderação.
Sob uma relação consumerista, os usuários de redes sociais, mesmo sem pagamento direto, tornam-se consumidores ao fornecerem dados pessoais como contrapartida, que beneficiam os fornecedores dos serviços. Nesse contexto, as plataformas devem garantir que seus serviços não prejudiquem os usuários, como previsto no Código de Defesa do Consumidor – Lei nº 8.078/1990 (BRASIL, 1990). Ao tratar dados pessoais de usuários que são crianças ou adolescentes, as redes sociais têm o dever de observar o princípio do melhor interesse, conforme o artigo 14 da Lei Geral de Proteção de Dados Pessoais (BRASIL, 2018). Contudo, práticas que utilizam dados para direcionar conteúdos prejudiciais violam esse princípio, revelando um descompasso entre o dever legal das plataformas e suas condutas atuais.
No âmbito do poder executivo, em 2023, o Ministério da Justiça e Segurança Pública editou a Portaria n. 351 (MINISTÉRIO DA JUSTIÇA E SEGURANÇA PÚBLICA, 2023) para responsabilizar plataformas digitais pela veiculação de conteúdos que incitam violência em escolas. A medida foi uma resposta emergencial à disseminação de ameaças de ataques escolares em redes sociais. A Portaria exige a remoção de conteúdos ilícitos e a moderação ativa de publicações que incentivem crimes ou façam apologia aos seus autores, além de impor a avaliação de riscos e a adoção de medidas preventivas.
Vale ressaltar que, apesar da intenção justificável da publicação da portaria, pode haver dificuldade jurídica em sua eficácia, por apresentar controvérsias sobre a compatibilidade dessas medidas com o Artigo 19 do Marco Civil da Internet, que limita a responsabilidade das plataformas ao descumprimento de ordens judiciais.
Ainda na atuação do Poder Executivo, a Resolução nº 245 de 2024 do CONANDA (MINISTÉRIO DOS DIREITOS HUMANOS E CIDADANIA, 2024), estabelece diretrizes e destaca a responsabilidade dos provedores de serviços digitais utilizados por crianças e adolescentes pela garantia de direitos desse público. Destaca-se a obrigação de plataformas tornarem indisponíveis conteúdos ilegais direcionado para crianças e adolescentes tão logo constatado o seu teor, independentemente de ordem judicial.
Adicionalmente, o Projeto de Lei 2.628/2022 (BRASIL, 2022) propõe um marco legislativo voltado à proteção dos direitos de crianças e adolescentes no ambiente digital, com ênfase no dever de cuidado das plataformas. Entre as principais medidas, destaca-se a exigência de maior transparência sobre os riscos associados aos produtos e serviços, além da regulamentação do acesso de crianças às redes sociais e a imposição de requisitos específicos para a remoção de conteúdos que violem direitos fundamentais dos mais vulneráveis.
No momento o PL segue para apreciação na Câmara dos Deputados. Entretanto, é possível que enfrente resistência, especialmente devido à previsão de remoção de conteúdos prejudiciais a crianças e adolescentes sem a necessidade de ordem judicial, o que pode ser interpretado como uma exceção ao Artigo 19 do Marco Civil da Internet.
Com base nos comentários multissetoriais apresentados na consulta pública do CGI.BR (2023) sobre a regulação de plataformas digitais, observa-se que a maioria das propostas destaca a necessidade de uma abordagem colaborativa, envolvendo governo, sociedade civil e empresas de tecnologia, para combater conteúdos ilegais online enquanto se preserva a liberdade de expressão e o acesso à informação. A regulação, especialmente no caso das redes sociais e serviços correlatos, deve ser fundamentada em princípios que conciliam a eficácia das medidas com o respeito aos direitos humanos e à diversidade de serviços e funcionalidades oferecidos pelas plataformas.
A Associação Latino-Americana de Internet (ALAI), que representa atores da economia digital, na Consulta (CGI, 2023), ressaltou princípios fundamentais para uma regulação eficiente das plataformas digitais. Entre eles, destaca-se a necessidade de clareza, com políticas de conteúdo baseadas em critérios transparentes e expectativas bem definidas para os usuários, incluindo regras objetivas para a remoção de conteúdos e encerramento de contas. Paralelamente, os governos devem delimitar com precisão os limites entre discursos legais e ilegais, em conformidade com padrões internacionais de direitos humanos, para evitar arbitrariedade ou falta de transparência na aplicação das normas, o que pode restringir indevidamente o acesso a informações legítimas (ALAI, 2023).
Perpassando pelos posicionamentos dos agentes possivelmente regulados, representados por entidades setoriais, como a Brasscom e o Information Technology Industry Council (ITI). A Brasscom, associação que representa empresas de Tecnologia da Informação e Comunicação, defendeu que qualquer proposta regulatória deve ser proporcional, baseada em risco e atenta às especificidades dos serviços oferecidos, evitando generalizações que possam gerar distorções regulatórias. A entidade argumenta que o termo “plataformas digitais” abrange um ecossistema altamente diverso, com diferentes finalidades, públicos, formas de interação e riscos associados — o que exige uma regulação diferenciada por tipo de serviço (BRASSCOM, 2023).
De forma convergente, o ITI, defensor global de tecnologia e que conta com empresas associadas possivelmente impactadas com a regulação das plataformas digitais, também advogou por uma regulação que leve em conta a diversidade de modelos de negócio e a função específica de cada plataforma ou serviço digital. Segundo a entidade, categorias como redes sociais, mecanismos de busca, aplicativos de mensagens e marketplaces demandam abordagens distintas, sob pena de uma regulação genérica resultar em efeitos desproporcionais, prejudicando inovação e investimento nas tecnologias (ITI, 2023).
Esse posicionamento se insere em um padrão mais amplo de atuação das plataformas frente a propostas regulatórias. Durante a tramitação do PL 2630/2020 (BRASIL, 2020), empresas como Google e Meta (2023) mobilizaram campanhas públicas e estratégias de incidência legislativa para mitigar o avanço de medidas mais rígidas. Em 2023, o Google veiculou em seu blog alerta sobre os potenciais negativos do texto do PL 2630 na época (GOOGLE BRASIL, 2023). Os episódios indicam que as plataformas também atuam politicamente para moldar o escopo da regulação de forma compatível com seus modelos de negócio.
Para ser efetiva, a regulação deve ser desenhada de forma a não inibir espaço para a inovação benéfica, especialmente aquelas desenvolvidas por empresas tecnológicas emergentes, que muitas vezes ainda não possuem infraestrutura tecnológica suficiente para implementar, de imediato, exigências regulatórias complexas.
Em contrapartida, plataformas de grande porte que possuem recursos tecnológicos avançados e impacto direto na vida de crianças e adolescentes devem estar submetidas a obrigações específicas. Essas empresas não apenas detêm maior capacidade de conformidade, como também atuam de forma central na estruturação do ecossistema digital contemporâneo. Assim, a assimetria regulatória se justifica como estratégia para promover proporcionalidade e proteção efetiva dos direitos fundamentais no ambiente digital.
Conclusão
A alta circulação de conteúdos nocivos nas redes sociais tem contribuído para o agravamento de comportamentos agressivos no ambiente escolar, revelando a insuficiência dos mecanismos de autorregulação das plataformas. Essa falha é ainda mais preocupante quando se considera que as principais vítimas são crianças e adolescentes, público que deve receber proteção integral e prioridade absoluta, conforme a legislação brasileira.
Para enfrentar esse cenário, é essencial que diferentes setores colaborem na formulação de regras que equilibrem liberdade de expressão e proteção da infância, prevenindo danos graves. Uma das propostas centrais é adotar o regime de notice and takedown — ou "notificação e retirada" — que prevê a remoção de conteúdos mediante denúncia formal e avaliação posterior da plataforma.
Esse modelo pode ser aplicado com caráter de exceção em casos de maior gravidade, como incitação direta à violência escolar, especialmente contra crianças e adolescentes. Nesses casos, os riscos à integridade física e o direito à vida justificam medidas mais céleres. Para isso, as denúncias devem ser transparentes, bem fundamentadas e permitir contestação, garantindo o devido processo legal.
Deve-se exigir a identificação do denunciante e informações mínimas, como link do conteúdo e indicação dos direitos violados. A exceção prevista para conteúdos íntimos pode ser analogamente aplicada a materiais que promovem ataques escolares, dados seus efeitos potencialmente graves.
Tais conteúdos são flagrantemente ilícitos, ameaçam a segurança pública e frequentemente são denunciados por pessoas ou instituições legitimamente interessadas, como familiares e instituições de ensino. Além disso, podem gerar efeito multiplicador, incentivando novos crimes por imitação.
É também urgente que as plataformas implementem sistemas eficazes de verificação etária, aliando-os a melhorias na moderação de conteúdos. A ausência de mecanismos robustos para restringir o acesso de crianças e adolescentes a conteúdos inadequados é uma das falhas estruturais mais significativas das redes sociais.
Deve-se estabelecer obrigações legais de transparência, tanto na moderação quanto nos algoritmos de recomendação. Isso fortalece o controle social e contribui para políticas públicas mais efetivas. A regulação deve acompanhar a evolução tecnológica, promovendo um ambiente digital seguro e compatível com os direitos fundamentais.
Enquanto não há um dispositivo normativo ou interpretação legal específica que regule as plataformas digitais nesse sentido, propõe-se o uso de instrumentos jurídicos já existentes, como o Código de Defesa do Consumidor (art. 81) e a Lei da Ação Civil Pública (Lei nº 7.347/1985). Ações coletivas podem ser ajuizadas por entidades legitimadas para exigir que plataformas adotem medidas concretas, como a moderação de conteúdos violentos no contexto escolar.
No campo legislativo, destaca-se a importância da aprovação do PL 2.628/2022, que estabelece diretrizes específicas para a proteção de crianças e adolescentes no ambiente digital. No Judiciário, cabe atenção ao posicionamento do Supremo Tribunal Federal sobre o artigo 19 do Marco Civil da Internet. Há espaço para ampliar o regime de responsabilidade das plataformas em situações excepcionais que envolvam ameaça a direitos fundamentais.
Esse dever é reforçado pela Portaria nº 351/2023, que impõe a remoção de conteúdos que incentivam ataques escolares, e pela Resolução nº 245 do CONANDA, que institui a Política Nacional de Proteção dos Direitos das Crianças no Ambiente Digital.
Por fim, é essencial garantir a participação ativa de adolescentes na formulação dessas políticas, como previsto na Convenção sobre os Direitos da Criança (BRASIL, 1990) e no Comentário Geral nº 25 da ONU (2021), que reafirmam a importância de um ambiente digital seguro e inclusivo.
A regulamentação das plataformas digitais deve ser colaborativa, multissetorial e adaptável. A consulta promovida pelo CGI.br evidenciou a riqueza de perspectivas que setores distintos trazem para o debate, cada um contribuindo com soluções para problemas específicos. Essa diversidade de visões é fundamental para moldar uma regulação que seja ao mesmo tempo efetiva e flexível, capaz de se ajustar às rápidas mudanças tecnológicas e sociais.
Referências
ABRANET – ASSOCIAÇÃO BRASILEIRA DE INTERNET. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em:https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
ALAI – ASSOCIAÇÃO LATINO-AMERICANA DE INTERNET. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
BRASIL. Constituição da República Federativa do Brasil, 1988. Brasília, DF: Senado Federal, 1988. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 13 abr. 2025.
BRASIL. Decreto nº 99.710, de 21 de novembro de 1990. Promulga a Convenção sobre os Direitos da Criança. Brasília, DF: Presidência da República, 22 nov. 1990. Disponível em: https://www.planalto.gov.br/ccivil_03/decreto/1990-1994/d99710.htm. Acesso em: 13 abr. 2025.
BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília. 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 13 abr. 2025.
BRASIL. Lei nº 8.069, de 13 de julho de 1990. Dispõe sobre o Estatuto da Criança e do Adolescente e dá outras providências. Diário Oficial [da] República Federativa do Brasil, Brasília, DF, 16 jul. 1990. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8069.htm. Acesso em: 13 abr. 2025.
BRASIL. Lei nº 8.078, de 11 de setembro de 1990. Dispõe sobre a proteção do consumidor e dá outras providências. Diário Oficial da União, Brasília, 12 set. 1990. Seção 1, p. 1. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8078.htm. Acesso em: 13 abr. 2025.
BRASIL. Projeto de Lei n ° 2.628, de 2022. Dispõe sobre a proteção de crianças e adolescentes em ambientes digitais. Brasília: Senado Federal, 2022. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/154901.
BRASIL. Projeto de Lei n.º 2.630, de 2020. Dispõe sobre a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet e estabelece normas para o uso e a moderação de conteúdos nas redes sociais e em serviços de mensageria privada. Brasília: Senado Federal, 2020. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/141944. Acesso em: 13 abr. 2025.
BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 2139749 SP 2023/0068660-0. Recurso Especial. Marco Civil Da Internet. Provedor De Aplicação. Plataforma De Vídeo. Pandemia Da Covid-19. Termos de uso. Desinformação. Moderação de conteúdo. Remoção. Legitimidade. Notificação Prévia. Shadowbanning. Não Ocorrência. Liberdade De Expressão. Condicionantes. Relator: Ministro Ricardo Villas Bôas Cueva, 27 De Agosto De 2024. Disponível em: https://processo.stj.jus.br/processo/julgamento/eletronico/documento/?d…. Acesso em: 13 abr. 2025.
BRASSCOM – ASSOCIAÇÃO BRASILEIRA DAS EMPRESAS DE TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
CEPI FGV – CENTRO DE ENSINO E PESQUISA EM INOVAÇÃO DA FGV. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
COELHO, João. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
COMITÊ DOS DIREITOS DA CRIANÇA DA ORGANIZAÇÃO DAS NAÇÕES UNIDAS (ONU). Comentário Geral n. 25 sobre os direitos das crianças em relação ao ambiente digital. Glossary. Genebra: ONU, 2021. Disponível em: https://tbinternet.ohchr.org/_layouts/15/treatybodyexternal/Download.as….
COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre Regulação de Plataformas Digitais: contribuições recebidas. CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em 01 dez. 2024.
COMITÊ GESTOR DA INTERNET NO BRASIL. Nota pública do CGI.br em razão do debate de mudanças e exceções ao regime de responsabilidade para provedores de aplicação em vigor no Marco Civil da Internet. 2023. Disponível em: https://cgi.br/esclarecimento/nota-publica-do-cgi-br-em-razao-do-debate….
COMITÊ GESTOR DA INTERNET NO BRASIL. Nota pública sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet no Brasil. 2024. Disponível em: https://www.cgi.br/esclarecimento/nota-publica-sobre-a-constitucionalidade-do-artigo-19-do-marco-civil-da-internet-no-brasil/.
CTS FGV – CENTRO DE TECNOLOGIA E SOCIEDADE DA FGV. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
DIRACOM – DIREITO À COMUNICAÇÃO E DEMOCRACIA. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
HENRIQUES, Isabella Vieira Machado et al. Direitos fundamentais da criança no ambiente digital: o dever de garantia da absoluta prioridade. 2022. Disponível em: https://repositorio.pucsp.br/jspui/handle/handle/30933.
INFORMATION TECHNOLOGY INDUSTRY COUNCIL (ITI). Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
INSTITUTO ALANA. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
INSTITUTO ALANA. Manifesto: Regular plataformas digitais para proteger nossas crianças. Disponível em: https://alana.org.br/proteger-plataformas-digitais/. Acesso em: 13 abr. 2025.
INSTITUTO ALANA. Nota Técnica sobre o PL nº 2.628/2022. 2024. p. 30. Disponível em: https://criancaeconsumo.org.br/wp-content/uploads/2024/05/PL2628_NT.pdf. Acesso em: 13 abr. 2025.
INSTITUTO VERO. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
ITS RIO – INSTITUTO DE TECNOLOGIA E SOCIEDADE DO RIO DE JANEIRO. Contribuição à consulta pública sobre regulação de plataformas digitais. In: COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Consulta sobre regulação de plataformas digitais: contribuições recebidas. São Paulo: CGI.br, 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 17 abr. 2025.
LACERDA, Marcelo. Como o PL 2630 pode piorar a sua Internet. Google Brasil, 27 abr. 2023. Disponível em: https://blog.google/intl/pt-br/novidades/iniciativas/como-o-pl-2630-pod…. Acesso em: 17 abr. 2025.
LEAL, Arthur. 'Irá acontecer hoje': aluno anunciou ataque a escola em rede social; quem interagiu com publicações será investigado, diz polícia de SP. O Globo, São Paulo, 27 de março de 2023. Disponível em: https://oglobo.globo.com/brasil/noticia/2023/03/adolescente-anunciou-at….
LIVINGSTONE, Sonia. Erasmus Medal lecture 2018 AE GM Barcelona: Realizing children’s rights in relation to the digital environment. European Review, v. 29, n. 1, p. 20-33, 2021. Disponível em: https://eprints.lse.ac.uk/103563/1/Children_s_rights_for_The_European_Review_LSERO_2.pdf.
LOPES, Raquel; GABRIEL, João; DELLA COLETTA, Ricardo. Twitter se recusa a tirar do ar posts com apologia da violência nas escolas e causa mal-estar em reunião. Folha de S. Paulo, 2023. Disponível em: https://www1.folha.uol.com.br/cotidiano/2023/04/twitter-se-recusa-a-tir…- estar.shtml.
META. PL 2630/2020 precisa de mudanças. Newsroom Meta, 29 abr. 2023. Disponível em: https://about.fb.com/br/news/2023/04/pl-2630-2020-precisa-de-mudancas/. Acesso em: 17 abr. 2025.
MINISTÉRIO DA EDUCAÇÃO. Ataque às escolas no Brasil: análise do fenômeno e recomendações para a ação governamental. Brasília, DF. 2023. Disponível em: https://www.gov.br/mec/pt-br/acesso-a-informacao/participacao-social/gr….
MINISTÉRIO DOS DIREITOS HUMANOS E DA CIDADANIA. Incitação à violência contra a vida na Internet lidera violações de direitos humanos com mais de 76 mil casos em cinco anos, aponta ObservaDH. Brasília, 2024. Disponível em: https://www.gov.br/mdh/pt-br/assuntos/noticias/2024/janeiro/incitacao-a….
MINISTÉRIO DOS DIREITOS HUMANOS E DA CIDADANIA. Resolução nº 245, de 5 de abril de 2024. Brasília: Diário Oficial da União, 2024. Disponível em: https://www.gov.br/participamaisbrasil/blob/baixar/48630.
NÚCLEO DE INFORMAÇÃO E COORDENAÇÃO DO PONTO BR (NIC.br). Pesquisa sobre o uso da Internet por crianças e adolescentes no Brasil: TIC Kids Online Brasil, 2023. Disponível em: https://cetic.br/pt/noticia/tic-kids-online-brasil-2023-criancas-estao-….
SCHURIG, Sofia; ORRICO, Alexandre. Conteúdo gore inunda o Twitter. Núcleo Jornalismo. 2023. Disponível em: https://nucleo.jor.br/repor- tagem/2023-05-31-twitter-gore/.
TEFFÉ, Chiara Spadaccini de; SOUZA, Carlos Affonso. Moderação de Conteúdo e Responsabilidade Civil em Plataformas Digitais: um olhar sobre as experiências brasileira, estadunidense e europeia. In: MENEZES, Joyceane Bezerra de; BARBOSA, Fernanda Nunes (orgs.). A prioridade da pessoa humana no Direito Civil-Constitucional: estudos em homenagem a Maria Celina Bodin de Moraes. 1. ed. Foco, 2024, p. 36.
THINK TWICE BRASIL. Algoritmos, violência e juventude no Brasil: rumo a um modelo educacional para a paz e os direitos humanos. 2023. Disponível em: https://www.ttb.org.br/algoritmos. Acesso em: 18 abr. 2025.
UNIÃO EUROPEIA. Regulamento (UE) 2022/2065 do Parlamento Europeu e do Conselho, de 19 de outubro de 2022, relativo a um mercado único de serviços digitais (Lei dos Serviços Digitais) e que altera a Diretiva 2000/31/CE. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX%3A32022R2065.
UNITED NATIONS HUMAN RIGHTS OFFICE OF THE HIGH COMMISSIONER. General comment No. 25 (2021) on children’s rights in relation to the digital environment. Disponível em: https://www.ohchr.org/en/documents/general-comments-and-recommendations….
VINHA, Telma, et al. Ataques de violência extrema em escolas no Brasil: causas e caminhos [livro eletrônico]. 1. ed. São Paulo: D3e, 2023. 5,94 Mb. ISBN 978-65-995856-8-5. Disponível em: https://d3e.com.br/wp-content/uploads/relatorio_2311_ataques-escolas-br….
X. Termos de Serviços. Disponível em: https://help.x.com/pt/rules-and-policies/x-rules.
ZUBOFF, Shoshana. A era do capitalismo de vigilância. Editora Intrínseca, 2021.
1 COMITÊ GESTOR DA INTERNET NO BRASIL. Nota pública do CGI.br em razão do debate de mudanças e exceções ao regime de responsabilidade para provedores de aplicação em vigor no Marco Civil da Internet. 2023. Disponível em: https://cgi.br/esclarecimento/nota-publica-do-cgi-br-em-razao-do-debate…. Acesso em: 20 out. 2024.
2 SUPREMO TRIBUNAL FEDERAL. STF começa a julgar ações sobre regras do Marco Civil da Internet para remoção de conteúdos. 27 nov. 2023. Disponível em: https://noticias.stf.jus.br/postsnoticias/stf-comeca-a-julgar-acoes-sob…(STF,extrajudicial%2C%20ou%20seja%2C%20sem%20determina%C3%A7%C3%A3o. Acesso em: 27 nov. 2023.