Regulamentação das plataformas no Brasil: navegando por um mar de oportunidades, deveres, desafios e direitos civis, constitucionais e penais

Rodolfo "Itaymberê" Guimarães Vieira da Silva é advogado em formação, graduado em Sistemas de Informação pelo Centro Universitário de Itajubá (FEPI), e especializado em Gestão de TI pela Fundação Getúlio Vargas - FGV, possui ampla experiência em tecnologia da informação, com mais de 25 anos atuando no desenvolvimento de sistemas ERP, integrações e soluções personalizadas para o setor jurídico, empresarial e telecomunicações. Estudioso das interseções entre Direito, tecnologia e meio ambiente, dedica-se à pesquisa científica com enfoque em temas como soberania digital, ressocialização no sistema prisional brasileiro, direitos fundamentais e proteção jurídica das abelhas sem ferrão nativas do Brasil. Idealizador da iniciativa "Advogado das Abelhas", é também o co-fundador da Comunidade Advogado Completo, onde promove educação jurídica crítica e ciência-cidadã.
Resumo
A crescente relevância das plataformas digitais na economia global e sua influência no comportamento social e político têm impulsionado o debate sobre sua regulação. Este artigo tem como temática as contribuições coletadas (n=1336) na Consulta sobre Regulação de Plataformas Digitais realizada pelo Comitê Gestor da Internet no Brasil (CGI.br), com o objetivo central de investigar a viabilidade jurídica das medidas de mitigação propostas para os principais riscos associados a essas plataformas, como abuso de poder econômico, disseminação de desinformação e impactos na sociedade à luz do direito brasileiro. A metodologia utilizada foi por meio da análise, elaborada a partir das contribuições, da legislação brasileira e de estudos, teóricos e doutrinários, é estruturada em três eixos: Quem regular? A definição de plataformas digitais e os limites da regulação assimétrica; O que regular? Os riscos associados às plataformas, incluindo concentração de mercado, privacidade e desinformação, e as medidas de mitigação propostas; e Como regular? Os modelos de governança sugeridos para a regulação, enfatizando a importância de uma abordagem multissetorial. Para categorizar a viabilidade dessas propostas, houve a participação da comunidade através de contribuições a consulta, leis nacionais, jurisprudências, doutrinas e experiências internacionais, com o intuito de identificar diretrizes para a construção de um arcabouço regulatório eficaz e sustentável, um modelo regulatório dinâmico e proporcional que respeite direitos fundamentais, como liberdade de expressão e privacidade, e promova a inovação sem prejudicar a segurança jurídica e o bem-estar coletivo. A discussão foi estruturada em eixos temáticos que abordam a identificação dos riscos, as medidas de mitigação propostas e os modelos de governança para a regulação. Os resultados da análise contribuem para o debate sobre a regulação de plataformas digitais no Brasil, examinando a adequação e os desafios jurídicos das propostas apresentadas à luz do ordenamento jurídico vigente. A metodologia utilizada na produção do Relatório de Sistematização do CGI.br foi qualitativa e quantitativa. Em paralelo à análise de conteúdos, foram aproveitadas também as regras gerais de análise qualitativa, a fim de prover sentidos e análises mais aprofundadas das contribuições. Quanto à natureza da pesquisa, pode ser entendida como predominantemente aplicada. Embora utilize referenciais teóricos, o foco está na análise de dados concretos (as contribuições) para um fim específico (o processo regulatório). A conclusão deste estudo destaca que a regulação bem-sucedida exige diálogo contínuo entre governo, sociedade civil e setor privado, além de um arcabouço normativo que priorize a flexibilidade e a adequação aos desafios de um ambiente digital em constante evolução. Na intenção de que esta pesquisa contribua com a sociedade para orientar a alteração ou inovação do ordenamento jurídico vigente em relação a responsabilidade das plataformas digitais.
Introdução
A transformação digital revolucionou a sociedade contemporânea, consolidando as plataformas digitais como atores centrais em atividades econômicas, sociais e políticas. No Brasil, redes sociais, marketplaces, aplicativos de mensagens e mecanismos de busca desempenham papéis fundamentais, conectando pessoas e promovendo inovações, mas também gerando desafios significativos. Questões como desinformação, discurso de ódio, riscos à privacidade, abuso de poder econômico e concentração de mercado exigem respostas regulatórias adequadas.
A digitalização acelerada tem redefinido as estruturas econômicas, políticas e sociais, colocando as plataformas digitais no centro dessas transformações. No Brasil, a relevância desse debate é ampliada por um ecossistema digital robusto e dinâmico, com implicações significativas para direitos fundamentais, inovação tecnológica e competitividade econômica. No entanto, a regulação dessas plataformas apresenta desafios complexos, que vão desde a definição do escopo regulatório até a compatibilização com mandamentos constitucionais, como a liberdade de expressão e o direito à privacidade. Embora legislações como o Marco Civil da Internet (Lei n.º 12.965/2014) e a Lei Geral de Proteção de Dados Pessoais (LGPD - Lei n.º 13.709/2018) tenham estabelecido marcos fundamentais, o avanço da tecnologia e a complexidade das interações digitais demandam regulações mais específicas. Diante desse cenário, o Comitê Gestor da Internet no Brasil (CGI.br) promoveu uma chamada pública para discutir a regulação de plataformas digitais, coletando contribuições de diversos setores da sociedade.
As plataformas digitais, abrangendo redes sociais, marketplaces e serviços de streaming, desempenham um papel essencial em conectar pessoas, serviços e informações. Contudo, a ausência de uma regulação específica e os riscos associados, como concentração econômica, desinformação e violação de privacidade, reforçam a necessidade de um debate estruturado sobre o tema. Nesse contexto, a consulta pública conduzida pelo CGI.br em 2023 trouxe contribuições de diversos setores, destacando tanto as oportunidades quanto os desafios da regulação no Brasil.
A título explicativo, o CGI.br é uma entidade multissetorial criada em 1995 por iniciativa e em articulação com o Governo Federal. Ele é responsável por estabelecer as diretrizes estratégicas relacionadas ao uso e desenvolvimento da Internet no Brasil. O CGI.br funciona como um fórum de diálogo e construção de consenso entre os diversos setores da sociedade. Através de suas resoluções e recomendações, o CGI.br influencia significativamente as políticas e práticas relacionadas à Internet no Brasil. Por exemplo, as diretrizes para a neutralidade da rede no Brasil foram amplamente debatidas e estabelecidas no âmbito do CGI.br antes de serem incorporadas ao Marco Civil da Internet. Esta entidade também acompanha de perto debates internacionais sobre governança da Internet e participa ativamente de fóruns globais, levando a perspectiva multissetorial brasileira.
A estrutura de governança do CGI.br é um ponto central de sua atuação. É composto por representantes do governo, do setor empresarial, do terceiro setor e da comunidade científica e tecnológica, garantindo uma pluralidade de visões na tomada de decisões. As decisões do CGI.br são geralmente tomadas por consenso entre seus membros; Responsabilidade: A principal responsabilidade do CGI.br é manter a Internet como um ambiente aberto, democrático, inovador e inclusivo no Brasil, promovendo seu uso para o benefício de toda a sociedade; Competências: Além das competências já mencionadas, o CGI.br possui a competência de promover estudos e pesquisas sobre temas relevantes para o desenvolvimento da Internet, de organizar eventos e fóruns de discussão, e de disseminar conhecimento sobre a governança e o uso da Internet. No escopo da Consulta, da Sistematização foi fundamental a participação e as contribuições do GT – Grupo de Trabalho sobre Regulação de Plataformas.
Este artigo explora essas contribuições com base em três eixos principais:
- Quem regular? Este eixo se dedica à definição e classificação das plataformas digitais, considerando as diferenças entre os serviços e a necessidade de regulação assimétrica e setorial. Busca-se estabelecer um entendimento claro sobre quais entidades devem ser objeto de regulação, levando em conta suas características específicas e seu potencial impacto na sociedade
- O que regular? Medidas de Mitigação dos Riscos. Diante dos riscos inerentes às atividades das plataformas, este eixo analisa as medidas de mitigação propostas na consulta pública. Serão exploradas sugestões como obrigações de transparência sobre moderação de conteúdo, uso de dados pessoais e publicidade, e o desenvolvimento de mecanismos de responsabilização. A discussão também abordará a viabilidade e a adequação dessas medidas para mitigar os riscos identificados.
- Como regular? Modelo de Governança e Bases Legais. Este eixo examina o modelo de governança para a regulação das plataformas digitais, defendendo a necessidade de uma abordagem multissetorial, envolvendo o poder público, o setor privado e a sociedade civil. Serão analisadas as bases legais existentes que podem sustentar essa regulação, como o Marco Civil da Internet (Lei n.º 12.965/2014) e o Decreto n.º 10.411/2020 sobre análise de impacto regulatório.
O objetivo é analisar a viabilidade jurídica dessas propostas, categorizando-as como inconstitucionais, necessárias ou perfeitamente viáveis, e propor diretrizes para a formulação de um marco regulatório que equilibre controle e inovação. Sob a ótica do Direito Civil, as plataformas podem ser classificadas como prestadoras de serviços, sujeitas às normas do Código de Defesa do Consumidor, quando lidam diretamente com consumidores finais. Já no âmbito do Direito Constitucional, o conceito de regulação assimétrica é crucial para garantir que pequenas plataformas não sejam oneradas desproporcionalmente, preservando a livre iniciativa e a competitividade. Foi necessário ainda considerar o Direito Constitucional quando das violações a princípios constitucionais brasileiros e os crimes tipificados no Código Penal.
A metodologia empregada combina análise normativa, com base nas leis brasileiras pertinentes, com destaque especial à EC – Emenda Constitucional nº 115/2022, que foi responsável por incluir a proteção dos dados pessoais inclusive nos meios digitais como direito fundamental no catálogo dos direitos e deveres individuais e coletivos. e ainda o Marco Civil da Internet (Lei n.º 12.965/2014) e a Lei Geral de Proteção de Dados (LGPD) (Lei n.º 13.709/2018), e uma revisão das melhores práticas internacionais, como o Digital Markets Act (DMA) da União Europeia, o Decreto n.º 10.411/2020 sobre análise de impacto regulatório, considerando a viabilidade e impacto de todas as propostas publicadas na Consulta feita pelo CGI.br. Este estudo também se apoia na jurisprudência brasileira, no arcabouço doutrinário relevante ao tema, incluindo decisões do Supremo Tribunal Federal, que possui a missão de zelar pela Constituição Federal de 1988 e garantir a prevalência dos direitos fundamentais, e Superior Tribunal de Justiça, missionado a zelar pela uniformidade de interpretações da legislação federal brasileira, para avaliar a compatibilidade das propostas com os mandamentos constitucionais e o arcabouço legal vigente.
Através da exploração desses três eixos, este artigo visa contribuir para o debate sobre a regulação de plataformas digitais, oferecendo uma análise estruturada das propostas apresentadas e considerando os desafios e oportunidades para o estabelecimento de um ambiente digital mais justo, transparente e democrático.
1. Quem regular? Definição de plataformas digitais e regulação assimétrica
A definição de "plataformas digitais" para fins de regulamentação deve ser abrangente, incluindo redes sociais, comércio eletrônico, plataformas de notícias, mecanismos de busca e aplicativos de mensagens e de inteligência artificial. É crucial considerar a variedade de modelos de negócios e serviços, adotando uma abordagem assimétrica que leve em conta critérios como participação de mercado, faturamento, número de usuários e tipo de serviço oferecido. A regulamentação deve ser específica, evitando generalizações para garantir clareza e evitar interpretações divergentes.
A primeira questão a ser apresentada é a definição de plataformas digitais, buscando delimitar o escopo da regulação. A pluralidade de serviços e modelos de negócios, desde redes sociais a plataformas de e-commerce, dificulta a criação de uma definição única e abrangente. As contribuições da consulta pública apontam para a necessidade de considerar a diversidade de atores e a especificidade de cada serviço. A regulação assimétrica, levando em conta critérios como participação de mercado, faturamento e número de usuários, surge como a alternativa mais justa e equilibrada.
A definição do órgão regulador também é crucial. Entre os participantes da consulta pública alguns defendem a criação de uma nova agência reguladora, enquanto outros argumentam que as instituições existentes, como o Conselho Administrativo de Defesa Econômica (Cade) e a Secretaria Nacional do Consumidor (Senacon), já possuem as ferramentas necessárias para atuar nesse campo.
A natureza multissetorial da governança da Internet é um consenso, com a necessidade de envolver não apenas o governo, mas também a sociedade civil, o setor privado e a comunidade acadêmica.
1.1. Plataformas digitais e a necessidade de regulamentação abrangente e assimétrica
A definição do objeto a ser regulado é um dos primeiros desafios. O que são "plataformas digitais"? As contribuições refletem a dificuldade em estabelecer uma definição abrangente, considerando a variedade de modelos de negócio. A necessidade de uma regulação assimétrica, adaptando as obrigações ao porte e impacto das plataformas, é amplamente defendida. Os critérios são:
Participação de mercado (market share): A ABRANET, por exemplo, defende que plataformas com mais de 50% de participação no mercado relevante sejam submetidas a regras mais rigorosas. Há de se considerar além das consultas os dispostos na Lei n.º 12.529/2011 (Sistema Brasileiro de Defesa da Concorrência - SBDC), para garantir a livre-concorrência.
Valor de mercado ou faturamento: A Telefônica/Vivo destaca a necessidade de considerar o faturamento das plataformas no Brasil para definir o peso regulatório, argumentando que algumas plataformas se beneficiam da infraestrutura de telecomunicações sem contribuir financeiramente.
Quantidade de usuários e de clientes: A ABRANET sugere que plataformas com alta volumetria de usuários (mais de 45 milhões de usuários finais e 20 milhões de usuários profissionais) sejam alvo de maior atenção regulatória.
Controle essencial de acesso (gatekeeper): O DEIN (Departamento de Transformação Digital, Inovação e Novos Negócios do Ministério do Desenvolvimento, Indústria, Comércio e Serviços - MDIC) destaca o controle essencial de acesso como critério relevante para a classificação de plataformas e aplicação de regulação assimétrica.
Tipos de serviços: A diversidade de serviços oferecidos pelas plataformas (redes sociais, comércio eletrônico, busca, mensageria, etc) deve ser considerada na definição do escopo da regulação.
O primeiro passo para a elaboração de um arcabouço regulatório eficaz reside na definição precisa do objeto a ser regulado. A terminologia "plataformas digitais" engloba um espectro amplo de serviços online, cada um com suas particularidades e modelos de negócio específicos. É crucial reconhecer essa heterogeneidade e adotar uma abordagem abrangente que inclua as diversas plataformas que impactam a vida dos brasileiros, como redes sociais (ex: Facebook, Instagram, Twitter), plataformas de comércio eletrônico (ex: Mercado Livre, Amazon), plataformas de notícias, mecanismos de busca (ex: Google) e aplicativos de mensagens (ex: WhatsApp, Telegram).
A regulamentação, contudo, deve ir além da mera enumeração de serviços e plataformas. A assimetria emerge como um princípio fundamental para garantir a proporcionalidade e a efetividade da regulação. As plataformas digitais não são entidades monolíticas; variam em tamanho, poder econômico, número de usuários e impacto social. Uma regulamentação uniforme, que ignore essas diferenças, corre o risco de sufocar a inovação e prejudicar o desenvolvimento de empresas menores, enquanto deixa de abordar os desafios específicos colocados pelas grandes plataformas.
A definição de “plataformas digitais” é ponto central no debate regulatório. Contribuições na consulta pública apontam para uma definição abrangente, incluindo redes sociais, mecanismos de busca, marketplaces e serviços de streaming. Contudo, a ausência de uma definição uniforme pode gerar incertezas jurídicas e impactos desproporcionais, sobretudo em serviços que operam em setores distintos.
As contribuições recebidas pelo CGI.br destacaram a importância de uma definição abrangente para plataformas digitais, contemplando serviços como redes sociais, marketplaces, mecanismos de busca e aplicativos de mensagens. Essa abordagem permite capturar a diversidade de modelos de negócios e interações entre usuários e plataformas. No entanto, a ausência de uniformidade global sobre o termo “plataforma digital” foi apontada como um desafio, uma vez que as definições variam conforme o contexto regulatório e setorial.
Além disso, diversas contribuições sublinharam a relevância de uma regulação assimétrica e setorial. Essa perspectiva considera que as plataformas possuem naturezas e impactos distintos, demandando critérios que levem em conta seu porte, modelo de negócios e riscos associados. Um exemplo é a preocupação com plataformas menores que, apesar de terem baixa participação de mercado, podem apresentar riscos elevados em relação à privacidade ou à segurança de dados.
A experiência internacional, especialmente o Digital Markets Act (DMA) europeu, foi frequentemente mencionada como referência, mas as contribuições enfatizaram a necessidade de adaptar modelos regulatórios ao contexto brasileiro, respeitando a realidade econômica e social do país. Também foi sugerida a inclusão de estudos de impacto regulatório para orientar as decisões legislativas.
Portanto, a regulação assimétrica surge como alternativa eficaz, promovendo proporcionalidade e evitando onerar desnecessariamente setores inovadores. Para que essa abordagem seja viável, é fundamental considerar a interação entre normas nacionais, como o Marco Civil da Internet, e marcos internacionais que influenciam o ecossistema digital.
A necessidade de uma regulação assimétrica, com diferentes níveis de obrigações para plataformas de diferentes portes e impactos, é amplamente defendida nas contribuições. Critérios como participação de mercado, valor de mercado ou faturamento, quantidade de usuários e controle essencial de acesso (gatekeeper) são mencionados como parâmetros para a classificação. A proposta é que plataformas com maior poder de mercado e impacto social estejam sujeitas a obrigações mais rigorosas.
2. O que regular? Identificação de riscos e medidas mitigadoras
As contribuições recebidas pelo CGI.br destacam diversos riscos associados às atividades das plataformas digitais, com foco em problemas como desinformação, discurso de ódio, privacidade, abuso de poder econômico e concentração de mercado. Essas plataformas exercem influência direta sobre a sociedade, conectando pessoas e negócios, mas também gerando desafios éticos e jurídicos.
Um ponto central levantado é a necessidade de moderação de conteúdo e mitigação de riscos, especialmente no combate à desinformação e aos discursos de ódio, sem comprometer a liberdade de expressão. Há consenso sobre a importância de preservar os regimes de responsabilidade já previstos no Marco Civil da Internet (Art. 19)1, que asseguram liberdade de expressão e limitam a responsabilização das plataformas por conteúdos de terceiros. No entanto, algumas contribuições apontaram a necessidade de maior transparência sobre os critérios utilizados em algoritmos de moderação e curadoria de conteúdo, bem como na publicidade direcionada.
Além disso, riscos relacionados à privacidade foram amplamente discutidos, incluindo o uso indevido de dados pessoais e a falta de transparência em práticas de monetização. As contribuições sugerem o fortalecimento de mecanismos de proteção previstos na LGPD, como auditorias regulares e maior clareza nos termos de uso. Por fim, as preocupações com a concentração de mercado e abuso de poder econômico indicam a necessidade de aprimorar a fiscalização e desenvolver políticas para estimular a concorrência saudável, protegendo pequenos e médios negócios digitais.
A mitigação dos riscos exige um equilíbrio entre inovação e responsabilidade, com regulamentações claras e proporcionais, por certo, a definição de plataformas digitais e a necessidade de uma regulação assimétrica e setorial são pontos centrais na discussão sobre a regulamentação. As contribuições analisadas demonstram a complexidade em estabelecer um conceito único e abrangente para “plataformas digitais”, considerando a diversidade de modelos de negócio e serviços ofertados. Alguns defendem a manutenção da classificação do Marco Civil da Internet, que distingue provedores de conexão e aplicação, com a criação de subcategorias dentro dos provedores de aplicação.
Embora a LGPD não determine explicitamente a obrigatoriedade de "auditorias regulares" com essa terminologia, diversos dispositivos da lei apontam para a necessidade de as organizações implementarem mecanismos de avaliação e monitoramento contínuos para garantir a conformidade com a legislação.
O Art. 46 da LGPD estabelece que os agentes de tratamento devem adotar medidas de segurança, técnicas e administrativas aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais ou ilícitas de destruição, perda, alteração, comunicação ou qualquer forma de tratamento inadequado ou ilícito. A implementação dessas medidas de segurança pode envolver a realização de avaliações e auditorias periódicas para verificar sua eficácia e adequação.
O Art. 50 da LGPD incentiva a adoção de códigos de boas práticas e de governança. A adesão a esses códigos, conforme mencionado, pode incluir a implementação de processos de auditoria interna ou externa para verificar o cumprimento das políticas de proteção de dados e a eficácia das medidas de segurança adotadas.
A necessidade de demonstrar conformidade com a LGPD perante a Autoridade Nacional de Proteção de Dados (ANPD) e os titulares dos dados também implica a adoção de mecanismos de avaliação e revisão contínua das práticas de tratamento de dados, o que pode ser realizado por meio de auditorias.
Quanto a clareza nos Termos de Uso e Privacidade das plataformas digitais, a LGPD, por exemplo, é enfática na necessidade de transparência e clareza nas informações fornecidas aos titulares dos dados sobre o tratamento de suas informações pessoais. Diversos artigos reforçam essa exigência:
O Art. 6º, inciso VI, da LGPD estabelece como princípio o da transparência, garantindo aos titulares informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial. Isso se aplica diretamente à elaboração de termos de uso e políticas de privacidade.
O Art. 9º da LGPD detalha os direitos do titular, incluindo o direito ao acesso facilitado às informações sobre o tratamento de seus dados e à confirmação da existência de tratamento. Para garantir esse acesso facilitado, os termos de uso e políticas de privacidade devem ser redigidos de forma clara, objetiva e em linguagem acessível.
O Art. 14, §6º, da LGPD é específico ao tratar do tratamento de dados de crianças e adolescentes, exigindo que as informações sobre o tratamento sejam fornecidas de maneira simples, clara e acessível, consideradas as características físico-motoras, perceptivas, sensoriais, intelectuais e mentais do usuário, com uso de recursos audiovisuais quando adequado, de forma a proporcionar a informação necessária aos pais ou ao responsável legal e adequada ao entendimento da criança. Esse dispositivo reforça a importância da linguagem clara e adaptada ao público nos documentos informativos.
O Art. 20, inciso I, da LGPD estabelece o direito do titular de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seu interesse, incluindo informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão. A clareza nos termos de uso e políticas de privacidade pode informar sobre a existência e o funcionamento desses processos automatizados.
O Art. 22 da LGPD também exige que as plataformas sejam transparentes em relação às práticas de tratamento de dados, incluindo a coleta, o armazenamento e o uso de informações para personalização de conteúdo.
2.1. Mitigando os riscos à concorrência e inovação e das atividades das plataformas digitais
As contribuições da consulta pública apontam para uma série de riscos associados às atividades das plataformas digitais:
Ameaças à concorrência: Práticas como a auto preferência, a cópia de serviços de concorrentes e a integração vertical podem distorcer o mercado e prejudicar a livre concorrência. A concentração de mercado e o abuso de poder econômico por grandes plataformas são apontados como um risco à livre concorrência. Práticas como abuso de posição dominante, auto preferência, discriminação de concorrentes e concentração de dados são apontadas como prejudiciais à livre concorrência.
Riscos ao consumo: A falta de transparência e a assimetria de informações entre plataformas e usuários podem resultar em práticas abusivas e violações aos direitos dos consumidores.
Abuso de poder econômico: A concentração de dados e a posição dominante de algumas plataformas podem levar ao abuso de poder, impondo condições desfavoráveis a usuários e empresas6.
Violação de direitos do consumidor: A falta de transparência, a dificuldade de acesso a informações, cláusulas abusivas em termos de uso, dificuldade de cancelamento de serviços e a utilização de dados pessoais sem consentimento e a ausência de mecanismos eficazes de resolução de conflitos são problemas recorrentes e alguns dos problemas apontados.
Ameaças à democracia e aos direitos humanos: A disseminação de desinformação, o discurso de ódio, extremismos, a manipulação política, a violação da privacidade e o terrorismo online são riscos crescentes no ambiente digital.
Precarização do trabalho: A gig economy, impulsionada pelas plataformas digitais, levanta questionamentos sobre a garantia de direitos trabalhistas, a remuneração justa e a proteção social dos trabalhadores.
Ameaças à soberania digital e tecnológica: A dependência de tecnologias estrangeiras e o controle de dados por empresas internacionais podem comprometer a autonomia e a segurança do Brasil.
Impacto sobre o jornalismo: O modelo de negócio das plataformas digitais impacta a sustentabilidade do jornalismo, demandando medidas para garantir a remuneração justa pelo conteúdo jornalístico.
Falta de transparência algorítmica: A opacidade dos algoritmos utilizados pelas plataformas limita a capacidade de compreensão e controle por parte dos usuários, demandando mecanismos de transparência.
Concentração de mercado e abuso de poder econômico: Estes são riscos inerentes ao ecossistema das plataformas digitais. As grandes plataformas, com suas vastas economias de escala, efeitos de rede e acesso a uma quantidade massiva de dados, detêm vantagens competitivas significativas que podem sufocar a concorrência e inibir a inovação.
A regulamentação deve atuar de forma proativa para mitigar esses riscos, garantindo um ambiente competitivo que fomente a entrada de novos players e o desenvolvimento de modelos alternativos. A definição de regras claras de interoperabilidade de dados, por exemplo, pode reduzir as barreiras à entrada e permitir que usuários migrem entre plataformas com mais facilidade.
A proibição do autopreferenciamento, prática que consiste em privilegiar os próprios serviços ou produtos em detrimento da concorrência, também é crucial para garantir a igualdade de condições competitivas. Adicionalmente, a obrigação de compartilhamento de dados com concorrentes, em cenários específicos e sob a supervisão de autoridades competentes, pode ser considerada como uma medida para promover a competição e a inovação.
As autoridades concorrenciais devem estar atentas à dinâmica dos mercados digitais, revisando e atualizando seus critérios de análise de atos de concentração. A simples consideração do faturamento, em um contexto de estratégias globais e mercados multifacetados, pode ser insuficiente para identificar os reais impactos de uma aquisição. A inclusão de critérios como o número de usuários, o faturamento global e o tipo de serviço oferecido podem contribuir para uma análise mais precisa e robusta.
A regulamentação das plataformas digitais é um desafio complexo, que exige uma abordagem equilibrada e multifacetada. A proteção dos direitos dos usuários, a garantia da concorrência e a promoção da inovação são objetivos interdependentes que devem nortear a construção de um arcabouço regulatório eficaz e sustentável.
2.2. Medidas de mitigação dos riscos
Diante dos riscos, a consulta pública permitiu a propositura de medidas de mitigação. As contribuições sugerem diversas medidas para mitigar os riscos, incluindo:
Obrigações de transparência: A exigência de relatórios de transparência sobre moderação de conteúdo, uso de dados pessoais e publicidade é uma medida recorrente nas contribuições.
Mecanismos de responsabilização: A atualização do regime de responsabilidade civil por conteúdo gerado por terceiros é debatida, com propostas de responsabilização por notificação extrajudicial em casos específicos.
Criação de um fundo de apoio ao jornalismo: A implementação de um fundo financiado pelas plataformas digitais é defendida como forma de garantir a sustentabilidade do jornalismo.
Limitação de gastos com publicidade em períodos eleitorais: Medidas para coibir o abuso de poder econômico e a disseminação de desinformação durante as eleições são propostas, como a limitação de gastos com publicidade eleitoral.
Promoção da educação digital: O letramento digital é apontado como fundamental para capacitar os usuários a navegarem no ambiente digital de forma crítica e consciente.
Regulamentação da concorrência: Criação de regras para prevenir a auto preferência, a cópia de serviços de concorrentes e a integração vertical por parte de plataformas dominantes.
Proteção de dados pessoais: Fortalecimento da Lei Geral de Proteção de Dados (LGPD), garantindo a transparência no uso de dados, o controle por parte dos titulares e a responsabilização em caso de violações.
Combate à desinformação: Implementação de mecanismos de verificação de fatos, rotulagem de conteúdo enganoso e promoção da educação midiática.
Promoção de direitos trabalhistas: Garantia de direitos trabalhistas básicos, como remuneração justa, seguro de acidentes e acesso à previdência social, para trabalhadores de plataformas digitais.
Incentivo à inovação e à diversidade: Fomento ao desenvolvimento de tecnologias nacionais, apoio a startups e pequenas empresas, e promoção da diversidade e da inclusão no ambiente digital.
3. Como regular? Propostas de governança e arranjos institucionais
O terceiro eixo do debate sobre regulação de plataformas digitais se concentra em como estruturar os arranjos institucionais e mecanismos de governança necessários para implementar e fiscalizar as normas. As contribuições da consulta pública sublinharam a importância de combinar abordagens de autorregulação, corregulação e regulação estatal.
O modelo ideal de regulação deve ser baseado na governança multissetorial. A consulta aponta para a necessidade de equilíbrio entre autorregulação e intervenção estatal, com destaque para experiências positivas no Brasil, como o CGI.br e a ANPD. Recomenda-se a criação de instâncias que integrem representantes da sociedade civil, do governo e da iniciativa privada para definir diretrizes flexíveis e adaptáveis.
A discussão sobre "como regular" envolve a definição do modelo de governança para a regulação de plataformas digitais. A consulta pública aponta para a necessidade de um modelo ágil, flexível e adaptável à dinâmica do ambiente digital.
A autorregulação regulada, com a participação de diferentes atores, surge como uma alternativa promissora. Nesse modelo, as próprias plataformas, em conjunto com a sociedade civil, o governo e outras partes interessadas, elaborariam códigos de conduta e melhores práticas, sujeitos à fiscalização de um órgão regulador independente.
A criação de um conselho multissetorial, com a participação de representantes de todos os setores da sociedade, é fundamental para garantir a legitimidade e a efetividade da regulação.
As contribuições ao CGI.br destacam que o modelo de regulação das plataformas digitais deve ser multissetorial, envolvendo governo, sociedade civil e setor privado. Essa abordagem, já consolidada em iniciativas como o próprio CGI.br, assegura maior legitimidade e eficácia regulatória. A proposta enfatiza a necessidade de articulação institucional entre órgãos como a Autoridade Nacional de Proteção de Dados (ANPD), o Conselho Administrativo de Defesa Econômica (CADE) e o Poder Judiciário, garantindo uma coordenação integrada das ações regulatórias.
A Lei Geral de Proteção de Dados (LGPD - Lei n.º 13.709/2018) apresenta ferramentas importantes para autorregulação, como os códigos de boas práticas e governança (Art. 50). A implementação de corregulação, alinhando mandatos estatais com práticas voluntárias do setor privado, é destacada como essencial. Jurisprudências como o julgamento da ADI 6387 (STF) reafirmam a importância da colaboração entre diferentes setores para a proteção de direitos digitais.
Além disso, a transparência é apontada como um princípio central, especialmente em relação à moderação de conteúdo e algoritmos de recomendação. Essa obrigação já encontra respaldo no Marco Civil da Internet (Lei n.º 12.965/2014, Art. 7º, X), que exige informações claras sobre práticas de coleta e uso de dados.
A regulação das plataformas digitais no Brasil deve ser realizada de forma equilibrada, garantindo a proteção de direitos fundamentais, a promoção de um ambiente competitivo e o incentivo à inovação. O modelo de governança proposto nas contribuições ao CGI.br deve ser multissetorial, envolvendo não apenas o poder público, mas também o setor privado e a sociedade civil. Para tanto, é necessário analisar as bases legais que sustentam essa regulação e as jurisprudências que orientam sua aplicação.
Por fim, recomenda-se a adoção de análises de impacto regulatório, previstas no Decreto n.º 10.411/2020, como ferramenta para medir os efeitos das medidas regulatórias e garantir a proporcionalidade das intervenções, evitando a sobrecarga regulatória e promovendo um ambiente favorável à inovação.
3.1. Atores envolvidos
Enquanto alguns defendem a criação de uma nova agência reguladora independente, com expertise em plataformas digitais, outros argumentam que a regulação deve ser multissetorial, envolvendo órgãos já existentes, como o CGI.br, a ANPD, o CADE e a SENACON, cada qual atuando em sua área de competência. A participação da sociedade civil, da comunidade acadêmica e do setor privado na formulação e implementação da regulação também é defendida.
3.2. Arranjos de governança
Dentre os modelos de governança propostos, destacam-se:
3.2.1. Autorregulação regulada
A autorregulação, com a participação ativa das plataformas na definição de normas e códigos de conduta, sob a supervisão de uma agência reguladora, é um modelo defendido por alguns.
3.2.2 Regulação por incentivo
A criação de incentivos para que as plataformas adotem práticas responsáveis e combatam os riscos, em vez da imposição de regras rígidas, é outro modelo sugerido.
3.2.3. Governança multissetorial
A participação de diferentes atores, incluindo governo, setor privado, sociedade civil e academia, na definição e implementação da regulação é amplamente defendida.
A governança multissetorial surge como o modelo preferencial em várias contribuições, devido à sua capacidade de incluir diferentes perspectivas e atores na formulação de políticas. O CGI.br é frequentemente citado como um exemplo positivo desse modelo, funcionando como um espaço de diálogo entre governo, academia, setor privado e sociedade civil.
Essa abordagem multissetorial é particularmente relevante para garantir a legitimidade e a eficácia das normas regulatórias. Além disso, ela permite uma adaptação mais ágil às mudanças tecnológicas, ao contrário de modelos de regulação centralizados e excessivamente burocráticos.
A Lei Geral de Proteção de Dados Pessoais (LGPD - Lei n.º 13.709/2018) é uma referência importante nesse processo, pois ela prevê, em seu Art. 50, a possibilidade de autorregulação das empresas. Plataformas digitais devem criar códigos de conduta e boas práticas para garantir a proteção dos dados pessoais e promover a transparência nas suas operações. A LGPD, ao criar um sistema de co-regulação, permite que o setor privado, com a participação de entidades representativas, desempenhe um papel crucial na implementação de normas que complementam as diretrizes estabelecidas pelo Estado. Este modelo já é utilizado em outros setores, como o mercado financeiro, com a Associação Brasileira das Entidades dos Mercados Financeiro e de Capitais (ANBIMA), e a publicidade, com o Conselho Nacional de Autorregulamentação Publicitária (CONAR), como exemplos exitosos de autorregulação.
3.2.4. O papel do Estado e a proporcionalidade das intervenções: autorregulação e da corregulação
Embora a autorregulação tenha um papel importante, o Estado deve exercer um papel de supervisão e de intervenção quando necessário, principalmente para garantir que os direitos dos cidadãos sejam protegidos. A Constituição Federal de 1988, em seu Art. 170, garante a livre concorrência, o que implica a necessidade de uma regulação que não crie barreiras injustas ao mercado, nem favoreça plataformas dominantes em detrimento de novas iniciativas.
O Supremo Tribunal Federal (STF), na ADI 6387, reconheceu que a regulação digital deve ser balanceada, não prejudicando a liberdade de expressão e o direito à informação, permitindo intervenções necessárias para garantir o direito à privacidade e à segurança. Em casos como a ADPF 130, o STF reforçou a proibição de censura prévia, exigindo que a regulação das plataformas seja cuidadosa para não violar a liberdade de expressão dos usuários.
A autorregulação, definida como o estabelecimento de padrões e práticas pelas próprias plataformas, é defendida como uma forma de reduzir custos regulatórios e promover a inovação. No entanto, as contribuições ressaltam que, para ser eficaz, a autorregulação deve ser complementada por mecanismos de corregulação, nos quais o Estado desempenha um papel de supervisão e garante a aplicação de padrões mínimos.
Exemplos internacionais, como o sistema de corregulação previsto no Digital Services Act (DSA) da União Europeia, são frequentemente citados como modelos que poderiam ser adaptados ao contexto brasileiro. Esse sistema permite que as plataformas estabeleçam códigos de conduta voluntários, enquanto os órgãos reguladores monitoram sua aplicação e impõem sanções em casos de descumprimento.
3.2.5. A proporcionalidade como princípio norteador: transparência e moderação de conteúdos
O princípio da proporcionalidade foi destacado em diversas contribuições como fundamental para o sucesso de qualquer modelo regulatório. Isso significa que as normas devem ser calibradas de acordo com o impacto potencial das plataformas reguladas, evitando que pequenas empresas sejam sobrecarregadas por exigências que visam principalmente grandes conglomerados digitais.
Por exemplo, a exigência de auditorias regulares para grandes plataformas pode ser desnecessária e financeiramente inviável para startups ou empresas de menor porte. Nesse sentido, as contribuições sugerem a adoção de critérios objetivos, como receita anual e número de usuários ativos, para determinar o nível de regulação aplicável a cada plataforma.
A regulação da moderação de conteúdo e a transparência nos algoritmos de recomendação são temas que se destacam nas contribuições. O Marco Civil da Internet (Lei n.º 12.965/2014), em seu Art. 7º, garante aos usuários a liberdade de expressão e proíbe a moderação sem justificativa clara. No entanto, o Art. 19 do Marco Civil estabelece que as plataformas podem ser responsabilizadas por conteúdos de terceiros apenas se, após ordem judicial, não tomarem as providências necessárias para removê-los. Esse princípio deve ser observado nas propostas de regulação, buscando garantir que as plataformas possam agir contra conteúdos prejudiciais, como desinformação e discurso de ódio, sem infringir direitos fundamentais.
As decisões do Superior Tribunal de Justiça (STJ), como o REsp 1.959.973-RJ, reforçam a responsabilidade das plataformas pela moderação de conteúdo, desde que em conformidade com as regras estabelecidas pela legislação. O Art. 22 da LGPD também exige que as plataformas sejam transparentes em relação às práticas de tratamento de dados, incluindo a coleta, o armazenamento e o uso de informações para personalização de conteúdo. A transparência nas decisões de moderação e nos algoritmos usados para a curadoria de informações é uma das exigências que garantirá que a regulação não ultrapasse os limites da proporcionalidade e da razoabilidade.
4. Estudo jurídico das contribuições
É limitante analisar as contribuições à Consulta sob a ótica de todo o arcabouço regulatório existente. Entretanto a classificação destas contribuições levou em consideração os aspectos mais relevantes e de maior repercussão.
4.1. Análise da responsabilidade civil no contexto da regulação de plataformas
As contribuições relacionadas à responsabilidade civil das plataformas digitais podem ser analisadas à luz do Código Civil e do Código de Defesa do Consumidor. A responsabilização por danos causados por conteúdos de terceiros, por exemplo, é um tema complexo, envolvendo a ponderação entre a liberdade de expressão e o direito à indenização. Entre os riscos destacados estão:
4.1.1. Riscos destacados
As contribuições recebidas pelo CGI.br na consulta pública sobre regulação de plataformas digitais destacaram uma variedade de riscos decorrentes das atividades dessas plataformas. Um dos principais focos foi nos riscos de natureza econômica e concorrencial, incluindo a concentração de mercado e de dadosiii, o abuso de poder econômico, a inibição de modelos alternativos para a economia digital e seus impactos negativos na inovação, além de preocupações com a concentração na oferta de publicidade e a ausência de um modelo de tributação adequado. Adicionalmente, foram apontados riscos relacionados à soberania digital e ao desenvolvimento tecnológico, incluindo ameaças à infraestrutura crítica e questões ligadas ao fluxo transfronteiriço de dados.
Outro conjunto significativo de riscos identificados nas contribuições se refere a questões sociais e de direitos. Isso engloba a precarização das condições de trabalho, os desafios associados às infodemias, como a disseminação de desinformação e discurso de ódio, e os impactos na privacidade e proteção de dados pessoais devido ao uso indevido e à falta de transparência. Foram também mencionados riscos a processos eleitorais e à participação política, impactos negativos sobre o jornalismo, e a identificação de outros riscos como discriminação e exclusão, falta de interoperabilidade e portabilidade de dados, e a necessidade de maior transparência algorítmica e nos critérios de moderação de conteúdo.
4.1.1.1. Soberania nacional
4.1.1.2 Privacidade e proteção de dados
Há desafios relacionados ao uso indiscriminado de dados pessoais, conforme identificado pela LGPD e decisões judiciais relacionadas ao tema. Outro risco identificado é o tratamento inadequado de dados pessoais, potencializado pelo volume de informações sensíveis processadas pelas plataformas. A LGPD (Lei n.º 13.709/2018) estabelece diretrizes importantes, mas as contribuições sugerem que medidas adicionais, como a obrigatoriedade de transparência em algoritmos e maior fiscalização pela ANPD, são necessárias para mitigar riscos de violações de privacidade e abusos em publicidade direcionada.
4.1.1.3. Desinformação e discursos de ódio
Propostas sugerem que a regulação deve abordar essas práticas, mas respeitando o regime de responsabilidade previsto no Marco Civil da Internet. A disseminação de desinformação e discursos de ódio é outro ponto crítico. O Marco Civil da Internet prevê responsabilidades limitadas para as plataformas, protegendo-as de censura prévia. Contudo, a consulta pública destacou a necessidade de maior responsabilização das plataformas na moderação de conteúdo, desde que respeitem o direito constitucional à liberdade de expressão.
Responsabilidade solidária - No campo das obrigações civis, o Art. 19 do Marco Civil da Internet (Lei n.º 12.965/2014) estabelece que as plataformas digitais só podem ser responsabilizadas civilmente por conteúdo de terceiros, caso, após ordem judicial específica, não tomem as providências necessárias para remover tal conteúdo. Esse dispositivo foi reafirmado pela jurisprudência do Superior Tribunal de Justiça (STJ) no REsp 1.937.821-SP, que limitou a responsabilidade das plataformas em respeito à liberdade de expressão.
4.1.1.4 Transparência e proteção ao direito do consumidor
Adicionalmente, o Código de Defesa do Consumidor (CDC), Lei n.º 8.078/1990, aplica-se às relações entre usuários e plataformas. Os Arts. 6º e 14 tratam do dever de transparência e da responsabilidade pelo fornecimento de serviços, sendo aplicáveis às práticas de algoritmos de recomendação e curadoria de conteúdo.
A regulação de plataformas digitais deve estar em consonância com os princípios constitucionais, como a liberdade de expressão, a livre iniciativa e o direito à privacidade. A necessidade de garantir o devido processo legal e a ampla defesa também é fundamental. Esta regulamentação deve ser analisada sob o prisma do Direito Civil, Constitucional e Penal, considerando as interações entre os direitos fundamentais e os princípios econômicos. Os desafios incluem a proteção da liberdade de expressão, privacidade, concorrência e o combate a práticas abusivas, como a desinformação e o abuso de poder econômico.
4.2. Direito Constitucional
A regulamentação também deve abordar as ameaças à democracia e aos direitos humanos, como a disseminação de desinformação, extremismo e discurso de ódio. É fundamental garantir a transparência nas práticas de moderação de conteúdo, priorização, direcionamento e impulsionamento de conteúdo, além de proteger os direitos dos trabalhadores em plataformas digitais. A participação da sociedade civil na definição de critérios de remoção de conteúdo é essencial para evitar censura e garantir a liberdade de expressão.
O constitucionalismo digital, como argumenta Celeste, busca estabelecer e garantir um quadro normativo para a proteção dos direitos fundamentais e o equilíbrio de poderes no ambiente digital. Nesse contexto, a disseminação de desinformação e discurso de ódio são apontados como ameaças à democracia e aos direitos humanos que a regulamentação deve abordar. A peculiaridade do ambiente digital, com a ascensão de atores privados ao lado dos Estados-Nação como potenciais infratores de direitos fundamentais, exige que o conceito de constitucionalismo se desvincule da dimensão puramente estatal para avaliar plenamente o surgimento desses poderes e seus impactos. Portanto, reforça a necessidade de analisar e definir conceitos como desinformação e discurso de ódio dentro de um arcabouço constitucional aplicado ao ambiente digital, buscando limitar o poder tanto de atores públicos quanto privados que possam afetar a proteção desses direitos.
4.2.1. Assegurar direitos
Embora o foco principal de Celeste não seja o direito concorrencial, sua análise sobre o equilíbrio de poderes no ambiente digital tangencia a questão da concentração de mercado e do abuso de poder econômico. Celeste reconhece que o constitucionalismo digital visa limitar o poder de diferentes atores. Nesse sentido, a preocupação constitucional com a livre concorrência (Art. 170 da CF) pode ser vista como um dos pilares para garantir esse equilíbrio de poderes no ambiente digital, evitando que plataformas dominantes restrinjam a inovação e prejudiquem os direitos dos usuários e outros agentes econômicos. Ao ampliar a lente do constitucionalismo para além do Estado e para os poderes privados no digital, oferece um embasamento teórico para se pensar a aplicação de princípios constitucionais como o da livre concorrência nesse novo contexto.
A remoção obrigatória de conteúdo por simples notificação, sem a devida análise judicial, em casos que não se enquadrem nas exceções já previstas no Marco Civil da Internet, pode ser considerada uma restrição desproporcional à liberdade de expressão, configurando censura prévia.
4.2.2. Garantir o equilíbrio entre liberdade de expressão e responsabilidade social
A liberdade de expressão, consagrada no Art. 5º, IV e IX, da Constituição Federal de 1988 (CF/88), é um direito fundamental que precisa ser garantido em qualquer regulação de plataformas digitais. Decisões do Supremo Tribunal Federal (STF), como a ADPF 130, que declarou a Lei de Imprensa não recepcionada pela Constituição, reforçam que restrições à liberdade de expressão devem ser excepcionais e pautadas pelo princípio da proporcionalidade. Contudo, o STF também reconheceu, em casos como o julgamento da ADC 51, que a liberdade de expressão não é absoluta, devendo ser harmonizada com outros direitos, como a dignidade da pessoa humana e a privacidade.
4.2.3. Garantir a privacidade de dados dos usuários
Além disso, a soberania nacional e o direito à privacidade são assegurados pelos Art. 1º, I, e Art. 5º, X e XII, da CF/88. A coleta e o uso de dados pessoais pelas plataformas devem observar a Lei Geral de Proteção de Dados Pessoais (LGPD), Lei n.º 13.709/2018, garantindo que práticas invasivas ou desproporcionais sejam coibidas.
4.3. Direito Penal
As plataformas digitais podem ser utilizadas para a prática de crimes, como a difamação, a injúria, a ameaça e a incitação ao crime. A legislação penal brasileira já prevê punições para esses crimes, mas a aplicação da lei no ambiente digital apresenta desafios específicos.
A arquitetura das plataformas digitais pode tanto permitir quanto limitar certas atividades, funcionando como uma forma de regulação” (Lessig, 1999, p. 297).
O autor argumenta que a ausência de fronteiras físicas, a jurisdição tradicional torna-se complexa é, muitas vezes, ineficaz para lidar com os crimes digitais. Há também que se considerar a multiplicidade de pontos de presença das plataformas digitais com servidores em diversos pontos geográficos pelo planeta e o espaço aéreo. (CARVALHO & SANTOS FILHO, 2024)
4.3.1. Promover a prevenção de crimes e a proteção dos bens jurídicos relevantes dos consumidores e empresas.
As plataformas digitais podem ser utilizadas para a prática de crimes, como a difamação, a injúria, a ameaça e a incitação ao crime. A legislação penal brasileira já prevê punições para esses crimes, mas a aplicação da lei no ambiente digital apresenta desafios específicos
4.3.2. Prever sanções específicas para infrações relacionadas a dados e privacidade.
Discursos de ódio e desinformação podem ser enquadrados como crimes previstos no Código Penal - Discursos de ódio, desinformação e práticas que atentem contra a ordem econômica ou social podem ser tipificados no Código Penal Brasileiro. A disseminação de notícias falsas que causem pânico ou prejuízo pode ser enquadrada no Art. 286 (incitação ao crime) e no Art. 340 (comunicação falsa de crime). O combate a esses crimes deve respeitar os parâmetros da liberdade de expressão, evitando censura prévia, como destacado na ADPF 130.
4.3.3 A concentração de mercado e o abuso de poder econômico
Representam riscos importantes. As grandes plataformas detêm vantagens competitivas devido a economias de escala, efeitos de rede e acesso a grandes quantidades de dados, o que pode prejudicar a concorrência e a inovação. Medidas de mitigação incluem a definição de regras de interoperabilidade de dados, a proibição do autopreferenciamento e a obrigação de compartilhamento de dados com concorrentes. Adicionalmente, a revisão de critérios para análise de atos de concentração, considerando o número de usuários e faturamento global, é crucial.
4.3.4. A proteção de crianças e adolescentes
A aplicação do Estatuto da Criança e do Adolescente - ECA no ambiente digital é outro ponto crucial. As plataformas devem adotar medidas para garantir a segurança e o bem-estar dos menores, incluindo a implementação de termos de uso e políticas de privacidade em linguagem acessível e a oferta de mecanismos de controle parental. É importante nomear e especificar com clareza os temas que impactam esse público, considerando os efeitos do uso excessivo de mídias digitais.
4.3.5. Crimes contra a honra (Art. 138-140, Código Penal - CP)
A prática de calúnia, difamação e injúria em plataformas digitais é recorrente. A jurisprudência brasileira reconhece que essas condutas se agravam pela disseminação em massa e permanência do conteúdo na Internet, conforme o STJ (REsp 1.959.973-RJ).
4.3.6. Desinformação e incitação ao crime (Art. 286, CP)
A disseminação de notícias falsas (fake news) e discursos de ódio pode ser enquadrada como incitação ao crime ou apologia a fatos criminosos. O STF, na ADPF 572, enfatizou a necessidade de equilibrar liberdade de expressão e combate a conteúdos que ameacem a ordem democrática.
4.3.7. Crimes cibernéticos (Lei 12.737/2012 - Lei Carolina Dieckmann)
Invasão de dispositivos informáticos para obter, adulterar ou destruir dados é tipificado no Art. 154-A do CP. Jurisprudências como o HC 598.051-SP (STJ) destacam a necessidade de punição proporcional a esses atos, comuns em plataformas digitais.
Golpes via Internet, através de links sediados em servidores em território nacional ou estrangeiro aplicados em idosos, crianças e adolescentes.
4.3.8. Abuso econômico (Lei 12.529/2011)
Práticas como o monopólio e a exploração abusiva de consumidores podem configurar crimes contra a ordem econômica, sendo fiscalizados pelo CADE, que atua em parceria com a Autoridade Nacional de Proteção de Dados (ANPD).
A regulação deve prever sanções penais proporcionais, aliadas a mecanismos de prevenção e cooperação entre plataformas e autoridades. A jurisprudência reforça que a aplicação da lei deve proteger tanto os direitos fundamentais quanto a ordem pública.
5. Classificação das contribuições
A metodologia utilizada para classificação considerou todas as 1.336 contribuições à Consulta Pública sobre Regulação de Plataformas Digitais que esteve aberta ao público de 25 de abril a 16 de julho de 2023. publicou um relatório de sistematização dos resultados da consulta sobre regulação de plataformas digitais. Este relatório foi produzido com o objetivo de apresentar os resultados do processo de consulta de uma forma mais acessível e sintética. A intenção principal era permitir que o público conhecesse e compreendesse as diferentes perspectivas existentes, os consensos e os dissensos sobre os diversos temas tratados na consulta. Além disso, o relatório visa apontar os pontos que merecem ser aprofundados em discussões futuras, bem como as eventuais particularidades e nuances nas abordagens dos participantes.
O relatório de sistematização do CGI.br buscou organizar os elementos-chave para o desenho de uma regulação de plataformas digitais. Isso incluiu potenciais definições e classificações de plataformas, os riscos e desafios apresentados por suas atividades, as medidas capazes de mitigá-los, e os atores e arranjos institucionais necessários para implementar uma futura regulação. Ao fazer isso, o CGI.br esperava contribuir para o avanço das discussões em curso no país sobre a regulação das plataformas, considerando as diferentes visões dos diversos setores da sociedade e a discussão global sobre o tema.
Para garantir a fidelidade às ideias dos participantes, o relatório transcreveu trechos diretos das contribuições. A organização das questões abordadas nas contribuições buscou a melhor agregação temática, visando estimular a compreensão estrutural dos tópicos e a organização das questões-chave para futuras discussões sobre a definição e qualificação das plataformas digitais. Em suma, o relatório oferece um mapa de consensos e dissensos entre os setores privado, terceiro setor, comunidade científica e tecnológica e setor governamental, favorecendo a construção de acordos multissetoriais.
Estas contribuições, disponibilizadas publicamente pelo CGI.br, constituem a principal fonte empírica para a identificação das diversas perspectivas e argumentos explorados ao longo deste artigo. A metodologia adotada buscou identificar os principais pontos de convergência e divergência entre os participantes, em linha com a sistematização realizada pelo próprio CGI.br, a fim de aprofundar o debate sobre a regulação de plataformas digitais no Brasil, incluindo discussões legislativas no Congresso Nacional, e visava obter uma ampla escuta dos diversos setores sociais. As contribuições coletadas foram organizadas em três eixos principais para análise.
Entre os contribuintes participantes encontram-se atores de diversos setores incluindo os quatro que compõem o CGI.br e através do relatório de sistematização detalhou a quantidade de contribuições por setor:
• Terceiro Setor: 549 contribuições (41%)
• Comunidade Científica e Tecnológica: 526 contribuições (39,5%)
• Setor Empresarial: 203 contribuições (15%)
• Setor Governamental: 58 contribuições (4,5%)
É evidente os diversos tipos de transgressões no ambiente digital e as dificuldades inerentes à aplicação e fiscalização das leis existentes, fornece um contexto para categorizar as propostas de regulação.
Para a classificação das propostas dos contribuintes da Consulta, uma planilha foi criada contento todas as (n) contribuições. A partir desta massa de dados as palavras chaves relacionadas ao Direito e ao ordenamento jurídico foram contabilizadas nas consultas. Através de mecanismos de machine learning, técnicas LLM (Large Language Model), e a utilização de inteligência generativa para sistematizar as contribuições, esta pesquisa classificou-as conforme descrito será nos próximos itens, considerando as entre: inconstitucionais, necessárias e perfeitamente viáveis.
Quanto aos objetivos este estudo enquadra-se como uma pesquisa descritiva e explicativa. É descritiva porque seu objetivo central é explorar as contribuições da consulta. Ao fazer isso, este artigo busca mapear e apresentar as diferentes perspectivas dos diversos setores da sociedade brasileira sobre o tema. A própria estrutura do artigo, dividida pelos três eixos da consulta, reflete essa intenção de descrever o conteúdo das contribuições. É também explicativa porque o artigo não se limita a descrever as contribuições, mas também visa analisar a viabilidade jurídica das propostas apresentadas, categorizando-as como inconstitucionais, necessárias ou perfeitamente viáveis. Ao fazer essa categorização e propor diretrizes, o artigo busca explicar os desafios e oportunidades da regulação, oferecendo uma visão crítica sobre o tema. Este trabalho observará a viabilidade jurídica das propostas à luz do Direito Civil, Constitucional e Penal também reforça o caráter explicativo da análise. Embora o artigo se baseie em dados de uma consulta pública, o que poderia ter um componente exploratório na fase inicial da consulta em si, o foco principal do artigo parece ser a descrição e análise das contribuições já coletadas para, então, explicar suas implicações e possíveis caminhos para a regulação.
No que tange aos diversos procedimentos metodológicos, conforme apresentados na Sistematização realizada pelo CGI.br, este artigo segue por quatro linhas:
Documental: O artigo foi elaborado com base nas contribuições públicas coletadas pelo CGI.br, que constituem documentos primários de uma consulta pública. Além disso, apoia-se na legislação brasileira, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD), no Decreto n.º 10.411/2020, e faz referência inclusive ao Projeto de Lei (PL) n. 2.630 (Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet).
Jurisprudencial: O estudo se apoia na jurisprudência brasileira, incluindo decisões do Supremo Tribunal Federal e Superior Tribunal de Justiça, com o objetivo de analisar a viabilidade jurídica das propostas. A jurisprudência reforça a necessidade de proteger tanto os direitos fundamentais quanto a ordem pública na aplicação da lei.
Bibliográfica: O artigo se baseia em estudos e em uma revisão das melhores práticas internacionais, como o Digital Markets Act (DMA) da União Europeia. A ampliação da bibliografia é inclusive uma sugestão de um dos pareceristas. O relatório de sistematização do CGI.br menciona a utilização de conceitos específicos existentes na literatura para apoiar a organização e análise das contribuições.
De levantamento (Análise de Dados Primários): foi elaborado com base nas contribuições públicas coletadas pelo CGI.br. A análise dessas contribuições é central para o objetivo do artigo de avaliar a viabilidade jurídica das propostas e propor diretrizes. O relatório de sistematização detalha como essas contribuições foram recebidas e analisadas. A classificação das contribuições em diferentes categorias também indica um processo de análise e categorização de dados primários.
Desta forma, o presente trabalho utiliza uma abordagem metodológica que combina a análise documental (legislação e contribuições da consulta pública), jurisprudencial (decisões dos tribunais), bibliográfica (estudos e melhores práticas internacionais), e de levantamento (análise das contribuições da consulta pública como dados primários).
5.1. Critérios para classificação: faturamento, usuários e a busca por um equilíbrio Regulatório
A definição de critérios claros e objetivos para classificar as plataformas digitais é essencial para a implementação de uma regulamentação assimétrica. O valor de mercado ou faturamento, frequentemente utilizado como indicador de poder econômico, é um critério relevante, mas deve ser considerado em conjunto com outros fatores. A dinâmica dos mercados digitais, marcada por flutuações rápidas e estratégias de crescimento agressivas, torna o faturamento, isoladamente, um indicador insuficiente.
O número de usuários, por outro lado, apresenta-se como um critério mais robusto para avaliar o impacto de uma plataforma e a necessidade de regulamentação. Uma plataforma com muitos usuários brasileiros tem maior potencial de influenciar o debate público, moldar comportamentos e impactar a economia. Além disso, a quantidade de usuários pode servir como um indicador da capacidade da plataforma de arcar com os custos da regulamentação.
A busca por um equilíbrio regulatório exige, portanto, a combinação de diferentes critérios, como faturamento, número de usuários e tipo de serviço oferecido. Essa abordagem multifacetada permite a criação de categorias de plataformas com níveis de regulamentação diferenciados, proporcionais aos seus impactos e capacidades.
A classificação dos critérios não é um compilado pessoal do autor, mas sim elementos centrais que emergiram das discussões e contribuições da consulta pública conduzida pelo CGI.br em 2023 sobre a regulação de plataformas digitais. O "Artigo.pdf" explora essas contribuições, utilizando esses critérios como parte do primeiro eixo de análise: "Quem regular? Definição e classificação das plataformas digitais".
Esses critérios foram apresentados e debatidos no âmbito da consulta pública do CGI.br, como demonstrado na Sistematização apresentada. Por exemplo:
A participação de mercado (market share) foi um dos critérios sobre os quais os participantes comentaram e definiram, sendo considerado por muitos como um indicador fundamental para classificar plataformas digitais. Contudo, houve ressalvas sobre a complexidade de sua aplicação no contexto digital.
O valor de mercado ou faturamento também foi amplamente discutido como critério relevante para identificar plataformas com poder significativo. No entanto, alguns participantes apontaram suas limitações e a necessidade de combiná-lo com outros critérios.
A quantidade de usuários e de clientes (empresariais ou não) foi mencionada como um critério importante para avaliar o alcance e o impacto de uma plataforma.
O controle essencial de acesso (gatekeeper) é um conceito que surgiu como central para a regulação assimétrica, sendo considerado por muitos como um indicador fundamental para classificar plataformas.
Os tipos de serviços oferecidos pelas plataformas foram igualmente apontados como um critério crucial, dada a diversidade de serviços e os diferentes riscos e desafios regulatórios associados a cada tipo.
O relatório de sistematização produzido pelo CGI.br, referenciado como (CGI.BR, 2023), organizou as contribuições da consulta pública em torno de elementos-chave, incluindo potenciais definições e classificações de plataformas, utilizando esses e outros critérios como base para identificar atores que oferecem maior risco à sociedade e seriam o alvo principal da regulação.
Portanto, essa classificação não é um produto final e formalmente definido pelo CGI.br como um modelo regulatório fechado, mas sim um reflexo dos principais pontos levantados, discutidos e propostos pelos diversos setores da sociedade durante a consulta pública. O CGI.br, através da consulta e do relatório de sistematização, buscou organizar e apresentar as diferentes perspectivas sobre esses critérios para informar futuras discussões e o possível desenho de uma regulação. A agenda do CGI.br envolveu a coleta e análise dessas contribuições como um passo fundamental para a compreensão das necessidades e desafios da regulação de plataformas digitais no Brasil.
A partir da análise do material da consulta pública, as contribuições foram classificadas em três categorias:
5.1.1. Contribuições inviáveis
São aquelas propostas incompatíveis com o Ordenamento Jurídico Brasileiro que contrariam princípios fundamentais da Constituição Federal de 1988, como a liberdade de expressão, a livre iniciativa, a privacidade e a proporcionalidade. Um exemplo é a proposta de responsabilização direta das plataformas por todos os conteúdos gerados por terceiros, o que violaria o regime de responsabilidade intermediária previsto no Art. 19 do Marco Civil da Internet.
As contribuições consideradas inconstitucionais na consulta pública sobre regulação de plataformas digitais são aquelas que contrariam princípios fundamentais da Constituição Federal de 1988. Destaca-se como exemplo a proposta de responsabilização direta das plataformas por todos os conteúdos gerados por terceiros, o que violaria o regime de responsabilidade intermediária previsto no Art. 19 do Marco Civil da Internet. Outro exemplo de contribuição inconstitucional seria a criação de filtros prévios para conteúdo, que poderia violar a liberdade de expressão, garantida no Art. 5º da Constituição Federali.
Esta pesquisa não detalha contribuições específicas nomeadas como inviáveis, mas categoriza algumas propostas como demandando legislações complementares regulatórias para serem implementadas. Embora não sejam inconstitucionais, essas propostas podem ser consideradas inviáveis no contexto do ordenamento jurídico atual sem a criação de novas leis ou regulamentações. Adicionalmente, algumas contribuições apontam para a insuficiência da legislação concorrencial transetorial existente para remediar certas preocupaçõesii. O IBRAC (Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional) argumenta que qualquer solução regulatória deve ser precedida de um estudo detalhado que justifique a insuficiência da legislação concorrencial atual.
A análise das contribuições revela uma preocupação com propostas que poderiam gerar sobrecarga regulatória ou desestímulos à inovação por parte dos agentes econômicosiii. A vedação geral e ex-ante de iniciativas empresariais como a verticalização, por exemplo, é apontada pelo IBRAC como potencialmente prejudicial ao bem-estar do consumidor, a menos que robustos estudos e evidências demonstrem consequências positivasiv. Da mesma forma, algumas entidades como a Câmara.e-net e a ALAI (Associação Latino-Americana de Internet) reiteram que a atual legislação já permite a aplicação rigorosa contra certas preocupações, questionando a necessidade de novas regulações em certos âmbitos.
5.1.2. Contribuições necessárias
Estabelecer indicadores para medir e mitigar riscos específicos, como impactos à privacidade e abusos econômicos.
Desenvolver critérios específicos para incluir plataformas com menor participação de mercado, mas com potencial de gerar impactos significativos.
Propostas que demandam legislações complementares regulatórias. Essa categoria inclui propostas que, embora não sejam incompatíveis com o ordenamento jurídico atual, exigem a criação de novas leis ou regulamentações para serem implementadas. Exemplos incluem a criação de regras específicas para transparência em algoritmos e a ampliação das competências da ANPD para supervisionar práticas de monetização de dados.
Regras específicas para transparência em algoritmos alterando normas vigentes ou exigindo ser necessária a criação de nova lei.
Criação de um arcabouço regulatório específico para plataformas digitais, definindo obrigações de transparência, mecanismos de combate à desinformação e medidas de proteção aos trabalhadores.
Estabelecimento de regras claras para a responsabilização civil das plataformas por danos causados por conteúdos de terceiros, equilibrando a liberdade de expressão com o direito à indenização.
A criação de um fundo de apoio ao jornalismo, financiado pelas plataformas digitais, demandaria a criação de uma nova lei que estabelecesse os critérios para a arrecadação e gestão dos recursos, bem como os parâmetros para a distribuição aos veículos de comunicação.
5.1.3. Contribuições perfeitamente viáveis
Adotar um modelo similar ao Digital Markets Act europeu, com adaptações ao contexto brasileiro. Estas propostas são compatíveis com o ordenamento jurídico atual, como o fortalecimento da governança multissetoriali por meio do CGI.br. Estas propostas podem ser implementadas a curto ou médio prazo, utilizando o arcabouço jurídico existente. Exemplos incluem o fortalecimento da governança multissetorialii por meio do CGI.br e a promoção de mecanismos de autorregulação e corregulação baseados em boas práticas internacionais.
- Fortalecimento da LGPD, com a criação de mecanismos de fiscalização e a aplicação de sanções em caso de violações.
- Implementação de medidas de autorregulação regulada, com a participação de diferentes atores, para a criação de códigos de conduta e melhores práticas.
- Criação de um conselho multissetorialiii para acompanhar a implementação da regulação e promover o diálogo entre governo, empresas e sociedade civil.
- Implementar mecanismos de co-regulação e aprimorar os já previstos no Marco Civil da Internet.
A exigência de relatórios de transparência sobre a moderação de conteúdo, detalhando os critérios utilizados para a remoção ou sinalização de conteúdo, é uma medida viável, que pode ser implementada por meio de regulamentação infralegal.
Propostas que desconsiderem os desafios de fiscalização e aplicação das leis no ambiente digital, poderiam ser consideradas inviáveis na prática, mesmo que constitucionalmente válidas (CARVALHO & SANTOS FILHO, 2024).
5.2 Análise de impacto regulatório
A adoção de análises de impacto regulatório (AIR), previstas no Decreto n.º 10.411/2020, é fundamental para garantir que qualquer intervenção do Estado seja baseada em dados concretos e na necessidade de mitigar riscos identificados. A AIR permite que a regulação das plataformas digitais seja medida, proporcional e adaptada às características do mercado, evitando a imposição de regras excessivas que possam prejudicar a inovação e a competitividade. A regulação deve ser projetada com a flexibilidade necessária para se ajustar às rápidas mudanças no ecossistema digital.
Quanto à definição do órgão regulador, as posições divergem entre o aproveitamento de instituições já existentes, como o Conselho Administrativo de Defesa Econômica (CADE) e a Secretaria Nacional do Consumidor (Senacon), e a criação de uma nova agência reguladora. Alguns defendem que o CADE e a Senacon já possuem as ferramentas necessárias para atuar na regulação de plataformas digitais. Nesse sentido, a Lei nº 12.529/2011, que estrutura o Sistema Brasileiro de Defesa da Concorrência (SBDC), já se orienta pela repressão ao abuso do poder econômico, um dos riscos associados à atuação de grandes plataformas. O Decreto nº 8.771/2016, que regulamenta o Marco Civil da Internet (Lei nº 12.965/2014), reforça o papel do SBDC na "apuração de infrações à ordem econômica" no contexto da regulação da rede. Além disso, a Senacon tem um papel importante a desempenhar na apuração de violações aos direitos dos consumidores nas relações com plataformas digitais. A Câmara.e-net defende que a legislação concorrencial não deve "tentar remediar outras áreas de política pública", sugerindo que as questões de concorrência relacionadas a plataformas podem ser tratadas pelas estruturas existentes. O Instituto Nupef também defende um sistema de regulação baseado em órgãos existentes, destacando que há estruturas regulatórias estabelecidas que deveriam aplicar leis em vigor às plataformas digitais.
Por outro lado, diversas contribuições à consulta pública sobre a regulação de plataformas digitais defendem a criação de uma nova agência reguladora. Essa necessidade surge da percepção de que a regulação de plataformas digitais não se encaixa exclusivamente na competência de nenhuma das autoridades regulatórias já instituídas no país. A Ordem dos Advogados do Brasil (OAB) sugeriu a construção de um "Sistema Brasileiro de Regulação de Plataformas Digitais tripartite" com um órgão independente encarregado de supervisionar o cumprimento das normas. O Projeto de Lei (PL) nº 2.630/2020, em tramitação no Congresso Nacional, chegou a prever a instituição de um "Conselho de Transparência e Responsabilidade na Internet". A ABRANET entende que uma nova autoridade multissetorial é necessária para fiscalizar a aplicação de diretrizes legalmente estabelecidas e o cumprimento de compromissos de autorregulação. A Coalizão Direitos na Rede (CDR) também defende uma nova agência de supervisão autônoma apoiada por um conselho participativo e multissetorial. A proposta da OAB evidencia a necessidade de uma nova autoridade regulatória para monitorar a atuação das plataformas digitais e a incapacidade de que uma única perspectiva informe sua atuação, propugnando pela multissetorialidade. Entidades como CDR, Idec, IRIS e IP.rec defendem uma autoridade reguladora independente que centralize a aplicação e a interpretação das normas, com funções de normatização, fiscalização e sancionamento.
Conclusão
A ascensão meteórica das plataformas digitais revolucionou a maneira como interagimos, consumimos informação, fazemos negócios e participamos da vida social. Essas plataformas, que abrangem uma miríade de serviços online, desde redes sociais e comércio eletrônico até plataformas de notícias, mecanismos de busca e aplicativos de mensagens, tornaram-se onipresentes, moldando o tecido da sociedade contemporânea. No entanto, essa ubiquidade também trouxe consigo uma série de desafios complexos que exigem uma análise cuidadosa e uma resposta regulatória robusta.
Embora a análise presente tenha se concentrado na identificação e organização das contribuições à consulta pública do CGI.br à luz da legislação existente e das discussões conceituais, reconhece-se o potencial enriquecedor de uma análise aprofundada da problemática sob a ótica do Direito e das Políticas Públicas (DPP). Essa abordagem poderia explorar de forma mais detida a formulação, implementação e avaliação de políticas regulatórias para o ambiente digital, considerando os objetivos sociais, econômicos e políticos envolvidos. Contudo, essa análise mais abrangente demandaria um escopo de investigação mais amplo e tempo adicional para sua devida realização.
Torna-se imperativo explicitar a compreensão de governança no contexto da regulação do universo digital, um termo cada vez mais central nos debates contemporâneos. Para além de sua acepção geral, no âmbito digital, a governança manifesta-se como um processo dinâmico e multissetorial. Dela emergem diversos atores, incluindo o governo, com a função de estabelecer marcos legais e regulatórios; a sociedade civil, representando os interesses dos usuários e promovendo a defesa de direitos; o setor privado, responsável pelo desenvolvimento e operação das plataformas e infraestruturas digitais; e a comunidade acadêmica e técnica, contribuindo com expertise e conhecimento para informar as decisões. O propósito fundamental dessa governança é assegurar um ambiente digital que promova a proteção de direitos fundamentais, o equilíbrio de poderes e o desenvolvimento ético e responsável da tecnologia.
Nesse sentido, a experiência brasileira de governança da Internet, centrada no modelo multissetorial do CGI.br, oferece um importante referencial. Conforme apontado nas contribuições à consulta pública, a regulação das plataformas digitais deve ser orientada pelo princípio da governança democrática e colaborativa da Internet, tendo o multissetorialismo como referência incontornável. Compete ao CGI.br elaborar diretrizes, estudos e recomendações para a governança das plataformas, assim como o faz para a Internet, operando como espaço dialógico e de participação social. As atribuições primárias associadas ao CGI.br seriam, portanto, as de prover diretrizes e recomendações, configurando um poder normativo e regulamentador, com o objetivo de orientar a atuação dos diversos atores e instâncias envolvidas na regulação do ambiente digital brasileiro.
A regulação de plataformas digitais no Brasil é uma tarefa que exige equilíbrio entre controle e liberdade, segurança e inovação. A análise das contribuições coletadas pela consulta pública do CGI.br revela um consenso sobre a necessidade de um modelo regulatório dinâmico, multissetorial e proporcional, que seja capaz de enfrentar os desafios do ambiente digital sem sufocar sua evolução. Deve ainda combinar flexibilidade e eficácia, ser transparente e orientada pela proporcionalidade, respeitando os marcos jurídicos existentes e promovendo a inovação.
A regulação de plataformas digitais é um desafio complexo, que exige um debate amplo, democrático e multissetorial. As contribuições da consulta pública do CGI.br demonstram a pluralidade de visões e a necessidade de encontrar soluções equilibradas, que protejam os direitos fundamentais sem sufocar a inovação.
O modelo de co-regulação, que combina a supervisão estatal com a autorregulação, é essencial para garantir a proteção dos direitos dos usuários e a manutenção da livre concorrência. A base jurídica para essa regulação está nas normas já existentes, como o Marco Civil da Internet, a LGPD e as decisões do STF e STJ, que oferecem um guia para a criação de um ambiente regulatório equilibrado e eficaz. As contribuições ao CGI.br revelam um consenso sobre a necessidade de regulação setorial e assimétrica, mas também indicam desafios em garantir a liberdade de expressão e a proporcionalidade das medidas. Este artigo propõe que o Brasil adote um modelo regulatório inspirado nas melhores práticas internacionais, adaptado ao seu contexto jurídico e social.
A aplicação do Direito Brasileiro, em especial do Marco Civil da Internet, da LGPD e da Constituição Federal, oferece uma base sólida para a formulação dessas normas. Contudo, é essencial que o debate regulatório seja contínuo e inclua todos os setores da sociedade, garantindo que as normas reflitam não apenas as necessidades do presente, mas também os desafios do futuro.
O Brasil tem a oportunidade de liderar esse debate, construindo um arcabouço regulatório que sirva de modelo para o mundo, promovendo um ambiente digital mais justo, transparente e democrático.
Nota do Autor
O autor agradece ao CGI.br e aos participantes da consulta pública pela disponibilização de dados relevantes. Este artigo foi elaborado com base nas contribuições públicas coletadas pelo CGI.br, na legislação brasileira e em estudos comparativos sobre regulação digital. Este não reflete a posição oficial de nenhuma instituição, entretanto objetiva humildemente contribuir para um debate equilibrado e construtivo, oferecendo uma análise imparcial para o avanço do debate sobre a regulação de plataformas digitais no Brasil.
Referências
Araujo, Flávia Lefèvre Guimarães. Regulação Assimétrica de Plataformas Digitais e Proteção do Consumidor. Revista de Direito do Consumidor, 2022.
Barata, Joan. "Regulating Online Platforms Beyond the Marco Civil in Brazil : The Controversial "Fake News Bill". Tech Policy Press. 23.05.2023. Disponível em: https://www.techpolicy.press/regulating-online-platforms-beyond-the-mar…
Black, Julia. Risk-based Regulation: Choices, Practices and Lessons Learned. In: Risk and Regulatory Policy: Improving the Governance of Risk. Paris: OECD Publishing, 2010. p. 185–224. Disponível em: https://www.oecd‑ilibrary.org/content/publication/9789264082939-en.
Brasil. Câmara dos Deputados. PL 2630/2020 (Lei das Fake News). Brasília, 2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao…
Brasil. Código de Defesa do Consumidor – CDC. Lei nº 8.078/1990. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8078compilado.htm
Brasil. Código de Processo Civil – CPC. Lei n.º 13.105/2015. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/l13105.htm
Brasil. Códigos Civil – CC. (Lei n.º 10.406/2002. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm
Brasil. Conselho Administrativo de Defesa Econômica – Cade; Procedimento Preparatório nº 08700.003089/2023-85. – Google/Meta/Telegram. Brasília: 2023. Disponível em: https://sei.cade.gov.br/sei/modulos/pesquisa/md_pesq_processo_exibir.ph…
Brasil. Conselho Administrativo de Defesa Econômica – Cade. Ato de Concentração nº 08700.004862/2016-60 – Microsoft/LinkedIn. Brasília: 2016. Disponível em: https://www.gov.br/conecta/catalogo/apis/consultar-ato-de-concentracao.
Brasil. Constituição da República Federativa do Brasil de 1988. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicaocompilad…
Brasil. Estatuto da Criança e do Adolescente – ECA. Lei n.º 8.069/1990. Dispõe sobre a proteção integral à criança e ao adolescente. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8069.htm
Brasil. Lei Geral de Proteção de Dados Pessoais – LGPD, cria a Agência Nacional de Proteção de Dados. Lei n.º 13.709/2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709comp…
Brasil. Lei Temas de Repercussão Geral – Rep. Geral Lei n.º 11.418/2006.
Brasil. Marco Civil da Internet – MCI. Lei n.º 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm.
Brasil. Sistema Brasileiro de Defesa da Concorrência – SBDC; Conselho Administrativo de Defesa Econômica – Cade. (Lei n.º 12.529/2011)
Brasil. Sistema Nacional de Defesa do Consumidor – Senacon. Decreto nº 2.181, de 20 de março de 1997. Dispõe sobre a organização do Sistema Nacional de Defesa do Consumidor. Alterado pelo Decreto nº 10.887, de 16 de dezembro de 2021. Disponível em: https://www.planalto.gov.br/ccivil_03/decreto/d2181.htm
Brasil. Supremo Tribunal Federal – STF ADI 6334, Ação Dir. de Inconst. c/ Lim. Rel. Min. Cristiano Zanin, Manif. PGR 17.10.2024; Recte. (s) Associação Brasileira de Produtores Independentes de Televisão - ABPI-TV. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5877662
Brasil. Supremo Tribunal Federal – STF RE 1037396, Rep. Geral Tema: 987. Leading case. Rel. Min. Dias Toffoli, Tribunal Pleno. d. j. 11.06.2025; Recte. (s) Facebook Serviços Online do Brasil LTDA. Disponível em: https://portal.stf.jus.br/jurisprudenciaRepercussao/verAndamentoProcess…
Brasil. Supremo Tribunal Federal – STF RE 1057258, Rep. Geral Tema: 533, Leading case. Rel. Min. Luiz Fux, Tribunal Pleno. d. 11.06.2025; Recte. (s) Google Brasil Internet LTDA. Disponível em: https://portal.stf.jus.br/jurisprudenciaRepercussao/verAndamentoProcess…
Carvalho, Gustavo Henrique B. & Santos Filho, Ronaldo F. Plataformas Digitais e os Desafios Legais: explorando os limites da territorialidade, Revista Reflexão e Crítica do Direito, v. 12, n. 1, p. 136-152, jan./jun. 2024 ISSN 2358-7008 disponível em: https://doi.org/10.55839/2358-7008RCDv12n1pa136-152
Celeste, Edoardo. Constitucionalismo Digital: Mapeando a resposta constitucional aos desafios da tecnologia digital. Revista Brasileira de Direitos Fundamentais & Justiça | Belo Horizonte, Escola de Direito PUCRS ano 15, n. 45, p. 63-91, jul./dez. 2021 63, disponível em: https://dfj.emnuvens.com.br/dfj/article/view/1219
Cerf, Vinton. A Brief History of the Internet and Related Networks. Internet Society. 2017
CGI.br Grupos de Trabalho. Sistematização das Contribuições à Consulta sobre Regulação de Plataformas Digitais, 13/12/2023, Disponível em: https://cgi.br/publicacao/sistematizacao-das-contribuicoes-a-consulta-s…
CGI.br Princípios para a Governança e Uso da Internet no Brasil. Resolução CGI.br nº 2009/003/P. 2009.
CGI.br. Contribuições recebidas na Consulta sobre chamada pública sobre Regulação de Plataformas Digitais. 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/
Couto e Silva, Cláudio Finkelstein. Intervenção do Estado e regulação econômica. São Paulo: Saraiva, 2008.
Dias, Daniel Pires Novais; Belli, Luca; Zingales, Nicolo; Gaspar, Walter; Curzi, Yasmin. Plataformas no Marco Civil da Internet: a necessidade de uma responsabilidade progressiva baseada em riscos. Civilistica.com, Rio de Janeiro, v. 12, n. 3, p. 1–24, 2023. Disponível em: https://civilistica.emnuvens.com.br/redc/article/view/931
Europeia, União. Digital Markets Act, 2022, Disponível em: https://digital-markets-act.ec.europa.eu/
Europeia, União. Digital Services Act, 2022. Disponível em: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/e…
Gico Jr., Ivo Teixeira. Regulação de plataformas digitais: institucionalidade e racionalidade regulatória. Revista de Direito Administrativo, v. 282, 2023.
Gorwa, Robert. The Platform Governance Triangle: Conceptualizing the Role of Public, Private and Civil Society Actors in the Regulation of the Digital Ecosystem. Internet Policy Review, 2019.
Gurgel, Caio Emerson Aguiar; Neto, João Alberto Soares; Silva, Francisco das Chagas da. Direito Digital sob a ótica do direito fundamental e do garantismo jurídico brasileiro. Multisaberes Fadat, vol. 01: in Direito e Educação: pilares da existência social / Organizadores: Clara Maria Teles Rodrigues, Francisco das Chagas da Silva e Valter Moura do Carmo - 1. ed. - Fortaleza: Mucuripe, 2024. Vários autores. 359 p.: 21
Lessig, L. Code and other laws of cyberspace: Version 2.0. New York: Basic Books, 2006.
Martins, Ivanildo Figueiredo. Concorrência e plataformas digitais: desafios para o direito da concorrência. Revista de Direito Econômico, 2021.
OCDE – Organização para Cooperação e Desenvolvimento Econômico. Competition in Digital Markets. Paris: OECD Publishing, 2020. Disponível em: https://www.oecd.org/competition/competition-in-digital-markets.htm.
OCDE. Organização para a Cooperação e Desenvolvimento Econômico. Competition Policy in Digital Markets the Combined Effect of Ex Ante and Ex Post Instruments in G7 Jurisdictions, Paris: OECD Publishing, 2024. Disponível em: https://doi.org/10.1787/80552a33-em
Oliveira, Henrique Faulhaber de. Governança da Internet no Brasil: o modelo multissetorial do CGI.br. Revista da FGV Direito SP, 2021.
Pereira Neto, Caio Mário da Silva Pereira. Regulação de plataformas digitais e o desafio da assimetria. Revista Brasileira de Políticas Públicas, Brasília, v. 12, n. 1, p. 45-68, jan./jun. 2022. Disponível em: https://www.rbdpp.org.br
Pimentel, José Eduardo de Souza. Introdução ao Direito Digital. Revista Jurídica da Escola Superior do Ministério Público de São Paulo, São Paulo, v. 13, n. 1, p. 16–39, set. 2018. Disponível em: https://es.mpsp.mp.br/revista_esmp/index.php/RJESMPSP/article/view/352
Rezende, Paulo Izídio da Silva & Carvalho Jr., Paulo Cézar de. Direito Digital e suas Aplicações: a violação de privacidade, a proteção de dados e medidas de solução. Revista Ibero-Americana de Humanidades, Ciências e Educação – REASE, disponível em: https://doi.org/10.51891/rease.v10i11.16960
Silva, Fernanda dos Santos Rodrigues; Vieira, Victor Barbieri Rodrigues (orgs). Anais do IV Seminário Governança das Redes. Belo Horizonte: Instituto de Referência em Internet e Sociedade, 2024. Disponível em: https://irisbh.com.br/wp-content/uploads/2024/05/Anais-IV_SGDR.pdf
UNESCO. Diretrizes para uma Regulação de Plataformas Digitais que Promova a Liberdade de Expressão e Acesso à Informação. Paris: Unesco, 2023. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000384032.
1 Lei nº 12.965, de 23 de abril de 2014 - Art. 19. “Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”