Moderação de conteúdo em plataformas digitais – uma reflexão baseada nos conceitos de transparência e legitimidade

Moderação de conteúdo em plataformas digitais

George Valença é professor associado I do Departamento de Computação da UFRPE, onde lidera o grupo ASPAS. Atualmente, atua como cientista-chefe de convênios de cooperação técnica com o Instituto Alana, na área de design ético na educação, e com o TCE-PE, na área de inovação aberta, segurança da informação e IA. Seu grupo de pesquisa investiga os desafios sociotécnicos trazidos por plataformas desenvolvidas por Big Techs. Nos últimos anos, tem dedicado atenção especial a reflexões sobre uma TI ética e inclusiva, com estudos sobre a proteção de pessoas trans e não-binárias, bem como de crianças no ambiente digital, analisando temas como racismo algorítmico e design de futuro, ferramentas de controle parental, garantia dos direitos da criança por design e problemas causados pelo reconhecimento facial para pessoas trans. No pós-doutorado, investigou padrões de design manipulativo na PUC-SP.

Gustavo Carneiro é doutorando em Direito Público pena Universidade do Estado do Rio de Janeiro. Mestre em Políticas Públicas pela Hertie School of Governance (Berlim). Graduado em Direito pela Universidade de Brasília (UnB).

Pedro Gueiros é mestre em Direito Civil pela PUC-Rio. Ex-bolsista da Fundação Konrad Adenauer. Professor Substituto de Direito Civil e Internacional Privado da Faculdade Nacional de Direito (UFRJ). Professor Assistente e Advogado Orientador do Núcleo de Prática Jurídica do Ibmec-RJ. Professor convidado dos cursos de pós-graduação da PUC-Rio, CEPED/UERJ e EMERJ. Integrante do Núcleo Legalite da PUC-Rio. Membro Suplente do Conselho Municipal de Proteção de Dados Pessoais e da Privacidade no âmbito da Cidade do Rio de Janeiro (CMPDPP). Graduado em Direito pelo Ibmec-RJ.

Resumo

O processo de moderação de conteúdo é essencial para manter ambientes digitais saudáveis e proteger direitos fundamentais. No entanto, a dependência de ferramentas automatizadas, que frequentemente reproduzem vieses, e a falta de transparência nas práticas de moderação geram desconfiança entre os usuários. Nesta pesquisa, utilizamos dados da consulta pública realizada pelo Comitê Gestor da Internet do Brasil sobre a regulação de plataformas digitais em 2023, que recebeu mais de 1.300 contribuições de diversos setores. A nossa análise revelou que a ausência de transparência nas atividades de moderação resulta em discriminação e abusos de direito, particularmente contra grupos vulneráveis. Com base nestes achados, adotamos o conceito de legitimidade democrática das plataformas, abordando seus tipos e a relevância do tema para a governança destes ambientes digitais. Assim, este estudo contribui para o debate sobre a necessidade de aprimorar a transparência nas práticas de moderação de conteúdo, sendo um insumo para debates e propostas de diretrizes legais.

1. Introdução

Entre 25 de abril e 16 de julho de 2023, o Comitê Gestor da Internet do Brasil (CGI.br) realizou uma consulta pública sobre a regulação de plataformas digitais. Esta consulta fez parte de um contexto maior de debates realizados pelo CGI.br sobre o tema desde 2021. Ao todo, foram recebidas 1.336 contribuições, de 140 pessoas físicas e organizações de todos os quatro setores que compõem o CGI.br (setor governamental; terceiro setor; setor empresarial e; comunidade científica e tecnológica). De forma sintética, ela buscou ampliar o debate em três grandes eixos, quais sejam: (i) quem será regulado; (ii) o que será regulado e; (iii) como será regulado (CGI.br, 2023a).

Diversos assuntos relevantes para a regulação de plataformas foram trazidos à consulta, como liberdade de expressão, censura e pedidos de maior transparência. Dentro desse universo, escolheu-se analisar as contribuições relacionadas à moderação de conteúdo, por ser um tema interligado, invariavelmente, à efetividade no exercício da comunicação na Internet, incluindo suas balizas.

A moderação é uma prática organizada de triagem de conteúdo gerado pelo usuário e postado em páginas da Internet, mídias sociais e outros meios de comunicação online, a fim de determinar a adequação de tal conteúdo a regras preestabelecidas. Ela é fundamental por ser inviável haver espaços online totalmente livres, sem que haja excessos e condutas indesejadas. Segundo Gillespie (2019, p. 5), as plataformas precisam moderar para proteger os usuários uns dos outros ou de grupos antagônicos, ou para remover conteúdo ofensivo, vil ou ilegal. O autor também explica que a moderação serve para que as plataformas mostrem sua melhor face ao público, a parceiros comerciais e anunciantes, com incentivos econômicos para sua existência (GILLESPIE, 2019, pp. 5,6).

Não existem plataformas sem regras de conduta. No entanto, o maior desafio neste ambiente é decidir quando, como e por que intervir. As decisões tomadas por essas empresas afetam usuários de diversos países, com legislações e contextos culturais diferentes. Uma mesma foto ou conduta pode ser aceitável em um local, ofender pessoas de uma parte do globo ou até mesmo ser ilegal em outra. Essas decisões de moderação de conteúdo possuem consequências que excedem o ambiente virtual interno de suas plataformas, e os interesses envolvidos nessas atividades ultrapassam as fronteiras das atividades comerciais das empresas.

Há questões globais, como, por exemplo, a proliferação de desinformação, que tem implicações para a liberdade de expressão e de imprensa e geram consequências no âmbito privado e público. Nesse sentido, as decisões de moderação de conteúdo podem ser consideradas como mecanismos efetivos de governança dessas entidades sobre a vida dos usuários. Ou seja, a moderação de conteúdo é uma forma de exercício de poder das plataformas sobre relações que ocorrem dentro de seus limites.

Este cenário motivou a busca dos autores por contribuições acerca do ecossistema de moderação de conteúdo das plataformas digitais. Realizou-se um mapeamento dos dados disponíveis na consulta, sintetizando os resultados a partir de um processo qualitativo de Síntese Temática, que revelou temas como “liberdade de expressão e censura”, “transparência” e “trabalho decente na moderação”. Este artigo se concentra na perspectiva de transparência, com interpretação dos dados à luz do conceito de legitimidade das plataformas. A hipótese levantada é de que o poder exercido acontece cada vez mais com um déficit de legitimidade perante a sociedade. Assim, surge uma concentração de poder nas mãos de entes privados, sem regulação que confira a eles mecanismos institucionais para evoluir a participação popular, o controle externo ou até mesmo processos de revisão de decisões. Tomando como ponto de partida essa hipótese, analisou-se as contribuições sobre o tema da transparência relacionada à moderação de conteúdo, investigando suas relações com a legitimação da atividade de moderação realizada por essas empresas.

2. Metodologia

A pesquisa relatada neste artigo investigou questões ligadas à moderação de conteúdo pelas plataformas. Para isso, considerou-se a base de dados da consulta realizada pelo CGI.br sobre regulação de plataformas digitais em 2023. Numa fase 1, foram reunidos os dados da consulta, que recebeu mais de 1.300 contribuições de pessoas, empresas, governo, terceiro setor e comunidade científica. Este levantamento foi publicado pelo CGI.br em diferentes formatos de relatório (site, CSV e PDF).

Nos dados apresentados no formato PDF, numa fase 2, realizou-se um mapeamento de insumos sobre moderação de conteúdo oferecidos pelos participantes da consulta. A partir da identificação de extratos de texto sobre esse tema, escopo do presente trabalho, efetuou-se uma Síntese Temática, processo que combina extratos de informação de textos como artigos, notícias ou mesmo falas de entrevista, por exemplo, para, via rotulagem, derivar conclusões e hipóteses. Ou seja, um processo sistemático e flexível para identificar e desenvolver temas (categorias) em dados qualitativos. Esta etapa combinou atividades manuais, de checagem a partir de funcionalidade de busca, com o auxílio de ferramentas de Inteligência Artificial (no caso, NotebookLM1, que permite, sem alucinações, gerar interpretações em cima de dados fornecidos a esta plataforma, sem consulta a outras fontes de informação). Dentre os temas identificados, pode-se enumerar os seguintes: (i) liberdade de expressão e censura; (ii) transparência e algoritmos; (iii) impacto social e infodemia; (v) trabalho decente na moderação e; (vi) mitigação de riscos. Esta atividade foi realizada por dois pesquisadores, tendo os seus achados discutidos com um terceiro pesquisador.

Por fim, numa fase 3, dada a riqueza dos achados bem como a necessidade de delimitação de escopo, este texto concentrou-se nos insumos ligados ao contexto de transparência, que passou por um processo de síntese, descrito na seção de resultados. Acredita-se que a interpretação destas contribuições da sociedade civil pode permitir a derivação de diretrizes e boas práticas em termos de transparência das plataformas no ecossistema de moderação de conteúdo governado, sobretudo, por Big Techs.

3. Referencial conceitual

Nesta seção, apresentamos uma visão geral dos dois pilares conceituais desta pesquisa, moderação de conteúdo e transparência em plataformas, de forma que a compreensão dos resultados seja garantida e também para letramento nestes temas.

3.1. Moderação de conteúdo

A moderação é uma prática organizada de triagem de conteúdo gerado pelo usuário e postado em páginas da Internet, mídias sociais e outros meios de comunicação online, a fim de determinar a adequação de tal conteúdo a regras preestabelecidas. O processo pode resultar em conteúdo removido por um moderador, atuando como agente da plataforma ou site em questão. Cada vez mais, plataformas de mídia social dependem de grandes quantidades de dados gerados por usuários para impulsionar engajamento. Com esse aumento veio a necessidade de plataformas e sites fazerem valer suas regras e leis relevantes ou aplicáveis, pois a postagem de conteúdo impróprio pode ser considerada uma fonte de responsabilidade, como veremos mais adiante (ROBERTS, 2020, p. 1). Assim, pode-se afirmar que não há uma plataforma completamente livre. Nela, todo conteúdo compartilhado recebe algum tipo de moderação para que haja respeito a suas regras de conduta (ou “Termos de Uso”).

Esta atividade pode ser realizada antes ou após a publicação do conteúdo nas plataformas digitais. Essas formas ou tipos de moderação trazem cada uma seus benefícios e desafios e estão em constante evolução, tendo em vista a flexibilidade e adaptabilidade inerentes à atividade. Moderação ex ante é aquela que ocorre antes da publicação do material. Essa solução, que se assemelha a linha editorial da mídia tradicional, encontra dificuldades devido à grande escala da tarefa imposta. Tendo em vista o tamanho do universo de conteúdo a ser moderado, essa atividade se revela quase impossível para a maioria das plataformas, com algumas exceções, como é o caso da Apple, que revisa todos os aplicativos que são disponibilizados na Apple Store, antes de comercializá-los (GILLESPIE, 2018, pp. 75-87).

Apesar da existência de moderações ex ante, quase todo o conteúdo publicado em plataformas ficará disponível até que seja notado e removido. Quanto a esse tema, Gillespie (2018, pp. 76-79) chama atenção para o fato de que moderação de conteúdo é uma tarefa bastante difícil, principalmente pela grande escala que demanda. Essa escala, segundo nota o autor, não diz respeito somente ao número gigantesco de material a ser moderado, mas também à abrangência quase global da presença dessas plataformas, abrangendo inúmeras línguas, culturas e sistemas legais.

A moderação ex post pode ser reativa, o que significa que os usuários podem denunciar certas publicações, que serão revisadas da plataforma. Essa é a forma utilizada pelos Community flaggers, pessoas de comunidades que operam como fiscais do conteúdo, encaminhando para revisão do Facebook. Segundo entendimento de Gillespie (2018, p. 87), a participação de usuários no processo traria maior legitimidade à atividade de moderação. Esta forma de moderação proativa seria a moderação realizada após a publicação do conteúdo na plataforma, fruto de um monitoramento ativo. O desenvolvimento de técnicas de Inteligência Artificial (IA) para detectar automaticamente tipos específicos de conteúdos problemáticos tem sido explorado por várias empresas, com desenvolvimento de softwares baseados em algoritmos de machine learning que reconhecem conteúdos problemáticos. A maior parte dos conteúdos revisados por humanos é inicialmente indicada por mecanismos automáticos de revisão, que indicam quais fotos ou conteúdos devem ser moderados com maior atenção (GILLESPIE, 2018, pp. 97-110).

A utilização de IA nesse processo promete avanços para o desafio da escala de conteúdo a ser moderado. Além disso, há promessas de que os problemas de parcialidade inerentes à atividade humana sejam superados pela utilização de algoritmos supostamente neutros. No entanto, a utilização de IA possui seus próprios desafios, como a dificuldade de construção de algoritmos que ampliem ou reproduzam desigualdades existentes no mundo atual (O’NEIL, 2017) (DA SILVA, 2022).

Partindo desta análise da atividade de moderação de conteúdo, Nicolas Suzor (2020, p. 2) constata que a Internet é efetivamente governada pelos intermediários digitais, desde as empresas que fazem a infraestrutura, até as que fornecem plataformas de redes sociais ou de ferramentas de busca. As decisões tomadas por essas empresas governam a vida dos indivíduos. Mesmo que de uma forma diferente dos Estados, essas empresas exercem governança, pois suas decisões afetam diretamente as vidas das pessoas, exercendo poder sobre o que elas falam e como se dão as interações online e offline. Nesse sentido, Klonick (2018, p. 1617) assinala que o termo “governança”, apesar de ser popular e um tanto impreciso, descreve com precisão as atividades realizadas entre os usuários e plataformas: um processo dinâmico e interativo de exercício de poder e criação de normas.

Como apresenta Klonick (2018, pp. 1602), o sistema regulatório e a jurisprudência americanos trazem incentivos para que as empresas desenvolvam suas atividades, sem se preocupar com a possibilidade de punição pelo conteúdo carregado pelos usuários. O §230 do Communication and Decency Act (CDA) estabelece uma ampla imunidade para as empresas com relação aos conteúdos postados por usuários. O objetivo dessa normativa era incentivar que as plataformas fossem “Bons Samaritanos” e tomassem um papel ativo na remoção de conteúdo ofensivo, ao mesmo tempo que evitava questões relacionadas à censura, que afetassem a liberdade de expressão. O tratamento legal dado pelo sistema estadunidense revela-se relevante tanto pela posição geopolítica daquele país, que influencia os debates sobre o tema no mundo, mas também por que grande parte das grandes plataformas estão situadas ali.

No mesmo sentido, o art. 18 do Marco Civil da Internet (Lei 12.965/2014) consagra, como regra, o princípio da inimputabilidade da rede, segundo o qual os provedores de conexão da Internet não podem ser responsabilizados pelo conteúdo que disponibiliza, mas sim os provedores de aplicações de Internet. Neste caso, o provedor de aplicações somente pode ser responsabilizado por danos recorrentes de conteúdo gerados por terceiros se não tomarem providências para tornar o conteúdo indisponível após ordem judicial específica (art. 19 do MCI)2 ou após notificação extrajudicial do usuário envolvendo a divulgação de conteúdos sensíveis sem o consentimento dos participantes (art. 21, MCI), situação que ficou conhecida pela doutrina como “pornografia de vingança”. É relevante registrar que o artigo 19 está tendo sua constitucionalidade discutida pelo Supremo Tribunal Federal (STF), no âmbito dos REs 1037396 e 1057258, não havendo, até o momento, a conclusão do julgamento.

Mesmo com esse “salvo conduto”, a atividade de moderação de conteúdo é exercida pelas grandes empresas de mídias sociais. É sabido que essas plataformas, como TikTok, X (antigo Twitter), Instagram e Youtube, não produzem efetivamente o conteúdo consumido pelos usuários, antes oferecem um espaço virtual para que os próprios usuários produzam e consumam conteúdo. Elas desenvolvem elaborados meios de ranqueamento de conteúdo controlados por algoritmos, que influenciam o que cada usuário visualiza. Por vezes, além de ranqueamento, a atividade consiste em moderação de conteúdo no sentido de controlar se os conteúdos respeitam ou não regras sobre o que é possível estar ou não naquele ambiente.

Klonick (2018, p. 1615) entende que há três fatores que influenciaram no desenvolvimento dos sistemas de moderação das plataformas: (i) uma crença ideológica em normas baseadas na liberdade de expressão; (ii) um senso de responsabilidade corporativa e; (iii) a necessidade de corresponder às normas compartilhadas pelos usuários, para ter viabilidade econômica. Além disso, a autora indica que a autorregulação das empresas seria um passo à frente da regulação estatal.

Ainda importante ressaltar que essa atividade de moderação de conteúdo significa um efetivo exercício de poder pelas plataformas. Klonick (2018, p. 1664) defende que a moderação de conteúdo é verdadeira forma de governança exercida pelas empresas privadas, que constituiriam “novos governantes”. Ou seja, equalizam o acesso à publicação de discursos, centralizam comunidades descentralizadas, abrem novo conhecimento comunitário e criam infinitas formas de difundir a cultura. Assim, o discurso digital cria uma cultura democrática global, com novos governantes que atuam como arquitetos da estrutura de governança que a administra.

3.2. Transparência de plataformas

Um dos principais desafios nas atividades de moderação de conteúdo, progressivamente apoiadas em ferramentas de IA, é a transparência desta atuação. Seja a moderação ex ante ou ex post, fato é que para que haja legitimidade de uma plataforma remover algum material online, é preciso que tal conduta seja consubstanciada naquilo que foi previamente determinado, particularmente nos documentos jurídicos relevantes, tais como os Termos de Uso e a Política de Privacidade. Nos termos do art. 7º, VI do MCI, resta evidente que é um direito básico ao usuário, o fornecimento de informações claras e completas constantes dos contratos de prestação de serviços, com detalhamento sobre o regime de proteção aos registros de conexão e aos registros de acesso a aplicações de Internet, bem como sobre práticas de gerenciamento da rede que possam afetar sua qualidade”.

Como observa Bruno Miragem (2024, p. 848), o regime legal de proteção do usuário estabelecido pelo MCI é cogente e de ordem pública, não sendo possível ser alterado por vontade das partes. Por essa razão, ao aceitarem os termos e condições estabelecidas unilateralmente pelas plataformas, as pessoas sujeitam-se às formas admitidas de participação e interação naquele determinado espaço virtual, incluindo a postagem de conteúdos. Por isso, a regra é clara: não havendo qualquer ilegalidade nos termos de uso, isto é, com dispositivos contrários ao ordenamento jurídico pátrio, é perfeitamente legítimo que as plataformas, no âmbito de suas atividades internas, moderem os conteúdos baseados em seus contratos.3 Pela mesma lógica, mas em sentido oposto, chega-se à conclusão que será abusiva a moderação de conteúdos que seja praticada de forma arbitrária ou ao menos sem prévia justificativa ou notificação ao usuário. E neste último ponto, entende-se a importância da transparência.

Em recente decisão do Superior Tribunal de Justiça (STJ), a Terceira Turma entendeu que não há arbitrariedade na exclusão de um motorista excluído de plataforma de transporte por aplicativo, por suposto descumprimento do Código de Conduta da empresa (BRASIL, 2024). O motorista em questão pleiteava a reparação de danos, em razão de uma suposta violação ao contraditório e ampla defesa, durante o processo de descredenciamento e exclusão definitiva de seu perfil como motorista de aplicativo, por um alegado comportamento reiterado de encerrar corridas em locais diferentes daqueles solicitados pelos passageiros sem justificativa. A Corte destacou que a “transparência, além de ser consectária do dever geral de boa-fé nos contratos, é também o princípio da LGPD que garante aos titulares de dados pessoais o direito às informações claras, precisas e facilmente acessíveis sobre a realização do tratamento de dados (art. 6º, VI, da LGPD)”. Assim, ao analisar os autos, restou claro que a plataforma informou devidamente o motorista sobre as razões que levaram à sua exclusão, e possibilitou, dentro de suas limitações técnicas, o exercício da ampla defesa, muito embora o resultado da decisão tenha sido desfavorável.

Dessa forma, não se desconhece a existência de uma miríade de arranjos possíveis com que plataformas digitais podem se organizar e estabelecer seus serviços online. Mas, independentemente da pluralidade de arranjos, qualquer tomada de decisão capaz de impactar a sua relação com o usuário deve estar revestida não apenas de juridicidade, em respeito às legislações que incidem sobre a prestação das atividades, mas, sobremaneira, com aquilo que elas se comprometeram a fazer, em seus documentos jurídicos. Tal perspectiva é o reconhecimento da boa-fé objetiva, elementar às relações contratuais, particularmente mais relevante de ser observado nos contratos eletrônicos, em virtude de seu formato de adesão. Como ensina Judith Martins-Costa, “o mais imediato dever decorrente da boa-fé é o dever de lealdade com a contraparte” (2014, p. 358).

4. Resultados e discussão

A partir das contribuições recebidas pelo CGI.br na consulta sobre regulação de plataformas digitais, foi possível inferir diversos pontos relevantes sobre moderação de conteúdo. Inicialmente, percebe-se que a moderação configura prática essencial para criar ambientes digitais saudáveis, bem como para a proteção de direitos fundamentais, especialmente de grupos vulneráveis. As dificuldades enfrentadas pelas plataformas também foram amplamente reconhecidas, como, por exemplo, a dependência de ferramentas automatizadas, que frequentemente reproduzem vieses.

Acima de tudo, a sistematização das contribuições trouxe uma percepção em relação à transparência. Em particular, há insumos dedicados especificamente aos riscos associados aos efeitos da falta de transparência das atividades das plataformas digitais (2023b, pp. 194-201) e outros que tratam de como regular a transparência (2023b, pp. 210 e 211). Assim, foi possível perceber duas posições proeminentes sobre transparência:

  • Aqueles que defendem a necessidade de ampliar as obrigações para plataformas digitais (sobretudo as de mídias sociais, como TikTok e Instagram).
  • Aqueles mais restritivos sobre tais obrigações, reforçando a proteção de segredos comerciais e informações sensíveis relacionadas aos modelos de negócio e considerando suficiente o atual arcabouço legislativo e o conjunto de medidas adotadas pelas plataformas. No entanto, entidades do terceiro setor afirmam não se tratar de segredo de negócio, mas de interesse público, dos usuários e de toda sociedade, o que torna a transparência um direito básico (CGI.br, 2023b, p. 18).

De forma pragmática, um cenário de ausência de transparência nas atividades de moderação de conteúdo é uma experiência notável por usuários. A análise dos dados reforça a percepção da sociedade civil de que práticas arbitrárias de auto-moderação de conteúdo geram discriminações e abusos de direito, particularmente a grupos vulneráveis.

Como expressa Veridiana Alimonti da Electronic Frontier Foundation, em sua contribuição, “mesmo que, no geral, consideremos que o estágio atual das ferramentas de processamento de linguagem natural disponíveis mostra um desempenho eficaz em inglês, elas apresentam variações significativas em termos de qualidade e precisão para outros idiomas. Elas também podem reproduzir discriminação nos dados, afetando desproporcionalmente comunidades marginalizadas, como pessoas LGBTQIA+ e mulheres. Modelos de linguagem multilíngue também têm suas limitações, pois podem não refletir bem a linguagem do cotidiano usada por falantes nativos e não levar em conta contextos especícos” (CGI.br, 2023a). Por sua vez, João Coelho, do Instituto Alana, ressalta a preocupação com algoritmos moderação que favoreçam racismo algorítmico, “conceito que vem sendo empregado para designar as diferentes formas como as tecnologias de inteligência artificial reproduzem o racismo” (CGI.br, 2023a). Por sua vez, João Coelho, do Instituto Alana, ressalta a preocupação com algoritmos de moderação que favoreçam racismo algorítmico, “conceito que vem sendo empregado para designar as diferentes formas como as tecnologias de inteligência artificial reproduzem o racismo” (CGI.br, 2023a).

No contexto em que estas empresas de software tomam decisões que estabelecem normas e influenciam o comportamento de bilhões de usuários, pesquisadores indicam que há um déficit democrático em sua atuação. Aqui, entra o conceito de legitimidade como um fenômeno multifacetado que merece ser considerado em sua complexidade. Haggart e Keller (2021) sugerem uma estrutura de análise baseada no trabalho de Schmidt e Scharpf, que propõem três frentes de análise de legitimidade: de entrada (input legitimacy), intermediária (throughput legitimacy) e de saída (output legitimacy).

Os pesquisadores entendem que a base comum para discussões sobre legitimidade dos regimes de governança exercidos por plataformas deve ser a legitimidade democrática, tendo em vista o papel único que essas plataformas exercem na sociedade. Assim, segundo Haggart e Keller (2021:5), a legitimidade de entrada (input legitimacy) se refere à qualidade participativa no processo que leva à criação de leis e regras. Essa legitimidade seria garantida pela representatividade eleitoral, ou por instituições que sejam responsivas aos interesses dos cidadãos. É baseada na cidadania e na forma de envolvimento dos cidadãos no governo. Segundo os autores, sua importância para as pesquisas referentes à governança de plataformas é ressaltar a importância de se confrontar constantemente a questão sobre quem está exercendo a governança.

A legitimidade intermediária (throughput legitimacy) foca na qualidade dos processos de governança, relacionando-se a eficácia, prestação de contas (accountability) e abertura para participação nos processos. Já a legitimidade de saída (output legitimacy) avalia a efetividade dos resultados das políticas públicas para o povo. Essa forma de legitimidade está ligada também com a medida em que os resultados dessas políticas públicas são efetivamente comunicados ao público e legitimadas por ações discursivas.

A legitimidade intermediária (throughput legitimacy) foca na qualidade dos processos de governança, relacionando-se a eficácia, prestação de contas (accountability) e abertura para participação nos processos. Já a legitimidade de saída (output legitimacy) avalia a efetividade dos resultados das políticas públicas para o povo. Essa forma de legitimidade está ligada também à medida em que os resultados dessas políticas públicas são efetivamente comunicados ao público e legitimados por ações discursivas. Quanto à legitimidade intermediária, os pesquisadores propõem quatro critérios: transparência, eficácia, prestação de contas (accountability) e abertura para participação nos processos (HAGGART e KELLER, 2021, pp. 7,8).

Esse marco teórico mostra-se relevante por situar as discussões sobre transparência em um contexto maior de legitimidade lato sensu. Nesse sentido, em que pese a legitimação ser fenômeno amplo, que, conforme exposto, pode ser ligada a uma maior participação dos afetados nos processos de formação da vontade até na verificação da efetividade das decisões tomadas, podemos situar o aperfeiçoamento de mecanismos de transparência (em todos seus sentidos) como uma peça fundamental para uma moderação de conteúdo com maior prestação de contas, suscetível a críticas e controle do poder público, da academia e dos usuários.

A falta de transparência da moderação de conteúdo leva a uma percepção de desconfiança, o que pode ser percebido em diversas passagens das contribuições recebidas (principalmente da sociedade civil, mas também da academia), de onde pode ser inferida uma desconfiança gerada pela falta de informações dessa atividade praticada pelas plataformas. As contribuições da Rede Narrativas, por exemplo, relatam perseguições de grupos específicos, ligando os critérios obscuros para moderação de conteúdo com opressões realizadas pelas plataformas. Relatam também dificuldades de denúncia para conteúdos que ferem direitos humanos (CGI, 2023a, p. 176).

O Centro de Tecnologia e Sociedade da FGV Direito Rio (CTS-FGV) também relata a assimetria de informações sobre o que é efetivamente feito pelas empresas com relação a infraestrutura dedicada a moderação de conteúdos em português: “...falta de informações disponíveis sobre o número de moderadores dedicados ao conteúdo em português e o nível de investimento das empresas na moderação desse conteúdo nos deixa sem uma compreensão clara da eficácia dos esforços de moderação. A recusa em fornecer acesso a tais dados (…) também suscita preocupações” (CGI, 2023a, p. 426)

No mesmo sentido a contribuição de DiraCom (Direito à Comunicação e Democracia) denuncia que essa falta de transparência nos leva a uma assimetria de poder entre usuários e plataformas (CGI, 2023a, p. 333). Já o LABID (Laboratório de Inovação e Direitos Digitais da UFBA) relata a dificuldade que a falta de parâmetros de compartilhamento de dados entre as empresas causa para os pesquisadores, que não conseguem comparar as informações, bem como não podem confiar que terão acesso aos dados de forma perene. A instituição destaca, por exemplo, a descontinuidade sem avisos da API disponibilizada pelo Twitter para que os pesquisadores tivessem acesso a dados da plataforma (CGI, 2023a, p. 407).

6. Conclusão

Neste texto, refletimos sobre a moderação de conteúdo de plataformas digitais, situada no âmbito da governança da Internet. Neste cenário, plataformas permitem o discurso online, com o papel de capacitar falantes e editores individuais, enquanto a sua infraestrutura privada e transnacional modera o poder do Estado de censurar. Sendo assim, medidas que ampliam a transparência (seja dos critérios, seja do processo ou até mesmo medidas que ampliem a prestação de contas dessas plataformas) são fortes candidatas a aumentar a legitimidade democrática para o exercício desse poder.

Uma das limitações deste estudo é considerar parte do escopo sobre moderação de conteúdo de plataformas, dando foco na vertente de transparência. Eventualmente, os demais temas identificados por meio do processo de síntese temática, como impacto social e infodemia ou trabalho decente na moderação e mitigação de riscos, poderiam enriquecer as conclusões, reforçando a validade externa do estudo. Para mitigar este risco, em estudos futuros, pretendemos ampliar este levantamento de dados, não só combinando todos os temas derivados da nossa análise, mas também combinando estes achados da consulta do CGI.br com entrevistas a profissionais da indústria, do governo e instituições do terceiro setor que tenham especialidade no tema. Assim, poderemos discuti-lo em profundidade, numa visão multisetorial que nos permitirá derivar recomendações para legislações existentes ou futuras, além de códigos de boas práticas de governança.

Referências

BRASIL. Superior Tribunal de Justiça. Recurso Especial n. 2.135.783/DF, relatora Ministra Nancy Andrighi, Terceira Turma, julgado em 18/6/2024, DJe de 21/6/2024.

BRASIL. Superior Tribunal de Justiça. Recurso Especial n. 2.139.749/SP, relator Ministro Ricardo Villas Bôas Cueva, Terceira Turma, julgado em 27/8/2024, DJe de 30/8/2024.

COMITÊ GESTOR DA INTERNET NO BRASIL. Consulta sobre Regulação de Plataformas Digitais, 2023a. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 30.11.2024.

COMITÊ GESTOR DA INTERNET NO BRASIL. Sistematização das Contribuições à Consulta sobre Regulação de Plataformas Digitais, 2023b. Disponível em: https://cgi.br/media/docs/publicacoes/1/20240227162808/sistematizacao_c… Acesso em 30/11/2024.

DA SILVA, Paula Guedes Fernandes. É menino! É menina! Os riscos das tecnologias de análise facial para as identidades de gênero trans e não-binárias. Direito, Estado e Sociedade, v. 2022, n. 60, p. 217-238, 2022.

GILLESPIE. T. Custodians of The Internet: platforms, content moderation, and the hidden decisions that shape social media. New Haven: Yale University Press, 2018

HAGGART, Blayne e KELLER, Clara Iglesias. Democratic legitimacy in global platform governance. In: Telecommunications Policy. Elsevier, 2021. Disponível em: https://www.sciencedirect.com/science/article/pii/S0308596121000562 Acesso em: 30/11/2024.

KLONICK, K. The new Governors: the people, rules and processes governing online speech. In: Harvard Law Review (Apr 10, 2018) 131. Boston: Harvard, 2018. Disponível em: https://harvardlawreview.org/2018/04/the-new-governors-the-people-rules… Último acesso em: 30/11/2024.

MARTINS-COSTA, Judith. Boa-Fé como Modelo (uma aplicação da Teoria dos Modelos, de Miguel Reale). In: Cadernos do Programa de Pós-Graduação em Direito – PPGDir./UFRGS. https://doi.org/10.22456/2317-8558.49203

MIRAGEM, Bruno. Curso de Direito do Consumidor. 9 ed. Rio de Janeiro: Forense, 2024.

O’NEIL, C. Weapons of Math Destruction. Nova Iorque: Broadway Books, 2017.

ROBERTS, S. Content Moderation, Los Angeles: UCLA, 2017. Disponível em: https://escholarship.org/uc/item/7371c1hf Acesso em: 30/11/2024.

SUZOR, N. A Constitutional moment: How we might reimagine platform governance. In: Computer Law and Security Review, 36, Article number: 105381 : Elsevier, 2020.

SUZOR, N. Digital constitutionalism: Using the rule of law to evaluate the legitimacy of governance by platforms. In: Social Media+ Society, 2018.

1 Ferramenta de IA disponibilizada pela Google em https://notebooklm.google.com/

2 Importante ressaltar que o §2º do art. 19, MCI, trouxe uma exceção de conteúdos envolvendo violações a direitos autorais, que traria uma regulamentação autônoma. No entanto, como a Lei de Direitos Autorais (Lei nº 9.610/1998) não foi atualizada, o dispositivo permanece inoperante nos dias atuais.

3 Nesse sentido, o Superior Tribunal de Justiça: RECURSO ESPECIAL. MARCO CIVIL DA INTERNET. PROVEDOR DE APLICAÇÃO. PLATAFORMA DE VÍDEO. PANDEMIA DA COVID-19. TERMOS DE USO. DESINFORMAÇÃO. MODERAÇÃO DE CONTEÚDO. REMOÇÃO. LEGITIMIDADE. NOTIFICAÇÃO PRÉVIA. SHADOWBANNING. NÃO OCORRÊNCIA. LIBERDADE DE EXPRESSÃO. CONDICIONANTES. 1. A controvérsia jurídica consiste em definir se (i) o provedor de aplicação de internet (no caso, plataforma de vídeo) pode remover conteúdo de usuário que violar os termos de uso e se (ii) tal moderação de conteúdo encontra amparo no ordenamento jurídico.

(...) 4. Os termos de uso dos provedores de aplicação, que autorizam a moderação de conteúdo, devem estar subordinados à Constituição, às leis e a toda regulamentação aplicável direta ou indiretamente ao ecossistema da Internet, sob pena de responsabilização da plataforma. 5. Moderação de conteúdo refere-se à faculdade reconhecida de as plataformas digitais estabelecerem normas para o uso do espaço que disponibilizam a terceiros, que podem incluir a capacidade de remover, suspender ou tornar indisponíveis conteúdos ou contas de usuários que violem essas normas. 6. O art. 19 da Lei Federal nº 12.965/2014 ("Marco Civil da Internet") não impede nem proíbe que o próprio provedor retire de sua plataforma o conteúdo que violar a lei ou os seus termos de uso. Essa retirada pode ser reconhecida como uma atividade lícita de compliance interno da empresa, que estará sujeita à responsabilização por eventual retirada indevida que venha a causar prejuízo injustificado ao usuário. 7. Shadowbannig consiste na moderação de conteúdo por meio do bloqueio ou restrição de um usuário ou de seu conteúdo, de modo que o banimento seja de difícil detecção pelo usuário (assimetria informacional e hipossuficiência técnica). Pode ser realizado tanto por funcionários do aplicativo quanto por algoritmos e, em tese, caracterizar ato ilícito, arbitrariedade ou abuso de poder. Não ocorrência, no presente caso. 8. Recurso especial parcialmente conhecido e não provido. (STJ. REsp n. 2.139.749/SP, relator Ministro Ricardo Villas Bôas Cueva, Terceira Turma, julgado em 27/8/2024, DJe de 30/8/2024.)