Regulação da desinformação nas plataformas digitais e o contexto eleitoral brasileiro

Giovanna Milanese Tavares é advogada, especialista em Proteção de Dados pela Universidade de Lisboa. Bacharel em Direito pela Universidade de Brasília (UnB). Pesquisadora do Centro de Tecnologia e Sociedade da FGV Direito Rio (CTS-FGV), do Laboratório em Governança e Regulação em Inteligência Artificial (LIA-IDP) e do Centro de Direito, Internet e Sociedade (CEDIS-IDP).
Leandro Léo Rebelo é mestrando em Teoria do Estado e Direito Constitucional na PUC-Rio. Diplomado no Programa de Estudos Avançados em Direitos Humanos da American University WCL. Graduado em Direito pela FGV Direito Rio. Pesquisador do Centro de Tecnologia e Sociedade da FGV Direito Rio (CTS-FGV).
Marina Giovanetti Lili Lucena é doutora em Direito Civil pela Universidade do Estado do Rio de Janeiro (UERJ). Mestre e graduada em Direito pela Universidade Federal de Juiz de Fora (UFJF). Pesquisadora do Centro de Tecnologia e Sociedade da FGV Direito Rio (CTS-FGV) e no Legal Grounds Institute.
Resumo
O presente trabalho investiga a regulação das plataformas digitais no contexto eleitoral. A pesquisa é documental e jurisprudencial, e utiliza a literatura especializada, as opiniões na consulta pública do Comitê Gestor da Internet no Brasil (CGI.br), as decisões do Tribunal Superior Eleitoral (TSE) e as normas eleitorais, notadamente as Resoluções publicadas pelo TSE. Será analisado o conceito de desinformação e os termos relacionados utilizados nas resoluções eleitorais. A partir dessa análise conceitual, busca-se compreender se as medidas de mitigação propostas pela consulta pública no contexto das eleições são inovadoras ou se já estão previstas na legislação eleitoral brasileira.
Introdução
O tema “desinformação” ganhou novos contornos nos últimos anos devido ao crescimento das plataformas de redes sociais, nas quais conteúdos dotados de algum tipo de falsidade são facilmente reproduzidos e compartilhados, atingindo público relevante em poucos minutos. Assim, o presente artigo analisará a regulação das plataformas no contexto eleitoral.
Em períodos de eleições, há a realização mais contundente de manifestações por parte dos candidatos(as) e partidos políticos, principalmente por meio da propaganda eleitoral, as quais manifestações ocorrem nos mais diversos meios (presencialmente, na rádio, na televisão e na Internet), todos eles regulamentados pela legislação eleitoral. No contexto eleitoral, a desinformação é ainda mais preocupante, já que pode influenciar a forma como os eleitores recebem informações e, consequentemente, pode alterar seu voto. Trata-se de temática essencial para o futuro da Internet no Brasil, visto que os períodos eleitorais são recorrentes e, dada a importância do ambiente digital e das plataformas digitais no contexto brasileiro, é razoável esperar que a incidência de propagandas e manifestações políticas nesses ambientes seja cada vez mais forte no futuro1.
Em virtude da relevância da temática sobre regulação das plataformas no contexto brasileiro, o Comitê Gestor da Internet no Brasil (CGI.br) realizou consulta pública sobre regulação de plataformas digitais em 2023, com 1.336 contribuições de 140 pessoas físicas e representantes dos quatro setores que compõem o CGI.br (governamental, terceiro setor, setor empresarial e comunidade científica e tecnológica) (NIC.br, 2023).
A pesquisa realizada será documental e de jurisprudência. Na primeira, é feita análise da consulta do CGI.br sobre regulação de plataformas digitais, em específico o tema das democracias e processos eleitorais. Assim, é feito um recorte para estudo das manifestações que abordam o problema da desinformação nas plataformas digitais durante o período eleitoral, incluindo seu conceito. Na jurisprudência, são exploradas as decisões do Tribunal Superior Eleitoral (TSE) para melhor compreensão dos termos relacionados à desinformação no contexto eleitoral, especificamente “fatos notoriamente inverídicos” e “fatos gravemente descontextualizados”, mencionados em diversos dispositivos da Resolução n. 23.610 (Brasil, 2019) do TSE, que estabelece regras para a propaganda eleitoral2.
O objetivo geral deste artigo é compreender em que medida as contribuições à consulta pública do CGI.br refletem as iniciativas existentes de regulação de plataformas, especialmente as do TSE. Será também analisado se as medidas de mitigação propostas ao contexto eleitoral têm sido implementadas, a fim de compreender se a consulta pública traz inovações nessa temática.
No primeiro item, o artigo aborda o conceito de desinformação. As contribuições concordaram que riscos, como a desinformação, devem ser considerados para a regulação de plataformas; não existe, contudo, um consenso sobre como especificamente regular e remover a desinformação. Por outro lado, na esfera eleitoral, o limite entre “fatos” (passíveis de verificação) e “opiniões” (que não o são) é especialmente tênue. Assim, a seção discutirá os desafios em estabelecer essa definição a partir de normativas internacionais, julgamentos de cortes estrangeiras e insumos trazidos na consulta pública.
A segunda parte analisa o conceito de desinformação na visão do TSE. Esse tópico aborda como o tribunal tem conceituado desinformação no contexto eleitoral, especialmente à luz de sua jurisprudência mais recente, apresentando uma análise de precedentes relacionados ao que ele considera fatos inverídicos e descontextualizados, conceitos centrais na regulação de propaganda eleitoral que aparecem com destaque na Resolução n. 23.610 (Brasil, 2019).
Por fim, a terceira parte estuda as medidas de mitigação da desinformação eleitoral sugeridas na consulta pública e as medidas implementadas pelo TSE. Nesse item, são analisadas as contribuições feitas na consulta pública sobre as formas de mitigação da desinformação, essencialmente no contexto eleitoral, visando compreender se há inovações e avanços nas medidas sugeridas, ou seja, se essas sugestões estão incorporadas no ordenamento jurídico brasileiro.
A partir dessas análises, busca-se concluir se a consulta pública do CGI.br traz avanços e desenvolvimentos em duas esferas principais: i) na definição da desinformação eleitoral e ii) na sugestão de medidas que visam combater a propagação de conteúdo desinformativo eleitoral.
1 Conceito de desinformação: o verdadeiro e o falso
A pergunta colocada pelo item 2.4 da consulta pública é se as “infodemias, como desinformação, extremismos, discurso de ódio”, entre outros, constituem um risco à Democracia e aos Direitos Humanos. Das 20 respostas recebidas, 17 concordam que sim. Contudo, o consenso em regular plataformas digitais é mais fácil de atingir do que o consenso sobre como fazê-lo (Scott, 2023). De fato, diante de perguntas específicas sobre a implementação de medidas, as contribuições dividem-se.
Nesse contexto, as contribuições evitam comentar a respeito de como identificar os conteúdos que apresentam riscos. A respeito da desinformação, sob o item 27.i, o IP.rec traz as definições sugeridas pelo Relatório de 2017 ao Conselho da Europa (Wardle; Derakshan, 2017), enquanto Irineu Barreto afirma, de forma mais sucinta, que fake news são parte de uma “sofisticada estratégia de comunicação”3. As demais contribuições a este item não estão preocupadas de forma central em definir a desinformação.
O objetivo deste artigo não é chegar à definição correta da desinformação, tampouco descrever as garantias procedimentais adequadas para sua aplicação prática. De fato, não parece ser possível, ou desejável, chegar a definições que não lancem mão de termos abstratos e não sejam flexíveis diante de cada caso4. A profusão de definições acadêmicas de “desinformação” e seus termos correlatos (Tandoc Júnior; Lim; Ling, 2018), contudo, indica que a definição adotada tem consequências práticas. Não por outra razão, inúmeras contribuições destacam a necessidade de definições “precisas”: a Coalizão Direitos na Rede, no item 29.i, fala de não incluir a ideia de “incitação” entre os ilícitos, e o IAB Brasil, no item 27.i, indica a necessidade de evitar “subjetividade”.
A complexidade da definição adotada deve considerar quem a aplicará. Quanto mais complexos forem os ilícitos, mais minuciosa deve ser a avaliação legal do conteúdo a ser removido. Essa dinâmica reflete-se nas contribuições à consulta pública, que sugerem evitar a atribuição de análises complexas às plataformas. A contribuição de Electronic Frontier Foundation e Access Now fez referência a declarações da Relatoria Especial para Liberdade de Expressão da Comissão Interamericana de Direitos Humanos, as quais afirmam que as plataformas digitais não são capazes de fazer análises legais precisas dos conteúdos. No mesmo sentido, a Câmara Brasileira da Economia Digital aponta, no item 29, que mesmo os órgãos jurisdicionais “têm dificuldade” na análise da licitude de conteúdos, devido à “falta de clareza” dos ilícitos. O ITS Rio, por sua vez, ressalta, no item 29.i, que “não se pode esperar que plataformas digitais façam uma análise detida dos conteúdos”.
A mesma abordagem pode ser encontrada nas decisões da Corte de Justiça da União Europeia, que pode determinar judicialmente a ilegalidade de certas publicações, ficando os provedores de plataformas obrigados a remover conteúdo “idêntico”. A legislação brasileira apresenta uma disposição similar: o TSE realiza uma análise extensa da legalidade de conteúdos, e os demais atores ficam vinculados a essa decisão (conforme art. 9º-F da Resolução 23.610 [Brasil, 2019]). Nos casos Eva Glawischnig-Piesczek e C-401/19 (Zingales et al., 2024b), julgou-se que não devem ser criadas obrigações às plataformas digitais que requeiram uma “avaliação independente” da legalidade dos conteúdos discutidos. Isso é especialmente relevante quando a ilegalidade se baseia em elementos contextuais, por exemplo; como nota o IAB Brasil, no item 27.i, diferentes ilícitos contam com diferentes padrões de prova.
É amplamente conhecido que as plataformas digitais processam suas ações de moderação em uma escala vastamente superior à de mecanismos regulatórios estatais (Douek, 2019). Ainda que seja possível esperar que o parecer legal do TSE seja mais bem-fundamentado que o das plataformas, é razoável supor que as plataformas examinarão um volume de conteúdo muito superior ao do Judiciário. Portanto, pode ser problemático que as determinações sobre a permissibilidade de conteúdo sejam majoritariamente feitas por uma entidade apontada como ausente de capacidade institucional (ou de legitimidade5) de fazê-lo adequadamente. Se a grande maioria dos participantes da consulta pública concorda que certos tipos de conteúdo conformam riscos, deixá-los no ar até a decisão definitiva de sua legalidade pode apenas agravar os danos eventualmente causados. Como aponta Douglas Laycock (1990), há situações em que os danos gerados pela expressão são de difícil ou impossível reparação, o que desafia propostas que dependem de uma análise pormenorizada do conteúdo.
Por fim, vale discutir uma questão específica presente na definição legal de desinformação. De forma geral, as definições de desinformação tendem a enfatizar o aspecto da veracidade da informação veiculada (Cavaliere, 2022). Não há dúvidas de que as características específicas das redes sociais apresentam novos desafios para a regulação, ainda que, em muitas instâncias, seja inteiramente possível aplicar normativas pré-existentes (Lessig, 1999). Aparentemente no sentido contrário, os sistemas regionais de Direitos Humanos estabeleceram, em casos anteriores à Internet, uma contundente jurisprudência limitando a possibilidade de sancionar expressões por não serem verídicas.
No Sistema Interamericano, o maior exemplo é o caso Tristán Donoso vs. Panamá. Donoso fez acusações ao Procurador Geral do Panamá e foi condenado por calúnia, não tendo conseguido prová-las em juízo. A própria Corte não afirma que há provas que corroborem as acusações. Contudo, dado o evidente interesse público das afirmações e a existência de razões para que ele acreditasse no que dizia, a Corte entendeu que as acusações eram permissíveis. O Sistema Europeu de Direitos Humanos igualmente não busca determinar se as informações no centro das disputas que analisa são ou não verdadeiras. O Tribunal investiga, por exemplo, se houve boa-fé, se as informações foram apuradas de acordo com a ética jornalística e se foram usados métodos adequados para a obtenção das informações (Cavaliere, 2022).
Assim, colocar a avaliação da veracidade das informações como crucial para julgar sua licitude apresenta desafios práticos significativos que precisam de definição substancial antes de que qualquer ação seja tomada. Mesmo sem uma única resposta possível, essa questão precisa ser diretamente enfrentada pelas normativas.
2 Desinformação no contexto eleitoral: fatos inverídicos ou descontextualizados
A desinformação no contexto eleitoral apresenta desafios substanciais à democracia brasileira. Como abordado no item anterior, é complexo delimitar previamente o que é “desinformação”. No entanto, tratando-se de um passo essencial para regular a questão, o TSE tem assumido esse papel por meio de suas resoluções e entendimentos jurisprudenciais que tratam diretamente da temática.
O TSE é o órgão superior da Justiça Eleitoral brasileira (art. 118 [Brasil, 1988]) e tem competência para regulamentar questões necessárias para o efetivo cumprimento das leis eleitorais (art. 23, IX do Código Eleitoral [Brasil, 1965]6 e art. 57-J e 105 da Lei das Eleições [Brasil, 1997]7). Nos últimos anos, os desafios trazidos pelo problema da desinformação fizeram com que a atuação do TSE fosse ainda mais contundente, principalmente através de suas resoluções.
Considerando a relevância dos posicionamentos do TSE, foi realizada pesquisa de jurisprudência no mês de outubro de 2024 utilizando os termos-chave “fatos (notoriamente) inverídicos” e “fatos (gravemente) descontextualizados”8. Foram selecionadas as decisões mais recentes, apresentadas nas primeiras páginas dos resultados da pesquisa, a fim de garantir a análise das tendências jurisprudenciais mais atuais. A pesquisa foi complementada por informações extraídas do Sistema de Alertas de Desinformação Eleitoral (SIADE, s.d.).
A partir da análise da jurisprudência do TSE, é possível evidenciar uma preocupação do Tribunal com os efeitos da desinformação em diversas frentes, como a credibilidade das urnas eletrônicas, a confiança na Justiça Eleitoral e a honra de candidatos. A Representação n. 0601365-65.2022 (Brasil, 2024b), por exemplo, abordou a disseminação de boatos sobre uma suposta manipulação das urnas eletrônicas, acompanhados de alegações infundadas envolvendo o Tribunal Regional Eleitoral (TRE) de São Paulo. Mesmo após esclarecimentos oficiais, as informações descontextualizadas continuaram a circular, configurando um caso clássico de manipulação intencional para induzir o público ao erro. A decisão destacou que tal prática compromete a legitimidade do processo eleitoral e ilustra como a desinformação é frequentemente utilizada para atacar instituições democráticas.
Além disso, o TSE tem sido enfático ao tratar da manipulação de conteúdos audiovisuais como uma estratégia recorrente de desinformação. No caso da Representação n. 0601200-18.2022 (Brasil, 2022c), o Tribunal analisou vídeos que distorciam falas de candidatos ao retirar declarações de seu contexto original, criando, assim, uma narrativa artificial. Esse tipo de desinformação prejudica os candidatos diretamente envolvidos e subverte o debate público. O TSE concluiu no caso que, por alterarem o sentido original das mensagens, esses conteúdos violavam os princípios fundamentais da ética eleitoral e do processo democrático.
A conexão entre “desinformação” e “intenção deliberada de engano” é outro aspecto central. A Representação n. 0601556-13.2022 (Brasil, 2024c) tratou da circulação de informações que sugeriam vínculos inexistentes entre partidos políticos e organizações criminosas. O Tribunal considerou que as publicações tinham o claro propósito de enganar o eleitorado, utilizando elementos descontextualizados para criar uma narrativa falsa.
O conceito de desinformação como fenômeno multifacetado também aparece na Representação n. 0600920-47.2022 (Brasil, 2024a), que analisou a disseminação de informações desmentidas previamente por agências de checagem de fatos. O Tribunal destacou que a insistência em veicular conteúdos falsos, mesmo após sua refutação, configura uma tentativa deliberada de manipular o eleitorado. Logo, essa decisão enfatiza a importância de parcerias entre a Justiça Eleitoral e as agências de checagem para identificar rapidamente quais conteúdos são desinformativos e mitigar seus efeitos antes que eles atinjam proporções irreversíveis.
A análise da jurisprudência também evidenciou uma tentativa de o TSE delimitar os critérios que orientam a identificação da desinformação. O uso de elementos verdadeiros apresentados de forma gravemente descontextualizada é um dos pontos mais complexos desse processo. Um exemplo claro está na Representação n. 0601185-49.2022 (Brasil, 2022b), na qual foram analisadas afirmações que sugeriam, de forma descontextualizada, que Ciro Gomes estaria apoiando a candidatura de Jair Bolsonaro. A decisão sublinhou que a descontextualização de fatos ou declarações pode induzir o eleitor ao erro, configurando uma grave ameaça à legitimidade do pleito.
Outro aspecto relevante na abordagem do TSE é a proteção das instituições eleitorais contra ataques desinformativos. A Representação n. 0600956-89.2022 (Brasil, 2022a), por exemplo, mostra como conteúdos falsos ou manipulados podem ser utilizados para desacreditar a atuação do TSE e de seus integrantes. Nesse caso, o TSE analisou publicações que afirmavam, de forma inverídica, que o candidato Jair Bolsonaro e seu partido provocaram a suspensão da lei que instituiu o piso salarial nacional para profissionais de enfermagem, apesar de essa suspensão ter decorrido de decisão cautelar do Superior Tribunal Federal (STF). Diante disso, o TSE reconheceu que tal prática viola a legislação eleitoral e compromete a confiança pública nas instituições democráticas.
O TSE também tem buscado estabelecer parâmetros claros para lidar com conteúdos que utilizam elementos factuais para criar narrativas enganosas. Um exemplo emblemático é a Representação n. 0601752-80.2022 (Brasil, 2023), na qual o Tribunal analisou postagens que insinuavam, sem provas, que um candidato defendia posições políticas polêmicas. Assim, o TSE destacou que a manipulação de informações verdadeiras para fins desinformativos é prática especialmente perigosa, pois dificulta a identificação da falsidade pelo público.
Além disso, o TSE tem enfatizado, em suas decisões, duas categorias principais de desinformação: “fatos notoriamente inverídicos” e “fatos gravemente descontextualizados”. Os “fatos notoriamente inverídicos” referem-se a informações manifestamente falsas e objetivamente verificáveis, como alegações infundadas de fraudes eleitorais ou manipulação de resultados, situações consideradas particularmente graves quando têm o potencial de comprometer a confiança no sistema eleitoral ou induzir o eleitorado ao erro. Já os “fatos gravemente descontextualizados”, embora contenham elementos de verdade, são apresentados de maneira a distorcer seu significado original e frequentemente envolvem o uso de edições, cortes ou manipulações que alteram o contexto factual ou temporal das informações, criando uma narrativa falsa. Portanto, as decisões analisadas indicam que o TSE tem buscado enfrentar os desafios impostos pela disseminação da desinformação em ambiente digital com base em alguns critérios: i) a intencionalidade do conteúdo, ii) o impacto potencial sobre o eleitorado e iii) a verificação por agências especializadas para subsidiar suas decisões.
Essa intencionalidade é geralmente evidenciada pela análise contextual, ou seja, a forma como os conteúdos são disseminados, frequentemente com o objetivo deliberado de enganar ou influenciar o eleitorado. O Tribunal reconhece, portanto, que a desinformação, em sua essência, busca minar a confiança do público no processo eleitoral e nas instituições democráticas, o que se reflete nas decisões sobre boatos envolvendo as urnas eletrônicas ou a Justiça Eleitoral.
Sobre o impacto da desinformação no equilíbrio do pleito, o TSE tem considerado não apenas o conteúdo das mensagens, mas também sua capacidade de afetar a percepção pública e influenciar o resultado eleitoral. A gravidade dos casos intensifica-se quando as informações desinformativas são amplamente disseminadas, especialmente num ambiente digital caracterizado pela velocidade e alcance das redes sociais.
Em suma, nota-se que a análise da jurisprudência do TSE revela um esforço contínuo para lidar com os desafios impostos pela desinformação no contexto eleitoral digital. O Tribunal tem consolidado uma abordagem que combina rigor jurídico, colaboração interinstitucional e foco na preservação da legitimidade democrática, permitindo ao Tribunal avançar na construção de uma jurisprudência que busca coibir práticas nocivas sem comprometer direitos fundamentais, como a liberdade de expressão.
No entanto, os casos analisados também apontam para a necessidade de aprimoramento contínuo, especialmente no que diz respeito à uniformidade dos critérios aplicados. Assim, a subjetividade inerente a conceitos como “fatos gravemente descontextualizados” ainda gera desafios, como apontado em decisões críticas que destacam a dificuldade de aplicar esses critérios de forma uniforme.
3 Medidas de mitigação do risco de desinformação eleitoral: análise da consulta pública e das medidas adotadas pelo TSE
A análise realizada até o momento demonstra a importância de compreender melhor a definição e os contornos dos conceitos relacionados à desinformação. Agora, passa-se a analisar as contribuições feitas na consulta pública sobre os riscos (incluindo a desinformação) e suas formas de mitigação, essencialmente no contexto eleitoral. Objetiva-se compreender se há inovações e avanços nas medidas sugeridas ou se essas sugestões já estão incorporadas no ordenamento jurídico brasileiro e na atuação do TSE.
Como observado, há nas manifestações analisadas um consenso sobre a desinformação ser um risco a ser abordado na regulação das plataformas digitais, assim como relevante concordância sobre a utilidade de obrigações mais abrangentes para as plataformas em períodos eleitorais (NIC.br, 2023). A consulta apresenta perguntas que sugerem formas de mitigação dos riscos associados a infodemias, como a desinformação, ou seja, sugestões e respostas que são analisadas (perguntas 29, 30, 33 e 34).
A primeira sugestão, na pergunta 29.i, é a de definir categorias ou tipos de conteúdos que devem ser objeto de remoção obrigatória pelas plataformas digitais por simples notificação, além dos casos previstos no Marco Civil da Internet (MCI) (Brasil, 2014). Sobre a responsabilidade por danos decorrentes de conteúdo gerado por terceiros, o art. 19 do MCI traz a regra de que o provedor somente será responsabilizado civilmente pelos danos quando não tomar as providências para tornar o conteúdo indisponível após a ordem judicial específica. As exceções estão no art. 21 (imagens de nudez ou ato sexual) e art. 19, § 2º (direito autoral).
Há uma preocupação nítida nas manifestações em manter o que está estabelecido no MCI, com a remoção obrigatória apenas após a notificação judicial: caso seja realizada pela mera notificação é considerada desproporcional e ineficiente (Instituto Vero, ITS Rio e CEPI FGV Direito SP). Assim, a remoção obrigatória pelas plataformas de alguns tipos de conteúdos deve estar vinculada a danos graves e imediatos a direitos individuais ou coletivos (Diracom). Além disso, tais categorias deveriam ser precisas e detalhadas (ALAI).
Considera-se que essa sugestão já está implementada pela Resolução n. 23.610 do TSE (Brasil, 2019), que traz, em seu art. 9º-E, casos expressos de indisponibilização imediata de conteúdos, sob pena de responsabilidade solidária. São os casos de riscos considerados mais graves, quais sejam: atos antidemocráticos, fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral, grave ameaça aos membros ou ao Poder Judiciário, e discurso de ódio e conteúdo sintético fabricado ou manipulado em desacordo com as normas.
A segunda sugestão (29.ii) é estabelecer responsabilidade das plataformas digitais pelos conteúdos impulsionados e monetizados. Nesse caso, percebeu-se uma maior aceitação das opiniões manifestadas sobre a adequação dessa medida para a mitigação dos riscos. Segundo a Coalizão Direitos na Rede, as plataformas já realizaram análise sobre os conteúdos e uma escolha em lucrar a partir deles.
Algumas participações mencionam que essa medida já está prevista, em alguma medida, no ordenamento jurídico brasileiro. Para o Idec, o Código de Defesa do Consumidor garante essa responsabilização objetiva, ao passo que para o IP.rec (Instituto de Pesquisa em Direito e Tecnologia do Recife), a base jurídica é o regime de responsabilidade subjetiva de plataformas do MCI. Há também algumas manifestações contrárias a essa sugestão, a exemplo do ITS Rio e da ALAI.
O TSE traz inúmeros requisitos para o impulsionamento de conteúdo político-eleitoral, seja na Lei das Eleições (Brasil, 1997) ou na Resolução 23.610 (Brasil, 2019). Segundo o art. 29, § 4º da Resolução, poderá haver responsabilização do provedor, nos moldes previstos no art. 19 do MCI (Brasil, 2014). Ademais, a priorização paga de conteúdos em aplicações de busca na Internet também possui vários requisitos (art. 28, § 7º-B [Brasil, 2019]).
A terceira medida, na pergunta 29.iii, é a definição de critérios e mecanismos para melhorar a exposição de usuários à diversidade de conteúdos, incluindo posições políticas e abordagens científicas; a partir disso, seria possível aprimorar a relação dos usuários com a diferença e a diversidade. O CTS FGV Direito Rio menciona que seria válido dar ao usuário uma opção de escolha, para que outro ponto de vista político, filosófico ou religioso seja exibido a ele. O Intervozes e o Instituto Vero também se manifestam sobre a questão da transparência nos Termos de Uso e nos parâmetros utilizados na recomendação de conteúdo, a fim de permitir ao usuário uma exposição livre dos conteúdos.
Apesar de o TSE não ter uma normativa específica sobre multiplicidade de opiniões e conteúdos, pode-se considerar que a atuação da Justiça Eleitoral brasileira, de modo geral, busca a exposição múltipla e igualitária dos candidatos durante o período eleitoral. Justamente por isso são impostas medidas contra o abuso de poder econômico e normas sobre o que é proibido ou permitido nas propagandas eleitorais na Internet. Consideramos que, embora não haja um arcabouço normativo robusto em relação a essa medida no Brasil, ela está de acordo com os objetivos da regulação eleitoral. Contudo, seria interessante que a regulação sobre regulação de plataformas analisasse o oferecimento de conteúdo múltiplo aos usuários, inclusive pelas recomendações algorítmicas.
A pergunta 33 menciona sobre as medidas de mitigação dos riscos associados a ameaças a processos eleitorais. O Instituto Vero manifesta-se sobre a necessidade de a entidade reguladora atuar em cooperação com o Tribunal Superior Eleitoral e as regras eleitorais. São medidas citadas: “i) plataformas devem apresentar, em tempo hábil, as regras e políticas que serão aplicadas em períodos eleitorais; ii) plataformas devem implementar sistema que possibilite a prestação de contas eleitorais, como gastos com publicidade, autoria etc.; iii) biblioteca de anúncios específica para esses períodos; iv) proibição de microdirecionamento ou utilização de critérios de direcionamento que inibam o acesso à informação por todos”. Tais medidas são englobadas por uma ideia de maior transparência na relação entre plataformas e usuários no período eleitoral; no entanto, sobre a terceira, menciona-se que o TSE conta com um repositório de decisões sobre o enfrentamento à desinformação eleitoral, de acordo com o art. 9º-G da Resolução 23.610 (Brasil, 2019). Além disso, o art. 27-A da resolução exige um repositório de anúncios de impulsionamento político-eleitoral.
Na pergunta 33, a consulta sugere também cinco medidas de mitigação sobre as ameaças aos processos eleitorais. A primeira é sobre o estabelecimento de obrigações de transparência mais abrangentes em períodos eleitorais, a qual se harmoniza com as obrigações exigidas das plataformas sob o MCI (Brasil, 2014) e o direito do consumidor. O TSE cumpre essa ideia, ao menos parcialmente, em suas Resoluções. Sobre propaganda eleitoral, a Resolução 23.610 (Brasil, 2019) exige que haja identificação clara do impulsionamento de conteúdos na Internet (art. 29) e da proibição de disparo em massa (art. 31, §1º-A), dentre outras medidas.
A segunda sugestão é sobre a definição de responsabilidades mais amplas para moderação de conteúdos em períodos eleitorais; em geral, também há concordância sobre essa medida. A Coalizão Direitos na Rede menciona a necessidade de cooperação e diálogo com a Justiça Eleitoral. Essa sugestão também é cumprida pelo TSE, em grande parte, na Resolução 23.610 (Brasil, 2019) e na Resolução 23.714 (Brasil, 2022), que trazem previsões sobre exclusão de conteúdo indevido no período eleitoral, para preservar a integridade das eleições.
A terceira sugestão (pergunta 33.iii) é a definição de critérios sobre o limite de gastos em publicidade nas plataformas digitais durante os períodos eleitorais. A Lei das Eleições (Brasil, 1997) traz inúmeras previsões sobre os recursos nas campanhas eleitorais a partir de seu art. 17, enquanto o art. 10 da Resolução 23.610 (Brasil, 2019) também traz requisitos específicos para a publicidade eleitoral. Além disso, há uma necessidade de transparência do provedor sobre esse impulsionamento, segundo o art. 27-A da mesma Resolução.
A quarta medida é a limitação do perfilhamento para uso de propaganda eleitoral, com a qual as manifestações também são de concordância. Apesar de o TSE não vedar, traz requisitos de publicidade e acesso público às informações de perfilhamento eleitoral (art. 27-A, I; 33-B, I; 33-D, §1º, II).
Por fim, a última medida (pergunta 33.v) é o impedimento de impulsionamento de conteúdos durante a campanha eleitoral. No geral, as manifestações concordam com essa sugestão; entretanto, alguns consideram que esse impedimento pode ser uma medida excessivamente restritiva. Como afirmado, apesar de possível, o impulsionamento político-eleitoral é restrito pelas regras do TSE.
A perguntas 30 e 34 permitem que os participantes respondam com outras medidas de mitigação ainda não mencionadas. Em seguida, analisamos em conjunto algumas dessas sugestões. Para o IRIS (Instituto de Referência em Internet e Sociedade), são necessárias, além da moderação de conteúdo, curadoria para aqueles de caráter indefinido, mas não recomendáveis, ou seja, quando há dúvida sobre sua veracidade. Além disso, são sugeridos canais de comunicação eficientes para que os usuários façam denúncias.
Existem, atualmente, algumas iniciativas do TSE que implementam, ainda que parcialmente, essas sugestões. Sobre a exclusão de conteúdos ilegais, menciona-se as inúmeras previsões do TSE nesse sentido, a exemplo da Resolução 23.610 (art. 7º, caput e §1º; art. 9º-B, §4º; art. 9º-E; art. 9º-F, §3º; art. 38, §§4º e 5º [Brasil, 2019]) e Resolução 23.714 (art. 2º, §1º e art. 4º [Brasil, 2022]). Sobre os canais de denúncia, menciona-se o SIADE criado pelo TSE9, o disque-denúncia com o número 149110 e o aplicativo Pardal11.
Para Alex Camacho e CTS FGV Direito Rio, outras medidas são importantes, como a educação cívica, a promoção de alfabetização midiática e digital (com habilidades críticas para que os indivíduos consigam identificar as informações e fontes confiáveis) e as parcerias com verificadores de fatos (para identificação de informações falsas e desinformativas com base em evidências) e veículos de mídia tradicionais. Ademais, o Tribunal Superior Eleitoral também tem atuado em iniciativas dessa natureza. Um exemplo é a campanha informativa “Jornalismo é confiável, fala nossa língua, protege da desinformação e fortalece a democracia”12, que busca aumentar a confiança na mídia durante as eleições. Além disso, o Programa de Enfrentamento à Desinformação13 tem parcerias com empresas de checagem de fatos.
Nesse sentido, a partir da investigação realizada no presente item, observa-se que muitas sugestões mencionadas na consulta pública já estão, no contexto eleitoral, endereçadas pelo TSE, medidas apresentadas principalmente na Resolução 23.610 (Brasil, 2019), atualizada em 2024 pela Resolução 23.732 (Brasil, 2024X), que traz previsões relevantes sobre a desinformação eleitoral e a atuação das plataformas nesses casos.
Conclusão
O problema da desinformação é uma realidade imposta nos últimos anos. Compreender o conceito de desinformação, especialmente no âmbito eleitoral, embora seja um desafio bastante complexo, é essencial para lidar melhor com esse problema. Existe amplo consenso sobre a necessidade de combater a desinformação devido aos riscos que apresenta à Democracia, consenso que não parece se traduzir na existência de um plano de ação coeso e operacionalizável. Nessa discussão, a veracidade, um fator essencial, tem uma série de problemas práticos em sua avaliação.
A jurisprudência do TSE evidencia a relevância do papel da corte na aplicação prática de conceitos relevantes para o enfrentamento da desinformação no contexto eleitoral. Casos paradigmáticos, como aqueles envolvendo manipulação de vídeos ou disseminação de boatos sobre a Justiça Eleitoral, refletem uma preocupação do Tribunal com os efeitos da desinformação na formação de uma opinião pública informada e no fortalecimento da democracia. As decisões analisadas apontam que o TSE busca equilibrar a proteção ao debate público e a salvaguarda dos direitos fundamentais, com a necessidade de garantir a lisura do processo eleitoral. Contudo, também evidenciam os desafios inerentes à aplicação uniforme desses conceitos e ao combate das novas formas de desinformação em um ambiente digital dinâmico e em constante mudança.
Muitas sugestões apresentadas na consulta pública para lidar com a desinformação, como a imposição de responsabilidades mais amplas para as plataformas digitais durante o período eleitoral e a disponibilização de informações confiáveis aos eleitores, têm sido endereçadas pelo TSE. Assim, as contribuições da consulta pública trouxeram contribuições relevantes para enriquecer a regulação já existente, principalmente a partir de um maior nível de detalhamento a algumas questões.
No entanto, é necessário avançar com medidas mais amplas e efetivas não só por parte do TSE, mas da regulação de plataformas de modo geral, como o aperfeiçoamento dos conceitos e das medidas específicas impostas para as plataformas no período eleitoral, incluindo sua responsabilização. Somente com maior transparência e controle público da atuação das plataformas poderá haver avanço no tema da desinformação, sem que sejam comprometidos outros direitos igualmente relevantes em nosso ordenamento jurídico, como a liberdade de expressão e manifestação.
Referências
BRASIL. Tribunal Superior Eleitoral. Pardal. Disponível em: https://www.tse.jus.br/eleicoes/eleicoes-2018/aplicativos-da-justica-el…. Acesso em: 28 nov. 2024.
BRASIL. Tribunal Superior Eleitoral. Programa Permanente de Enfrentamento à Desinformação. Disponível em: https://www.justicaeleitoral.jus.br/desinformacao/. Acesso em: 28 nov. 2024.
BRASIL. Tribunal Superior Eleitoral. SOS Voto: cidadão pode denunciar mentiras sobre o processo eleitoral pelo 1491. 28 ago. 2024. Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Agosto/sos-voto-cidada…. Acesso em: 28 nov. 2024.
BRASIL. Tribunal Superior Eleitoral. TSE e Aner lançam campanha informativa para auxiliar no enfrentamento das mentiras nas eleições. 06 ago. 2024. Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Agosto/tse-e-aner-lanc…. Acesso em: 28 nov. 2024.
BRASIL. Tribunal Superior Eleitoral. Recurso na Representação nº 0600920-47.2022.6.00.0000. Acórdão Brasília/DF. Relatora Ministra Cármen Lúcia. Julgamento: 02/04/2024, 2024a.
BRASIL. Tribunal Superior Eleitoral. Representação nº 0601365-65.2022.6.00.0000. Acórdão Brasília/DF. Relator Min. Benedito Gonçalves. Julgamento: 25/05/2024, 2024b.
BRASIL. Tribunal Superior Eleitoral. Representação nº 0601556-13.2022.6.00.0000. Acórdão Brasília/DF. Relator Min. Benedito Gonçalves. Julgamento: 25/05/2024, 2024c.
BRASIL. Tribunal Superior Eleitoral. Resolução nº 23.714, de 20 de outubro de 2022. Disponível em: https://www.tse.jus.br/legislacao/compilada/res/2022/resolucao-no-23-71…. Acesso em: 18 nov. 2024.
BRASIL. Tribunal Superior Eleitoral. Referendo na Representação nº 0600956-89.2022.6.00.0000. Acórdão Brasília/DF. Relatora Min. Paulo de Tarso Sanseverino. Julgamento: 22/09/2022, 2022a.
BRASIL. Tribunal Superior Eleitoral. Referendo na Representação nº 0601185-49.2022.6.00.0000. Acórdão Brasília/DF. Relatora Min. Maria Cláudia Bucchianeri. Julgamento: 30/09/2022, 2022b.
BRASIL. Tribunal Superior Eleitoral. Referendo na Representação nº 0601200-18.2022.6.00.0000. Acórdão Brasília/DF. Relator Min. Paulo de Tarso Sanseverino. Julgamento: 03/09/2022, 2022c.
BRASIL. Tribunal Superior Eleitoral. Representação nº 0601752-80.2022.6.00.0000. Acórdão Brasília/DF. Relator Min. Benedito Gonçalves. Julgamento: 09/11/2023.
BRASIL. Tribunal Superior Eleitoral. Resolução nº 23.610, de 18 de dezembro de 2019. Disponível em: https://www.tse.jus.br/legislacao/compilada/res/2019/resolucao-no-23-61…. Acesso em: 18 nov. 2024.
BRASIL. Tribunal Superior Eleitoral. Sistema de Alertas de Desinformação Eleitoral (SIADE). Disponível em: https://www.tse.jus.br/eleicoes/sistema-de-alertas. Acesso em: 28 nov. 2024.
CAVALIERE, Paolo. The Truth in Fake News: How Disinformation Laws Are Reframing the Concepts of Truth and Accuracy on Digital Platforms. Edinburgh School of Law Research Paper n. 2022/12. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4151908. Acesso em: 20 out. 2024.
CGI.br. Consulta sobre Regulação de Plataformas Digitais: contribuições recebidas. 2023. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 15 out. 2024.
CORTE IDH. Caso Tristán Donoso vs. Panamá. Sentença de 27 de janeiro de 2009 (Exceção Preliminar, Mérito, Reparações e Custas), série C, n. 193.
DOUEK, Evelyn. Verified Accountability: Self-Regulation of Content Moderation as an Answer to the Special Problems of Speech Regulation. Aegis: Security Policy in Depth, set. 2019, Series Paper No. 1903.
LAYCOCK, Douglas. The death of the irreparable injury rule. Harvard Law Review, vol. 103, n. 3, 1990, p. 687-771. Disponível em: https://www.jstor.org/stable/1341345. Acesso em: 20 out. 2024.
LESSIG, Lawrence. The Law of the Horse: What Cyberlaw Might Teach. Harvard Law Review, vol. 113, 1999, p. 501-546. Disponível em: https://cyber.harvard.edu/works/lessig/finalhls.pdf. Acesso em: 20 out. 2024.
NIC.br. Sistematização das contribuições à consulta sobre regulação de plataformas digitais. São Paulo: Núcleo de Informação e Coordenação do Ponto BR, 2023. Disponível em: https://cgi.br/media/docs/publicacoes/1/20240227162808/sistematizacao_c…. Acesso em: 15 out. 2024.
SCOTT, Richard Mackenzie-Gray. Managing Misinformation on Social Media: Targeted Newsfeed Interventions and Freedom of Thought. Northwestern Journal of Human Rights, v. 21, n. 2, 2023.
TANDOC JÚNIOR, Edson C.; LIM, Z. W.; LING, R. Defining “Fake News”: A typology of scholarly definitions. Digital Journalism, vol. 6, n. 2, 2018, p. 137-153. Disponível em: https://www.tandfonline.com/doi/abs/10.1080/21670811.2017.1360143. Acesso em: 20 out. 2024.
WARDLE, Claire; DERAKHSHAN, Hossein. Information Disorder: Toward an interdisciplinary framework for research and policy making. Conselho da Europa, relatório DGI(2017)09. Disponível em: https://edoc.coe.int/en/media/7495-information-disorder-towar
d-an-interdisciplinary-framework-for-research-and-policy-making.html. Acesso em: 20 out. 2024.
ZINGALES, Nicolo et al. Codes of Conduct: a promising tool to counter online disinformation. 2024a. Disponível em: https://direitorio.fgv.br/sites/default/files/arquivos/policy-brief-cts…. Acesso em: 22 out. 2024.
ZINGALES, Nicolo et al. TSE e Desinformação: Comentários sobre as Resoluções do TSE. 2024b. Disponível em: https://direitorio.fgv.br/sites/default/files/arquivos/cartilha-orient
ativa-tse-e-desinformacao-volume-2.pdf. Acesso em: 20 out. 2024.
==
1 Um exemplo é o da candidatura de Pablo Marçal para a prefeitura de São Paulo. Embora o candidato do Partido Renovador Trabalhista Brasileiro (PRTB) não tenha se apresentado no horário eleitoral na TV e no rádio durante o primeiro turno, em razão de sua forte presença nas redes sociais, ele obteve votação expressiva no primeiro turno, com 28,14% dos votos.
2 Os artigos que mencionam estes termos são: arts. 9º-C, caput; 9º-D, caput e § 1º; 9º-E, inc. II; 9º-F, caput; 9º-G, caput e § 7º; e 38, § 8º-A da Resolução n. 23.610 (Brasil, 2019).
3 Esta contribuição, embora destaque aspectos da desinformação relevantes a seu autor, não tenta definir desinformação para fins de moderação de conteúdo.
4 Para uma análise mais específica de definições de desinformação, consulte Zingales et al. (2024a, p. 2-5).
5 Ambos os argumentos aparecem nas contribuições ao item 29.i. A Coalizão Direitos na Rede e o Instituto Vero parecem se concentrar na ideia de legitimidade, enquanto o ITS Rio enfatiza a ideia de capacidade institucional.
6 Esse artigo prevê que expedir instruções que julgar convenientes para a execução do Código Eleitoral é competência do TSE.
7 Segundo o art. 57-J, o TSE pode regulamentar a questão da propaganda eleitoral de acordo com o cenário e as ferramentas tecnológicas existentes em cada momento eleitoral, de modo a promover regras de boas práticas para as campanhas eleitorais na Internet. Por sua vez, o art. 105 trata da possibilidade que o TSE tem de expedir instruções para a fiel execução da Lei das Eleições (Brasil, 1997).
8 As pesquisas foram realizadas em: https://jurisprudencia.tse.jus.br/#/jurisprudencia/pesquisa. Acesso em 12 maio 2025.
9 Disponível em: https://www.tse.jus.br/eleicoes/sistema-de-alertas.
13 Disponível em: https://www.justicaeleitoral.jus.br/desinformacao/.