Significados do discurso de ódio: desafios regulatórios e disputas discursivas na visão de diferentes setores sociais

Eliza Bachega Casadei é professora titular do Programa de Pós-Graduação em Comunicação e Práticas de Consumo da Escola Superior de Propaganda e Marketing. Doutora e mestre em Ciências da Comunicação pela ECA-USP, coordena o Grupo de Pesquisa História, Comunicação e Consumo. É bolsista produtividade em pesquisa do CNPq, nível 2.
Gabriela Agostinho Pereira é doutoranda em Comunicação e Práticas do Consumo pelo PPGCOM ESPM - SP e mestre pela mesma instituição. Bolsista CAPES/Prosup, pesquisadora do Grupo de Pesquisa História, Comunicação e Consumo e integrante da Cátedra Maria Aparecida Baccega. Atua nas áreas de comunicação, consumo, plataformas de mídias sociais e discurso de ódio.
Resumo
O presente artigo analisa a complexidade das dinâmicas que envolvem a regulação de discursos de ódio em plataformas digitais. A pesquisa enfatiza que as soluções regulatórias demandam mais do que a mera identificação dos conteúdos ofensivos, mas envolvem também as formas pelas quais esse fenômeno é nomeado e interpretado. Com base na Análise de Discurso de Linha Francesa, são exploradas as respostas dos três setores sociais consultados na Consulta Pública sobre Regulação de Plataformas Digitais feita pelo CGI.br em 2023. A análise destaca as distinções entre os setores acerca do entendimento do discurso de ódio e, consequentemente, as soluções regulatórias, revelando as tensões que permeiam o campo da regulação digital e os desafios para estabelecer consensos em torno do enfrentamento do discurso de ódio nas plataformas digitais.
Introdução
A complexidade do enfrentamento às manifestações do discurso de ódio em plataformas digitais reside no fato de que as soluções regulatórias demandam mais do que a mera identificação dos conteúdos ofensivos: elas envolvem as formas pelas quais esse fenômeno é nomeado e interpretado no espaço social. Nesse sentido, as formas de tratar o problema dependem de uma partilha dos nomes - posto que o ato de nomear traz, em si, uma perspectiva normativa de como as coisas devem ser (Gomes, 2003) – e de uma prática discursiva que constrói sentidos e posiciona atores sociais de maneiras diferenciais no espaço discursivo. A identificação dos agentes, a construção dos enunciados e a circulação sobre o que constitui o discurso odioso em plataformas digitais revelam um campo de disputas semânticas e ideológicas, que materializam tensões entre as diferentes interpretações sobre o fenômeno que circulam no tecido social.
A Consulta Pública sobre Regulação de Plataformas Digitais feita pelo Grupo de Trabalho Regulação de Plataformas do Comitê Gestor da Internet do Brasil (CGI.br) em 2023 (Núcleo de Informação e Coordenação do Ponto BR, 2023) traz contribuições importantes para o enfrentamento ao discurso de ódio, ao mapear extensamente como diferentes setores sociais identificam e interpretam os agentes e soluções regulatórias possíveis.
A partir dos pressupostos teóricos da Análise de Discurso de Linha Francesa (Maingueneau, 2005), o objetivo do presente artigo é analisar as contribuições à Consulta do CGI.br sobre regulação de plataformas digitais para observar como os diferentes grupos sociais entrevistados articulam a construção discursiva em torno da definição dos discursos de ódio e quais implicações isso tem para as propostas de regulação de plataformas. A partir dessa perspectiva geral, discutiremos como os participantes entendem e definem o discurso de ódio; quais grupos são identificados como alvos ou propagadores desses discursos pelos entrevistados; quais posições de sujeito são reforçados nos discursos sobre regulação; e como os participantes percebem o papel das plataformas e do Estado em lidar com discursos de ódio e extremismos.
Os discursos, em seu conjunto, carregam “uma compreensão de como o mundo ‘funciona’ e, portanto, uma noção de como sociedades e indivíduos devem reagir a esse funcionamento” (Gomes, 2019, p. 273). Isso significa que os diferentes entendimentos sobre o que é discurso de ódio implicam em variações na legitimidade das soluções regulatórias propostas entre os grupos sociais.
A Análise do Discurso de linha francesa parte do pressuposto de que os sujeitos enunciadores não são fonte original de seus próprios discursos, mas sim, atores que medeiam discursos sociais circulantes mais amplos que são materializados nas dispersões e/ou regularidades dos enunciados que, por sua vez, revelam diferentes formações discursivas sobre a construção dos objetos (Maingueneau, 2005). Assim, os discursos apresentados nas respostas à consulta pública do CGI.br revelam as distintas matrizes ideológicas e os sentidos em disputa na definição do problema e nas soluções propostas pela Comunidade Científica e Tecnológica, pelos representantes do Terceiro Setor e do Setor Empresarial. A análise evidencia que as falas dos participantes não apenas expressam opiniões individuais, mas reproduzem e disputam lugares discursivos associados a posições de sujeito, revelando as tensões que permeiam o campo da regulação digital e os desafios para estabelecer consensos em torno do enfrentamento do discurso de ódio nas plataformas digitais.
Entendimentos sobre o discurso de ódio
As palavras atuam a partir de uma “operação de demarcação”, ou seja, de “recorte a partir do qual um segmento se abre a construções imaginárias, a produções sociais, mecanismo de produção, sobretudo à possibilidade de disciplina e controle” (Gomes, 2003, p. 95). E é nesse sentido que os termos não são meramente um mecanismo de representação de mundo, mas sim, de apresentação de uma realidade “e de um pensar que se modela pelas palavras” (Gomes, 2003, p. 95).
O termo “discurso de ódio”, sob essa perspectiva, é um termo de difícil definição posto que materializa tensões de sentido em torno de processos de controle e disciplina. Não há uma definição fechada sobre o termo, posto que se trata de um conceito em disputa e em processo. Para Leal da Silva et al. (2011, p.447), o discurso de ódio “é uma manifestação segregacionista, baseada na dicotomia superior (emissor) e inferior (atingido) e, como manifestação que é, passa a existir quando é dada a conhecer por outrem [...]”. Waldron (2012), por sua vez, afirma que o termo deveria ser substituído por “difamação coletiva”, pois trata-se da difamação de grupos inteiros que geram consequências sociais. Já Norbert Elias e John L. Scotson (2000), mostram que a intolerância pode ter como base a luta pelo poder.
Nas respostas dos entrevistados da Consulta do CGI.br, é possível observar que, de uma maneira geral, há uma percepção de que o discurso de ódio é um risco significativo para a sociedade, intimamente relacionado ao poder das grandes plataformas digitais. Ao todo, é possível encontrar, na consulta, 74 respostas com menções ao discurso de ódio, com concentração no eixo “2.4. Grupo de Riscos - Riscos relacionados a ameaças à democracia e aos direitos humanos”, com 54 respostas.
O conjunto dessas respostas fornece elementos para analisar como diferentes grupos sociais entendem e definem o discurso de ódio, a partir de suas posições como sujeitos do discurso. Posto que “uma cultura é sustentada por diversas formações discursivas” que “concorrem para o conjunto que compõe o pensamento de uma comunidade” (Gomes, 2019, p. 276), as distintas definições de discurso de ódio mostram que “para cada discurso em particular, e para o todo das formações, aplica-se a regra da construção de um entendimento de mundo e das ações correlatas” (Gomes, 2019, p. 277). As interpretações de discurso de ódio, portanto, não descrevem um fenômeno, mas sim, atuam como expressões das formas particulares com que cada respondente percebe o mundo, seus perigos e os limites da liberdade. Esse conjunto de visões constrói uma teia de sentidos que sinaliza como os diferentes grupos sociais esperam que seja regulado o espaço público no contexto das plataformas digitais.
É necessário esclarecer que, ao longo do questionário, não é solicitado aos participantes que definam discursos de ódio, embora esse seja um termo bastante citado nas respostas. Para que possamos delimitar os sentidos mobilizados para o termo, portanto, foi necessário identificar, em um primeiro momento, as recorrências discursivas que atrelam o discurso de ódio a outros discursos no interior das respostas. Isso é relevante porque o discurso se forma a partir de sua relação com outros discursos dentro de um campo discursivo. Assim, os discursos não existem de forma isolada, mas se constroem em relação (seja de aliança ou de conflito) com outros discursos. O interdiscurso estabelece “um sistema no qual a definição da rede semântica que delimita a especificidade de um discurso coincide com a definição de suas relações com o Outro” (Maingueneau, 2005, p. 35).
Após uma leitura extensa das respostas, foi possível delimitar as seguintes categorias, referentes às temáticas que se repetem em sua correlação com o discurso de ódio.
- Ameaça à democracia: os participantes frequentemente relacionam o discurso de ódio a uma ameaça aos valores democráticos, ao fomentar narrativas antidemocráticas e desinformativas. A propagação do discurso de ódio é vista como um risco, capaz de incitar ações extremistas que desafiam os direitos humanos e as instituições democráticas.
- Risco à liberdade de expressão: as falas sobre regulação do discurso de ódio muitas vezes são acompanhadas com a preocupação em equilibrar a necessidade de proteger a sociedade contra discursos odiosos, mas sem comprometer a liberdade de expressão. Algumas respostas destacam o desafio de evitar que as políticas para mitigar o discurso de ódio acabem limitando a capacidade dos cidadãos de expressarem suas opiniões e exercitarem direitos fundamentais.
- Modelo de negócio das plataformas: o modelo de engajamento das plataformas, que busca maximizar a interação dos usuários, é descrito como um fator central para a disseminação de conteúdos extremistas e de ódio. Esse modelo incentiva o engajamento por meio da exposição a conteúdos polarizadores, manipulando o comportamento dos usuários em troca de lucro.
- Radicalização e violência social: o discurso de ódio é frequentemente associado à radicalização e à promoção da violência. Participantes observam que as redes sociais têm um papel importante na amplificação de discursos que incentivam a discriminação, a violência e o extremismo.
- Moderação de conteúdos: muitos participantes sugerem que as plataformas precisam implementar políticas de moderação. Há a defesa do uso de algoritmos e de regras claras para identificar e coibir discursos odiosos. A criação de diretrizes específicas para a remoção de conteúdos violentos também é frequentemente mencionada.
A análise frequencial desses temas nas respostas revela que: o risco à liberdade de expressão está presente em 57 respostas (77% das respostas que mencionam discurso de ódio); Ameaça à democracia: 37 respostas (50%); Moderação de conteúdos: 30 respostas (40,5%); Modelo de negócio das plataformas: 22 respostas (29,7%); Radicalização e violência social: 21 respostas (28,4%).
Posto que uma mesma resposta pode ser enquadrada em mais de uma categoria, temos, como combinações mais frequentes:
- Ameaça à democracia e risco à liberdade de expressão: 11 respostas
- Risco à liberdade de expressão e moderação de conteúdos: 7 respostas
- Ameaça à democracia, risco à liberdade de expressão, radicalização e violência social: 7 respostas
- Ameaça à democracia, risco à liberdade de expressão, moderação de conteúdos: 5 respostas
Esses resultados revelam que, para os respondentes, a construção do sentido de “discurso de ódio” é atravessada por uma tensão discursiva entre a salvaguarda dos direitos individuais, especialmente a “liberdade de expressão”, e a necessidade de proteger o espaço público contra conteúdos que minem a democracia. O termo “liberdade de expressão” emerge como tema central e como ponto de disputa simbólica, frequentemente associado a questões de “ameaça à democracia” e “moderação de conteúdos”, refletindo posições ideológicas sobre os limites do aceitável no espaço digital.
Ainda que o discurso de ódio seja um tema transversal, cada setor traz à tona aspectos específicos, refletindo diferentes preocupações e abordagens. A partir dos dados analisados, observamos recorrências discursivas distintas entre os setores entrevistados, revelando preocupações e prioridades variadas de acordo com a área de atuação.
A tabela abaixo descreve os temas de maior preocupação em relação ao discurso de ódio para cada setor:
Categoria | Terceiro Setor (%) | Setor Empresarial (%) | Comunidade Científica e Tecnológica (%) |
Ameaça à democracia | 55,9 | 53,8 | 40,7 |
Modelo de negócio das plataformas | 38,2 | 30,8 | 18,5 |
Moderação de conteúdos | 38,2 | 15,4 | 55,6 |
Radicalização e violência social | 26,5 | 7,7 | 40,7 |
Risco à liberdade de expressão | 76,5 | 92,3 | 70,4 |
A tabela evidencia que o setor empresarial apresenta uma preocupação destacada com a liberdade de expressão (92,3%), frequentemente associando-a a uma regulação que não comprometa o ambiente econômico. O Terceiro Setor também prioriza a liberdade de expressão (76,5%), mas destaca fortemente o impacto do discurso de ódio na democracia (55,9%) e nos direitos sociais. Já a Comunidade Científica e Tecnológica mostra-se particularmente atenta à moderação de conteúdos (55,6%), indicando a regulação técnica como uma prioridade para enfrentar o problema.
De uma maneira geral, a Comunidade Científica e Tecnológica aborda o discurso de ódio principalmente como parte de uma questão regulatória mais ampla, onde definições técnicas e a responsabilidade das plataformas são temas centrais. Para os respondentes deste setor, o discurso de ódio é frequentemente mencionado em conjunto com a necessidade de moderação de conteúdo e governança estruturada, refletindo um foco na elaboração de critérios claros para a regulamentação.
Para exemplificar esse aspecto, podemos citar a resposta do Centro de Tecnologia e Sociedade da FGV Direito Rio à pergunta 30 (“Caso haja medidas de mitigação para os riscos associados a infodemias como desinformação, extremismos, discurso de ódio e discurso terrorista que não tenham sido mencionadas, descreva a seguir”), em que se afirma que:
Iniciativas em âmbito público e privado, em nível global, reconhecem a necessidade de obrigações de transparência mais rigorosas para grandes plataformas, desfrutando atualmente de um bom nível de consenso entre os diferentes setores da sociedade. O desafio imposto às medidas de mitigação relacionadas à falta de transparência é definir princípios, diretrizes e critérios claros para orientar decisões sobre o que se deve publicizar, para quem, em que contexto e de que forma, além de detalhar medidas e obrigações de transparência específicas para plataformas digitais, respeitando os diversos contextos de atuação.
Também em relação à mesma pergunta, Alex Camacho Castilho traz a preocupação em abordar critérios objetivos para mitigação dos efeitos de discurso de ódio como “Promoção de alfabetização midiática e digital”, “Parcerias com verificadores de fatos”, “Promoção de padrões de moderação mais rigorosos”, entre outros.
Conforme evidenciado nas respostas, a Comunidade Científica e Tecnológica tende a enfatizar a importância de uma abordagem regulatória técnica e pautada em critérios objetivos, contemplando a transparência nos processos de moderação e a criação de diretrizes claras para o tratamento do discurso de ódio.
Em relação ao Setor Empresarial, essa preocupação também é evidente e recorrente nas respostas. Há, contudo, algumas particularidades. Um outro discurso emoldura as respostas e propõe uma cena discursiva distinta. No Setor Empresarial, o discurso de ódio é também abordado sob a ótica dos riscos econômicos e do impacto no poder de mercado. Os participantes deste setor relacionam, com maior frequência, o discurso de ódio a práticas comerciais e ao impacto econômico, destacando a responsabilidade regulatória como uma ferramenta para proteger o ambiente de negócios e a confiança dos consumidores. O discurso de ódio é, portanto, integrado a uma visão mais ampla de proteção de mercado, onde a regulação ajuda a estabelecer um ambiente digital confiável e competitivo.
Para Sérgio Garcia Alves, por exemplo, “Empresas de tecnologia têm desafiado os limites da ciência da computação para promover a identificação e remoção de conteúdo problemático em escala. Tais avanços somente são possíveis em contextos legais que ofereçam flexibilidade para a inovação, ou seja, que não criem soluções rígidas que não se adaptem ao desenvolvimento tecnológico”. Para Thais Covolato, “um excesso na responsabilização das plataformas por conteúdos sejam eles monetizados ou não, pode gerar o chamado chilling effect ou efeito inibidor” para o ambiente de negócios.
Além disso, trata-se do setor que demonstra maior preocupação com a noção de que os mecanismos regulatórios contra o discurso do ódio não atrapalhem a liberdade de expressão. Para a Câmara Brasileira da Economia Digital, “é essencial dispor de uma legislação resiliente sobre direitos de liberdade de expressão que sopese a sua importância ao mesmo tempo que leva em consideração a proteção aos direitos humanos (discurso de ódio, terrorismo, incitamento a tais comportamentos)”. Para a Brasscom, é necessário considerar que “ainda que usuários compartilhem conteúdos potencialmente ilícitos, a criação de regimes de responsabilidade de intermediário (...) potencialmente representam restrições à liberdade de expressão dos usuários”.
O Setor Empresarial, portanto, propõe um entendimento em que a regulação do discurso de ódio se entrelaça com a necessidade de manter um ambiente de negócios propício à inovação e à competitividade. Isso é suportado, em grande medida, por um discurso que defende a liberdade de expressão e modelos mais flexíveis de regulação.
O Terceiro Setor coloca o discurso de ódio no enquadramento discursivo dos direitos humanos e do impacto social, enfatizando a proteção das minorias e a preservação democrática. Este setor é o que mais defende uma regulação que impeça a disseminação de preconceitos e discursos autoritários. Os participantes do Terceiro Setor frequentemente contextualizam o discurso de ódio dentro de debates mais amplos sobre equidade, enfatizando a importância de políticas regulatórias que impeçam a perpetuação de discriminações e de atitudes que enfraqueçam a coesão social e os valores democráticos.
O GT-RI ISOC Brasil, por exemplo, destaca que “verifica-se uma tendência preocupante de governos em usar tecnologia e controle da Internet para suprimir a dissidência e fortalecer seu poder. Isso pode tomar várias formas, desde a censura e o bloqueio de sites até a vigilância massiva e a coleta de dados pessoais”. Para Rhaiana Valois, “a defesa dos direitos humanos estabelece ferramentas na forma de direitos que podem ser utilizados para mitigar esses problemas”. Para Blogueiras Negras, precisamos “considerar a moderação de conteúdo feita por pessoas humanas que representem a pluralidade de raça, gênero, identidade de gênero e marcadores afins, que sejam contratadas proporcionalmente de acordo com o número de pessoas que usam cada plataforma”.
O enquadramento discursivo adotado pelo Terceiro Setor associa os discursos de ódio de forma mais contundente à defesa de direitos humanos e da justiça social, bem como à defesa dos valores democráticos. A moderação de conteúdo, a partir desse viés discursivo, deve fortalecer e sustentar os valores democráticos e proteger grupos sociais mais vulneráveis contra as violências em plataformas digitais.
A análise por setores sociais revela disputas discursivas significativas em torno da construção do sentido do conceito de discurso de ódio. Embora haja preocupações transversais, cada setor mobiliza o termo de acordo com posições ideológicas, projetando diferentes demandas e pressões sobre as práticas regulatórias. A partir da análise, é possível observar como o processo interdiscursivo se manifesta em torno das distintas visões sobre o discurso de ódio. Enquanto compartilham a preocupação com o impacto do discurso odioso, os setores o abordam a partir de lentes próprias, trazendo diferentes expectativas para a regulação. O processo interdiscursivo, assim, surge como um campo de tensões e negociações discursivas, onde cada setor dialoga com os outros, ao mesmo tempo em que reforça suas próprias posições a partir de enquadramentos discursivos distintos.
Constituição de sujeitos discursivos
As disputas discursivas em torno do conceito de discurso de ódio também são materializadas, nas respostas, a partir da constituição de posições-sujeito construídas no e pelo discurso. Essas posições-sujeito não são meramente papéis assumidos, mas práticas discursivas que emolduram o conceito de discurso de ódio, produzindo efeitos de sentido que legitimam ou deslegitimam ações e exigências regulatórias. Elas também atuam como instâncias de produção de sentido que delineiam o que deve ser considerado discurso de ódio e quais políticas são necessárias para seu enfrentamento.
Em relação à constituição dos sujeitos discursivos, serão observadas, nas respostas: (1) Quem são os sujeitos descritos como responsáveis pela disseminação dos discursos de ódio; e (2) Quem são os alvos/vítimas desses discursos odiosos.
Em relação às posições descritas como responsáveis pela disseminação dos discursos de ódio, nas respostas analisadas, as plataformas digitais são mencionadas como grandes contribuidoras para a disseminação de conteúdos potencialmente prejudiciais em todos os setores. Elas são descritas como facilitadoras devido à sua estrutura de engajamento, o que contribui para a disseminação de discursos polarizantes. Além disso, há uma expectativa, nas respostas, de que as plataformas sejam reguladas e responsabilizadas, com sugestões de que deveriam agir ativamente para proteger os usuários e moderar o conteúdo. Os enquadramentos em relação a esse tema seguem a estrutura discursiva delineada no item anterior, onde a Comunidade Científica e Tecnológica parece preocupada com o delineamento de diretrizes claras e objetivas para o enfrentamento do problema; o Setor Empresarial reflete uma preocupação com os riscos da regulação para o mercado e com a liberdade de expressão; e o Terceiro Setor com os riscos sociais e para a democracia que o discurso de ódio pode trazer.
Há, ainda, menções a grupos que disseminam “pensamentos autoritários” (como no comentário de Raul Luis, representante do terceiro setor: “As grandes corporações através de suas plataformas digitais estão desestabilizando democracias, interferindo na cultura do povo, disseminando a cultura do ódio, disseminando preconceitos, permitindo a proliferação de pensamentos autoritários”), indicando uma percepção de que certos grupos ideológicos são propagadores desses discursos. As referências a extremismo e autoritarismo aparecem geralmente como preocupações amplas sobre o conteúdo disseminado online e os riscos para a sociedade, sem apontar diretamente para grupos definidos como disseminadores desses pensamentos.
Especialmente nos comentários do terceiro setor, há a preocupação de que o Estado atue de forma autoritária na regulação (como nos comentários “o Brasil se aproxima de realidades políticas autoritárias ao redor do mundo que vêm controlando o acesso à Internet de maneira arbitrária” e “É preciso, portanto, ter cuidado com esse tipo de determinação, uma vez que conceitos indeterminados ou vagos podem abrir brechas para interferências no direito de liberdade de expressão e participação das pessoas, principalmente em países com histórico autoritário”). Os dados mostram que o Terceiro Setor é o mais preocupado com questões relacionadas ao autoritarismo, com 19 menções. Em seguida, a Comunidade Científica e Tecnológica apresenta 11 menções e o Setor Empresarial conta com 7 menções nas respostas analisadas.
A análise das respostas evidencia que as plataformas digitais são majoritariamente descritas como agentes centrais na disseminação dos discursos de ódio, posicionando-as como sujeitos que, por sua arquitetura, contribuem para a proliferação de ideologias extremistas, projetando, portanto, uma responsabilidade implícita na propagação de discursos nocivos. A definição de outros responsáveis, contudo, carrega uma ambiguidade discursiva onde, de um lado, há referências a grupos autoritários que promovem discursos de ódio (embora esses grupos nem sempre sejam claramente identificados); de outro, o próprio Estado é objeto de uma desconfiança latente, uma vez que sua intervenção regulatória é vista com cautela, devido ao risco de que essas ações possam assumir contornos autoritários. Esse jogo discursivo evidencia uma tensão entre a dificuldade de responsabilizar agentes sociais específicos e a preocupação com a possibilidade de o Estado, sob o pretexto de combate ao discurso de ódio, exercer um controle excessivo sobre as vozes e os conteúdos na esfera pública.
Em relação aos alvos/vítimas preferenciais do discurso de ódio, as respostas de cada setor variam consideravelmente. O Terceiro Setor apresenta 17,6% de seus comentários mencionando diretamente vítimas específicas como jovens, mulheres e outros grupos vulneráveis. Essa proporção é significativamente maior do que as de outros setores, reforçando a preocupação do Terceiro Setor com a proteção de determinados grupos. Em contrapartida, a Comunidade Científica e Tecnológica e o Setor Empresarial abordam a questão do discurso de ódio de forma mais ampla. Apenas 7,4% dos comentários da Comunidade Científica e 7,7% dos comentários do Setor Empresarial fazem referência a grupos específicos. Estes setores tendem a focar mais em riscos e responsabilidades gerais, sem detalhar quem são os alvos específicos do discurso de ódio, indicando uma abordagem mais estruturante e menos voltada a minorias identificáveis.
Isso pode ser observado em comentários como o de Bruno Ribeiro, representante da Comunidade Científica e Tecnológica, que coloca que “é fundamental que a regulamentação das plataformas digitais seja cuidadosamente elaborada, levando em consideração a complexidade do ambiente digital, bem como os direitos e interesses de todos os envolvidos, incluindo usuários, empresas e a sociedade como um todo”. Assim, a construção discursiva em torno dos grupos vulneráveis ou vítimas de discursos de ódio ocorre de maneira genérica, sem nomeação explícita de minorias ou grupos específicos.
Isso é relevante posto que a constituição de sujeitos discursivos no discurso odioso, para Butler (2021, p. 11), é particularmente importante posto que “se ser chamado é ser interpelado, a denominação ofensiva tem o risco de introduzir no discurso um sujeito que utilizará a linguagem para rebater a denominação”. O discurso articula uma existência social uma vez que “o chamamento constitui um ser no interior do circuito possível de reconhecimento e, consequentemente, fora dele, na abjeção” (Butler, 2021, p. 13).
Ao evitar mencionar identidades específicas, o discurso se desvia de confrontar diretamente as desigualdades que amplificam a vulnerabilidade de determinados grupos em relação a outros. Essa neutralidade implícita constrói uma cena discursiva que universaliza a preocupação com o discurso de ódio e, ao mesmo tempo, silencia a necessidade de medidas específicas de proteção para grupos mais afetados.
Trata-se de um enquadramento distinto daquele adotado pelo Terceiro Setor. Mulheres Negras, por exemplo, apontam que “É preciso levar em conta que no contexto local as mulheres negras são um dos grandes alvos dos discursos e práticas de ódio que assolam nossa sociedade”; Victor Durigan aponta que é “importante mencionar riscos relacionados à radicalização social, violência contra grupos sociais vulneráveis ou marginalizados, como é o caso da violência política contra mulheres, em especial contra candidatas em períodos eleitorais ou jornalistas”; Bia Barbosa aponta que “Não se pode abrir margem para uma proteção jurídica a discursos violentos contra determinados grupos sociais vulnerabilizados, como a população LGBTQIAP+, pessoas negras, mulheres, pessoas com deficiência etc.”.
Nessas respostas, ao mencionar diretamente grupos específicos como mulheres, jovens, pessoas negras e a população LGBTQIA+, destaca-se uma abordagem convocatória na constituição dos sujeitos discursivos alvos de discursos de ódio. O Terceiro Setor articula uma preocupação explícita com a vulnerabilidade desses grupos e, consequentemente, enquadra-os discursivamente como sujeitos que devem ser protegidos nas medidas de regulação. Ao nomear esses sujeitos, o Terceiro Setor traz a necessidade de regulação específica que reconheça a especificidade das violências enfrentadas por essas populações. Dessa forma, o discurso convocatório do Terceiro Setor constrói uma cena discursiva de apelo político, onde a proteção desses sujeitos vulneráveis é descrita como uma responsabilidade coletiva no enfrentamento ao discurso de ódio.
Efeitos de sentido reforçados nos discursos sobre regulação
Conforme evidenciado no item anterior, a análise revela como os discursos dos participantes constroem as plataformas como “sujeitos responsáveis” por mitigar os discursos de ódio e extremismos. As plataformas digitais são frequentemente descritas como detentoras de um poder econômico excessivo, o que gera preocupações sobre a sua influência na circulação de informações e no discurso público. Participantes mencionam que o poder de mercado das plataformas afeta a segurança, privacidade e liberdade dos usuários, e que uma regulação mais robusta é necessária para mitigar esses efeitos.
A escolha entre autorregulação e regulação estatal, contudo, mostra diferentes atribuições de responsabilidade. A Análise de Discurso ajuda a interpretar esses posicionamentos ideológicos subjacentes: cada proposta de intervenção carrega valores e ideologias específicas. Defender a autorregulação implica em uma ideologia de liberdade de mercado e confiança nas corporações, enquanto a regulação estatal pode sugerir uma postura de proteção social e vigilância sobre o poder econômico.
Em uma perspectiva geral, 2,7% dos comentários mencionam a autorregulação, sugerindo que há pouca confiança nas plataformas para se autorregularem sem intervenção externa. 12,2% dos comentários fazem referência à regulação estatal, proteção social ou controle, indicando uma preferência maior por uma intervenção que limite o poder das plataformas e proteja os usuários.
A análise dos comentários por setor revela diferenças nas abordagens em relação à regulação das plataformas digitais. No Setor Empresarial, 23,1% dos comentários abordam a necessidade de regulação estatal. Trata-se, ainda, do setor que se mostra menos favorável à autorregulação das plataformas. O Setor Empresarial é o mais cauteloso em relação à regulamentação, mencionando preocupações sobre possíveis restrições à liberdade de expressão e os efeitos de uma regulação que poderia ser onerosa para as empresas. A Comunidade Científica e Tecnológica, por outro lado, possui um total de 27 comentários sobre esse assunto, dos quais 7,4% mencionam a necessidade de regulação estatal, mas nenhuma referência a autorregulação. O Terceiro Setor se destaca por apresentar uma combinação de perspectivas: 14,7% de seus comentários são favoráveis à regulação estatal, enquanto 5,9% mencionam autorregulação.
A exceção de poucas respostas – como por exemplo, da ABRANET, que sugere que as “práticas de autorregulação” devem ter “sua importância aqui reconhecida e preservada” – há, em todos os setores, uma postura cética em relação à capacidade das plataformas de se autorregularem no enfrentamento ao discurso de ódio, em um posicionamento ideológico que media a ideia de que as plataformas não devem ser as únicas responsáveis pelo controle de conteúdos potencialmente prejudiciais. Isso fica evidente em comentários como o do Instituto de Pesquisa em Direito e Tecnologia do Recife (“Por muito tempo, as plataformas adotaram um modelo de autorregulação que, como se pôde notar, não foi suficiente para barrar problemas como desinformação e discurso de ódio na Internet”) ou do Intervozes (“Não podemos defender a autoregulação a cargo apenas das plataformas”).
Defanti (2018, p. 149) afirma que no Brasil, o estudo da regulação é frequentemente associado ao papel do Estado, especialmente às agências reguladoras – vínculo este decorrente da tradição brasileira de concentrar a responsabilidade pela regulação em órgãos estatais específicos, como as agências, que têm o papel de supervisionar, normatizar e fiscalizar setores estratégicos. Esse cenário contribui para que o conceito de regulação no Brasil seja amplamente associado a uma intervenção direta do Estado, ao invés de processos de autorregulação corporativa (Maradei Júnior, 2023; Pacheco, 2006). Sob a perspectiva da Análise de Discurso, a cultura exerce uma influência profunda sobre a construção de sentidos no discurso, deixando marcas que refletem valores, práticas e crenças socialmente compartilhadas.
Nas soluções propostas para o enfrentamento do discurso de ódio, isso se manifesta em práticas discursivas enraizada em uma cultura de valorização da intervenção pública. Trata-se de um traço que estrutura a forma como os indivíduos interpretam e respondem às tensões das dinâmicas sociais.
Considerações finais
A análise das respostas à consulta pública realizada pelo CGI.br permitiu identificar o enfrentamento ao discurso de ódio em plataformas digitais como um espaço de disputas discursivas, que, por sua vez, implicam nos juízos de valor que são dados às soluções regulatórias pelos diferentes grupos sociais. Essas disputas revelam não apenas as complexidades envolvidas na regulação de conteúdos violentos, mas também o caráter ideológico presente em cada setor do levantamento.
A divisão de setores sociais permitiu observar que, ainda que temas como democracia, liberdade de expressão, modelo de negócios das plataformas, radicalização, violência e moderação de conteúdo estejam presentes nas respostas dos representantes de todos os setores (Comunidade Científica e Tecnológica, Terceiro Setor e Setor Empresarial), o foco atribuído a cada um deles é distinto.
A construção de sentido acerca do conceito de discurso de ódio possui certa transversalidade, mas, a partir dos dados analisados, observamos diferentes prioridades de acordo com o setor e visões distintas sobre o conceito. Além disso, cada setor projeta diferentes expectativas regulatórias que se alinham com suas posições ideológicas particulares. Para o Setor Empresarial, a prioridade é garantir a proteção de uma liberdade de expressão que não afete o ambiente econômico. O Terceiro Setor, por sua vez, além de priorizar a liberdade de expressão, também se preocupa com os efeitos que o discurso de ódio pode exercer na democracia e zela pela proteção de grupos potencialmente vulneráveis. Por fim, a Comunidade Científica e Tecnológica está preocupada, de maneira geral, com a moderação de conteúdos e a regulação técnica das plataformas.
Essas distinções de enfoque estão presentes não apenas em relação ao conceito de discurso de ódio, mas também ao observarmos nas respostas dos entrevistados quais grupos são considerados alvos ou propagadores desses discursos e o papel das plataformas digitais e do Estado no enfrentamento do fenômeno. As diferenças nas respostas dos setores revelam as interpretações ideológicas de cada grupo e as disputas de significado que permeiam o campo da regulação no Brasil.
É preciso destacar que em todos os setores, as plataformas digitais são percebidas como centrais na circulação e disseminação de conteúdos odiosos, violentos e polarizadores, evidenciando a necessidade de serem responsabilizadas de alguma forma pelo conteúdo presente em seus espaços. Também foi possível observar que de maneira geral, as propostas de enfrentamento e regulação estão ancoradas em uma valorização da intervenção pública, uma vez que há desconfiança em todos os setores na capacidade de autorregulação das plataformas.
Por fim, consideramos que soluções regulatórias eficientes devem ser pensadas visando o equilíbrio entre as preocupações de cada setor social. A complexidade do discurso de ódio plataformizado faz emergir a necessidade de uma regulação que considere as especificidades desse contexto e as disputas discursivas e ideológicas entre os atores envolvidos.
Referências
BUTLER, Judith. Discurso de ódio: uma política do performativo. São Paulo: Editora Unesp, 2021.
DEFANTI, Francisco. “Um ensaio sobre a autorregulação: características, classificações e exemplos práticos”. Revista de Direito Público de Economia, v. 16, n. 63, 2018, p. 149-181.
ELIAS, Norbert; SCOTSON, John L. Os estabelecidos e os outsiders: sociologia das relações de poder a partir de uma pequena comunidade. Rio de Janeiro: Jorge Zahar, 2000.
GOMES, Mayra Rodrigues. “Palavra de ordem / dispositivo disciplinar”. Galáxia, n. 5, v. 1, 2003, p. 91-108.
GOMES, Mayra Rodrigues. “As materialidades e seus discursos”. Comunicação, Mídia e Consumo, v. 16, n. 46, 2019, p. 271-290.
LEAL DA SILVA, Rosane et al. “Discursos de ódio em redes sociais: jurisprudência brasileira”. Revista Direito - GV, v. 7, n. 2, p. 445-468, jul./dez. 2011.
MAINGUENEAU, Dominique. Gênese dos Discursos. Curitiba: Criar Edições, 2005.
MARADEI JÚNIOR, João Carlos. “O papel das agências reguladoras na tutela dos direitos do consumidor”. Revista Digital de Direito Administrativo, v. 10, n. 1, 2023.
NÚCLEO DE INFORMAÇÃO E COORDENAÇÃO DO PONTO BR. Sistematização das contribuições à consulta sobre regulação de plataformas digitais. São Paulo: Núcleo de Informação e Coordenação do Ponto BR, 2023.
PACHECO, Regina. “Regulação no Brasil: desenho das agências e formas de controle”. Revista de Administração Pública , v. 40, n. 4, 2006.
WALDRON, Jeremy. The Harm in Hate Speech . Harvard, versão e-book, Kodo, 2012.