Misoginia como mercadoria nos espaços digitais

Misoginia como mercadoria nos espaços digitais

Serene Lim, ativista, escritora e advogada em Kuala Lumpur. Sua área de interesse inclui tecnologia, direitos humanos, estudos de gênero, sexualidade, teoria jurídica feminista, narrativa e Netflix.

Data da publicação: março 2023

Não faltam evidências e pesquisas que mostram que a violência online baseada em gênero é a mesma velha história de um desequilíbrio de poder político, econômico, cultural e social para manter uma hierarquia de status baseada no gênero de alguém – um sistema que muitas vezes privilegia a experiência de homens cisgênero heterossexuais. No entanto, existem aspectos nos espaços digitais que incentivam a proliferação da violência de gênero contra mulheres cisgênero, pessoas transgênero, queer e pessoas de gênero não conforme. A violência tem uma maneira de manifestar-se em diferentes plataformas – SMS, Zoom, Telegram, Facebook, incluindo as plataformas emergentes como TikTok e Clubhouse. O problema, portanto, reside não apenas na tecnologia em si, mas na lógica subjacente e no modelo de lucro que impulsiona o modus operandi do algoritmo, a política de moderação de conteúdo e todas as outras tecnologias implantadas para operar o ecossistema digital.

Nunca foi sobre o poder do povo

A ideia de uma abordagem liberal para a governança da Internet – o mercado aberto, autorregulado e desimpedido – realmente afetou o poder das instituições tradicionais, ou seja, o governo e os conglomerados de mídia. Novas tecnologias forneceram espaços alternativos para comunidades marginalizadas e geograficamente dispersas envolverem-se e catalisarem novas formas de autoexpressão. No entanto, o impacto perturbador da Internet tem sido desigual e, de certa forma, o poder está cada vez mais obscurecido, menos visível e mais difícil de resistir.1 Corporações digitais transnacionais como Facebook e Google, e “super apps” como Grab na Ásia, estão cada vez mais consolidando seu poder em vários setores – financeiro, publicidade, caseiro, notícias, veículos e muito mais. A concentração monopolista de poder levou ao surgimento do que Shoshana Zuboff chama de “capitalismo de vigilância” – um sistema que reivindica todos os aspectos da experiência humana como matéria-prima gratuita para tradução em dados comportamentais, com o objetivo final de prever o comportamento futuro do ser humano e nos automatizar.2

Seja comprando aquele batom às 2h da manhã de sexta-feira ou promovendo um vídeo político de esquerda enquanto você percorre seu Facebook sem pensar, essas corporações e suas visões de negócios estão agora mediando as lentes pelas quais vemos nosso mundo.

Quando experiências e conexões humanas tornam-se um meio para um fim comercial, conteúdos e expressões que encorajam interações são bem-vindos e priorizados. Os algoritmos do Facebook são projetados para destacar conteúdos que geram fortes reações, seja de alegria ou indignação, seja um meme de cachorrinhos fofos ou discurso de ódio contra a comunidade trans.3 Esses algoritmos ditam como as informações, conteúdos e notícias são reconfigurados, remontados, enterrados ou amplificados.4 Eles fornecem um novo caminho para os agressores coletivizarem e abusarem de mulheres e pessoas queer em uma velocidade muito mais rápida. Nossa identidade social, ou seja, de classe, gênero, orientação sexual, etnia, religião, capacidade corporal etc., ainda dita nossa capacidade de acessar espaços digitais e a qualidade de nosso envolvimento nesses espaços.5

Ser capaz de dizer ou expressar algo em espaços digitais nem sempre significa que a pessoa é ouvida, especialmente no caso de vozes marginalizadas. A abordagem laissez-faire para a geração de conteúdo nesses espaços sempre significa que as empresas não estão reivindicando nenhuma responsabilidade ou dever de eliminar a discriminação ou de garantir um espaço seguro para direitos verdadeiramente iguais à liberdade de expressão para todos.

Estudo de caso: um criador não intencional do TikTok

Allie é uma estudante universitária cis de 20 anos. Ela começou a colocar conteúdo aleatório sobre sua vida cotidiana e pensamentos no TikTok no início deste ano. A conta dela tinha menos de 100 seguidores na época, sendo a maioria deles seus amigos. Um dia, ela postou um vídeo dela dançando em seu quarto, vestindo um macacão de personagem de desenho animado, sem sutiã. Na manhã seguinte, ela acordou com um milhão de visualizações naquele vídeo específico do TikTok, acompanhado por milhares de comentários sexualmente ofensivos e de censura moral6, todos focados em seus seios no vídeo.

Por motivos que ela não entendia muito bem, seu vídeo começou a aparecer na página “para você” de muitos homens de outros países. Ela observa que o número de seguidores aumentou desde então, qualificando-a para o programa de criadores locais do TikTok. Ao mesmo tempo, as interações e comentários para seus vídeos subsequentes (especialmente para aqueles em que ela falou sobre feminismo e questões de justiça social) permanecem baixos e às vezes tão baixos quanto 500 visualizações para uma conta com 71.000 seguidores.7 Em uma entrevista ela expressou como o referido vídeo bagunçou sua conta do TikTok e ela não sabe de que outra forma pode recuperar e redirecionar sua conta para o público-alvo. De vez em quando, ela recebe mensagens de homens pedindo que ela produza um vídeo semelhante dançando de macacão.

A experiência de Allie destaca a lógica distorcida subjacente que projeta os algoritmos e a política de conteúdo na maioria das plataformas de mídia social. A objetificação de seu corpo também tem várias camadas. A objetificação sexual do corpo da mulher, infelizmente, não é novidade e continua sendo uma luta contínua mesmo nos espaços digitais. Além disso, o corpo de Allie é reduzido a conjuntos de dados a serem colhidos e explorados, onde ela não tem controle sobre como seu corpo deve ser tratado ou visto pelo algoritmo. Todos os dados existem como parte de nosso eu corporificado e cada decisão tomada com base em nossos “corpos de dados” afeta nossos próprios corpos físicos. Os dados não existem fora de nossos corpos, eles são uma extensão de nossos corpos. O uso indevido e abuso de nossos dados não é apenas uma violação de dados pessoais, mas uma violação de nossa integridade física.8

Nossos gostos e desgostos são rastreados, analisados e previstos constantemente, mas esses dados não representam totalmente a complexidade e fluidez de nossas vidas e sociedade. Eles são projetados para extrair dados comportamentais que estão por aí e nunca para desafiar o status quo ou as normas. Somos colocados à força em caixas e somos apresentados a conteúdos que se encaixam na previsão da máquina sobre nosso comportamento. O resultado é o reforço e a legitimação da misoginia e uma cultura de censura moral que tem servido bem ao mercado capitalista há séculos. Isso é feito à custa da igualdade de gênero e do acesso igualitário à liberdade para todos. Continua a haver pouco ou nenhum incentivo econômico para que as empresas revejam seus algoritmos e modelos de lucro. Como seres humanos, somos suscetíveis ao viés de confirmação, estamos sempre buscando e aceitando conteúdos que reforçam nossas suposições e descartando evidências que mostrem o contrário.9 Isso é muito importante quando nossas sociedades pré-existentes são inerentemente patriarcais e preconceituosas em relação às comunidades marginalizadas.

Imaginando um futuro feminista na Internet

Os mecanismos existentes das empresas de mídia social para combater a violência online baseada em gênero permanecem longe de serem adequados, especialmente para mulheres e pessoas queer do Sul global. No entanto, resistir às plataformas ou ficar longe dos espaços digitais não é mais uma opção viável para muitos de nós. O recente Conselho de Supervisão10 foi mais uma tentativa do Facebook de lidar com as ofensas, a violência e a crueldade sem fim em suas plataformas, cuja eficácia foi questionada e ainda não foi confirmada.

Conforme descrito apropriadamente por Shoshana Zuboff, nosso esforço para combater a violência baseada em gênero online começa com o reconhecimento de que devemos caçar o marionetista, não a marionete. A menos e até que a questão da mercantilização da atenção e dos dados possa ser abordada, nenhuma solução tecnocrática resolverá o problema central.

Talvez a conversa mais importante seja se podemos acabar com o Facebook, o Google e todas essas corporações digitais gigantes e transformar os atuais modelos de lucro baseados em dados? Minha resposta à pergunta é que começamos imaginando uma Internet feminista. Uma Internet feminista não tem soluções completas para tudo, ao contrário, ela nos desafia a questionar “o que posso imaginar para mim e minha comunidade para um mundo verdadeiramente inclusivo, diverso e igualitário?”

Pode parecer assustador e impossível quando estamos tentando mudar um sistema que já está embutido em todos os aspectos de nossas vidas, até mesmo dentro de nós mesmos. No entanto, também pode ser uma jornada gratificante, pois há infinitas oportunidades para experimentar e aprender, múltiplas colaborações para explorar e possibilidades ilimitadas nos aguardam.
--
1. Taylor, A. (2015). The People’s Platform. Picador Paperback.
2. Taylor, A. (2015). The People’s Platform. Picador Paperback.
3. Vaidhyanathan, S. (2018). Anti-social media: How Facebook disconnect us and undermines democracy. Oxford University Press
4. Gurumurthy, A., Vasudevan, A., & Chami, A. (2017). A Feminist Perspective on Gender, Media and Communication Rights in Digital Times – Key issues for CSW62 and beyond. IT for Change. https://itforchange.net/index.php/csw62-position-paper
5. A. Jane, E. (2017). Misogny Online: A short (and brutish) history. SAGE Publications.
6. No original em inglês, “slut-shaming”. Ver https://pt.wikipedia.org/wiki/Slut-shaming
7. Os números são registrados a partir de 12 de setembro de 2021.
8. Kovacs, A. & Ranganathan, N. (2019). Data Sovereignty, of whom? Limits and suitability of sovereignty frameworks for data in India. Internet Democracy Project. https://internetdemocracy.in/reports/data-sovereignty-of-whom
9. Vaidhyanathan, S. (2018). Op. cit.
10. https://oversightboard.com/