Atenção, dados e poder: uma análise crítica da infodemia e da desinformação

Leandro Modolo é doutor em Ciências Sociais (Unesp) e doutorando em Saúde Coletiva (Unicamp). Professor da Faculdade de Ciências Médicas da Santa Casa de São Paulo (FCMSCSP). Pesquisador da iniciativa de prospecção Saúde Amanhã/Estratégia Fiocruz para agenda 2030.
Leonardo Castro é mestre em Psicologia Social (UERJ) e doutor em Antropologia (UERJ). Pesquisador no Departamento de Ciências Sociais da Escola Nacional de Saúde Pública Sérgio Arouca/ Fundação Oswaldo Cruz. Coordenador executivo da iniciativa de prospecção Saúde Amanhã/ Estratégia Fiocruz para a Agenda 2030.
Luis Gonçalves é mestre (UFRJ) e doutor (PUC-SP) em Psicologia Social. Foi pesquisador em saúde digital pela Fiocruz de 2021 a 2024. Faz pós-doutorado (bolsista FAPESP) no Centro de Pesquisa sobre Comunicação e Trabalho (CPCT / ECA-USP). É membro da Câmara de Conteúdos e Bens Culturais do Comitê Gestor da Internet no Brasil (CGI.br) e coordenador do GT Tecnologias Digitais e Subjetividade da Associação Brasileira de Psicologia Social (ABRAPSO).
Resumo
A partir da leitura crítica da Sistematização das Contribuições à Consulta sobre Regulação de Plataforma (CGI.br, 2023), neste artigo argumentamos que o debate sobre infodemia e desinformação deve ser ampliado para além de suas implicações imediatas. Partimos da problematização dos conceitos de infodemia e desinformação, e noções associadas, tais como os sistemas de crenças, para reenquadrá-los em um contexto sócio-histórico mais amplo, em diálogo com os conceitos de economia da atenção e capitalismo de plataformas. Argumentamos que a infodemia e a desinformação são aspectos determinantes da economia digital contemporânea, e não simplesmente falhas de mercado. Assim, o texto explora como a infodemia e a desinformação se entrelaçam com o desenvolvimento de inteligência artificial (IA) e a produção massiva de dados digitais, configurando "rotas de suprimento" de dados para o treinamento de IA. Conclui-se que o enfrentamento a esses problemas deve considerar sua inserção em estruturas econômicas mais amplas do capitalismo de plataforma, sugerindo que abordagens limitadas às dimensões regulatórias ou técnicas podem ser insuficientes.
Introdução
Frequentemente, as discussões sobre infodemia e desinformação são delimitadas por seus efeitos sobre a saúde mental e coletiva, a política eleitoral e a liberdade de expressão, focalizando a necessidade de dispositivos regulatórios entre outros (CGI.br, 2020; 2023). Em que pese o conhecimento acumulado e as capacidades críticas possibilitadas por essas análises, muitas vezes esses fenômenos são abordados em sua factualidade imediata, destacados de processos e dinâmicas mais amplos dos quais eles participam, expressam e medeiam.
As dificuldades e os obstáculos a uma compreensão mais adequada dos reais impactos desses fenômenos por vezes nos convidam a atribuir sua causação às plataformas, aplicativos e algoritmos. Com isso, deixamos de considerar como o próprio funcionamento dessas tecnologias é limitado e atravessado estruturalmente por sistemas de crenças e outras formas de consciência, bem como por dispositivos de governamentalidade, o que torna ainda mais complexo seu entendimento.
Para contribuirmos com a compreensão dessas complexidades, combinamos uma leitura crítica da Consulta do CGI.br sobre regulação de plataformas digitais com uma breve revisão interdisciplinar das literaturas sobre desinformação, infodemia e economia política em busca de lacunas, abordagens e temas que possam ser ainda mais desenvolvidos. Assim, na primeira seção do artigo, iniciamos argumentando que, apesar do acúmulo sobre os conceitos de infodemia e desinformação, segue sendo desafiador um quadro consensual de suas características, causas e formas de enfrentamento, de modo que a ênfase nessas dificuldades possa nos ajudar a evitar abordagens simplistas, determinísticas e de viabilidade incerta.
Por outro lado, apesar de seu caráter multideterminado, na segunda seção, iniciamos a análise de que certos agentes e práticas infodêmicas e desinformativas refletem e organizam necessidades e estruturas capitalistas mais amplas que buscam se realizar por meio da infraestrutura desregulada das plataformas e aplicativos. De certa forma, tais fenômenos existem no interior da chamada Economia da Atenção (Simon, 1971; Goldhaber, 2006), dependendo e valendo-se de suas leis para causarem seus efeitos.
Na terceira e na quarta seções, descrevemos como a economia da atenção, a infodemia e a desinformação inserem os internautas na cadeia industrial e global de produção e consumo de dados e de inteligência artificial (IA). Ao estimularem a produção de conteúdos e o engajamento, os ambientes informacionais infodêmicos e desinformativos atuam, também, como “rotas de suprimento” de dados (Zuboff, 2021) necessárias a essa nova economia.
Por fim, concluímos ressaltando que as discussões regulatórias sobre a infodemia e a desinformação podem tornar-se limitadas e adaptativas a essa realidade político-econômica mais ampla – apenas “enxugando gelo” – se não as reconhecermos como participantes de tais contextos. Longe desse aumento de complexidade se refletir em impotência, essa abordagem, na realidade, reconhece e conecta esses enfrentamentos aos conflitos e embates mais profundos do capitalismo de plataformas.
Problematizando a infodemia e a desinformação
Descrevemos introdutoriamente a “infodemia” como um neologismo que costuma ser associado a uma superabundância de informações mais ou menos verdadeiras, seja no ambiente informacional geral ou em um tema em específico, como no caso de eleições ou a exemplo da pandemia do coronavírus SARS-CoV-2 (CGI.br, 2023; Gonçalves et al., 2024). Em todos os casos, infodemia denota um contexto atravessado e potencializado pelas tecnologias de informação e comunicação (TIC), no qual há mais informações sendo emitidas do que capacidades cognitivas e sociais dos receptores de absorvê-las e processá-las (Wardle, 2017; Carr, 2020). Implícito nisso está o problema da relevância e da credibilidade dessas informações pois, dada a superabundância de conteúdos, produtores, investidores, mediadores e consumidores, ainda não há soluções sociotécnicas ou regulatórias capazes de promover um ambiente comunicacional satisfatoriamente seguro com relação a esses aspectos (CGI.br, 2023).
Definir a desinformação também pode ser desafiador pois, em certos casos, o "conteúdo falso e enganoso é um conceito amorfo sem definições ou limites claramente estabelecidos, dificultando a comparação entre estudos" (OECD, 2024, p. 8), o que inclui a falta de consenso sobre os motivos para sua disseminação por parte dos internautas (Gonçalves et al., 2024). Por outro lado, é suficiente destacarmos alguns pontos: i) a desinformação como uma informação verificável não factual com o potencial de causar danos individuais e coletivos (Avazz, 2020); ii)ela pode estar apenas atualizando na Internet os atores e os "padrões de manipulação da informação já verificados na imprensa, como a ocultação e a fragmentação de fatos" (Barreto, 2024, p. 340); iii) em certos casos, essa atualização pode sugerir uma disputa entre antigas e novas comunidades epistêmicas pelo poder de determinar a verdade (Oliveira, 2020); iv) nesses casos, a desinformação pode surgir como "uma estratégia racional que se desdobra em busca de objetivos políticos" (Lewandowsky et al., 2017), v) por meio de um “aumento contínuo da complexidade e do tamanho de cadeias produtivas e redes de atores que surgiram, estimuladas por altos investimentos financeiros destinados a essas atividades” (CGI.br, 2023, p. 23, grifos nossos).
Entretanto, tal "dilúvio informacional" também emerge nutrido por outros fatores objetivos e subjetivos interconectados, por exemplo os desdobramentos da virada linguística e a radicalização, as crises e as disputas da acumulação capitalista em sua fase neoliberal (Anderson, 2022). No caso do neoliberalismo, ele (des)organiza nossa necessidade de depositar e inspirar confiança para mantermos e ampliarmos nossa conexão social (Boltanski; Chiapello, 2009), dentre outras formas, por meio da chamada cultura do perigo (Foucault, 2008), em que "os indivíduos são abordados como agentes morais que devem lidar com os riscos sociais e inseguranças" (Lemke, 2017, p. 7), justamente num momento histórico de crises e disputas epistêmicas (Cesarino, 2022). Juntos, esses e outros fatores podem evocar a sensação de vulnerabilidade e desamparo como mediações para o governo e a condução de populações (Najar; Castro, 2021).
Observamos outro aspecto desses conflitos de governamentalidade nas dinâmicas dos sistemas de crenças. Por um lado, por serem estruturas psicossociais mais profundas, resilientes e estáveis (Eagleton, 2019), os sistemas de crenças podem mais orientar o comportamento do internauta em contextos desinformativos e infodêmicos do que o contrário. A literatura sugere que os indivíduos têm maior probabilidade de procurar fontes que se alinhem com sua visão de mundo, em vez de buscar informações que possam desafiá-las (Agley; Xiao, 2021; Bruns et al., 2022; Walter; Tukachinsky, 2020), ainda que a exposição à desinformação num ambiente infodêmico possa criar certos “efeitos de influência contínua” que, ao longo do tempo, podem interferir nas crenças (Ecker et al., 2022).
Por outro lado, é possível que a “indústria da desinformação” (CGI.br, 2023) não precise alterar os sistemas de crenças se puder instrumentalizá-los, por exemplo, por meio de mimeses inversas e suas bifurcações (Cesarino, 2022). Nesse caso, há uma dinâmica em que significantes são utilizados de maneira estratégica para criar novos significados, muitas vezes distorcendo ou subvertendo o sentido original. Assim, para certas pautas culturais, partidárias e político-econômicas, “vacina” pode virar “vachina” e a regulação das redes sociais pode se tornar uma ataque à liberdade de expressão e até à democracia. Ao lado da isso, ontologias políticas podem deslizar para "uma realidade duplamente distribuída: uma realidade oficial, mas superficial, e seu oposto, uma realidade mais profunda, oculta, ameaçadora, que era não oficial, mas muito mais real" (Boltanski, 2014).
Toda essa multiplicidade de fatores coloca em dúvida as ideias de algoritmos como implacavelmente persuasivos; logo, a falta de discernimento do público ou de informações “verdadeiras” seriam vetores suficientemente explicativos para a desinformação e a infodemia, e, ao mesmo tempo, chama a atenção para certas dimensões subjetivas do neoliberalismo. Ao se desdobrar numa "superprodução de elites" (Turchin, 2023) com um crescente poder político independente dos demais segmentos e de instituições em busca de sua autorrealização, o neoliberalismo pode estar atualizando seus diagramas de poder e governamentalidade para além dos paradigmas da democracia liberal. Essas tendências, por sua vez, poderiam convergir com as atuais dinâmicas infodêmicas e desinformativas, liberando, com isso, “formas epistêmicas ‘não modernas’ baseadas em temporalidades messiânicas e causalidades ocultas”, que seriam, “por assim dizer, a ‘superestrutura’ adequada ao capitalismo neoliberal contemporâneo” (Cesarino, 2020, p. xx).
Tais aspectos político-econômicos e psicossociais nos ajudam a considerar a multideterminabilidade dos contextos infodêmicos e desinformativos, evitando, assim, abordagens factuais, simples e exclusivas. Mas essas considerações não encerram nossa discussão; na verdade, esses aspectos coexistem com certas estruturas sociotécnicas e mercadológicas bastante objetivas, apontadas pela Consulta (CGI.br, 2023) que, como informado, embora não sejam determinísticas, buscam sistematicamente realizar suas necessidades e finalidades. Por isso, a seguir, discutiremos alguns desses elementos e suas implicações, o que podem contribuir com o enfrentamento à infodemia e à desinformação.
Economia da atenção, da infodemia e da desinformação
Parte dessas estruturas sociotécnicas e mercadológicas que podem contribuir com o engajamento de usuários, abordadas na Consulta, por exemplo, em suas relações com as recomendações algorítmicas, os efeitos de rede e a publicidade direcionada (CGI.br, 2023), podem ser aprofundadas a partir de um conceito construído por diferentes ângulos e objetivos: a economia da atenção.
Na psicologia e na neurociência, a atenção humana é uma capacidade orgânica e social de foco, interferida pelas emoções e articulada durante suas atividades, sejam elas mais sensíveis ou mais teleológicas e introspectivas (Vygotsky, 2003; Damásio, 2012). Portanto, a atenção não pode ser uma coisa externa (tal qual alguns de seus estímulos), pois é uma capacidade do ser. Entretanto, considerando ser um problema de coordenação da cooperação social, a atenção tem sido ressignificada pela economia comportamental como um recurso escasso em relação à sua contraface e à informação superabundante (Simon, 1971; Goldhaber, 2006). Antes mesmo disso, com o surgimento do financiamento de veículos de comunicação por publicidade paga, no final do século XIX, a atenção humana já era alvo de pesquisas e disputas (Wu, 2017).
Desde então, essas abordagens têm estimulado esforços para a quantificação, a análise, a previsão e a predição – ou produção – desse "recurso" em escalas grandes e dirigidas (Smythe, 1977; Zuboff, 2021). Isso atribui a tal recurso uma crescente importância para as dinâmicas de poder no âmbito do Estado ampliado (Moraes, 2010) (caso da (des)informação) e da acumulação capitalista (caso da audiência publicitária) (O’Reilly; Strauss; Mazzucato, 2024). Chamamos a atenção para o fato de que tais esforços e interesses se medeiam sob uma estrutura de mercado, o que implica agentes econômicos relativamente independentes1 concorrendo entre si pela produção e usufruto desse recurso como condição para a remuneração de seu trabalho ou de seu capital (CGI.br, 2023). Nesses termos – e em analogia com Polanyi (2013) –, a atenção pode assumir a materialidade social de uma mercadoria fictícia.
Atualmente, Big techs como Alphabet, Meta e ByteDance – e os conglomerados financeiros que as controlam (Ström, 2022) – têm concentrado e dirigido a economia da atenção, principalmente após a introdução das lógicas e capitais desse mercado na World Wide Web; destacadamente, primeiro com a exibição de publicidade paga no mecanismo de busca do Google em 2000 (Srnicek, 2017) e, desde 2002, com as teorias e as tecnologias de leilão de segundo lance2, que regulam automaticamente essa veiculação (Varian, 2007). Esses e outros fatores concorreram para que essas e outras empresas coproduzissem para si certos efeitos de rede (CGI.br, 2023), em que, por exemplo, 59,4% da população mundial usa suas mídias sociais, conectada cerca de seis horas por dia (Kemp, 2023) a um mercado de ofertas atencionais em que apenas algumas das principais empresas3 valiam juntas, em 2023, US$ 10,6 trilhões (Fortune, 2024).
Na prática, isso significa que um agente social público – "empreendedor" (Antunes, 2018), ministro do Superior Tribunal Federal (STF), Brasil Paralelo, Ministério da Saúde ou Galinha Pintadinha –,a fim de se tornar conhecido e relevante para exercer partes de suas potencialidades, precisa submeter-se e valer-se cada vez mais das obscuras leis da economia da atenção, expressas em métricas, como impressão em tela, likes, cliques, taxas de conversão etc. (Google, 2024).
Infodemia, desinformação e IA
Se as métricas descrevem os resultados das lutas pela atenção, geralmente é sob os algoritmos de recomendação que tal concorrência acontece (CGI.br, 2023). Devido à "escassez de atenção", essas IA são oferecidas para selecionar com relativa autonomia o que veremos a seguir em nossas telas, baseando-se, alegadamente, em nossas preferências (Chaney; Stewart; Engelhardt, 2018).
Este é o ponto em que a economia da atenção, a infodemia e a desinformação revelam tanto sua natureza entrelaçada, como também os outros agentes que constituem essa teia. Muito simplificadamente, a capacidade de essas IA selecionarem conteúdos em nosso lugar torna-se possível a partir de uma série de fatores, dos quais destacamos: i) a extração de preferências do usuário a partir da observação de seu comportamento e a introdução em sua programação (por parte de seus desenvolvedores4), ii) de metas (função-objetivo, funções de recompensas e de perda etc.5) e iii) de meios específicos para alcançá-las (aprendizado profundo ou por reforço etc.6) (Silva, 2009; Russell, 2022; Prince, 2023).
Entretanto, nestes casos, geralmente não é possível entendermos qual foi a função de política7 adotada pelas IA para uma tomada de decisão (Russell, 2022) (por que uma dancinha e não um gato ou uma notícia política (verificável ou não) apareceu na timeline de um usuário do Instagram?). Embora haja esforços corporativos para que esses e outros processos de automação prossigam obscurecidos sob inúmeras camadas de abstração8 (Luitse, 2024), hoje, sabemos que i)metas e recompensas de IA condensam tanto os objetivos dos usuários quanto os de desenvolvedores e seus outros clientes (Gonçalves, 2024) e ii) os desenvolvedores dão às IA autonomia para que elas desenvolvam políticas altamente abstratas e pragmaticamente independentes de valores sociais, que podem buscar influenciar as preferências do usuário de modo a facilitar sua satisfação, apenas po ser a condição para a maximização das recompensas do próprio agente computacional (Albanie; Shakespeare; Gunter, 2017; Russell, 2022).
Como o próprio campo da IA adverte, no limite, o objetivo do usuário final pode tornar-se um meio ou condição necessária, uma variável a ser regulada, para o alcance das metas imputadas no sistema pelos desenvolvedores, e não o contrário (Russell, 2022.; Viljoen et al., 2021). Isso poderia ser realizado, por exemplo, se um algoritmo do TikTok recomendar o consumo de vídeos que, por suas diversas características, sejam capazes de influenciar a regulação da atividade de certas sub-regiões do cérebro9 de modo a desestimular o autocontrole e a noção de tempo, dentre outros (Su et al., 2021).
Infodemia, desinformação e dados digitais
O advento de tecnologias, como as telecomunicações, as IA e o big data, é, também, consequência e mediação atual da permanente luta entre agentes econômicos, políticos e culturais por conhecimentos inéditos sobre o mundo natural e o social de forma que, a partir dessa vantagem, possam realizar, reproduzir ou substituir hegemonias, relações e modos de produção (Pinto, 2005; Faustino; Lippold, 2023). Desde os anos 1980, tal processo produz e é coproduzido por um crescente mercado com atores de diversos segmentos, portes e aportes que, em conjunto e concorrencialmente, vêm criando IAs cada vez mais poderosas, complexas e, para isso, mais dependentes de quantidades massivas de dados digitais (Cassiolato; Dantas; Lastres, 2024; Blackwell, 2024; Sun et al., 2017).
Todavia, o ainda pouco compreendido dado digital não pré-existe no mundo como o petróleo, o minério ou a soja, que, para serem usados, precisam antes ser extraídos, minerados ou coletados: o dado digital precisa antes ser produzido em escala industrial (Srnicek, 2017; Sadowski, 2019). Entretanto, o fato de, após serem produzidos, os dados serem armazenados em repositórios mais ou menos acessíveis (sites, redes sociais etc.), de modo mais ou menos legal pelos desenvolvedores (CGI.br, 2023), costuma inspirá-los a uso de metáforas extrativistas que elidem a origem social desses produtos, facilitando sua apropriação e seu reuso (Zuboff, 2021). Grosso modo, as IA só podem ser desenvolvidas se puderem acessar esses dados estocados, ainda que essa etapa produtiva (o treinamento de modelos) seja apenas o início cíclico de todo o processo. Lançados no mundo, esses modelos precisam também de dados inéditos, isto é, de novas "entrada[s] significativa[s] do mundo real (uma frase, um arquivo de som, uma imagem etc.)" (Prince, 2023) para seguirem se ajustando (a extração de preferências) e, principalmente, produzirem seus resultados – padrões, inferências, predições etc. Justamente para que se ampliem suas “rotas de abastecimento” de dados inéditos (Zuboff, 2021), a Meta inseriu, sem opção de rejeição por parte dos usuários, sua Meta AI no aplicativo WhatsApp (WhatsApp, 2024; Kaspersky, 2024).
Sejam inéditos ou arquivados, geralmente essas entradas significativas do mundo real só podem ser resultados de algum tipo de interação humano-computador (IHC) (Russell, 2022) – seja um engenheiro mapeando um território ou uma célula, um policial procurando suspeitos periféricos usando visão computacional treinada por crowdworkers periféricos, ou bilhões de pessoas utilizando seus dispositivos para conversar, trabalhar, se divertir, enfim, para viver em relações sociais mediadas por plataformas (Srnicek, 2022).
Nesse sentido, se decisões rivais precisam ser tomadas em um ambiente incerto baseando-se em análises de IA que dependem de quantidades massivas de dados que, em muitos casos, só podem ser produzidos mediante a atividade humana, a própria atividade humana deve ser provocada. Em outras palavras, para toda essa cadeia de agentes e mercados, i) é imperioso que as pessoas sejam conduzidas e engajadas a interagir com certos dispositivos digitais, a fim de ii) produzirem dados sobre si e sobre essa interação, que iii) coproduzirão IA e, por sua vez, iv) farão inferências sobre saúde, comportamento, subjetividade, renda, crédito etc. de indivíduos e populações na forma de novos dados digitais (Conte et al., 2012). Como resultado, essa cadeia de produção e consumo de dados acumulou, apenas em 2024, cerca de 174 zettabytes10 (Statista, 2024).
Desse modo, tal imperativo aponta, dentre outras fontes, para certas instâncias de produção abundante de dados digitais controladas pela economia da atenção, principalmente as redes sociais, plataformas de streaming, mecanismos de busca e aplicativos similares (Russell, 2013; Russell, 2022). Assim, se os algoritmos de curadoria das redes sociais fizerem as recomendações certas, os usuários podem interagir mais a partir de comentários polêmicos e emocionalmente engajadores (Horwitz, 2023) que confirmem (ou sugiram) crenças (Altay; Araújo; Mercier, 2022), eventualmente conduzindo alguns deles para grupos radicalizados (Nascimento et al., 2022) ou aumentando sua exposição pessoal em troca de likes no Instagram (Bentes, 2021), por exemplo, produzindo, dessa forma, parte dos dados necessitados pelos mercados de IA.
Conclusão
No estado atual do debate sobre a economia da atenção – à semelhança das IA baseadas em recompensas – seus diversos agentes econômicos recebem muitos incentivos e pouca regulação para produzirem audiência e interação, independente da relevância, da credibilidade e dos efeitos sociais de suas ofertas (Wu, 2017; CGI.br, 2023). Nesses termos, à primeira vista, a infodemia e a desinformação surgem como falhas de mercado (Arrow, 1963) que poderiam ser corrigidas e reguladas, por exemplo, a partir de instrumentos antitruste e da responsabilização ex post (por exemplo, remoções de conteúdos). Entretanto, tais “falhas” perfazem oportunidades e estruturas essenciais para outros mercados e agentes político-culturais com os quais a economia da atenção se conecta.
Nesse sentido, uma Internet sem infodemia e desinformação poderia ser um ambiente informacional mais saudável, confiável e socialmente mais justo e próspero; porém, sua contenção ou eliminação levaria a uma certa redução de espaço para a circulação e a acumulação capitalista em nível global e igualmente a uma limitação crucial dos ciclos comerciais de desenvolvimento das IA realmente existentes, que precisamos compreender melhor. Aqui, referimo-nos, além do citado trilionário mercado de empresas líderes na economia da atenção, ao mercado de anunciantes que as sustentou em 2023 com investimentos de US$ 546 bilhões (Statista, 2023), do ascendente mercado de IA avaliado em US$ 184 bilhões (Statista, 2024) e do seleto grupo de fundos de investimento que controla a maioria desses mercados, avaliado em US$ 27 trilhões (Ström, 2022). Assim, nos termos desta discussão, o problema da infodemia e da desinformação é, em parte, um problema da economia política das TIC altamente financeirizada, de modo que a mitigação de um deles depende e reflete o grau de controle social sobre o outro. Isso, combinado ao contexto geopolítico de ascensão do bloco de poder representado por Donald Trump, ou às características da maioria parlamentar no Brasil, pode comprometer e limitar as já frágeis capacidades regulatórias governamentais (CGI.br, 2023), bem os discutíveis conceitos ambientais, sociais e de governança (Environmental, Social and Governance – ESG) aplicáveis nesses mercados (Introna, 2016; Viljoen, 2021). Sem essas dimensões de fundo, tais embates podem ser limitados a enquadramentos factualmente jurídicos (legal/ilegal), morais (maldade/altruísmo), sociotécnicos (checagem/correção humana ou algorítmica, remoção etc.) ou comportamentais (literacias) que, dessa forma, tenderão a ser adaptativas (e não disruptivas) a certas causas materialmente estruturais da infodemia e da desinformação.
Considerando as implicações sociais de tais ângulos da questão, abordagens relativas à soberania tecnológica nacional e à economia-política mais ampla emergem como outros elementos centrais a serem considerados nos embates regulatórios. Nesse sentido, a ausência de políticas para infraestruturas críticas reforça a vulnerabilidade dos países periféricos aos interesses geopolíticos e comerciais das empresas de plataformas e seus aliados (Rikap et al., 2024a; Lastres; Cassiolato; Dantas, 2025). Portanto, como discutido na Consulta, em resposta, essas políticas podem envolver o estímulo para a inovação tecnológica nacional, a criação e o uso de softwares livres, protocolos abertos e infraestruturas públicas, o armazenamento e o tratamento local de dados, o uso estratégico das compras públicas, políticas claras para transferência internacional de dados, limites a aquisições de concorrentes por grandes plataformas, a desconcentração econômica, dentre outos (CGI.br, 2023). Não menos importante, esses e outros aspectos de políticas de soberania digital precisam também considerar suas implicações participativas, ambientais e sociais (CGI.br, 2023; Rikap, 2024b; MTST, 2023; Sadowski; Viljoen; Whittaker, 2021; Abílio; Amorim; Grohmann, 2021).
Referências
ABÍLIO, Ludmila Costhek; AMORIM, Henrique; GROHMANN, Rafael. Uberização e plataformização do trabalho no Brasil: conceitos, processos e formas. Sociologias, v. 23, n. 57, p. 26-56, 2021.
ALBANIE, Samuel; SHAKESPEARE, Hillary; GUNTER, Tom. Unknowable manipulators: Social network curator algorithms. arXiv preprint arXiv:1701.04895, 2017.
ALTAY, Sacha; DE ARAUJO, Emma; MERCIER, Hugo. “If this account is true, it is most enormously wonderful”: Interestingness-if-true and the sharing of true and false news. Digital Journalism, v. 10, n. 3, p. 373-394, 2022.
ANDERSON, Perry. The H-word: The peripeteia of hegemony. Verso Books, 2022.
ANTUNES, Ricardo. O Privilégio da servidão: o novo proletariado de serviços na era digital. São Paulo: Boitempo Editorial, 2018.
AVAZZ. O Brasil está sofrendo uma infodemia de Covid-19, 2020. Disponível em: https://secure.avaaz.org/campaign/po/brasil_infodemia_coronavirus/. Acesso em 21 set. 2024.
ARROW, K. Uncertainty and the welfare economics of medical care. Em: K. Arrow, Essays in Theory of Risk-bearing. Amsterdam/Londres: North Holland, 1962.
BAKIR, Vian. Psychological operations in digital political campaigns: Assessing Cambridge Analytica's psychographic profiling and targeting. Frontiers in Communication, v. 5, p. 67, 2020.
BARRETO, Helena Martins do Rego. A desinformação em meio à crise do capitalismo e à configuração de uma nova estrutura de mediação social. Revista Eco-Pós, v. 27, n. 1, p. 330-352, 2024.
BENTES, Anna. Quase um tique: economia da atenção, vigilância e espetáculo em uma rede social. Rio de Janeiro: Editora UFRJ, 2021.
BLACKWELL, Alan F. Moral Codes: Designing Alternatives to AI. MIT Press, 2024.
BOLTANSKI, Luc. Mysteries and conspiracies: Detective stories, spy novels and the making of modern societies. John Wiley & Sons, 2014.
BOLTANSKI, Luc; CHIAPELLO, Ève. O novo espírito do capitalismo. São Paulo: WMF Martins Fontes, 2009.
CARR, Nicholas. The shallows: What the Internet is doing to our brains. WW Norton & Company, 2020.
CASSIOLATO, José Eduardo; DANTAS, Marcos; LASTRE, Helena M. M. Marco conceitual e analítico da Economia de Dados, 2024. Disponível: https://www.ie.ufrj.br/images/IE/grupos/redesist/SITE/PROJETOS/22/NT11%…. Acesso: 17 abr. 2025.
CESARINO, Letícia. O fetichismo do QAnon. Jacobin Brasil, [s. l.], 2020. Disponível em: https://jacobin.com.br/2020/11/o-fetichismo-do-qanon. Acesso em: 21 dez. 2020.
_________________. O mundo do avesso: verdade e política na era digital. São Paulo: Ubu, 2022.
CHANEY, Allison JB; STEWART, Brandon M.; ENGELHARDT, Barbara E. How algorithmic confounding in recommendation systems increases homogeneity and decreases utility. In: Proceedings of the 12th ACM conference on recommender systems. 2018. p. 224-232. https://doi.org/10.1145/3240323.3240370.
COALIZÃO SOBERANIA DIGITAL DEMOCRÁTICA E ECOLÓGICA. Recuperando a soberania digital: um roteiro para construir um ecossistema digital para as pessoas e o planeta, 2024. Disponível em: https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/21923488/ e356f4be-4341-48b3-ae80-589aaa9c8c2f/recuperando-a-soberania-digital-1.pdf. Acesso em: 18 abr. 2025.
COMITÊ GESTOR DA Internet (CGI). Sistematização das contribuições à consulta sobre regulação de plataformas digitais. São Paulo: NIC.br|CGI.br, 2023. Disponível em: https://cgi.br/media/docs/publicacoes/1/20231213081034/sistematizacao_c…. Acesso em: 10 mar. 2024.
____________________________________. Relatório Internet, Desinformação e Democracia. São Paulo: NIC.br|CGI.br, 2020. Disponível em: https://www.cgi.br/media/docs/publicacoes/4/ 20200327181716/relatorio_Internet_desinformacao_e_democracia.pdf. Acesso em 1 out. 2024.
CONTE, Rosaria et al. Manifesto of computational social science. The European Physical Journal Special Topics, v. 214, n. 1, p. 325-346, 2012.
DAMÁSIO, António. O erro de Descartes: emoção, razão e o cérebro humano. Editora Companhia das Letras, 2012.
EAGLETON, Terry. Ideologia: uma introdução. São Paulo: Boitempo Editorial, 2019.
FAUSTINO, D.; LIPPOLD, W. Colonialismo digital: por uma crítica haker-fanoniana. 1. Ed. São Paulo: Boitempo, 2023.
FORTUNE global 500. Fortune, [s. l.], 2024. Disponível em: https://fortune.com/global500. Acesso em: 24 jul. 2024.
FOUCAULT, M. Nascimento da Biopolítica - curso dado no College de France 1978-1979. São Paulo: Livraria Martins Fontes, 2008.
GOLDHABER, M. The value of openness in an attention economy. First Monday, v. 11, n. 6, 5 jun. 2006. Disponível em: https://firstmonday.org/ojs/index.php/fm/article/download/ 1334/1254?inline=1. Acesso em: 1 out. 2024.
GONÇALVES, Luis H. N. O problema dos três usuários – implicações entre psicologia, IA e economia política. In: Inteligência Artificial e Psicologia / Laura Cristina Eiras Coelho Soares (organizadora) – Curitiba : CRV, 2024. ISBN Digital 978-65-251-6819-7. DOI 10.24824/978652516818.0.
GONÇALVES, Luis; CASTRO, Leonardo; RACHID, Raquel; FORNAZIN, Marcelo. As múltiplas faces da Infodemia. Revista Eletrônica de Comunicação, Informação & Inovação em Saúde, [S. l.], v. 18, n. 3, p. 716–735, 2024. DOI: 10.29397/reciis.v18i3.3796. Disponível em: https://www.reciis.icict.fiocruz.br/index.php/reciis/article/view/3796 . Acesso em: 1 out. 2024.
GOOGLE. Seu guia do Google Ads. Disponível em: https://support.google.com/google-ads/answer/6146252. Acesso: 21 nov. 2024.
GROHMANN, Rafael. Os laboratórios do trabalho digital: entrevistas. São Paulo: Boitempo Editorial, 2021.
HORWITZ, Jeff. The Facebook Files: A Wall Street Journal investigation. The Wall Street Journal. Disponível em: https://www.wsj.com/articles/the-facebook-files-11631713039. Acesso em: 15 out. 2024.
INTRONA, Lucas D. Algorithms, governance, and governmentality: On governing academic writing. Science, Technology, & Human Values, v. 41, n. 1, p. 17-49, 2016. DOI: https://doi.org/10.1177/016224391558736.
KASPERSKY. Meta AI plans to use the personal data of its users to train generative AI. Kaspersky Daily, 15 nov. 2024. Disponível em: https://www.kaspersky.com/blog/meta-uses-personal-data/51548/. Acesso em: 15 nov. 2024.
KEMP, Simon. Digital 2023: Global Overview Report. DataReportal, [s. l.], 23 Jan. 2023. Disponível em: https://datareportal.com/reports/digital-2023-global-overview-report. Acesso em: 18 set. 2024.
LEMKE, Thomas. Foucault, governamentalidade e crítica. Plural: Revista de Ciências Sociais, v. 24, n. 1, p. 194-213, 2017.
MÉSZÁROS, István. Para Além do Capital. São Paulo: Boitempo, 2002.
MORAES, Dênis de. Comunicação, hegemonia e contra-hegemonia: a contribuição teórica de Gramsci. Revista Debates, v. 4, n. 1, p. 54-54, 2010.
LASTRES, Helena M. M.; CASSIOLATO, José Eduardo; DANTAS, Marcos. Estado atual da conceituação e mensuração da Economia de Dados no Brasil. Nota Técnica 12. Rio de Janeiro: RedeSist/IE/UFRJ, 18 fev. 2024. Disponível em: https://www.researchgate.net/publication/387269688_Estado_atual_da_conc…. Acesso em: 18 abr. 2025.
LÉVY, Pierre. Cibercultura. São Paulo: Editora 34, 1999.
LUITSE, Dieuwertje. "Platform power in AI: The evolution of cloud infrastructures in the political economy of artificial intelligence". Internet Policy Review 13.2., 2024. Disponível em: https://doi.org/10.14763/2024.2.1768. Acesso em: 5 set. 2024.
LURIA, Alexandre Romanovich. Curso de psicologia geral. Civilização Brasileira, 1979.
MCQUILLAN, Dan. People’s councils for ethical machine learning. Social Media+ Society, v. 4, n. 2, 2056305118768303, 2018.
MOVIMENTO DOS TRABALHADORES SEM TETO (MTST). Cartilha MTSTec: tecnologia para a luta popular, 2023. Disponível em: https://linktr.ee/tecnologia.mtst. Acesso em: 18 abr. 2025.
OLIVEIRA, Thaiane. Desinformação científica em tempos de crise epistêmica: circulação de teorias da conspiração nas plataformas de mídias sociais. Revista Fronteiras, v. 22, n. 1, 2020. DOI: 10.4013/fem.2020.221.03
O’REILLY, Tim; STRAUSS, Ilan; MAZZUCATO, Mariana. Algorithmic Attention Rents: A theory of digital platform market power. Data & Policy, v. 6, p. e6, 2024. DOI:10.1017/dap.2024.1.
ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE). The OECD truth quest survey: methodology and findings. Disponível em: https://www.oecd.org/en/publications/the-oecd-truth-quest-survey_92a94c…. Acesso em: 10 jun. 2024.
POLANYI, Karl. A grande transformação: as origens da nossa época. Elsevier Brasil, 2013.
PRINCE, Simon JD. Understanding deep learning. MIT Press, 2023.
NAJAR, Alberto; CASTRO, Leonardo. Um nada ‘admirável mundo novo’: medo, risco e vulnerabilidade em tempos de covid-19. Saúde em Debate, Rio de Janeiro, v. 45, n. especial 2, p. 142-155, 2021. DOI: https://doi.org/10.1590/0103-11042021E210.
L. NASCIMENTO, L. CESARINO, P. FONSECA, T. BARRETO, V. MUSSA. Públicos refratados: grupos de extrema-direita brasileiros na plataforma Telegram. Internet e Sociedade. V. 3 ⁄ N. 1 ⁄ p. 31-60, 2022.
RIKAP, Cecilia; DURAND, Cédric; PARANÁ, Edemilson; GERBAUDO, Paolo; MARX, Paris. Reclaiming Digital Sovereignty: A roadmap to build a digital stack for people and the planet. London: University College London, Institute for Innovation and Public Purpose, 2024. Disponível em: https://www.ucl.ac.uk/bartlett/sites/bartlett/files/reclaiming-digital- sovereignty.pdf. Acesso em: 18 abr. 2025.
RUSSELL, Stuart. Human-Compatible Artificial Intelligence. Oxford: Oxford University Press, 2022. ISBN 0198862539
RUSSELL, Matthew A. Mining the social web: data mining Facebook, Twitter, LinkedIn, Google+, GitHub, and more. Sebastopol: O'Reilly Media, Inc., 2013. ISBN: 978-1-449-36761-9.
SADOWSKI, Jathan. When data is capital: Datafication, accumulation, and extraction. Big data & society, 2019, 6.1: 2053951718820549.
SADOWSKI, Jathan; VILJOEN, Salomé; WHITTAKER, Meredith. Everyone should decide how their digital data are used—not just tech companies. Nature, v. 595, n. 7866, p. 169-171, 2021. DOI: https://doi.org/10.1038/d41586-021-01812-3
SILVA, Valdinei Freire da. Extração de preferências por meio de avaliações de comportamentos observados. 2009. PhD Thesis. Universidade de São Paulo.
SIMON, Herbert. Designing organizations for an information-rich world. In: GREENBERGER, M. (Ed.). Computers, communications, and the public interest. Baltimore, MD: The Johns Hopkins Press, 1971.
SMYTHE, Dallas W. Communications: blindspot of western Marxism. CTheory, v. 1, n. 3, p. 1-27, 1977.
SRNICEK, Nick. Platform capitalism. John Wiley & Sons, 2017.
______________. Data, compute, labor. In: GRAHAM, Mark; FERRARI, Fabian (ed.). Digital Work in the Planetary Market. Cambridge: The MIT Press, 2022. p. 1-20. DOI: 10.7551/mitpress/13835.001.00012022.
STATISTA. Volume of data/information created, captured, copied, and consumed worldwide from 2010 to 2020, with forecasts from 2021 to 2025. Disponível em: https://www.statista.com/statistics/871513/worldwide-data-created/. Acesso em 15 out. 2024.
STRÖM, Timothy Erik. Capital and Cybernetics. New Left Review, 135. May/June, 2022. Disponível em: https://newleftreview.org/issues/ii135/articles/timothy-erik-strom-capi…- and- cybernetics. Acesso em 2, out. 2024.
SU, Conghui et al. Viewing personalized video clips recommended by TikTok activates default mode network and ventral tegmental area. NeuroImage, v. 237, p. 118136, 2021. https://doi.org/10.1016/j.neuroimage.2021.118136.
SUN, Chen et al. Revisiting unreasonable effectiveness of data in deep learning era. In: Proceedings of the IEEE international conference on computer vision. 2017. p. 843-852.
VARIAN, Hal R. Position auctions. International Journal of Industrial Organization, v. 25, n. 6, p. 1163-1178, 2007.
VIEIRA PINTO, Álvaro. O conceito de tecnologia. Volume 1. Rio de Janeiro: Contraponto, 2005.
VIGOTSKI, L.S. Psicologia Pedagógica - Porto Alegre: Artmed, 2003.
VILJOEN, Salomé. A relational theory of data governance. Yale LJ, v. 131, p. 573, 2021. Disponível em: http://www.jstor.org/stable/45400961. Acesso: 18 abr. 2025.
VILJOEN, Salomé; GOLDENFEIN, Jake; MCGUIGAN, Lee. Design choices: Mechanism design and platform capitalism. Big data & society, v. 8, n. 2, 2021. DOI: https://doi.org/10.1177/20539517211034312.
WARDLE, Claire et al. Fake news. It’s complicated. First draft, v. 16, p. 1-11, 2017. Disponível em: https://medium.com/1st-draft/fake-news-its-complicated-d0f773766c79. Acesso em 1/10/2023.
WHATSAPP. About AI experiences on WhatsApp. WhatsApp Help Center, 2024. Disponível em: https://faq.whatsapp.com/1111412106858632. Acesso em: 15 nov. 2024.
WU, Tim. The attention merchants: The epic scramble to get inside our heads. Vintage, 2017.
ZUBOFF, Shoshana. A Era do Capitalismo de Vigilância. Rio de Janeiro: Editora Intrínseca, 2021.
==
1 Principalmente, trabalhadores e empresas de comunicação e tecnologia, influencers, fabricantes, provedores de aplicações e conteúdos (Content and Application Providers – CAP), provedores de serviços de Internet (Internet Service Provider – ISP) e outras mídias e veículos, anunciantes e investidores dentre outros (CGI.br, 2023), como abordaremos adiante.
2 O leilão de segundo preço é aquele em que o vencedor paga um valor equivalente ao lance do concorrente imediatamente abaixo dele. Segundo seus teóricos, isso incentiva os anunciantes a fazerem lances mais próximos do valor real que atribuem à posição (Varian, 2007).
3 Apple, Alphabet, Meta, Amazon, Jingdong e Alibaba (Fortune, 2024).
4 Neste texto, utilizamos o termo "desenvolvedores" para nos referirmos principalmente a matemáticos, psicólogos, engenheiros, designers, analistas de marketing, economistas, administradores, advogados, comerciantes e investidores que, efetivamente, desenvolvem a maioria das ofertas da economia da atenção em seus vários e combinados aspectos.
5 Na computação, a função-objetivo é a formalização matemática de um objetivo social que orienta as decisões das IA. Geralmente, esse objetivo é maximizar ou minimizar alguma coisa, como lucros e custos. Sem o alcance (ainda que aproximado) da função-objetivo, a IA não obtém suas recompensas. De diferentes formas, essas IA são programadas para a obtenção de suas recompensas (pontuações numéricas) em primeiro lugar, o que, entretanto, está condicionado a entrega de objetivos humanossociais inseridos por seus desenvolvedores (Russell, 2022).
6 No aprendizado profundo (ou neuronal), as IA realizam seus cálculos dividindo-os e correlacionado-os em diferentes camadas que, posteriormente, se convergem numa única camada de saída – de um modo que os desenvolvedores ainda não sabem explicar satisfatoriamente. No aprendizado por reforço, as IA testam continuamente várias formas de alcançar um objetivo de forma a eventualmente conseguir maximizar suas recompensas ao longo do tempo (Russell, 2022).
7 Em IA, função de política é a estratégia ou o mapeamento do espaço de ações possíveis em um ambiente dinâmico e incerto para orientar as IA e condicionar suas ações de modo que seus efeitos tendam a maximizar sua recompensa no horizonte de longo prazo (Russell, 2022).
8 Camadas de abstração referem-se aos empacotamentos de "operações subjacentes complicadas em comandos únicos, 'escondendo', assim, muitas complexidades técnicas relacionadas à construção, operação e gerenciamento de sistemas computacionais", de modo que seus usuários não possam conhecer, "modificar ou reprogramar os elementos selecionados de acordo com suas preferências específicas" (Luitse, 2024).
9 Nesse caso, são os subcomponentes da rede de modo padrão (Default Mode Network – DMN), a área tegmentar ventral e as regiões discretas, incluindo pré-frontal lateral, tálamo anterior e cerebelo, e seu acoplamento aprimorado às vias visuais e auditivas (Su et al., 2021).
10 O equivalente a 147.000.000.000.000.000.000GB.