Protegendo as eleições democráticas na era da IA

Protegendo as eleições democráticas na era da IA

Sophie Nyombi Nantanda, estagiária de primavera da EPIC 
Tradução do original em https://epic.org/safeguarding-democratic-elections-in-the-age-of-ai/

À medida que as eleições nacionais se aproximam nos Estados Unidos, as preocupações sobre chamadas de robôs geradas por inteligência artificial (IA) e meios de comunicação manipulados tornaram-se mais urgentes.1 As eleições de 2024 marcam um momento crucial na história americana, visto que é o primeiro ano de eleições presidenciais em um momento de crescentes avanços no conteúdo gerado por IA. Serão necessárias intervenções legais e tecnológicas para mitigar estas ameaças antes de novembro.

Há razões para acreditar que os EUA não estão adequadamente equipados para resolver este problema. Os funcionários eleitorais estaduais e locais precisam de financiamento e recursos adicionais para enfrentar ameaças que vão da IA à violência pessoal.2 Sublinhando ainda mais a urgência de abordar estas questões, a confiança no sistema eleitoral está diminuindo, deixando os americanos mais suscetíveis à informação duvidosa e às campanhas de desinformação.3

Na era digital, o combate à desinformação gerada pela IA, às chamadas automáticas e aos deepfakes exige atenção. Tecnologias como ferramentas de verificação de conteúdo alimentadas por IA e algoritmos de detecção de deepfakes (marca d’água digital) podem ajudar a enfrentar essa ameaça, embora com imperfeições. Embora proporcionem um ponto de partida, o papel do envolvimento público na denúncia de desinformação também é essencial. Plataformas dedicadas surgiram para esse fim. Estas plataformas servem como ferramentas vitais para capacitar os indivíduos a sinalizar conteúdos enganosos, promovendo um esforço colaborativo no combate à desinformação e salvaguardando a integridade do nosso território digital. No entanto, para fortalecer verdadeiramente o nosso ecossistema de informação, uma legislação abrangente para a governação da IA pode surgir como a solução mais eficaz. A exploração destas abordagens multifacetadas abre o caminho para a salvaguarda da democracia nas eleições.

Chamadas e Mídia Manipulada

Há alguns meses,4 a tecnologia de clonagem de voz por IA foi empregada para imitar a voz do presidente Joe Biden com a intenção de dissuadir os eleitores de participarem das primárias presidenciais democratas do estado. Esta desinformação representa uma ameaça à democracia e, em alguns aspectos, o sistema jurídico respondeu rapidamente. Os suspeitos foram notificados;5 a Comissão Federal de Comunicações esclareceu que as chamadas usando voz alimentada por IA poderiam violar a Lei de Proteção ao Consumidor Telefônico (TCPA) se feitas sem o consentimento da parte chamada;6 a Comissão Federal de Comércio propôs responsabilização assumir identidade falsa usando IA;7 e litigantes privados processaram as partes responsáveis pelas ligações.8 Mas todas estas medidas surgiram muito depois de a mensagem ofensiva já ter sido transmitida. Mais precisa ser feito para evitar esses tipos de chamadas geradas por IA antes que elas aconteçam.

O aumento de chamadas geradas por IA representa um desafio significativo à integridade dos processos eleitorais. Embora os sistemas de chamadas automatizadas tenham sido tradicionalmente utilizados por campanhas políticas para chegar aos eleitores e disseminar mensagens de campanha, a utilização maliciosa de chamadas automáticas nas eleições não é em si nova. As chamadas automáticas já foram utilizadas para disseminar informações falsas, manipular a opinião pública e suprimir a participação eleitoral, minando o processo democrático.

Por exemplo, o Supremo Tribunal do Michigan ouviu recentemente um caso em que dois agentes políticos teriam utilizado 85.000 chamadas automáticas para divulgar informações falsas e dissuadir as pessoas de participarem nas eleições presidenciais de 2020.9 Mas a IA ameaça intensificar radicalmente o problema das chamadas automáticas eleitorais enganosas. Os avanços na tecnologia de IA permitem a geração automatizada de simulações de voz hiper-realistas, facilitando a criação de chamadas telefônicas e mídias persuasivas e enganosas em grande escala. Para dar uma ideia da escala: o YouTube excluiu recentemente 1.000 vídeos de golpes de IA usando celebridades.10

Imagens, vídeos e clipes de áudio gerados por IA também agravam as preocupações sobre a desinformação e a desinformação na publicidade política. A tecnologia deepfake, em particular, permite a criação de meios de comunicação sintéticos altamente realistas e difíceis de detectar, como vídeos de candidatos políticos dizendo ou fazendo coisas que nunca disseram ou fizeram. Modelos de IA como Midjourney estão sendo usados para gerar imagens enganosas a serem usadas como desinformação política.11 Midjourney anunciou algumas medidas proativas para evitar que seus usuários fabricem imagens falsificadas do presidente Joe Biden e do ex-presidente Donald Trump,12 mas estas por si só não chegarão perto de resolver o problema da informa~ao duvidosa e da desinformação.

Num caso notável, os apoiadores de Donald Trump criaram e compartilharam imagens falsas de eleitores negros geradas por IA para os encorajar a votar nos republicanos.13  Este tipo de desinformação representa uma ameaça significativa à integridade das campanhas eleitorais, uma vez que os meios de comunicação falsos gerados pela IA podem influenciar a opinião pública, prejudicar a reputação dos candidatos e minar a confiança nas instituições democráticas.

Deepfakes também podem semear confusão entre o público, confundindo os limites entre o que é autêntico e o que é fabricado. Isto pode fazer com que os indivíduos rotulem involuntariamente informações genuínas como falsas – ou permitir que outros o façam intencionalmente. Os professores Danielle Citron e Bobby Chesney rotularam isso como o dividendo do mentiroso:14 ou seja, o fenômeno pelo qual a existência de deepfakes verossímeis permite e incentiva maus atores e líderes autoritários a rotularem conteúdo verdadeiro como falso.

A circulação de informações duvidosas e desinformação geradas pela IA através de plataformas de redes sociais agrava ainda mais o desafio, como se viu nas recentes eleições presidenciais.15 Organizações como o Instituto Knight16 e  o Centro de Política Cibernética de Stanford17 mostraram como narrativas falsas podem espalhar-se rapidamente e sem controle através de sistemas de recomendação algorítmica, amplificando a polarização e minando o discurso democrático. Os mecanismos de verificação de fatos podem ser úteis para combater a propagação de desinformação.18 Por exemplo, a Meta implementou uma série de ferramentas para lidar com a desinformação das suas plataformas.19 No entanto, estas ferramentas e mecanismos podem ser sobrecarregados pelo grande volume e sofisticação do conteúdo falso gerado pela IA e podem ter as suas próprias desvantagens (discutidas abaixo). Além disso, a Meta está se preparando para descontinuar o CrowdTangle , uma ferramenta de análise de dados utilizada para identificar informações incorretas no Facebook e no Instagram.20 A ferramenta será desativada apenas três meses antes das eleições presidenciais dos EUA, restringindo a capacidade de investigadores, jornalistas e outros identificarem tendências perigosas de desinformação num momento chave.

Medidas Legislativas e Tecnológicas

Em resposta a estes desafios, os decisores políticos, as empresas tecnológicas e as organizações da sociedade civil devem trabalhar para desenvolver estratégias abrangentes para enfrentar as ameaças à integridade eleitoral relacionadas com a IA. As legislaturas estaduais estão avaliando e promulgando leis que regulamentariam os deepfakes nos processos eleitorais, muitas vezes obtendo apoio bipartidário.21 A implementação de tais leis ajudaria a combater a propagação da informação duvidosa e da desinformação geradas pela IA, aumentaria a transparência e a responsabilização na publicidade política e promoveria a literacia mediática para capacitar os eleitores a discernir os factos da ficção. A FCC também tem autoridade para reprimir chamadas automáticas que disseminam informações falsas, como fez no passado (embora a violação deva estar relacionada ao TCPA e ao consentimento,22 e não ao conteúdo das chamadas).23 Sanções mais rigorosas podem ajudar a Comissão a dissuadir melhor essas práticas enganosas.

Soluções tecnológicas, como ferramentas de verificação de conteúdo alimentadas por IA e algoritmos de detecção de deepfakes, podem ajudar a detectar e mitigar o impacto de mídias falsas geradas por IA, mas não podem resolver o problema por si só e podem introduzir problemas adicionais.24 Por exemplo, embora os detectores de deepfakes possam procurar indicadores biométricos distintos num vídeo,25 como os batimentos cardíacos de um indivíduo ou uma voz produzida por órgãos vocais humanos naturais em vez de sintetizados, a sua eficácia não é garantida.26

Os algoritmos atualmente disponíveis lutam para detectar consistentemente deepfakes de alta qualidade produzidos por meio de tecnologias avançadas de IA. Além disso, estes detectores também representam riscos potenciais para a privacidade e a equidade. As protecções regulamentares, como a legislação sobre marcas de água da IA,27 poderiam servir como uma medida eficaz – embora imperfeita – para conter a propagação de informações equivocadas e desinformação. O ceticismo decorre de preocupações em torno da padronização e adoção generalizada de práticas de marcas d’água digitais. Sem um quadro universalmente acordado para a implementação e reconhecimento de marcas d'água, a sua eficácia poderá ser limitada.

No entanto, apesar destes desafios, a adoção de legislação sobre marcas d'água de IA significaria um passo à frente em relação ao atual panorama regulatório. Representaria uma grande melhoria na luta contra a infiormação duvidosa e a desinformação, oferecendo às autoridades uma ferramenta adicional para salvaguardar a integridade dos conteúdos digitais e proteger o discurso público.

Existem também fontes que incentivam o público em geral a denunciar a desinformação para impedir a sua disseminação.28 Capacitar os indivíduos para sinalizar conteúdos enganosos ajuda as autoridades e as plataformas a resolverem tais casos rapidamente. Juntamente com os mecanismos de denúncia, a promoção do aprendizado midiático dota as pessoas de ferramentas para discernir informações credíveis. Aproveitar a tecnologia para uma comunicação eficiente aumenta a participação e a defesa contra a desinformação, promovendo uma abordagem colaborativa para um ecossistema de informação mais resiliente.

De acordo com a Agência de Cibersegurança e Segurança de Infraestruturas (CISA), as estratégias mais eficazes para enfrentar ameaças generativas melhoradas pela IA nas eleições alinham-se com as melhores práticas de segurança cibernética de longa data, que podem já ter sido implementadas. Estas medidas incluem o reforço na segurança das contas nas redes sociais, a implementação de protocolos robustos de segurança de e-mail para combater ataques de phishing, o reforço das defesas do perímetro da rede para detectar e prevenir o acesso não autorizado, a realização regular de auditorias de segurança e avaliações de vulnerabilidade, e a promoção de uma maior colaboração e partilha de informações entre agências governamentais, funcionários eleitorais e especialistas em segurança cibernética.

Mais medidas de segurança cibernética podem ser encontradas aqui.29 No entanto, embora estas estratégias possam já ter sido implementadas em vários graus, é importante reconhecer que a segurança cibernética é um campo em evolução e que surgem continuamente novas ameaças. Portanto, embora possam ter sido feitos progressos em determinadas áreas, ainda há muito espaço para melhorias e para a implementação de medidas de cibersegurança mais abrangentes e proativas para salvaguardar eficazmente a integridade eleitoral.

A convergência da IA e das eleições apresenta desafios para as sociedades democráticas. À medida que enfrentamos as ameaças representadas pelas chamadas automáticas geradas pela IA e pelos meios de comunicação manipulados, é imperativo que o governo assuma a liderança no trabalho no sentido de defender os princípios de transparência, integridade e responsabilização nos processos eleitorais.

O Fórum Económico Mundial, no Relatório de Riscos Globais de 2024, previu que a desinformação e a desinformação poderiam perturbar significativamente os processos eleitorais em várias economias, incluindo o Bangladesh, a Índia, a Indonésia, o México, o Paquistão e o Reino Unido, nos próximos dois anos.30 Preocupações semelhantes ajudaram a motivar a União Europeia a adotar a Lei dos Serviços Digitais, que exige que as plataformas de redes sociais combatam campanhas com motivação política e a propagação de informações falsas.31 Entretanto, a Lei da IA da União Europeia (aprovada pelo Parlamento Europeu e pelo Conselho da União Europeia e que aguarda uma adoção formal) representa um esforço inovador para regular todo o ciclo de vida do desenvolvimento, implementação e utilização da IA.

Uma das disposições mais críticas da Lei da IA diz respeito à classificação dos sistemas de IA que visam influenciar os processos eleitorais como IA de alto risco, com rigorosas obrigações de transparência, responsabilização e utilização responsável. Os Estados estão a promulgar rapidamente legislação destinada a abordar a produção de deepfakes gerados por IA, em antecipação às eleições presidenciais de 2024. Mais de 100 projetos de lei foram apresentados ou aprovados em 40 legislaturas estaduais somente neste ano.32 No entanto, ao adotarem um modelo regulatório abrangente semelhante ao da União Europeia, os Estados Unidos podem fortalecer a sua integridade eleitoral, garantindo justiça e fidelidade às escolhas dos eleitores.


32 https://statescoop.com/deepfakes-presidential-election-ai-2024/#:~:text… laws penalizing unlabeled AI,are attempting to fight deepfakes