LONDRES (AP) – A inteligência artificial está a aumentar a ameaça de desinformação eleitoral em todo o mundo, tornando possível a qualquer pessoa com um smartphone e uma imaginação tortuosa criar informações falsas mas convincentes destinadas a enganar os eleitores.
Isto representa um salto quântico em relação a apenas alguns anos atrás, quando a criação de fotos, vídeos ou clipes de áudio falsos exigia uma equipe com tempo, habilidades técnicas e financiamento. Hoje, serviços de inteligência artificial generativos gratuitos e de baixo custo de empresas como Google e OpenAI permitem que qualquer pessoa crie “deepfakes” de alta qualidade com apenas um simples prompt de texto.
Uma onda de deepfakes de IA relacionados com eleições na Europa e na Ásia tem-se espalhado pelas redes sociais há meses, servindo de alerta a mais de 50 países que vão às urnas este ano.
“Não é preciso ir muito longe para ver que há pessoas que estão claramente confusas sobre se algo é real ou não”, disse Henry Ajdar, um importante especialista em IA generativa baseado em Cambridge, Inglaterra.
Ajder, que dirige uma empresa de consultoria chamada Latent Space Advisory, diz que a questão não é mais se os deepfakes de IA influenciarão as eleições, mas até que ponto.
À medida que as eleições presidenciais dos EUA esquentam, o diretor do FBI, Christopher Wray, alertou recentemente sobre uma ameaça crescente, dizendo que a IA gerada tornaria mais fácil para “adversários estrangeiros se envolverem em resultados negativos”.
Deepfakes de IA podem ser usados para manchar ou suavizar imagens de candidatos. Os eleitores podem ser desviados ou afastados dos candidatos, ou até mesmo evitar votar completamente. Mas talvez a maior ameaça à democracia, dizem os especialistas, seja o facto de a proliferação de deepfakes de IA poder minar a confiança do público naquilo que vê e ouve.
Exemplos recentes de deepfakes de IA incluem:
— Vídeo do presidente pró-Ocidente da Moldávia apoiando um partido amigo da Rússia.
— Clipe de áudio do líder do Partido Liberal da Eslováquia discutindo fraude eleitoral e aumentos de preços da cerveja.
— Um vídeo de um legislador da oposição no Bangladesh conservador, de maioria muçulmana, usando um biquíni.
A novidade e sofisticação desta tecnologia tornam difícil rastrear quem está por trás de um deepfake de IA. Especialistas dizem que os governos e as empresas ainda não conseguiram deter o dilúvio e não estão a agir com rapidez suficiente para resolver o problema.
À medida que a tecnologia avança, “será difícil obter respostas definitivas sobre muitos conteúdos falsos”, disse Ajder.
A confiança está danificada
Alguns deepfakes de IA visam semear dúvidas sobre a lealdade de um candidato.
Na Moldávia, um país da Europa Oriental que faz fronteira com a Ucrânia, o presidente pró-Ocidente Maia Sandu é um alvo frequente. Um deepfake de IA que circulou pouco antes das eleições locais mostrou-a apoiando um partido pró-Rússia e anunciando planos de renúncia.
As autoridades moldavas acreditam que o governo russo está por trás desta atividade. Antes da eleição presidencial deste ano, a conselheira de Sandu, Olga Roska, disse que o objetivo dos deepfakes era “minar a confiança nos processos eleitorais, nos candidatos e nas instituições, mas também na confiança entre as pessoas”. O governo russo não quis comentar o assunto.
A China também foi acusada de transformar a IA gerada em arma para fins políticos.
Em Taiwan, um território autónomo que a China reivindica como seu, os deepfakes de IA chamaram a atenção no início deste ano, levantando preocupações sobre a interferência dos EUA na política local.
Num vídeo falso que circula no TikTok dos EUA, o representante dos EUA Rob Whitman, vice-presidente do Comitê de Serviços Armados da Câmara dos Representantes dos EUA, diz que aumentaria o apoio militar dos EUA a Taiwan se o candidato do partido em exercício for eleito em janeiro.
Whitman disse que a TikTok, uma empresa de propriedade chinesa, estava sendo usada para espalhar “propaganda” e acusou o Partido Comunista Chinês de tentar interferir na política de Taiwan.
O porta-voz do Ministério das Relações Exteriores da China, Wang Wenbin, disse que o governo chinês não comenta o vídeo falso e se opõe à interferência nos assuntos internos de outros países. As eleições de Taiwan são “uma questão local na China”, sublinhou.
realidade turva
Deepfakes somente de áudio são particularmente difíceis de verificar porque, diferentemente de fotos e vídeos, não há sinais óbvios de conteúdo manipulado.
Na Eslováquia, outro país sob a sombra da influência russa, um clip de áudio semelhante à voz do líder do Partido Liberal foi amplamente partilhado nas redes sociais dias antes das eleições parlamentares. O vídeo supostamente o mostrava falando sobre aumentos nos preços da cerveja e fraude eleitoral.
Ajdel disse que era natural que os eleitores caíssem no engano porque os humanos estão “muito mais acostumados a julgar com os olhos do que com os ouvidos”.
Nos Estados Unidos, uma chamada automática representando o presidente dos EUA, Joe Biden, instou os eleitores em New Hampshire a se absterem de votar nas primárias de janeiro. Mais tarde, descobriu-se que a ligação foi direcionada a um consultor político que disse estar tentando promover os perigos dos deepfakes de IA.
Em países pobres com atraso na literacia mediática, mesmo falsificações de IA de baixa qualidade podem ser eficazes.
Um incidente semelhante ocorreu no Bangladesh no ano passado, quando o legislador da oposição Rummin Farhana, um crítico veemente do partido no poder, foi incorrectamente retratado a usar um biquíni. O vídeo se tornou viral, provocando indignação no país conservador de maioria muçulmana.
“Eles confiam em tudo que veem no Facebook”, disse Farhana.
Os especialistas estão particularmente preocupados com as próximas eleições na Índia, a maior democracia do mundo e onde as plataformas de redes sociais são um terreno fértil para a desinformação.
Desafio à democracia
Algumas campanhas políticas estão a utilizar IA generativa para melhorar a imagem dos candidatos.
Na Indonésia, a equipa responsável pela campanha presidencial de Prabowo Subianto introduziu uma aplicação móvel simples para estabelecer ligações mais profundas com apoiantes em toda a vasta nação insular. O aplicativo agora permite que os eleitores carreguem uma foto e criem uma imagem sua gerada por IA no Subianto.
À medida que a variedade de deepfakes de IA aumenta, as autoridades em todo o mundo estão se esforçando para desenvolver proteções.
A União Europeia já pediu às plataformas de redes sociais que reduzissem o risco de propagação de desinformação e “manipulação eleitoral”. Os deepfakes de IA serão obrigados a ter rótulos especiais a partir do próximo ano, mas é tarde demais para as eleições parlamentares da UE em junho. Ainda assim, o resto do mundo está muito atrás.
As maiores empresas de tecnologia do mundo assinaram recentemente voluntariamente um acordo para evitar que ferramentas de IA interfiram nas eleições. Por exemplo, a empresa proprietária do Instagram e do Facebook anunciou que começará a rotular os deepfakes que aparecem em suas plataformas.
Mas aplicativos como o serviço de bate-papo Telegram têm dificuldade em controlar deepfakes. O serviço de chat Telegram não assinou acordo voluntário e utiliza chats criptografados e difíceis de monitorar.
Alguns especialistas temem que os esforços para conter os deepfakes de IA possam ter consequências indesejadas.
Tim Harper, analista político sênior do Centro de Tecnologia Democrática em Washington, disse que governos e empresas bem-intencionados caminham na linha “muito tênue” entre comentários políticos e “uma tentativa ilegal de difamar um candidato”. possibilidade de atropelamento.
Os principais serviços generativos de IA têm regras que limitam a desinformação política. Mas os especialistas dizem que ainda é muito fácil contornar as restrições da plataforma ou utilizar serviços alternativos que não tenham salvaguardas semelhantes.
Mesmo sem intenções maliciosas, o uso crescente de IA é problemático. Muitos chatbots populares com tecnologia de IA ainda divulgam informações falsas e enganosas que podem privar os eleitores de direitos.
E o software não é a única ameaça. Os candidatos podem tentar enganar os eleitores alegando que os eventos reais que são vistos contra eles foram fabricados pela IA.
“Um mundo em que tudo é questionável, um mundo em que todos podem escolher em que acreditar, é também um mundo muito difícil para uma democracia próspera”, disse Lisa Leppel, pesquisadora da Fundação Internacional de Sistemas Eleitorais em Arlington, Virgínia. ele diz.
__
Swenson relatou de Nova York. Os redatores da Associated Press Julhas Alam em Dhaka, Bangladesh, Krutika Pati em Nova Delhi, Huizhong Wu em Bangkok, Edna Tarigan em Jacarta, Indonésia, Dake Kang em Pequim e Bucareste, Romênia Stephen McGrath contribuíram para este relatório.
__
A Associated Press recebe apoio de diversas fundações privadas para melhorar a nossa cobertura explicativa das eleições e da democracia. Saiba mais sobre a Iniciativa para a Democracia da AP. A AP é a única responsável por todo o conteúdo.