Jadoon, 31 anos, diz que recusa trabalhos que tenham a intenção de difamar ou decepcionar. Mas ele espera que muitos consultores cumpram o seu dever e distorçam a realidade nas maiores eleições do mundo, à medida que mais de 500 milhões de eleitores indianos vão às urnas.
“Somente nossa ética pode impedir a criação de deepfakes antiéticos”, disse Jadun ao Post. “Mas isso é muito difícil de parar.”
As eleições na Índia começaram na semana passada e vão até o início de junho. Visualize como a explosão de ferramentas de IA está transformando os processos democráticos e facilitando o desenvolvimento de mídias falsas e contínuas em torno das campanhas. Mais de metade da população mundial vive em mais de 50 países que realizarão eleições em 2024, tornando-o um ano crucial para a democracia global.
Não está claro quantas falsificações de IA de políticos foram criadas, mas os especialistas dizem que estão vendo um aumento nas falsificações profundas relacionadas às eleições em todo o mundo.
“Estou olhando mais para isso. [political deepfakes] Este ano é mais sofisticado do que no ano passado, e o que estou vendo é mais sofisticado e convincente”, disse Hany Farid, professor de ciência da computação na Universidade da Califórnia, em Berkeley.
O vazio regulamentar está a emergir à medida que os decisores políticos e reguladores, de Bruxelas a Washington, se apressam a elaborar legislação para restringir o áudio, as imagens e o vídeo habilitados pela IA nas campanhas eleitorais. A lei histórica da União Europeia sobre IA só entrará em vigor depois das eleições parlamentares de junho. Um projeto de lei bipartidário no Congresso dos EUA que proibiria o uso de IA para retratar falsamente candidatos federais provavelmente não será aprovado antes das eleições de novembro. Vários estados dos EUA promulgaram leis para punir as pessoas que fazem vídeos enganosos sobre políticos, criando uma colcha de retalhos política em todo o país.
No entanto, existem barreiras limitadas para impedir que os políticos e os seus aliados utilizem a IA para enganar os eleitores, e os responsáveis pela aplicação da lei têm de se proteger contra falsificações que se podem espalhar rapidamente nas redes sociais e nas conversas em grupo. A democratização da IA significa que caberá a indivíduos como Jadoon, e não aos reguladores, fazer escolhas éticas para impedir a perturbação eleitoral induzida pela IA.
“Não vamos ficar parados vendo as eleições se transformarem em caos”, disse a senadora Amy Klobuchar (D-Minn.), presidente do Comitê de Regras do Senado, em um discurso no Conselho do Atlântico no mês passado. “…isto é como um momento de ‘cabelo em chamas’. Este não é um caso de “vamos esperar três anos e ver o que acontece”. ”
“Torna-se mais sofisticado e atraente.”
Durante anos, grupos de estados-nação têm disseminado em massa informações erradas no Facebook, Twitter (agora conhecido como foi imitado. Mas à medida que a IA permite a participação de intervenientes mais pequenos, a luta contra as falsidades torna-se uma tarefa fragmentada e difícil.
Num memorando, o Departamento de Segurança Interna alertou as autoridades eleitorais que a IA gerada poderia ser usada para aumentar as campanhas de influência estrangeira visando as eleições. O DHS disse num memorando que as ferramentas de IA podem permitir que funcionários eleitorais mal-intencionados se façam passar por funcionários e espalhem informações erradas sobre os métodos de votação e a integridade do processo eleitoral.
Esses avisos estão se tornando realidade em todo o mundo. No início deste ano, atacantes patrocinados pelo Estado usaram IA gerada para interferir nas eleições de Taiwan. No dia das eleições, um grupo afiliado ao Partido Comunista Chinês postou um áudio gerado por IA de um político proeminente que se retirou das eleições de Taiwan apoiando outro candidato, de acordo com um relatório da Microsoft. No entanto, o proprietário e político da Foxconn, Terry Gow, nunca fez tal endosso e o YouTube removeu o áudio.
Taiwan acabou por eleger Lai Ching-de, um candidato oposto pela liderança do Partido Comunista Chinês, sugerindo os limites da campanha para influenciar os resultados eleitorais.
A Microsoft espera que a China adote uma estratégia semelhante na Índia, Coreia do Sul e Estados Unidos este ano. “A crescente experimentação da China no aumento de memes, vídeos e áudio provavelmente continuará e poderá ser mais eficaz no futuro”, afirma o relatório da Microsoft.
Mas o baixo custo e a ampla disponibilidade de ferramentas generativas de IA tornaram possível que pessoas sem apoio estatal executassem os seus planos. É comparável a uma campanha de um Estado-nação.
Na Moldávia, um vídeo deepfake de IA mostra o presidente pró-Ocidente do país, Maia Sandu, renunciando e apelando às pessoas para apoiarem um partido pró-Putin durante as eleições locais. Na África do Sul, o rapper Eminem, alterado digitalmente, apoiou o partido da oposição sul-africana antes das eleições gerais de maio.
Em janeiro, agentes políticos democratas forjaram a voz do presidente Biden e instaram os eleitores das primárias de New Hampshire a não irem às urnas, uma medida que visa aumentar a sensibilização para os problemas nos meios de comunicação social.
A ascensão dos deepfakes de IA pode mudar a demografia de quem concorre a cargos públicos, já que os malfeitores usam desproporcionalmente conteúdo sintético para atingir as mulheres.
O político da oposição de Bangladesh, Rumin Farhana, enfrenta assédio sexual online há anos. Mas no ano passado, uma foto falsa de IA dela de biquíni apareceu nas redes sociais.
Farhana disse que não está claro quem criou a imagem. Mas no Bangladesh, um país conservador de maioria muçulmana, a fotografia suscitou comentários de assédio por parte do público nas redes sociais, com muitos eleitores a acreditarem que era real.
Farhana disse que o assassinato de tal pessoa poderia impedir as candidatas de entrarem na política.
“Não importa o que aconteça, isso é sempre usado primeiro contra as mulheres. Elas são as vítimas em todos os casos”, disse Farhana. “A IA não é exceção.”
“Por favor, espere antes de compartilhar”
Na ausência de acção parlamentar, os países estão a tomar medidas e os reguladores internacionais estão a forçar as empresas a assumir compromissos voluntários.
Cerca de 10 estados adotaram leis que punem aqueles que usam IA para enganar os eleitores. No mês passado, o governador de Wisconsin assinou um projeto de lei bipartidário que impõe multas àqueles que não divulguem a IA em anúncios políticos. A lei de Michigan também penaliza qualquer pessoa que distribua conscientemente deepfakes gerados por IA dentro de 90 dias após uma eleição.
Mas não está claro se as penas – que em alguns municípios vão desde multas até 1.000 dólares e até 90 dias de prisão – são suficientemente severas para dissuadir potenciais infratores.
Com tecnologia de detecção limitada e menos pessoal designado, pode ser difícil para os agentes responsáveis pela aplicação da lei confirmar rapidamente se um vídeo ou imagem é realmente gerado pela IA.
Na ausência de regulamentação, os responsáveis governamentais procuram acordos voluntários entre políticos e empresas tecnológicas para controlar a propagação de conteúdos eleitorais gerados pela IA. A vice-presidente da Comissão Europeia, Vera Jourova, disse ter escrito aos principais partidos políticos dos Estados-membros europeus com um “apelo” para resistirem ao uso de métodos manipuladores. No entanto, ela disse que os políticos e os partidos políticos não enfrentariam qualquer desvantagem se não cumprissem as suas exigências.
“Não posso dizer se eles seguirão nosso conselho ou não”, disse ela em entrevista. “Seria muito triste se isso não acontecesse. Se temos ambições de governar os Estados-membros, temos também de mostrar que podemos ganhar eleições sem recorrer a meios sujos.”
Jurova disse que, em julho de 2023, pediu às principais plataformas de mídia social que rotulassem os trabalhos gerados por IA antes das eleições. O pedido recebeu reações mistas no Vale do Silício, com algumas plataformas dizendo que seria impossível desenvolver tecnologia para detectar IA.
A OpenAI, que desenvolve o chatbot ChatGPT e o gerador de imagens DALL-E, também procurou estabelecer relacionamentos com empresas de mídia social para abordar a distribuição de material político gerado por IA. Na Conferência de Segurança de Munique, realizada em fevereiro, 20 empresas líderes de tecnologia comprometeram-se a trabalhar em conjunto para detetar e remover conteúdos nocivos de IA durante as eleições de 2024.
“Esta é uma questão que abrange toda a sociedade”, disse Anna Makanju, vice-presidente de assuntos internacionais da OpenAI, em entrevista ao PostLive. “Não é do nosso interesse que esta tecnologia seja aproveitada desta forma, especialmente porque aprendemos lições das eleições anteriores e dos últimos anos, e todos estão muito motivados.”
No entanto, nenhuma penalidade será imposta se as empresas não cumprirem as suas promessas. Já existia uma lacuna entre a política declarada da OpenAI e a sua aplicação. Um super PAC apoiado por especialistas do Vale do Silício lançou um chatbot de IA para o principal candidato presidencial Dean Phillips que usa o software ChatGPT da empresa, uma tecnologia proprietária proibida pela OpenAI para violação do uso de campanhas políticas. A empresa não proibiu os bots até o Washington Post informar.
Jadun, que é um ativista político de IA do principal partido eleitoral da Índia, disse que a epidemia de deepfake não pode ser resolvida apenas pelo governo e que o público precisa ser mais bem educado.
“Pare e espere antes de compartilhar conteúdo que leve suas emoções ao próximo nível”, disse ele.

