Jim Watson/AFP/Getty Images
Os eleitores votam nas eleições primárias de Maryland em 14 de maio de 2024 em Chester.
CNN
–
O Departamento de Segurança Interna disse em um boletim recente distribuído a autoridades estaduais e locais que ferramentas de inteligência artificial para a criação de vídeo, áudio e outros conteúdos falsos provavelmente serão usadas no ciclo eleitoral de 2024 nos EUA. para “aumentar as oportunidades de interferência” com agentes estrangeiros e extremistas nacionais, disse ele. Obtido pela CNN.
Um boletim de 17 de maio produzido pelo Escritório de Informações do DHS afirma que vários “atores de ameaças” estão usando IA generativa (criando conteúdo falso) para influenciar ou “semear discórdia” durante o ciclo eleitoral dos EUA. eles tentarão usar IA) para E análise.
O boletim afirma que embora “a probabilidade de ataques em grande escala nas eleições seja baixa” devido “ao alto risco de detecção e à natureza distribuída e diversificada dos sistemas de votação”, “os atores da ameaça permanecem limitados”. eles podem tentar realizar uma operação, o que poderia levar a isso.” Agitação nos principais campos de batalha eleitoral. ”
De acordo com o boletim, agentes estrangeiros ou nacionais podem distribuir clipes de vídeo ou áudio falsos ou alterados que afirmem, por exemplo, que as assembleias de voto estão fechadas ou que os horários de votação foram alterados. pessoal eleitoral.
A CBS News relatou pela primeira vez as últimas notícias.
Tal como em 2020, os funcionários eleitorais em 2024 irão provavelmente operar num ambiente de informação caótico e por vezes hostil. Nele, uma grande parcela dos eleitores acredita erroneamente que a fraude é galopante dentro do sistema. O ex-presidente Donald Trump recusou-se recentemente a comprometer-se a aceitar os resultados eleitorais.
Mas, ao contrário de 2020, autoridades dos EUA e especialistas privados dizem que as ferramentas de IA se tornaram uma maneira fácil de amplificar enormemente as falsas alegações de fraude eleitoral e teorias de conspiração eleitoral.
As autoridades dos EUA focadas na segurança eleitoral estão preocupadas com o facto de as ferramentas de IA agravarem ainda mais este ambiente já ameaçador, sendo um exemplo os incidentes selecionados nas primárias democratas de New Hampshire, em janeiro. Uma chamada automática de IA imitando o presidente Joe Biden teve como alvo os eleitores primários, instando-os a não votar. Um mágico de Nova Orleans disse à CNN que fez as ligações automáticas a pedido de um consultor político do deputado Dean Phillips de Minnesota, um importante desafiante democrata de Biden.
No entanto, as ferramentas de IA só são eficazes se captarem a atenção do seu público.
A CNN informou na semana passada que agentes do governo chinês e iraniano criaram conteúdo falso gerado por IA como parte de uma campanha para influenciar os eleitores dos EUA nos estágios finais da campanha eleitoral de 2020. Operativos chineses e iranianos nunca divulgaram publicamente o áudio ou vídeo deepfake, disseram autoridades atuais e antigas informadas sobre a informação.
Na altura, algumas autoridades dos EUA que analisaram esta informação acreditaram que esta mostrava que a China e o Irão não tinham a capacidade de implantar deepfakes de uma forma que pudesse impactar seriamente as eleições presidenciais de 2020, não impressionados.
As capacidades de IA avançaram significativamente nos últimos quatro anos. É mais fácil de usar e requer menos amostras para imitar de forma convincente a voz ou o rosto de alguém. Como resultado, esta tecnologia prevalece entre os bandidos.
Um novo boletim do DHS diz que os agentes patrocinados por governos estrangeiros estão cada vez mais a utilizar IA gerada para operações de influência dirigidas aos americanos. Entretanto, alguns extremistas violentos estão “expressando cada vez mais interesse na IA generativa para criar conteúdo ideológico violento online” e promovendo guias sobre como explorar a IA.
Enquanto os pesquisadores dos EUA trabalham arduamente para avaliar as preferências dos eleitores antes das eleições de novembro, o mesmo acontece com os trolls chineses, de acordo com um estudo da Microsoft divulgado no mês passado.Um conjunto de contas em plataformas de mídia social
“Eles podem ter atuado como observadores de audiência… [and] para demonstrar alguma capacidade de envolvimento em capacidades secretas”, disse Clint Watts, diretor do Centro de Análise de Ameaças da Microsoft, em uma entrevista recente. “Não acho que eles realmente entendam no que o público americano está interessado.”
Os atores chineses que visam o público dos EUA com operações de influência estão “expandindo as suas capacidades e tentando coisas novas”, disse Watts. “Mas, ao mesmo tempo, em termos de formação cultural e compreensão do público americano, eles não estão numa situação como a dos russos, digamos, em 2015 ou 2016”. ”

