força motriz inteligência artificial Isto poderia ameaçar a segurança das eleições de Novembro, alertaram as agências de inteligência num novo documento federal.
A IA generativa usa imagens, áudio, vídeo e código para criar novos conteúdos, como os chamados vídeos “profundamente falsos”, que fazem parecer que uma pessoa está dizendo algo que nunca disse.
Os intervenientes nacionais e internacionais poderiam utilizar esta tecnologia para criar sérios desafios para o ciclo eleitoral de 2024, de acordo com uma análise compilada pelo Departamento de Segurança Interna e enviada às agências responsáveis pela aplicação da lei em todo o país. O Federal Register é uma mensagem publicada frequentemente para agências de aplicação da lei, destinada a chamar a atenção para uma ameaça ou preocupação específica.
“Vários atores de ameaças podem tentar aproveitar a mídia aumentada e a inteligência artificial generativa (IA) para influenciar e semear a discórdia durante o ciclo eleitoral de 2024 nos EUA, e as ferramentas de IA podem ser usadas para fortalecer os esforços para frustrá-lo.” Ele disse que foi compartilhado com a CBS News. “À medida que o ciclo eleitoral de 2024 avança, as ferramentas generativas de IA criarão oportunidades para os actores de ameaças nacionais e internacionais intervirem, exacerbando novos eventos, perturbando os processos eleitorais e atacando a infra-estrutura eleitoral com maior probabilidade de ocorrer.”
A Diretora de Inteligência Nacional, Avril Haines, também alertou o Congresso sobre os perigos da IA generativa durante uma audiência do Comitê de Inteligência do Senado na semana passada, dizendo que a tecnologia de IA poderia criar “deepfakes” realistas que podem esconder suas origens.
“As inovações na IA permitiram que influenciadores estrangeiros gerassem mensagens aparentemente autênticas e personalizadas de forma mais eficiente e em escala”, disse ele, acrescentando que os Estados Unidos estão agora mais capazes do que nunca.
Ganhe imagens McNamee/Getty
Um exemplo citado pelo DHS em seu boletim é: Chamada automática falsa imitando a voz do presidente Joe Biden Na noite anterior às primárias de New Hampshire, em janeiro. A falsa mensagem de áudio se tornou viral, pedindo aos destinatários que “guardassem seus votos” para as eleições gerais de novembro, em vez de participarem das primárias de seu estado.
“O momento de” Mídia gerada por IA específica para eleições “Refutar ou desmascarar conteúdo falso difundido on-line pode levar tempo e ser tão importante quanto o próprio conteúdo”, afirmou o boletim.
O memorando também afirmava: A ameaça permanece no exterior, acrescentou. Em Novembro de 2023, um vídeo da IA instou as pessoas a votarem num determinado candidato no dia das eleições num estado do sul da Índia, e as autoridades não lhes deram tempo para desacreditar o vídeo.
O boletim também alerta para o potencial uso de inteligência artificial para atingir infraestruturas eleitorais.
“A IA gerada também pode ser usada para aprimorar planos de ataque de atores ameaçadores, ou extremistas violentos, que buscam atingir símbolos eleitorais ou infraestruturas críticas dos EUA”, disse o boletim. “Isso inclui ajudar-nos a compreender as eleições nos EUA e a infraestrutura relacionada, examinar a infraestrutura eleitoral conectada à Internet em busca de vulnerabilidades potenciais, identificar e agregar listas de alvos e eventos eleitorais e criar novos ou. Isso pode incluir o fornecimento de orientação tática aprimorada.”
O DHS diz que alguns extremistas violentos estão até experimentando chatbots de IA para preencher lacunas nas orientações sobre táticas e armas, mas o departamento diz que extremistas violentos podem usar informações de segmentação relacionadas às eleições.

