Especialistas, responsáveis e observadores afirmam que em 2024 será mais fácil utilizar a inteligência artificial (IA) e difundir conteúdos sintéticos que poderão alimentar a desinformação e confundir os eleitores num ano eleitoral crítico.
Na semana passada, um boletim informativo local do Arizona publicou um vídeo deepfake gerado por IA da candidata ao Senado Kari Lake para alertar os leitores sobre “quão boa é essa tecnologia”. Na Geórgia, os legisladores propuseram um projeto de lei para proibir os deepfakes, que reproduzem clipes de endosso fabricados em comunicações políticas.
Nicole Schneidman, estrategista de política tecnológica do grupo de vigilância sem fins lucrativos Protect Democracy, disse que a IA representa um “aumento maciço” nas ameaças aos sistemas eleitorais. “Desinformação, supressão de eleitores – o que a IA generativa está realmente fazendo é tornar essas ameaças mais eficientes.”
Esta tecnologia avançada, que pode gerar imagens, áudio e vídeo e alterar digitalmente retratos e vozes, está a evoluir rapidamente e os académicos e legisladores esforçam-se por acompanhá-la.
E os eleitores estão a tentar navegar num cenário eleitoral onde se torna cada vez mais difícil avaliar a credibilidade das fotos, publicações e vídeos todos os dias.
“Já chegamos a um ponto em que não creio que os eleitores possam confiar nos seus sentidos para saber a diferença entre algo sintético e algo real”, disse Schneidman.
No Arizona, um boletim informativo da Substack na semana passada procurou enfatizar que “qualquer idiota com um computador” pode criar e distribuir conteúdo deepfake relativamente convincente gratuitamente.
“Olá, sou Kali Lake. Assine a Agenda do Arizona para receber notícias duras do mundo real e uma prévia da assustadora inteligência artificial que chegará nas próximas eleições. Este vídeo mostra o quão excelente é essa tecnologia. “Esta é uma IA deepfake criado pela Arizona Agenda para mostrar a você. Estamos conseguindo”, dizem o rosto e a voz do candidato ao Senado no vídeo.
O autor do boletim informativo, Hank Stephenson, pediu aos telespectadores que considerassem se “mesmo depois da ‘deepfake Kali Lake’ ter dito que ela era falsa, seu cérebro ainda demorou um segundo para se atualizar”.
O segundo vídeo mostra as renderizações de Lake explicando como funciona a troca de rosto, clonagem de voz e tecnologia de sincronização labial.
O que poderia ter exigido um orçamento de estúdio e uma equipe de produção para ser criado há alguns anos agora pode ser montado por usuários comuns com apenas alguns cliques, diz o professor de Ciência Política e Centro de Pesquisa Eleitoral da Universidade de Baden. Segundo o diretor Barry Barden. Wisconsin-Madison. Além disso, a proliferação de plataformas de redes sociais pode permitir que conteúdos fabricados sejam amplamente divulgados com pouca verificação formal.
“Penso que o risco aumenta à medida que nos aproximamos do dia das eleições, porque pode afectar os eleitores e o resultado das eleições e pode não ser detectado ou corrigido até depois da contagem dos votos”, disse Baden.
A janela estreita até Novembro também proporciona um cronograma apertado para a implementação de novas regulamentações legais.
Na Geórgia, o Legislativo estadual pretende reprimir “mídia substancialmente enganosa” nas comunicações políticas, ou seja, conteúdo que parece retratar “as palavras e ações de indivíduos reais que não ocorreram na vida real”.
O deputado Brad Thomas, um republicano que apresentou a ideia no Senado da Geórgia na semana passada, reproduziu clipes de áudio mostrando oponentes do projeto de lei balançando para apoiá-lo, depois deturpando a posição da agência e promovendo a política. Ele alertou que a IA poderia ser usada para Falsos anúncios de campanha.
“Algumas pessoas aprendem da maneira mais difícil, e uma imagem vale mais que mil palavras”, disse Thomas ao The Hill quando questionado sobre a realização de deepfakes para seus colegas senadores, um potencial fator desestabilizador. O deputado estadual Colton Moore, um republicano cuja voz foi ouvida no vídeo, se opôs ao projeto online, chamando-o de “meme” e um ataque à liberdade de expressão.
“Acho que as demonstrações que as pessoas que estão criando deepfakes estão fazendo para demonstrar o potencial dos deepfakes serão muito úteis, porque o público e muitos membros do Congresso precisam entender o quão rápido esta tecnologia está avançando. Porque não acho que eles entender o que está acontecendo”, disse Baden.
Em janeiro, uma chamada automática imitando a voz do presidente Biden instou milhares de eleitores de New Hampshire a não votarem nas primárias de Granite State.
Schneidman chamou o robocall de New Hampshire de um exemplo “marco” de como o conteúdo sintético pode ser implantado para supressão de eleitores. A Associated Press informou que quem ligou alegou que estava tentando alertar as pessoas sobre a IA, para não afetar a raça.
Em mais um exemplo da crescente presença da IA no campo eleitoral, têm circulado na Internet imagens falsas de IA de eleitores negros apoiando o ex-presidente Trump enquanto ele corteja dados demográficos importantes antes de seu confronto com Biden em novembro.
“Estamos entrando na primeira eleição de IA, onde nosso ecossistema de informações estará repleto de vídeos, imagens, áudios, chamadas automáticas falsas e muito mais. E em que os eleitores podem confiar? “Não sabemos”, disse Jonathan Mehta-Stein , diretor executivo da California Common Cause, um grupo de vigilância sem fins lucrativos.
Mas embora a falsa chamada automática de Biden tenha sido divulgada na mídia nacional e rapidamente desmascarada, Stein disse estar preocupado com a forma como a IA poderia ser usada no governo e nas eleições em nível local, onde chamadas semelhantes poderiam passar despercebidas. se isso teria tal impacto.
“Penso que o poder da IA generativa para influenciar as eleições locais e estaduais é realmente sério, especialmente numa era de declínio da pressão local. Poderia ser ainda mais extremo do que a ameaça à democracia nos EUA”, disse Stein.
Hany Farid, professor da Escola de Estudos da Informação da Universidade da Califórnia, Berkeley, disse que outra preocupação é que a IA seja usada como bode expiatório.
“Você pode criar conteúdo falso para prejudicar um candidato ou impedir que as pessoas votem. Mas quando você realmente se envolve em algo estúpido, ilegal, embaraçoso… Você gritará: “É falso!” Em outras palavras, não existe realidade além disso, certo? Agora tudo está em dúvida”, disse Farid, que dirige um projeto para rastrear deepfakes no ciclo de 2024.
“Antes, se houvesse um vídeo seu dizendo alguma coisa, era isso. Não houve mais discussão. Mas isso não é mais verdade”, disse Farid. “É um mundo realmente perigoso em que estamos entrando e ninguém sabe mais em que acreditar.”
Ativistas e decisores políticos estão a abordar a IA de vários ângulos, defendendo a literacia digital e pressionando por leis e diretrizes.
Biden emitiu uma ordem executiva sobre IA no ano passado, incluindo planos para criar diretrizes para autenticação de conteúdo e marcas d’água, e a Comissão Federal de Comunicações mudou no mês passado para direcionar chamadas automáticas geradas por IA após o incidente em New Hampshire. Um grupo de empresas de tecnologia prometeu no mês passado combater a IA nas eleições deste ano.
A Iniciativa da Califórnia para Tecnologia e Democracia, um projeto de Causa Comum, está patrocinando um pacote de projetos de lei em nível estadual que inclui um plano para exigir que as plataformas de mídia social rotulem deepfakes, e o grupo espera semelhante, espero que inspire ações. Na semana passada, Wisconsin aprovou uma lei exigindo isenções de responsabilidade para anúncios políticos que usam IA no estado.
Os especialistas dizem que, embora a IA possa ser usada para fins maliciosos, as ferramentas em si não são necessariamente prejudiciais e podem até ser benéficas para campanhas na elaboração de mensagens e no desenvolvimento de conteúdos, enfatizou.
“A ideia é abordar os danos, não a tecnologia”, disse Matt Perrault, diretor do Centro de Política Tecnológica da Universidade da Carolina do Norte em Chapel Hill.
Mas, apesar dos avisos dos especialistas, Schneidman sublinhou que as preocupações com a IA não devem ser extrapoladas para preocupações mais amplas sobre o sistema eleitoral dos EUA.
“Os eleitores deveriam estar cientes do surgimento da IA generativa e do facto de que é provável que encontrem um ciclo de conteúdo sintético relacionado com eleições, o que deveria pôr em causa a integridade da administração eleitoral neste país. Não é”, disse ela. , encaminha os eleitores aos funcionários eleitorais locais para obter informações antes de votar.
Copyright 2024 Nexstar Media Inc. Todos os direitos reservados. Este material não pode ser publicado, transmitido, reescrito ou redistribuído.

