É oficial. Joe Biden e Donald Trump garantiram os delegados necessários para se tornarem os candidatos presidenciais de ambos os partidos nas eleições presidenciais de 2024. Salvo quaisquer acontecimentos imprevistos, os dois homens serão formalmente nomeados nas convenções do partido neste verão e enfrentar-se-ão nas urnas no dia 5 de novembro.
Tal como as recentes eleições, esta será, sem dúvida, realizada principalmente online e será uma poderosa mistura de notícias e desinformação distribuída através das redes sociais. A novidade deste ano são ferramentas poderosas de inteligência artificial generativa, como ChatGPT e Sora, que podem “inundar a zona” com propaganda e desinformação e criar deepfakes convincentes (políticos. Você será capaz de criar facilmente (reencenando as palavras que saíram da boca de a casa ou reencenando eventos anteriores). Aos nossos olhos, isso realmente não aconteceu.
O resultado é uma maior probabilidade de os eleitores serem enganados e, talvez de forma alarmante, uma sensação crescente de que tudo o que vêem online não é confiável. Trump já aproveitou o chamado Dividendo do Mentiroso, a oportunidade de desconsiderar palavras e ações reais como deepfakes. Em 12 de março de 2024, Trump deu a entender em sua plataforma Truth Social que vídeos autênticos dele mostrados por membros democratas da Câmara foram criados ou alterados usando inteligência artificial.
A Conversa cobriu os mais recentes desenvolvimentos em inteligência artificial que têm o potencial de minar a democracia. Abaixo está uma coleção de alguns artigos de nossos arquivos.
1. Evento falso
A capacidade de usar IA para criar falsificações convincentes é especialmente preocupante quando se trata de criar evidências falsas de eventos que nunca aconteceram. Christopher Schwartz, pesquisador de segurança de computadores do Rochester Institute of Technology, apelidou esta situação de deepfake.
“A ideia básica e a tecnologia das situações deepfake são as mesmas de outros deepfakes, mas eles têm ambições mais ousadas de manipular eventos reais ou inventar eventos do nada”, escreve ele.
Deepfakes situacionais podem ser usados para impulsionar ou enfraquecer candidatos e suprimir a participação eleitoral. Ao se deparar com um relato de um evento alarmante ou incomum nas redes sociais, obtenha informações sobre o evento em fontes confiáveis, como notícias verificadas, artigos acadêmicos revisados por pares e entrevistas com especialistas qualificados. Tente saber mais, Schwartz disse. Além disso, esteja ciente de que deepfakes podem explorar aquilo em que você tende a acreditar.
Leia mais: Eventos que nunca aconteceram podem influenciar as eleições presidenciais de 2024 – Pesquisador de segurança cibernética explica deepfakes situacionais
2. Rússia, China e Irão têm como objectivo
A questão do que a desinformação gerada pela IA pode fazer levanta a questão de quem a exerce. As atuais ferramentas de IA dão a quase todas as pessoas a capacidade de gerar desinformação, mas são particularmente preocupantes para os adversários dos Estados Unidos e de outras democracias. Em particular, a Rússia, a China e o Irão têm uma vasta experiência com campanhas e tecnologia de desinformação.
“A realização de uma campanha de desinformação envolve muito mais do que apenas gerar conteúdo”, escreve o especialista em segurança e professor da Harvard Kennedy School, Bruce Schneier. “A parte difícil é a distribuição. Os ativistas da propaganda precisam de um conjunto de contas falsas para postar e de outras para divulgá-las e torná-las virais.”
Schneier disse que a Rússia e a China têm um histórico de experiências com campanhas de desinformação contra países pequenos. “Para combater novas campanhas de desinformação, precisamos de ser capazes de reconhecê-las, e para reconhecê-las precisamos de as procurar e catalogar agora”, escreveu ele.
Leia mais: A desinformação da IA é uma ameaça às eleições – aprender como detectar interferências noutros países por parte da Rússia, China e Irão pode ajudar os EUA a prepararem-se para 2024
3. Ceticismo saudável
Mas, como mostra uma falsa chamada automática de Biden em New Hampshire, criada e divulgada por dois indivíduos e destinada a dissuadir alguns eleitores, são necessários os recursos das agências secretas de inteligência dos países poderosos para tornar as manchetes desnecessárias. O episódio levou a Comissão Federal de Comunicações a proibir chamadas automáticas que usam vozes geradas por inteligência artificial.
As campanhas de desinformação impulsionadas pela IA são difíceis de combater porque são transmitidas através de uma variedade de canais, incluindo chamadas automáticas, redes sociais, e-mails, mensagens de texto e websites, e exigem análise forense digital para rastrear a origem da desinformação. Joana Donovan. Acadêmico de Mídia e Desinformação na Universidade de Boston.
“Em muitos aspectos, a desinformação melhorada pela IA, como a chamada automática de New Hampshire, apresenta os mesmos problemas que qualquer outra forma de desinformação”, escreveu Donovan. “Aqueles que usam IA para interferir nas eleições provavelmente farão tudo o que puderem para encobrir seus rastros. É por isso que nos certificamos de manter-nos atualizados com as informações de fontes verificadas, como notícias de TV locais e contas de mídia social. O público precisa permanecer cético em relação a afirmações infundadas.'' por organizações de notícias respeitáveis. ”
Leia mais: A FCC proíbe chamadas automáticas usando clones de voz deepfake – mas a desinformação gerada pela IA ainda lança sombra sobre as eleições
4. Um novo tipo de organização política
As campanhas de desinformação alimentadas por IA podem incluir bots (contas automatizadas de redes sociais disfarçadas de pessoas reais), podem incluir interações online personalizadas e podem ser utilizadas durante eleições.
O cientista político de Harvard, Arkon Huang, e o jurista Lawrence Lessig descrevem estas capacidades e apresentam um cenário hipotético para um movimento político nacional que aproveite estas ferramentas poderosas.
Huang e Lessig disseram que as tentativas de bloquear essas máquinas poderiam violar as proteções à liberdade de expressão da Primeira Emenda. “Uma medida menor, mas constitucionalmente mais segura, já adotada por alguns reguladores europeus da Internet e pelo estado da Califórnia, seria proibir os bots de se passarem por humanos”, escreveram. “Por exemplo, os regulamentos podem exigir que as mensagens da campanha incluam uma isenção de responsabilidade se o conteúdo que contêm for gerado por máquina e não por humanos.”
Leia mais: Como a IA está dominando as eleições e minando a democracia
Este artigo é uma compilação de artigos dos arquivos do The Conversation.
Este artigo faz parte do Desinformação 2024. Uma série que examina a ciência, a tecnologia e a política da fraude eleitoral.
Você também pode estar interessado em:
A desinformação é galopante nas redes sociais – psicólogo social explica táticas usadas contra você
Desinformação, desinformação e desinformação: Qual é a diferença?
As campanhas de desinformação são uma mistura confusa de verdade, mentiras e crenças sinceras – lições da pandemia

