TSua campanha será sua primeira exposição à inteligência artificial generativa. A inteligência artificial generativa é a tecnologia por trás de aplicativos populares como o ChatGPT, que permite que não especialistas criem texto, vídeo e áudio falsos, mas de aparência realista, perfeitos para manipulação política. Ao mesmo tempo, muitas das principais empresas de redes sociais recuaram em algumas das suas promessas anteriores de promover a “integridade eleitoral”. As eleições de novembro também serão as primeiras a ver o impacto da enorme popularidade do TikTok. O TikTok usa um algoritmo de recomendação que alguns especialistas acreditam ser particularmente adequado para espalhar desinformação.
Vamos começar com a ascensão da IA generativa. A IA generativa permite que praticamente qualquer pessoa gere textos, imagens e áudio persuasivos com base em instruções de linguagem natural relativamente simples. Em janeiro, o Facebook divulgou uma imagem falsa gerada por IA de Donald Trump sentado ao lado de Jeffrey Epstein no jato particular do desgraçado financista e criminoso sexual. Em Fevereiro, um consultor democrata que trabalhava para um importante rival admitiu ter encomendado chamadas automáticas geradas por IA, fazendo-se passar pelo Presidente Joe Biden, numa tentativa de dissuadir milhares de eleitores de participarem nas primárias de New Hampshire. O procurador-geral do estado abriu uma investigação criminal.
Os Estados Unidos não estão sozinhos neste aspecto. Um clip de áudio publicado no Facebook em Setembro passado, apenas dois dias antes das eleições presidenciais nacionais na Eslováquia, mostra candidatos do Partido Progressista Eslovaco, pró-OTAN e pró-Ucrânia, a discutir formas de fraudar os resultados. As postagens de áudio falsas geradas por IA tornaram-se virais durante a moratória pré-eleitoral da mídia, limitando até que ponto poderiam ser desmascaradas e perdendo candidatos para rivais pró-Rússia.
Os analistas estão tendo dificuldade em compreender as possibilidades. Pesquisa publicada em revistas acadêmicas em fevereiro Nexus do PNAS diz que qualquer criador de anúncios políticos equipado com ferramentas generativas de IA pode criar “uma ‘máquina de manipulação’ altamente escalável que atinge indivíduos com base em suas vulnerabilidades únicas, sem a necessidade de intervenção humana”. Isto sugere que o tipo de agentes digitais russos que se intrometeram nas eleições de 2016 a favor de Donald Trump poderiam usar a IA como um multiplicador de força para reincitar um eleitorado americano já polarizado, o que sugere que existem preocupações sobre o género.
Mais do Tempo
Mas a IA não conta toda a história. A ameaça da desinformação gerada artificialmente torna-se ainda mais assustadora por uma tecnologia mais familiar: as redes sociais.
Apesar do caos e da violência causados pelas tentativas de Trump de minar os resultados eleitorais de 2020, e da ameaça de convulsão semelhante este ano, grandes plataformas como o Facebook, o YouTube e, de forma mais dramática, recuaram de algumas das suas anteriores políticas de integridade eleitoral. De acordo com um novo relatório de nossa autoria para o Centro de Negócios e Direitos Humanos da Stern School of Business da Universidade de Nova York.
As discussões sobre retrocessos sempre começam com a Empresa X, que Elon Musk adquiriu em outubro de 2022. A competição do novo aplicativo Threads da Meta e a controvérsia relacionada à máscara custaram aos usuários da Empresa X. Mas ainda recebe uma média de mais de 220 milhões de visitantes por mês e mantém a lealdade de muitos políticos, jornalistas e artistas influentes. Musk demitiu 6.000 pessoas, ou 80% da força de trabalho da Empresa X, até a primavera de 2023. Em setembro de 2023, Ele disse “Oh, eles se foram”, disse uma pessoa do departamento de integridade eleitoral da plataforma. A redução da moderação de conteúdo pelo novo proprietário em nome da promoção da liberdade de expressão contribuiu para um aumento da linguagem racista e antissemita, levando os anunciantes a deixar a Empresa X em massa.
Após o aumento de contratações causado pela pandemia do coronavírus, outras empresas de redes sociais também implementaram demissões em massa, com muitas reduzindo suas equipes de “confiança e segurança”, as equipes que criam e aplicam políticas de conteúdo.
Antes das eleições de 2020, Mehta estabeleceu uma força de 300 pessoas dedicada à integridade eleitoral. No entanto, apesar do caos causado pela invasão do Capitólio pelos apoiantes de Trump em 6 de janeiro de 2021, a empresa reduziu desde então o tamanho da sua equipa para cerca de 60 pessoas, incluindo os líderes do grupo e Mark Zuckerberg. As reuniões regulares com o CEO foram canceladas. Funcionários da Meta disseram que vários ex-membros da equipe em novas funções ainda estão contribuindo para os esforços de integridade eleitoral e que a alta administração é mantida informada sobre os esforços. Mas os sinais são claramente confusos.
Para seu crédito, a Meta ainda está financiando uma rede líder do setor de mais de 90 organizações externas de verificação de fatos que ajudam as plataformas a diminuir a ênfase e rotular conteúdo falso. Mas a empresa continua a isentar os políticos da verificação dos factos das suas declarações. Entretanto, o YouTube reverteu a sua política anterior de remover dezenas de milhares de vídeos que alegavam falsamente que as eleições de 2020 eram ilegais. Ambas as empresas argumentam que a nova abordagem promove a liberdade de expressão.
A Meta também anunciou que está flexibilizando as regras que permitem anúncios políticos no Facebook e Instagram que questionem a legitimidade das eleições presidenciais de 2020, com o mesmo objetivo de promover o debate livre. Com certeza, em agosto de 2023, o Facebook permitiu que a campanha de Trump publicasse um anúncio declarando que “houve fraude eleitoral em 2020”.
Agora, com uma média de mais de 1 bilhão de usuários mensais em todo o mundo e mais de 170 milhões de usuários somente nos Estados Unidos, o TikTok enfrenta um conjunto novo e completamente diferente de desafios. Os seus laços com a empresa-mãe chinesa ByteDance levantaram suspeitas, até agora não comprovadas, de que o governo autoritário de Pequim tem influência sobre a plataforma dos EUA. A Câmara dos Representantes aprovou recentemente um projeto de lei que força a ByteDance a vender o TikTok ou enfrentará a proibição do aplicativo de vídeos curtos nos EUA.
Porém, também há dúvidas sobre o algoritmo de recomendação do TikTok, que seleciona o conteúdo a ser apresentado aos usuários. Outras plataformas importantes dependem do “gráfico social” e selecionam conteúdo com base nas pessoas que você segue e no que as pessoas que você segue estão compartilhando. Por outro lado, o TikTok seleciona vídeos curtos para sua página “Para você” com base em recomendações de conteúdo algorítmico. fora Suas redes sociais também. Essa diferença pode ajudar a explicar por que o TikTok tem tido sucesso em fornecer aos usuários vídeos que eles consideram novos e atraentes.
Mas pesquisadores do Centro de Política de Mídia Social da Universidade de Nova York dizem que essa distinção pode representar um perigo durante as eleições, dizendo: “A IA generativa está facilitando a criação de vídeos falsos”. não seria capaz de alcançar com outras plataformas sociais baseadas em gráficos. Além disso, os usuários do TikTok são mais jovens e estudos mostram que os mais jovens são mais propensos a acreditar em informações falsas. A TikTok disse que a análise era “completamente especulativa” e refletia “uma compreensão insuficiente de como nossa plataforma funciona”.
Ainda há tempo para que as plataformas tomem precauções antes das eleições. Você pode impor limites ao compartilhamento desenfreado de conteúdo, que é uma das formas pelas quais a desinformação se espalha. Você pode acionar um “disjuntor” em certas postagens virais, dando aos moderadores de conteúdo a chance de determinar se o conteúdo é malicioso. Você pode preencher sua equipe de gerenciamento de conteúdo que falta. Também remove conteúdo claramente falso dos feeds dos usuários, ao mesmo tempo que retém cópias marcadas e arquivadas que não podem ser compartilhadas, mas que estão disponíveis como referência para aqueles que rastreiam informações incorretas.
A indústria das redes sociais deve encarar estas e outras salvaguardas como o custo de fazer negócios de forma responsável durante o que parece ser mais uma época eleitoral volátil. A inacção poderia piorar ainda mais a verdadeira crise da democracia americana.