A OpenAI removeu contas associadas a esforços de propaganda conhecidos na Rússia, China e Irã. Empresa de campanha política israelense. e um grupo até então desconhecido da Rússia que os pesquisadores da empresa chamaram de “Gramática Ruim”. O grupo desenvolveu um software que aproveita a tecnologia OpenAI para criar postagens, traduzi-las para diferentes idiomas e ajudar a automatizar as postagens nas redes sociais.
Nenhum desses grupos conseguiu ganhar muita força. As contas de mídia social associadas a elas alcançam um pequeno número de usuários; Ben Nimmo, principal cientista da equipe de inteligência e pesquisa da OpenAI, disse que há apenas um punhado de crentes. Ainda assim, o relatório da OpenAI mostra que propagandistas de longa data das redes sociais estão a utilizar tecnologia de IA para melhorar as suas campanhas.
“Vimos essas operações produzirem textos em volumes maiores e com menos erros do que tradicionalmente gerenciavam”, disse Nimmo, que trabalhou anteriormente na MetaTracking Impact Operations, em um briefing com repórteres. Nimmo disse que outros grupos ainda podem usar as ferramentas da OpenAI sem o conhecimento da empresa.
“Agora não é hora de ser complacente. A história mostra que operações de influência que falharam durante anos podem explodir repentinamente se ninguém estiver procurando por elas”, disse ele.
Governos, partidos políticos e grupos ativistas há muito que utilizam as redes sociais para tentar influenciar a política. Em resposta às preocupações sobre a influência russa nas eleições presidenciais de 2016, as plataformas de redes sociais começaram a prestar muita atenção à forma como os seus sites estão a ser usados para influenciar os eleitores. As empresas geralmente proíbem governos ou grupos políticos de ocultar esforços conjuntos para influenciar os utilizadores, e os anúncios políticos devem revelar quem pagou por eles.
À medida que as ferramentas de IA que podem gerar textos, imagens e até vídeos realistas se tornam mais disponíveis, os investigadores da desinformação são capazes de detectar e responder a informações falsas e a operações de influência encoberta online. Centenas de milhões de pessoas em todo o mundo votarão nas eleições este ano, e os deepfakes gerados pela IA já estão proliferando.
OpenAI, Google e outras empresas de IA estão trabalhando em tecnologia para identificar deepfakes criados com ferramentas proprietárias, mas tal tecnologia ainda não foi comprovada. Alguns especialistas em IA acreditam que os detectores deepfake nunca serão totalmente eficazes.
No início deste ano, um grupo afiliado ao Partido Comunista Chinês publicou áudio gerado por IA pretendendo apoiar outro candidato nas eleições de Taiwan. No entanto, o político, Terry Gou, proprietário da Foxconn, não apoiou seu oponente.
Em janeiro, os eleitores nas primárias de New Hampshire receberam uma chamada automática supostamente do presidente Biden, mas foi rapidamente determinada como sendo uma chamada automática gerada por IA. Na semana passada, um agente democrata que alegou ter encomendado as ligações automáticas foi indiciado sob a acusação de repressão eleitoral e de se passar por um candidato.
O relatório da OpenAI detalha como cinco grupos usaram a tecnologia da empresa na tentativa de influenciar operações. Segundo a empresa, o Spamouflage, um grupo chinês anteriormente conhecido, usa a tecnologia OpenAI para examinar atividades nas redes sociais e postagens em chinês, coreano, japonês e inglês. Um grupo iraniano conhecido como International Virtual Media Coalition também utilizou a tecnologia da OpenAI para criar artigos e publicá-los em seu site.
Um grupo até então desconhecido, Bad Grammar, usou a tecnologia OpenAI para ajudar a criar um programa que pode postar automaticamente no aplicativo de mensagens Telegram. Bad Grammar usa tecnologia OpenAI para gerar postagens e O relatório disse que houve comentários em russo e inglês argumentando que os Estados Unidos não deveriam ajudar a Ucrânia.
O relatório também descobriu que uma empresa de campanha política israelense chamada Stoic usou a OpenAI para gerar postagens pró-Israel sobre a guerra de Gaza, visando pessoas no Canadá, nos Estados Unidos e em Israel. Na quarta-feira, o proprietário do Facebook, Mehta, também tornou públicos os esforços de Stoick, anunciando que ele havia excluído 510 contas do Facebook e 32 contas do Instagram usadas pelo grupo. Algumas das contas foram hackeadas, enquanto outras pertenciam a pessoas fictícias, disse a empresa aos repórteres.
Os relatos em questão frequentemente se apresentavam como estudantes universitários americanos pró-Israel, afro-americanos, etc., comentando nas páginas de indivíduos proeminentes e organizações de notícias. Mehta disse que os comentários apoiavam os militares israelenses e alertavam os canadenses que o “Islã radical” ameaçava os valores liberais de Israel.
A redação de alguns comentários foi influenciada pela IA, que usuários reais do Facebook acharam estranho e fora de contexto. Segundo a empresa, a operação não teve sucesso e atraiu apenas cerca de 2.600 seguidores legítimos.
A Meta entrou em ação depois que o Laboratório Forense Digital do Atlantic Council descobriu a rede no X.
Durante o ano passado, investigadores de desinformação sugeriram que os chatbots de IA podem ser usados para ter conversas longas e detalhadas com pessoas específicas online, tentando orientá-las numa determinada direção. As ferramentas de IA também têm o potencial de absorver grandes quantidades de dados sobre indivíduos e personalizar mensagens diretamente para eles.
A OpenAI não encontrou nenhum desses usos avançados para IA, disse Nimmo. “Isso é mais uma evolução do que uma revolução”, diz ele. “Nada disso quer dizer que algo assim pode não acontecer no futuro.”
Joseph Menn contribuiu para este relatório.

