(Reuters) – A OpenAI, de Sam Altman, disse nesta quinta-feira que frustrou cinco operações secretas de influência que tentavam usar seus modelos de inteligência artificial para “atividades enganosas” na internet.
A empresa de inteligência artificial disse que os invasores usaram seus modelos de IA para gerar comentários curtos, artigos longos em vários idiomas e nomes e biografias fabricados em contas de mídia social nos últimos três meses.
Estas campanhas, que incluíram actores ameaçadores da Rússia, China, Irão e Israel, também se concentraram em questões como a invasão da Ucrânia pela Rússia, o conflito de Gaza, as eleições indianas e a política na Europa e nos Estados Unidos.
A OpenAI disse em comunicado que a operação enganosa foi uma “tentativa de manipular a opinião pública ou influenciar resultados políticos”.
O relatório da empresa sediada em São Francisco é o mais recente a alimentar preocupações de segurança sobre o potencial uso indevido da tecnologia de geração de IA, que pode gerar de forma rápida e fácil textos, imagens e vozes semelhantes às humanas.
A OpenAI, apoiada pela Microsoft, anunciou na terça-feira que formou um comitê de segurança liderado por membros do conselho, incluindo o CEO Sam Altman, ao começar a treinar seu próximo modelo de IA.
A OpenAI disse em comunicado que as campanhas enganosas executadas pelos serviços da empresa de IA não se beneficiaram do aumento do envolvimento ou alcance do público.
A OpenAI disse que essas operações não usaram apenas materiais gerados por IA, mas também incluíram textos manuscritos e memes copiados da Internet.
Separadamente, a Meta Platforms, em seu relatório trimestral de segurança na quarta-feira, incluiu comentários elogiando a resposta de Israel à guerra de Gaza, publicados em postagens de organizações de notícias globais. Ela disse ter descoberto o uso enganoso de conteúdo que “parece ser gerado por IA” em seu relatório. Plataformas Facebook e Instagram. E legisladores americanos.
(Reportagem de Jaspreet Singh em Bengaluru; edição de Alan Barona)

