A expansão ocorre depois que o conselho de supervisão da Meta mudou as políticas existentes da empresa em fevereiro, depois que um vídeo adulterado do presidente Biden permaneceu no Facebook por não violar as regras da Meta. Isso segue as críticas de que era “incoerente”. O Comité de Supervisão, um grupo externo financiado pela Meta, apelou à empresa para expandir as suas políticas para abordar casos em que tanto o áudio como o vídeo tenham sido alterados de forma enganosa. Descreva pessoas fazendo algo.
“Concordamos com a afirmação do Conselho de Supervisão de que a abordagem existente é muito restrita”, disse Monica Bickert, vice-presidente de política de conteúdo da Meta, em comunicado.
“Nossa Política de Mídia Manipulada foi escrita em 2020, quando o conteúdo real gerado por IA era raro e nossa principal preocupação era com o vídeo.”
Seguindo a recomendação do comitê de supervisão, a Meta também concordou em não remover mídias criadas digitalmente, a menos que viole outras regras, mas receberá um rótulo para indicar que o conteúdo foi modificado. A partir do próximo mês, a empresa começará a aplicar o rótulo “Feito com IA” às pessoas que divulgarem que estão enviando conteúdo que determina ser IA ou gerado por IA.
Em fevereiro, a Meta anunciou planos para desenvolver um sistema para identificar conteúdo gerado por IA criado por usuários que utilizam os serviços de outras empresas de tecnologia que concordaram em incorporar identificadores e marcas d'água de IA.
A expansão da política de IA da Meta é provavelmente um desenvolvimento bem-vindo para grupos da sociedade civil e especialistas que alertaram que a desinformação gerada pela IA já está a ser espalhada online num ano eleitoral crucial. No entanto, os especialistas também alertam que esta estratégia de rotulagem pode não ser capaz de detectar todos os conteúdos enganosos gerados pela IA. Embora algumas empresas, incluindo a Meta, tenham concordado em garantir que marcas d’água sejam adicionadas ao conteúdo gerado por IA, outras não o fizeram.

