No início deste mês, centenas de celebridades desceram os degraus do Metropolitan Museum of Art de Nova York para terem a chance de serem fotografadas no 2024 Met Gala, um dos maiores eventos de moda do ano. Mas entre as imagens mais divulgadas da noite estavam fotos no tapete vermelho de duas celebridades que nem estavam presentes.
A imagem desenhada é katy perry e rihanna A imagem dela diante de uma multidão de fotógrafos do lado de fora do Met Gala com um vestido floral temático foi gerada por inteligência artificial (IA). Embora sejam de qualidade questionável, após uma inspeção mais detalhada, rapidamente fica aparente que o tapete é da cor errada e o fotógrafo ao fundo parece ligeiramente distorcido, mas o texto que Perry compartilhou sobre ela, como atesta a troca, parecia legítimo o suficiente para confundir até mesmo A própria mãe de Perry. Conta do Instagram.
A conta oficial do Instagram reconheceu a existência da imagem, comentando, “True Goddess”, quase 24 horas antes de os verificadores de fatos terceirizados do Instagram sinalizarem a imagem como alterada.
Fotos falsas de estrelas pop no Met Gala podem parecer inofensivas, mas essas imagens são apenas o exemplo mais recente de como a IA pode ser usada para enganar as pessoas.
Imagens como as de Perry e Rihanna, amplamente compartilhadas no Instagram, surgem enquanto os legisladores lutam para descobrir como implementar proteções em torno da IA.
“Acolhemos com satisfação mais pesquisas sobre IA e fraude entre plataformas”, disse o porta-voz da Meta, Ryan Daniels, em resposta a perguntas sobre as imagens de Perry e Rihanna. Isso ocorre porque as pessoas raramente fazem isso”, disse o porta-voz da Meta, Ryan Daniels, ao Yahoo News. Processe imagens de IA como “fotos processadas”.
Bernhard Gademann é CEO da empresa de investimentos em tecnologia Pioneer Ventures e cofundador da Edu Smart Technologies, que visa ajudar os professores a integrar a tecnologia na sala de aula. “O desenvolvimento da IA é realmente rápido”, disse ele.
Gademan disse que prevê que a IA em breve se tornará tão avançada que mesmo as ferramentas de detecção baseadas em IA usadas para ajudar a identificar e rotular plataformas terão dificuldade para fazê-lo.
No início deste mês, a TikTok anunciou que começaria a rotular automaticamente vídeos e imagens criados com IA usando a tecnologia de marca d’água da Coalition for Content Provenance and Authenticity. Atualmente não aplicável a conteúdo somente de áudio.
A Meta anunciou em abril que começaria a rotular conteúdo gerado por IA no Facebook e Instagram a partir de maio. O anúncio vem em resposta às críticas recentes do Oversight Board, um grupo externo financiado pela Meta, que chamou as políticas de IA da empresa de “desarticuladas”. e “confuso”. O comitê consultivo foi convocado depois que Mehta se recusou a remover um vídeo de sete segundos alterado pela IA que parecia mostrar o presidente Biden tocando inapropriadamente uma jovem.
Em março, o Google introduziu uma nova ferramenta no Creator Studio do YouTube que exige que os usuários divulguem se algo foi alterado ou criado usando IA generativa. No entanto, o Google esclareceu que não exigirá que os criadores relatem “conteúdo obviamente irreal” ou “filtros de embelezamento ou outras melhorias visuais”.
X leva 17 horas para excluir fotos explícitas de AI de Taylor Swift
Em janeiro, uma foto explícita de Taylor Swift gerada por IA circulou no X, fazendo com que a frase de pesquisa “Taylor Swift AI” se tornasse tendência. A preocupação não era se as fotos eram reais ou não, mas sim a falta de leis que protegessem as vítimas da IA e a necessidade de as plataformas sociais implementarem os seus próprios padrões para sinalizar e remover a IA.
Uma postagem compartilhando uma imagem Swift compartilhada por um usuário autenticado do X permaneceu acessível por 17 horas e foi visualizada mais de 45 milhões de vezes antes de ser removida pelo X. O proprietário do X, Elon Musk, reduziu a equipe de moderação da plataforma desde que assumiu a empresa em 2022, mas ainda não permite mídias sintéticas ou nudez não consensual.
“Provavelmente não é coincidência que certos conteúdos gerados por IA sejam particularmente populares”, disse Gademan, referindo-se a imagens explícitas não consensuais geradas por IA, como a de Swift. “Antes da era da IA e dos deepfakes, havia um ditado que dizia: ‘ver para crer’. Mas na era da IA, ver é acreditar.
Swift não é a única celebridade vítima da pornografia de IA. Especialistas jurídicos e vítimas, muitos deles adolescentes, exigem que as empresas tecnológicas e os funcionários governamentais tomem medidas para enfrentar a crise crescente.
Embora vários projetos de lei tenham sido apresentados no Congresso, incluindo a Lei de Rotulagem de IA e a Lei DEFIANCE, atualmente não existe nenhuma lei federal que proíba a pornografia deepfake nos Estados Unidos.
ansiedade sobre o futuro
Com a IA tão prontamente disponível e a tecnologia avançando tão rapidamente, os rótulos são suficientes?
“Existem algumas soluções técnicas, mas [for AI]Há também dinâmicas completamente diferentes em outras áreas onde a produção é muito prejudicial às pessoas, tanto na criação quanto na distribuição”, disse Renee DiResta, pesquisadora da Universidade de Stanford, ao Yahoo News. “Ninguém sabe ainda o que vão fazer a respeito.”
Uma das preocupações de Gademan é que os legisladores reajam exageradamente e corrijam exageradamente a atual falta de diretrizes legais sobre IA. Para Gademan, os benefícios da tecnologia de IA, que ele cita como o acesso generalizado ao conhecimento, a capacidade de criar novos conteúdos de forma fácil e barata, e o seu potencial na área médica, superam em muito as desvantagens, pelo menos por enquanto.
“Esta tecnologia é gerada por humanos, mantida e gerenciada por humanos, e sua fonte subjacente são dados criados por humanos”, disse Gademan. “Acho que é muito importante entender essa diferença. [AI] Não é uma força agindo sozinha. Os seres humanos estão no comando, e é por isso que exigir responsabilidade é tão importante. ”

