A Apple supostamente removeu pelo menos três aplicativos da App Store que afirmam poder usar inteligência artificial (IA) para gerar imagens de nudez não consensuais. 404 Mídia Disse. Esses anúncios foram descobertos no Instagram.
de acordo com 404 Mídia, a Apple tomou medidas contra esses aplicativos depois que publicações compartilharam links para esses aplicativos e seus anúncios. Isso sugere que a gigante da tecnologia não conseguiu encontrar aplicativos que violassem as políticas da App Store sem ajuda externa.
O relatório disse que encontrou cinco desses anúncios depois de navegar na biblioteca de anúncios do Meta, onde todos os anúncios da plataforma são arquivados. Dois desses anúncios eram de serviços baseados na web que oferecem esses serviços, enquanto três eram direcionados a aplicativos da Apple App Store. Alguns desses aplicativos permitem trocar rostos em imagens adultas, enquanto outros foram comercializados como aplicativos de “despir” que usam IA para remover roupas de fotos normais de pessoas.
Além disso, embora a Meta tenha removido rapidamente esses anúncios, a Apple inicialmente se recusou a comentar e disse que solicitou mais informações sobre esses anúncios. Isso foi depois que este artigo foi publicado na semana passada.
Esta não é a primeira vez que a Apple é avisada sobre aplicativos deepfake baseados em IA na App Store. Em 2021, vários desses aplicativos foram encontrados na Google Play Store e na Apple App Store, mas nenhum dos gigantes da tecnologia os removeu. Em vez disso, eles pediram a esses desenvolvedores de aplicativos que parassem de anunciar esses recursos em sites pornográficos populares.

Nos últimos meses, os aplicativos de despir se espalharam por escolas e universidades de todo o mundo. Alguns desses recursos são distribuídos como aplicativos, enquanto outros são oferecidos como serviços de assinatura.
© IE Online Media Services Pvt Ltd
Data do primeiro upload: 28 de abril de 2024, 12h18 IST

