A plataforma de IA Hugging Face anunciou que sua plataforma Spaces foi comprometida, permitindo que hackers acessem os segredos de autenticação de seus membros.
Hugging Face Spaces é um repositório de aplicativos de IA criados e enviados por usuários da comunidade, que outros membros podem então demonstrar.
“No início desta semana, nossa equipe detectou acesso não autorizado à plataforma Spaces, especificamente relacionado ao sigilo do Spaces”, alertou Hugging Face em uma postagem no blog.
“Como resultado, suspeitamos que um subconjunto secreto de Spaces pode ter sido acessado sem autorização.”
A Hugging Face disse que já revogou os tokens de autenticação incluídos nos segredos comprometidos e notificou os afetados por e-mail.
No entanto, encorajamos todos os usuários do Hugging Face Spaces a atualizar seus tokens e mudar para tokens de acesso refinados, que dão às organizações mais controle sobre quem pode acessar seus modelos de IA.
A empresa está trabalhando com especialistas externos em segurança cibernética para investigar a violação e relatar o incidente às autoridades policiais e de proteção de dados.
A plataforma de IA disse que reforçou sua segurança nos últimos dias após o incidente.
“Nos últimos dias, fizemos outras mudanças na segurança de nossa infraestrutura do Spaces, incluindo a remoção completa de tokens organizacionais (melhorando a rastreabilidade e auditabilidade), implementação de um serviço de gerenciamento de chaves (KMS) para segredos do Spaces, fortalecimento e melhorias, e mais. Fizemos melhorias significativas na capacidade do sistema de identificar e revogar proativamente tokens vazados e, de maneira mais geral, para melhorar a segurança geral, fornecendo funcionalidade de token de acesso refinada. Planejamos descontinuar completamente os tokens de leitura e gravação “clássicos” no futuro próximo. futuro. Continuaremos investigando quaisquer incidentes potencialmente relacionados. ”
❖ Abrace seu rosto
À medida que a popularidade do Hugging Face cresce, ele também se torna um alvo para invasores que procuram explorá-lo para atividades maliciosas.
Em fevereiro, a empresa de segurança cibernética JFrog descobriu aproximadamente 100 instâncias de modelos maliciosos de AI ML que foram usados para executar código malicioso nas máquinas das vítimas. Um dos modelos abriu um shell reverso, dando ao invasor acesso remoto ao dispositivo que executa o código.
Recentemente, pesquisadores de segurança da Wiz descobriram uma vulnerabilidade que permitia aos clientes fazer upload de modelos personalizados e aproveitar o escape do contêiner para acessar modelos de outros clientes entre locatários.

