Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » Especialistas descobrem falhas no serviço Replicate AI que expõe modelos e dados de clientes
Ai

Especialistas descobrem falhas no serviço Replicate AI que expõe modelos e dados de clientes

FranciscoBy FranciscoMay 25, 2024No Comments3 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


25 de maio de 2024sala de notíciasAprendizado de máquina/violação de dados

Replicação de serviço de IA

Pesquisadores de segurança cibernética descobriram uma falha crítica de segurança no provedor de inteligência artificial (IA) Replicate as a service. Essa falha poderia ter permitido que um invasor acessasse modelos proprietários de IA e informações confidenciais.

“Essa vulnerabilidade, se explorada, poderia ter permitido acesso não autorizado a prompts e resultados de IA para todos os clientes da plataforma Replicate”, disse a empresa de segurança em nuvem Wiz em um relatório divulgado esta semana.

O problema é que os modelos de IA são normalmente empacotados em um formato que permite a execução de código arbitrário, e os invasores podem usar modelos maliciosos para transformá-los em armas para realizar ataques entre locatários.

cíber segurança

O Replicate aproveita uma ferramenta de código aberto chamada Cog para conteinerizar e empacotar seus modelos de aprendizado de máquina e implantá-los em um ambiente auto-hospedado ou no Replicate.

De acordo com Wiz, eles criaram um contêiner Cog desonesto, carregaram-no no Replicate e, por fim, usaram-no para permitir a execução remota de código com privilégios elevados na infraestrutura do serviço.

Os pesquisadores de segurança Shir Tamari e Sagi Tzadik disseram: “Suspeitamos que essa técnica de execução de código seja um padrão no qual empresas e organizações executam modelos de IA a partir de fontes não confiáveis, mesmo que esses modelos sejam potencialmente maliciosos. .”

O método de ataque desenvolvido pela empresa aproveitou conexões TCP já estabelecidas associadas a instâncias de servidor Redis em clusters Kubernetes hospedados no Google Cloud Platform para injetar comandos arbitrários.

Além disso, como um servidor Redis gerenciado centralmente é usado como uma fila para gerenciar diversas solicitações de clientes e suas respostas, tarefas não autorizadas podem interferir no processo e afetar os resultados de outras tarefas. A inserção pode ser explorada para facilitar ataques entre locatários. modelo de cliente.

Estas operações não autorizadas não só ameaçam a integridade do modelo de IA, mas também representam um risco significativo para a precisão e fiabilidade dos resultados orientados pela IA.

“Um invasor pode consultar o modelo privado de IA de um cliente e vazar conhecimento proprietário ou dados confidenciais relacionados ao processo de treinamento do modelo”, disseram os pesquisadores. “Além disso, a interceptação de prompts pode expor dados confidenciais, incluindo informações de identificação pessoal (PII).

cíber segurança

Este próximo problema foi divulgado de forma responsável em janeiro de 2024 e desde então foi abordado pela Replicate. Não há evidências de que esta vulnerabilidade tenha sido explorada para comprometer os dados dos clientes.

Esta divulgação ocorre pouco mais de um mês depois que Wiz detalhou os riscos que agora estão sendo corrigidos em plataformas como Hugging Face. Este risco pode permitir que um invasor aumente privilégios, obtenha acesso entre locatários aos modelos de outros clientes e até mesmo assuma a integração contínua ou a implantação contínua. pipeline (CI/CD).

“Os modelos maliciosos representam um risco significativo para os sistemas de IA, especialmente para os fornecedores de IA como serviço, uma vez que os atacantes podem aproveitar estes modelos para realizar ataques entre inquilinos”, concluíram os investigadores.

“O impacto potencial é devastador, pois um invasor pode obter acesso a milhões de modelos e aplicativos privados de IA armazenados em provedores de IA como serviço.”

Você achou este artigo interessante? Twitter ○ Você pode ler mais conteúdo exclusivo nosso no LinkedIn.





Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.