Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » NIST lança ferramenta para testar riscos em modelos de IA
Ai

NIST lança ferramenta para testar riscos em modelos de IA

FranciscoBy FranciscoJuly 27, 2024No Comments4 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


O Instituto Nacional de Padrões e Tecnologia (NIST), uma agência do Departamento de Comércio dos EUA que desenvolve e testa tecnologia para o governo, as empresas e o público em geral dos EUA, está investigando até que ponto os ataques maliciosos, especialmente “ataques de veneno, “Relançámos uma plataforma de testes concebida para medir a ” ” Dados de treinamento para modelos de IA – podem degradar o desempenho dos sistemas de IA.

Lançada pela primeira vez em 2022, a ferramenta modular, de código aberto e baseada na web chamada Dioptra (em homenagem a um instrumento clássico de pesquisa astronômica) ajuda as empresas a treinar modelos de IA e as pessoas que usam esses modelos. Riscos de IA. O NIST afirma que o Dioptra pode ser usado para benchmarking e pesquisa de modelos, além de fornecer uma plataforma comum para expor modelos a ameaças simuladas em um ambiente de “equipe vermelha”.

“Testar o impacto de ataques adversários em modelos de aprendizado de máquina é um dos objetivos da Dioptra”, disse o NIST em comunicado à imprensa. “Software de código aberto como o Generator, que está disponível para download gratuito, pode ajudar comunidades, incluindo agências governamentais e pequenas empresas, a realizar avaliações para avaliar as afirmações dos desenvolvedores de IA sobre o desempenho do sistema.”

Dioptra do NIST
Captura de tela da interface do Diatropa.
Créditos da imagem: NIST

Dioptra estreia com um documento do NIST e do recentemente criado AI Safety Institute do NIST que explica como mitigar alguns dos riscos da IA, incluindo como ela pode ser explorada para produzir pornografia não consensual. Isso segue o lançamento do Inspect da UK AI Safety Association, um conjunto de ferramentas que visa avaliar a funcionalidade e a segurança geral do modelo. Os EUA e o Reino Unido têm uma parceria contínua para co-desenvolver testes avançados de modelos de IA. O anúncio foi feito no UK AI Safety Summit, realizado em Bletchley Park em novembro do ano passado.

Dioptra também é um produto da Ordem Executiva (EO) sobre IA do presidente Joe Biden, que exige (entre outras coisas) suporte para testes de sistemas de IA pelo NIST. Neste contexto, o EO também estabeleceu padrões para a segurança e proteção da IA. Isso inclui a exigência de que as empresas que desenvolvem modelos (como a Apple) notifiquem o governo federal e compartilhem os resultados de quaisquer testes de segurança antes de implantar o modelo ao público.

Como escrevi antes, o benchmarking de IA é difícil. Especialmente porque os modelos de IA mais sofisticados de hoje são caixas negras, com a sua infraestrutura, dados de formação e outros detalhes importantes mantidos em segredo pelas empresas que os criam. Um relatório divulgado este mês pelo Ada Lovelace Institute, um instituto de pesquisa sem fins lucrativos com sede no Reino Unido que estuda IA, descobriu que a avaliação por si só não é suficiente para determinar o quão seguro um modelo de IA é realmente seguro. Uma razão para isso é que as políticas atuais permitem que os fornecedores de IA: Selecione seletivamente as avaliações que deseja realizar.

O NIST não afirma que o Dioptra possa eliminar completamente o risco do modelo. Mas a agência fazer Dioptra propõe que possa revelar os tipos de ataques que podem degradar o desempenho de um sistema de IA e quantificar o impacto no desempenho.

No entanto, uma limitação importante é que o Dioptra só pode ser usado imediatamente com modelos que podem ser baixados e usados ​​​​localmente, como a família Llama em expansão da Meta. Modelos fechados por trás de APIs, como o GPT-4o da OpenAI, não estão disponíveis, pelo menos por enquanto.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.