Se a inteligência artificial se tornou uma tecnologia de ponta, vários novos recursos de segurança no Azure da Microsoft pretendem controlá-la. A Microsoft compartilhou um conjunto de ferramentas diz que isso acontecerá na quinta-feira Ajude os clientes com modelos de IA Evite alucinações – ou Chatbots tendem a inventar coisas. Estas capacidades estão localizadas no Azure AI, um serviço baseado em nuvem que fornece suporte e tecnologia a desenvolvedores e organizações.
Um desses recursos é conhecido como: Detecção de aterramento. Projetado para identificar alucinações baseadas em texto.
A Microsoft afirma que o novo recurso ajudará a melhorar a qualidade, identificando e sinalizando “conteúdo infundado” nas respostas do chatbot, ou seja, conteúdo que não parece ser baseado em fatos ou no bom senso.
consulte Mais informação: Maior falha dos chatbots de IA (até agora)
A Microsoft lançou seu próprio chatbot Copilot em fevereiro de 2023. extensa parceria Com OpenAI, Serviço OpenAI do AzureIsto dá aos desenvolvedores acesso direto aos modelos OpenAI suportados pelo Azure para construir as suas próprias aplicações de IA. IA do Azure Os clientes incluem: Empresa de consultoria KPMG, gigante das telecomunicações AT&T e Reddit.
Outras ferramentas lançadas quinta-feira incluem: escudo imediatobloqueia ataques a modelos generativos de IA, como injeções de alertas e avisos maliciosos de documentos externos que afastam o modelo das proteções de treinamento e segurança.
“Sabemos que nem todos os nossos clientes têm profundo conhecimento em ataques de injeção imediata ou conteúdo de ódio, por isso nosso sistema de classificação fornece os avisos necessários para simular esses tipos de ataques”, disse Sarah Bird, diretora de produtos de IA responsável da Microsoft. A beira. , acrescentou que os clientes podem ver pontuações e resultados com base no desempenho do modelo nessas simulações.
A Microsoft afirma que o Azure AI também apresentará em breve dois outros recursos de monitoramento e segurança.
Esses tipos de problemas, embora aparentemente benignos, podem causar problemas (e muito problemático) Gafes por parte de geradores de texto e imagens alimentados por IA. Em fevereiro, Gemini AI do Google Imagens historicamente imprecisas Como nazistas racialmente diversos. OpenAI ChatGPT recente completamente insano No mês passado, os usuários ficaram coçando a cabeça com bobagens e alucinações.

