O mau comportamento das ferramentas de IA, como o Bing AI da Microsoft, sem saber em que ano estamos, tornou-se um subgênero dos relatórios de IA. Mas em muitos casos, construir um modelo de IA subjacente que analise os dados recebidos e preveja qual seria uma resposta aceitável, como o gerador de imagens Gemini do Google, que usa configurações de filtro para desenhar uma variedade de nazistas, é difícil dizer a diferença entre um bug. e um bug.
Agora, a OpenAI lançou o primeiro rascunho de uma estrutura proposta, chamada Model Spec, que moldará como as ferramentas de IA, como seus próprios modelos GPT-4, responderão no futuro. A abordagem da OpenAI propõe três princípios gerais. Os modelos de IA devem ajudar os desenvolvedores e usuários finais com respostas úteis que sigam as instruções, beneficiem a humanidade ao considerar possíveis benefícios e danos e reflitam bem sobre a OpenAI no que diz respeito às normas e leis sociais.
Também inclui algumas regras:
A OpenAI diz que a ideia também permite que empresas e usuários “alternem” o quão “picantes” seus modelos de IA se tornam. Um exemplo que a empresa aponta é o conteúdo NSFW, e a empresa diz que está “considerando se podemos fornecer de forma responsável a capacidade de gerar conteúdo NSFW em um contexto adequado à idade por meio de nossa API e ChatGPT”.
Joanne Jang, gerente de produto da OpenAI, explicou que a ideia era obter a opinião do público para apoiar diretamente como os modelos de IA deveriam funcionar, e que a estrutura era. Diz que ajudará a traçar uma linha clara entre coisas e bugs. Os comportamentos padrão que a OpenAI sugere para este modelo incluem assumir as melhores intenções do usuário ou desenvolvedor, fazer perguntas claras, não ir longe demais, ser objetivo, desencorajar o ódio e há coisas como não tentar mudar de ideia. Expressar incerteza.
“Acreditamos que isso pode fornecer um alicerce para que as pessoas tenham conversas mais sutis sobre modelos e façam perguntas como os modelos devem obedecer à lei e a quais leis devem obedecer”, diz Chan. A beira. “Espero que possamos separar o debate sobre se algo é um bug ou se a resposta é um princípio com o qual as pessoas não concordam. Depois poderemos conversar sobre o que levar à equipe política.
A especificação do modelo não afeta imediatamente os modelos atualmente lançados da OpenAI, como GPT-4 e DALL-E 3, que continuam a operar sob as políticas de uso existentes.
Jang chama o comportamento do modelo de “ciência primitiva” e diz que o Model Spec pretende ser um documento vivo que pode ser atualizado com frequência. Por enquanto, a OpenAI está aguardando feedback do público e de várias partes interessadas que usam seus modelos, incluindo “decisores políticos, instituições confiáveis e especialistas de domínio”, mas Jang disse que não disse quando o segundo rascunho do modelo seria lançado.especificação
A OpenAI não disse quanto feedback do público provavelmente será adotado ou quem decidirá o que precisa mudar. Em última análise, a empresa tem a palavra final sobre o funcionamento do modelo, afirmando no post: ”

