Tal como acontece com os acidentes com aeronaves, devem existir mecanismos de notificação para incidentes em que a inteligência artificial (IA) funcione mal. OpenAI disseram os membros do conselho na terça-feira (16 de abril).
Helen TonerDiretor da Universidade de Georgetown Centro de Segurança e Tecnologia Mais Recentedisse em uma palestra na conferência TED, Bloomberg relatório Terça-feira.
Toner renunciou à OpenAI no ano passado após apoiar a demissão do CEO Sam Altman, que mais tarde foi retirada. Antes desse evento, Altman tentou removê-la do conselho da OpenAI depois que ela foi coautora de um artigo criticando as práticas de segurança da OpenAI, disse o relatório.
Em sua palestra no TED na terça-feira, Toner disse que as empresas de IA “compartilham informações sobre o que estão construindo, o que seus sistemas podem fazer e como gerenciam os riscos”, segundo o relatório, disse que é necessário fazê-lo.
Segundo o relatório, Toner também disse que as informações compartilhadas com o público deveriam ser auditadas para que as empresas de IA não sejam as únicas a verificar as informações que fornecem.
Um exemplo de onde esta tecnologia pode ser problemática envolve a sua utilização em ataques cibernéticos baseados em IA, afirma o relatório.
Toner disse que trabalha em questões de política e governança em torno da IA há oito anos, o que lhe dá uma visão interna de como o governo e a indústria abordaram o gerenciamento da tecnologia. ” De acordo com o relatório.
Em uma entrevista de junho de 2023 à CNBC, Toner disse que há dúvidas entre os participantes da indústria sobre a introdução de novos serviços. Autoridade reguladora Especialmente focado em IA.
“Deveríamos resolver isso trabalhando com os reguladores existentes responsáveis por áreas específicas, ou deveríamos gerenciar centralmente todos os tipos de IA?”, disse Toner à CNBC.
Num outro desenvolvimento recente neste domínio, os Estados Unidos e o Reino Unido colaboraram no desenvolvimento no início de Abril. Teste de segurança Rumo à IA avançada.
O acordo visa alinhar as abordagens científicas dos dois países e acelerar o desenvolvimento de métodos robustos de avaliação para modelos, sistemas e agentes de IA.

