Como a IA é regulamentada de forma negligente, a responsabilidade recai sobre os membros da empresa, escreveram os funcionários, apelando às empresas para rescindirem acordos de confidencialidade e darem aos funcionários protecção para levantarem preocupações anonimamente.
A mudança ocorre no momento em que a OpenAI enfrenta um êxodo de pessoal. Muitos críticos, incluindo o cofundador da OpenAI, Ilya Satskeva, e o pesquisador sênior Jan Reike, viram as saídas de alto nível como uma repreensão aos líderes da empresa, e alguns funcionários expressaram preocupações sobre a tecnologia da OpenAI. de segurança.
Daniel Cocotajiro, ex-funcionário da OpenAI, disse que deixou a startup porque a empresa ignorou os riscos da inteligência artificial.
ser pego em
Histórias condensadas para informação instantânea
“Perdemos a esperança de que eles agirão com responsabilidade, especialmente porque buscam inteligência artificial geral”, disse ele em um comunicado, referindo-se ao termo altamente contestado para computadores que rivalizam com as capacidades do cérebro humano.
“Elas e outras empresas favorecem uma abordagem de ‘agir rápido e quebrar as coisas’, que é o oposto do que é necessário com uma tecnologia tão poderosa, mas pouco compreendida.”
A porta-voz da OpenAI, Liz Bourgeois, disse que a empresa concorda que “uma discussão rigorosa é importante dada a importância desta tecnologia”. Representantes da Anthropic e do Google não responderam aos pedidos de comentários.
Os funcionários disseram que, sem supervisão do governo, os trabalhadores de IA são “um recurso raro” que pode responsabilizar as empresas. Eles dizem que são prejudicados por “extensos acordos de não divulgação” e que as proteções normais aos denunciantes se concentram em atividades ilegais e são “inadequadas” porque os riscos sobre os quais alertam ainda não estão regulamentados.
A carta apelava às empresas de IA que aderissem a quatro princípios que melhorarão a transparência e protegerão os denunciantes. Estes princípios incluem o compromisso de não celebrar ou fazer cumprir acordos que proíbam críticas de risco. Apelar ao estabelecimento de um processo anónimo para que funcionários atuais e antigos expressem preocupações. Apoie uma cultura de crítica. E promete não retaliar contra funcionários atuais e antigos que compartilharam informações confidenciais para dar o alarme “depois que outros processos falharam”.
O Washington Post informou em dezembro que executivos seniores da OpenAI levantaram preocupações sobre retaliações do CEO Sam Altman. O alerta veio antes da demissão temporária da empresa como CEO. Em uma recente entrevista em podcast, Helen Toner, ex-membro do conselho da OpenAI, disse que parte do motivo pelo qual a organização sem fins lucrativos decidiu demitir Altman como CEO no final do ano passado foi porque ele falou abertamente sobre segurança.
“Ele nos forneceu informações imprecisas sobre o pequeno número de processos formais de segurança que a empresa possui, o que significa que é difícil para o conselho saber até que ponto esses processos de segurança estão funcionando. Era basicamente impossível”, disse ela. ” Em maio.
A carta foi apoiada por alguns dos maiores nomes da IA, incluindo Joshua Bengio e Jeffrey Hinton, que são considerados os “padrinhos” da IA, e o eminente cientista da computação Stuart Russell.

