A OpenAI fará parceria com o Laboratório Nacional de Los Alamos para explorar como a inteligência artificial pode ser usada para combater ameaças biológicas que não especialistas podem criar usando ferramentas de IA, de acordo com um anúncio feito por ambas as organizações na quarta-feira. O Laboratório de Los Alamos, que foi estabelecido pela primeira vez no Novo México para desenvolver a bomba atómica durante a Segunda Guerra Mundial, chama este esforço de “o primeiro do género” em biossegurança de IA e como esta pode ser usada em ambientes laboratoriais. O primeiro de sua espécie.
As diferenças entre as duas declarações divulgadas quarta-feira pela OpenAI e pelo Instituto Los Alamos são bastante marcantes. A declaração da OpenAI tenta retratar a parceria simplesmente como uma pesquisa sobre como “a IA pode ser usada com segurança por cientistas em laboratórios para avançar na pesquisa em biociências”. Ainda assim, o Instituto Los Alamos dá mais ênfase ao facto de pesquisas anteriores “descobrirem que o ChatGPT-4 melhorou modestamente o fornecimento de informações que poderiam levar à criação de ameaças biológicas”.
Grande parte da discussão pública sobre a ameaça representada pela IA centra-se na criação de seres autoconscientes, talvez desenvolvendo mentes próprias e potencialmente prejudicando a humanidade de alguma forma. Temo que a realização da AGI (inteligência geral avançada que pode realizar raciocínio e lógica avançados, em vez da inteligência artificial agindo como um sofisticado gerador de palavras de preenchimento automático) leve a uma situação semelhante à da Skynet. E embora muitos defensores da IA, como Elon Musk e o CEO da OpenAI, Sam Altman, se inclinem para essa caracterização, a ameaça mais urgente a ser enfrentada é que as pessoas estão usando o ChatGPT para criar armas biológicas.
“Embora as ameaças biológicas possibilitadas pela IA possam representar riscos significativos, a investigação existente explora como os modelos de fronteira multimodais criam barreiras à entrada para não especialistas criarem ameaças biológicas”. Instituto Los Alamos disse em um comunicado. Local na rede Internet.
A diferença no posicionamento das mensagens das duas organizações deixa-as desconfortáveis com o facto de a OpenAI não reconhecer as implicações para a segurança nacional de enfatizar que os seus produtos podem ser utilizados por terroristas. Mais especificamente, a declaração de Los Alamos usa o termo “ameaça” cinco vezes, enquanto a da OpenAI o usa apenas uma vez.
“Os benefícios potenciais do crescimento das capacidades de IA são infinitos”, disse Eric LeBlanc, cientista pesquisador de Los Alamos, em comunicado na quarta-feira. “No entanto, medir e compreender os perigos e abusos potenciais da IA avançada em relação às ameaças biológicas permanece em grande parte inexplorado. Este trabalho com a OpenAI ajudará a moldar os modelos atuais e futuros. desenvolvimento e implantação de tecnologias de IA.”
Los Alamos enviou ao Gizmodo uma declaração geralmente otimista sobre o futuro da tecnologia, apesar dos riscos potenciais.
A tecnologia de IA é estimulante porque é um poderoso impulsionador da descoberta e do avanço na ciência e na tecnologia. Embora isso traga principalmente benefícios positivos para a sociedade, o mesmo modelo nas mãos de maus atores também poderia usá-lo para sintetizar informações que poderiam levar a um possível “guia prático” para ameaças biológicas. É importante considerar que a IA em si não é uma ameaça, mas sim as formas como ela é mal utilizada.
Avaliações anteriores concentraram-se principalmente em compreender se tais tecnologias de IA podem fornecer “guias práticos” precisos. No entanto, só porque um agente mal-intencionado pode ter acesso a um guia preciso para fazer algo malicioso, isso não significa que ele possa fazê-lo. Por exemplo, você pode saber que precisa manter a esterilidade ao cultivar células ou usar espectrometria de massa, mas se não tiver experiência nisso, pode ser muito difícil não conseguir.
Diminuindo o zoom, estamos tentando entender de forma mais ampla onde e como essas tecnologias de IA agregam valor aos nossos fluxos de trabalho. O acesso à informação (como a geração de protocolos precisos) é uma área onde isso é possível, mas como podem estas tecnologias de IA executar com sucesso protocolos no laboratório (ou outras atividades do mundo real, como chutar uma bola de futebol). é para aprender. (jogando bola ou desenhando). Nossa avaliação inicial da tecnologia piloto se concentrará na compreensão de como a IA pode ajudar os indivíduos a aprender como executar protocolos no mundo real. Isto permitir-nos-á compreender melhor não só como a IA pode ajudar a capacitar a ciência, mas também o que os intervenientes maliciosos podem fazer. Atos hediondos no laboratório.
Os esforços do Instituto Los Alamos estão sendo coordenados pelo Grupo de Avaliação de Tecnologia de Risco de IA.
Correção: uma versão anterior deste post citava originalmente a declaração de Los Alamos como proveniente da OpenAI. O Gizmodo lamenta esse erro.

