Nova Iorque
CNN
–
Um novo relatório supostamente encomendado pelo Departamento de Estado dos EUA pinta um quadro alarmante dos riscos “catastróficos” à segurança nacional representados pela inteligência artificial em rápida evolução, dizem os autores, e o governo federal alerta que o tempo está se esgotando para evitar o desastre.
As conclusões baseiam-se em mais de um ano de entrevistas com mais de 200 pessoas, incluindo executivos de empresas líderes de IA, investigadores de segurança cibernética, especialistas em armas de destruição maciça e responsáveis de segurança nacional dentro do governo.
O relatório, publicado esta semana pela Gladstone AI, afirma categoricamente que, no pior cenário, os sistemas de IA de ponta poderiam “representar uma ameaça de extinção para a humanidade”.
O Departamento de Estado dos EUA não respondeu a um pedido de comentário.
Os avisos do relatório são mais um lembrete de que, embora o potencial da IA continue a fascinar os investidores e o público, também existem riscos reais.
“A IA já é uma tecnologia economicamente transformadora, que nos permite tratar doenças, fazer descobertas científicas e superar desafios antes considerados intransponíveis. “Talvez”, disse Jeremy Harris, CEO e cofundador da Gladstone AI, à CNN na terça-feira.
“Mas também pode representar riscos graves, incluindo riscos catastróficos, e precisamos de estar conscientes disso”, disse Harris. “E um conjunto crescente de evidências, incluindo estudos e análises empíricas apresentadas nas principais conferências de IA do mundo, sugere que, além de um certo limite de capacidade, a IA pode sair do controle.”
O secretário de imprensa da Casa Branca, Robin Patterson, disse que a ordem executiva do presidente Joe Biden sobre IA é “a ação mais significativa tomada por governos em todo o mundo para ganhar promessas e gerenciar os riscos da inteligência artificial”.
“O Presidente e o Vice-Presidente continuarão a trabalhar com os nossos parceiros internacionais para instar o Congresso a aprovar legislação bipartidária para gerir os riscos associados a estas tecnologias emergentes”, disse Patterson.
“Necessidade clara e urgente” de intervenção
Os pesquisadores alertam principalmente sobre dois grandes perigos representados pela IA.
Primeiro, os sistemas de IA mais avançados podem ser transformados em armas para causar danos potencialmente irreparáveis, disse Gladstone AI. Em segundo lugar, o relatório citou preocupações privadas dentro do Instituto de IA de que em algum momento eles iriam “perder o controle” dos próprios sistemas que estão sendo desenvolvidos, com “implicações potencialmente catastróficas para a segurança global”.
“A ascensão da IA e AGI” [artificial general intelligence] “Tem o potencial de desestabilizar a segurança global de uma forma que lembra a introdução de armas nucleares”, afirma o relatório, aumentando o risco de uma “corrida armamentista”, conflito e “mortes na escala das armas de destruição em massa” para a IA. Ele acrescentou que existe.
O relatório da Gladstone AI apela a novas medidas drásticas para enfrentar esta ameaça, incluindo a criação de uma nova agência de IA, ações regulatórias “urgentes” e limites ao poder do computador que pode ser usado para treinar modelos de IA.
“Há uma necessidade clara e urgente de intervenção do governo dos EUA”, escreveram os autores no relatório.
O relatório observa que, embora o trabalho tenha sido preparado para o Departamento de Estado, as suas opiniões “não refletem amplamente as opiniões” do Departamento de Estado ou do governo dos EUA.
De acordo com um aviso governamental emitido em 2022 pelo Gabinete de Fundos de Não Proliferação e Desarmamento do Departamento de Estado, o governo ofereceu-se para pagar até 250.000 dólares para avaliar os “riscos de proliferação e segurança” associados à IA avançada.
Harris, executivo da Gladstone AI, disse que o “nível de acesso sem precedentes” de sua equipe aos funcionários dos setores público e privado levou ao ponto de partida. Gladstone AI disse que conversou com as equipes técnicas e de liderança do proprietário do ChatGPT, OpenAI, Google DeepMind, empresa-mãe do Facebook, Meta, e Anthropic.
“Ao longo do caminho, aprendemos alguns fatos concretos”, disse Harris em um vídeo postado no site da Gladstone AI anunciando o relatório. “Nos bastidores, o cenário de segurança e proteção para a IA avançada parece ser bastante inadequado em comparação com os riscos à segurança nacional que a IA poderá introduzir em breve.”
O relatório da Gladstone AI afirma que as pressões competitivas estão a fazer com que as empresas acelerem o desenvolvimento da IA ”às custas da segurança e da protecção” e que os sistemas de IA de ponta foram “roubados” e “armados” contra os Estados Unidos. aumentando que existe a possibilidade de
Esta conclusão junta-se a uma lista crescente de avisos sobre os riscos existenciais colocados pela IA, mesmo por parte de algumas das figuras mais poderosas da indústria.
Há quase um ano, Jeffrey Hinton, conhecido como o “Padrinho da IA”, deixou seu emprego no Google para denunciar a tecnologia que ajudou a desenvolver. Hinton disse que há 10% de chance de que a IA leve à extinção humana nos próximos 30 anos.
Em junho passado, Hinton e dezenas de outros líderes e acadêmicos da indústria de IA assinaram uma declaração afirmando que “reduzir o risco de extinção da IA deveria ser uma prioridade global”.
Os líderes empresariais estão cada vez mais preocupados com estes riscos, mesmo quando investem milhares de milhões em IA. 42% dos CEOs entrevistados no CEO Summit da Universidade de Yale do ano passado disseram que a IA poderia acabar com a humanidade em cinco a 10 anos.
No seu relatório, a Gladstone AI citou várias pessoas proeminentes que alertaram sobre os riscos existenciais representados pela IA, incluindo o presidente da Comissão Federal de Comércio, Elon Musk. Lina Khan e ex-CEO da OpenAI.
Gladstone AI diz que alguns funcionários da empresa de IA compartilham preocupações semelhantes em particular.
“Um funcionário de um prestigiado instituto de IA expressou a opinião de que seria ‘uma coisa muito ruim’ se certos modelos de IA da próxima geração fossem lançados como acesso aberto”, disse o relatório. Se esta capacidade fosse utilizada em áreas como a interferência eleitoral e a manipulação de votos, poderia “subverter a democracia”. ”
Gladstone pediu aos especialistas em IA do Frontier Institute que compartilhassem em particular suas estimativas pessoais sobre a probabilidade de um incidente de IA causar um “impacto global e irreversível” em 2024. disse. As estimativas variaram de 4% a até 20%, disse o jornal. O relatório diz que as estimativas não são oficiais e provavelmente contêm distorções significativas.
Um dos maiores imprevistos é a rapidez com que a IA está evoluindo. Especificamente, AGI é uma forma hipotética de IA com capacidades de aprendizagem semelhantes às humanas ou mesmo sobre-humanas.
O relatório afirma que a AGI é considerada um “principal impulsionador do risco catastrófico de perda de controle” e que OpenAI, Google DeepMind, Anthropic e Nvidia poderiam alcançar a AGI até 2028. declarou publicamente, mas aponta que outros pensam que é muito mais longe. .
Gladstone AI diz que divergências sobre os cronogramas da AGI dificultarão o desenvolvimento de políticas e salvaguardas, e há o risco de que as regulamentações “se mostrem prejudiciais” se a tecnologia se desenvolver mais lentamente do que o esperado, aponta.