Os EUA e o Reino Unido concordaram em trabalhar juntos para monitorizar os riscos de segurança em modelos avançados de IA. Os dois países colaborarão na investigação e conduzirão pelo menos um ensaio conjunto de segurança.
Ambos os países afirmaram que a segurança é uma das principais preocupações quando se trata do uso de modelos de IA. A ordem executiva do presidente dos EUA, Joe Biden, sobre IA exige que as empresas que desenvolvem sistemas de IA relatem os resultados dos testes de segurança. Enquanto isso, o chanceler do Reino Unido, Rishi Sunak, anunciou a formação do British AI Safety Institute e disse que empresas como Google, Meta e OpenAI deveriam permitir que suas ferramentas fossem examinadas.
Acordo entre associações de segurança de IA de ambos os países entra em vigor imediatamente
A secretária de Comércio dos EUA, Gina Raimondo, disse que o governo está “comprometido em construir parcerias semelhantes com outros países para promover a segurança da IA em todo o mundo”.
“Esta parceria irá acelerar os esforços de ambos os institutos para enfrentar todos os riscos para a segurança nacional e para a sociedade em geral”, disse Raimondo num comunicado.
Através deste acordo, os dois países comprometem-se a cooperar na investigação tecnológica, explorar intercâmbios interpessoais e partilhar informações.
Um parceiro potencial para os EUA e o Reino Unido é a União Europeia, que aprovou os seus próprios regulamentos abrangentes sobre a utilização de sistemas de IA. A lei da UE sobre IA só entrará em vigor dentro de vários anos, mas as empresas que executam modelos poderosos de IA serão obrigadas a seguir padrões de segurança.
A Associação de Segurança de IA do Reino Unido foi criada pouco antes da Cúpula Mundial de IA, em novembro. Lá, vários líderes mundiais, incluindo a vice-presidente dos EUA, Kamala Harris, discutiram como aproveitar e, em alguns casos, regular a tecnologia através das fronteiras.
A Grã-Bretanha iniciou testes de segurança de alguns modelos, mas não está claro se terá acesso às versões lançadas recentemente. Várias empresas de IA estão pedindo maior clareza por parte do Instituto de Segurança de IA do Reino Unido sobre os prazos e as próximas etapas caso um modelo seja considerado inseguro.

