Mantenha-se informado com atualizações gratuitas
Basta se inscrever inteligência artificial myFT Digest – entregue diretamente na sua caixa de entrada.
Os governos do Reino Unido e da Coreia do Sul anunciaram que as principais empresas de inteligência artificial assinaram um novo compromisso voluntário sobre a segurança da IA.
Os gigantes da tecnologia Amazon, Google, Meta e Microsoft, bem como empresas como OpenAI de Sam Altman, xAI de Elon Musk e o desenvolvedor chinês Zhipu AI, estão considerando como lidar com os riscos de seus modelos de IA de “fronteira” que planejamos publicar. uma estrutura que descreve como medir isso.
Antes da Cimeira Mundial da IA, em Seul, na terça-feira, os dois governos anunciaram que se comprometeram a “não desenvolver ou implementar quaisquer modelos”, a menos que riscos graves pudessem ser mitigados.
O anúncio baseia-se na chamada Declaração de Bletchley, feita na primeira Cimeira de Segurança da IA organizada pelo primeiro-ministro britânico Rishi Sunak em novembro.
“Esses esforços garantirão que as principais empresas de IA do mundo forneçam transparência e responsabilidade em relação aos seus planos para desenvolver IA segura”, disse Sunak em comunicado. “Isso estabelecerá um precedente para um padrão global de segurança de IA que maximize os benefícios desta tecnologia inovadora.”
Um documento que descreve o acordo diz que as empresas de IA “avaliarão os riscos representados pelos seus modelos e sistemas de fronteira”. . . Isto inclui antes da implantação desse modelo ou sistema e, opcionalmente, antes e durante o treinamento. ”
As empresas também definirão “limiares nos quais os riscos significativos apresentados por um modelo ou sistema são considerados intoleráveis, a menos que sejam adequadamente mitigados” e como tais medidas de mitigação serão implementadas.
“O campo da segurança da IA está evoluindo rapidamente e estamos particularmente satisfeitos em apoiar os esforços focados no refinamento de abordagens em paralelo com a ciência”, disse Anna Makanju, vice-presidente global da OpenAI.
“Continuamos empenhados em trabalhar com outras instituições de investigação, empresas e governos para garantir que a IA seja segura e beneficie toda a humanidade.”
O anúncio de terça-feira ocorre depois que Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft e OpenAI chegaram à Casa Branca em julho passado para “apoiar a transição para o desenvolvimento de tecnologia de IA segura e transparente”. 'feita pelo governo.
No entanto, ainda não está claro como as empresas serão responsabilizadas caso não cumpram as suas promessas.
No comunicado de terça-feira, as 16 empresas concordaram em “fornecer transparência pública” relativamente à implementação dos seus compromissos, “a menos que isso aumente o risco ou divulgue informações comerciais sensíveis desproporcionais ao interesse público”, afirmou.
Falando em Seul na noite de terça-feira, antes de uma cimeira virtual, a secretária de Ciência britânica, Michelle Donnellan, disse ao Financial Times que o acordo voluntário alcançado em Bletchley estava a funcionar.
“Portanto, acreditamos que estes acordos continuarão a trazer benefícios mais uma vez”, disse Donnellan.
“Mas não se trata apenas do que mais empresas podem fazer, trata-se também do que mais países podem fazer”, acrescentou. Donnellan confirmou que um representante do governo chinês participará na reunião, que terá lugar no segundo dia da cimeira, na quarta-feira.
Dan Hendricks, consultor de segurança da xAI, disse que a iniciativa voluntária ajudaria a “estabelecer as bases para regulamentações nacionais concretas”.
Mas Donnellan reiterou a posição do Reino Unido de que é demasiado cedo para considerar legislação para reforçar a segurança da IA.
“Precisamos entender melhor os riscos”, disse ela, acrescentando que o governo do Reino Unido fornecerá até £ 8,5 milhões em subsídios para pesquisar riscos relacionados à IA, como deepfakes e ataques cibernéticos.
Ele acrescentou que se o governo do Reino Unido tivesse começado a legislar sobre a questão no ano passado, “no momento em que o projeto de lei foi publicado, provavelmente já estaria desatualizado”.
