Você não pode colocar a IA de volta na caixa de Pandora. No entanto, a maior empresa de IA do mundo anunciou voluntariamente uma nova iniciativa para abordar algumas das maiores preocupações em torno da tecnologia e dissipar as preocupações de que o desenvolvimento descontrolado da IA possa levar a cenários de ficção científica em que a IA trabalha contra os seus próprios interesses. o governo. Criadores. Mas sem disposições legais rigorosas para reforçar os esforços dos governos em matéria de IA, o debate só irá até certo ponto.
Esta manhã, 16 empresas influentes de IA, incluindo Anthropic, Microsoft e OpenAI, 10 países e a União Europeia realizaram uma cimeira em Seul para desenvolver diretrizes para o desenvolvimento responsável de IA. Um dos grandes resultados da cimeira de ontem foi que as empresas de IA presentes concordaram com o chamado kill switch, uma política que interrompe o desenvolvimento de modelos de IA de ponta se for considerado que ultrapassaram um determinado limite de risco. No entanto, não está claro até que ponto esta política será eficaz na prática, dada a incapacidade de atribuir peso jurídico real ao acordo ou de definir limites de risco específicos. Outras empresas de IA não presentes ou concorrentes das empresas que concordaram mentalmente com os termos não estarão sujeitas ao compromisso.
“Em um extremo, as organizações poderiam se comprometer a não desenvolver ou implantar modelos ou sistemas se as mitigações não puderem ser aplicadas para manter o risco abaixo de um limite”, diz Amazon, Google, Samsung e outros, afirma o documento de política da empresa de IA. . Eu assinei. A cúpula segue a Cúpula de Segurança de IA de Bletchley Park, realizada em outubro do ano passado, que reuniu desenvolvedores de IA semelhantes e argumentou que há uma falta de esforços viáveis de curto prazo para proteger a humanidade da proliferação. .'' IA
Após a última cimeira, um grupo de participantes escreveu uma carta aberta criticando a falta de regulamentação formal do fórum e o papel descomunal das empresas de IA na condução da regulamentação das suas próprias indústrias. “A experiência tem demonstrado que a melhor forma de abordar estes danos é através de mandatos regulamentares aplicáveis, em vez de através da auto-regulação ou de acção voluntária”, dizia a carta.
Escritores e investigadores têm alertado sobre os riscos da poderosa inteligência artificial há décadas, primeiro na ficção científica e agora no mundo real. Uma das referências mais conhecidas é “Exterminador do Futuro 'Cenário' é a teoria de que, se não for controlada, a IA poderá tornar-se mais poderosa do que os seus criadores humanos e potencialmente atacar os humanos. O nome da teoria vem do filme de Arnold Schwarzenegger de 1984. O filme apresenta uma mulher cujo ciborgue viaja de volta no tempo para matar seu filho ainda não nascido, que acaba lutando contra um sistema de IA que planeja causar um holocausto nuclear.
“A IA oferece enormes oportunidades para transformar a economia e resolver os nossos maiores desafios, mas só poderemos maximizar este potencial se compreendermos os riscos representados por esta tecnologia complexa e em rápida evolução. Sempre tive certeza de que ela pode ser retirada”, afirmou. o Secretário de Tecnologia do Reino Unido. Michelle Donnellan disse.
As próprias empresas de IA reconhecem que os seus produtos de ponta estão a aventurar-se em território tecnologicamente e moralmente desconhecido. Sam Altman, CEO da OpenAI, definiu inteligência artificial geral (AGI) como IA que excede a inteligência humana e disse que “virá em breve”, mas traz riscos.
“AGI também trará riscos significativos de abuso, acidentes graves e perturbações sociais”, diz a postagem do blog da OpenAI. “Os benefícios da AGI são tão grandes que não acreditamos que seja possível ou desejável que a sociedade interrompa permanentemente o seu desenvolvimento. Em vez disso, a sociedade e os desenvolvedores de AGI precisam entender como realizá-lo adequadamente.
Mas até agora, os esforços para montar um quadro regulamentar global em torno da IA têm sido dispersos e carecem, em grande parte, de autoridade legislativa. Um quadro político da ONU que apela aos países para que previnam os riscos da IA para os direitos humanos, monitorizem a utilização de dados pessoais e reduzam os riscos da IA foi aprovado por unanimidade no mês passado, mas não era vinculativo. A Declaração de Bletchley, que foi a peça central da Cimeira Global sobre IA no Reino Unido em Outubro passado, não continha compromissos regulamentares específicos.
Entretanto, as próprias empresas de IA estão a começar a estabelecer as suas próprias organizações para promover políticas de IA. Ontem, Amazon e Meta aderiram à Frontier Model Foundation, uma organização sem fins lucrativos do setor “dedicada a melhorar a segurança dos modelos de IA de fronteira”, de acordo com seu site. Eles se juntam aos membros fundadores Anthropic, Google, Microsoft e OpenAI. O grupo sem fins lucrativos ainda não apresentou uma proposta política firme.
Os governos individuais têm tido mais sucesso: os líderes governamentais transformaram a ordem executiva do presidente Biden em Outubro passado sobre a regulamentação da segurança da IA numa legislação mais rigorosa que vai além das promessas vagas descritas noutras intenções semelhantes. da curva'' incorporando tais requisitos. política. Biden, por exemplo, invocou a Lei de Produção de Defesa para exigir que as empresas de IA partilhassem os resultados dos testes de segurança com o governo. A UE e a China também promulgaram políticas formais que abordam temas como a legislação sobre direitos de autor e a recolha de dados pessoais dos utilizadores.
Os estados também estão tomando medidas, com o governador do Colorado, Jared Polis, proibindo ontem a discriminação algorítmica na IA e exigindo que os desenvolvedores compartilhem dados internos com os reguladores estaduais para garantir a conformidade.
Esta não é a última oportunidade para a regulamentação global da IA. A França planeia acolher outra cimeira no início do próximo ano, após reuniões em Seul e Bletchley Park. Nessa altura, os participantes afirmaram que teriam desenvolvido uma definição formal de parâmetros de referência de risco que exigiriam medidas regulamentares, um importante passo em frente num processo que até agora tem sido relativamente cauteloso.

