- Elon Musk recalculou a análise custo-benefício dos riscos da IA para a humanidade.
- Ele estima que há uma chance de 10-20% de que a IA acabe com a humanidade, mas acredita que precisamos construí-la de qualquer maneira.
- Um especialista em segurança de IA disse à BI que Musk está subestimando o risco de uma catástrofe potencial.
Elon Musk acredita que vale a pena correr o risco da IA, mesmo que haja 1 chance em 5 de que a tecnologia funcione contra os humanos.
Falando no seminário de quatro dias “Big AI Debate” do Abundance Summit no início deste mês, Musk recalculou sua avaliação de risco anterior da tecnologia e disse: “Acho que ela tem o potencial de exterminar a humanidade”. Jeff Hinton.” Acho que é cerca de 10% ou 20% ou algo assim. ”
Mas acrescentou: “Acho que o cenário positivo provavelmente supera o cenário negativo”.
Musk não disse como calculou os riscos.
O que é p (desgraça)?
Roman Yampolsky, pesquisador de segurança de IA e diretor do Instituto de Segurança Cibernética da Universidade de Louisville, disse ao Business Insider que, embora Musk estivesse certo ao dizer que a IA poderia representar uma ameaça existencial para a humanidade, ele disse: Basta dizer que ele está pensando sobre isso um pouco.” Muito conservador”, diz sua avaliação.
“Na minha opinião, o p (destino) real é muito maior”, disse Yamprosky. “Possibilidade de catástrofe'', ou a possibilidade de que a IA assuma o controle da humanidade ou cause um evento que levará à extinção da humanidade, como a criação de novas armas biológicas ou o colapso da sociedade através de um ataque cibernético em grande escala ou guerra nuclear.
O New York Times chamou (p)doom de “a nova estatística doentia que varre o Vale do Silício”, e vários executivos de tecnologia citados pelo jornal disseram que as chances de um apocalipse da IA são 5. Estima-se que esteja na faixa de aproximadamente 50%. Yamprosky está assumindo um risco.”Até 99,999999%. ”
Yamprosky disse que, como é impossível controlar a IA avançada, nossa única esperança é não construí-la.
“Não sei por que ele acha que é uma boa ideia buscar essa tecnologia”, acrescentou Yamprosky. “Se ele está preocupado com a possibilidade de seus concorrentes chegarem primeiro, não importa, porque uma superinteligência descontrolada é igualmente ruim, não importa quem a criou”.
“É como uma criança com inteligência divina.”
Em novembro passado, Musk disse que havia uma “chance diferente de zero” de que a tecnologia eventualmente “ficasse mal”, mas ele acreditava que isso poderia significar o fim da humanidade se isso acontecesse.
Musk apoiou a regulamentação da IA, mas no ano passado fundou uma empresa chamada xAI que se dedica a expandir ainda mais o poder da tecnologia. A xAI é concorrente da OpenAI, empresa que Musk cofundou com Sam Altman antes de deixar o conselho em 2018.
Na cimeira, Musk estimou que a inteligência digital excederá a inteligência humana combinada até 2030. Embora insistindo que os potenciais aspectos positivos superam os negativos, Musk reconheceu os riscos para o mundo se o desenvolvimento da IA continuar na sua trajectória actual na sua forma mais imediata. Um termo que ele usa publicamente.
“Você é como crescer A.G.I. “É quase como criar um filho, mas essa criança é como um supergênio, uma criança com inteligência divina, e é como você cria essa criança que importa”, disse Musk em março. Ele mencionou a inteligência artificial geral em um evento em Vale do Silício no dia 19. “Uma das coisas que considero realmente importante para a segurança da IA é ter o máximo possível de IA curiosa e que busca a verdade.”
Musk disse que o “resultado final” sobre a melhor maneira de alcançar a segurança da IA é desenvolver a IA de uma forma que a force a ser verdadeira.
Musk disse sobre a melhor maneira de proteger os humanos da tecnologia: “Não vamos nos forçar a mentir, mesmo que a verdade seja desagradável”. “Muito importante. Não minta para a IA.”
Os investigadores descobriram que, uma vez que uma IA aprende a mentir aos humanos, é impossível reverter o seu comportamento enganoso com as actuais medidas de segurança da IA, informou o The Independent.
Um estudo citado pela revista concluiu que “as atuais técnicas de treinamento de segurança não garantem a segurança se o modelo apresentar comportamento enganoso devido ao ajuste inadequado do equipamento ou envenenamento do modelo, criando uma falsa impressão de segurança”.
Ainda mais preocupante, acrescentaram os pesquisadores, a IA poderia aprender a enganar por conta própria, em vez de ser ensinada especificamente a mentir.
Hinton, também conhecido como o “padrinho da IA” e que é a base para as avaliações de risco de Musk, disse: “Se a IA se tornar muito mais inteligente do que nós, será muito melhor em manipulá-la. Ele falou à CNN sobre tecnologia. “E há muito poucos casos em que algo mais inteligente é controlado por algo menos inteligente.”
Um representante de Musk não respondeu imediatamente a um pedido de comentário do Business Insider.

