O especialista e consultor em inteligência artificial Darren McKee está preocupado com o fato de a humanidade não estar se movendo rápido o suficiente para se proteger de IA maliciosa, desonesta ou indiferente.
Fonte: Darren McKee
A superinteligência artificial nos escravizará ou nos libertará.
A superinteligência artificial cumprirá o nosso destino cósmico ou nunca acontecerá.
A superinteligência artificial sempre será inferior a nós ou se tornará o próximo deus.
Escolha o que você gosta. Há um número esmagador de previsões sobre o futuro da inteligência artificial (IA) feitas por especialistas confiáveis, grandes filósofos, escritores de ficção científica e pessoas aleatórias com canais no YouTube. É difícil pensar com clareza sobre o surgimento da verdadeira inteligência artificial. Porque será historicamente único e sem precedentes. Pode acontecer neste século, pode nunca acontecer, pode acontecer daqui a dez minutos. Na verdade, estamos constantemente abraçando e lutando com novas tecnologias. Mas a IA não é uma machadinha Acheuliana modificada ou um voador leve. Para o bem ou para o mal, a sua chegada será um ponto de viragem crucial na história humana.
Darren McKee é um dos especialistas confiáveis mencionados acima. Ele é consultor da AIGS Canada (Artificial Intelligence Governance and Safety Canada) e autor dos seguintes livros: Fora de controle: a ameaça da inteligência artificial e a corrida para salvar o mundo. Este livro é fascinante, abrangente, totalmente baseado em pesquisas sólidas e assustador. McKee defende uma vigilância razoável e uma regulamentação significativa à medida que aparentemente avançamos. momento importante.
Guy Harrison: Explique como a verdadeira superinteligência artificial seria nova e diferente.
Darren McKee: Lembra quando você era pequeno? Você pode imaginar quanto poder você tem agora? Não, mesmo que alguém tente pacientemente explicar isso para você, é impossível para você. A distância entre você quando era mais jovem e quem você é agora pode ser semelhante à distância entre você e uma superinteligência artificial. Essa diferença dramática de capacidade traz consigo riscos.
Embora tenhamos a tendência de pensar nos sistemas informáticos como ferramentas, e eles são ferramentas por si só, a superinteligência artificial é agente, agindo como se tivesse autonomia para completar uma vasta gama de tarefas. Os sistemas autônomos não são novos para a humanidade, mas nunca desenvolvemos um sistema tão funcional como este.
GH: O cenário do Terminator de robôs armados caçando humanos pode ser irrealista, mas quais são algumas maneiras confiáveis pelas quais a IA poderia destruir a civilização?
Mestre: Ajuda considerar cenários específicos, mas o mais importante é o resultado esperado. Se você jogasse contra o melhor sistema de xadrez de IA do mundo, perderia. Você não pode dizer com antecedência exatamente como perderá, mas com certeza perderá. Da mesma forma, quando a humanidade confronta algo que pode pensar mais rápido do que nós, com uma compreensão de nível de especialista mundial em estratégia militar, psicologia humana, economia, segurança cibernética, redes elétricas, física básica, química, biologia, etc. .
Um caminho possível é integrar cada vez mais os sistemas de IA em nossas vidas e na sociedade pelos benefícios que trazem. À medida que os sistemas de IA são capazes de operar com maior agência, poderão ser capazes de enganar e manipular os seres humanos para obter mais poder e recursos. Eventualmente, os sistemas de IA autónomos com capacidades avançadas farão a mesma coisa que costumávamos fazer sem pensar muito enquanto caminhávamos ou desobstruíamos terrenos para construção. É importante compreender que a intenção maliciosa não é necessária para que a IA avançada derrube a civilização humana. A simples indiferença é suficiente.
O livro de Mackie apela a uma regulamentação urgente e imediata e à cooperação internacional para nos tornarmos tão seguros quanto possível da superinteligência artificial.
Darren Mackie
GH: O seu livro defende fortemente que se faça todo o possível agora para evitar a catástrofe da IA, mas como podemos criar uma segurança significativa quando há tanta desconfiança entre nações e empresas. Será que o plano será alcançado?
Mestre: Com muito esforço, cuidado e persistência. Embora tenhamos mantido relações de poder sensíveis e preocupantes entre nações e empresas durante muitos anos, ainda conseguimos cooperar em muitas iniciativas importantes. O mundo uniu-se há décadas no Protocolo de Montreal para proteger a camada de ozono, reduziu as armas nucleares em dezenas de milhares e a humanidade continua a esforçar-se para detectar e desviar asteróides. Com IA avançada, todos estão em risco. Nenhuma nação ou empresa pode estar a salvo de uma superinteligência artificial incontrolável.
GH: O policiamento habilitado pela IA pode acompanhar o uso criminoso da IA?
Mestre: O assédio e os crimes que utilizam IA já são um grande problema. Existem aplicativos projetados especificamente para alterar uma foto enviada de uma pessoa vestindo roupas normais e usar IA para simular uma imagem nua dessa pessoa. Esses aplicativos assustadores já estão causando danos nas escolas e em todo o mundo.
As instituições educacionais estão lutando para acompanhar e precisam de recursos para fazê-lo. Contudo, deve notar-se que as complicações habituais associadas ao aumento dos poderes policiais também surgem aqui, tais como a forma como a vigilância dos cidadãos pode ser utilizada tanto de forma positiva como negativa.
É importante aumentar a conscientização, inclusive lembrando às famílias que todos devem ter uma senha especial para evitar serem vítimas de golpes de falsificação de identidade de áudio e vídeo que imitam entes queridos e roubam dinheiro.
Fundamentos de Inteligência Artificial
GH: Pelo menos cinco dos meus livros foram usados para treinar sistemas de IA sem permissão ou compensação. O que você pensa sobre isso?
Mestre: Os artistas têm toda a razão em sentir-se indignados quando o seu trabalho é usado para treinar sistemas de IA sem qualquer consideração ou compensação. Este tipo de plágio não irá parar por si só, por isso os criativos precisam de se unir para combater tais práticas. Se você não se envolver, outros decidirão o seu futuro.
GH: Seria melhor para a segurança mundial se os governos ou as empresas construíssem primeiro a superinteligência artificial?
Mestre: Dado que as empresas privadas têm uma maior responsabilidade para com os seus accionistas do que para com toda a população, a tecnologia equivalente às armas nucleares deve estar sujeita ao controlo democrático.
GH: Quando você acha que existirá a primeira superinteligência artificial?
Mestre: A superinteligência artificial provavelmente existirá dentro de 10 anos, mas é provável que outras mais poderosas sejam criadas dentro de 2 a 5 anos. Como diz o velho ditado: “É difícil prever, especialmente sobre o futuro”, e aplica-se igualmente ao campo da IA. Dados os riscos inerentes à existência de inteligência superartificial, é melhor ser cauteloso e preparado do que ser apanhado de surpresa.

