Está em curso a corrida para construir uma inteligência artificial geral, uma visão futurística de máquinas que são tão inteligentes como os humanos, ou pelo menos capazes de fazer tantas coisas como os humanos.
Alcançar tal conceito (comumente referido como AGI) é a missão motriz da OpenAI, que desenvolveu o ChatGPT, e uma prioridade para os braços de pesquisa de elite dos gigantes da tecnologia Amazon, Google, Meta e Microsoft.
Isto também é motivo de preocupação para os governos mundiais. Os principais cientistas da IA publicaram uma investigação na quinta-feira na revista Science, alertando que os agentes da IA com competências de “planeamento a longo prazo” não controladas poderiam representar uma ameaça existencial para a humanidade.
Mas o que é exatamente a AGI e como sabemos quando ela foi alcançada? Outrora uma pedra angular da ciência da computação, agora é o foco daqueles que tentam fazer com que isso aconteça. Tornou-se uma palavra da moda que está sendo constantemente redefinida.
O que é AGI?
Não deve ser confundido com a IA generativa de som semelhante, que descreve o sistema de IA por trás de um conjunto de ferramentas que “gera” novos documentos, imagens e áudio. A inteligência artificial geral é um conceito mais nebuloso.
Este não é um termo técnico, mas um “conceito vagamente definido, mas sério”, disse Jeffrey Hinton, um cientista pioneiro de IA conhecido como o “padrinho da IA”.
“Não creio que haja um consenso sobre o que esse termo significa”, disse Hinton por e-mail esta semana. “Usamos este termo para significar uma IA que é pelo menos tão capaz quanto um ser humano em quase todas as funções cognitivas desempenhadas por seres humanos.”
Hinton prefere outro termo, “superinteligência”, que é “AGI que é melhor que os humanos”.
Um pequeno grupo dos primeiros proponentes do termo AGI estava tentando lembrar como os cientistas da computação de meados do século XX imaginaram máquinas inteligentes. Isso foi antes de a pesquisa em IA se ramificar em subcampos e desenvolver versões especializadas e comercialmente viáveis da tecnologia, desde reconhecimento facial até assistentes de voz com reconhecimento de voz, como Siri e Alexa.
Pei Wang, professor que ministra o curso AGI na Temple University e ajudou a organizar a primeira conferência AGI em 2008, diz que a principal pesquisa em IA “inicialmente se afastou da visão original da inteligência artificial, que era bastante ambiciosa”. ,” ele disse.
Adicionar o “G” ao AGI foi um sinal para aqueles que “ainda querem fazer grandes coisas”. Não queremos construir ferramentas. Queremos construir máquinas que pensem”, disse Wang.
Você já está na AGI?
Sem uma definição clara, é difícil saber quando as empresas ou grupos de investigação alcançarão a inteligência artificial geral, ou se já a alcançaram.
“Vinte anos atrás, as pessoas teriam concordado alegremente que um sistema com as capacidades do GPT-4 ou do Gemini[do Google]havia alcançado inteligência geral equivalente a humanos”, disse Hinton. “Mais ou menos, se você pudesse responder a qualquer pergunta de maneira sensata, você teria passado no teste. Mas agora que a IA pode fazer isso, as pessoas querem mudar o teste.”
Técnicas aprimoradas de IA “autoregressiva” que prevêem a próxima palavra mais plausível em uma sequência, combinadas com enorme poder de computação para treinar o sistema em uma tempestade de dados, criam ótimos chatbots. No entanto, eles ainda não têm a AGI que muitas pessoas podem esperar. Eu tinha isso em mente. AGI requer tecnologia que possa funcionar como seres humanos em uma variedade de tarefas, incluindo a capacidade de raciocinar, planejar e aprender com a experiência.
Alguns pesquisadores esperam encontrar um consenso sobre como medi-lo. Este é um dos tópicos do primeiro workshop AGI numa importante conferência de investigação em IA em Viena, Áustria, no próximo mês.
“Isso realmente requer esforço e atenção da comunidade para que possamos concordar mutuamente sobre alguma classificação de AGI”, disse o organizador do workshop Jiaxuan You, professor assistente da Universidade de Illinois em Urbana-Champaign. Uma ideia é dividi-lo em níveis, da mesma forma que as montadoras tentam avaliar o caminho entre o controle de cruzeiro e os carros totalmente autônomos.
Algumas pessoas planejam resolver o problema com as próprias mãos. A empresa OpenAI de São Francisco deu ao seu conselho sem fins lucrativos, cujos membros incluem um ex-secretário do Tesouro dos EUA, a responsabilidade de determinar quando seus sistemas de IA “superam os humanos nas tarefas economicamente mais valiosas”.
A descrição da própria estrutura de governança da OpenAI afirma que “o conselho de administração determina quando o AGI é alcançado”. Tal resultado privaria a Microsoft, o maior parceiro da empresa, do direito de comercializar tal sistema. Isso porque os termos do acordo entre as duas empresas “se aplicam apenas à tecnologia pré-AGI”.
AGI é perigoso?
Hinton ganhou as manchetes globais no ano passado quando deixou o Google e alertou sobre a ameaça existencial da IA. Um novo estudo científico divulgado quinta-feira pode reforçar essas preocupações.
O autor principal é Michael Cohen, pesquisador da Universidade da Califórnia, Berkeley, que discute “o comportamento esperado de agentes artificiais inteligentes em geral” e especificamente “representa ameaças reais para nós ao nos enganar”. agentes artificiais capazes de fornecer
Cohen esclareceu em uma entrevista na quinta-feira que ainda não existe tal agente de planejamento de IA de longo prazo. Mas “poderia ser”, à medida que as empresas de tecnologia procuram combinar a tecnologia atual de chatbot com habilidades de planejamento mais cuidadosas, usando uma técnica conhecida como aprendizagem por reforço.
“Dar aos sistemas avançados de IA o objectivo de maximizar a recompensa, e reter a recompensa em algum momento, dá ao sistema um forte incentivo para expulsar os humanos do circuito quando surgir a oportunidade”, afirma o documento. Os coautores incluem os proeminentes cientistas de IA Yoshua Bengio e Stuart Russell, e a professora de direito e ex-conselheira da OpenAI Gillian Hadfield.
“Espero que tenhamos conseguido argumentar que os funcionários do governo decidiram começar a pensar seriamente sobre quais regulamentações são necessárias para resolver esta questão”, disse Cohen. Por enquanto, “tudo o que o governo sabe é o que estas empresas estão a tentar dizer ao governo”.
É muito justificado abandonar a AGI?
Com tanto dinheiro sendo investido na promessa de avanços na IA, não é de admirar que a AGI tenha se tornado uma palavra da moda corporativa, às vezes despertando fervor religioso.
Partes da indústria tecnológica estão divididas entre aqueles que defendem que o desenvolvimento deve prosseguir lenta e cuidadosamente e aqueles que se declaram parte do campo “aceleracionista”, como os capitalistas de risco e o rapper MC Hammer.
DeepMind, uma startup com sede em Londres fundada em 2010 e agora parte do Google, foi uma das primeiras empresas a se propor explicitamente a desenvolver AGI. Mais tarde, a OpenAI fez algo semelhante em 2015 com um compromisso com a segurança.
Mas agora pode parecer que todo mundo está aderindo ao movimento. O cofundador do Google, Sergey Brin, foi recentemente visto em um local na Califórnia chamado AGI House. E menos de três anos depois de mudar seu nome de Facebook para focar em mundos virtuais, a Meta Platforms revelou em janeiro que AGI também é uma prioridade.
O CEO da Meta, Mark Zuckerberg, disse que o objetivo de longo prazo de sua empresa é “construir inteligência geral completa”, o que requer avanços em raciocínio, planejamento, codificação e outras habilidades cognitivas. Os pesquisadores da empresa de Zuckerberg há muito se concentram nesses temas, mas o que chamou a atenção de Zuckerberg foi uma mudança de tom.
Na Amazon, um sinal de novas mensagens foi quando o cientista-chefe da assistente de voz Alexa mudou seu cargo para se tornar cientista-chefe da AGI.
Embora menos tangível para Wall Street do que a IA generativa, a transmissão das ambições da AGI poderia ajudar a recrutar talentos em IA que podem escolher onde querem trabalhar.
Yu, pesquisador da Universidade de Illinois, disse que ao decidir entre um “laboratório tradicional de IA” e um laboratório cujo “objetivo é construir AGI” e que tenha recursos suficientes para fazê-lo, muitas pessoas escolhem o último. escolher.

