Mantenha-se informado com atualizações gratuitas
Basta se inscrever inteligência artificial myFT Digest – entregue diretamente na sua caixa de entrada.
O cofundador da DeepMind, Demis Hassabis, diz que o aumento do fluxo de dinheiro para a inteligência artificial criou entusiasmo em torno de coisas como criptomoedas, obscurecendo os incríveis avanços científicos na área.
O executivo-chefe da divisão de pesquisa de IA do Google disse ao Financial Times que, embora bilhões de dólares estejam sendo investidos em startups e produtos generativos de IA, “há muito entusiasmo e talvez algum… “Está criando algum desconforto e algumas das coisas que vemos em outras empresas.” Áreas exageradas, criptomoedas e muito mais.
“Parte disso está se espalhando para a IA, o que considero um pouco lamentável. E obscurece a ciência e a pesquisa, o que é incrível”, acrescentou. “Em alguns aspectos, a IA é subestimada, mas em alguns aspectos é superestimada. Estamos falando de todos os tipos de coisas que não são reais.”
O anúncio do chatbot ChatGPT da OpenAI em novembro de 2022 gerou um frenesi de investidores enquanto as startups corriam para desenvolver e implantar IA generativa e levantar financiamento de capital de risco.
De acordo com o analista de mercado CB Insights, os grupos de capital de risco investiram US$ 42,5 bilhões em 2.500 rodadas de capital de startups de IA no ano passado.
Os investidores do mercado público também estão migrando para as chamadas “Sete Magníficas” empresas de tecnologia, incluindo Microsoft, Alphabet e Nvidia, que estão na vanguarda da revolução da IA. Os seus ganhos ajudaram a impulsionar os mercados bolsistas globais para o desempenho mais forte dos últimos cinco anos no primeiro trimestre.
Mas os reguladores já estão a examinar minuciosamente as empresas que fazem alegações falsas relacionadas com a IA. “Não deveríamos fazer lavagem verde e não deveríamos lavar a IA”, disse o presidente da Comissão de Valores Mobiliários, Gary Gensler, em dezembro.
Apesar da propaganda enganosa em torno da IA, Hassabis, que foi nomeado cavaleiro na semana passada pelos seus serviços prestados à ciência, continua convencido de que a tecnologia da IA é uma das invenções mais inovadoras da história da humanidade.
“Acho que apenas arranhamos a superfície do que acredito que será possível na próxima década ou mais”, diz ele. “Estamos talvez no início de uma nova era de ouro da descoberta científica, um novo renascimento.”
Ele disse que a melhor prova de conceito de como a IA pode acelerar a pesquisa científica é o modelo AlphaFold da DeepMind lançado em 2021.
AlphaFold ajudou a prever a estrutura de 200 milhões de proteínas e é atualmente usado por mais de 1 milhão de biólogos em todo o mundo. A DeepMind também está usando IA para explorar outras áreas da biologia, acelerando pesquisas em descoberta e distribuição de medicamentos, ciência de materiais, matemática, previsão do tempo e tecnologia de fusão nuclear. Hassabis disse que seu objetivo sempre foi usar a IA como a “ferramenta definitiva para a ciência”.
A DeepMind foi fundada em Londres em 2010 com a missão de criar “inteligência artificial geral” que rivalize com todas as habilidades cognitivas humanas. Alguns investigadores sugerem que a AGI, se alguma vez alcançada, ainda poderá demorar décadas.
Hassabis disse que são necessários mais um ou dois avanços importantes antes que a AGI seja alcançada. Mas ele acrescentou: “Eu não ficaria surpreso se isso acontecesse nos próximos 10 anos. Não estou dizendo que definitivamente vai acontecer, mas não ficaria surpreso. Eu diria que há cerca de 50 por cento de chance. E esse cronograma é baseado no DeepMind. Não mudou muita coisa desde o seu início.”
Dado o potencial da AGI, Hassabis disse que seria melhor prosseguir esta missão através de métodos científicos, em vez da abordagem hacker preferida no Vale do Silício. “Dada a importância da AGI, acho que deveríamos adotar uma abordagem mais científica para construir a AGI”, disse ele.
O fundador da DeepMind aconselhou o governo do Reino Unido na primeira cúpula global de segurança de IA realizada em Bletchley Park no ano passado. Hassabis saudou a continuação do diálogo internacional sobre o tema e saudou as cimeiras subsequentes entre a Coreia do Sul e a França e a criação do Instituto de Segurança de IA Reino Unido-EUA.
“Acho que esses são primeiros passos importantes”, disse ele. “Mas ainda temos muito trabalho a fazer e a tecnologia está melhorando a passos largos, por isso precisamos nos apressar.”
Na semana passada, os pesquisadores da DeepMind publicaram um artigo delineando uma nova metodologia chamada SAFE para mitigar erros factuais conhecidos como alucinações produzidas por modelos de linguagem em larga escala, como o GPT da OpenAI e o Gemini do Google. A falta de confiabilidade desses modelos levou os advogados a apresentarem citações fictícias e desencorajou muitas empresas de usá-los comercialmente.
Hassabis disse que a DeepMind está explorando diferentes maneiras de verificar os fatos e fundamentar seus modelos, por exemplo, cruzando as respostas às pesquisas do Google e do Google Scholar.
Ele comparou essa abordagem com a forma como os modelos AlphaGo aprenderam o antigo jogo Go, verificando novamente o resultado. Grandes modelos de linguagem também permitem verificar se as respostas fazem sentido e ajustá-las. “É um pouco como o AlphaGo funciona quando está em execução. Não é apenas cuspir o primeiro movimento que a rede deu. Ele tem tempo para pensar e faz um plano”, disse ele.
Para o desafio de autenticar 16.000 fatos individuais, a SAFE concordou em contratar anotadores humanos em 72% das vezes, mas a 1/20 do custo.
