O Google citou este mês a “transição da IA” em seu relatório ambiental anual e anunciou que as emissões de seus data centers aumentarão 13% em 2023, aumentando a ansiedade crescente em torno do debate sobre as mudanças climáticas. Mas o cientista-chefe do Google, Jeff Dean, disse que o relatório não conta toda a história e atribui mais culpa à IA do que ela merece.
Dean, que é cientista principal do Google DeepMind e do Google Research, disse que o Google não tem intenção de desistir de seu compromisso de ser alimentado por energia 100% limpa até o final de 2030. Mas ele disse que o progresso “não é necessariamente linear”. Isso ocorre porque parte do trabalho do Google com fornecedores de energia limpa só será implementado daqui a alguns anos.
“Embora essas coisas aumentem significativamente a proporção de nossa energia proveniente de energia livre de carbono, continuaremos a tornar nossos sistemas tão eficientes quanto possível”, disse Dean na terça-feira na Brainstorm Tech Conference da Fortune. um alvo.” Com o editor de IA da Fortune, Jeremy Kahn.
Dean continuou enfatizando o ponto mais amplo de que a IA não é tão responsável pelo aumento do uso do data center e, portanto, das emissões de carbono, como afirmam os críticos.
“Tem havido muita atenção ao aumento do uso de energia da IA e, mesmo a partir de uma base muito pequena, esse uso está definitivamente aumentando”, disse Dean. “Mas acho que as pessoas muitas vezes contradizem isso com o uso geral do data center. A IA é uma parte pequena no momento, mas está crescendo rapidamente. E o crescimento da computação baseada em IA. Atribuímos a taxa ao uso geral do data center.”
Dean disse que era importante analisar “todos os dados” e “as verdadeiras tendências subjacentes”, mas não detalhou quais poderiam ser essas tendências.
Um dos primeiros funcionários do Google, Dean ingressou na empresa em 1999 e transformou um dos primeiros mecanismos de busca da Internet em um sistema poderoso capaz de indexar a Internet e atender de maneira confiável bilhões de usuários. Dean foi cofundador do projeto Google Brain em 2011 e liderou os esforços da empresa para se tornar líder em IA. No ano passado, a Alphabet fundiu o Google Brain com a DeepMind, uma empresa de IA que o Google adquiriu em 2014, tornando o cientista-chefe da Dean um subordinado direto do CEO Sundar Pichai.
Ao combinar as duas equipes, disse Dean, a empresa será capaz de “construir ideias melhores” e “agrupar a computação em um esforço de grande escala como o Gemini, em vez de vários esforços fragmentados”. “
Avanço algorítmico necessário
Dean também respondeu a perguntas sobre o status do Projeto Astra do Google. O projeto é um projeto de pesquisa que o líder da DeepMind, Demis Hassabis, anunciou em maio no Google I/O, a conferência anual de desenvolvedores da empresa. Descrito por Hassabis como um “agente universal de IA” que pode entender o contexto do ambiente de um usuário, o vídeo de demonstração do Astra mostra um usuário apontando a câmera do telefone para um objeto próximo e perguntando ao agente de IA: “Em que área você está?” Mostramos como fazer perguntas relevantes, como: Estou dentro? ou “Você viu onde coloquei meus óculos?”
Na época, a empresa disse que a tecnologia Astra chegaria ao aplicativo Gemini ainda este ano. Mas Dean foi mais modesto: “Esperamos ter algo nas mãos dos usuários de teste até o final do ano”.
“A capacidade de combinar o modelo Gemini com um modelo que realmente tenha agência e seja capaz de perceber o mundo ao seu redor de uma forma multimodal será muito poderosa”, disse Dean. “Obviamente, estamos abordando isso de forma responsável, por isso queremos ter certeza de que a tecnologia está pronta e que não há quaisquer consequências indesejadas. Portanto, estamos começando com um pequeno número de usuários. .
Em relação à evolução contínua dos modelos de IA, Dean disse que dados adicionais e poder computacional por si só não são suficientes. Dean disse que mais algumas gerações de escalonamento seriam um avanço significativo, mas, em última análise, seriam necessários “avanços algorítmicos adicionais”.
Dean disse que sua equipe há muito se concentra em como combinar abordagens de escala e algorítmica para melhorar a factualidade e a capacidade de inferência, acrescentando que “o modelo imagina uma saída plausível e que é a que mais nos permite raciocinar de uma forma que faça sentido”. ”
Dean disse que tais avanços serão importantes “para realmente tornar esses modelos mais robustos e confiáveis do que são hoje”.
Leia mais artigos do Brainstorm Tech 2024:
O CEO da Wiz diz que “a consolidação do mercado de segurança é realmente necessária” em meio a relatos de aquisição do Google por US$ 23 bilhões
Por que o CEO do Grindr acha que “funcionários sintéticos” estão prestes a criar uma guerra brutal por talentos em startups de tecnologia
Especialistas temem que a Guerra Fria entre os EUA e a China possa se intensificar: “Todo mundo está esperando que o sapato caia na Ásia''
CEO Daily fornece informações essenciais que os leitores de notícias precisam saber em todo o mundo dos negócios. Todas as manhãs dos dias úteis, mais de 125.000 leitores confiam no CEO Daily para obter insights executivos e internos. Inscreva-se agora.

