A mídia social está repleta de exemplos do novo produto AIOverview do Google dizendo coisas estranhas, como dizer aos usuários para colocarem cola na pizza ou incentivá-los a comer pedras. Esse desenvolvimento confuso significa que o Google está correndo para desativar manualmente os resumos de IA para determinadas pesquisas à medida que vários memes são postados, e os usuários agora estão competindo para desativar manualmente os resumos de IA para determinadas pesquisas. É por isso que vemos tantos memes desaparecerem logo depois.
O Google vem testando o AI Overview (um recurso lançado em versão beta em maio de 2023 como uma experiência geradora de pesquisa) há um ano, e o CEO Sundar Pichai disse que a empresa respondeu a mais de 1 bilhão de consultas durante esse período. porque diz que sim.
Mas Pichai também disse que o Google reduziu o custo de fornecer respostas de IA em 80% no mesmo período “por meio de hardware, engenharia e avanços tecnológicos”. Parece que este tipo de otimização pode ter sido feito prematuramente, antes de a tecnologia estar pronta.
“Empresas que antes eram conhecidas por serem inovadoras e por fornecerem produtos de alta qualidade agora são conhecidas por produzirem memes e de baixa qualidade”, disse um fundador da AI que pediu para permanecer anônimo. A beira.
O Google continua dizendo que seu produto AI Overview fornece principalmente “informações de alta qualidade” aos usuários. “Muitos dos exemplos que vimos são consultas incomuns e também vimos exemplos em que foram adulteradas ou não puderam ser reproduzidas”, disse a porta-voz do Google, Megan Farnsworth, por e-mail. A beira. Farnsworth também acrescentou que a empresa “toma medidas imediatas para remover resumos de IA para consultas específicas, quando apropriado, com base em nossa política de conteúdo” e que esses exemplos não são amplamente utilizados em nossos sistemas. dos quais já começaram a ser implementados.
Gary Marcus, especialista em IA e professor emérito de neurociência na Universidade de Nova York, disse: A beira Muitas empresas de IA estão “vendendo o sonho” de que sua tecnologia terá uma taxa de precisão de 80% a 100%. De acordo com Marcus, atingir os primeiros 80% é relativamente fácil, pois requer a aproximação de grandes quantidades de dados do corpo humano, mas os últimos 20% são extremamente difíceis. Na verdade, Marcus acredita que os últimos 20% podem ser os mais difíceis.
“Você tem que fazer algumas inferências para realmente determinar: isso é válido? Esta fonte é legítima? Você tem que fazer o que um verificador de fatos humano faria, e na verdade uma inteligência artificial geral pode ser necessária”, disse Marcus. E tanto Marcus quanto o chefe de IA da Meta, Yan LeCun, concordam que os modelos de linguagem em grande escala que alimentam os sistemas de IA atuais, como o Gemini do Google e o GPT-4 da OpenAI, não criam AGI, eu concordo.
Olha, as coisas estão difíceis para o Google agora. A famosa frase “We Made 'em Dance” de Satya Nadella diz que o Bing está fazendo movimentos maiores em direção à IA do que o Google, a OpenAI está supostamente trabalhando em seu próprio mecanismo de busca, e o valor de novas startups de busca de IA já vale US$ 1 bilhão e a melhor experiência com uma geração mais jovem de usuários que deseja apenas pesquisar é mudar para o TikTok. A empresa sente claramente pressão para competir, e essa pressão torna os lançamentos de IA complicados. Marcus destacou que em 2022, Meta lançou um sistema de IA chamado Galactica, mas ele teve que ser removido logo após o lançamento por motivos que incluíam instruir as pessoas a comerem vidro. Isso é nostálgico.
O Google tem grandes planos para a visão geral da IA. Esse recurso, que existe atualmente, é apenas uma pequena parte do que a empresa anunciou na semana passada. Há muita ambição aqui, incluindo inferência em várias etapas para consultas complexas, a capacidade de gerar páginas de resultados com curadoria de IA e pesquisa de vídeos com o Google Lens. Mas, por enquanto, a reputação da empresa depende de acertar o básico, e isso não parece muito bom.
“[These models] Eles são constitucionalmente incapazes de realizar verificações de integridade em seu trabalho, e isso tem atormentado nossa indústria nas sombras”, disse Marcus.

