Na semana passada, a nova “Visão Geral da IA” do Google se tornou viral pelos motivos errados. Anunciado como o futuro da busca on-line, com o software do Google respondendo diretamente às perguntas dos usuários, em vez de simplesmente criar links para sites relevantes, o recurso provocou uma enxurrada de reações que vão do ridículo ao perigoso. (Não, os geólogos não recomendam comer uma pedra pequena por dia. E não coloque cola na pizza.)
O Google inicialmente minimizou o problema, dizendo que a maioria de seus resumos de IA eram de “alta qualidade” e que alguns dos exemplos que circulavam nas redes sociais eram provavelmente falsos. Mas a empresa também reconheceu que remove manualmente pelo menos alguns dos resultados problemáticos, um processo árduo para um site que lida com bilhões de consultas por dia.
“A Visão Geral da IA foi projetada para revelar informações de alta qualidade, apoiadas por resultados de toda a web, com links proeminentes para saber mais”, disse um porta-voz. Ned Adrians ele disse na terça-feira. “Tal como acontece com outros recursos que lançamos na pesquisa, estamos aproveitando o seu feedback para desenvolver uma ampla gama de melhorias no sistema, algumas das quais já começamos a implementar.”
Isto mostra que os problemas com as respostas da inteligência artificial são mais profundos do que aqueles que podem ser resolvidos com simples atualizações de software.
“Todos os modelos de linguagem em grande escala, pela própria natureza de sua arquitetura, são narradores inerentemente irremediavelmente não confiáveis.” Grady Booch, um famoso cientista da computação. A um nível fundamental, é concebido para produzir respostas que parecem coerentes, em vez de respostas verdadeiras. “Então você não pode simplesmente ‘consertar’ isso”, disse ele. Porque melhorar as coisas é uma “propriedade inevitável de como elas funcionam”.
Na melhor das hipóteses, disse Buch, as empresas que usam grandes modelos de linguagem para responder perguntas podem tomar medidas para “prevenir a insanidade”. Ou poderia “empregar grandes quantidades de mão de obra humana barata para encobrir as suas mentiras mais flagrantes”. Mas ele previu que, enquanto o Google e outras empresas de tecnologia usarem IA generativa para responder a consultas de pesquisa, as respostas erradas provavelmente continuarão.
ser pego em
Histórias condensadas para informação instantânea
Arvind NarayananUm professor de ciência da computação da Universidade de Princeton concordou: “É improvável que a tendência dos grandes modelos de linguagem de gerar informações incorretas seja corrigida no futuro próximo”. Mas ele disse que o Google também comete “erros inevitáveis com seus recursos de visão geral de IA, como extrair e resumir resultados de páginas da web de baixa qualidade e até mesmo do Onion”.
O Google está usando resumos de IA para abordar a conhecida tendência de fabricação dos modelos de linguagem, fazendo-os citar e resumir fontes específicas.
Mas ainda pode dar errado de várias maneiras, disse ele. melanie mitchell, professor do Instituto Santa Fé que estuda sistemas complexos. Uma delas é que o sistema nem sempre pode determinar se uma determinada fonte fornece uma resposta fiável à pergunta, talvez porque não consiga compreender o contexto. A segunda é que, mesmo que você encontre uma boa fonte, poderá entender mal o que a fonte está dizendo.
Ela diz que isso não é apenas um problema do Google. Outras ferramentas de IA, como ChatGPT e Perplexity da OpenAI, não fornecem as mesmas respostas erradas que o Google. Mas se o Google estiver certo, eles enganarão os outros. “Ainda não existe IA para fazer isso de uma forma mais confiável”, disse Mitchell.
Ainda assim, algumas partes do problema podem revelar-se mais fáceis de gerir do que outras.
Ele disse que o problema das “alucinações”, onde os modelos de linguagem inventam coisas que não estão nos dados de treinamento, permanece “não resolvido”. Nirufar Mireshgara, pós-doutorado em aprendizado de máquina na Universidade de Washington. Mas garantir que o sistema obtenha informações apenas de fontes confiáveis é mais um problema de pesquisa tradicional do que um problema de IA generativa, acrescentou ela. Este problema poderia ser parcialmente “corrigido” com a adição de um mecanismo de verificação de fatos, disse ela.
Também foi sugerido que isso pode ajudar a tornar as visões gerais da IA menos proeminentes nos resultados de pesquisa. Osama Fayyaddiretor executivo do Instituto Universitário de IA Experimental do Nordeste.
“Não sabemos se os resumos chegarão ao horário nobre, mas são boas notícias para os editores da web”, disse ele. Isso significa que os usuários ainda têm um motivo para visitar sites confiáveis em vez de confiar no Google. todos.
Mitchell disse que espera que as respostas do Google melhorem, mas não o suficiente para torná-las verdadeiramente confiáveis.
“Acredito na palavra deles de que a maioria está certa”, disse Mitchell. “Mas o sistema deles é usado por milhões de pessoas todos os dias. Portanto, haverá momentos em que isso dará terrivelmente errado e momentos em que causará algum dano.”
Narayanan disse que a “maneira mais fácil da empresa para sair dessa bagunça” pode ser pagar verificadores de fatos humanos para milhões das consultas de pesquisa mais comuns. “Essencialmente, o Google se tornará uma fazenda de conteúdo disfarçada de mecanismo de busca, lavando mão de obra humana de baixos salários com a ajuda da IA.”
O CEO do Google, Sundar Pichai, reconheceu esse problema.
Em entrevista ao The Verge na semana passada, Pichai disse que a tendência de mentir em modelos de linguagem de grande escala é, em certo sentido, uma “característica inerente”, razão pela qual é “sempre a melhor abordagem para acertar os fatos”. porque não há restrições.
Mas, ao incorporá-los nos motores de busca, disse ele, as respostas podem ser “fundamentadas” na realidade, ao mesmo tempo que direcionam os utilizadores para a fonte original. “Ainda há coisas que podem dar errado, mas não acho que vamos levar isso em consideração e, ao mesmo tempo, subestimar o quão útil isso pode ser.”
A administração Biden aprova plano para tornar o TikTok mais seguro (escrito por Drew Harwell)
Tribunal dos EUA ouvirá contestação à possível proibição do TikTok em setembro (Reuters)
Pequeno demais para a polícia, grande demais para ser ignorado: o Telegram é o aplicativo que divide a Europa (Bloomberg News)
OpenAI começa a treinar novos modelos de IA ao estabelecer um comitê de segurança (Pranshu Verma)
Ex-diretor da OpenAI diz que o conselho soube do lançamento do ChatGPT no Twitter (Bloomberg News)
Anthropic contrata ex-líder de segurança da OpenAI para liderar nova equipe (TechCrunch)
O Google não comentará sobre um possível grande vazamento de documentação do algoritmo de pesquisa (The Verge)
Pesquisadores do Google dizem que a IA é agora o principal vetor de desinformação (404 Media)
Chefes da mídia fechando acordos com chefes da mídia que lutam contra a IA (Laura Wagner e Gerrit De Vynck)
Microsoft anuncia Copilot para Telegram (The Verge)
Sindicato da Samsung planeja primeira greve enquanto negociações salariais estagnam (Bloomberg)
Apresentando um treinador de carreira de IA. Devemos acreditar neles? (Escrito por Daniel Abril)
Elon Musk está em uma briga com o cientista-chefe de IA da Meta (Gizmodo)
Por hoje é tudo — obrigado por se juntar a nós. Lembre-se de avisar outras pessoas para assinarem o Tech Brief. Entre em contato com Cristiano (e-mail ou Mídia social) e irá (e-mail ou Mídia social) Por favor, dê-nos dicas, comentários ou diga olá!

