Dar aos sistemas de inteligência artificial (IA) um “monólogo interno” pode melhorar significativamente suas habilidades de raciocínio, descobriu um novo estudo.
Este método treina o sistema de IA para pensar antes de responder a uma solicitação, da mesma forma que muitas pessoas pensam no que dizer a seguir antes de falar. Isso é diferente de como os cientistas treinaram os principais chatbots de IA, como o ChatGPT. Os chatbots não “pensam” sobre o que você escreveu nem prevêem diferentes possíveis próximos passos na conversa.
A nova técnica, apelidada de “Quiet-STaR”, instrui um sistema de IA a gerar muitos raciocínios internos em paralelo antes de responder aos prompts de conversação. Quando a IA responde a um prompt, ela gera uma combinação dessas previsões, com e sem evidências, e produz a melhor resposta. Um participante humano pode verificá-lo dependendo da natureza da questão.
Finalmente, você aprende descartando raciocínios que se revelam incorretos. Na verdade, esse método de treinamento permite que o agente de IA preveja conversas futuras e aprenda com as conversas em andamento.
Relacionado: A singularidade da IA pode chegar mais cedo do que pensamos, em 2027, com ‘superinteligência’ artificial, diz cientista renomado
Os pesquisadores aplicaram o algoritmo Quiet-STaR ao Mistral 7B, um modelo de linguagem em larga escala (LLM) de código aberto, e postaram seus resultados em um banco de dados de pré-impressão em 14 de março. arXiv. (Este artigo ainda não foi revisado por pares.)
A versão treinada Quiet-STaR do Mistral 7B obteve 47,2% no teste de inferência, em comparação com 36,3% antes do treinamento. Mesmo assim, ele foi reprovado no teste de matemática da escola, recebendo nota de 10,9%. No entanto, isso foi quase o dobro da pontuação inicial da versão vanilla de 5,9%.
Modelos como ChatGPT e Gemini são construídos a partir de redes neurais, uma coleção de algoritmos de aprendizado de máquina organizados de forma a imitar a estrutura e os padrões de aprendizagem das redes neurais. cérebro humano. No entanto, os sistemas construídos usando esta arquitetura são péssimos no raciocínio de bom senso e na consciência do contexto, e os chatbots de IA não têm “compreensão” verdadeira.
Tentativas anteriores de melhorar as capacidades de inferência dos LLMs foram altamente específicas de domínio e não aplicáveis a diferentes tipos de modelos de IA.
O algoritmo de raciocínio autodidata (STaR) que os pesquisadores usaram como base para seu estudo é um exemplo desse algoritmo de treinamento, mas é prejudicado por essas limitações.
Os cientistas que desenvolveram o Quiet-STaR deram-lhe esse nome porque os princípios do STaR podem ser aplicados a vários tipos diferentes de LLMs, silenciosamente em segundo plano e geralmente independentes dos dados de treinamento originais. Eles agora querem investigar como técnicas como a deles podem reduzir a lacuna entre os sistemas de IA baseados em redes neurais e as habilidades de raciocínio semelhantes às humanas.

