O foco está nos modelos de linguagem de grande escala (LLMs), pois os especialistas sugerem que eles estão se aproximando dos seus limites técnicos. Geração de extensão de pesquisa (RAG) — Um avanço promissor que poderia redefinir a inteligência artificial (IA) ao fundir a recuperação de informações com a geração de linguagem natural.
LLM abriu caminho em tecnologia de IA para melhorar uma variedade de aplicações. No entanto, a tendência que produzem é informação falsa Limitámos o seu potencial. O RAG permite que a IA acesse e incorpore determinados dados externos na resposta, tornando-a mais eficaz e precisa.
“A principal vantagem dos RAGs sobre os LLMs é o fato de que os RAGs são inteiramente baseados em conjuntos de dados proprietários que estão sob o controle do proprietário do RAG, permitindo aplicações mais direcionadas.” Renat AbyasovCEO de uma empresa de IA slide maravilhoso ele disse ao PYMNTS. “Suponha que um médico queira implementar um chatbot para seus pacientes, permitindo-lhes garantir que o aconselhamento fornecido pelo chatbot seja confiável e consistente. Essa confiança é muito mais difícil de alcançar com o LLM, que é um sistema treinado em grandes quantidades. de dados publicamente disponíveis e, por vezes, altamente questionáveis.
Dos tapetes à riqueza?
O modelo RAG é uma IA de ponta que combina compreensão de linguagem e recuperação de informações em tempo real. Isso nos permite fornecer respostas mais precisas e atualizadas, acessando os dados relevantes mais recentes de fontes externas. O modelo RAG destaca-se em campos dinâmicos como notícias, investigação e apoio ao cliente, e a sua capacidade de incorporar as informações mais recentes torna-o altamente adaptável e valioso em situações em que é necessário manter-se atualizado.
Em algumas situações, o RAG pode superar o LLM. Tonic.ai, uma empresa conhecida por sua plataforma proprietária de benchmarking Tonic Validate, recentemente série de avaliações No sistema RAG. Um desses testes focou no CustomGPT.ai, uma ferramenta sem código que permite às empresas implantar soluções estilo ChatGPT junto com seus bancos de dados RAG.
Para avaliar o desempenho do CustomGPT.ai, Tonic.ai comparou-o com as funções RAG integradas do OpenAI. O conjunto de dados de avaliação consistia em centenas de ensaios escritos por Paul Graham e um conjunto de 55 questões de referência com respostas verdadeiras derivadas do texto. O objetivo principal era avaliar a capacidade da plataforma de gerar respostas precisas e específicas ao contexto.
Os testes revelaram que as ferramentas CustomGPT.ai e OpenAI foram capazes de gerar respostas de alta qualidade. No entanto, CustomGPT.ai supera seus concorrentes ao fornecer consistentemente respostas mais precisas a consultas complexas. Este resultado destaca a eficácia da abordagem simplificada do CustomGPT.ai para implantar chatbots generativos de IA, tornando o CustomGPT.ai uma excelente escolha para empresas que buscam implantar tais soluções sem amplo conhecimento de programação.
O uso de RAGs também pode trazer benefícios no mundo real. Um relatório recente de pesquisadores e colaboradores da Universidade de Stanford descobriu que Jornal NEJM AIsugerem que o RAG pode melhorar significativamente o desempenho do LLM na resposta a questões médicas.
Este estudo descobriu que as versões aprimoradas do GPT-4 e outros programas com RAG tiveram melhor desempenho do que o LLM padrão ao responder a perguntas escritas por médicos certificados. Os autores acreditam que os RAGs são essenciais para o uso seguro da IA gerada em ambientes clínicos.
Mesmo LLMs com foco médico, como o MedPaLM do Google DeepMind, ainda sofrem de alucinações e podem não ser capazes de lidar com tarefas clinicamente relevantes com precisão.
Em notícias relacionadas, MedPerf é uma nova iniciativa que visa acelerar o desenvolvimento da IA médica e, ao mesmo tempo, proteger a privacidade dos dados. Isto realça a necessidade crescente de métodos de integração de dados seguros e fiáveis, como o RAG, para garantir a precisão e a relevância das respostas geradas pela IA nos cuidados de saúde.
Benefícios do RAG
Andrew Gamino ChongDiretor de Tecnologia (CTO) confiáveldisse ao PYMNTS que muitos LLMs são treinados com base em informações bastante gerais que podem ser facilmente obtidas na Internet. Ele enfatizou que o RAG é uma forma poderosa e econômica de aprimorar os LLMs. Ao integrar informações confidenciais e atualizadas, o RAG permite que os LLMs forneçam respostas mais precisas e relevantes. Esta abordagem permite que as empresas aproveitem todo o potencial do LLM, mantendo ao mesmo tempo a segurança e a especificidade dos seus dados proprietários.
“Muitos casos de uso de LLM são limitados por dados potencialmente desatualizados, e o padrão RAG é a maneira mais eficaz de manter um LLM atualizado sem gastar milhões de dólares em reciclagem completa”, acrescentou. “Um dos segredos é que muitos provedores de LLM desejam que seus usuários adicionem pipelines RAG ou ajustem completamente o modelo básico porque ele muda.”
Abyasov explicou que os modelos RAG são mais frequentemente usados para criar programas de assistência técnica autônomos e interfaces de IA conversacionais.
“Os RAGs têm sido usados para esta aplicação há muitos anos, mesmo antes do LLM ganhar a atenção do público”, acrescentou. “No geral, praticamente todas as aplicações que exigem conjuntos de dados rigorosamente controlados favorecem o uso de RAGs. alguns Os resultados foram surpreendentes e, em geral, mais consistentes. ”
Para toda a nossa cobertura de PYMNTS AI, assine nossa assinatura diária Boletim informativo sobre IA.

