
Créditos da imagem: Imagens Hapa Bapa / Getty
A IA generativa projetada para empresas (por exemplo, IA que preenche automaticamente fórmulas em relatórios e planilhas) algum dia se tornará interoperável? O apoio aos esforços crescentes de código aberto com organizações relacionadas como Cloudera e Intel E a Linux Foundation, a organização sem fins lucrativos que a mantém, pretende descobrir? .
A Linux Foundation anunciou na terça-feira o lançamento da Open Platform for Enterprise AI (OPEA). Este é um projeto que promove o desenvolvimento de sistemas de IA generativos abertos, multi-provedores, configuráveis (ou seja, modulares). Sob a organização LFAI and Data da Linux Foundation, que se concentra em iniciativas de IA e plataformas relacionadas a dados, o objetivo da OPEA é preparar o caminho para o lançamento de sistemas de IA generativos “aprimorados” e “escaláveis”. É a melhor inovação de código aberto de todo o ecossistema”, disse Ibrahim Haddad, diretor executivo da LFAI and Data, em comunicado à imprensa.
“A OPEA irá desbloquear novas possibilidades para a IA, criando uma estrutura detalhada e configurável na vanguarda da pilha de tecnologia”, disse Haddad. “Este trabalho é uma prova da nossa missão de promover a inovação e a colaboração de código aberto dentro da comunidade de IA e de dados sob um modelo de governança neutro e aberto.”
Além de Cloudera e Intel, OPEA, um dos projetos sandbox da Linux Foundation e um programa de incubadora, inclui empresas como Intel, Red Hat, de propriedade da IBM, Hugging Face, Domino Data Lab, MariaDB e VMWare. .
Então, o que exatamente eles podem construir juntos? Haddad pede suporte “otimizado” para conjuntos de ferramentas e compiladores de IA que permitem que cargas de trabalho de IA sejam executadas em diferentes componentes de hardware e um pipeline “heterogêneo” para geração de aumento de pesquisa (RAG).
Os RAGs estão se tornando cada vez mais populares em aplicações empresariais de IA generativa e não é difícil perceber porquê. As respostas e ações da maioria dos modelos de IA generativos são limitadas aos dados usados para treiná-los. No entanto, os RAGs permitem estender a base de conhecimento do seu modelo para informações além dos dados de treinamento originais. O modelo RAG faz referência a essas informações externas (que podem assumir a forma de dados proprietários da empresa, bancos de dados públicos ou uma combinação dos dois) antes de gerar uma resposta ou executar uma tarefa.

Um diagrama explicando o modelo RAG.
A Intel forneceu mais alguns detalhes em seu próprio comunicado à imprensa.
As empresas estão adotando uma abordagem do tipo “faça você mesmo” [to RAG] Isso ocorre porque não existe um padrão de fato entre componentes que permita às empresas selecionar e implantar soluções RAG que sejam abertas, interoperáveis e que as ajudem a chegar rapidamente ao mercado. A OPEA planeja abordar essas questões trabalhando com a indústria para padronizar componentes como estruturas, projetos arquitetônicos e soluções de referência.
A avaliação também será uma parte importante dos esforços da OPEA.
Em seu repositório GitHub, a OPEA propõe uma rubrica para avaliar sistemas generativos de IA em quatro eixos: desempenho, funcionalidade, confiabilidade e prontidão de “nível empresarial”. desempenho Conforme definido pela OPEA, isso envolve benchmarking de “caixa preta” a partir de casos de uso do mundo real. Características Ele avalia a interoperabilidade, as opções de implantação e a facilidade de uso de um sistema. A confiabilidade concentra-se na “robustez” e na capacidade de um modelo de IA para garantir sua qualidade.e Pronto para a empresa Ele se concentra nos requisitos para colocar o sistema em funcionamento sem maiores problemas.
Rachel Roumeliotis, diretora de estratégia de código aberto da Intel, disse que a OPEA trabalha com a comunidade de código aberto não apenas para fornecer testes baseados em rubricas, mas também para avaliar e classificar implantações de IA generativa mediante solicitação.
As outras iniciativas da OPEA ainda estão indecisas neste momento. No entanto, Haddad sugeriu a possibilidade de desenvolvimento de modelo aberto nos moldes da família Llama em expansão da Meta e do DBRX da Databricks. Para esse fim, a Intel já fornece implementações de referência de chatbots generativos alimentados por IA, resumidores de documentos e geradores de código otimizados para hardware Xeon 6 e Gaudi 2 no repositório OPEA.
Atualmente, os membros da OPEA estão claramente investidos (e egoístas, aliás) na construção de ferramentas para IA gerada por empresas. A Cloudera lançou recentemente uma parceria para construir o que chama de “ecossistema de IA” na nuvem. A Domino fornece um conjunto de aplicativos para criar e auditar IA generativa para o seu negócio. E a VMWare, que se inclina para o lado da infraestrutura da IA corporativa, anunciou um novo produto de computação de “IA privada” em agosto passado.
A questão é se esses fornecedores farão isso. na verdade Colaborar para construir ferramentas de IA mutuamente compatíveis no âmbito da OPEA.
Há vantagens claras em fazer isso. Os clientes estão dispostos a usar vários fornecedores, dependendo de suas necessidades, recursos e orçamento. Mas, como a história mostra, é muito fácil cair no aprisionamento do fornecedor. Espero que esse não seja o resultado final.

