Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » Intel e outros estão trabalhando para construir ferramentas abertas de IA generativa para empresas
Ai

Intel e outros estão trabalhando para construir ferramentas abertas de IA generativa para empresas

FranciscoBy FranciscoApril 16, 2024No Comments5 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


Créditos da imagem: Imagens Hapa Bapa / Getty

A IA generativa projetada para empresas (por exemplo, IA que preenche automaticamente fórmulas em relatórios e planilhas) algum dia se tornará interoperável? O apoio aos esforços crescentes de código aberto com organizações relacionadas como Cloudera e Intel E a Linux Foundation, a organização sem fins lucrativos que a mantém, pretende descobrir? .

A Linux Foundation anunciou na terça-feira o lançamento da Open Platform for Enterprise AI (OPEA). Este é um projeto que promove o desenvolvimento de sistemas de IA generativos abertos, multi-provedores, configuráveis ​​(ou seja, modulares). Sob a organização LFAI and Data da Linux Foundation, que se concentra em iniciativas de IA e plataformas relacionadas a dados, o objetivo da OPEA é preparar o caminho para o lançamento de sistemas de IA generativos “aprimorados” e “escaláveis”. É a melhor inovação de código aberto de todo o ecossistema”, disse Ibrahim Haddad, diretor executivo da LFAI and Data, em comunicado à imprensa.

“A OPEA irá desbloquear novas possibilidades para a IA, criando uma estrutura detalhada e configurável na vanguarda da pilha de tecnologia”, disse Haddad. “Este trabalho é uma prova da nossa missão de promover a inovação e a colaboração de código aberto dentro da comunidade de IA e de dados sob um modelo de governança neutro e aberto.”

Além de Cloudera e Intel, OPEA, um dos projetos sandbox da Linux Foundation e um programa de incubadora, inclui empresas como Intel, Red Hat, de propriedade da IBM, Hugging Face, Domino Data Lab, MariaDB e VMWare. .

Então, o que exatamente eles podem construir juntos? Haddad pede suporte “otimizado” para conjuntos de ferramentas e compiladores de IA que permitem que cargas de trabalho de IA sejam executadas em diferentes componentes de hardware e um pipeline “heterogêneo” para geração de aumento de pesquisa (RAG).

Os RAGs estão se tornando cada vez mais populares em aplicações empresariais de IA generativa e não é difícil perceber porquê. As respostas e ações da maioria dos modelos de IA generativos são limitadas aos dados usados ​​para treiná-los. No entanto, os RAGs permitem estender a base de conhecimento do seu modelo para informações além dos dados de treinamento originais. O modelo RAG faz referência a essas informações externas (que podem assumir a forma de dados proprietários da empresa, bancos de dados públicos ou uma combinação dos dois) antes de gerar uma resposta ou executar uma tarefa.

tapete

Um diagrama explicando o modelo RAG.

A Intel forneceu mais alguns detalhes em seu próprio comunicado à imprensa.

As empresas estão adotando uma abordagem do tipo “faça você mesmo” [to RAG] Isso ocorre porque não existe um padrão de fato entre componentes que permita às empresas selecionar e implantar soluções RAG que sejam abertas, interoperáveis ​​e que as ajudem a chegar rapidamente ao mercado. A OPEA planeja abordar essas questões trabalhando com a indústria para padronizar componentes como estruturas, projetos arquitetônicos e soluções de referência.

A avaliação também será uma parte importante dos esforços da OPEA.

Em seu repositório GitHub, a OPEA propõe uma rubrica para avaliar sistemas generativos de IA em quatro eixos: desempenho, funcionalidade, confiabilidade e prontidão de “nível empresarial”. desempenho Conforme definido pela OPEA, isso envolve benchmarking de “caixa preta” a partir de casos de uso do mundo real. Características Ele avalia a interoperabilidade, as opções de implantação e a facilidade de uso de um sistema. A confiabilidade concentra-se na “robustez” e na capacidade de um modelo de IA para garantir sua qualidade.e Pronto para a empresa Ele se concentra nos requisitos para colocar o sistema em funcionamento sem maiores problemas.

Rachel Roumeliotis, diretora de estratégia de código aberto da Intel, disse que a OPEA trabalha com a comunidade de código aberto não apenas para fornecer testes baseados em rubricas, mas também para avaliar e classificar implantações de IA generativa mediante solicitação.

As outras iniciativas da OPEA ainda estão indecisas neste momento. No entanto, Haddad sugeriu a possibilidade de desenvolvimento de modelo aberto nos moldes da família Llama em expansão da Meta e do DBRX da Databricks. Para esse fim, a Intel já fornece implementações de referência de chatbots generativos alimentados por IA, resumidores de documentos e geradores de código otimizados para hardware Xeon 6 e Gaudi 2 no repositório OPEA.

Atualmente, os membros da OPEA estão claramente investidos (e egoístas, aliás) na construção de ferramentas para IA gerada por empresas. A Cloudera lançou recentemente uma parceria para construir o que chama de “ecossistema de IA” na nuvem. A Domino fornece um conjunto de aplicativos para criar e auditar IA generativa para o seu negócio. E a VMWare, que se inclina para o lado da infraestrutura da IA ​​corporativa, anunciou um novo produto de computação de “IA privada” em agosto passado.

A questão é se esses fornecedores farão isso. na verdade Colaborar para construir ferramentas de IA mutuamente compatíveis no âmbito da OPEA.

Há vantagens claras em fazer isso. Os clientes estão dispostos a usar vários fornecedores, dependendo de suas necessidades, recursos e orçamento. Mas, como a história mostra, é muito fácil cair no aprisionamento do fornecedor. Espero que esse não seja o resultado final.





Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.