Mantenha-se informado com atualizações gratuitas
Basta se inscrever inteligência artificial myFT Digest – entregue diretamente na sua caixa de entrada.
Depois de gastar milhares de milhões de dólares na construção dos chamados modelos linguísticos de grande escala que alimentam os seus produtos generativos de IA, as empresas de inteligência artificial procuram agora modelos linguísticos de pequena escala como uma nova forma de gerar receitas.
Apple, Microsoft, Meta e Google lançaram recentemente novos modelos de IA com menos “parâmetros” (o número de variáveis usadas para treinar um sistema de IA e moldar sua saída), mas com recursos mais poderosos.
A mudança é um esforço de grupos de tecnologia para incentivar a adoção da IA por empresas preocupadas com o custo e o poder computacional necessários para executar grandes modelos de linguagem, a tecnologia por trás de chatbots populares como o ChatGPT da OpenAI.
Em geral, quanto maior o número de parâmetros, melhor será o desempenho do software de IA e mais complexas e diferenciadas serão suas tarefas. Estima-se que o modelo mais recente GPT-4o da OpenAI anunciado esta semana e o Gemini 1.5 Pro do Google tenham mais de 100 bilhões de parâmetros, e Meta está treinando uma versão de 400 bilhões de parâmetros do modelo Llama de código aberto.
Não só alguns clientes empresariais estão a lutar para os convencer a pagar os elevados custos necessários para executar produtos de IA generativos, mas também existem preocupações de que as responsabilidades de dados e direitos de autor estejam a impedir a adoção.

É por isso que grupos de tecnologia como Meta e Google estão considerando apenas alguns bilhões de ienes como uma alternativa barata, energeticamente eficiente e personalizável que requer menos energia para treinar e funcionar, e pode até proteger dados confidenciais. um pequeno modelo de linguagem com parâmetros.
“Atingir esse nível de qualidade a um custo tão baixo permite que os clientes façam coisas em mais aplicações onde o retorno do investimento não era proibitivamente alto o suficiente para justificar realmente fazê-lo”, diz Eric Boyd. , vice-presidente corporativo da plataforma Azure AI da Microsoft, que vende modelos de IA para empresas.
Google, Meta, Microsoft e a startup francesa Mistral também lançaram modelos de linguagem menores que podem demonstrar recursos avançados e focar em aplicativos específicos.
Nick Clegg, presidente de assuntos globais da Meta, disse que o novo modelo de 8 bilhões de parâmetros do Llama 3 é comparável ao GPT-4. “Se você pensar em praticamente todas as métricas que puder imaginar, verá um desempenho excelente”, disse ele. A Microsoft disse que seu modelo Phi-3-small, com 7 bilhões de parâmetros, superou uma versão anterior do modelo OpenAI, GPT-3.5.
Modelos menores podem processar tarefas localmente no dispositivo, em vez de enviar informações para a nuvem, o que é potencialmente atraente para clientes preocupados com a privacidade que desejam garantir que as informações permaneçam em sua rede interna.
Charlotte Marshall, associada-gerente do escritório de advocacia Addleshaw Goddard, que assessora bancos, disse que este é “um dos desafios que acho que muitos de nossos clientes estão enfrentando” ao implementar produtos de IA generativos, disse que era para cumprir os requisitos regulatórios relativos a dados. processamento e transferência. Ele disse que modelos menores oferecem “uma oportunidade para as empresas superarem” preocupações legais e de custos.
Modelos menores também podem executar funções de IA em dispositivos como telefones celulares. O modelo “Gemini Nano” do Google está incluído nos mais recentes smartphones Pixel e no mais recente smartphone S24 da Samsung.
A Apple deu a entender que também está desenvolvendo um modelo de IA para rodar em seu iPhone mais vendido. No mês passado, a gigante do Vale do Silício lançou o modelo OpenELM, um modelo menor projetado para realizar tarefas baseadas em texto.
Boyd, da Microsoft, disse que modelos menores levariam a “aplicações interessantes que vão de telefones celulares a laptops”.
Sam Altman, chefe da OpenAI, disse em novembro que a startup com sede em São Francisco oferece aos clientes modelos de IA de diferentes tamanhos que “servem a propósitos diferentes” e continuará a expandir essas opções.
“Há algumas coisas para as quais os modelos menores funcionam muito bem”, acrescentou. “Eu estou realmente esperando por isso.”
Mas Altman disse que a OpenAI continuará a construir modelos de IA em grande escala com capacidades ampliadas, incluindo a capacidade de raciocinar, planear e executar tarefas e, em última análise, alcançar inteligência de nível humano.
“Muitas vezes penso que as pessoas só querem o melhor modelo”, disse ele. “Acho que é isso que as pessoas mais desejam.”
Reportagem adicional de George Hammond em São Francisco
