No papel, o Rabbit R1 parece uma computação de próxima geração. Em uma apresentação na CES em janeiro, Lyu imaginou um futuro onde não será mais necessário usar um aplicativo porque a IA o utiliza. Ele demonstrou o que Rabbit chama de “Modelo de Grande Ação” (LAM). LAM aprende como interagir com aplicativos da mesma forma que grandes modelos de linguagem (LLMs) como ChatGPT aprendem inglês. Ele demonstrou como os usuários podem “ensinar” o modelo a navegar na interface e transformar palavras em ações. Por exemplo, ele mostrou como a LAM usa o criador de imagens Midjourney AI. Se não usar isso, você terá que abrir o Discord, ir para o servidor Midjourney e digitar o prompt.
Claro, o R1 também promete ser multimodal, o que significa que pode lidar não apenas com áudio e texto, mas também com fotos, vídeos e outras mídias. Apontando o R1 para a tela de um computador, Lyu demonstrou como o aparelho fornece informações contextuais e como pode ser usado para catalogar os itens na geladeira. Estas são capacidades já disponíveis em outras IAs, mas em combinação com o LAM, o Rabbit parecia ter realmente inovado em algo novo.
Tudo isso era ótimo em teoria, mas até que as pessoas pudessem realmente colocar as mãos no Rabbit R1, era tudo vaporware. Como o público reage quando o pé do coelho atinge o chão é outra história, e essa história começou com um evento de lançamento bastante bizarro na cidade de Nova York.

