Esta semana, a Amazon concluiu a segunda fase de um acordo anunciado em setembro passado, prometendo investir até US$ 4 bilhões na rival OpenAI, Anthropic. O investimento adicional de US$ 2,75 bilhões é o maior investimento que a Amazon já fez em outra empresa e é outro sinal de quão importante se tornou o desenvolvimento de modelos de linguagem em escala para a Big Tech.
A lógica é simples. A Amazon precisa oferecer um modelo por meio da AWS que concorra com a oferta baseada em OpenAI da rival em nuvem Microsoft, e a Anthropic é a melhor alternativa disponível. Se pudéssemos voltar no tempo para uma época em que a Big Tech pudesse fazer grandes aquisições sem ser impedida pelos reguladores, a Amazon teria, sem dúvida, tentado adquirir a Anthropic de uma vez. Em vez disso, a empresa investe passivamente milhares de milhões de dólares e comunica uma participação minoritária sem assentos no conselho. Enquanto isso, convenientemente para a Amazon, a Anthropic concordou em gastar US$ 4 bilhões na AWS nos próximos anos.
Existem paralelos claros aqui com o financiamento da Microsoft para as crescentes necessidades de computação da OpenAI. Mas a relação entre a Amazon e a Antrópica não é tão aconchegante quanto parece superficialmente. Na verdade, outra divisão da Amazon está tentando competir diretamente com o modelo da Antrópico. Aprendi que a equipe AGI da Amazon é liderada pelo vice-presidente sênior. Rohit Prasadtem um objetivo agressivo de superar o último modelo Claude da Anthropic até meados deste ano. O próximo modelo principal, com o codinome interno “Olympus”, está atualmente sendo treinado e é extremamente grande, com centenas de bilhões de parâmetros.

