SambaNova, uma startup de chips de IA que arrecadou mais de US$ 1,1 bilhão em dinheiro de capital de risco até o momento, está apostando na OpenAI – e em rivais – com um novo produto de IA generativo voltado para clientes corporativos.
SambaNova anunciou hoje o Samba-1, um sistema alimentado por IA projetado para tarefas como reescrita de texto, codificação, tradução de idiomas e muito mais. A empresa chama a arquitetura de “composição de especialistas” – um jargão para um conjunto de modelos generativos de IA de código aberto, 56 no total.
Rodrigo Liang, cofundador e CEO da SambaNova, diz que o Samba-1 permite que as empresas ajustem e abordem vários casos de uso de IA, evitando os desafios da implementação de sistemas de IA ad hoc.
“O Samba-1 é totalmente modular, permitindo que as empresas adicionem novos modelos de forma assíncrona… sem eliminar o investimento anterior”, disse Liang ao TechCrunch em entrevista. “Da mesma forma, eles são iterativos, extensíveis e fáceis de atualizar, dando aos nossos clientes espaço para se ajustarem à medida que novos modelos são integrados.”
Liang é um bom vendedor e o que ele diz sons promissor. Mas é o Samba-1 realmente superior a muitos, muitos outros sistemas de IA para tarefas de negócios que existem, menos de quais modelos da OpenAI?
Depende do caso de uso.
A principal vantagem aparente do Samba-1 é que, por ser uma coleção de modelos treinados de forma independente, em vez de um único modelo grande, os clientes têm controle sobre como os prompts e solicitações são roteados. Uma solicitação feita a um modelo grande como o GPT-4 viaja em uma direção – através do GPT-4. Mas uma solicitação feita ao Samba-1 percorre um dos 56 instruções (para um dos 56 modelos que compõem o Samba-1), dependendo das regras e políticas especificadas pelo cliente.
Esta estratégia multimodelo também reduz o custo do ajuste fino dos dados de um cliente, afirma Liang, porque os clientes só precisam se preocupar com o ajuste fino de modelos individuais ou pequenos grupos, em vez de um modelo massivo. E — em teoria — poderia resultar em resultados mais fiáveis (por exemplo, menos alucinação(orientadas) aos prompts, diz ele, porque as respostas de um modelo podem ser comparadas com as respostas dos outros – embora ao custo de computação adicional.
“Com esta… arquitetura, você não precisa dividir tarefas maiores em tarefas menores e assim você pode treinar muitos modelos menores”, disse Liang, acrescentando que o Samba-1 pode ser implantado no local ou em um ambiente hospedado, dependendo de um necessidades do cliente. “Com um grande modelo, sua computação por [request] é maior, então o custo do treinamento é maior. [Samba-1’s] a arquitetura reduz o custo do treinamento.”
Eu diria que muitos fornecedores, incluindo OpenAI, oferecem preços atraentes para o ajuste fino de grandes modelos generativos, e que várias startups, marciano e Credalfornecem ferramentas para encaminhar prompts entre modelos de terceiros com base em regras programadas manualmente ou automatizadas.
Mas o que a SambaNova vende não é novidade em si. Em vez disso, é um pacote do tipo “configure e esqueça” – uma solução full-stack com tudo incluído, incluindo Chips de IA, para construir aplicativos de IA. E para algumas empresas, isso pode ser mais atraente do que qualquer outra coisa que esteja sobre a mesa.
“O Samba-1 oferece a cada empresa seu próprio modelo GPT personalizado, 'privatizado' em seus dados e personalizado para as necessidades de sua organização”, disse Liang. “Os modelos são treinados nos dados privados dos nossos clientes, hospedados em um único [server] rack, com um décimo do custo de soluções alternativas.”