Posts Recentes:

Mulheres na IA: Catherine Breslin ajuda empresas a desenvolver estratégias de IA

Para dar às mulheres acadêmicas e outras pessoas...

Jack Dorsey diz que não está mais no conselho da Bluesky

Parece que o patrocinador mais proeminente da Bluesky...

Por que a NASA está apostando em uma câmera de 36 pixels

O Telescópio Espacial James Webb da NASA está...

Snowflake lança seu próprio modelo generativo de IA


Modelos de IA generativos versáteis e altamente generalizáveis ​​já foram o nome do jogo, e provavelmente ainda são. Mas cada vez mais, à medida que grandes e pequenos fornecedores de nuvem se juntam à briga da IA ​​generativa, vemos uma nova safra de modelos focados nos clientes potenciais com mais recursos: as empresas.

Caso em questão: Floco de neve, a empresa de computação em nuvem, revelou hoje o Arctic LLM, um modelo generativo de IA descrito como “de nível empresarial”. Disponível sob uma licença Apache 2.0, o Arctic LLM é otimizado para “cargas de trabalho corporativas”, incluindo a geração de código de banco de dados, diz Snowflake, e é gratuito para pesquisa e uso comercial.

“Acho que esta será a base que permitirá que nós – Snowflake – e nossos clientes construam produtos de nível empresarial e realmente comecem a perceber a promessa e o valor da IA”, disse o CEO Sridhar Ramaswamy em coletiva de imprensa. “Você deve pensar nisso como nosso primeiro, mas grande, passo no mundo da IA ​​generativa, com muito mais por vir.”

Um modelo empresarial

Meu colega Devin Coldewey escreveu recentemente sobre como não há fim à vista para o ataque de modelos generativos de IA. Eu recomendo você leia seu artigomas a essência é: os modelos são uma maneira fácil para os fornecedores despertarem entusiasmo para sua P&D e também servem como um funil para seus ecossistemas de produtos (por exemplo, hospedagem de modelos, ajuste fino e assim por diante).

O LLM do Ártico não é diferente. O modelo principal da Snowflake em um família de modelos generativos de IA chamada ÁrticoArctic LLM – que levou cerca de três meses, 1.000 GPUs e US$ 2 milhões para treinar – chega logo após o Databricks' DBRXum modelo generativo de IA também comercializado como otimizado para o espaço empresarial.

Snowflake faz uma comparação direta entre Arctic LLM e DBRX em seus materiais de imprensa, dizendo que Arctic LLM supera DBRX nas duas tarefas de codificação (Snowflake não especificou quais linguagens de programação) e SQL geração. A empresa disse que o Arctic LLM também é melhor nessas tarefas do que o Llama 2 70B da Meta (mas não o mais recente Lhama 3 70B) e Mixtral-8x7B da Mistral.

Snowflake também afirma que o Arctic LLM alcança “desempenho líder” em um benchmark popular de compreensão geral de linguagem, MMLU. Devo observar, porém, que embora MMLU pretende avaliar a capacidade dos modelos generativos de raciocinar através de problemas lógicos, inclui testes que podem ser resolvido através da memorização mecânicaentão considere esse marcador com cautela.

“O Arctic LLM atende a necessidades específicas do setor empresarial”, disse Baris Gultekin, chefe de IA da Snowflake, ao TechCrunch em uma entrevista, “divergindo de aplicações genéricas de IA, como a composição de poesia, para se concentrar em desafios orientados para a empresa, como o desenvolvimento de SQL co- pilotos e chatbots de alta qualidade.”

O Arctic LLM, como o DBRX e o modelo generativo de melhor desempenho do momento do Google, Gemini 1.5 Pro, é uma mistura de arquitetura de especialistas (MoE). As arquiteturas do MoE basicamente dividem as tarefas de processamento de dados em subtarefas e depois as delegam a modelos “especializados” menores e especializados. Assim, embora o Arctic LLM contenha 480 mil milhões de parâmetros, apenas ativa 17 mil milhões de cada vez – o suficiente para impulsionar os 128 modelos especializados separados. (Os parâmetros definem essencialmente a habilidade de um modelo de IA em um problema, como analisar e gerar texto.)

Snowflake afirma que esse design eficiente permitiu treinar o Arctic LLM em conjuntos de dados públicos abertos da web (incluindo RefinadoWeb, C4, Pijama Vermelho e StarCoder) por “cerca de um oitavo do custo de modelos semelhantes”.

Correndo por toda parte

Snowflake está fornecendo recursos como modelos de codificação e uma lista de fontes de treinamento junto com o Arctic LLM para orientar os usuários durante o processo de instalação e execução do modelo e ajuste-o para casos de uso específicos. Mas, reconhecendo que esses provavelmente serão empreendimentos caros e complexos para a maioria dos desenvolvedores (o ajuste fino ou a execução do Arctic LLM requer cerca de oito GPUs), a Snowflake também se compromete a disponibilizar o Arctic LLM em uma variedade de hosts, incluindo Hugging Face, Microsoft Azure , Serviço de hospedagem de modelo da Together AI e plataforma de IA generativa empresarial Lamini.

Mas aqui está o problema: o Arctic LLM estará disponível primeiro no Cortex, a plataforma da Snowflake para a criação de aplicativos e serviços baseados em IA e aprendizado de máquina. Não é de surpreender que a empresa o apresente como a forma preferida de administrar o Arctic LLM com “segurança”, “governança” e escalabilidade.

Nosso sonho aqui é, dentro de um ano, ter uma API que nossos clientes possam usar para que os usuários empresariais possam se comunicar diretamente com os dados”, disse Ramaswamy. “Teria Foi fácil para nós dizer: 'Ah, vamos apenas esperar por algum modelo de código aberto e vamos usá-lo. Em vez disso, estamos fazendo um investimento fundamental porque pensamos [it’s] vamos desbloquear mais valor para nossos clientes.”

Então, fico me perguntando: para quem o Arctic LLM realmente se destina, além dos clientes Snowflake?

Numa paisagem repleta de “abrirCom modelos generativos que podem ser ajustados para praticamente qualquer finalidade, o Arctic LLM não se destaca de maneira óbvia. Sua arquitetura pode trazer ganhos de eficiência em relação a algumas das outras opções disponíveis. Mas não estou convencido de que sejam dramáticos o suficiente para afastar as empresas dos inúmeros outros modelos generativos bem conhecidos, apoiados e favoráveis ​​aos negócios (por exemplo, GPT-4).

Há também um ponto de desfavor do Arctic LLM a considerar: seu contexto relativamente pequeno.

Na IA generativa, a janela de contexto refere-se aos dados de entrada (por exemplo, texto) que um modelo considera antes de gerar a saída (por exemplo, mais texto). Modelos com janelas de contexto pequenas tendem a esquecer o conteúdo até mesmo de conversas muito recentes, enquanto modelos com contextos maiores normalmente evitam essa armadilha.

O contexto do Arctic LLM está entre ~8.000 e ~24.000 palavras, dependendo do método de ajuste fino – muito abaixo de modelos como Claude 3 Opus da Anthropic e Gemini 1.5 Pro do Google.

Snowflake não menciona isso no marketing, mas o Arctic LLM quase certamente sofre das mesmas limitações e deficiências de outros modelos generativos de IA – a saber, alucinações (ou seja, responder incorretamente às solicitações com segurança). Isso ocorre porque o Arctic LLM, juntamente com todos os outros modelos generativos de IA existentes, é uma máquina de probabilidade estatística – que, novamente, possui uma pequena janela de contexto. Ele adivinha, com base em uma grande quantidade de exemplos, quais dados fazem mais “sentido” para colocar onde (por exemplo, a palavra “ir” antes de “o mercado” na frase “Eu vou ao mercado”). Inevitavelmente, ele adivinhará errado – e isso é uma “alucinação”.

Como Devin escreve em seu artigo, até o próximo grande avanço técnico, melhorias incrementais são tudo o que temos que esperar no domínio da IA ​​generativa. Isso não impedirá que fornecedores como a Snowflake os defendam como grandes conquistas e os comercializem com todo o seu valor.

Últimas

Mulheres na IA: Catherine Breslin ajuda empresas a desenvolver estratégias de IA

Para dar às mulheres acadêmicas e outras pessoas...

Jack Dorsey diz que não está mais no conselho da Bluesky

Parece que o patrocinador mais proeminente da Bluesky...

Por que a NASA está apostando em uma câmera de 36 pixels

O Telescópio Espacial James Webb da NASA está...

Nuvens alternativas estão crescendo à medida que as empresas buscam acesso mais barato às GPUs

O apetite por nuvens alternativas nunca foi tão...

Assine

spot_img

Veja Também

Mulheres na IA: Catherine Breslin ajuda empresas a desenvolver estratégias de IA

Para dar às mulheres acadêmicas e outras pessoas...

Jack Dorsey diz que não está mais no conselho da Bluesky

Parece que o patrocinador mais proeminente da Bluesky...

Por que a NASA está apostando em uma câmera de 36 pixels

O Telescópio Espacial James Webb da NASA está...

Nuvens alternativas estão crescendo à medida que as empresas buscam acesso mais barato às GPUs

O apetite por nuvens alternativas nunca foi tão...

SoundCloud assume o recurso Discover Weekly do Spotify com novas ‘Buzzing Playlists’

SoundCloud lançou um novo conjunto de playlists sob...
spot_img

Mulheres na IA: Catherine Breslin ajuda empresas a desenvolver estratégias de IA

Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido - e devido - tempo de destaque, o TechCrunch publicou...

Jack Dorsey diz que não está mais no conselho da Bluesky

Parece que o patrocinador mais proeminente da Bluesky não está mais no conselho. No sábado, Jack Dorsey postou no X sobre subsídios para protocolos...

Por que a NASA está apostando em uma câmera de 36 pixels

O Telescópio Espacial James Webb da NASA está fazendo progressos na astronomia com suas fotos principalmente infravermelhas de 122 megapixels tiradas a 1,5...