Posts Recentes:

Ampere se une à Qualcomm para lançar um servidor de IA baseado em Arm

Ampere e Qualcomm não são os parceiros mais...

Reddit reintroduz seu sistema de prêmios

Reddit anunciado na quarta-feira que está reintroduzindo seu...

Dropbox e CEOs da Figma apoiam Lamini, uma startup que está construindo uma plataforma generativa de IA para empresas


Lamini, uma startup sediada em Palo Alto que está construindo uma plataforma para ajudar as empresas a implantar tecnologia generativa de IA, levantou US$ 25 milhões de investidores, incluindo o professor de ciência da computação de Stanford, Andrew Ng.

Laminicofundada há vários anos por Sharon Zhou e Greg Diamos, tem um discurso de vendas interessante.

Muitas plataformas generativas de IA são de uso muito geral, argumentam Zhou e Diamos, e não possuem soluções e infraestruturas voltadas para atender às necessidades das corporações. Por outro lado, o Lamini foi construído do zero pensando nas empresas e está focado em fornecer alta precisão e escalabilidade de IA generativa.

“A principal prioridade de quase todos os CEO, CIO e CTO é aproveitar as vantagens da IA ​​generativa em suas organizações com ROI máximo”, disse Zhou, CEO da Lamini, ao TechCrunch. “Mas embora seja fácil obter uma demonstração funcional em um laptop para um desenvolvedor individual, o caminho para a produção está repleto de falhas a torto e a direito.”

Na opinião de Zhou, muitas empresas expressaram frustração com os obstáculos para abraçar de forma significativa a IA generativa em todas as suas funções de negócios.

De acordo com uma março enquete do MIT Insights, apenas 9% das organizações adotaram amplamente a IA generativa, apesar de 75% já terem feito experiências com ela. Os principais obstáculos vão desde a falta de infraestruturas e capacidades de TI até estruturas de governação deficientes, competências insuficientes e elevados custos de implementação. A segurança também é um fator importante – em um estudo recente enquete pela Insight Enterprises, 38% das empresas disseram que a segurança estava impactando sua capacidade de aproveitar a tecnologia generativa de IA.

Então, qual é a resposta de Lamini?

Zhou diz que “cada peça” da pilha de tecnologia da Lamini foi otimizada para cargas de trabalho generativas de IA em escala empresarial, do hardware ao software, incluindo os mecanismos usados ​​para apoiar a orquestração de modelos, ajuste fino, execução e treinamento. “Otimizado” é uma palavra vaga, é verdade, mas Lamini é pioneiro em uma etapa que Zhou chama de “ajuste de memória”, que é uma técnica para treinar um modelo em dados de forma que ele recupere exatamente partes desses dados.

O ajuste de memória pode reduzir potencialmente alucinaçõesafirma Zhou, ou casos em que um modelo inventa fatos em resposta a uma solicitação.

“O ajuste de memória é um paradigma de treinamento – tão eficiente quanto o ajuste fino, mas vai além dele – para treinar um modelo em dados proprietários que inclua fatos, números e números importantes para que o modelo tenha alta precisão”, Nina Wei, designer de IA em Lamini, me contou por e-mail, “e pode memorizar e lembrar a correspondência exata de qualquer informação importante, em vez de generalizar ou ter alucinações”.

Não tenho certeza se acredito nisso. “Ajuste de memória” parece ser mais um termo de marketing do que acadêmico; não há nenhum artigo de pesquisa sobre isso – nenhum que eu tenha conseguido encontrar, pelo menos. Deixarei que Lamini mostre evidências de que seu “ajuste de memória” é melhor do que outras técnicas de redução de alucinações que estão sendo/foram tentadas.

Felizmente para Lamini, o ajuste de memória não é seu único diferencial.

Zhou diz que a plataforma pode operar em ambientes altamente seguros, incluindo ambientes isolados. Lamini permite que as empresas executem, ajustem e treinem modelos em diversas configurações, desde data centers locais até nuvens públicas e privadas. E dimensiona as cargas de trabalho “elasticamente”, alcançando mais de 1.000 GPUs se o aplicativo ou caso de uso exigir, diz Zhou.

“Atualmente, os incentivos estão desalinhados no mercado com modelos de código fechado”, disse Zhou. “Visamos colocar o controle de volta nas mãos de mais pessoas, não apenas de algumas, começando pelas empresas que mais se preocupam com o controle e que têm mais a perder com seus dados proprietários pertencentes a terceiros.”

Os cofundadores de Lamini são, pelo que vale a pena, bastante talentosos no espaço de IA. Eles também esbarraram separadamente em Ng, o que sem dúvida explica seu investimento.

Zhou foi professora em Stanford, onde chefiou um grupo que pesquisava IA generativa. Antes de receber seu doutorado em ciência da computação com Ng, ela foi gerente de produtos de aprendizado de máquina no Google Cloud.

Diamos, por sua vez, foi cofundador do MLCommons, o consórcio de engenharia dedicado à criação de benchmarks padrão para modelos e hardware de IA, bem como o conjunto de benchmarking MLCommons, MLPerf. Ele também liderou pesquisas de IA no Baidu, onde trabalhou com Ng enquanto este era cientista-chefe lá. Diamos também foi arquiteto de software na Nvidia CUDA equipe.

As conexões dos cofundadores com a indústria parecem ter dado a Lamini uma vantagem na arrecadação de fundos. Além de Ng, o CEO da Figma, Dylan Field, o CEO do Dropbox, Drew Houston, o cofundador da OpenAI, Andrej Karpathy, e – estranhamente – Bernard Arnault, o CEO da gigante de bens de luxo LVMH, investiram na Lamini.

A AMD Ventures também é uma investidora (um pouco irônico considerando as raízes de Diamos na Nvidia), assim como a First Round Capital e a Amplify Partners. A AMD se envolveu cedo, fornecendo à Lamini hardware de data center, e hoje, a Lamini executa muitos de seus modelos em GPUs AMD Instinct, contrariando o tendência da indústria.

Lamini faz a afirmação de que o desempenho de treinamento e execução de seu modelo está no mesmo nível das GPUs equivalentes da Nvidia, dependendo da carga de trabalho. Como não estamos equipados para testar essa afirmação, deixaremos isso para terceiros.

Até o momento, Lamini arrecadou US$ 25 milhões em rodadas iniciais e da Série A (Amplify liderou a Série A). Zhou diz que o dinheiro está sendo aplicado para triplicar a equipe de 10 pessoas da empresa, expandir sua infraestrutura de computação e iniciar o desenvolvimento em “otimizações técnicas mais profundas”.

Existem vários fornecedores de IA generativa e orientados para empresas que poderiam competir com aspectos da plataforma da Lamini, incluindo gigantes da tecnologia como Google, AWS e Microsoft (através da sua parceria OpenAI). Google, AWS e OpenAI, em particular, têm cortejado agressivamente as empresas nos últimos meses, introduzindo recursos como ajuste fino simplificado, ajuste fino privado em dados privados e muito mais.

Perguntei a Zhou sobre os clientes, a receita e o impulso geral de entrada no mercado da Lamini. Ela não estava disposta a revelar muito neste momento inicial, mas disse que a AMD (por meio da parceria AMD Ventures), AngelList e NordicTrack estão entre os primeiros usuários (pagantes) de Lamini, junto com várias agências governamentais não reveladas.

“Estamos crescendo rapidamente”, acrescentou ela. “O desafio número um é atender os clientes. Só lidamos com a demanda de entrada porque fomos inundados. Dado o interesse na IA generativa, não somos representativos na desaceleração tecnológica geral – ao contrário dos nossos pares no badalado mundo da IA, temos margens brutas e consumo que mais se assemelham a uma empresa de tecnologia normal.”

O sócio geral da Amplify, Mike Dauber, disse: “Acreditamos que há uma enorme oportunidade para IA generativa nas empresas. Embora existam várias empresas de infraestrutura de IA, Lamini é a primeira que vejo que está levando a sério os problemas da empresa e criando uma solução que ajuda as empresas a desbloquear o tremendo valor de seus dados privados, ao mesmo tempo que satisfaz até mesmo as mais rigorosas conformidades. e requisitos de segurança.”

Últimas

Ampere se une à Qualcomm para lançar um servidor de IA baseado em Arm

Ampere e Qualcomm não são os parceiros mais...

Reddit reintroduz seu sistema de prêmios

Reddit anunciado na quarta-feira que está reintroduzindo seu...

How To Become A Social Media Manager

Social media has transformed the business world and...

Assine

spot_img

Veja Também

Ampere se une à Qualcomm para lançar um servidor de IA baseado em Arm

Ampere e Qualcomm não são os parceiros mais...

Reddit reintroduz seu sistema de prêmios

Reddit anunciado na quarta-feira que está reintroduzindo seu...

How To Become A Social Media Manager

Social media has transformed the business world and...

O mais recente acelerador espacial da Seraphim dá as boas-vindas a nove empresas

Com sede no Reino Unido Espaço Serafim está...
spot_img

Ampere se une à Qualcomm para lançar um servidor de IA baseado em Arm

Ampere e Qualcomm não são os parceiros mais óbvios. Afinal, ambos oferecem chips baseados em Arm para executar servidores de data center...

Reddit reintroduz seu sistema de prêmios

Reddit anunciado na quarta-feira que está reintroduzindo seu sistema de premiação após encerrar o programa no ano passado. A empresa afirmou que...