Observabilidade é uma termo da tendência nos círculos de TI atualmente, mas basicamente envolve monitorar os sistemas de uma empresa, procurar problemas ou tentar encontrar a pretexto raiz dos problemas depois que eles acontecem – e eles acontecem o tempo todo, às vezes diminuindo a velocidade. um site ou aplicativo e, na pior das hipóteses, colocá-lo offline.
Existem muitas startups e empresas estabelecidas tentando resolver esse problema, mas Virar IA está trazendo uma novidade reviravolta para a categoria. A startup em estágio inicial construiu seu próprio grande protótipo de linguagem, projetado especificamente para combater o problema de monitoramento.
Hoje, a empresa anunciou que seu resultado estava disponível para o público universal, muito porquê um investimento inicial não anunciado de US$ 6,5 milhões.
O CEO e cofundador Corey Harrison diz que hoje, apesar do número de ferramentas disponíveis, as empresas ainda usam frequentemente processos altamente manuais para rastrear dados entre sistemas. Ele e seus cofundadores, CTO Sunil Mallya e CPO Deap Ubhi, viram uma oportunidade de colocar lucidez e automação para trabalhar para açodar o tempo de solução.
“Portanto, as grandes empresas estão usando [multiple] ferramentas, mas ainda têm dificuldade quando chega a hora de solucionar incidentes”, disse Harrison ao TechCrunch. Ele disse que esse problema costuma ser mais grave em organizações maiores, onde há mais ferramentas e os dados geralmente residem em sistemas diferentes, tornando principalmente reptador rastrear a pretexto do problema sem muitas consultas manuais.
Ao edificar um grande protótipo de linguagem treinado em dados DevOps, eles acreditam que podem açodar o processo de solução de problemas e o tempo de recuperação. “Temos nosso próprio grande protótipo de linguagem – não estamos usando OpenAI ou alguma coisa parecido – que treinamos em mais de 100 bilhões de tokens de dados específicos de DevOps, porquê logs, métricas, dados de rastreamento, arquivos de formato, etc. da mesma forma que os humanos deveriam fazer consultas entre sistemas”, disse Harrison.
O resultado é uma utensílio que analisa os dados entre sistemas e gera uma estudo da pretexto raiz em menos de um minuto, e normalmente somente alguns segundos, de entendimento com Harrison, e ele diz que eles deixam os dados no lugar, exigindo somente entrada de leitura para concluir a estudo.
Harrison reconhece que nenhum protótipo pode estar notório o tempo todo, mas diz que eles fornecem o caminho de porquê o protótipo obteve a resposta, para que um desenvolvedor humano possa verificar o trabalho. “Portanto, mesmo que no final a estudo da pretexto raiz não esteja 100% correta, já localizamos o erro, executamos as consultas e extraímos dados de exemplar. Portanto, ainda fizemos 90% do trabalho para você”, disse ele.
É uma teoria grande e ousada treinar seu próprio LLM, mas Mallya e Ubhi trabalharam anteriormente na Amazon, onde Mallya era responsável por Amazon Compreender, o serviço de PNL da empresa, e Ubhi foi diretor de gerenciamento de produtos. Harrison também tem uma profunda formação técnica, incluindo, mais recentemente, trabalhar porquê vice-presidente sênior de operações e gerente de gabinete do comissário da NFL.
A empresa tem atualmente 20 funcionários divididos entre São Francisco e Bangalore, na Índia. À medida que cresce, tenta lastrar a procura dos clientes, o que ele diz ser bastante bom, com movimentos metódicos. Harrison, que é preto, certamente reconhece a falta de flutuação no mercado de trabalho tecnológico, alguma coisa em que ele diz pensar muito. “Tendo em conta a minha experiência e quem me ajudou a chegar cá, e um conjunto diversificado de pessoas que me ajudaram a chegar cá, quero ter certeza de que a Flip AI tenha o mesmo, se não maior, nível de flutuação”, disse ele.
O investimento inicial de US$ 6,5 milhões foi liderado pela Factory com a participação do Morgan Stanley Next Level Fund e da GTM Capital.