A IA generativa projetada para a empresa (por exemplo, IA que preenche automaticamente relatórios, fórmulas de planilhas e assim por diante) pode ser interoperável? Juntamente com um grupo de organizações, incluindo Cloudera e Intel, a Linux Foundation – a organização sem fins lucrativos que apoia e mantém um número crescente de esforços de código aberto – pretende descobrir.
A Linux Foundation na terça-feira anunciado o lançamento da Plataforma Aberta para IA Empresarial (OPEA), um projeto para promover o desenvolvimento de sistemas de IA generativos abertos, multifornecedores e combináveis (ou seja, modulares). Sob a alçada da LFAI and Data org da Linux Foundation, que se concentra em iniciativas de plataformas relacionadas à IA e a dados, o objetivo da OPEA será preparar o caminho para o lançamento de sistemas de IA generativos “fortes” e “escaláveis” que “aproveitem o a melhor inovação de código aberto de todo o ecossistema”, disse o diretor executivo da LFAI e da Data, Ibrahim Haddad, em um comunicado à imprensa.
“A OPEA irá desbloquear novas possibilidades em IA, criando uma estrutura detalhada e combinável que está na vanguarda das pilhas de tecnologia”, disse Haddad. “Esta iniciativa é uma prova da nossa missão de impulsionar a inovação e a colaboração de código aberto nas comunidades de IA e de dados sob um modelo de governança neutro e aberto.”
Além de Cloudera e Intel, OPEA – um dos projetos Sandbox da Linux Foundation, uma espécie de programa de incubadora – conta entre seus membros pesos pesados como Intel, Red Hat, de propriedade da IBM, Hugging Face, Domino Data Lab, MariaDB e VMWare.
Então, o que eles poderiam construir juntos exatamente? Haddad sugere algumas possibilidades, como suporte “otimizado” para conjuntos de ferramentas e compiladores de IA, que permitem que cargas de trabalho de IA sejam executadas em diferentes componentes de hardware, bem como pipelines “heterogêneos” para geração aumentada de recuperação (RAG).
O RAG está se tornando cada vez mais popular em aplicações empresariais de IA generativa e não é difícil perceber porquê. As respostas e ações da maioria dos modelos de IA generativos são limitadas aos dados nos quais são treinados. Mas com o RAG, a base de conhecimento de um modelo pode ser estendida para informações fora dos dados de treinamento originais. Os modelos RAG fazem referência a essas informações externas – que podem assumir a forma de dados proprietários da empresa, um banco de dados público ou alguma combinação dos dois – antes de gerar uma resposta ou executar uma tarefa.
A Intel ofereceu mais alguns detalhes por conta própria Comunicado de imprensa:
As empresas são desafiadas com uma abordagem do tipo “faça você mesmo” [to RAG] porque não existem padrões de facto entre componentes que permitam às empresas escolher e implementar soluções RAG que sejam abertas e interoperáveis e que as ajudem a chegar rapidamente ao mercado. A OPEA pretende abordar estas questões colaborando com a indústria para padronizar componentes, incluindo estruturas, projetos de arquitetura e soluções de referência.
A avaliação também será uma parte fundamental do que a OPEA aborda.
Em seu GitHub repositórioa OPEA propõe uma rubrica para classificar sistemas de IA generativos em quatro eixos: desempenho, recursos, confiabilidade e prontidão de “nível empresarial”. Desempenho como a OPEA define, refere-se a benchmarks de “caixa preta” de casos de uso do mundo real. Características é uma avaliação da interoperabilidade, opções de implantação e facilidade de uso de um sistema. A confiabilidade analisa a capacidade de um modelo de IA de garantir “robustez” e qualidade. E prontidão empresarial concentra-se nos requisitos para colocar um sistema em funcionamento e sem grandes problemas.
Rachel Roumeliotis, diretora de estratégia de código aberto da Intel, diz que a OPEA trabalhará com a comunidade de código aberto para oferecer testes baseados na rubrica, bem como fornecer avaliações e classificações de implantações de IA generativa, mediante solicitação.
Os outros esforços da OPEA estão um pouco incertos neste momento. Mas Haddad apresentou o potencial de desenvolvimento de modelo aberto nos moldes do projeto Meta. expandindo a família Llama e blocos de dados' DBRX. Para esse fim, no repositório OPEA, a Intel já contribuiu com implementações de referência para um chatbot generativo alimentado por IA, resumidor de documentos e gerador de código otimizado para seu hardware Xeon 6 e Gaudi 2.
Agora, os membros da OPEA estão claramente investidos (e interessados, aliás) na construção de ferramentas para IA generativa empresarial. Cloudera recentemente parcerias lançadas para criar o que está apresentando como um “ecossistema de IA” na nuvem. Domino oferece um conjunto de aplicativos para construir e auditar IA generativa voltada para negócios. E o VMWare – orientado para o lado da infraestrutura da IA corporativa – foi lançado em agosto passado novos produtos de computação de “IA privada”.
A questão é se esses fornecedores na verdade trabalhar em conjunto para construir ferramentas de IA compatíveis entre si no âmbito da OPEA.
Há um benefício óbvio em fazer isso. Os clientes terão prazer em recorrer a vários fornecedores, dependendo de suas necessidades, recursos e orçamentos. Mas a história mostra que é muito fácil ficar inclinado ao aprisionamento do fornecedor. Esperemos que esse não seja o resultado final aqui.