Na madrugada da revolução da nuvem, que viu as empresas transferirem os seus dados do sítio para a nuvem, a Amazon, a Google e a Microsoft tiveram sucesso, pelo menos em segmento, devido à sua atenção à segurança uma vez que uma preocupação fundamental. Nenhum cliente de grande porte consideraria trabalhar com uma empresa de nuvem que não fosse certificada pelo SOC2.
Hoje, está a ocorrer outra transformação geracional, com 65% dos trabalhadores já a manifestar que use IA diariamente. Grandes modelos de linguagem (LLMs), uma vez que ChatGPT, provavelmente irão derrubar os negócios da mesma forma que a computação em nuvem e os modelos de assinatura SaaS fizeram antes.
Mais uma vez, com esta tecnologia nascente vem um ceticismo merecido. Os LLMs correm o risco de “desvairar” informações fabricadas, compartilhando informações reais incorretamentee reter informações confidenciais da empresa fornecidas por funcionários desinformados.
Qualquer setor que o LLM atinja exigirá um enorme nível de crédito entre os aspirantes a prestadores de serviços e seus clientes B2B, que são, em última estudo, aqueles que correm o risco de um desempenho insatisfatório. Eles vão querer indagar sua reputação, integridade de dados, segurança e certificações. Os provedores que tomarem medidas ativas para reduzir o potencial de “aleatoriedade” do LLM e construirem mais crédito serão grandes vencedores.
Por enquanto, não existem órgãos reguladores que possam lhe dar um selo de aprovação “confiável” para exibir a clientes em potencial. No entanto, cá estão algumas maneiras pelas quais sua organização de IA generativa pode edificar um livro destapado e, assim, edificar a crédito de clientes em potencial.
Busque certificações onde puder e apoie as regulamentações
Embora atualmente não existam certificações específicas em torno da segurança de dados em IA generativa, exclusivamente ajudará a sua credibilidade obter o maior número verosímil de certificações adjacentes, uma vez que conformidade com SOC2, a norma ISO/IEC 27001 e a certificação GDPR (Regulamento Universal de Proteção de Dados).
Você também deseja estar atualizado sobre quaisquer regulamentos de privacidade de dados, que variam regionalmente. Por exemplo, quando a Meta lançou recentemente o seu concorrente no Twitter, Threads, foi impedida de lançar na UE devido a preocupações sobre a validade do seu práticas de rastreamento de dados e criação de perfil.
Os provedores que tomarem medidas ativas para reduzir o potencial de “aleatoriedade” do LLM e construirem mais crédito serão grandes vencedores.
À medida que você está abrindo um caminho totalmente novo em um nicho emergente, você também pode estar em posição de ajudar a formar regulamentações. Ao contrário dos avanços das grandes tecnologias do pretérito, organizações uma vez que a FTC estão a seguir muito mais rapidamente para investigar a segurança das plataformas generativas de IA.
Embora você possa não estreitar a mão de chefes de estado globais uma vez que Sam Altman, considere entrar em contato com políticos locais e membros de comitês para oferecer sua experiência e colaboração. Ao provar sua disposição em produzir barreiras de proteção, você indica que deseja exclusivamente o melhor para aqueles a quem pretende servir.
Defina seus próprios padrões de segurança e publique sua jornada
Na falta de regulamentos oficiais, você deve definir seus próprios padrões de segurança. Crie um roteiro com marcos que você considera uma prova de confiabilidade. Isso pode incluir coisas uma vez que a geração de uma estrutura de garantia de qualidade, a obtenção de um visível nível de criptografia ou a realização de vários testes.