
A Microsoft está expandindo sua política para proteger clientes comerciais de ações judiciais por violação de direitos autorais decorrentes do uso de IA generativa – mas com uma ressalva (ou várias).
Hoje, durante o Ignite, a Microsoft disse que os clientes que licenciam Serviço OpenAI do Azureo serviço totalmente gerenciado da empresa que adiciona camadas de governança aos modelos OpenAI, pode esperar ser defendido – e compensado – pela Microsoft por quaisquer “julgamentos adversos” se forem processados por violação de direitos autorais ao usar o serviço Azure OpenAI ou os resultados dele gera.
Modelos de IA generativos, como Bate-papoGPT e DALL-E 3 são treinados em milhões a bilhões de e-books, peças de arte, e-mails, músicas, clipes de áudio, gravações de voz e muito mais, a maioria dos quais vem de sites públicos. Embora alguns desses dados de treinamento sejam de domínio público, outros não são — ou estão sob uma licença que exige citação ou formas específicas de compensação.
A legalidade do treinamento de fornecedores com base em dados sem permissão é outro assunto que está sendo discutido nos tribunais. Mas o que poderia levar à IA generativa Usuários em apuros está a regurgitação, ou quando um modelo generativo cospe uma cópia espelhada de um exemplo de treinamento.
A política expandida da Microsoft não se aplicará por padrão a todos os clientes do Azure OpenAI Service. Para serem elegíveis para as novas proteções, os assinantes são obrigados a implementar “medidas técnicas” e cumprir determinadas documentações para mitigar o risco de geração de conteúdo infrator usando os modelos da OpenAI.
O TechCrunch pediu à Microsoft que elaborasse essas medidas, mas a empresa se recusou a fornecer detalhes antes do anúncio desta manhã.
Também não está claro se as proteções se estendem aos produtos do Azure OpenAI Service em versão prévia, como GPT-4 Turbo com Visãoe se a Microsoft está oferecendo indenização contra reclamações feitas sobre os dados de treinamento usados pelos clientes para ajustar os modelos OpenAI. Pedimos esclarecimentos.
No final da tarde, um porta-voz da Microsoft disse ao TechCrunch por e-mail que a política se aplica a todos os produtos em visualização paga e aos dados de treinamento da Microsoft – mas não dos clientes.
A nova política vem depois da Microsoft anúncio em setembro, que pagará indenizações legais em nome dos clientes que usam alguns – mas não todos – de seus produtos de IA se forem processados por violação de direitos autorais. Tal como acontece com as proteções do Azure OpenAI Service, os clientes são obrigados a usar as “proteções e filtros de conteúdo” incorporados nas ofertas de IA da Microsoft para manter a cobertura.
Talvez não por coincidência, OpenAI recentemente disse que começaria a pagar os custos legais incorridos por clientes que enfrentam ações judiciais por reivindicações de propriedade intelectual contra trabalhos gerados por ferramentas OpenAI. As novas proteções do Azure OpenAI Service da Microsoft parecem ser uma extensão disso.
Além das políticas de indenização, uma solução parcial para o problema da regurgitação é permitir que os criadores de conteúdo removam seus dados dos conjuntos de dados de treinamento de modelos generativos – ou dêem a esses criadores alguma forma de crédito e compensação. OpenAI tem disse que irá explorar isso com futuros modelos de texto para imagem, talvez a continuação do DALL-E 3.
A Microsoft, por outro lado, não se comprometeu com esquemas de exclusão ou de compensação. Mas a empresa tem desenvolveu uma tecnologia que afirma poder ajudar a “identificar quando [AI] modelos geram material que aproveita propriedade intelectual e conteúdo de terceiros.” Um novo recurso da ferramenta Azure AI Content Safety da Microsoft, está disponível em versão prévia.
Pedimos informações sobre como funciona a tecnologia de identificação de IP, mas a Microsoft hesitou – simplesmente apontando para uma postagem de blog de alto nível. Manteremos nossos olhos abertos para mais detalhes no Ignite.