A OpenAI “discutiu e debateu bastante” quando lançar uma utensílio que pode estabelecer se uma imagem foi feita com DALL-E 3, o protótipo de arte generativo de IA da OpenAI, ou não. Mas a startup não está perto de tomar uma decisão tão cedo.
Isso é de harmonia com Sandhini Agarwal, pesquisadora da OpenAI com foco em segurança e política, que conversou com o TechCrunch em entrevista por telefone esta semana. Ela disse que, embora a precisão da utensílio classificadora seja “muito boa” – pelo menos por sua estimativa – ela não atingiu o limite de qualidade da OpenAI.
“Há a questão de lançar uma utensílio que não é confiável, visto que as decisões que ela poderia tomar poderiam afetar significativamente as fotos, porquê se uma obra é vista porquê pintada por um artista ou porquê inautêntica e enganosa”, disse Agarwal.
A precisão direcionada da OpenAI para a utensílio parece ser muito subida. Mira Murati, diretora de tecnologia da OpenAI, disse esta semana, na conferência Tech Live do The Wall Street Journal, o classificador é “99%” confiável para estabelecer se uma foto não modificada foi gerada usando DALL-E 3. Talvez a meta seja 100%; Agarwal não quis expor.
Um rascunho da postagem do blog OpenAI compartilhado com o TechCrunch revelou leste pormenor interessante:
“[The classifier] permanece com mais de 95% de precisão quando [an] A imagem foi sujeita a tipos comuns de modificações, porquê galanteio, redimensionamento, compactação JPEG ou quando texto ou recortes de imagens reais são sobrepostos em pequenas porções da imagem gerada.”
A relutância da OpenAI pode estar ligada à controvérsia em torno da sua utensílio de classificação pública anterior, que foi projetada para detectar texto gerado por IA não exclusivamente a partir de modelos da OpenAI, mas também de modelos de geração de texto lançados por fornecedores terceirizados. OpenAI retirado o detector de texto escrito por IA por razão de sua “baixa taxa de precisão”, que foi amplamente criticada.
Agarwal implica que o OpenAI também está recluso à questão filosófica do que, exatamente, constitui uma imagem gerada por IA. A arte gerada do zero pelo DALL-E 3 se qualifica, obviamente. Mas e uma imagem do DALL-E 3 que passou por várias rodadas de edições, foi combinada com outras imagens e depois passou por alguns filtros de pós-processamento? É menos simples.

Uma imagem gerada pelo DALL-E 3. Créditos da imagem: OpenAI
“Nesse ponto, essa imagem deveria ser considerada um pouco gerado por IA ou não?”, Disse Agarwal. “No momento, estamos tentando mourejar com essa questão e realmente queremos ouvir artistas e pessoas que seriam significativamente impactadas por tal [classifier] ferramentas.”
Várias organizações – não exclusivamente a OpenAI – estão explorando marcas d’chuva e técnicas de detecção para mídia generativa porquê IA deepfakes proliferar.
DeepMind propôs recentemente uma especificação, SynthID, para marcar imagens geradas por IA de uma forma imperceptível ao olho humano, mas que possa ser detectada por um detector especializado. Startup francesa Imatag, lançado em 2020, oferece uma utensílio de marca d’chuva que afirma não ser afetada pelo redimensionamento, galanteio, edição ou compactação de imagens, semelhante ao SynthID. Mais uma empresa, Steg.AIemprega um protótipo de IA para empregar marcas d’chuva que sobrevivem ao redimensionamento e outras edições.
O problema é que a indústria ainda não se uniu em torno de uma única marca d’chuva ou padrão de detecção. Mesmo que isso aconteça, não há garantia de que as marcas d’chuva – e os detectores – não será derrotável.
Perguntei a Agarwal se o classificador de imagens da OpenAI qualquer dia suportaria a detecção de imagens criadas com outras ferramentas generativas não OpenAI. Ela não se comprometeu com isso, mas disse que – dependendo da recepção da utensílio classificadora de imagens tal porquê existe hoje – é um caminho que a OpenAI consideraria explorar.
“Uma das razões pelas quais agora [the classifier is] A especificidade do DALL-E 3 é porque é, tecnicamente, um problema muito mais tratável”, disse Agarwal. “[A general detector] não é um pouco que estamos fazendo agora… Mas dependendo de onde [the classifier tool] vai, não estou dizendo que nunca faremos isso.