Em 2024, a Meta começará a exigir que os anunciantes que veiculam anúncios políticos ou emitam anúncios em suas plataformas divulguem quando seus anúncios são “criados ou alterados digitalmente” por meio do uso de IA.
Os anúncios do Facebook e do Instagram sobre eleições, política e questões sociais exigirão em breve uma lanço extra, que os anunciantes terão de realizar quando enviarem novos anúncios.
Os anunciantes precisarão fazer divulgações quando um proclamação “contiver uma imagem ou vídeo fotorrealista, ou áudio com som realista” que se enquadre em algumas categorias.
As novas regras do Meta são projetadas para controlar deepfakes — mídia manipulada digitalmente e projetada para ser enganosa. A empresa exigirá divulgações de anúncios que foram criados ou manipulados para mostrar uma pessoa fazendo ou dizendo um pouco que não fez.
Os outros casos especiais que exigem divulgação incluem anúncios que retratam pessoas fotorrealistas que não existem ou eventos que parecem realistas, mas nunca aconteceram (incluindo imagens alteradas de eventos da vida real) e anúncios que mostram “eventos realistas”.[s] que supostamente ocorreu”, mas que “não são uma imagem, vídeo ou gravação de áudio verdadeira do evento.
Meta deixa simples que alterações digitais normais, uma vez que nitidez de imagem, golpe e outros ajustes básicos, não se enquadram na novidade política de divulgação. As informações sobre anúncios alterados digitalmente serão capturadas em Biblioteca de anúncios da Metaum banco de dados pesquisável que coleta anúncios pagos nas plataformas da empresa.
“Os anunciantes que veiculam esses anúncios não precisam propalar quando o teor é criado digitalmente ou mudado de maneiras inconsequentes ou imateriais para a reivindicação, asseveração ou questão levantada no proclamação”, escreveu Nick Clegg, presidente de Assuntos Globais da Meta, em um expedido. Expedido de prelo.
A novidade política em torno da divulgação de anúncios sobre questões sociais e políticas segue a notícia de que a Meta colocar novas limitações sobre o tipo de anúncios para os quais suas próprias ferramentas generativas de IA poderiam ser usadas.
No início do mês pretérito, a empresa lançou um conjunto de novas ferramentas de IA projetadas para anunciantes. As ferramentas permitem que os anunciantes gerem rapidamente diversas versões de ativos criativos e ajustem facilmente as imagens para se adequarem a diversas proporções, entre outros usos.
Essas ferramentas de IA estão agora fora dos limites para campanhas relacionadas com política, eleições e questões sociais, uma vez que Reuters relatado pela primeira vez. A empresa anunciou esta semana que iria proibir as ferramentas de IA para anúncios em “tópicos potencialmente sensíveis” em todos os setores, incluindo habitação, ocupação, saúde, produtos farmacêuticos e serviços financeiros. Todas essas são áreas onde a empresa poderia facilmente entrar em problemas regulatórios dada a atenção dada à IA no momento – ou áreas onde a Meta já se encontrou em apuros, uma vez que no caso de anúncios discriminatórios de habitação no Facebook.
Os legisladores já estavam examinando a interseção entre IA e publicidade política. No início deste ano, a senadora Amy Klobuchar (D-MN) e a deputada Yvette Clarke (D-NY) apresentaram legislação isso exigiria isenções de responsabilidade em anúncios políticos alterados ou criados usando IA.
“A IA enganosa tem o potencial de derrubar a nossa democracia, fazendo com que os eleitores questionem se os vídeos que veem dos candidatos são reais ou falsos”, disse Klobuchar sobre as novas restrições da Meta às suas próprias ferramentas internas de IA. “Esta decisão da Meta é um passo na direção certa, mas não podemos incumbir unicamente em compromissos voluntários.”
Embora a Meta esteja colocando algumas barreiras em torno do uso de IA em anúncios sobre questões políticas e sociais, algumas plataformas ficam felizes em permanecer totalmente fora desse negócio. O TikTok não se envolve em publicidade política, banir qualquer tipo de teor político pago em anúncios de marca e teor de marca pago.