Posts Recentes:

O Conselho de Supervisão da Meta investiga imagens explícitas geradas por IA postadas no Instagram e no Facebook


O Conselho de Supervisão, o conselho político semi-independente da Meta, está voltando sua atenção para a forma como as plataformas sociais da empresa estão lidando com imagens explícitas geradas por IA. Na terça-feira, anunciou investigações sobre dois casos separados sobre como o Instagram na Índia e o Facebook nos EUA lidaram com imagens de figuras públicas geradas por IA depois que os sistemas da Meta não conseguiram detectar e responder ao conteúdo explícito.

Em ambos os casos, os sites retiraram a mídia do ar. O conselho não nomeia os indivíduos visados ​​pelas imagens de IA “para evitar assédio baseado em gênero”, de acordo com um e-mail que Meta enviou ao TechCrunch.

O conselho trata de casos sobre as decisões de moderação do Meta. Os usuários devem apelar primeiro ao Meta sobre uma medida de moderação antes de abordar o Conselho de Supervisão. O conselho deverá publicar suas descobertas e conclusões completas no futuro.

Os casos

Descrevendo o primeiro caso, o conselho disse que um usuário denunciou um nu gerado por IA de uma figura pública da Índia no Instagram como pornografia. A imagem foi postada por uma conta que posta exclusivamente imagens de mulheres indianas criadas por IA, e a maioria dos usuários que reagem a essas imagens reside na Índia.

A Meta não conseguiu remover a imagem após o primeiro relatório, e o ticket para o relatório foi fechado automaticamente 48 horas depois que a empresa não revisou mais o relatório. Quando o reclamante original recorreu da decisão, o relatório foi novamente encerrado automaticamente, sem qualquer supervisão da Meta. Em outras palavras, após dois relatos, a imagem explícita gerada por IA permaneceu no Instagram.

O usuário finalmente recorreu ao conselho. A empresa só agiu nesse momento para remover o conteúdo questionável e removeu a imagem por violar os padrões da comunidade sobre intimidação e assédio.

O segundo caso refere-se ao Facebook, onde um utilizador publicou uma imagem explícita gerada por IA que se assemelhava a uma figura pública dos EUA num grupo focado em criações de IA. Nesse caso, a rede social retirou a imagem porque havia sido postada por outro usuário anteriormente, e Meta a adicionou a um banco de serviços de correspondência de mídia na categoria “photoshop ou desenhos sexualizados depreciativos”.

Quando o TechCrunch perguntou por que o conselho selecionou um caso em que a empresa retirou com sucesso uma imagem explícita gerada por IA, o conselho disse que seleciona casos “que são emblemáticos de questões mais amplas nas plataformas da Meta”. Acrescentou que estes casos ajudam o conselho consultivo a analisar a eficácia global da política e dos processos da Meta para vários tópicos.

“Sabemos que o Meta é mais rápido e eficaz na moderação de conteúdo em alguns mercados e idiomas do que em outros. Ao considerar um caso dos EUA e outro da Índia, queremos verificar se a Meta está a proteger todas as mulheres a nível mundial de uma forma justa”, disse a co-presidente do Conselho de Supervisão, Helle Thorning-Schmidt, num comunicado.

“O Conselho acredita que é importante explorar se as políticas e práticas de fiscalização da Meta são eficazes para resolver este problema.”

O problema da pornografia falsa e da violência online baseada em gênero

Algumas – não todas – ferramentas generativas de IA nos últimos anos se expandiram para permitir usuários para gerar pornografia. Como o TechCrunch relatou anteriormente, grupos como Difusão instável está tentando monetizar pornografia de IA com linhas éticas obscuras e preconceito nos dados.

Em regiões como a Índia, os deepfakes também se tornaram um motivo de preocupação. No ano passado, um relatório do BBC observou que o número de vídeos deepfaked de atrizes indianas disparou nos últimos tempos. Dados sugere que as mulheres são mais comumente alvo de vídeos deepfaked.

No início deste ano, o vice-ministro de TI, Rajeev Chandrasekhar expressou insatisfação com a abordagem das empresas de tecnologia para combater deepfakes.

“Se uma plataforma pensa que pode escapar sem remover vídeos deepfake, ou simplesmente manter uma abordagem casual, temos o poder de proteger os nossos cidadãos bloqueando essas plataformas”, disse Chandrasekhar numa conferência de imprensa na altura.

Embora a Índia tenha pensado em trazer regras específicas relacionadas ao deepfake para a lei, nada está definido ainda.

Embora o país exista disposições legais para denunciar a violência baseada no género online, os especialistas observam que o processo pode ser tedioso, e muitas vezes há pouco apoio. Num estudo publicado no ano passado, o grupo de defesa indiano TI para Mudança observou que os tribunais na Índia precisam de ter processos robustos para abordar a violência online baseada no género e não banalizar estes casos.

Aparajita Bharti, cofundadora da The Quantum Hub, uma empresa de consultoria em políticas públicas sediada na Índia, disse que deveria haver limites aos modelos de IA para impedi-los de criar conteúdo explícito que cause danos.

“O principal risco da IA ​​generativa é que o volume desse conteúdo aumente porque é fácil gerar esse conteúdo e com alto grau de sofisticação. Portanto, precisamos primeiro impedir a criação de tal conteúdo, treinando modelos de IA para limitar a produção caso a intenção de prejudicar alguém já seja clara. Também deveríamos introduzir rotulagem padrão para fácil detecção”, disse Bharti ao TechCrunch por e-mail.

Atualmente, existem apenas algumas leis em todo o mundo que abordam a produção e distribuição de pornografia gerada por meio de ferramentas de IA. Um punhado de estados dos EUA têm leis contra deepfakes. O Reino Unido introduziu uma lei esta semana para criminalizar a criação de imagens sexualmente explícitas alimentadas por IA.

Resposta da Meta e os próximos passos

Em resposta aos casos do Conselho de Supervisão, a Meta disse que retirou ambos os conteúdos. No entanto, a empresa de mídia social não abordou o fato de não ter removido o conteúdo do Instagram após relatos iniciais dos usuários ou por quanto tempo o conteúdo permaneceu na plataforma.

Meta disse que usa uma mistura de inteligência artificial e análise humana para detectar conteúdo sexualmente sugestivo. A gigante da mídia social disse que não recomenda esse tipo de conteúdo em locais como Instagram Explore ou recomendações de Reels.

O Conselho de Supervisão procurou comentários públicos – com prazo até 30 de abril – sobre o assunto que aborda os danos causados ​​pela pornografia falsa profunda, informações contextuais sobre a proliferação desse tipo de conteúdo em regiões como os EUA e a Índia e possíveis armadilhas da abordagem do Meta na detecção de imagens explícitas geradas por IA.

O conselho investigará os casos e comentários públicos e publicará a decisão no site em algumas semanas.

Esses casos indicam que as grandes plataformas ainda estão lutando com processos de moderação mais antigos, enquanto as ferramentas baseadas em IA permitem que os usuários criem e distribuam diferentes tipos de conteúdo de forma rápida e fácil. Empresas como a Meta estão experimentando ferramentas que usar IA para geração de conteúdocom alguns esforços para detectar tais imagens. Em abril, a empresa anunciou que iria aplicar emblemas “Made with AI” para deepfakes se pudesse detectar o conteúdo usando “indicadores de imagem de IA padrão da indústria” ou divulgações de usuários.

No entanto, os perpetradores encontram constantemente formas de escapar a estes sistemas de deteção e publicam conteúdos problemáticos em plataformas sociais.

Últimas

Assine

spot_img

Veja Também

spot_img

TikTok pode deixar os EUA após impasse com governo

O futuro do TikTok nos Estados Unidos está em xeque. Uma lei recente exige que a plataforma se desvincule da ByteDance, sua controladora...

Gary Illyes, do Google, sobre IA, migrações de sites e afirmações de que “SEO está morto”

Após o recente evento SERPConf, o analista de pesquisa do Google Gary Illyes compartilhou insights que forneceram uma visão das últimas tendências e...