Posts Recentes:

Threads adiciona um recurso de bookmarking para salvar postagens favoritas

Threads, o aplicativo semelhante ao Twitter do Instagram,...

Documentos Meta não editados revelam “relutância histórica” em proteger as crianças


Documentos internos da Meta sobre segurança infantil foram abertos uma vez que secção de uma ação judicial movida pelo Departamento de Justiça do Novo México contra a Meta e seu CEO, Mark Zuckerberg. Os documentos revelam que a Meta não só comercializou propositadamente as suas plataformas de mensagens para crianças, mas também sabia do enorme volume de teor inadequado e sexualmente explícito partilhado entre adultos e menores.

Os documentos, abertos na quarta-feira uma vez que secção de uma reclamação alterada, destacam vários casos de funcionários da Meta que levantaram internamente preocupações sobre a exploração de crianças e adolescentes nas plataformas de mensagens privadas da empresa. A Meta reconheceu os riscos que os DMs do Messenger e do Instagram representavam para usuários menores de idade, mas não priorizou a implementação de proteções ou o bloqueio totalidade de recursos de segurança infantil porque não eram lucrativos.

Em uma enunciação ao TechCrunch, o procurador-geral do Novo México, Raúl Torrez, disse que Meta e Zuckerberg permitiram que predadores de crianças explorassem sexualmente crianças. Recentemente, ele levantou preocupações sobre o Meta permitir proteção de criptografia de ponta a ponta para o Messenger, que começou a ser lançado no mês passado. Num processo separado, Torrez apontou que a Meta não conseguiu abordar a exploração infantil na sua plataforma e que a encriptação sem as devidas salvaguardas colocaria ainda mais em risco os menores.

“Durante anos, os funcionários da Meta tentaram tanger o rebate sobre uma vez que as decisões tomadas pelos executivos da Meta sujeitavam as crianças a solicitações perigosas e à exploração infantil”, continuou Torrez. “Os metaexecutivos, incluindo o Sr. Zuckerberg, tomaram consistentemente decisões que colocaram o propagação primeiro da segurança das crianças. Embora a empresa continue a minimizar as atividades ilegais e prejudiciais às quais as crianças estão expostas nas suas plataformas, os dados internos e as apresentações da Meta mostram que o problema é grave e generalizado.”

Originalmente simples em dezembro, o processo alega que plataformas Meta uma vez que Instagram e Facebook se tornaram “um mercado para predadores em procura de crianças para combater” e que Meta não conseguiu remover muitos casos de material de desfeita sexual infantil (CSAM) depois que eles foram relatados no Instagram e no Facebook. Ao produzir contas falsas que pretendiam ter 14 anos ou menos, o DOJ do Novo México disse que os algoritmos da Meta detectaram CSAM, muito uma vez que contas que facilitam a compra e venda de CSAM. De conciliação com um Comunicado de imprensa sobre o processo, “certos conteúdos de exploração infantil são dez vezes mais prevalentes no Facebook e Instagram do que no Pornhub e OnlyFans”.

Os documentos não lacrados mostram que a Meta tentou recrutar propositadamente crianças e adolescentes para o Messenger, limitando os recursos de segurança no processo. Uma apresentação de 2016, por exemplo, levantou preocupações sobre a popularidade cada vez menor da empresa entre os adolescentes, que passavam mais tempo no Snapchat e no YouTube do que no Facebook, e delineou um projecto para “ocupar” novos utilizadores adolescentes. Um e-mail interno de 2017 observa que um executivo do Facebook se opôs à varredura do Messenger em procura de “teor prejudicial”, porque seria uma “desvantagem competitiva em relação a outros aplicativos que poderiam oferecer mais privacidade”.

O facto de a Meta saber que os seus serviços eram tão populares entre as crianças torna “ainda mais flagrante” o seu fracasso em proteger os jovens utilizadores contra a exploração sexual, afirmam os documentos. Uma apresentação de 2020 observa que o “jogo final” da empresa era “se tornar o principal aplicativo de mensagens infantis nos EUA até 2022”. Ele também observou a popularidade do Messenger entre crianças de 6 a 10 anos.

O reconhecimento da Meta sobre as questões de segurança infantil em sua plataforma é particularmente contundente. Uma apresentação interna de 2021, por exemplo, estimou que 100 milénio crianças por dia eram assediadas sexualmente nas plataformas de mensagens da Meta e recebiam teor sexualmente explícito, uma vez que fotos de órgãos genitais de adultos. Em 2020, os funcionários da Meta ficaram preocupados com a verosímil remoção da plataforma da App Store depois que um executivo da Apple reclamou que seu fruto de 12 anos foi solicitado no Instagram.

“Esse é o tipo de coisa que irrita a Apple”, afirmou um documento interno. Os funcionários também questionaram se a Meta tinha um cronograma para impedir “adultos de enviar mensagens a menores no IG Direct”.

Outro documento interno de 2020 revelou que as salvaguardas implementadas no Facebook, uma vez que impedir que adultos “desconectados” enviem mensagens a menores, não existiam no Instagram. A implementação das mesmas salvaguardas no Instagram “não foi priorizada”. A Meta considerou permitir que parentes adultos alcançassem crianças no Instagram Direct uma “grande aposta de propagação” – que um funcionário da Meta criticou uma vez que uma razão “menos que suasório” para não estabelecer recursos de segurança. O funcionário também observou que o aliciamento ocorreu duas vezes mais no Instagram do que no Facebook.

Meta abordou o aliciamento em outra apresentação sobre segurança infantil em março de 2021, que afirmou que sua “mensuração, detecção e salvaguardas” eram “mais maduras” no Facebook e no Messenger do que no Instagram. A apresentação observou que Meta estava “subinvestido na sexualização de menores no IG”, particularmente em comentários sexuais deixados em postagens de criadores menores, e descreveu o problema uma vez que uma “experiência terrível para criadores e espectadores”.

A Meta há muito enfrenta escrutínio por suas falhas em moderar adequadamente o CSAM. Grandes plataformas de mídia social sediadas nos EUA são legalmente obrigadas a relatar casos de CSAM ao CyberTipline do Meio Vernáculo para Crianças Desaparecidas e Exploradas (NCMEC). De conciliação com o NCMEC dados publicados mais recentemente desde 2022, o Facebook enviou murado de 21 milhões de denúncias de CSAM, representando murado de 66% de todas as denúncias enviadas ao CyberTipline naquele ano. Ao incluir os relatórios do Instagram (5 milhões) e do WhatsApp (1 milhão), as plataformas Meta são responsáveis ​​por murado de 85% de todos os relatórios feitos ao NCMEC.

Oriente número desproporcional poderia ser explicado pela esmagadoramente grande base de usuários do Meta, constituindo mais de 3 bilhões usuários ativos diariamente, mas em resposta a muitas pesquisas, líderes internacionais argumentaram que a Meta não está fazendo o suficiente para mitigar esses milhões de relatórios. Em junho, Meta disse ao Jornal de Wall Street que derrubou 27 redes de pedófilos nos últimos dois anos, mas os investigadores ainda conseguiram desvendar inúmeras contas interligadas que compram, vendem e distribuem CSAM. Nos cinco meses seguintes ao relatório do Journal, descobriu-se que os algoritmos de recomendação do Meta continuaram a servir o CSAM; embora Meta tenha removido certas hashtags, outras hashtags pedófilas surgiram em seu lugar.

Enquanto isso, Meta enfrenta outro processo de 42 procuradores-gerais estaduais dos EUA sobre o impacto das plataformas na saúde mental das crianças.

“Vemos que a Meta sabe que suas plataformas de mídia social são usadas por milhões de crianças menores de 13 anos e coletam ilegalmente suas informações pessoais”, disse o procurador-geral da Califórnia, Rob Bonta. disse ao TechCrunch em novembro. “Isso mostra aquela prática generalidade em que a Meta diz uma coisa em seus comentários públicos ao Congresso e outros reguladores, enquanto internamente diz outra coisa.”

Últimas

Threads adiciona um recurso de bookmarking para salvar postagens favoritas

Threads, o aplicativo semelhante ao Twitter do Instagram,...

Google espera corrigir o problema histórico de diversidade de imagens de Gemini dentro de semanas

O Google está esperançoso de que em breve...

Índia estimula investimento no setor espacial com limites aumentados ao financiamento estrangeiro

A Índia atualizou as regras oficiais do setor...

Assine

spot_img

Veja Também

Threads adiciona um recurso de bookmarking para salvar postagens favoritas

Threads, o aplicativo semelhante ao Twitter do Instagram,...

Google espera corrigir o problema histórico de diversidade de imagens de Gemini dentro de semanas

O Google está esperançoso de que em breve...

Índia estimula investimento no setor espacial com limites aumentados ao financiamento estrangeiro

A Índia atualizou as regras oficiais do setor...

BLKFAM apoiado por Whoopi Goldberg é lançado com mais de 1.000 horas de programação infantil

BLKFAM é um serviço de streaming familiar gratuito,...
spot_img

Perguntas beta do Google Reviews

Agora, ao deixar...

Threads adiciona um recurso de bookmarking para salvar postagens favoritas

Threads, o aplicativo semelhante ao Twitter do Instagram, está se tornando mais parecido com seu concorrente X com os recentes lançamentos de trending...

Google espera corrigir o problema histórico de diversidade de imagens de Gemini dentro de semanas

O Google está esperançoso de que em breve será capaz de ‘retomar’ a capacidade de sua ferramenta multimodal de IA generativa, Gemini, de...