Posts Recentes:

Elon Musk traz Alex Jones e Infowars de volta ao X após pesquisa de usuários

Elon Musk restaurou as contas X do teórico...

Explore o Microsoft Bing Deep Search com GPT-4 e planos de IA generativa para 2024

A Microsoft anunciou o Deep Search, uma melhoria...

Mixtral-8x7B: 4 maneiras de experimentar o novo modelo da Mistral AI

Em um salto significativo no desenvolvimento de modelos...

Meta pressionou para compensar as vítimas da guerra em meio a alegações de que o Facebook inflamou o conflito de Tigray


Meta enfrenta apelos crescentes para fabricar um fundo de restituição para as vítimas da guerra de Tigray, que o Facebook teria mantido, levando a mais de 600.000 mortes e ao deslocamento de milhões de outras pessoas em toda a Etiópia.

O grupo de resguardo dos direitos humanos Amnistia Internacional, num novo relatório, instou Meta a fabricar um fundo, que também beneficiará outras vítimas de conflitos em todo o mundo, em meio a temores crescentes de que a presença do site social em “áreas de cimo risco e afetadas por conflitos” possa “cevar a resguardo do ódio e incitar a violência contra as minorias étnicas e religiosas” em novas regiões. O relatório da Amnistia Internacional descreve uma vez que “Meta contribuiu para os abusos dos direitos humanos na Etiópia”.

O impulso renovado pela reparação surge no momento em que um caso no Quénia, em que os etíopes exigem um concordância de 1,6 milénio milhões de dólares ao Meta por alegadamente cevar a guerra de Tigray, recomeça na próxima semana. A Amnistia Internacional é segmento interessada no caso.

A Amnistia Internacional também pediu ao Meta que expandisse as suas capacidades de moderação de conteúdos na Etiópia, incluindo 84 línguas das quatro que cobre agora, e que reconhecesse publicamente e pedisse desculpa por ter contribuído para as violações dos direitos humanos durante a guerra. A guerra do Tigré eclodiu em novembro, depois o conflito entre o governo federalista da Etiópia, da Eritreia e do Frente de Libertação Popular de Tigray (TPLF) intensificou-se na região setentrião do país da África Oriental.

O grupo de direitos humanos diz que “o Facebook do Meta ficou inundado de teor que incita à violência e defende o ódio”, postagens que também desumanizaram e discriminaram a comunidade Tigrayan. Ele culpou o “protótipo de negócios fundamentado em vigilância e algoritmos centrados no engajamento” da Meta, que prioriza o “engajamento a todo dispêndio” e o lucro em primeiro lugar, por regularizar “o ódio, a violência e a discriminação contra a comunidade Tigrayan”.

“Os algoritmos de modelagem de teor do Meta são ajustados para maximizar o envolvimento e aumentar o teor que é muitas vezes inflamatório, prejudicial e divisivo, pois é isso que tende a atrair mais atenção dos usuários”, disse o relatório.

“No contexto do conflito no setentrião da Etiópia, estes algoritmos alimentaram impactos devastadores nos direitos humanos, amplificando o teor direcionado à comunidade Tigrayan no Facebook, a plataforma de mídia social mais popular da Etiópia – incluindo teor que defendia o ódio e incitava a violência, a hostilidade e a discriminação”, disse o relatório, que documentou experiências vividas pelas vítimas da guerra de Tigray.

A Amnistia Internacional afirma que o uso da viralidade algorítmica – onde determinados conteúdos são amplificados para atingir um público vasto – representava riscos significativos em áreas propensas a conflitos, uma vez que o que aconteceu online poderia facilmente resultar em violência offline. Eles culparam Meta por priorizar compromissos em vez do bem-estar dos Tigrayans, aquém da média moderação que permitiram que a desinformação prosperasse na sua plataforma e por desprezar avisos anteriores sobre uma vez que o Facebook corria o risco de utilização indevida.

O relatório conta uma vez que, antes do início da guerra e durante o conflito, Meta não prestou atenção aos avisos de pesquisadores, Conselho de Supervisão do Facebookgrupos da sociedade social e os seus “Parceiros de Crédito” expressando uma vez que o Facebook poderia contribuir para a violência em tamanho na Etiópia.

Por exemplo, em Junho de 2020, quatro meses antes do início da guerra no setentrião da Etiópia, organizações de direitos digitais enviaram uma epístola à Meta sobre o teor nocivo que circulava no Facebook na Etiópia, alertando que poderia “levar à violência física e outros actos de hostilidade”. e discriminação contra grupos minoritários.”

A epístola fazia uma série de recomendações, incluindo “parar a amplificação algorítmica de teor que incita à violência, mudanças temporárias nas funcionalidades de compartilhamento e uma avaliação do impacto nos direitos humanos nas operações da empresa na Etiópia”.

A Amnistia Internacional afirma que falhas sistemáticas semelhantes foram testemunhadas em Myanmar, uma vez que a utilização de um sistema automatizado de remoção de conteúdos que não conseguia ler o tipo de letra lugar e permitia conteúdo prejudicial para permanecer online. Isto aconteceu três anos antes da guerra na Etiópia, mas os fracassos foram semelhantes.

Tal uma vez que em Mianmar, o relatório diz que a moderação foi malfeita no país do Setentrião de África, apesar de o país estar na lista do Meta dos países mais em risco no seu “sistema de níveis”, que se destinava a orientar a atribuição de recursos de moderação.

“A Meta não conseguiu moderar adequadamente o teor nas principais línguas faladas na Etiópia e demorou a responder ao feedback dos moderadores de teor sobre termos que deveriam ser considerados prejudiciais. Isto resultou na permissão de circulação de teor prejudicial na plataforma – às vezes mesmo depois de ter sido denunciado, porque não foi considerado que violasse os padrões da comunidade Meta”, afirmou a Amnistia Internacional.

“Embora a moderação de teor por si só não teria evitado todos os danos decorrentes da amplificação algorítmica do Meta, é uma importante tática de mitigação”, afirmou.

Separadamente, um recente Juízo dos Direitos Humanos das Nações Unidas relatório sobre a Etiópia também concluiu que, apesar de o Facebook ter identificado a Etiópia uma vez que “em risco”, demorou a responder aos pedidos de remoção de conteúdos nocivos, não conseguiu fazer investimento financeiro suficiente e teve pessoal e capacidades linguísticas inadequados. Uma testemunha global investigação também descobriu que o Facebook era “extremamente fraco na detecção de oração de ódio na língua principal da Etiópia”. A denunciante Frances Haugen acusou anteriormente o Facebook de “literalmente fomentar a violência étnica” na Etiópia.

A Meta contestou que não tenha tomado medidas para prometer que o Facebook não fosse utilizado para fomentar a violência, dizendo: “Discordamos fundamentalmente das conclusões a que a Amnistia Internacional chegou no relatório, e as alegações de irregularidades ignoram contextos e factos importantes. A Etiópia tem, e continua a ser, uma das nossas maiores prioridades e introduzimos medidas abrangentes para sustar a violação de teor no Facebook no país.”

“O nosso trabalho de segurança e integridade na Etiópia é orientado pelo feedback das organizações locais da sociedade social e das instituições internacionais – muitas das quais continuamos a trabalhar e encontrámo-nos levante ano em Adis Abeba. Empregamos pessoal com conhecimento e experiência lugar e continuamos a desenvolver as nossas capacidades para detectar conteúdos violadores nas línguas mais faladas no país, incluindo amárico, oromo, somali e tigrínia”, disse um porta-voz da Meta.

A Amnistia Internacional afirma que as medidas que o Meta tomou, uma vez que melhorar os seus sistemas de moderação de teor e de classificação de idiomas, e reduzir as novas partilhas, aconteceram sobejo tarde e foram “de contextura restringido, pois não “abordam a pretexto raiz da ameaço que o Meta representa para os direitos humanos – a protótipo de negócios da empresa, que consome muitos dados.”

Entre as suas recomendações está a reforma do programa “Parceiro de Crédito” da Meta para prometer que as organizações da sociedade social e os defensores dos direitos humanos desempenhem um papel significativo nas decisões relacionadas com o teor e na premência de avaliações de impacto humano das suas plataformas na Etiópia. Aliás, instou a Meta a interromper a coleta invasiva de dados pessoais e informações que ameaçam os direitos humanos, muito uma vez que recomendações para “dar aos usuários uma opção de validação para o uso de seus algoritmos de modelagem de teor”.

No entanto, não ignora a relutância universal das Big Tech em colocar as pessoas em primeiro lugar e apelou aos governos para promulgarem e aplicarem leis e regulamentos para prevenir e punir os abusos das empresas.

“É mais crucial do que nunca que os Estados honrem a sua obrigação de proteger os direitos humanos, introduzindo e aplicando legislação significativa que irá controlar o protótipo de negócios fundamentado na vigilância.”

Últimas

Elon Musk traz Alex Jones e Infowars de volta ao X após pesquisa de usuários

Elon Musk restaurou as contas X do teórico...

Explore o Microsoft Bing Deep Search com GPT-4 e planos de IA generativa para 2024

A Microsoft anunciou o Deep Search, uma melhoria...

Mixtral-8x7B: 4 maneiras de experimentar o novo modelo da Mistral AI

Em um salto significativo no desenvolvimento de modelos...

Assine

spot_img

Veja Também

Elon Musk traz Alex Jones e Infowars de volta ao X após pesquisa de usuários

Elon Musk restaurou as contas X do teórico...

Explore o Microsoft Bing Deep Search com GPT-4 e planos de IA generativa para 2024

A Microsoft anunciou o Deep Search, uma melhoria...

Mixtral-8x7B: 4 maneiras de experimentar o novo modelo da Mistral AI

Em um salto significativo no desenvolvimento de modelos...

The 17 Best Ad Networks For Content Creators In 2024

In case you were in any doubt, we...
spot_img

Elon Musk traz Alex Jones e Infowars de volta ao X após pesquisa de usuários

Elon Musk restaurou as contas X do teórico da conspiração Alex Jones e de seu site de mídia Infowars. As contas X...

Explore o Microsoft Bing Deep Search com GPT-4 e planos de IA generativa para 2024

A Microsoft anunciou o Deep Search, uma melhoria substancial nos recursos de pesquisa na web do Bing, alimentado pelo GPT-4 da OpenAI. O que...

Mixtral-8x7B: 4 maneiras de experimentar o novo modelo da Mistral AI

Em um salto significativo no desenvolvimento de modelos de linguagem grande (LLM), a Mistral AI anunciou o lançamento de seu mais novo modelo,...