A inteligência artificial (IA) pode oferecer soluções para reduzir a atividade nas redes sociais que é vista como tóxica e polarizadora.
Num estudo recente, os investigadores sugerem que ajustar a forma como o conteúdo das redes sociais apresenta pode reduzir as divisões partidárias e levar a interações mais positivas.
O estudo foi conduzido por uma equipe liderada pelo professor Petter Törnberg da Universidade de Amsterdã. Eles programaram 500 chatbots com perfis políticos e demográficos únicos com base em dados de pesquisas.
Os bots foram feitos para ler notícias reais e postar sobre elas em ambientes simulados do Twitter/X.
Nesta configuração, os bots demonstraram maior prazer em encontrar pontos em comum e comportamentos menos tóxicos. Como a IA imita as pessoas de forma mais realista, este estudo pode fornecer insights sobre como unir as pessoas nas redes sociais, evitando armadilhas éticas.
Mais sobre o estudo: Simulando uma rede social
A equipe de Törnberg programou chatbots usando ChatGPT 3.5. Cada bot recebeu uma afiliação política, idade, sexo, renda, religião, times esportivos favoritos e muito mais. Isso deu aos pesquisadores uma população simulada diversificada.
Em um dia simulado em julho de 2020, os bots leram manchetes reais daquele período sobre tópicos como COVID-19 e protestos do Black Lives Matter. Os bots então comentaram, curtiram e interagiram com postagens sobre as manchetes.
Os pesquisadores criaram três modelos experimentais diferentes de Twitter:
- Um modelo de câmara ecoada mostrava apenas postagens de bots de outras pessoas com opiniões semelhantes.
- Um modelo de descoberta priorizou o engajamento em detrimento das crenças.
- O terceiro modelo de “ponte” destacou postagens apreciadas por grupos partidários opostos para otimizar a interação entre partidos.
Rastreando o comportamento do bot
As simulações duraram 6 horas, com os pesquisadores acompanhando o comportamento dos bots.
No modelo de ponte, os bots mostraram maior felicidade em encontrar pontos em comum sobre questões como os direitos LGBTQ+ na música country. Houve também significativamente mais interação entre partes e trocas menos tóxicas do que o modelo de câmara de eco polarizada.
“Se as pessoas estão interagindo sobre uma questão que ultrapassa a divisão partidária, onde 50% das pessoas com quem você concorda votam em um partido diferente do seu, isso reduz a polarização”, explicou Törnberg. “Sua identidade partidária não está sendo ativada.”
Os resultados sugerem que as redes sociais podem ser concebidas para impulsionar o envolvimento sem alimentar abusos entre grupos diferentes. No entanto, são necessárias mais pesquisas para validar se os chatbots avançados de IA podem simular fielmente o comportamento humano online.
Preocupações éticas
Persistem preocupações éticas em torno dos dados privados usados para treinar bots com aparência humana. Eles poderiam ser programados com postagens de pessoas nas redes sociais, histórico de navegação ou registros confidenciais, levantando questões de consentimento.
Provavelmente são necessárias diretrizes em relação aos direitos das pessoas cujos dados treinam bots para estudos como este.
À medida que os chatbots de IA agem de forma mais humana, eles podem lançar luz sobre a redução da toxicidade nas redes sociais. No entanto, os investigadores devem garantir que as duplicações digitais também refletem o que há de melhor na humanidade, e não o pior.
Imagem em destaque: CkyBe/Shutterstock