Antes das eleições presidenciais dos EUA em 2024, a Antrópica, o bem financiado A startup AI está testando uma tecnologia para detectar quando os usuários de seu chatbot GenAI perguntam sobre tópicos políticos e redireciona esses usuários para fontes “autorizadas” de informações eleitorais.
Chamada Prompt Shield, a tecnologia, que se baseia em uma combinação de modelos e regras de detecção de IA, mostra um pop-up se um usuário de Cláudio, chatbot da Anthropic, pede informações de votação. O pop-up oferece o redirecionamento do usuário para o TurboVote, um recurso da organização apartidária Democracy Works, onde eles podem encontrar informações de votação precisas e atualizadas.
A Anthropic diz que o Prompt Shield foi necessário devido às deficiências de Claude na área de informações relacionadas à política e às eleições. Claude não é treinado com frequência suficiente para fornecer informações em tempo real sobre eleições específicas, reconhece a Anthropic, e por isso é propenso a alucinando — isto é, inventando factos — sobre essas eleições.
“Temos um 'escudo imediato' em vigor desde que lançamos o Claude – ele sinaliza vários tipos diferentes de danos, com base em nossa política de usuário aceitável”, disse um porta-voz ao TechCrunch por e-mail. “Estaremos lançando nossa intervenção de proteção imediata específica para eleições nas próximas semanas e pretendemos monitorar o uso e as limitações… Conversamos com uma variedade de partes interessadas, incluindo legisladores, outras empresas, sociedade civil e agências não-governamentais e organizações específicas para eleições. consultores [in developing this].”
Aparentemente é um teste limitado no momento. Claude não apresentou o pop-up quando perguntei sobre como votar nas próximas eleições, em vez disso apresentou um guia genérico de votação. A Anthropic afirma que está ajustando o Prompt Shield enquanto se prepara para expandi-lo para mais usuários.
A Anthropic, que proíbe o uso de suas ferramentas em campanhas políticas e lobby, é o mais recente fornecedor de GenAI a implementar políticas e tecnologias para tentar evitar interferências eleitorais.
O momento não é coincidência. Este ano, a nível mundial, mais eleitores do que nunca na história irão às urnas, uma vez que pelo menos 64 países, representando uma população combinada de cerca de 49% da população mundial, deverão realizar eleições nacionais.
Em janeiro, a OpenAI disse que proibiria as pessoas de usarem o ChatGPT, seu chatbot viral baseado em IA, para criar bots que se passassem por candidatos ou governos reais, deturpassem o funcionamento da votação ou desencorajassem as pessoas de votar. Assim como a Anthropic, a OpenAI atualmente não permite que os usuários criem aplicativos usando suas ferramentas para fins de campanha política ou lobby – uma política que a empresa reiterou no mês passado.
Numa abordagem técnica semelhante ao Prompt Shield, a OpenAI também está a empregar sistemas de detecção para orientar os utilizadores do ChatGPT que fazem perguntas logísticas sobre a votação para um site apartidário, CanIVote.org, mantido pela Associação Nacional de Secretários de Estado.
Nos EUA, o Congresso ainda não aprovou legislação que procure regular o papel da indústria da IA na política, apesar de algum apoio bipartidário. Entretanto, mais de um terço dos estados dos EUA aprovaram ou introduziram projetos de lei para combater os deepfakes em campanhas políticas, à medida que a legislação federal estagna.
Em vez de legislação, algumas plataformas – sob pressão de vigilantes e reguladores – estão a tomar medidas para impedir que a GenAI seja utilizada de forma abusiva para enganar ou manipular os eleitores.
Google disse em setembro passado, que exigiria que anúncios políticos usando GenAI no YouTube e suas outras plataformas, como a Pesquisa Google, fossem acompanhados de uma divulgação proeminente se as imagens ou sons fossem alterados sinteticamente. A Meta também proibiu campanhas políticas de usar ferramentas GenAI – incluindo as suas próprias – em publicidade em suas propriedades.