Posts Recentes:

O relatório ambiental do Google evita intencionalmente o custo real de energia da IA

O Google emitiu seu Relatório Ambiental de 2024,...

GraphRAG é um RAG melhor e agora é gratuito

A Microsoft está disponibilizando publicamente uma nova tecnologia...

Google reforça regras de divulgação de conteúdo sintético em anúncios políticos

O Google atualizou sua política de conteúdo político,...

Golpes baseados em IA e o que você pode fazer a respeito


A IA está aqui para ajudar, esteja você redigindo um e-mail, fazendo alguma arte conceitual ou aplicando um golpe em pessoas vulneráveis, fazendo-as pensar que você é um amigo ou parente em perigo. IA é tão versátil! Mas como algumas pessoas preferem não ser enganadas, vamos conversar um pouco sobre o que observar.

Nos últimos anos assistimos a um enorme aumento não apenas na qualidade dos meios de comunicação gerados, desde texto a áudio, imagens e vídeo, mas também na forma como esses meios de comunicação podem ser criados de forma barata e fácil. O mesmo tipo de ferramenta que ajuda um artista conceitual a criar alguns monstros de fantasia ou naves espaciais, ou permite que um falante não nativo melhore seu inglês comercial, também pode ser usado de forma maliciosa.

Não espere que o Exterminador do Futuro bata à sua porta e lhe convença a fazer um esquema Ponzi — esses são os mesmos golpes de sempre que enfrentamos há anos, mas com um toque de IA generativa que os torna mais fáceis, baratos ou convincentes.

Esta não é de forma alguma uma lista completa, apenas alguns dos truques mais óbvios que a IA pode potencializar. Teremos certeza de adicionar novos truques conforme eles aparecerem na natureza, ou quaisquer etapas adicionais que você possa tomar para se proteger.

Clonagem de voz de familiares e amigos

As vozes sintéticas existem há décadas, mas foi apenas no último ano ou dois que avanços na tecnologia permitiram que uma nova voz fosse gerada a partir de apenas alguns segundos de áudio. Isso significa que qualquer pessoa cuja voz já tenha sido transmitida publicamente — por exemplo, em uma reportagem, vídeo do YouTube ou nas mídias sociais — está vulnerável a ter sua voz clonada.

Golpistas podem e têm usado essa tecnologia para produzir versões falsas convincentes de entes queridos ou amigos. Eles podem ser obrigados a dizer qualquer coisa, é claro, mas a serviço de um golpe, eles provavelmente farão um clipe de voz pedindo ajuda.

Por exemplo, um pai pode receber uma mensagem de voz de um número desconhecido que parece ser o de seu filho, dizendo como suas coisas foram roubadas durante uma viagem, uma pessoa permitiu que ele usasse seu telefone e a mãe ou o pai poderiam enviar algum dinheiro para este endereço, destinatário do Venmo , negócios, etc. Pode-se facilmente imaginar variantes com problemas no carro (“eles não vão liberar meu carro até que alguém os pague”), problemas médicos (“este tratamento não é coberto pelo seguro”) e assim por diante.

Esse tipo de golpe já foi feito com a voz do presidente Biden. Eles pegaram os culpados por trás dissomas os futuros golpistas serão mais cuidadosos.

Como você pode lutar contra a clonagem de voz?

Primeiro, não se preocupe em tentar identificar uma voz falsa. Eles estão melhorando a cada dia e há muitas maneiras de disfarçar quaisquer problemas de qualidade. Até os especialistas são enganados.

Qualquer coisa proveniente de um número, endereço de e-mail ou conta desconhecido deve ser automaticamente considerada suspeita. Se alguém disser que é seu amigo ou ente querido, entre em contato com a pessoa como faria normalmente. Eles provavelmente dirão que estão bem e que isso é (como você adivinhou) uma farsa.

Golpistas tendem a não dar continuidade se forem ignorados — enquanto um membro da família provavelmente fará isso. Não tem problema deixar uma mensagem suspeita no modo lido enquanto você considera.

Phishing e spam personalizados por e-mail e mensagens

Todos nós recebemos spam de vez em quando, mas a IA geradora de texto está tornando possível enviar e-mails em massa personalizados para cada indivíduo. Com violações de dados acontecendo regularmente, muitos dos seus dados pessoais estão por aí.

Uma coisa é receber um daqueles “Clique aqui para ver sua fatura!” e-mails fraudulentos com anexos obviamente assustadores que parecem exigir pouco esforço. Mas mesmo com um pouco de contexto, de repente eles se tornam bastante críveisusando localizações, compras e hábitos recentes para fazer parecer uma pessoa real ou um problema real. Armado com alguns fatos pessoais, um modelo de linguagem pode personalizar um genérico desses e-mails para milhares de destinatários em questão de segundos.

Então, o que antes era “Caro cliente, por favor, encontre sua fatura em anexo” se torna algo como “Olá, Doris! Estou com a equipe de promoções da Etsy. Um item que você estava olhando recentemente agora está com 50% de desconto! E o frete para seu endereço em Bellingham é grátis se você usar este link para reivindicar o desconto.” Um exemplo simples, mas ainda assim. Com um nome real, hábito de compras (fácil de descobrir), localização geral (idem) e assim por diante, de repente a mensagem é muito menos óbvia.

No final, ainda são apenas spam. Mas esse tipo de spam personalizado já teve que ser feito por pessoas mal pagas em fazendas de conteúdo em países estrangeiros. Agora isso pode ser feito em grande escala por um LLM com melhores habilidades em prosa do que muitos escritores profissionais.

Como você pode lutar contra o spam de e-mail?

Tal como acontece com o spam tradicional, a vigilância é a sua melhor arma. Mas não espere detectar texto gerado a partir de texto escrito por humanos em estado selvagem. Poucos conseguem, e certamente nenhum outro modelo de IA.

Por melhor que o texto possa ser, esse tipo de golpe ainda tem o desafio fundamental de fazer você abrir anexos ou links duvidosos. Como sempre, a menos que você tenha 100% de certeza da autenticidade e identidade do remetente, não clique ou abra nada. Se você estiver um pouco inseguro — e esse é um bom senso a ser cultivado — não clique, e se você tiver alguém com conhecimento para encaminhar para um segundo par de olhos, faça isso.

Fraude de identificação e verificação de 'Falso você'

Devido ao número de violações de dados nos últimos anos (obrigado, Equifax), é seguro dizer que quase todos nós temos uma quantidade razoável de dados pessoais flutuando na dark web. Se você está seguindo boas práticas de segurança online, grande parte do perigo é atenuado porque você alterou suas senhas, ativou a autenticação multifator e assim por diante. Mas a IA generativa pode representar uma nova e grave ameaça nesta área.

Com tantos dados sobre alguém disponíveis on-line e, para muitos, até mesmo um ou dois trechos de sua voz, está cada vez mais fácil criar uma persona de IA que soe como uma pessoa-alvo e tenha acesso a muitos dos fatos usados ​​para verificar a identidade.

Pense assim. Se você estivesse tendo problemas para fazer login, não conseguisse configurar seu aplicativo de autenticação corretamente ou perdesse seu telefone, o que você faria? Provavelmente ligue para o atendimento ao cliente – e eles “verificarão” sua identidade usando alguns fatos triviais, como sua data de nascimento, número de telefone ou número do Seguro Social. Métodos ainda mais avançados, como “tirar uma selfie”, estão se tornando mais fáceis de usar.

O agente de atendimento ao cliente — até onde sabemos, também uma IA — pode muito bem atender esse falso você e conceder a ele todos os privilégios que você teria se realmente ligasse. O que eles podem fazer dessa posição varia muito, mas nada disso é bom.

Assim como os outros nesta lista, o perigo não é tanto o quão realista esse falso você seria, mas que é fácil para os golpistas fazerem esse tipo de ataque de forma ampla e repetida. Não muito tempo atrás, esse tipo de ataque de personificação era caro e demorado e, como consequência, seria limitado a alvos de alto valor, como pessoas ricas e CEOs. Hoje em dia, você pode criar um fluxo de trabalho que cria milhares de agentes de personificação com supervisão mínima, e esses agentes podem ligar autonomamente para os números de atendimento ao cliente em todas as contas conhecidas de uma pessoa — ou até mesmo criar novas. Apenas um punhado precisa ser bem-sucedido para justificar o custo do ataque.

Como você pode lutar contra a fraude de identidade?

Assim como acontecia antes das IAs reforçarem os esforços dos golpistas, “Cibersegurança 101” é sua melhor aposta. Seus dados já estão lá; você não pode colocar a pasta de dente de volta no tubo. Mas você pode certifique-se de que suas contas estejam adequadamente protegidas contra os ataques mais óbvios.

Autenticação multifator é facilmente o passo mais importante que alguém pode dar aqui. Qualquer tipo de atividade séria na conta vai direto para o seu telefone, e logins suspeitos ou tentativas de alteração de senha aparecerão no e-mail. Não negligencie esses avisos nem os marque como spam, mesmo (especialmente) se você estiver recebendo muitos.

Deepfakes e chantagem gerados por IA

Talvez a forma mais assustadora de fraude de IA emergente seja a possibilidade de chantagem usando imagens falsas de você ou de um ente querido. Você pode agradecer ao mundo em rápida evolução dos modelos de imagens abertas por essa perspectiva futurística e aterrorizante. Pessoas interessadas em determinados aspectos da geração de imagens de ponta criaram fluxos de trabalho não apenas para renderizar corpos nus, mas para anexá-los a qualquer rosto do qual eles possam obter uma imagem. Não preciso elaborar sobre como isso já está sendo usado.

Mas uma consequência não intencional é uma extensão do golpe comumente chamado de “pornografia de vingança”, mas descrito com mais precisão como distribuição não consensual de imagens íntimas (embora, como “deepfake”, possa ser difícil substituir o termo original). Quando as imagens privadas de alguém são divulgadas através de hackers ou de um ex vingativo, elas podem ser usadas como chantagem por terceiros que ameaçam publicá-las amplamente, a menos que uma quantia seja paga.

A IA aprimora esse golpe, fazendo com que, em primeiro lugar, não exista a necessidade de imagens íntimas reais. O rosto de qualquer pessoa pode ser adicionado a um corpo gerado por IA e, embora os resultados nem sempre sejam convincentes, provavelmente é o suficiente para enganar você ou outras pessoas se estiver pixelizado, de baixa resolução ou parcialmente ofuscado. E isso é tudo o que é necessário para assustar alguém e fazê-lo pagar para mantê-lo em segredo – embora, como a maioria dos golpes de chantagem, é improvável que o primeiro pagamento seja o último.

Como você pode lutar contra deepfakes gerados por IA?

Infelizmente, o mundo para o qual estamos caminhando é aquele em que imagens falsas de nudez de quase qualquer pessoa estarão disponíveis sob demanda. É assustador, estranho e nojento, mas infelizmente o gato está fora de questão aqui.

Ninguém está feliz com esta situação, exceto os bandidos. Mas há algumas coisas acontecendo com as vítimas em potencial. Esses modelos de imagem podem produzir corpos realistas de algumas maneiras, mas, como outras IAs generativas, eles só sabem no que foram treinados. Portanto, as imagens falsas não terão quaisquer marcas distintivas, por exemplo, e provavelmente estarão obviamente erradas em outros aspectos.

E embora a ameaça provavelmente nunca diminua completamente, há cada vez mais recursos para as vítimasque podem obrigar legalmente os hosts de imagens a remover fotos, ou banir golpistas de sites onde eles postam. À medida que o problema cresce, também crescem os meios legais e privados de combatê-lo.

TechCrunch não é advogado. Mas se você for vítima disso, avise a polícia. Não é apenas uma fraude, mas um assédio, e embora você não possa esperar que os policiais façam o tipo de trabalho de detetive da Internet necessário para rastrear alguém, esses casos às vezes são resolvidos, ou os golpistas ficam assustados com as solicitações enviadas ao seu ISP ou anfitrião do fórum.

Últimas

O relatório ambiental do Google evita intencionalmente o custo real de energia da IA

O Google emitiu seu Relatório Ambiental de 2024,...

GraphRAG é um RAG melhor e agora é gratuito

A Microsoft está disponibilizando publicamente uma nova tecnologia...

Google reforça regras de divulgação de conteúdo sintético em anúncios políticos

O Google atualizou sua política de conteúdo político,...

Google expande definição de anúncios eleitorais dos EUA

O Google está atualizando sua política de conteúdo...

Assine

spot_img

Veja Também

O relatório ambiental do Google evita intencionalmente o custo real de energia da IA

O Google emitiu seu Relatório Ambiental de 2024,...

GraphRAG é um RAG melhor e agora é gratuito

A Microsoft está disponibilizando publicamente uma nova tecnologia...

Google reforça regras de divulgação de conteúdo sintético em anúncios políticos

O Google atualizou sua política de conteúdo político,...

Google expande definição de anúncios eleitorais dos EUA

O Google está atualizando sua política de conteúdo...

9 dicas para geração de leads bem-sucedida (insights de marcas especializadas)

Construir um pipeline de qualidade atualmente é um...
spot_img

O relatório ambiental do Google evita intencionalmente o custo real de energia da IA

O Google emitiu seu Relatório Ambiental de 2024, um documento de mais de 80 páginas descrevendo todos os esforços da grande empresa para...

GraphRAG é um RAG melhor e agora é gratuito

A Microsoft está disponibilizando publicamente uma nova tecnologia chamada GraphRAG, que permite que chatbots e mecanismos de resposta conectem os pontos em um...

Google reforça regras de divulgação de conteúdo sintético em anúncios políticos

O Google atualizou sua política de conteúdo político, exigindo que os anunciantes divulguem anúncios eleitorais que contenham conteúdo sintético ou alterado digitalmente.Por que...