Início Tecnologia Golpes baseados em IA e o que você pode fazer a respeito

Golpes baseados em IA e o que você pode fazer a respeito

16
0

A IA está aqui para ajudar, esteja você redigindo um e-mail, fazendo alguma arte conceitual ou aplicando um golpe em pessoas vulneráveis, fazendo-as pensar que você é um amigo ou parente em perigo. A IA é tão versátil! Mas como algumas pessoas preferem não ser enganadas, vamos conversar um pouco sobre o que observar.

Os últimos anos têm visto um grande aumento não apenas na qualidade da mídia gerada, de texto a áudio, imagens e vídeo, mas também em quão barata e facilmente essa mídia pode ser criada. O mesmo tipo de ferramenta que ajuda um artista conceitual a inventar alguns monstros ou naves espaciais de fantasia, ou permite que um falante não nativo melhore seu inglês comercial, pode ser usado para fins maliciosos também.

Não espere que o Exterminador do Futuro bata à sua porta e o venda em um esquema Ponzi – esses são os mesmos velhos golpes que enfrentamos há anos, mas com um toque de IA generativo que os torna mais fáceis, mais baratos ou mais convincentes.

Esta não é de forma alguma uma lista completa, apenas alguns dos truques mais óbvios que a IA pode sobrecarregar. Teremos certeza de adicionar notícias à medida que aparecerem, ou quaisquer medidas adicionais que você possa tomar para se proteger.

Clonagem de voz de familiares e amigos

As vozes sintéticas existem há décadas, mas foi apenas nos últimos dois anos que os avanços na tecnologia permitiram que uma nova voz fosse gerada a partir de apenas alguns segundos de áudio. Isso significa que qualquer pessoa cuja voz tenha sido transmitida publicamente – por exemplo, numa reportagem, num vídeo do YouTube ou nas redes sociais – está vulnerável a ter a sua voz clonada.

Os golpistas podem e têm usado essa tecnologia para produzir versões falsas e convincentes de entes queridos ou amigos. É claro que eles podem dizer qualquer coisa, mas, a serviço de uma fraude, é mais provável que eles façam um clipe de voz pedindo ajuda.

Por exemplo, um pai pode receber uma mensagem de voz de um número desconhecido que parece ser do filho, dizendo que suas coisas foram roubadas durante uma viagem, uma pessoa deixou que ele usasse o telefone e que a mãe ou o pai poderiam enviar dinheiro para esse endereço, destinatário do Venmo, empresa, and many others. É fácil imaginar variantes com problemas com o carro (“eles não vão liberar meu carro até que alguém os pague”), problemas médicos (“esse tratamento não é coberto pelo seguro”) e assim por diante.

Esse tipo de golpe já foi feito com a voz do presidente Biden! Eles pegaram os responsáveis ​​​​por isso, mas os futuros golpistas serão mais cuidadosos.

Como você pode lutar contra a clonagem de voz?

Primeiro, não se incomode em tentar identificar uma voz falsa. Elas estão melhorando a cada dia, e há muitas maneiras de disfarçar quaisquer problemas de qualidade. Até mesmo especialistas são enganados!

Qualquer coisa proveniente de um número, endereço de e-mail ou conta desconhecido deve ser automaticamente considerada suspeita. Se alguém disser que é seu amigo ou ente querido, entre em contato com a pessoa como faria normalmente. Eles provavelmente dirão que estão bem e que isso é (como você adivinhou) uma farsa.

Os golpistas tendem a não fazer o acompanhamento se forem ignorados – enquanto um membro da família provavelmente o fará. Não há problema em deixar uma mensagem suspeita para leitura enquanto você pensa.

Phishing e spam personalizados through e-mail e mensagens

Todos nós recebemos spam de vez em quando, mas a IA de geração de texto está possibilitando o envio de e-mails em massa personalizados para cada indivíduo. Com violações de dados acontecendo regularmente, muitos dos seus dados pessoais estão por aí.

Uma coisa é receber um desses e-mails de golpe do tipo “Clique aqui para ver sua fatura!” com anexos obviamente assustadores que parecem tão pouco trabalhosos. Mas mesmo com um pouco de contexto, eles de repente se tornam bastante críveis, usando localizações, compras e hábitos recentes para fazer parecer uma pessoa actual ou um problema actual. Armado com alguns fatos pessoais, um modelo de linguagem pode personalizar um genérico desses e-mails para milhares de destinatários em questão de segundos.

Então, o que antes period “Prezado cliente, encontre sua fatura em anexo” se torna algo como “Olá, Doris! Estou com a equipe de promoções da Etsy. Um merchandise que você estava vendo recentemente agora está com 50% de desconto! E o envio para o seu endereço em Bellingham é gratuito se você usar este hyperlink para reivindicar o desconto.” Um exemplo simples, mas ainda assim. Com nome actual, hábito de comprar (fácil de descobrir), localização geral (idem) e assim por diante, de repente a mensagem fica bem menos óbvia.

No ultimate, isso ainda é apenas spam. Mas esse tipo de spam personalizado antes tinha que ser feito por pessoas mal pagas em fazendas de conteúdo em países estrangeiros. Agora, pode ser feito em escala por um LLM com melhores habilidades de prosa do que muitos escritores profissionais!

Como você pode lutar contra o spam de e-mail?

Tal como acontece com o spam tradicional, a vigilância é a sua melhor arma. Mas não espere ser capaz de distinguir o texto gerado do texto escrito por humanos em estado selvagem. São poucos os que conseguem, e certamente não (apesar das afirmações de algumas empresas e serviços) outro modelo de IA.

Por melhor que o texto possa ser, esse tipo de golpe ainda tem o desafio basic de fazer você abrir anexos ou hyperlinks duvidosos. Como sempre, a menos que você tenha 100% de certeza da autenticidade e identidade do remetente, não clique ou abra nada. Se você estiver um pouco inseguro — e esse é um bom senso a ser cultivado — não clique, e se você tiver alguém com conhecimento para encaminhar para um segundo par de olhos, faça isso.

Fraude de verificação e identificação falsa

Devido ao número de violações de dados nos últimos anos (obrigado, Equifax!), é seguro dizer que quase todos nós temos uma quantidade razoável de dados pessoais flutuando na darkish internet. Se você seguir boas práticas de segurança on-line, grande parte do perigo será atenuado porque você alterou suas senhas, habilitou a autenticação multifator e assim por diante. Mas a IA generativa pode representar uma nova e grave ameaça nesta área.

Com tantos dados sobre alguém disponíveis on-line e, para muitos, até mesmo um ou dois trechos de sua voz, está cada vez mais fácil criar uma persona de IA que soe como uma pessoa-alvo e tenha acesso a muitos dos fatos usados ​​para verificar a identidade.

Pense assim. Se você estivesse com problemas para fazer login, não conseguisse configurar seu aplicativo de autenticação corretamente ou perdesse seu telefone, o que faria? Ligaria para o serviço de atendimento ao cliente, provavelmente — e eles “verificariam” sua identidade usando alguns fatos triviais como sua information de nascimento, número de telefone ou número do Seguro Social. Métodos ainda mais avançados como “tirar uma selfie” estão se tornando mais fáceis de burlar.

O agente de atendimento ao cliente — até onde sabemos, também uma IA! — pode muito bem atender esse falso você e conceder a ele todos os privilégios que você teria se realmente ligasse. O que eles podem fazer dessa posição varia muito, mas nada disso é bom!

Tal como acontece com os outros nesta lista, o perigo não é tanto o quão realista você seria essa farsa, mas sim o fato de ser fácil para os golpistas realizarem esse tipo de ataque ampla e repetidamente. Não muito tempo atrás, esse tipo de ataque de falsificação de identidade period caro e demorado e, como consequência, seria limitado a alvos de alto valor, como pessoas ricas e CEOs. Hoje em dia, você poderia criar um fluxo de trabalho que criasse milhares de agentes de representação com supervisão mínima, e esses agentes poderiam ligar de forma autônoma para os números de atendimento ao cliente de todas as contas conhecidas de uma pessoa — ou até mesmo criar novas! Apenas alguns precisam ter sucesso para justificar o custo do ataque.

Como você pode lutar contra fraudes de identidade?

Assim como acontecia antes das IAs reforçarem os esforços dos golpistas, “Cybersecurity 101” é sua melhor aposta. Seus dados já estão disponíveis; você não pode colocar a pasta de dente de volta no tubo. Mas você pode certifique-se de que suas contas estejam adequadamente protegidas contra os ataques mais óbvios.

A autenticação multifator é facilmente a etapa mais importante que qualquer pessoa pode realizar aqui. Qualquer tipo de atividade séria na conta vai direto para o seu telefone, e logins suspeitos ou tentativas de alteração de senha aparecerão no e-mail. Não negligencie esses avisos nem os marque como spam, mesmo (especialmente!) se você estiver recebendo muitos.

Deepfakes e chantagem gerados por IA

Talvez a forma mais assustadora de golpe de IA nascente seja a possibilidade de chantagem usando imagens deepfake suas ou de um ente querido. Você pode agradecer ao mundo em rápido movimento dos modelos de imagem aberta por essa perspectiva futurística e aterrorizante! Pessoas interessadas em certos aspectos da geração de imagens de ponta criaram fluxos de trabalho não apenas para renderizar corpos nus, mas anexá-los a qualquer rosto do qual possam obter uma foto. Não preciso elaborar sobre como isso já está sendo usado.

Mas uma consequência não intencional é uma extensão do golpe comumente chamado de “pornografia de vingança”, mas descrito com mais precisão como distribuição não consensual de imagens íntimas (embora, como “deepfake”, possa ser difícil substituir o termo unique). Quando as imagens privadas de alguém são divulgadas através de hackers ou de um ex vingativo, elas podem ser usadas como chantagem por terceiros que ameaçam publicá-las amplamente, a menos que uma quantia seja paga.

A IA aprimora esse golpe ao fazer com que nenhuma imagem íntima actual exact existir em primeiro lugar! O rosto de qualquer pessoa pode ser adicionado a um corpo gerado por IA e, embora os resultados nem sempre sejam convincentes, provavelmente é o suficiente para enganar você ou outras pessoas se estiver pixelado, de baixa resolução ou parcialmente ofuscado. E isso é tudo o que é necessário para assustar alguém e fazê-lo pagar para mantê-lo em segredo — embora, como a maioria dos golpes de chantagem, o primeiro pagamento dificilmente será o último.

Como você pode lutar contra deepfakes gerados por IA?

Infelizmente, o mundo para o qual estamos caminhando é aquele em que imagens falsas de nudez de quase qualquer pessoa estarão disponíveis sob demanda. É assustador, estranho e nojento, mas infelizmente o gato está fora de questão aqui.

Ninguém está feliz com essa situação, exceto os bandidos. Mas há algumas coisas acontecendo para todas nós, vítimas em potencial. Pode ser um consolo frio, mas essas imagens não são realmente suas, e não são necessárias fotos reais de nus para provar isso. Esses modelos de imagem podem produzir corpos realistas de algumas maneiras, mas, como outras IAs generativas, eles só sabem no que foram treinados. Então, as imagens falsas não terão nenhuma marca distintiva, por exemplo, e provavelmente estarão obviamente erradas de outras maneiras.

E embora a ameaça provavelmente nunca diminua completamente, há cada vez mais recursos para as vítimas, que podem obrigar legalmente os hosts de imagens a remover fotos ou banir golpistas de websites onde eles postam. À medida que o problema cresce, também crescem os meios legais e privados de combatê-lo.

O TechCrunch não é um advogado! Mas se você for vítima disso, conte à polícia. Não é apenas um golpe, mas assédio, e embora você não possa esperar que os policiais façam o tipo de trabalho de detetive profundo na web necessário para rastrear alguém, esses casos às vezes são resolvidos, ou os golpistas ficam assustados com solicitações enviadas ao seu ISP ou host do fórum.

Fonte