O FBI emitiu um serviço público anúncio instando os usuários de smartphones a criarem uma palavra-código secreta para combater golpes gerados por IA. Esta recomendação surge no momento em que os relatórios revelam um aumento na fraude cibernética, aproveitando a IA generativa para aprimorar táticas enganosas. Especialistas em segurança dizem que essas ferramentas podem manipular táticas de comunicação, dificultando a distinção entre mensagens genuínas e falsificações. Como precaução, o FBI também aconselhou os usuários a parar de usar Rich Communication Services (RCS) para textos multiplataforma, já que estes não oferecem criptografia de ponta a ponta.
FBI alerta usuários de smartphones sobre o aumento de golpes gerados por IA
No alerta de serviço público número I-120324-PSA, o FBI informou que os criminosos cibernéticos utilizam cada vez mais IA generativa em esquemas de phishing. Esses avanços permitem que os invasores produzam e-mails e mensagens realistas, reduzindo assim a chance de que possíveis vítimas os reconheçam como fraudulentos. Em um exemplo, a IA pode gerar corretamente conteúdo que normalmente pode conter erros ortográficos ou gramaticais, que antes eram sinais reveladores de fraudes. Como resultado, as vítimas podem tornar-se cada vez mais vulneráveis à revelação de informações sensíveis.
O FBI descreveu várias maneiras alarmantes pelas quais a IA generativa pode facilitar ataques cibernéticos. Isso inclui a geração de fotos que criam uma identidade convincente, o uso de imagens de celebridades para promover atividades fraudulentas e a geração de clipes de áudio que imitam entes queridos solicitando ajuda financeira. Além disso, a tecnologia de IA é capaz de produzir chats de vídeo em tempo real com indivíduos que afirmam ser executivos de empresas ou agentes da lei, confundindo ainda mais os limites entre a realidade e o engano.
A aplicação da lei enfrenta desafios com a reinicialização automática dos iPhones
Para se proteger contra estas ameaças, o FBI enfatiza a importância da verificação. Os usuários são aconselhados a desligar se receberem chamadas suspeitas e verificarem de forma independente a identidade do chamador, pesquisando e usando informações de contato verificadas. A criação de uma palavra secreta acordada entre os familiares pode servir como medida de proteção contra chamadas de emergência fraudulentas. Esta simples precaução pode garantir que quaisquer pedidos urgentes de assistência possam ser validados.
Os relatórios em evolução indicam que a IA generativa está a ser cada vez mais utilizada em diversas fraudes cibernéticas, desde fraudes de suporte técnico até fraudes bancárias. Os investigadores notaram uma tendência nas tácticas baseadas na IA que se centram em comportamentos manipulativos nas comunicações, especialmente através de smartphones. Isto indica uma mudança significativa no cenário das ameaças à segurança cibernética.
A IA genética também está confundindo os limites da autenticidade nas plataformas de comunicação populares. Devido às vulnerabilidades inerentes a sistemas como o RCS, os usuários da Apple e do Android precisam ser particularmente cautelosos ao lidar com mensagens de texto entre plataformas, que agora não possuem criptografia segura garantida. Consequentemente, a utilização de serviços de mensagens criptografadas, como o WhatsApp, tornou-se mais crítica do que nunca.
- Texto gerado por IA:
Os criminosos exploram textos gerados por IA para convencer esquemas fraudulentos, incluindo engenharia social, phishing, golpes de investimento e fraudes com criptomoedas. Eles usam ferramentas de IA para comunicação mais rápida e sem erros, criando perfis falsos, sites fraudulentos e incorporando chatbots.
- Imagens geradas por IA:
A IA generativa cria imagens realistas para perfis falsos de mídia social, identidades fraudulentas e personificações. É usado para golpes de caridade, manipulação de mercado e sextorsão, entre outros esquemas fraudulentos.
- Áudio gerado por IA:
A clonagem vocal permite que os golpistas se façam passar por entes queridos ou figuras públicas, enganando as vítimas para obter assistência financeira, pagamentos de resgate ou acesso não autorizado a contas bancárias.
- Vídeos gerados por IA:
Os vídeos gerados por IA ajudam os fraudadores a se passarem por figuras de autoridade ou materiais promocionais falsos, comprovando a “autenticidade” em golpes online e táticas de engenharia social.
- Dicas de proteção:
Use palavras secretas com a família, analise a mídia em busca de inconsistências, limite o conteúdo pessoal online, verifique identidades de forma independente e nunca compartilhe informações confidenciais ou envie dinheiro para indivíduos não verificados. As vítimas devem denunciar golpes ao site IC3 do FBI com informações detalhadas.
Crédito da imagem em destaque: David Trinks