Uma pesquisa com líderes de segurança cibernética mostra que 62 % relataram ataques controlados por IA contra a equipe no ano passado. Esses incidentes, envolvendo injeção rápida e áudio ou vídeo de Deepfake, causaram interrupções significativas nos negócios, incluindo perdas de propriedade financeira e intelectual. O vetor de ataque mais comum foi as chamadas de áudio do DeepFake direcionadas aos funcionários, com 44 % das empresas relatando pelo menos um incidente. Seis por cento dessas ocorrências levaram à interrupção dos negócios, perda financeira ou perda de propriedade intelectual. Os dados indicaram que a implementação de um serviço de triagem de áudio se correlacionou com uma redução nessas taxas de perda para dois por cento. Os incidentes envolvendo videoilfakes foram relatados por 36 % das organizações pesquisadas. Entre esses casos, cinco por cento foram classificados como tendo causado um problema sério para os negócios. Isso representa uma ameaça persistente, embora menos frequente, em comparação com as tentativas de representação de áudio. Chester Wisniewski, Global Field CISO da empresa de segurança Sophos, explicou que o Deepfake Audio está se tornando altamente convincente e barato. “Com o áudio, você pode gerar essas chamadas em tempo real neste momento”, afirmou, observando que pode enganar um colega de trabalho que interage ocasionalmente. Wisniewski acredita que os números do Audio Deepfake podem subestimar o problema e achou os números de vídeo mais altos do que o esperado, dado que um vídeo em tempo real de um indivíduo específico pode custar milhões de dólares para produzir. Sophos observou táticas em que um scammer usa brevemente um CEO ou vídeo da CFO Deepfake em uma chamada do WhatsApp antes de reivindicar problemas de conectividade, excluir o feed e mudar para o texto para continuar um ataque de engenharia social. Fakes de vídeo genéricos também são usados para ocultar uma identidade em vez de roubar uma. Foi relatado que a Coréia do Norte ganha milhões ao fazer com que sua equipe use a falsificação de IA convencida para obter emprego com as empresas ocidentais. Outra ameaça crescente é o ataque de injeção imediata, onde instruções maliciosas são incorporadas ao conteúdo processado por um sistema de IA. Isso pode induzir a IA a revelar informações confidenciais ou usar ferramentas de uso indevido, potencialmente levando à execução do código se as integrações permitirem. De acordo com uma pesquisa do Gartner, 32 % dos entrevistados relataram esses ataques contra seus pedidos. Exemplos recentes ilustram essas vulnerabilidades. Os pesquisadores mostraram que o gemini chatbot do Google está sendo usado para direcionar o email de um usuário e os sistemas de casa inteligente. O modelo de linguagem Claude do Anthropic também teve problemas com injeção imediata. Em outras pesquisas, o ChatGPT foi enganado com sucesso a resolver o Captchas, projetado para diferenciar usuários humanos e de máquinas, e a gerar tráfego que poderia ser usado para ataques de negação de serviço contra sites.





