Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

SOPHOS: AI Deepfakes atingiu 62% das empresas no ano passado

byAytun Çelebi
24 Setembro 2025
in Research
Home Research
Share on FacebookShare on Twitter

Uma pesquisa com líderes de segurança cibernética mostra que 62 % relataram ataques controlados por IA contra a equipe no ano passado. Esses incidentes, envolvendo injeção rápida e áudio ou vídeo de Deepfake, causaram interrupções significativas nos negócios, incluindo perdas de propriedade financeira e intelectual. O vetor de ataque mais comum foi as chamadas de áudio do DeepFake direcionadas aos funcionários, com 44 % das empresas relatando pelo menos um incidente. Seis por cento dessas ocorrências levaram à interrupção dos negócios, perda financeira ou perda de propriedade intelectual. Os dados indicaram que a implementação de um serviço de triagem de áudio se correlacionou com uma redução nessas taxas de perda para dois por cento. Os incidentes envolvendo videoilfakes foram relatados por 36 % das organizações pesquisadas. Entre esses casos, cinco por cento foram classificados como tendo causado um problema sério para os negócios. Isso representa uma ameaça persistente, embora menos frequente, em comparação com as tentativas de representação de áudio. Chester Wisniewski, Global Field CISO da empresa de segurança Sophos, explicou que o Deepfake Audio está se tornando altamente convincente e barato. “Com o áudio, você pode gerar essas chamadas em tempo real neste momento”, afirmou, observando que pode enganar um colega de trabalho que interage ocasionalmente. Wisniewski acredita que os números do Audio Deepfake podem subestimar o problema e achou os números de vídeo mais altos do que o esperado, dado que um vídeo em tempo real de um indivíduo específico pode custar milhões de dólares para produzir. Sophos observou táticas em que um scammer usa brevemente um CEO ou vídeo da CFO Deepfake em uma chamada do WhatsApp antes de reivindicar problemas de conectividade, excluir o feed e mudar para o texto para continuar um ataque de engenharia social. Fakes de vídeo genéricos também são usados ​​para ocultar uma identidade em vez de roubar uma. Foi relatado que a Coréia do Norte ganha milhões ao fazer com que sua equipe use a falsificação de IA convencida para obter emprego com as empresas ocidentais. Outra ameaça crescente é o ataque de injeção imediata, onde instruções maliciosas são incorporadas ao conteúdo processado por um sistema de IA. Isso pode induzir a IA a revelar informações confidenciais ou usar ferramentas de uso indevido, potencialmente levando à execução do código se as integrações permitirem. De acordo com uma pesquisa do Gartner, 32 % dos entrevistados relataram esses ataques contra seus pedidos. Exemplos recentes ilustram essas vulnerabilidades. Os pesquisadores mostraram que o gemini chatbot do Google está sendo usado para direcionar o email de um usuário e os sistemas de casa inteligente. O modelo de linguagem Claude do Anthropic também teve problemas com injeção imediata. Em outras pesquisas, o ChatGPT foi enganado com sucesso a resolver o Captchas, projetado para diferenciar usuários humanos e de máquinas, e a gerar tráfego que poderia ser usado para ataques de negação de serviço contra sites.


Crédito da imagem em destaque

Tags: ApresentouDeepfakePesquisar

Related Posts

Escassez global de chips de memória faz disparar preços de PCs

Escassez global de chips de memória faz disparar preços de PCs

14 Janeiro 2026
Engenheiros constroem robôs inspirados em gafanhotos para resolver o consumo de bateria

Engenheiros constroem robôs inspirados em gafanhotos para resolver o consumo de bateria

14 Janeiro 2026
Estudo da Nature projeta 2 bilhões de dispositivos de saúde vestíveis até 2050

Estudo da Nature projeta 2 bilhões de dispositivos de saúde vestíveis até 2050

7 Janeiro 2026
Imperial College London desenvolve IA para acelerar a descoberta de medicamentos cardíacos

Imperial College London desenvolve IA para acelerar a descoberta de medicamentos cardíacos

6 Janeiro 2026
DeepSeek apresenta hiperconexões com restrição múltipla para R2

DeepSeek apresenta hiperconexões com restrição múltipla para R2

6 Janeiro 2026
Pesquisadores da CMU desenvolvem objetos automovíveis alimentados por IA

Pesquisadores da CMU desenvolvem objetos automovíveis alimentados por IA

31 Dezembro 2025

Recent Posts

  • Escassez global de chips de memória faz disparar preços de PCs
  • OpenAI adquire Torch para melhorar o ChatGPT Health
  • Amazon força upgrade de membros Prime para Alexa+
  • Crianças enganam Roblox com fotos de Kurt Cobain para contornar proibições de bate-papo
  • O sonho do metaverso da Meta desaparece quando 1.000 funcionários são demitidos

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.