À medida que a tecnologia DeepFake avança, as preocupações com a desinformação e o roubo de identidade estão aumentando, destacados por um recente estudo de iProov, revelando que a maioria dos indivíduos luta para distinguir entre conteúdo real e gerado pela IA.
O estudar envolveu 2.000 participantes em todo o Reino Unido e nos EUA, expondo -os a uma mistura de imagens e vídeos genuínos e deepfake. Surpreendentemente, apenas 0,1% dos participantes, totalizando apenas dois indivíduos, poderiam diferenciar com precisão os estímulos reais e deepfake.
Os adultos mais velhos emergiram como particularmente vulnerável ao engano gerado pela IA. Aproximadamente 30% dos participantes de 55 a 64 anos e 39% dos mais de 65 relataram que nunca haviam ouvido falar de Feaskes Antes do Estudo. Embora os participantes mais jovens (de 18 a 34 anos) tenham demonstrado maior confiança em sua capacidade de detectar os deepfakes, seu desempenho real não refletiu a melhoria.
Desafios de detecção de Deepfake
O estudo indicou que a detecção de vídeos do DeepFake foi significativamente mais desafiadora do que identificar imagens. Os participantes tiveram 36% menos propensos a identificar com precisão um vídeo sintético em comparação com uma imagem sintética, levantando preocupações com relação ao potencial de fraude baseada em vídeo, como representação durante chamadas de vídeo.
As plataformas de mídia social foram identificadas como principais fontes de conteúdo de DeepFake. Quase metade dos participantes (49%) citou meta plataformas, incluindo o Facebook e o Instagram, como os sites mais comuns para o DeepFakes, enquanto 47% apontaram para Tiktok.
Andrew Bud, fundador e CEO da Iproov, comentou as descobertas, observando a maior vulnerabilidade de organizações e consumidores a fraude de identidade na era Deepfake. Ele declarou: “Os criminosos estão explorando a incapacidade dos consumidores de distinguir imagens reais de falsas, colocando em risco informações pessoais e segurança financeira”. Apesar dos resultados alarmantes, o estudo constatou que apenas 20% dos entrevistados relatariam um suspeito de Deepfake online.
À medida que os deepfakes se tornam cada vez mais sofisticados, Iproov sugere que a percepção humana sozinha é insuficiente para detecção confiável. Bud enfatizou a necessidade de soluções de segurança biométricas com detecção de LIVRE para combater a ameaça representada por convencer o material Deepfake.
A pesquisa da Iproov mostra uma necessidade premente de organizações proteger seus clientes, integrando medidas de segurança robustas. Bud acredita que o uso de biometria facial com detecção de LIVRE oferece um fator de autenticação confiável que prioriza a segurança e o controle individual.
Segundo o estudo, apenas 22% dos consumidores ouviram de DeepFakes antes de participar. Além disso, muitos indivíduos exibiram excesso de confiança em relação às suas habilidades de detecção, com mais de 60% acreditando que poderiam identificar os deepfakes, apesar da maioria do desempenho mal. Entre os adultos mais jovens, essa falsa sensação de segurança foi especialmente prevalente.
As descobertas também indicaram um declínio na confiança em relação às plataformas de mídia social depois que os usuários tomaram conhecimento dos DeepFakes, com 49% relatando uma diminuição na confiança. Enquanto isso, 74% dos participantes expressaram preocupações sobre as ramificações sociais dos deepfakes, particularmente a disseminação de informações erradas, o que era uma das principais preocupações para 68% dos entrevistados. Essa apreensão foi notavelmente forte entre as gerações mais velhas, onde até 82% dos indivíduos com 55 anos e acima expressaram medos em relação à disseminação de informações falsas.
Por que pequenos modelos de IA não conseguem acompanhar os grandes
Menos de um terço dos pesquisados (29%) indicaram que não tomariam medidas ao encontrar um suspeito de Deepfake. A falta de engajamento é em parte devido a 48% dos entrevistados afirmando que não sabem como denunciar os deepfakes, enquanto um quarto admitiu indiferença em relação a suspeitos de DeepFakes. Apenas 11% analisam criticamente fontes e contexto para determinar a autenticidade da informação, criando uma paisagem onde muitos indivíduos permanecem altamente suscetíveis ao engano.
O professor Edgar Whitley, especialista em identidade digital, alertou que as organizações não podem confiar apenas no julgamento humano para detectar os deepfakes e devem explorar métodos alternativos de autenticação do usuário.
A crescente prevalência de FeedFakes apresenta desafios significativos no cenário digital. O relatório de inteligência de ameaças de 2024 da Iproov indicou um aumento impressionante de 704% nos swaps de face, enfatizando seu papel como ferramentas para criminosos cibernéticos que buscam acesso não autorizado a dados confidenciais. Essa tendência destaca a necessidade urgente de conscientização e soluções tecnológicas aprimoradas para impedir ameaças relacionadas à DeepFake.
Crédito da imagem em destaque: Kerem Gülen/ideograma