Os especialistas alertam que a DeepSeek, uma IA generativa desenvolvida na China, falhou em vários testes de segurança, levantando preocupações sobre os riscos para os usuários. O Appsoc do provedor de segurança do Vale do Silício descobriu vulnerabilidades significativas, incluindo a capacidade de javerbreak a IA e gerar malware.
A IA Chinese Deepseek falha nos testes de segurança
David Reid, especialista em segurança cibernética da Universidade de Cedarville, expressou alarme com os resultados dos testes. “Ele falhou em um monte de benchmarks onde você podia jailbreak. Em alguns casos, você poderia gerar malware real, que é uma grande bandeira vermelha ”, afirmou. Reid observou que essas falhas são particularmente preocupantes, pois permitem a criação potencial de código prejudicial.
Appsoc’s análise A DeepSeek atribuiu uma pontuação de risco de 8,3 em 10, recomendando contra seu uso em configurações corporativas que envolvam dados confidenciais ou propriedade intelectual. Anjana Susarla, especialista em IA responsável na Universidade Estadual de Michigan, ecoou esse sentimento, questionando se as organizações poderiam manipular a DeepSeek para acessar informações confidenciais da empresa.
Embora o Deepseek possa parecer ter um desempenho semelhante aos modelos de IA estabelecidos, como o ChatGPT, Susarla aconselhou a usá-lo em chatbots ou aplicativos voltados para o cliente, afirmando: “A resposta é não”. As implicações do uso de um modelo tão não testado podem levar a vulnerabilidades de segurança significativas.
A preocupação aumentada deriva das origens chinesas de Deepseek, comparável à controvérsia em torno da plataforma de mídia social Tiktok, que enfrentou escrutínio dos legisladores dos EUA por suas práticas de segurança de dados. Os membros da Câmara dos EUA anunciaram recentemente planos de introduzir legislação que proíbe a Deepseek em dispositivos do governo, citando o risco de acesso a dados pelo Partido Comunista Chinês.
Deepseek R1 vs O3-mini em desempenho, custo e confronto de usabilidade
“Este é um incêndio em segurança nacional de cinco alarme”, declarou -nos o representante Josh Gottheimer de Nova Jersey. Ele enfatizou a necessidade de impedir qualquer infiltração dos dispositivos dos funcionários do governo, lembrando questões anteriores com Tiktok.
A partir de agora, algum campo como Itália e Austrália já promulgou proibições na Deepseek para uso do governo. Apesar dos esforços para gerenciar os riscos, especialistas em segurança cibernética como Dimitri Sirota, CEO da BIGID, reconhecem que pode ser um desafio impedir que os usuários comuns baixem e utilizem o aplicativo. A tentação de novas tecnologias populares geralmente supera o cuidado do comportamento do usuário.
As preocupações com a Deepseek incluem não apenas suas vulnerabilidades técnicas, mas também os riscos geopolíticos associados ao software vinculado à China. Os dados coletados pela Deepseek podem estar sujeitos à lei chinesa, exigindo que ele divulgue as informações do usuário mediante solicitação do governo.
Os especialistas alertam que o governo chinês possui as capacidades para analisar dados agregados da DeepSeek, juntamente com outras fontes, para potencialmente criar perfis de usuários americanos. Essa situação é paralela às apreensões em torno de Tiktok, onde as preocupações persistiram sobre o Partido Comunista Chinês que alavancava os dados do usuário para fins de inteligência.
Para mitigar os riscos ao usar os modelos Deepseek ou outros modelos de IA, os especialistas em segurança cibernética recomendam as melhores práticas, como garantir senhas fortes e exclusivas e permitir a autenticação de dois fatores. Os usuários também devem ter cuidado ao compartilhar informações pessoais com aplicativos de IA e permanecer cético em relação aos pedidos de dados confidenciais.
Por fim, os usuários devem ler cuidadosamente os termos e condições de qualquer aplicativo de IA antes do uso, para entender as práticas de uso e compartilhamento de dados. Os especialistas alertam que as aplicações baseadas na China ou em outros estados adversários devem ser tratados com um escrutínio elevado devido aos riscos potenciais associados à privacidade e segurança dos dados.