Um relatório alarmante de Kela Hoje, a Research and Strategy Ltd. documenta um aumento de 200% nas menções de ferramentas maliciosas de inteligência artificial nos fóruns de crimes cibernéticos até 2024, ilustrando como rapidamente os cibercriminosos estão adotando ferramentas e táticas de IA. As descobertas foram descritas no relatório de ameaça de IA de 2025 de Kela: como os cibercriminosos estão armar a tecnologia de IA.
O relatório baseia-se em dados da própria plataforma de coleta de inteligência da Kela, que analisa a atividade do cibercrime nos fóruns da Web Dark, os canais de telegrama e através do comportamento do ator de ameaças de rastreamento.
Além do aumento das menções das ferramentas maliciosas da IA, o relatório observa um aumento de 52% nas discussões em torno dos jailbreaks de IA no ano passado. Os atores do cibercrime refinam continuamente as técnicas de AI para ignorar as restrições de segurança nos sistemas públicos de IA.
Os atores de ameaças estão distribuindo e monetizando proativamente o que Kela define como “ferramentas escuras da IA”, abrangendo modelos jailbroken e aplicações maliciosas especializadas, como Wormgpt e Fraudgpt. Essas ferramentas foram projetadas para executar ações cibernéticas como phishing, formação de malware e fraude financeira – as ferramentas geralmente são realizadas em larga escala.
Os sistemas de IA são projetados para remover restrições de segurança e adicionar funcionalidades personalizadas, reduzindo a barreira para que atacantes inexperientes executam ataques sofisticados em escala.
No campo do phishing, os especialistas observam que os atores de ameaças estão alavancando a IA generativa para criar um forte conteúdo de engenharia social, aprimorando esses esquemas com áudio e vídeo Deepfake. Isso melhora a capacidade dos cibercriminosos de se passar por executivos e enganar os funcionários a aprovar transações fraudulentas.
Kela também observou que a IA acelerou o desenvolvimento de malware, permitindo a criação de ransomware altamente evasivo e Infotealers. Esse desenvolvimento apresenta dificuldades para os métodos tradicionais de detecção e resposta.
“Estamos testemunhando uma mudança sísmica no cenário de ameaças cibernéticas”, disse Yael Kishon, líder de produto e pesquisa da IA em Kela. “Os cibercriminosos não estão apenas usando a IA-eles estão construindo seções inteiras no ecossistema subterrâneo dedicado ao crime cibernético movido a IA”. Ela enfatizou que “as organizações devem adotar defesas orientadas pela IA para combater essa crescente ameaça”. Para ficar à frente de aumentar as ameaças cibernéticas movidas a IA, Kela aconselha investir no treinamento de funcionários.
Os hackers agora têm um kit de ferramentas para violações da conta em massa: é chamado Atlantis Aio
A Kela recomenda o monitoramento de ameaças e táticas emergentes de IA e implementando medidas de segurança movidas a IA, como uma equipe automatizada baseada em inteligência e emulações adversárias para modelos generativos de IA.
Este relatório deixa claro que a corrida armamentista entre inovadores cibernéticos e especialistas em segurança exige o engajamento sutil e proativo. Se as organizações devem empregar IA generativa para combater a IA generativa em phishing, que assim seja, mas é preocupante como os métodos convencionais superados serão se os maus atores permanecerem desmarcados.
O salto alarmante na conversa on-line focada na IA revela que os cibercriminosos não estão apenas adotando a IA, mas aperfeiçoando seus métodos de hackers de IA. Isso é ainda pior do que o código externo de armas, porque agora os inimigos são efetivamente medidas de segurança de engenharia reversa. Este é um jogo longo, mas os cibercriminosos estão explorando um objetivo aberto no momento e exigem ação agora.
O aumento do número de métodos de jailbreak citado supera significativamente as contra-intervenções.
Ajudado por ferramentas direcionadas, mostrando aplicativos sofisticados em áreas como a tecnologia DeepFake e o desenvolvimento de malware, esses cibercriminosos adicionam mais uma camada de complexidade para empresas de aplicação e segurança da lei.
O aviso de Kela não pode ser ignorado por muito mais tempo, onde os desenvolvedores, bons ou ruins, estão se concentrando na criação de kits de ferramentas para explorar o software AI e enfrentar problemas significativos de segurança cibernética. Por enquanto, o ecossistema subterrâneo focado no cibercrime movido a IA cresce.
Apesar do fato de que mais dessas táticas dependem da engenharia social, os funcionários – que são conhecidos por serem o link de segurança cibernética mais fraca – ainda não investem em ferramentas de IA com a mesma frequência que deveriam. Esse problema será intensificado quando os executivos da empresa precisarem acessar esses mecanismos.