A empresa de AI de Elon Musk, Xai, perdeu seu prazo auto-imposto para publicar uma estrutura de segurança da IA finalizada, de acordo com o grupo Watchdog The Midas Project. O prazo, marcado para 10 de maio, foi estabelecido após Xai lançado Uma estrutura de rascunho na cúpula da AI Seoul em fevereiro.
Um relatório recente revelado O fato de a AI chatbot da empresa remover roupas de fotos de mulheres mediante solicitação. Grok também foi encontrado para usar uma linguagem muito mais ofensiva em comparação com outros chatbots como Gemini e Chatgpt, xingando sem muita hesitação.
O rascunho da estrutura descrito As prioridades de segurança e filosofia de Xai, incluindo protocolos de benchmarking e considerações de implantação do modelo de IA. No entanto, ele se aplicava apenas a modelos futuros de IA não especificados “não estão atualmente em desenvolvimento” e não conseguiu articular como o XAI identificaria e implementaria mitigações de risco.
O histórico de segurança da AI da Xai já está sob escrutínio devido ao seu chatbot, Grok, que pode despir Fotos de mulheres quando solicitado e é conhecido por sua maldição sem restrições. Um estudo recente de Saferéi descobriu que a Xai está mal entre seus pares devido às suas práticas “muito fracas” de gerenciamento de riscos.
O prazo perdido é notável, dados os avisos frequentes de Musk sobre os perigos da IA desmarcada. Outros laboratórios de IA, incluindo Google e OpenAI, também enfrentaram críticas por acelerar testes de segurança e demorar a publicar relatórios de segurança de modelos.