Openai está planejando introduzir Um requisito de identificação verificado para as organizações acessarem determinados modelos futuros de IA por meio de sua API, de acordo com uma página de suporte publicada no site da empresa na semana passada. O novo processo de verificação, chamado de organização verificada, visa garantir o uso seguro de seus modelos avançados de IA.
O processo de verificação requer uma identificação emitida pelo governo de um dos países apoiados pela API da Openai. Um ID pode verificar apenas uma organização a cada 90 dias, e nem todas as organizações serão elegíveis para verificação. O Openai afirmou que leva sua responsabilidade a sério para garantir que a IA seja amplamente acessível e usada com segurança.
“No Openai, levamos nossa responsabilidade a sério para garantir que a IA seja amplamente acessível e usada com segurança”, lê a página. “Infelizmente, uma pequena minoria de desenvolvedores usa intencionalmente as APIs do Openai, violando nossas políticas de uso. Estamos adicionando o processo de verificação para mitigar o uso inseguro da IA, continuando a disponibilizar modelos avançados para a comunidade mais ampla de desenvolvedores”.
A mudança provavelmente pretende melhorar a segurança em torno dos produtos da OpenAI à medida que se tornam mais sofisticados. A empresa publicou relatórios sobre seus esforços para detectar e mitigar o uso malicioso de seus modelos, inclusive por grupos supostamente com sede na Coréia do Norte. Também pode ter como objetivo prevenir o roubo de IP, após uma investigação sobre um potencial incidente de exfiltração de dados envolvendo um grupo ligado à China’s Deepseek Laboratório AI.
OpenAI já levou medidas Para restringir o acesso aos seus serviços, incluindo o bloqueio de acesso na China no verão passado. O status da organização verificada deve estar pronta para o próximo lançamento do modelo da empresa.
Como o OpenAI explicou: “Infelizmente, uma pequena minoria de desenvolvedores usa intencionalmente as APIs do Openai, violando nossas políticas de uso. Estamos adicionando o processo de verificação para mitigar o uso inseguro da IA, continuando a disponibilizar modelos avançados para a comunidade mais ampla de desenvolvedores”.