Google publicado Um relatório técnico sobre seu mais recente modelo de IA, Gemini 2.5 Pro, semanas após o seu lançamento, mas os especialistas dizem que o relatório carece de detalhes de segurança, dificultando a avaliação dos riscos do modelo.
O relatório faz parte do esforço do Google para fornecer transparência sobre seus modelos de IA, mas difere de seus rivais, pois apenas publica relatórios técnicos para modelos que considera ter passado além do estágio experimental. O Google também se reserva algumas descobertas de avaliação de segurança para uma auditoria separada.
Especialistas, incluindo Peter Wildford, co-fundador do Instituto de Política e Estratégia de IA, e Thomas Woodside, co-fundador do projeto Seguro AI, expresso Decepção com a escassez do relatório, observando que não menciona a estrutura de segurança de fronteira do Google (FSF), introduzido no ano passado para identificar possíveis riscos de IA.
Wildford disse que as informações mínimas do relatório, divulgadas semanas após o lançamento público do modelo, impossibilita a verificação dos compromissos públicos do Google com a segurança. Woodside também questionou o compromisso do Google com as avaliações oportunas de segurança, apontando que o último relatório da empresa sobre testes de capacidade perigosa foi em junho de 2024, para um modelo anunciado em fevereiro de 2024.
Além disso, o Google não lançou um relatório para o Gemini 2.5 Flash, um modelo menor anunciado na semana passada, embora um porta -voz tenha dito que um está “chegando em breve”. Thomas Woodside espera que isso indique que o Google começará a publicar atualizações mais frequentes, incluindo avaliações para modelos ainda não implantados publicamente.
Regras do juiz O Google mantém o monopólio de publicidade ilegal
Outros laboratórios de IA, como Meta e Openai, também enfrentaram críticas por falta de transparência em suas avaliações de segurança. Kevin Bankston, consultor sênior de governança de IA no Centro de Democracia e Tecnologia, descreveu a tendência dos relatórios esporádicos e vagos como uma “corrida para o fundo” na segurança da IA.
O Google afirmou que realiza testes de segurança e “equipes vermelhas adversárias” para seus modelos antes do lançamento, mesmo que não sejam detalhados em seus relatórios técnicos.