A OpenAI iniciou uma busca por um novo “chefe de preparação” para gerenciar riscos de inteligência artificial, uma posição que oferece um salário anual de US$ 555.000 mais capital próprio. Insider de negócios relatórios. O CEO Sam Altman descreveu a função como “estressante” em um post X no sábado, enfatizando sua natureza crítica dadas as rápidas melhorias e os desafios emergentes apresentados pelos modelos de IA. A empresa procura mitigar potenciais desvantagens da IA, que incluem a deslocação de empregos, a desinformação, a utilização maliciosa, o impacto ambiental e a erosão da agência humana. Altman observou que, embora os modelos sejam capazes de aplicações benéficas, também estão a começar a colocar desafios como os impactos na saúde mental e a capacidade de identificar vulnerabilidades críticas de segurança cibernética, referenciando questões previstas para 2025 e as capacidades actuais. ChatGPT, o chatbot de IA da OpenAI, ganhou popularidade entre os consumidores para tarefas gerais, como pesquisa e redação de e-mails. No entanto, alguns utilizadores recorreram aos bots como uma alternativa à terapia, o que, em certos casos, exacerbou problemas de saúde mental, contribuindo para delírios e outros comportamentos preocupantes. A OpenAI declarou em outubro que estava colaborando com profissionais de saúde mental para melhorar as interações do ChatGPT com usuários que apresentam comportamentos preocupantes, incluindo psicose ou automutilação. A missão fundadora da OpenAI centra-se no desenvolvimento de IA para beneficiar a humanidade, com protocolos de segurança estabelecidos no início das suas operações. Ex-funcionários indicaram que o foco da empresa mudou para a lucratividade em detrimento da segurança à medida que os produtos eram lançados. Jan Leiki, ex-líder da equipe de segurança dissolvida da OpenAI, renunciou em maio de 2024, afirmando no X que a empresa havia “perdido de vista sua missão de garantir que a tecnologia seja implantada com segurança”. Leiki articulou que construir “máquinas mais inteligentes que as humanas é um empreendimento inerentemente perigoso” e expressou preocupação de que “a cultura e os processos de segurança tenham ficado em segundo plano em relação aos produtos brilhantes”. Outro funcionário renunciou menos de uma semana depois, citando preocupações de segurança semelhantes. Daniel Kokotajlo, outro ex-funcionário, renunciou em maio de 2024, citando uma “perda de confiança” no comportamento responsável da OpenAI em relação à Inteligência Geral Artificial (AGI). Kokotajlo disse mais tarde à Fortune que o número de pessoal que pesquisava questões de segurança relacionadas à AGI havia sido reduzido quase pela metade em relação a uma contagem inicial de cerca de 30. Aleksander Madry, o anterior chefe de preparação, fez a transição para uma nova função em julho de 2024. O cargo de chefe de preparação, parte da equipe de Sistemas de Segurança da OpenAI, concentra-se no desenvolvimento de salvaguardas, estruturas e avaliações para os modelos da empresa. A lista de empregos especifica responsabilidades, incluindo “construir e coordenar avaliações de capacidade, modelos de ameaças e mitigações que formem um pipeline de segurança coerente, rigoroso e operacionalmente escalonável”.





