Cerca de 200 funcionários do Google DeepMind, a divisão de pesquisa de IA do Google, deram alarmes sobre os contratos militares da empresa. De acordo com Tempo, Eles pediram ao Google para parar de trabalhar com organizações militares, acreditando que esse uso de sua tecnologia vai contra as regras éticas do Google para IA.
Um rápido lembrete: Quando o Google adquiriu a DeepMind em 2014, o laboratório estava prometeu que sua tecnologia de IA não seria usada para fins militares ou de vigilância. A DeepMind operou de forma um tanto independente por anos. No entanto, conforme a competição de IA cresceu, a DeepMind se tornou mais integrada ao Google. Em 2023, ela se fundiu com o Google Brain, aproximando-se das principais operações do Google.
Os contratos controversos: Projeto Nimbus e mais
A questão gira em torno dos serviços de nuvem do Google, incluindo IA desenvolvida pela DeepMind, que foram vendidos para governos e militares. O contrato mais controverso é o Projeto Nimbus, um acordo com o governo israelense. Este contrato foi criticado porque apoia o exército israelense, que está envolvido em operações em Gaza.
Os funcionários da DeepMind estão preocupados que trabalhar com organizações militares vá contra os Princípios de IA do Google. Esses princípios visam garantir que a IA seja usada de forma ética e responsável. Eles afirmam que a IA não deve causar danos ou ser usada para armas ou vigilância que violem os direitos humanos.
A carta dos funcionários
Em 16 de maio de 2024, os funcionários enviaram uma carta expressando suas preocupações. A carta diz que, embora não tenha como alvo conflitos ou governos específicos, está preocupada com o uso de IA nas forças armadas configurações. Ele argumenta que tal envolvimento prejudica o comprometimento da DeepMind com a IA ética.
A carta solicita três ações principais:
- Investigação:Veja como a tecnologia da DeepMind é usada por organizações militares.
- Rescisão: Fim do acesso à tecnologia DeepMind para clientes militares.
- Governança: Criar um novo órgão para impedir o uso militar futuro da tecnologia da DeepMind.

Resposta da empresa e frustrações
O Google respondeu dizendo que segue seus Princípios de IA e que o Projeto Nimbus envolve fornecer serviços de nuvem para ministérios do governo israelense, não diretamente para os militares. O Google alega que esses serviços não são destinados a usos militares sensíveis ou classificados.
No entanto, os signatários da carta argumentam que a resposta do Google não é clara e não aborda suas preocupações sobre o apoio à vigilância e à violência por meio de sua tecnologia.
Os funcionários estão frustrados com a falta de ação do Google em relação à carta e sentem que a liderança não abordou suas preocupações de forma eficaz.
Em uma reunião municipal em junho, a diretora de operações da DeepMind, Lila Ibrahim, garantiu aos funcionários que a DeepMind não desenvolveria IA para armas ou vigilância em massa. Ela enfatizou o comprometimento do Google com a IA responsável, que ela disse ser a razão pela qual ela se juntou e permaneceu na empresa.

Esta situação no Google DeepMind reflete um debate maior na indústria de tecnologia sobre o uso de tecnologias avançadas em aplicações militares. À medida que a tecnologia de IA continua a avançar, empresas como o Google enfrentam o desafio de equilibrar interesses comerciais com responsabilidades éticas. O resultado desta disputa pode definir diretrizes importantes sobre como a IA é desenvolvida e usada no futuro.