A Apple está enfrentando uma ação judicial de vítimas de abuso sexual infantil por não implementar um sistema para detectar material de abuso sexual infantil (CSAM) no iCloud, de acordo com O jornal New York Times. A ação pede mais de US$ 1,2 bilhão em indenização para aproximadamente 2.680 indivíduos, refletindo suposta negligência na proteção dos usuários contra danos.
Apple processou US$ 1,2 bilhão por falha na detecção de material de abuso sexual infantil
Em 2021, a Apple anunciou suas intenções de lançar um CSAM ferramenta de detecção destinada a escanear o iCloud em busca de imagens abusivas e alertar o Centro Nacional para Crianças Desaparecidas e Exploradas. Esta iniciativa visava combater eficazmente a exploração infantil. No entanto, após uma reação substancial em relação às preocupações com a privacidade, a Apple abandonou o projeto, deixando os acusados desprotegidos e os abusos contínuos sem solução.
A ação foi movida no norte da Califórnia e cita que a Apple “não implementou esses designs ou tomou quaisquer medidas para detectar e limitar” CSAM em seus dispositivos. A reclamação inclui experiências de uma mulher de 27 anos, que afirmou ainda receber notificações das autoridades sobre a partilha online das suas imagens, tiradas quando era criança. O processo enfatiza a turbulência emocional que as vítimas enfrentam enquanto esses materiais circulam sem controle.
“O material de abuso sexual infantil é abominável e estamos empenhados em combater as formas como os predadores colocam as crianças em risco. Estamos inovando de forma urgente e ativa para combater esses crimes sem comprometer a segurança e a privacidade de todos os nossos usuários. Recursos como Segurança na Comunicação, por exemplo, alertam as crianças quando elas recebem ou tentam enviar conteúdo que contenha nudez para ajudar a quebrar a cadeia de coerção que leva ao abuso sexual infantil. Continuamos profundamente focados na construção de proteções que ajudem a prevenir a propagação do CSAM antes que ele comece”, disse o porta-voz da Apple, Fred Sainz. Engajamento.
Em resposta, a Apple afirmou seu compromisso em combater o abuso sexual infantil, ao mesmo tempo em que prioriza a privacidade do usuário. O porta-voz Fred Sainz observou: “O material de abuso sexual infantil é abominável e estamos empenhados em combater as formas como os predadores colocam as crianças em risco”. Ele fez referência a medidas existentes, como Segurança na Comunicação, que alerta as crianças contra o compartilhamento de conteúdo explícito.
Apesar desses esforços, a Apple enfrentou recentemente um escrutínio adicional quando a Sociedade Nacional para a Prevenção da Crueldade contra Crianças do Reino Unido acusou a empresa de subnotificar CSAM encontrados em suas plataformas. Isto aumenta a pressão crescente em relação às estratégias da Apple para lidar com esta questão de forma eficaz.
Crédito da imagem em destaque: Niels Kehl/Unsplash