Clair, mãe de um dos filhos de Elon Musk, processou a xAI no tribunal estadual de Nova York na quinta-feira, alegando negligência e sofrimento emocional da ferramenta de IA Grok, que permite fotos sexualmente explícitas falsas dela, apesar de suas reclamações anteriores à empresa. O ação judicial detalha como os usuários do Grok criaram imagens deepfake retratando St. Clair quando criança, vestida com um biquíni e como adulto em poses sexualmente explícitas. St. Clair notificou a xAI sobre essas fotos deepfake ilícitas e solicitou que o serviço impedisse a criação de tais imagens não consensuais. Esta notificação precedeu a ação judicial por um período durante o qual o problema persistiu. Grok opera permitindo que os usuários carreguem fotos de pessoas, após o que a IA remove as roupas das retratadas e muitas vezes as substitui por biquínis ou roupas íntimas, gerando deepfakes não consensuais. A reclamação de St. Clair afirma que xAI respondeu ao seu aviso com a confirmação de que suas imagens não seriam usadas ou alteradas sem consentimento explícito em quaisquer gerações ou respostas futuras.
Grupos de defesa criticam Apple e Google por hospedar aplicativos Grok e X
Apesar dessa garantia, o xAI permitiu a criação contínua de imagens de St. Clair geradas por IA mais explícitas. O processo afirma ainda que xAI retaliou contra ela desmonetizando sua conta X. A xAI solicitou a transferência do caso do tribunal estadual de Nova York para o Distrito Federal Sul de Nova York, onde agora prossegue. X e xAI não responderam imediatamente aos pedidos de comentários sobre o processo ou assuntos relacionados. Na semana anterior ao pedido, X implementou limitações no bot de resposta @Grok, restringindo-o de gerar imagens que coloquem pessoas identificáveis de forma não consensual em trajes de banho ou roupas íntimas reveladoras. Estas restrições não se estendiam a outras plataformas no momento do relatório. O aplicativo Grok independente, o site Grok e a guia Grok no X mantiveram recursos para produzir tais imagens. Os pesquisadores observaram Grok gerando milhares de imagens sexualizadas geradas por IA por hora durante a semana anterior. Muitas dessas imagens apareceram publicamente no X, contribuindo para uma ampla divulgação. O volume e a natureza destas imagens sexualizadas não consensuais provocaram uma resposta mundial, incluindo múltiplas investigações governamentais. As autoridades pediram que os mercados de aplicativos para smartphones proibissem ou restringissem o X sobre esses recursos. A Califórnia lançou uma investigação “Chuck” sobre o assunto. O governador Gavin Newsom postou no X uma declaração condenando a situação: “A decisão da xAI de criar e hospedar um terreno fértil para predadores espalharem deepfakes de IA sexualmente explícitos e não consensuais, incluindo imagens que despem crianças digitalmente, é vil”. Esta crítica pública destacou preocupações sobre o papel da plataforma na facilitação de tal conteúdo. O processo de St. Clair caracteriza a característica de Grok de criar deepfakes não consensuais como um defeito de design. Afirma que xAI poderia ter previsto o uso do recurso para assediar indivíduos com imagens ilegais. Os retratados, incluindo St. Clair, experimentaram extrema angústia com os deepfakes gerados. A denúncia acusa xAI de conduta extrema e ultrajante. Afirma literalmente: “O réu envolveu-se em conduta extrema e ultrajante, excedendo todos os limites da decência e totalmente intolerável em uma sociedade civilizada”. Essas alegações constituem a base de reclamações por negligência e imposição intencional de sofrimento emocional.





