O LinkedIn silenciosamente optou por seus usuários para treinar modelos de IA generativos sem pedir consentimento explicitamente, levantando preocupações sobre privacidade de dados na plataforma. De acordo com um relatório da 404MídiaO LinkedIn fez alterações em sua política de privacidade, afirmando que os dados do usuário podem ser usados para treinar modelos de IA. Desde então, a plataforma atualizou a política, agora permitindo que os usuários optem por não participar dessa prática.
Política atualizada do LinkedIn revela uso de dados pessoais em treinamento de IA
O política atualizada afirma que o LinkedIn pode usar dados pessoais para “melhorar, desenvolver e fornecer produtos e serviços”, bem como para treinar modelos de IA. A IA generativa é usada para recursos como assistentes de escrita, mas o LinkedIn alega que emprega tecnologias de aprimoramento de privacidade para redigir informações pessoais. Os usuários que preferem não participar podem optar por não participar navegando até o “Privacidade de dados” guia nas configurações da conta, desativando o “Dados para melhoria de IA generativa“ alternar.
No entanto, optar por não participar somente impedirá que o LinkedIn use seus dados para treinamento de modelo futuro. Dados que já foram usados permanecem inalterados. Além disso, o LinkedIn esclarece que usuários na UE, EEE ou Suíça não estão incluídos no treinamento de modelo de IA.
Se você estiver preocupado com outras ferramentas de aprendizado de máquina usadas para personalização e moderação, o LinkedIn exige que os usuários preencham um “Formulário de objeção ao processamento de dados“ para optar por não participar desses usos também.
A iniciativa silenciosa de opt-in do LinkedIn ecoa ações semelhantes da Meta, que recentemente admitiu ter coletado dados não privados de usuários para treinamento de IA desde 2007.
O momento da mudança do LinkedIn chega num momento em que outros grandes players de tecnologia, como IA abertatambém estão enfrentando reações negativas por práticas semelhantes. Esse padrão de inscrever usuários silenciosamente em treinamento de IA sem notificações claras e proeminentes cria uma sensação de desconforto.
A CTO da OpenAI, Mira Murati, diz que Sora foi treinado em dados licenciados e disponíveis publicamente foto.twitter.com/rf7pZ0ZX00
— Tsaratustra (@tsarnick) 13 de março de 2024
Não se trata apenas de dados sendo usados para IA — trata-se de quem decide e quão informada essa decisão é. A indústria de tecnologia há muito tempo enfrenta críticas por operar nas sombras quando se trata de coleta de dados, e o crescente impulso para IA generativa está apenas amplificando essas preocupações.
As máquinas podem esquecer seus dados pessoais?
Outra questão fundamental é que a opção de não participar afeta apenas o uso futuro de dados pessoais. Quaisquer dados que já tenham sido alimentados em modelos de IA permanecem no sistema, e essa falta de controle retroativo pode deixar muitos usuários se sentindo impotentes. A indústria também está falando sobre “desaprendizagem de máquina“para evitar que isso aconteça, excluindo dados alimentados em modelos de IA.
O fato de o LinkedIn usar “tecnologias de aprimoramento de privacidade” para tornar dados anônimos é um tanto reconfortante, mas não aborda o problema mais profundo: a necessidade de padrões de privacidade mais proativos e centrados no usuário.
Em última análise, essa situação destaca a necessidade de regulamentações mais fortes e claras que coloquem o controle de volta nas mãos dos usuários. A ideia de que empresas de tecnologia podem usar nossos dados pessoais sem consentimento claro não cai bem em tempos em que a privacidade está se tornando cada vez mais valiosa.
Crédito da imagem em destaque: Kerem Gülen/Ideograma