Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

O LinkedIn usa seus dados pessoais para treinar IA, mas quem não usa?

byKerem Gülen
19 Setembro 2024
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

O LinkedIn silenciosamente optou por seus usuários para treinar modelos de IA generativos sem pedir consentimento explicitamente, levantando preocupações sobre privacidade de dados na plataforma. De acordo com um relatório da 404MídiaO LinkedIn fez alterações em sua política de privacidade, afirmando que os dados do usuário podem ser usados ​​para treinar modelos de IA. Desde então, a plataforma atualizou a política, agora permitindo que os usuários optem por não participar dessa prática.

Política atualizada do LinkedIn revela uso de dados pessoais em treinamento de IA

O política atualizada afirma que o LinkedIn pode usar dados pessoais para “melhorar, desenvolver e fornecer produtos e serviços”, bem como para treinar modelos de IA. A IA generativa é usada para recursos como assistentes de escrita, mas o LinkedIn alega que emprega tecnologias de aprimoramento de privacidade para redigir informações pessoais. Os usuários que preferem não participar podem optar por não participar navegando até o “Privacidade de dados” guia nas configurações da conta, desativando o “Dados para melhoria de IA generativa“ alternar.

No entanto, optar por não participar somente impedirá que o LinkedIn use seus dados para treinamento de modelo futuro. Dados que já foram usados ​​permanecem inalterados. Além disso, o LinkedIn esclarece que usuários na UE, EEE ou Suíça não estão incluídos no treinamento de modelo de IA.

Se você estiver preocupado com outras ferramentas de aprendizado de máquina usadas para personalização e moderação, o LinkedIn exige que os usuários preencham um “Formulário de objeção ao processamento de dados“ para optar por não participar desses usos também.

A iniciativa silenciosa de opt-in do LinkedIn ecoa ações semelhantes da Meta, que recentemente admitiu ter coletado dados não privados de usuários para treinamento de IA desde 2007.

O momento da mudança do LinkedIn chega num momento em que outros grandes players de tecnologia, como IA abertatambém estão enfrentando reações negativas por práticas semelhantes. Esse padrão de inscrever usuários silenciosamente em treinamento de IA sem notificações claras e proeminentes cria uma sensação de desconforto.

A CTO da OpenAI, Mira Murati, diz que Sora foi treinado em dados licenciados e disponíveis publicamente foto.twitter.com/rf7pZ0ZX00

— Tsaratustra (@tsarnick) 13 de março de 2024

Não se trata apenas de dados sendo usados ​​para IA — trata-se de quem decide e quão informada essa decisão é. A indústria de tecnologia há muito tempo enfrenta críticas por operar nas sombras quando se trata de coleta de dados, e o crescente impulso para IA generativa está apenas amplificando essas preocupações.

As máquinas podem esquecer seus dados pessoais?

Outra questão fundamental é que a opção de não participar afeta apenas o uso futuro de dados pessoais. Quaisquer dados que já tenham sido alimentados em modelos de IA permanecem no sistema, e essa falta de controle retroativo pode deixar muitos usuários se sentindo impotentes. A indústria também está falando sobre “desaprendizagem de máquina“para evitar que isso aconteça, excluindo dados alimentados em modelos de IA.

O fato de o LinkedIn usar “tecnologias de aprimoramento de privacidade” para tornar dados anônimos é um tanto reconfortante, mas não aborda o problema mais profundo: a necessidade de padrões de privacidade mais proativos e centrados no usuário.

Em última análise, essa situação destaca a necessidade de regulamentações mais fortes e claras que coloquem o controle de volta nas mãos dos usuários. A ideia de que empresas de tecnologia podem usar nossos dados pessoais sem consentimento claro não cai bem em tempos em que a privacidade está se tornando cada vez mais valiosa.

O uso de dados pessoais pelo LinkedIn para treinar modelos de IA pode parecer invasivo, mas está se tornando uma prática em todo o setor. De gigantes de mídia social a mecanismos de busca, muitas plataformas estão explorando dados de usuários para alimentar avanços de IA. A verdadeira questão não é apenas sobre o LinkedIn, mas sim o quanto estamos dispostos a aceitar isso como o novo normal.


Crédito da imagem em destaque: Kerem Gülen/Ideograma

Tags: ApresentouLinkedin

Related Posts

Mãe de um dos filhos de Elon Musk processa xAI por deepfakes sexuais de Grok

Mãe de um dos filhos de Elon Musk processa xAI por deepfakes sexuais de Grok

16 Janeiro 2026
OpenAI lança ChatGPT Translate independente

OpenAI lança ChatGPT Translate independente

15 Janeiro 2026
O tempo de lançamento do DeepSeek V4 e R2 permanece oculto

O tempo de lançamento do DeepSeek V4 e R2 permanece oculto

15 Janeiro 2026
Gemini ganha Inteligência Pessoal para sintetizar dados do Gmail e Fotos

Gemini ganha Inteligência Pessoal para sintetizar dados do Gmail e Fotos

15 Janeiro 2026
Amazon força upgrade de membros Prime para Alexa+

Amazon força upgrade de membros Prime para Alexa+

14 Janeiro 2026
Google atualiza Veo 3.1 com geração de vídeo vertical nativa

Google atualiza Veo 3.1 com geração de vídeo vertical nativa

14 Janeiro 2026

Recent Posts

  • Compensação de US $ 20 da Verizon: como reivindicar seu crédito de interrupção hoje
  • Trump formaliza acordo de exportação de chips de IA com imposto de 25% sobre vendas na China
  • Anthropic nomeia a veterana da Microsoft Irina Ghose para liderar a expansão na Índia
  • Bluesky lança emblema e cashtags Live Now em grande atualização
  • Netflix garante acordo global de US$ 7 bilhões para filmes da Sony Pictures

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.