Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

Os novos bens comuns sociais da Internet

byEmre Çıtak
22 Setembro 2025
in Case Studies
Home Case Studies
Share on FacebookShare on Twitter

O centro da vida social para muitos jovens não é mais Instagram ou Tiktok. Uma migração silenciosa, mas significativa, mudou a interação social autêntica para plataformas de jogos como Discord, Roblox e Steam. Embora a atenção pública e política permaneça fixada nos principais aplicativos, os espaços centrados nos jogos se tornaram os principais centros para conversas não filtradas. Essa mudança também criou um ambiente perigoso e amplamente não monitorado, onde o extremismo e a exploração podem crescer sem ser detectados.

Um tipo diferente de espaço social

As plataformas de jogos são fundamentalmente diferentes das mídias sociais voltadas para o público. Aplicativos como o Tiktok são construídos para transmissão em massa e conteúdo viral, mas plataformas como a Discord são estruturadas em torno de comunidades menores e fechadas. Eles funcionam mais como clubes digitais do que em estágios públicos. Esse design incentiva um tipo diferente de interação, que prioriza a discussão em grupo sobre a criação de uma marca pessoal. O anonimato é central para esse ambiente. Os usuários operam com pseudo-identidades, que remove muitas das consequências do mundo real de expressar idéias radicais ou tabus. Isso fez dessas plataformas um empate poderoso para os jovens que buscam conexão sem escrutínio público.

Um terreno de reprodução não monitorado para danos

A privacidade que atrai os usuários também fornece um santuário para predadores e grupos extremistas que foram proibidos de sites convencionais. Mariana Olaizola Rosenblat, consultora de políticas da NYU Stern, afirma que esses grupos têm como alvo especificamente plataformas de jogos para encontrar e influenciar os jovens.

“Extremistas e predadores vão a esses espaços de jogos para encontrar jovens altamente engajados e suscetíveis, muitos dos quais anseiam por conexão”.

Essa atividade prejudicial é extremamente difícil de rastrear. As conversas acontecem em milhares de pequenas salas de bate -papo privadas inacessíveis para os pesquisadores. Os usuários geralmente mascaram ideologias perigosas com “Gamespeak” ou piadas, tornando a moderação desafiadora. “A maioria dos pesquisadores é basicamente cega para tudo isso”, diz Rosenblat. “Você não pode entrar nessas salas.”

Um padrão documentado de consequências do mundo real

Embora a maioria das atividades do usuário nessas plataformas seja inofensiva, um padrão de radicalização e exploração levou a tragédias documentadas do mundo real. Os riscos teóricos agora são fatos comprovados.

  • Discórdia foi usado para organizar o comício “Unite the certo” de 2017 em Charlottesville e foi onde o atirador de Buffalo de 2022 documentou seus planos por meses em um bate -papo privado. O suspeito do recente assassinato do ativista Charlie Kirk também parecia confessar em um bate -papo com discórdia.
  • Roblox está enfrentando vários processos por não proteger as crianças de predadores. Um processo de uma família de Iowa alega que sua filha de 13 anos foi sequestrada e traficada por um homem que ela conheceu na plataforma. Roblox disse a Axios que “invista[s] Recursos significativos em tecnologia avançada de segurança “.
  • Contração muscular e Vapor também foram identificados como plataformas onde o extremismo encontrou uma posição. O tiroteio em Buffalo foi transmitido ao vivo em Twitch, e os pesquisadores documentaram como o Steam se tornou um centro para que grupos de extrema direita se conectem.

Como a moderação luta para escalar

As empresas por trás dessas plataformas enfrentam um problema estrutural. Seus sistemas são construídos para interação rápida e ponto a ponto, não para a supervisão de cima para baixo. A Discord hospeda milhões de servidores privados, muitos criados e abandonados em dias ou semanas. O Roblox gera vastas quantidades de conteúdo fabricado pelo usuário a cada hora. Ferramentas de moderação tradicionais – filtros de palavras -chave, relatórios reativos e pequenas equipes de segurança – não podem acompanhar a escala ou a velocidade na qual as comunidades prejudiciais evoluem. Várias empresas introduziram ferramentas de detecção e diretrizes comunitárias orientadas por IA, mas esses esforços são fragmentados e opacos. Os pesquisadores de segurança observam que as empresas raramente divulgam quantos moderadores eles empregam, como os algoritmos são ajustados ou a aparência dos resultados da aplicação. Essa falta de transparência dificulta os legisladores, pais ou acadêmicos avaliar se as intervenções funcionam.

Fechando a lacuna de pesquisa

Ao contrário do Facebook ou X (anteriormente Twitter), onde as postagens públicas podem ser raspadas e analisadas, a natureza privada das plataformas de jogos bloqueia as auditorias externas. Pesquisadores independentes geralmente não podem estudar interações reais, deixando debates de segurança dependentes de vazamentos, ações judiciais ou denunciantes. Sem mais acesso aberto, os formuladores de políticas correm o risco de agir em anedota em vez de evidência. Alguns especialistas propõem a criação de portais de dados que preservam a privacidade que permitem que os pesquisadores examinados estudem tendências prejudiciais sem expor as identidades do usuário. Outros defendem os relatórios obrigatórios de segurança-semelhante aos padrões de segurança de alimentos ou de segurança no local de trabalho-isso exigiria que as empresas publicassem métricas sobre relatórios de abuso, pessoal moderador e resultados de proteção infantil.

Construindo comuns sociais mais seguros

É improvável que os jovens abandonem esses espaços. Eles oferecem pertencimento, expressão criativa e amizades reais que as redes mainstream falham cada vez mais. O desafio não é desligá -los, mas tratá -los como os novos bens comuns que eles se tornaram – espaços que exigem regras, mordomia e responsabilidade. As etapas práticas podem incluir padrões de design apropriados à idade, controles parentais mais fortes, caminhos mais claros para solicitações de aplicação da lei e auditorias independentes de ferramentas de segurança. As plataformas de jogos também podem colaborar em bancos de dados de ameaças compartilhados ou protocolos de resposta rápida para conteúdo extremista, assim como as instituições financeiras compartilham dados para combater a fraude.

Um ponto de virada para a segurança online

As audiências de 8 de outubro testarão se os legisladores entendem o escopo do problema e podem ir além do questionamento simbólico dos executivos de tecnologia. Sem padrões mais fortes, os mesmos fatores que tornam as plataformas de jogos atraentes – comunidade, anonimato e liberdade criativa – continuarão a torná -las atraentes para aqueles que procuram prejudicar. Reconhecendo esses espaços como o Centros sociais reais da juventude de hoje é o primeiro passo para governá -los com a seriedade que eles exigem.

Tags: A InternetApresentou

Related Posts

Estudo revela que moderadores do Reddit estão censurando opiniões opostas em subreddits

Estudo revela que moderadores do Reddit estão censurando opiniões opostas em subreddits

22 Novembro 2024

Recent Posts

  • Netflix garante acordo global de US$ 7 bilhões para filmes da Sony Pictures
  • Samsung renova Mobile Gaming Hub para consertar descoberta de jogos quebrada
  • Mãe de um dos filhos de Elon Musk processa xAI por deepfakes sexuais de Grok
  • Melhores alternativas do Spotify para usar após o aumento de preço de 2026
  • Capcom revela jogabilidade de Resident Evil Requiem e data de lançamento em fevereiro

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.