Adam Mosseri da Meta enfatiza a importância de examinar minuciosamente o conteúdo gerado por IA em plataformas de mídia social. À medida que as falsificações profundas se tornam cada vez mais sofisticadas, a capacidade de discernir a realidade da fabricação é essencial para os utilizadores.
Mosseri da Meta enfatiza a necessidade de examinar minuciosamente o conteúdo gerado por IA
Os comentários de Mosseri surgem em meio a preocupações crescentes sobre deep fakes, que utilizam redes adversárias generativas (GAN) e modelos de difusão como o DALL-E 2 para criar imagens e vídeos falsos que são difíceis de diferenciar do conteúdo autêntico. O chefe do Instagram acredita que as redes sociais podem ajudar a combater a desinformação ao sinalizar conteúdos falsos, embora reconheça que nem todas as falsidades podem ser detectadas ou rotuladas adequadamente. “Nosso papel como plataformas de internet é rotular o conteúdo gerado como IA da melhor maneira possível”, afirmou.
Deep fakes evoluíram significativamente nos últimos anos. O processo envolve um modelo de IA gerando uma falsificação enquanto outro a identifica, refinando continuamente sua precisão. Isso resulta em conteúdo que pode ser alarmantemente convincente.
À medida que as falsificações profundas ganham força, Mosseri alerta os usuários contra a confiança cega em imagens e vídeos online. Numa série de posts no Threads, ele incentivou os usuários a considerarem a fonte do conteúdo compartilhado, reforçando a ideia de que o contexto é crucial na era digital. Ele elaborou: “Parece que agora estamos reconhecendo coletivamente que se tornou mais importante considerar quem está dizendo algo do que o que eles estão dizendo”. Esta perspetiva alinha-se com a evolução da literacia digital, onde a credibilidade do fornecedor de conteúdos é tão vital como o próprio conteúdo.
No cenário das redes sociais, a capacidade de discernir a autenticidade do conteúdo visual é mais urgente do que nunca. Mosseri observou a necessidade de as plataformas fornecerem contexto sobre a origem do material partilhado, ecoando iniciativas de moderação lideradas pelos utilizadores vistas noutras plataformas. Ele destacou que, embora algumas formas de desinformação gerada pela IA possam ser identificadas, outras inevitavelmente passam despercebidas.
Professor de Stanford enfrenta acusações de citar estudo falso gerado por IA
A urgência desta questão é ainda sublinhada pelo rápido avanço na tecnologia de IA. As ferramentas atuais produzem facilmente conteúdo que parece real e pode ser distribuído em larga escala, muitas vezes ultrapassando a capacidade dos moderadores de responder de forma eficaz. À medida que os utilizadores navegam numa enxurrada diária de informações, são incentivados a cultivar um olhar perspicaz, considerando quem partilha as informações e as implicações por detrás delas.
A investigação sobre como as plataformas rotulam e moderam o conteúdo gerado pela IA continua em andamento. O reconhecimento de Mosseri das limitações das actuais práticas de rotulagem sugere a necessidade de estratégias mais robustas para combater a desinformação. Dados os avanços tecnológicos na geração de mídia por IA, como as plataformas se adaptam a essas mudanças e continuam a promover a conscientização dos usuários permanece uma questão em aberto.
Embora a Meta esteja sugerindo mudanças futuras em suas estratégias de moderação de conteúdo, não está claro com que rapidez essas mudanças serão implementadas ou sua eficácia no combate às manipulações tecnologicamente adeptas vistas hoje. As complexidades introduzidas pela IA geram desafios que exigem um público proativo e informado, capaz de avaliar criticamente os conteúdos que consome online.
Crédito da imagem em destaque: Estúdio Criativo Hartono/Unsplash