Modelos de idiomas grandes não estão apenas mudando a maneira como as pessoas coletam informações. Eles estão começando a moldar silenciosamente opiniões em ambientes do mundo real sem que ninguém perceba. Essa realidade perturbadora atingiu a comunidade R/Changemyview do Reddit no início deste ano, quando os pesquisadores fizeram um experimento secreto para testar se a IA poderia convencer os usuários inocentes.
Um experimento de campo escondido à vista de simples
Pesquisadores da Universidade de Zurique conduzido um estudo de campo de meses dentro R/ChangeMyviewum subreddit com quase quatro milhões de membros conhecidos por debates civis e perspectivas em mudança. Seu objetivo era avaliar as capacidades persuasivas do mundo real dos comentários movidos a IA fora de ambientes de laboratório controlados. Para fazer isso, eles criaram contas semi-automatizadas conduzidas por grandes modelos de idiomas (LLMS) que se envolveram diretamente com as postagens dos usuários. Fundamentalmente, eles não revelaram que as respostas foram geradas pela IA.
O experimento foi pré-registrado e aprovado pelo Comitê de Ética da Universidade de Zurique, mas ignorou o consentimento da comunidade. Durante quatro meses, os pesquisadores registraram respostas a mais de mil discussões do Reddit, analisando quase quinhentas conversas após filtrar deleções. Suas descobertas fornecem um dos primeiros vislumbres em larga escala sobre como a IA pode influenciar opiniões em ambientes naturais e imprevisíveis.
- Um arquivo criado por 404 Mídia Permite a visualização de alguns comentários originais, apesar de muitos outros terem sido excluídos desde a publicação.
Para medir a eficácia, o estudo atribuiu cada resposta de IA a uma das três categorias de tratamento. Na condição “genérica”, os LLMs responderam com base apenas no título e no corpo do post. Na condição de “personalização”, a IA também recebeu atributos pessoais inferidos do pôster original, incluindo idade, sexo, orientação política e etnia, obtida de sua história do Reddit usando outro modelo de IA. O terceiro grupo, “Community Aligned”, usou um modelo ajustado aos comentários que haviam obtido aprovação anteriormente no subreddit.
Os resultados foram impressionantes. Todas as três abordagens orientadas pela IA superaram os comentaristas humanos, atingir as taxas de persuasão três a seis vezes maiores que a linha de base humana. A personalização provou ser a mais potente, com uma taxa de sucesso de 18 %, colocando -a no 99º percentil de todos os usuários, incluindo debatedores experientes no Reddit. Até as respostas genéricas da IA correspondiam ou excederam a maioria dos esforços humanos. As respostas alinhadas à comunidade, embora um pouco menos eficazes, ainda superam significativamente os usuários médios.
É importante ressaltar que os usuários envolvidos com esses comentários gerados pela IA não tinham idéia de que estavam conversando com máquinas. Ao longo da intervenção, ninguém na comunidade R/Changemyview sinalizou a atividade suspeita, destacando o quão perfeitamente a IA pode se misturar aos debates on -line quando treinados e personalizados adequadamente.
Quando os moderadores do R/Changemyview descobriram o experimento, a reação foi rápida e furiosa. Em um anúncio público, os moderadores condenaram o estudo como “manipulação psicológica” e “uma intrusão indesejável”, citando várias violações das regras do subreddit, incluindo uso de IA não revelado e comportamento automatizado proibido. A liderança do Reddit ecoou a indignação, com o diretor jurídico Ben Lee chamando as ações dos pesquisadores de “profundamente errado em um nível moral e legal”.
O Reddit proibiu todas as contas vinculadas à equipe da Universidade de Zurique e iniciou procedimentos legais formais. Enquanto isso, os pesquisadores defenderam sua abordagem, argumentando que os benefícios potenciais de entender a persuasão da IA superavam os riscos. Eles insistiram que sua intervenção era de baixo risco, cuidadosamente revisada, e poderia ajudar a impedir os usos maliciosos da IA no futuro. No entanto, os críticos, incluindo moderadores e muitos usuários do Reddit, não estavam convencidos. Eles apontaram que pesquisas anteriores demonstraram informações semelhantes sem recorrer a experimentos não consentidos em indivíduos reais.
Os adolescentes estão usando chatgpt e batendo no antigo manual de investimentos
A confiança nas comunidades on -line depende da expectativa de que as conversas sejam entre pessoas reais com perspectivas autênticas. As intervenções não reveladas da IA ameaçam essa confiança em um nível fundamental. Até experimentos emoldurados por intenções nobres podem corroer os limites entre o discurso genuíno e a manipulação projetada. A resposta do Reddit sugere quão seriamente as plataformas estão começando a enfrentar esses desafios.
A equipe da Universidade de Zurique argumentou que seu trabalho ajudaria a proteger as comunidades contra futuras ameaças de IA. Em vez disso, eles podem ter demonstrado como já é o discurso público vulnerável. À medida que a IA se torna mais sofisticada e personalizada, a questão não é mais se pode influenciar o pensamento humano – é assim que as sociedades se adaptarão quando elas perceberem.