Depender de grandes modelos de linguagem (LLMs) para resumir informações pode diminuir a aquisição de conhecimento, de acordo com um estudo recente envolvendo mais de 10.000 participantes. Os professores de marketing Jin Ho Yun e Shiri Melumad foram coautores de um artigo detalhando essa descoberta em sete estudos. Os participantes foram encarregados de aprender um tópico, como horticultura, por meio de um LLM como o ChatGPT ou de uma pesquisa padrão do Google. Os pesquisadores não colocaram restrições à duração do uso da ferramenta ou à interação dos participantes. Posteriormente, os participantes escreveram conselhos para um amigo com base nas informações aprendidas. Os dados mostraram consistentemente que aqueles que usaram LLMs para aprender perceberam que aprenderam menos e investiram menos esforço na criação de conselhos. O conselho deles era mais curto, menos factual e mais genérico. Uma amostra independente de leitores considerou os conselhos derivados do LLM menos informativos, menos úteis e eram menos propensos a adotá-los. Essas diferenças persistiram em vários contextos. Um experimento controlou possíveis variações no ecletismo da informação, expondo os participantes a fatos idênticos de pesquisas no Google e no ChatGPT. Outro experimento manteve a plataforma de pesquisa constante – Google – enquanto variava se os participantes aprendiam com os resultados padrão do Google ou com o recurso Visão geral de IA do Google. Mesmo com os factos e a plataforma padronizados, a aprendizagem a partir de respostas sintetizadas do LLM resultou num conhecimento mais superficial em comparação com a recolha, interpretação e síntese de informações através de links web padrão. O estudo atribui esta diminuição da aprendizagem à redução do envolvimento ativo. As pesquisas no Google envolvem mais “atrito”, exigindo navegação, leitura, interpretação e síntese de vários links da web, o que promove uma representação mental mais profunda. Os LLMs realizam esse processo para o usuário, mudando o aprendizado de ativo para passivo. Os investigadores não defendem evitar os LLM, dados os seus benefícios noutros contextos. Em vez disso, eles sugerem que os usuários se tornem mais estratégicos ao compreender onde os LLMs são benéficos ou prejudiciais para seus objetivos. Para respostas rápidas e factuais, os LLMs são adequados. No entanto, para desenvolver um conhecimento profundo e generalizável, confiar apenas em sínteses de LLM é menos eficaz. Outras experiências envolveram um modelo GPT especializado que fornece links da web em tempo real junto com respostas sintetizadas. Os participantes que receberam um resumo do LLM não ficaram motivados a explorar fontes originais, levando a um conhecimento mais superficial em comparação com aqueles que usaram o Google padrão. A investigação futura explorará ferramentas generativas de IA que introduzam “fricções saudáveis” para encorajar a aprendizagem activa para além de respostas facilmente sintetizadas, particularmente no ensino secundário. Este artigo foi republicado de A conversa.




