Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

Estudo mostra que resumos de IA matam a motivação para verificar fontes

byAytun Çelebi
2 Dezembro 2025
in Research
Home Research
Share on FacebookShare on Twitter

Depender de grandes modelos de linguagem (LLMs) para resumir informações pode diminuir a aquisição de conhecimento, de acordo com um estudo recente envolvendo mais de 10.000 participantes. Os professores de marketing Jin Ho Yun e Shiri Melumad foram coautores de um artigo detalhando essa descoberta em sete estudos. Os participantes foram encarregados de aprender um tópico, como horticultura, por meio de um LLM como o ChatGPT ou de uma pesquisa padrão do Google. Os pesquisadores não colocaram restrições à duração do uso da ferramenta ou à interação dos participantes. Posteriormente, os participantes escreveram conselhos para um amigo com base nas informações aprendidas. Os dados mostraram consistentemente que aqueles que usaram LLMs para aprender perceberam que aprenderam menos e investiram menos esforço na criação de conselhos. O conselho deles era mais curto, menos factual e mais genérico. Uma amostra independente de leitores considerou os conselhos derivados do LLM menos informativos, menos úteis e eram menos propensos a adotá-los. Essas diferenças persistiram em vários contextos. Um experimento controlou possíveis variações no ecletismo da informação, expondo os participantes a fatos idênticos de pesquisas no Google e no ChatGPT. Outro experimento manteve a plataforma de pesquisa constante – Google – enquanto variava se os participantes aprendiam com os resultados padrão do Google ou com o recurso Visão geral de IA do Google. Mesmo com os factos e a plataforma padronizados, a aprendizagem a partir de respostas sintetizadas do LLM resultou num conhecimento mais superficial em comparação com a recolha, interpretação e síntese de informações através de links web padrão. O estudo atribui esta diminuição da aprendizagem à redução do envolvimento ativo. As pesquisas no Google envolvem mais “atrito”, exigindo navegação, leitura, interpretação e síntese de vários links da web, o que promove uma representação mental mais profunda. Os LLMs realizam esse processo para o usuário, mudando o aprendizado de ativo para passivo. Os investigadores não defendem evitar os LLM, dados os seus benefícios noutros contextos. Em vez disso, eles sugerem que os usuários se tornem mais estratégicos ao compreender onde os LLMs são benéficos ou prejudiciais para seus objetivos. Para respostas rápidas e factuais, os LLMs são adequados. No entanto, para desenvolver um conhecimento profundo e generalizável, confiar apenas em sínteses de LLM é menos eficaz. Outras experiências envolveram um modelo GPT especializado que fornece links da web em tempo real junto com respostas sintetizadas. Os participantes que receberam um resumo do LLM não ficaram motivados a explorar fontes originais, levando a um conhecimento mais superficial em comparação com aqueles que usaram o Google padrão. A investigação futura explorará ferramentas generativas de IA que introduzam “fricções saudáveis” para encorajar a aprendizagem activa para além de respostas facilmente sintetizadas, particularmente no ensino secundário. Este artigo foi republicado de A conversa.


Crédito da imagem em destaque

Tags: IAPesquisar

Related Posts

IA corrompe pesquisas acadêmicas com citações de estudos inexistentes

IA corrompe pesquisas acadêmicas com citações de estudos inexistentes

30 Dezembro 2025
Modelos padrão de IA falham em matemática simples sem treinamento especializado

Modelos padrão de IA falham em matemática simples sem treinamento especializado

30 Dezembro 2025
As baterias de íon de sódio estão mais próximas do carregamento rápido à medida que os pesquisadores resolvem gargalos de íons

As baterias de íon de sódio estão mais próximas do carregamento rápido à medida que os pesquisadores resolvem gargalos de íons

30 Dezembro 2025
IA corrompe pesquisas acadêmicas com citações de estudos inexistentes

IA corrompe pesquisas acadêmicas com citações de estudos inexistentes

30 Dezembro 2025
Cientistas descobrem mais de 17 mil novas espécies

Cientistas descobrem mais de 17 mil novas espécies

26 Dezembro 2025
GPT-5.2 ultrapassa a linha de base do doutorado especializado com pontuação científica de 92%

GPT-5.2 ultrapassa a linha de base do doutorado especializado com pontuação científica de 92%

24 Dezembro 2025

Recent Posts

  • WhatsApp libera pacote de figurinhas 2026 e fogos de artifício em videochamadas
  • Novo carro-chefe da Xiaomi com eSIM entra em produção em massa no próximo ano
  • Meta compra Manus, empresa de IA em rápido crescimento, em negócio de 2 bilhões de dólares
  • Gallery TV junta-se à linha de estilo de vida da LG com serviço de arte exclusivo
  • Por que o acordo Groq da Nvidia é tão importante para o futuro da IA

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.