Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

A IA pode realmente raciocinar sobre causa e efeito? Um novo estudo coloca o LLMS à prova

byKerem Gülen
17 Fevereiro 2025
in Research
Home Research
Share on FacebookShare on Twitter

Um novo estudo de Universidade de Nova York e Universidade de Tübingenliderado por Hanna M. Dettki, Brenden M. Lake, Charley M. Wu e Bob Rehderpergunta se a IA pode raciocinar sobre as causas, como os humanos ou se depende de padrões. O artigo deles, “Os grandes modelos de linguagem raciocinam causalmente como nós? Ainda melhor?”, Investiga quatro modelos populares-GPT-3.5, GPT-4O, Claude-3 e Gemini-Pro-para ver se eles compreendem estruturas causais complexas ou apenas imitam a linguagem humana.

Como o estudo testou o raciocínio causal na IA

Os pesquisadores compararam o raciocínio humano com quatro LLMs –GPT-3.5, GPT-4O, Claude-3 e Gemini-Pro-usando GRAFS DE COLLIDERum teste clássico em inferência causal. Os participantes (humanos e IA) foram solicitados a avaliar a probabilidade de um evento dada certas relações causais. A questão central: o LLMS raciocina causalmente da mesma maneira que os humanos, ou eles seguem uma lógica diferente?


AI agora lida com simulações moleculares: graças ao mdcrow


Principais descobertas: a IA pode raciocinar, mas não como seres humanos

Os resultados revelados um espectro de raciocínio causal entre os modelos de IA.

  • GPT-4O e Claude-3 mostrou o máximo raciocínio normativoo que significa que eles seguiram a teoria de probabilidade mais de perto do que os participantes humanos.
  • Gemini-Pro e GPT-3.5por outro lado, exibi mais raciocínio associativoo que significa que eles se baseavam mais em padrões estatísticos do que na lógica causal estrita.
  • Todos os modelos exibiram viesesdesviando -se da independência esperada das causas. No entanto, Claude-3 foi o menos tendenciosoo que significa que ele aderiu mais de perto às normas causais matemáticas.

Interessantemente, Os seres humanos geralmente aplicam heurísticas que se desviam da teoria de probabilidade estrita – como o efeito “explicando”, onde observar uma causa reduz a probabilidade de outra. Enquanto os modelos de IA reconhecem esse efeito, suas respostas variaram significativamente com base nos dados e no contexto do treinamento.

Ai vs. Raciocínio Humano: uma diferença fundamental

Uma das idéias mais intrigantes do estudo é que o LLMS Não apenas imite o raciocínio humano– Eles abordam a causalidade de maneira diferente. Ao contrário dos humanos, cujos julgamentos permaneceram relativamente estáveis ​​em diferentes contextos, Os modelos de IA ajustaram seu raciocínio, dependendo do conhecimento do domínio (por exemplo, economia vs. sociologia).

  • GPT-4O, em particular, tratou os vínculos causais como determinísticosassumindo que certas causas sempre produzem efeitos específicos.
  • Humanos, por outro lado, fatoram a incertezareconhecendo que os relacionamentos causais nem sempre são absolutos.

Isso sugere que enquanto a IA pode ser mais preciso em certas tarefas estruturadas, é não tem flexibilidade do pensamento humano ao lidar com situações ambíguas ou multi-causais.

Por que isso importa para a IA na tomada de decisão

O estudo revela uma limitação importante: Os LLMs podem não generalizar o conhecimento causal além de seus dados de treinamento sem forte orientação. Isso tem implicações críticas para implantar a IA na tomada de decisões do mundo real, desde diagnósticos médicos até previsões econômicas.

Os LLMs podem superar os seres humanos na inferência baseada em probabilidade, mas seu raciocínio permanece fundamentalmente diferente-muitas vezes sem o uso de seres humanos lógicos adaptativos e intuitivos na solução de problemas cotidianos.

Em outras palavras, a IA pode raciocinar sobre a causalidade – mas não como nós.


Crédito da imagem em destaque: Kerem Gülen/ideograma

Tags: AiApresentoullm

Related Posts

As ferramentas de pesquisa de IA podem estar criando mais problemas do que resolvem

As ferramentas de pesquisa de IA podem estar criando mais problemas do que resolvem

14 Maio 2025
O seu parceiro de IA generativo super útil está tornando seu trabalho entediante?

O seu parceiro de IA generativo super útil está tornando seu trabalho entediante?

14 Maio 2025
Adele da Microsoft quer dar um perfil cognitivo à sua IA

Adele da Microsoft quer dar um perfil cognitivo à sua IA

14 Maio 2025
O artigo de pesquisa da Apple revela Matrix3D para geração de conteúdo 3D

O artigo de pesquisa da Apple revela Matrix3D para geração de conteúdo 3D

14 Maio 2025
Pesquisa: o padrão -ouro para avaliação de Genai

Pesquisa: o padrão -ouro para avaliação de Genai

12 Maio 2025
Ai finalmente resolve o quebra -cabeça mais difícil da biologia

Ai finalmente resolve o quebra -cabeça mais difícil da biologia

6 Maio 2025

Recent Posts

  • O impacto dos tecidos inteligentes no desempenho das roupas táticas
  • Databricks Aposta grande no servidor sem servidor com sua aquisição de neon de US $ 1 bilhão
  • AlphaEvolve: Como a nova IA do Google visa a verdade com a autocorreção
  • Tiktok está implementando textos alt gerados pela IA para melhor acessibilidade
  • Trump força a Apple a repensar sua estratégia de iPhone da Índia

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.