Um novo estudo de Universidade de Nova York e Universidade de Tübingenliderado por Hanna M. Dettki, Brenden M. Lake, Charley M. Wu e Bob Rehderpergunta se a IA pode raciocinar sobre as causas, como os humanos ou se depende de padrões. O artigo deles, “Os grandes modelos de linguagem raciocinam causalmente como nós? Ainda melhor?”, Investiga quatro modelos populares-GPT-3.5, GPT-4O, Claude-3 e Gemini-Pro-para ver se eles compreendem estruturas causais complexas ou apenas imitam a linguagem humana.
Como o estudo testou o raciocínio causal na IA
Os pesquisadores compararam o raciocínio humano com quatro LLMs –GPT-3.5, GPT-4O, Claude-3 e Gemini-Pro-usando GRAFS DE COLLIDERum teste clássico em inferência causal. Os participantes (humanos e IA) foram solicitados a avaliar a probabilidade de um evento dada certas relações causais. A questão central: o LLMS raciocina causalmente da mesma maneira que os humanos, ou eles seguem uma lógica diferente?
AI agora lida com simulações moleculares: graças ao mdcrow
Principais descobertas: a IA pode raciocinar, mas não como seres humanos
Os resultados revelados um espectro de raciocínio causal entre os modelos de IA.
- GPT-4O e Claude-3 mostrou o máximo raciocínio normativoo que significa que eles seguiram a teoria de probabilidade mais de perto do que os participantes humanos.
- Gemini-Pro e GPT-3.5por outro lado, exibi mais raciocínio associativoo que significa que eles se baseavam mais em padrões estatísticos do que na lógica causal estrita.
- Todos os modelos exibiram viesesdesviando -se da independência esperada das causas. No entanto, Claude-3 foi o menos tendenciosoo que significa que ele aderiu mais de perto às normas causais matemáticas.
Interessantemente, Os seres humanos geralmente aplicam heurísticas que se desviam da teoria de probabilidade estrita – como o efeito “explicando”, onde observar uma causa reduz a probabilidade de outra. Enquanto os modelos de IA reconhecem esse efeito, suas respostas variaram significativamente com base nos dados e no contexto do treinamento.
Ai vs. Raciocínio Humano: uma diferença fundamental
Uma das idéias mais intrigantes do estudo é que o LLMS Não apenas imite o raciocínio humano– Eles abordam a causalidade de maneira diferente. Ao contrário dos humanos, cujos julgamentos permaneceram relativamente estáveis em diferentes contextos, Os modelos de IA ajustaram seu raciocínio, dependendo do conhecimento do domínio (por exemplo, economia vs. sociologia).
- GPT-4O, em particular, tratou os vínculos causais como determinísticosassumindo que certas causas sempre produzem efeitos específicos.
- Humanos, por outro lado, fatoram a incertezareconhecendo que os relacionamentos causais nem sempre são absolutos.
Isso sugere que enquanto a IA pode ser mais preciso em certas tarefas estruturadas, é não tem flexibilidade do pensamento humano ao lidar com situações ambíguas ou multi-causais.
Por que isso importa para a IA na tomada de decisão
O estudo revela uma limitação importante: Os LLMs podem não generalizar o conhecimento causal além de seus dados de treinamento sem forte orientação. Isso tem implicações críticas para implantar a IA na tomada de decisões do mundo real, desde diagnósticos médicos até previsões econômicas.
Os LLMs podem superar os seres humanos na inferência baseada em probabilidade, mas seu raciocínio permanece fundamentalmente diferente-muitas vezes sem o uso de seres humanos lógicos adaptativos e intuitivos na solução de problemas cotidianos.
Em outras palavras, a IA pode raciocinar sobre a causalidade – mas não como nós.
Crédito da imagem em destaque: Kerem Gülen/ideograma