A IA é boa em reconhecimento de padrões, mas luta com o raciocínio. Enquanto isso, a cognição humana está profundamente enraizada na lógica e na coerência. E se pudéssemos Combine o melhor dos dois mundos-O poder de processamento bruto de grandes modelos de linguagem (LLMS) e o pensamento estruturado e baseado em regras da IA simbólica?
Este é o objetivo por trás IA neurossimbólicauma nova abordagem que mescla aprendizado profundo com inferência orientada por coerência (CDI). Pesquisadores Huntsman e Thomas propõem um método que permite que os LLMs construir relacionamentos lógicos Da linguagem natural, abrindo a porta para melhor tomada de decisão, solução de problemas e até raciocínio legal orientado pela IA.
Este estudo, “Inteligência artificial neurossimbólica através de grandes modelos de linguagem e inferência orientada a coerência”Conduzido por Steve Huntsman e Jewell Thomas da Cynnovative, explora uma nova abordagem para integrar a inferência orientada por coerência (CDI) com grandes modelos de linguagem (LLMS). Ao desenvolver um algoritmo que transforma proposições de linguagem natural em gráficos de coerência estruturada, os pesquisadores comparam a capacidade dos modelos de IA de reconstruir as relações lógicas.
O que é inferência orientada a coerência?
A inferência orientada por coerência (CDI) é uma maneira de tomar decisões com base em quão bem um conjunto de proposições se encaixa. Em vez de simplesmente aceitar ou rejeitar fatos individuais, o CDI constrói um Gráfico de relacionamentosatribuindo pesos a consistente e contraditório declarações.
Um gráfico de coerência conectaria essas proposições e pontuar sua consistênciaajudando ai a determinar quais declarações provavelmente serão verdadeiras.
O problema? Até agora, esses gráficos tinham que ser construído manualmente– um processo meticuloso e impraticável. A nova pesquisa propõe um algoritmo que pode gerar automaticamente esses gráficos de entrada de linguagem natural e teste como os LLMs podem reconstruí -los.
Por que pequenos modelos de IA não conseguem acompanhar os grandes
Ensinar LLMs para construir estruturas lógicas
O método dos pesquisadores envolve duas etapas principais:
- Gerando proposições: Um conjunto de declarações é criado em linguagem natural, refletindo uma estrutura lógica.
- Reconstruindo gráficos de coerência: Os LLMs são então solicitados a analisar essas declarações e reconstruir a estrutura do gráfico subjacente.
Ao fazer isso, os modelos de IA são forçados a Pense mais como humanosavaliar não apenas fatos individuais, mas Como eles se conectam a uma rede mais ampla de conhecimento.
Ai pode acertar?
O estudo testou vários LLMs, de GPT-4O e Claude 3.5 para Modelos de código aberto como QWEN-32B e LLAMA-3.3. Os resultados foram surpreendentemente promissor– Alguns modelos foram capazes de reconstruir gráficos de coerência com alta precisão, mesmo em condições incertas ou ambíguas.
Interessantemente, modelos otimizados para raciocíniocomo O1-mini e QWQ-32Bexecutou o melhor. Isso sugere que os sistemas de IA são treinados especificamente para resolução de problemas estruturados Pode superar o LLMS de uso geral ao lidar com tarefas complexas de raciocínio.
No centro de Inferência orientada a coerência (CDI) é a ideia de que o conhecimento não é apenas uma coleção de fatos isolados– É uma rede de verdades interdependentes. O método introduzido pelo Huntsman e Thomas estruturas de conhecimento como um Gráfico de coerênciaonde:
- Nós Representar proposições (por exemplo, “a Haia é a capital”).
- Bordas representar consistência ou inconsistência entre essas proposições.
Se uma proposição apoia outrorecebe um conexão positiva. Se duas declarações contradizem, elas recebem um conexão negativa. O objetivo? Para maximizar a coerência separando -se Declarações verdadeiras e falsas em aglomerados diferentes.
O problema de encontrar a partição mais coerente em um gráfico acaba sendo matematicamente equivalente a MAX-CUTum desafio computacional bem conhecido. A IA neurossimbólica aborda isso combinando o entendimento da linguagem natural da LLMS com o raciocínio baseado em gráficos da CDI.
A abordagem dos pesquisadores se inspira em Psicologia e ciência da computação. CDI tem sido usado para modelar tomada de decisão humanaraciocínio legal e até mesmo Inferência causal na ciência. Mas até agora, os gráficos CDI tinham que ser construídos manualmente.
Para automatizar esse processo, o estudo propõe um algoritmo que:
- Transforma proposições de linguagem natural em um gráfico estruturado de coerência.
- Trens llms para reconstruir esses gráficostestando sua capacidade de identificar relacionamentos entre fatos.
- Desempenho de referência em diferentes modelos de IAanalisando o quão bem eles preservam a consistência lógica.
Para testar como os LLMs lidam com a inferência orientada por coerência, os pesquisadores geraram gráficos de coerência sintética e os alimentavam em vários modelos de IA. Esses gráficos continham declarações consistentes e contraditórias, desafiando os modelos a identificar estruturas lógicas, em vez de apenas regurgitar informações.
Eles testaram:
- Claude 3.5 e GPT-4o (Comercial LLMS de ponta)
- QWQ-32B, O1-mini e llama-3 (Modelos de código aberto otimizados para raciocínio)
- Phi-4 e Gemini 1.5/2.0 (modelos menores e de tamanho médio)
Os resultados mostraram que:
- Modelos otimizados para raciocínio (como O1-mini e QWQ-32B) superaram significativamente os LLMs de uso geral.
- Alguns modelos reconstruíram com sucesso o gráfico de coerência original – mesmo quando confrontado com informações incertas ou ambíguas.
- O LLMS lutou com estruturas lógicas mais complexas, principalmente quando várias proposições eram interdependentes.
Esta pesquisa é um passo importante para AI verdadeiramente inteligente. Em vez de tratar a linguagem como um Jogo de adivinhação estatística. Avalie a consistência lógicalevando a:
- Saídas de IA mais confiáveis (menos alucinação, raciocínio mais preciso)
- Melhor explicação (Decisões de IA baseadas em estruturas lógicas explícitas)
- Resolução de problemas aprimorada (aplicável à lei, ciência e governança)
Crédito da imagem em destaque: Tara Winstead/Pexels