Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

Como a IA neurossimbólica mescla raciocínio lógico com o LLMS

byKerem Gülen
20 Fevereiro 2025
in Research
Home Research
Share on FacebookShare on Twitter

A IA é boa em reconhecimento de padrões, mas luta com o raciocínio. Enquanto isso, a cognição humana está profundamente enraizada na lógica e na coerência. E se pudéssemos Combine o melhor dos dois mundos-O poder de processamento bruto de grandes modelos de linguagem (LLMS) e o pensamento estruturado e baseado em regras da IA ​​simbólica?

Este é o objetivo por trás IA neurossimbólicauma nova abordagem que mescla aprendizado profundo com inferência orientada por coerência (CDI). Pesquisadores Huntsman e Thomas propõem um método que permite que os LLMs construir relacionamentos lógicos Da linguagem natural, abrindo a porta para melhor tomada de decisão, solução de problemas e até raciocínio legal orientado pela IA.

Este estudo, “Inteligência artificial neurossimbólica através de grandes modelos de linguagem e inferência orientada a coerência”Conduzido por Steve Huntsman e Jewell Thomas da Cynnovative, explora uma nova abordagem para integrar a inferência orientada por coerência (CDI) com grandes modelos de linguagem (LLMS). Ao desenvolver um algoritmo que transforma proposições de linguagem natural em gráficos de coerência estruturada, os pesquisadores comparam a capacidade dos modelos de IA de reconstruir as relações lógicas.

O que é inferência orientada a coerência?

A inferência orientada por coerência (CDI) é uma maneira de tomar decisões com base em quão bem um conjunto de proposições se encaixa. Em vez de simplesmente aceitar ou rejeitar fatos individuais, o CDI constrói um Gráfico de relacionamentosatribuindo pesos a consistente e contraditório declarações.

Um gráfico de coerência conectaria essas proposições e pontuar sua consistênciaajudando ai a determinar quais declarações provavelmente serão verdadeiras.

O problema? Até agora, esses gráficos tinham que ser construído manualmente– um processo meticuloso e impraticável. A nova pesquisa propõe um algoritmo que pode gerar automaticamente esses gráficos de entrada de linguagem natural e teste como os LLMs podem reconstruí -los.


Por que pequenos modelos de IA não conseguem acompanhar os grandes


Ensinar LLMs para construir estruturas lógicas

O método dos pesquisadores envolve duas etapas principais:

  1. Gerando proposições: Um conjunto de declarações é criado em linguagem natural, refletindo uma estrutura lógica.
  2. Reconstruindo gráficos de coerência: Os LLMs são então solicitados a analisar essas declarações e reconstruir a estrutura do gráfico subjacente.

Ao fazer isso, os modelos de IA são forçados a Pense mais como humanosavaliar não apenas fatos individuais, mas Como eles se conectam a uma rede mais ampla de conhecimento.

Ai pode acertar?

O estudo testou vários LLMs, de GPT-4O e Claude 3.5 para Modelos de código aberto como QWEN-32B e LLAMA-3.3. Os resultados foram surpreendentemente promissor– Alguns modelos foram capazes de reconstruir gráficos de coerência com alta precisão, mesmo em condições incertas ou ambíguas.

Interessantemente, modelos otimizados para raciocíniocomo O1-mini e QWQ-32Bexecutou o melhor. Isso sugere que os sistemas de IA são treinados especificamente para resolução de problemas estruturados Pode superar o LLMS de uso geral ao lidar com tarefas complexas de raciocínio.

No centro de Inferência orientada a coerência (CDI) é a ideia de que o conhecimento não é apenas uma coleção de fatos isolados– É uma rede de verdades interdependentes. O método introduzido pelo Huntsman e Thomas estruturas de conhecimento como um Gráfico de coerênciaonde:

  • Nós Representar proposições (por exemplo, “a Haia é a capital”).
  • Bordas representar consistência ou inconsistência entre essas proposições.

Se uma proposição apoia outrorecebe um conexão positiva. Se duas declarações contradizem, elas recebem um conexão negativa. O objetivo? Para maximizar a coerência separando -se Declarações verdadeiras e falsas em aglomerados diferentes.

O problema de encontrar a partição mais coerente em um gráfico acaba sendo matematicamente equivalente a MAX-CUTum desafio computacional bem conhecido. A IA neurossimbólica aborda isso combinando o entendimento da linguagem natural da LLMS com o raciocínio baseado em gráficos da CDI.

A abordagem dos pesquisadores se inspira em Psicologia e ciência da computação. CDI tem sido usado para modelar tomada de decisão humanaraciocínio legal e até mesmo Inferência causal na ciência. Mas até agora, os gráficos CDI tinham que ser construídos manualmente.

Para automatizar esse processo, o estudo propõe um algoritmo que:

  1. Transforma proposições de linguagem natural em um gráfico estruturado de coerência.
  2. Trens llms para reconstruir esses gráficostestando sua capacidade de identificar relacionamentos entre fatos.
  3. Desempenho de referência em diferentes modelos de IAanalisando o quão bem eles preservam a consistência lógica.

Para testar como os LLMs lidam com a inferência orientada por coerência, os pesquisadores geraram gráficos de coerência sintética e os alimentavam em vários modelos de IA. Esses gráficos continham declarações consistentes e contraditórias, desafiando os modelos a identificar estruturas lógicas, em vez de apenas regurgitar informações.

Eles testaram:

  • Claude 3.5 e GPT-4o (Comercial LLMS de ponta)
  • QWQ-32B, O1-mini e llama-3 (Modelos de código aberto otimizados para raciocínio)
  • Phi-4 e Gemini 1.5/2.0 (modelos menores e de tamanho médio)

Os resultados mostraram que:

  • Modelos otimizados para raciocínio (como O1-mini e QWQ-32B) superaram significativamente os LLMs de uso geral.
  • Alguns modelos reconstruíram com sucesso o gráfico de coerência original – mesmo quando confrontado com informações incertas ou ambíguas.
  • O LLMS lutou com estruturas lógicas mais complexas, principalmente quando várias proposições eram interdependentes.

Esta pesquisa é um passo importante para AI verdadeiramente inteligente. Em vez de tratar a linguagem como um Jogo de adivinhação estatística. Avalie a consistência lógicalevando a:

  • Saídas de IA mais confiáveis (menos alucinação, raciocínio mais preciso)
  • Melhor explicação (Decisões de IA baseadas em estruturas lógicas explícitas)
  • Resolução de problemas aprimorada (aplicável à lei, ciência e governança)

Crédito da imagem em destaque: Tara Winstead/Pexels

Tags: AiApresentoullm

Related Posts

As ferramentas de pesquisa de IA podem estar criando mais problemas do que resolvem

As ferramentas de pesquisa de IA podem estar criando mais problemas do que resolvem

14 Maio 2025
O seu parceiro de IA generativo super útil está tornando seu trabalho entediante?

O seu parceiro de IA generativo super útil está tornando seu trabalho entediante?

14 Maio 2025
Adele da Microsoft quer dar um perfil cognitivo à sua IA

Adele da Microsoft quer dar um perfil cognitivo à sua IA

14 Maio 2025
O artigo de pesquisa da Apple revela Matrix3D para geração de conteúdo 3D

O artigo de pesquisa da Apple revela Matrix3D para geração de conteúdo 3D

14 Maio 2025
Pesquisa: o padrão -ouro para avaliação de Genai

Pesquisa: o padrão -ouro para avaliação de Genai

12 Maio 2025
Ai finalmente resolve o quebra -cabeça mais difícil da biologia

Ai finalmente resolve o quebra -cabeça mais difícil da biologia

6 Maio 2025

Recent Posts

  • O impacto dos tecidos inteligentes no desempenho das roupas táticas
  • Databricks Aposta grande no servidor sem servidor com sua aquisição de neon de US $ 1 bilhão
  • AlphaEvolve: Como a nova IA do Google visa a verdade com a autocorreção
  • Tiktok está implementando textos alt gerados pela IA para melhor acessibilidade
  • Trump força a Apple a repensar sua estratégia de iPhone da Índia

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.