Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

Casas inteligentes estão assistindo e agora elas podem explicar o que você está fazendo

byKerem Gülen
26 Fevereiro 2025
in Research
Home Research
Share on FacebookShare on Twitter

A tecnologia doméstica inteligente está mudando para sempre, e uma de suas aplicações mais impactantes é Reconhecimento da atividade humana (HAR). A HAR permite que sistemas inteligentes monitorem atividades diárias, como cozinhar, dormir ou exercitar, fornecendo suporte essencial em domínios como assistência médica e vida assistida. No entanto, embora os modelos de aprendizado profundo tenham melhorado significativamente a precisão do HAR, eles geralmente operam como “caixas pretas”, oferecendo pouca transparência em seu processo de tomada de decisão.

Para abordar isso, pesquisadores da Universidade de Milão – Michele Fiori, Davide Mor, Gabriele Civitarseis e Claudio Bettini – têm introduzido GNN-XARo primeiro Rede Neural de Gráfico Explicável (GNN) para reconhecimento de atividades domésticas inteligentes. Esse modelo inovador não apenas melhora o desempenho do HAR, mas também gera explicações legíveis por humanos para suas previsões.

A necessidade de IA explicável em casas inteligentes

A maioria dos sistemas HAR existentes depende de modelos de aprendizado profundo, como Redes neurais convolucionais (CNNs) e Redes Neurais Recorrentes (RNNs). Embora eficazes, esses modelos lutam contra a explicação, dificultando os usuários – incluindo profissionais médicos e cientistas de dados – para entender por que uma atividade específica foi detectada. AI explicável (XAI) Procura mitigar isso fornecendo informações sobre decisões de modelo, aprimorando a confiança e a usabilidade em aplicativos do mundo real.

As redes neurais gráficas (GNNs) surgiram como uma ferramenta poderosa para modelar dados do sensor de série de tempo em casas inteligentes, como podem capturar relações espaciais e temporais entre as leituras do sensor. No entanto, as abordagens HAR baseadas em GNN existentes carecem de explicação interna. É aqui que o GNN-Xar se diferencia, oferecendo uma solução inovadora que combina HAR baseado em gráfico com mecanismos de interpretabilidadetornando -o o primeiro do gênero no campo.


Emoti-ataque: como os emojis podem enganar os modelos de idiomas da IA


Como funciona o GNN-XAR

Gnn-Xar apresenta um romance abordagem baseada em gráfico ao processamento de dados do sensor. Em vez de tratar as leituras dos sensores como eventos isolados, é Construa gráficos dinâmicos esse modelo de relações entre diferentes sensores ao longo do tempo. Cada gráfico é processado usando um Rede Convolucional de Gráfico (GCN)que identifica a atividade mais provável que está sendo realizada. Para garantir a transparência, um adaptado Técnica XAI projetada especificamente para GNNS destaca os nós mais relevantes (leituras de sensores) e arcos (dependências temporais) que contribuíram para a previsão final.

O Processo de construção de gráficos é uma inovação essencial no GNN-XAR. Os eventos dos sensores – como detecções de movimento, uso de aparelhos e aberturas de portas – são representados como nós, enquanto as arestas capturam seus relacionamentos temporais e espaciais. O sistema distingue entre dois tipos de sensores:

  • Sensores de interação explícitos (por exemplo, sensores de porta do gabinete), que geram eventos ligados e fora.
  • Sensores passivos (por exemplo, detectores de movimento), onde apenas os eventos de ativação são importantes e a duração é calculada.

Para manter a estrutura e a eficiência, o sistema apresenta super-nodos Os eventos de sensores relacionados ao grupo. Isso permite que o modelo GNN processe interações complexas de sensores, mantendo os cálculos gerenciáveis.

Como o GNN-Xar explica suas decisões

Diferentemente dos modelos de aprendizado profundo tradicionais, que fornecem apenas saídas de classificação, o GNN-XAR usa GNNexplainerum método XAI especializado adaptado para modelos baseados em gráficos. Este método identifica os nós e bordas mais importantes que influenciaram uma previsão. A principal inovação no GNN-XAR é a adaptação do GNNexplainer para trabalhar perfeitamente com dados domésticos inteligentes, garantindo que as explicações sejam ambas preciso e legível por humanos.

Por exemplo, se o sistema prever “preparação para refeições”, pode destacar eventos como Aberturas repetidas da geladeira seguidas de ativação do fogãofornecendo uma lógica lógica e compreensível para sua classificação. O modelo converte essa explicação em linguagem natural, tornando-o acessível a usuários não especialistas.

Resultados experimentais

GNN-XAR foi testado em dois conjuntos de dados públicos inteligentes em casa-Casas Milan e Casas Aruba– que contêm dados do sensor de casas reais. O modelo foi avaliado contra Dexarum sistema HAR explicável de última geração que usa métodos baseados em CNN. Os resultados mostraram que o GNN-XAR não apenas fornecido previsões mais precisas mas também gerado Explicações mais significativas comparado aos métodos HAR baseados em XAI existentes.

Os principais resultados incluem:

  • Precisão de reconhecimento um pouco maior do que Dexar, especialmente para atividades com fortes dependências temporais (por exemplo, “sair de casa”).
  • Explicação superiorconforme medido por um método de avaliação usando grandes modelos de linguagem (LLMS) para avaliar a clareza e a relevância da explicação.
  • Manipulação aprimorada de relacionamentos complexos de sensorespermitindo um desempenho mais confiável do HAR.

Crédito da imagem em destaque: Ihor saveliev/unsplash

Tags: Casas inteligentesGNN-XAR

Related Posts

As ferramentas de pesquisa de IA podem estar criando mais problemas do que resolvem

As ferramentas de pesquisa de IA podem estar criando mais problemas do que resolvem

14 Maio 2025
O seu parceiro de IA generativo super útil está tornando seu trabalho entediante?

O seu parceiro de IA generativo super útil está tornando seu trabalho entediante?

14 Maio 2025
Adele da Microsoft quer dar um perfil cognitivo à sua IA

Adele da Microsoft quer dar um perfil cognitivo à sua IA

14 Maio 2025
O artigo de pesquisa da Apple revela Matrix3D para geração de conteúdo 3D

O artigo de pesquisa da Apple revela Matrix3D para geração de conteúdo 3D

14 Maio 2025
Pesquisa: o padrão -ouro para avaliação de Genai

Pesquisa: o padrão -ouro para avaliação de Genai

12 Maio 2025
Ai finalmente resolve o quebra -cabeça mais difícil da biologia

Ai finalmente resolve o quebra -cabeça mais difícil da biologia

6 Maio 2025

Recent Posts

  • O impacto dos tecidos inteligentes no desempenho das roupas táticas
  • Databricks Aposta grande no servidor sem servidor com sua aquisição de neon de US $ 1 bilhão
  • AlphaEvolve: Como a nova IA do Google visa a verdade com a autocorreção
  • Tiktok está implementando textos alt gerados pela IA para melhor acessibilidade
  • Trump força a Apple a repensar sua estratégia de iPhone da Índia

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.