A tecnologia doméstica inteligente está mudando para sempre, e uma de suas aplicações mais impactantes é Reconhecimento da atividade humana (HAR). A HAR permite que sistemas inteligentes monitorem atividades diárias, como cozinhar, dormir ou exercitar, fornecendo suporte essencial em domínios como assistência médica e vida assistida. No entanto, embora os modelos de aprendizado profundo tenham melhorado significativamente a precisão do HAR, eles geralmente operam como “caixas pretas”, oferecendo pouca transparência em seu processo de tomada de decisão.
Para abordar isso, pesquisadores da Universidade de Milão – Michele Fiori, Davide Mor, Gabriele Civitarseis e Claudio Bettini – têm introduzido GNN-XARo primeiro Rede Neural de Gráfico Explicável (GNN) para reconhecimento de atividades domésticas inteligentes. Esse modelo inovador não apenas melhora o desempenho do HAR, mas também gera explicações legíveis por humanos para suas previsões.
A necessidade de IA explicável em casas inteligentes
A maioria dos sistemas HAR existentes depende de modelos de aprendizado profundo, como Redes neurais convolucionais (CNNs) e Redes Neurais Recorrentes (RNNs). Embora eficazes, esses modelos lutam contra a explicação, dificultando os usuários – incluindo profissionais médicos e cientistas de dados – para entender por que uma atividade específica foi detectada. AI explicável (XAI) Procura mitigar isso fornecendo informações sobre decisões de modelo, aprimorando a confiança e a usabilidade em aplicativos do mundo real.
As redes neurais gráficas (GNNs) surgiram como uma ferramenta poderosa para modelar dados do sensor de série de tempo em casas inteligentes, como podem capturar relações espaciais e temporais entre as leituras do sensor. No entanto, as abordagens HAR baseadas em GNN existentes carecem de explicação interna. É aqui que o GNN-Xar se diferencia, oferecendo uma solução inovadora que combina HAR baseado em gráfico com mecanismos de interpretabilidadetornando -o o primeiro do gênero no campo.
Emoti-ataque: como os emojis podem enganar os modelos de idiomas da IA
Como funciona o GNN-XAR
Gnn-Xar apresenta um romance abordagem baseada em gráfico ao processamento de dados do sensor. Em vez de tratar as leituras dos sensores como eventos isolados, é Construa gráficos dinâmicos esse modelo de relações entre diferentes sensores ao longo do tempo. Cada gráfico é processado usando um Rede Convolucional de Gráfico (GCN)que identifica a atividade mais provável que está sendo realizada. Para garantir a transparência, um adaptado Técnica XAI projetada especificamente para GNNS destaca os nós mais relevantes (leituras de sensores) e arcos (dependências temporais) que contribuíram para a previsão final.
O Processo de construção de gráficos é uma inovação essencial no GNN-XAR. Os eventos dos sensores – como detecções de movimento, uso de aparelhos e aberturas de portas – são representados como nós, enquanto as arestas capturam seus relacionamentos temporais e espaciais. O sistema distingue entre dois tipos de sensores:
- Sensores de interação explícitos (por exemplo, sensores de porta do gabinete), que geram eventos ligados e fora.
- Sensores passivos (por exemplo, detectores de movimento), onde apenas os eventos de ativação são importantes e a duração é calculada.
Para manter a estrutura e a eficiência, o sistema apresenta super-nodos Os eventos de sensores relacionados ao grupo. Isso permite que o modelo GNN processe interações complexas de sensores, mantendo os cálculos gerenciáveis.
Como o GNN-Xar explica suas decisões
Diferentemente dos modelos de aprendizado profundo tradicionais, que fornecem apenas saídas de classificação, o GNN-XAR usa GNNexplainerum método XAI especializado adaptado para modelos baseados em gráficos. Este método identifica os nós e bordas mais importantes que influenciaram uma previsão. A principal inovação no GNN-XAR é a adaptação do GNNexplainer para trabalhar perfeitamente com dados domésticos inteligentes, garantindo que as explicações sejam ambas preciso e legível por humanos.
Por exemplo, se o sistema prever “preparação para refeições”, pode destacar eventos como Aberturas repetidas da geladeira seguidas de ativação do fogãofornecendo uma lógica lógica e compreensível para sua classificação. O modelo converte essa explicação em linguagem natural, tornando-o acessível a usuários não especialistas.
Resultados experimentais
GNN-XAR foi testado em dois conjuntos de dados públicos inteligentes em casa-Casas Milan e Casas Aruba– que contêm dados do sensor de casas reais. O modelo foi avaliado contra Dexarum sistema HAR explicável de última geração que usa métodos baseados em CNN. Os resultados mostraram que o GNN-XAR não apenas fornecido previsões mais precisas mas também gerado Explicações mais significativas comparado aos métodos HAR baseados em XAI existentes.
Os principais resultados incluem:
- Precisão de reconhecimento um pouco maior do que Dexar, especialmente para atividades com fortes dependências temporais (por exemplo, “sair de casa”).
- Explicação superiorconforme medido por um método de avaliação usando grandes modelos de linguagem (LLMS) para avaliar a clareza e a relevância da explicação.
- Manipulação aprimorada de relacionamentos complexos de sensorespermitindo um desempenho mais confiável do HAR.
Crédito da imagem em destaque: Ihor saveliev/unsplash