O Google está alavancando a IA generativa e vários modelos de fundação para introduzir Raciocínio geoespacial, uma iniciativa de pesquisa projetada para acelerar a solução geoespacial de problemas. Esse esforço integra modelos de grandes idiomas, como Gemini e Modelos de Fundação de Sensor Remoto, para aprimorar a análise de dados em vários setores.
Durante anos, o Google compilou dados geoespaciais, que estão vinculados a locais geográficos específicos, para aprimorar seus produtos. Esses dados são cruciais para enfrentar desafios corporativos, como os em saúde pública, desenvolvimento urbano e resiliência climática.
Os novos modelos de fundação de sensoriamento remoto são construídos em arquiteturas como autoencoders mascarados, siglip, mammut e vit de coruja, e são treinados usando satélite e imagens aéreas de alta resolução com descrições de texto e anotações de caixas delimitadoras. Esses modelos geram incorporações detalhadas para imagens e objetos e podem ser personalizados para tarefas como o mapeamento de infraestrutura, avaliando danos por desastres e localizando recursos específicos.
Esses modelos suportam interfaces de linguagem natural, permitindo que os usuários executem tarefas como encontrar imagens de estruturas específicas ou identificar estradas intransitáveis. As avaliações demonstraram desempenho de ponta em vários benchmarks de sensoriamento remoto.
O raciocínio geoespacial visa integrar modelos de fundação avançada do Google com modelos e conjuntos de dados específicos do usuário, construindo no piloto existente de Gêmeos Recursos no Google Earth. Essa estrutura permite que os desenvolvedores construam fluxos de trabalho personalizados na plataforma do Google Cloud para gerenciar consultas geoespaciais complexas usando Gemini, que orquestra a análise em várias fontes de dados.
O aplicativo de demonstração mostra como um gerente de crise pode usar o raciocínio geoespacial após um furacão por:
- Visualizando o contexto pré-desastre: Usando imagens de satélite de fonte aberta do Earth Engine.
- Visualizando a situação pós-desastre: Importação de imagens aéreas de alta resolução.
- Identificando áreas danificadas: Usando modelos de fundação de sensoriamento remoto para analisar imagens aéreas.
- Prevendo mais riscos: Utilizando a previsão do tempo de WeathernExt IA.
- Fazendo perguntas de Gemini: Estimar frações de danos, valor de danos à propriedade e sugerir priorização de alívio.
O aplicativo de demonstração inclui:
- Um aplicativo de front-end Python embalado: Isso integra componentes de mapeamento e gráfico com uma janela de bate -papo.
- Um back-end agêntico: Isso implementa um agente Langgraph implantado usando o mecanismo do agente AI da VERTEX.
- Ferramentas acessíveis a LLM: Para acessar o Earth Engine, BigQuery, Google Maps Platform e Google Cloud Storage, executar operações geoespaciais e usar pontos de extremidade de inferência de modelo de fundação de sensoriamento remoto implantados no vértice AI.
O aplicativo utiliza imagens aéreas de alta resolução da Patrulha Aérea Civil, pré-processada com IA de Bellwether, a lua de X para adaptação climática, além dos edifícios abertos e modelos Skai da Google Research. Os índices de vulnerabilidade social, dados de preços à habitação e insights do Google WeathernExt também são incorporados.
A coreografia do WPP integrará o PDFM aos dados de desempenho de mídia para aprimorar a inteligência do público orientada a IA. Os laboratórios Airbus, Maxar e Planet serão os testadores iniciais dos modelos de fundação de sensoriamento remoto.
Especificamente:
- Airbus: Planeja usar os modelos de fundação de sensoriamento remoto do Google para permitir que os usuários extraem insights de bilhões de imagens de satélite.
- Maxar: Pretende utilizar os modelos para ajudar os clientes a interagir com seu “globo vivo” e extrair respostas críticas de missão mais rapidamente.
- Planet Labs: Usará os modelos de fundação de sensoriamento remoto para simplificar e acelerar insights para seus clientes.