O Openai revelou dois novos modelos de raciocínio para sua ferramenta de chatgpt no início desta semana, alegando que eles podem “pensar com imagens”. Os modelos O3 e O4-mini podem interpretar e manipular imagens, buscando informações para melhorar a produção.
Os modelos desencadearam uma tendência viral entre usuários especializados, que descobriram que podem geolocar fotos com entradas adicionais limitadas. O Modelo O3em particular, parece proficiente na identificação de locais em imagens, mesmo com obstruções.
Ele pode editar imagens cortando ou ampliando o zoom para extrair informações, respondendo com coordenadas geográficas precisas e o nome do local. Essa habilidade funciona com imagens externas e internas.
Especialistas, incluindo o professor associado da Wharton, Ethan Mollick, têm confirmado Que o modelo não simplesmente extraia informações geotagadas das fotos, mas usa seu próprio raciocínio. No entanto, como qualquer modelo de IA, é propenso a respostas incorretas, especialmente com pistas limitadas.
A capacidade de geolocalização do modelo levantou preocupações sobre o uso indevido em potencial, pois torna o processo sem esforço para qualquer pessoa com acesso. Sem barreiras para evitar o uso não autorizado, determinar a localização de alguém pode se tornar um risco significativo de privacidade.
Alguns exemplos dos recursos do modelo foram compartilhados nas mídias sociais, com os usuários demonstrando sua capacidade de identificar locais. Como X Jason Barnes compartilhado“Bom. Dizer que estava no AZ pode ter sido muito grande.
Embora a geolocação tenha sido uma atividade de nicho entre os especialistas, a atualização mais recente do ChatGPT o torna acessível a um público mais amplo, levantando preocupações sobre o uso responsável.