Os pesquisadores do MIT desenvolveram um novo sistema de conversão de fala em realidade que combina IA generativa em 3D com montagem robótica para fabricar objetos sob demanda. O sistema criou itens como móveis em apenas cinco minutos. Este fluxo de trabalho orientado por IA permite que os usuários forneçam informações faladas a um braço robótico, efetivamente “fazendo com que os objetos existam”. A tecnologia aproveita o processamento de linguagem natural, IA generativa 3D e montagem robótica para agilizar o processo de fabricação. Alexander Htet Kyaw, estudante de pós-graduação do MIT e bolsista da Morningside Academy for Design (MAD), afirmou: “Estamos conectando processamento de linguagem natural, IA generativa 3D e montagem robótica.” Ele acrescentou que essas áreas de pesquisa em rápido avanço não foram combinadas anteriormente para criar objetos físicos a partir de um simples comando de fala. O sistema recebe comandos falados, como “Quero um banquinho simples”, e depois constrói objetos a partir de componentes modulares. Até agora, os pesquisadores usaram o sistema para construir bancos, prateleiras, cadeiras, uma pequena mesa e formas decorativas, incluindo uma estátua de cachorro. O sistema de fala para realidade processa as solicitações do usuário em vários estágios:
- Reconhecimento de fala: Um grande modelo de linguagem processa a entrada falada do usuário.
- IA generativa 3D: O sistema cria uma representação de malha digital do objeto desejado.
- Algoritmo de voxelização: A malha 3D é dividida em componentes de montagem específicos.
- Processamento geométrico: A montagem gerada por IA é modificada para levar em conta as restrições de fabricação do mundo real, como contagem de componentes, saliências e conectividade geométrica.
- Sequência de montagem e planejamento do caminho: O sistema cria uma sequência de montagem viável e um planejamento de caminho automatizado para o braço robótico.
Ao contrário da impressão 3D, que muitas vezes leva horas ou dias, este sistema conclui a construção do objeto em minutos. Também torna o design e a fabricação mais acessíveis a indivíduos sem experiência em modelagem 3D ou programação robótica. Kyaw desenvolveu o sistema inicial enquanto cursava o curso do professor Neil Gershenfeld, “Como fazer quase qualquer coisa”. Ele continuou o projeto no Centro de Bits e Átomos (CBA) do MIT, colaborando com os alunos de pós-graduação Se Hwan Jeon do Departamento de Engenharia Mecânica e Miana Smith do CBA. A equipe planeja melhorar a capacidade de suporte de peso dos móveis implementando conexões mais robustas entre cubos modulares, indo além das conexões magnéticas atuais. Smith observou: “Também desenvolvemos pipelines para converter estruturas de voxel em sequências de montagem viáveis para robôs móveis pequenos e distribuídos, o que poderia ajudar a traduzir este trabalho para estruturas em qualquer escala de tamanho.” A utilização de componentes modulares visa reduzir o desperdício de fabricação, possibilitando a desmontagem e remontagem em novos objetos. Kyaw também está trabalhando para integrar reconhecimento de gestos e realidade aumentada ao sistema, combinando fala e controle gestual para melhorar a interação. A equipe apresentou seu artigo, “Speech to Reality: On-Demand Production using Natural Language, 3D Generative AI, and Discrete Robotic Assembly”, no Simpósio de Fabricação Computacional (SCF ’25) da Association for Computing Machinery (ACM) no MIT em 21 de novembro.





