Pesquisadores com a plataforma de IA de código aberto Abraçando o rosto de abraços descobriram que a pegada de carbono de ferramentas generativas de IA é substancialmente pior do que a estimada anteriormente, principalmente para aqueles que convertem solicitações de texto em vídeo, devido à escala de energia não linear. Em um artigo recém-publicado, os pesquisadores detalhavam como as demandas de energia dos geradores de texto para vídeo aumentam exponencialmente, e não em proporção direta à duração do conteúdo. O estudo estabeleceu que, quando a duração de um vídeo gerado é dobrado, seu consumo de energia associado quadruplica. Para ilustrar esse princípio, o artigo fornece um exemplo específico: a produção de um videoclipe de seis segundos com IA requer quatro vezes mais energia do que gerar um clipe de três segundos. “Esses achados destacam a ineficiência estrutural dos pipelines de difusão de vídeo atuais e a necessidade urgente de design orientado a eficiência”, concluíram os pesquisadores em seu artigo. Esta pesquisa surge em meio a avisos de especialistas em que as tecnologias generativas de IA estão sendo implantadas sem uma compreensão completa de suas conseqüências ambientais. Uma análise recente da MIT Technology Review apóia essa preocupação, afirmando que “o entendimento comum do consumo de energia da IA está cheio de buracos”. A lacuna no entendimento é significativa ao comparar diferentes tipos de ferramentas generativas. Ao criar uma única imagem de 1.024 por 1.024 pixels com um gerador de IA consome energia equivalente ao aquecimento de algo em um microondas por cinco segundos, os requisitos para o vídeo são ordens de magnitude maiores. O estudo do Hugging Face descobriu que a produção de apenas um videoclipe de cinco segundos exige uma quantidade de energia comparável à execução de um microondas padrão por mais de uma hora. Essa disparidade ressalta a natureza intensiva da geração de vídeo. A escala não linear significa que, à medida que os videoclipes se tornam mais longos, o consumo de energia aumenta a uma taxa ainda mais rápida. De acordo com o artigo, essa trajetória implica “crescendo rapidamente os custos de hardware e ambiental” para usuários e desenvolvedores dessas tecnologias. Existem métodos potenciais para mitigar essas altas demandas de energia. Os pesquisadores sugerem várias estratégias, incluindo a implementação de sistemas de cache inteligentes e a prática de reutilizar o conteúdo gerado pela IA existente para evitar processamento redundante. Outra técnica proposta é “poda”, que envolve identificar e remover metodicamente exemplos ineficientes dos grandes conjuntos de dados usados para treinar modelos de IA. Esse processo pode ajudar a simplificar os modelos e reduzir sua pegada de energia operacional durante as tarefas de geração. No entanto, permanece incerto se essas medidas de eficiência serão suficientes para causar um impacto significativo no consumo geral de eletricidade dos sistemas atuais de IA. A escala da questão já é substancial. De acordo com dados de um estudo recente, as atividades relacionadas à IA agora representam 20 % da demanda total de energia de todos os datacenters globais. Em resposta à crescente demanda de IA, as principais empresas de tecnologia estão investindo dezenas de bilhões de dólares em novos construções de infraestrutura, um processo que levou alguns a abandonar os objetivos climáticos declarados anteriormente.
Relatório de impacto ambiental de 2024 do Google Revelado que a empresa está significativamente por trás de seu plano de atingir as emissões de carbono líquido de zero até 2030. O relatório divulgou um aumento de 13 % nas emissões de carbono ano a ano, o que atribuiu em grande parte à sua expansão de serviços generativos de IA. No início deste ano, o Google lançou seu gerador de vídeo VEO 3 AI. Mais tarde, a empresa anunciou que os usuários haviam criado mais de 40 milhões de vídeos com a ferramenta nas primeiras sete semanas de disponibilidade. O número ambiental específico do VEO 3 não foi divulgado.