A OpenAI está introduzindo uma ferramenta de detecção específica para conteúdo produzido por seu gerador de imagens amplamente utilizado, DALL-E. A startup líder em IA admite, no entanto, que esta ferramenta representa apenas uma fração dos recursos necessários para combater eficazmente a propagação de meios de comunicação sintéticos avançados, vulgarmente conhecidos como deepfakes.
OpenAI está desenvolvendo um “detector deepfake”
Na terça-feira, segundo O jornal New York Times, a OpenAI anunciou planos para distribuir esta nova ferramenta de detecção de deepfake para um grupo seleto de pesquisadores de desinformação. Isto lhes permitirá avaliar a eficácia da ferramenta em cenários do mundo real e identificar áreas potenciais para melhorias.
A OpenAI informou que sua nova ferramenta pode identificar com precisão 98,8% das imagens produzidas por DALL-E 3, a iteração mais recente de seu gerador de imagens. Porém, a ferramenta não está equipada para reconhecer imagens de outros geradores amplamente utilizados, como Midjourney e Stability. Dada a natureza probabilística desta detecção de deepfake tecnologia, alcançar a perfeição é inatingível. Consequentemente, a OpenAI, juntamente com várias outras organizações, incluindo organizações sem fins lucrativos e instituições académicas, está a explorar estratégias adicionais para enfrentar este desafio.
Semelhante a grandes empresas de tecnologia como Google e Meta, a OpenAI se juntou ao comitê diretor da Coalition for Content Provenance and Authenticity (C2PA). Este grupo pretende estabelecer um padrão semelhante a um “rótulo nutricional” para conteúdo digital, que detalharia as origens e modificações de imagens, vídeos, clipes de áudio e outros arquivos, incluindo aqueles alterados pela IA.

A OpenAI também está desenvolvendo técnicas para incorporar “marcas d’água” em áudio gerado por IA para facilitar a identificação imediata. A empresa está focada em garantir que essas marcas d’água sejam resistentes à remoção, melhorando a rastreabilidade do conteúdo sintético.
A indústria está sob crescente escrutínio para gerir os resultados das suas tecnologias de forma responsável. Os especialistas pedem às empresas que evitem a criação de conteúdos enganosos e prejudiciais e que desenvolvam métodos para rastrear as suas origens e distribuição.
Com eleições importantes a decorrer a nível mundial este ano, intensificou-se a procura de ferramentas eficazes para rastrear as origens dos conteúdos gerados pela IA. Recentemente, conteúdos áudio e visuais manipulados já influenciaram eventos políticos e eleições em países como Eslováquia, Taiwan e Índia.
Embora o detector de deepfake recentemente introduzido pela OpenAI ofereça um meio de mitigar esses problemas, não é uma solução completa. Conforme afirmado pela Sra. Agarwal, não há solução definitiva na batalha contra deepfakes; continua a ser um desafio complexo que exige abordagens multifacetadas.
Crédito da imagem em destaque: Jonathan Kemper/Unsplash