O professor de Stanford, Jeff Hancock, enfrenta acusações de citar um estudo inexistente em seu depoimento relacionado à proposta de legislação deepfake de Minnesota. Este incidente foi revelado pelos advogados do demandante em um caso contra o conservador YouTuber Christopher Kohls. O contexto envolve um debate político sobre a liberdade de expressão e a legalidade dos deepfakes durante as eleições.
O testemunho de Hancock foi usado pelo procurador-geral de Minnesota, Keith Ellison, para defender a lei proposta, sugerindo que deepfakes ameaçam a integridade política.
As alegações afirmam que a declaração de Hancock incluía uma referência a um estudo falso intitulado “A influência de vídeos deepfake nas atitudes e comportamentos políticos”, que a equipe jurídica do demandante afirma não existir no jornal em que foi supostamente publicado. Eles argumentam que esta citação é uma provável criação de um modelo de linguagem de IA, potencialmente minando a credibilidade de toda a sua declaração.
Os advogados do demandante observaram que a citação não aparece em nenhuma base de dados acadêmica, o que levanta questões significativas quanto à sua autenticidade. Eles concluído:
“A declaração do Prof. Hancock deve ser excluída na sua totalidade porque pelo menos parte dela é baseada em material fabricado provavelmente gerado por um modelo de IA”.
O papel da IA neste drama judicial
As implicações destas alegações vão além deste caso. Eles desafiam a fiabilidade do conteúdo gerado pela IA em contextos jurídicos, uma preocupação que ecoa acontecimentos recentes em que advogados enfrentaram sanções por utilizarem citações fabricadas em documentos jurídicos. O processo judicial sublinha que a veracidade do depoimento de especialistas pode ser severamente afetada pelo potencial da IA para produzir imprecisões, muitas vezes referidas como “alucinações.”
Hancock tem uma experiência bem documentada em estudos de desinformação, tendo contribuído com pesquisas significativas na área e produzido discursos públicos populares sobre o assunto. No entanto, ele ainda não comentou publicamente as alegações contra o seu testemunho.
O deepfake viral de Kamala Harris e suas implicações
As investigações sobre a validade das declarações utilizadas neste processo judicial estão em andamento, o que levanta preocupações para futuras aplicações de depoimentos de especialistas influenciados por dados gerados por IA.
A legislação deepfake de Minnesota, sob escrutínio, visa impor restrições legais à distribuição e criação de deepfakes em períodos eleitorais. Os opositores do projecto de lei argumentam que o quadro jurídico pode infringir os direitos constitucionais de liberdade de expressão, invocando preocupações sobre a censura e as implicações para a expressão digital. À medida que este caso se desenrola, espera-se uma análise mais aprofundada relativamente à intersecção entre tecnologia, padrões legais e direitos de liberdade de expressão.
Resta saber como o tribunal responderá às alegações em torno do testemunho de Hancock e se isso abrirá um precedente sobre como o conteúdo gerado por IA será tratado em processos judiciais. A comunidade jurídica está a acompanhar de perto este caso relativamente às suas implicações na futura legislação relacionada com conteúdos digitais e desinformação em contextos políticos.
Crédito da imagem em destaque: rorozoa/Freepik