As instituições acadêmicas registraram uma proliferação de citações geradas por IA de artigos inexistentes em publicações acadêmicas, minando a legitimidade da pesquisa, de acordo com Andrew Heiss, professor assistente da Escola Andrew Young de Estudos Políticos da Universidade Estadual da Geórgia. Heiss descobriu que grandes modelos de linguagem (LLMs) estão gerando citações fabricadas, que posteriormente aparecem em estudos profissionais. Ao rastrear fontes falsas no Google Scholar, Heiss observou dezenas de artigos publicados citando variações desses estudos e periódicos inexistentes. Ao contrário dos artigos gerados pela IA, que muitas vezes são retratados rapidamente, essas edições alucinadas de periódicos estão sendo citadas em outras publicações. papéislegitimando efetivamente informações errôneas. Esse processo leva estudantes e acadêmicos a aceitarem essas “fontes” como confiáveis sem verificar sua autenticidade, reforçando a ilusão de credibilidade por meio de citações repetidas. Bibliotecários de pesquisa relatam gastar até 15% de suas horas de trabalho respondendo a solicitações de registros inexistentes geradas por LLMs como ChatGPT ou Google Gemini. Heiss observado que as citações geradas pela IA muitas vezes parecem convincentes, apresentando nomes de acadêmicos vivos e títulos que lembram a literatura existente. Em alguns casos, as citações vinculavam-se a autores reais, mas incluíam títulos de artigos e títulos de periódicos fabricados que imitavam trabalhos anteriores dos autores ou periódicos reais. Acadêmicos, incluindo a psicóloga Iris van Rooij, alertaram que o surgimento de “resíduos” de IA nos recursos acadêmicos ameaça o que ela chamou de “destruição do conhecimento”. Em Julho, van Rooij e outros assinaram um acordo carta aberta defendendo que as universidades protejam o ensino superior, o pensamento crítico, a especialização, a liberdade académica e a integridade científica, apelando a uma análise rigorosa do papel da IA na educação. O engenheiro de software Anthony Moser previu em 2023 que os chatbots poderiam levar os instrutores a criar programas de estudos com leituras inexistentes e os alunos a confiar na IA para resumir ou escrever redações, um cenário que ele agora afirma ter se materializado. Moser argumenta que descrever os resultados do LLM como “alucinações” deturpa sua função, afirmando que os modelos preditivos são “sempre alucinantes” e são “estruturalmente indiferentes à verdade”. Ele disse que os LLMs poluem o ecossistema de informação a montante, com citações inexistentes infiltrando-se na pesquisa e circulando em artigos subsequentes, comparando-os a produtos químicos de longa duração que são difíceis de rastrear ou filtrar. Moser atribui o problema a “escolhas deliberadas”, alegando que as objeções foram “ignoradas ou rejeitadas”. Ele reconhece que “pesquisas ruins não são novas”, mas afirma que os LLMs ampliaram a pressão preexistente para publicar e produzir, o que levou a artigos com dados questionáveis. Craig Callender, professor de filosofia na Universidade da Califórnia em San Diego e presidente da Associação de Filosofia da Ciência, concorda, observando que “a aparência de legitimidade a revistas inexistentes é como o produto final lógico das tendências existentes”. Callender observa a existência de periódicos que aceitam artigos espúrios com fins lucrativos ou pesquisas tendenciosas, criando um “pântano” crescente na publicação científica. Ele sugere que a IA agrava este problema, com pesquisas no Google assistidas por IA potencialmente reforçando a suposta existência destes periódicos fabricados e propagando a desinformação. Os investigadores relatam um desânimo generalizado à medida que o conteúdo falso se torna consagrado em bases de dados de investigação públicas, tornando difícil rastrear as origens das alegações.





