你敢相信吗?一篇发表在Springer Nature旗下期刊Digestive Diseases and Sciences上题为《From Surgery to Strength: The Case for Mental Health Integration in Ileostomy Care》的论文,被偶然发现其引用的14条参考文献,12条无法查证!
这是真实发生的事情,撤稿观察网(Retraction Watch)在2026年3月6日报道了这一新闻。事情的起因是一位研究者请求图书管理员帮助查找一篇文章的引文,但图书管理员不仅无法找到这篇引文,随后还发现这篇论文中大部分引文都是不存在的。论文作者称错误提交了草稿,后续提供了第二版参考文献,但仍有大量错误文献。据报道称该作者最后提供了第三版参考文献列表,核查结果显示这份列表包含的25项文献真实存在。
目前期刊官网显示该文章依然是14条引用,其中第5和10条引用可查,其余12条仍无法查证。
AI时代要警惕“幽灵引用”
作者称这篇论文历时五年完成,每个观点都有已发表文献支撑。她承认在撰写过程中使用了包括AI在内的多种工具,而且“清楚这类工具存在产生虚假参考文献的已知风险”。但当第一次14条引文12条不存在,作者称是错误提交了草稿版本,第二次提供的版本依然存在大量不存在的引文,这又该如何解释呢?
其实懂的都懂,一两篇引用不准确可以理解,但是一多半都是不存在的引文怎么可能呢?大家都理解学术论文写作是一个充满时间和精神压力的过程,不仅要大量阅读文献,还要做实验、分析数据,最后才落实到文字上,写完之后需要一遍又一遍校对修改。
随着AI工具的崛起,越来越多的科研工作者也尝试借助AI工具来辅助整理文献或生成初稿。但问题在于大家太过于相信AI的强大和准确性,没有对它提供的材料进行严格的审查,导致出现这样一种情况:AI提供一堆看起来非常合理的引用,包含作者名称、文章题目、期刊名称、出版日期等完整信息,作者不经查验就照搬到论文中。
殊不知,AI有时更像一个狡猾的“裁缝”,东拼西凑提供你想要的答案,至于是否科学、合理、准确、可验证,那就看你是否较真。
这种现象并不难理解,因为大型语言模型在生成文本时,本质上是根据语言模式进行概率预测。当系统试图生成“看起来像真实论文”的参考文献时,它往往会组合作者姓名、期刊名称和研究主题,形成一个结构上合理但实际上不存在的引用。
这种现象在过去两年已经被系统性研究过,2026年的论文《GhostCite: A Large-Scale Analysis of Citation Validity in the Age of Large Language Models》就大规模分析研究调查了大型语言模型生成参考文献的准确性。研究者发现,不同模型生成的引用中,虚假引用比例在14%到94%之间,差异非常大,但无一例外都存在问题。
我们不知道这位作者用了哪种大模型,但完全有这样一种可能:她提交的初稿引用是正确的,但在请AI审阅或提供修改建议时,AI 顺手把她真实的引用替换成了虚假的。
个人看法
引文的准确和真实对于学术论文的重要性不需过多赘述,以前期刊编辑和审稿人都默认引文不需要检查,因为几乎没有投稿者会冒险编造不存在的引文,但是这种长久以来形成的信任机制随着AI工具在学术写作领域的广泛使用可能被慢慢腐蚀破坏。
随着AI时代的到来,科研工作者借助AI工具更高效地完成科研、写作等工作有何不可?但是也应警惕大模型在生成数据时夹带私货。提高个人的科学素养,逻辑判断,信息筛选的能力在AI时代显得尤为重要。
除了警惕“幽灵引用”,在使用AI工具润色论文时还有许多细节需要注意,北京艾迪润色(EditorBar)专门总结了AI润色常见的问题(可参考《AI润色细节错误自查表》一文)。AI在润色的效率和费用方面显示了独特的优势,但使用者需要更加严谨地筛选信息,才能让AI成为“助手”而不是“陷阱”。
(转载请注明本文来自EditorBar中文官网:https://www.editorbar.com)