[2026 ACL] Detecting Hallucinations in Retrieval-Augmented Generation via Semantic-level Internal Reasoning Graph
胡健鹏关于LLM输出归因与幻觉检测的论文《Detecting Hallucinations in Retrieval-Augmented Generation via Semantic-level Internal Reasoning Graph》被 ACL 2026 Findings接收。
基于大型语言模型(LLM)的检索增强生成(RAG)系统已取得显著进展。该系统能有效减少事实性幻觉,但忠实性幻觉问题依然存在。现有检测忠实性幻觉的方法要么忽视模型内部推理过程的捕捉,要么对这些内部推理特征处理过于粗糙,导致判别器难以有效学习。本文基于语义级内推理图提出一种忠实性幻觉检测方法。具体而言,我们首先将逐层相关性传播算法从词元层面扩展至语义层面,基于归因向量构建内部推理图,从而获得更逼近真实模型推理过程的依赖关系表征。此外,我们设计了一个基于小型预训练语言模型的通用框架,通过利用LLM推理过程中的依赖关系进行训练和幻觉检测,该框架能面向不同场景动态调整正确样本通过率的阈值。实验结果表明,在RAGTruth和Dolly-15k数据集上,我们的方法相较现有最先进基线模型展现出更优的整体性能。
王选计算机研究所