图式思维链:通过图推理增强大型语言模型
Bowen Jin、Chulin Xie、Jiawei Zhang、Kashob Kumar Roy、Yu Zhang、Zheng Li、Ruirui Li、Xianfeng Tang、Suhang Wang、Yu Meng、Jiawei Han arXiv:2404.07103 [ cs.CL, cs.IR, cs.LG ] github:PeterGriffinJin/Graph-CoT
作者:摘要
大型语言模型(LLMs)虽然表现出色,但在知识密集型任务上存在幻觉问题。现有工作提出通过从外部知识语料库中检索单个文本单元来增强LLMs,以缓解此问题。然而,在许多领域中,文本是相互关联的(例如,书目图中的学术论文通过引用和合著关系链接),从而形成一个(带有文本属性的)图。此类图中的知识不仅编码在单个文本/节点中,还编码在它们的相关连接中。为了促进LLMs与图增强的研究,我们手动构建了一个名为GRBench的图推理基准数据集,其中包含1,740个问题,这些问题可以通过来自10个领域图的知识进行回答。然后,我们提出了一种简单有效的框架,称为图式思维链(Graph Chain-of-thought,Graph-CoT),通过鼓励LLMs在图上迭代推理来增强LLMs。每个Graph-CoT迭代包括三个子步骤:LLM推理、LLM-图交互和图执行。我们使用三个LLM骨干模型在GRBench上进行了系统实验,Graph-CoT始终优于基线模型。代码可在 https://github.com/PeterGriffinJin/Graph-CoT 获取。