引言:开放知识与可信AI的融合

Wikimedia Indonesia于2024年推出Wikidata Research Fund,以推动知识图谱如Wikidata在人工智能及科研领域中的创新应用。由印尼大学与维也纳经济大学合作的FrOG团队,围绕“AI幻觉”这一难题,提出了将大型语言模型(LLM)与结构性知识图谱(KG)深度结合的技术路线,并研发出FrOG开源RAG问答系统。

https://github.com/Framework-of-Open-GraphRAG/FROG

项目团队

课题组长: Fariz Darari(印尼大学)
成员

  • Jaycent Gunawan Ongris(印尼大学)
  • Eduardus Tjitrahardja(印尼大学)
  • Fajar Juang Ekaputra(维也纳WU)

一、研究背景

近年来,大型语言模型(LLM, 如ChatGPT、Gemini、Copilot等)在信息检索与自然语言理解领域取得了重大突破,实现了问答、摘要等多项复杂任务。然而,LLM 仍然存在三大核心挑战:

  1. 知识更新难度大

    ——模型知识难以动态追踪现实世界变化。

  2. 推理过程不透明

    ——“黑盒”操作难以解释答案来源。

  3. 幻觉问题

    ——有时输出存在不准确或虚假内容。LLM如ChatGPT、Gemini善于生成流畅自然的语言,但在面对事实性问题时,常出现自信但错误的回答,即“幻觉”。这在教育、法律、科研等领域尤为严重。

为应对上述问题,Retrieval-Augmented Generation(RAG)成为主流办法,通过外部知识检索辅助LLM生成答案,减少对参数记忆的依赖。然而,RAG主流方法一般采用Dense Retriever(如DPR),其向量表达方式使检索过程缺乏可解释性,并易导致上下文片段化,影响复杂查询的整体理解。

知识图谱(Knowledge Graph, KG)则通过实体及其属性与关系将真实世界结构化,能为LLM输出提供精准可查证的支撑,成为Retrieval-Augmented Generation(RAG)技术的理想基础。


二、核心创新

1. 引入知识图谱(KG)驱动RAG

本研究提出以知识图谱(KG)为信息基础,开发了名为FrOG(Framework of Open GraphRAG)的开源RAG系统,通过KG节点关系透明组织事实信息,使推理、溯源更加易于追溯。

KG优点示意

  • 以实体为节点、关系为边,高度结构化,便于显性追踪和多跳推理。
  • 支持SPARQL等结构化查询语言,易于控制、集成。
  • 支持大规模、开放协作(如Wikidata)。

2. 主要研究问题

研究针对以下问题展开:

  • 如何高效用开源组件实现GraphRAG架构?
  • 哪种大模型最适合该框架?
  • GraphRAG架构中哪些组件对答案准确率提升作用最大?

3. 研究范围

  • 核心聚焦于事实型问答(factoid QA)。
  • 所有系统(含LLM)与依赖均选用开源组件,确保透明复现。
  • 评估数据涵盖开放KG(Wikidata、DBpedia)与本地KG(Curriculum KG)。
  • LLM实验限定在Qwen2.5 7B、Mistral 7B/NeMo 12B、LLaMA 3.1 8B等主流开源模型。
  • 不进行高消耗的模型微调(fine-tune),而利用上下文学习(in-context learning)。
  • 评价采用SPARQL查询结果Jaccard相似度(见后文表格与评估图)。
  • 多语言能力在Pipeline v2上初步验证,重点为印尼语。

三、技术方案和系统架构

1. 相关背景

  • KG技术快速回顾

    借助RDF三元组(主语-谓语-宾语)、SPARQL、Semantic Web理念构建结构化实体网络。

  • LLM分类

    Encoder-only(如BERT)、Decoder-only(如GPT)、Encoder-Decoder(如T5)等。

  • RAG机制

    结合LLM内部知识与外部知识库,辅助问答准确性。传统RAG用文本语料+DPR检索,GraphRAG用KG,实现复杂语义关系可视推理。


2. Pipeline系统详细设计

Pipeline v1: 初始原型
  • 通过prompt工程指导基础LLM把自然语言问题转为SPARQL查询,实现对Wikidata的自动检索与应答。
  • 局限:复杂句式、跨语言支持较弱,迁移到其它KG难度较大。
Pipeline v2: 多语言·多知识库能力升级
  • 引入多语言LLM(如Qwen2.5 7B)、多轮prompt链,综合矢量(向量)本体检索工具,理解不同KG结构和术语,大幅提升复杂任务対応与多领域应用能力。
  • 支持自建学科课程知识图谱(Curriculum KG)等场景,落地性强。

(1)Pipeline v1:全LLM-驱动初步问答流程

  • 步骤一:实体抽取

    ——LLM定位用户提问中的核心实体。

  • 步骤二:实体ID检索

    ——依据关键词对Wikidata API进行检索,返回Top5候选。

  • 步骤三:实体消歧与选择

    ——基于问题和实体描述让LLM判定最相关实体。

  • 步骤四:SPARQL生成

    ——用LLM生成SPARQL查询,辅助参考Wikidata常用属性Top100表。

  • 步骤五:查询执行与自然语言生成

    ——SPARQL拉取数据,最后由LLM生成可读答案。

Pipeline v1系统架构图(Gambar 1)


(2)Pipeline v2:多语言/多KG升级流程

在v2架构中,系统不仅支持多语言,还引入矢量数据库辅助属性、类别检索,解决大规模资源prompt膨胀问题,并提升“单跳问答”场景的准确性。

  • 问题翻译管理

    非英文自动转英文,保证与KG的兼容性。

  • 实体链接

    综合实体抽取、KG检索和消歧。用few-shot prompting辅助多轮判别。

  • 检索流程

  • 单跳问题

    先用KG实体邻居Verbalisaton检索(如“{实体}的{属性}是{值}”),如未达标再转为LLM驱动SPARQL生成。

  • 复杂/多跳问题

    切分问题,先用语义检索筛选合适属性和类别,再用few-shot+CoT方式生成SPARQL。

  • 答案自然化

    取回结果ID/URI后补充为可理解标签,用LLM生成符合用户原语言的流畅答案。

Pipeline v2系统架构图(Gambar 2)


3. 支持的知识库(KGs)

  • Wikidata

    :结构RDF,SPARQL接口,实体与属性支持批量矢量检索。

  • DBpedia

    :Wikipedia结构化衍生KG,主要用其T-Box本体。

  • Curriculum KG

    (本地企业KG示例):信息来源于印尼大学课程规划材料,涵盖课程/先修/能力等多个实体,通过半自动脚本从教材生成三元组数据。


4. 数据集与问答生成

  • QALD-9-Plus

    :多语言KG-QA基准(10种语言),用于Wikidata、DBpedia评测,含训练/测试两部分。

  • KG自生成问答数据

    :通过实体采样、KG随机游走、资源标签补充、SPARQL模版和LLM自动改写自然语言,半自动产生面向本地KG的数据集。

[表格引用:问答模板类型表(Tabel 1)]

类别 三元组模式
Simple 1 { s p ?o }
Simple 2 { ?s p o }
Complex 1 { ?s p1 o1 . ?s p2 o2 }
Complex 2 { ?s p1 ?o1 . ?o1 p2 o2}

5. 评价方法

  • 主指标:Jaccard相似度

    ——考察Pipeline生成SPARQL和“标准答案”结果的集合重叠程度,不受返回条目顺序影响。

  • 执行SPARQL后对元组排序统一化处理,确保公平比对。

Jaccard相似度评测流程图(Gambar 3)


四、关键实验与结果分析

1. 不同Pipeline与模型对比

  • 实验比较了两版Pipeline结合三种主流模型的表现:
  • Pipeline v1+Mistral 7B(API):0.473
  • Pipeline v1+Mistral 7B(本地):0.554
  • Pipeline v1+Mistral NeMo 12B(本地):0.581
  • Pipeline v2+Mistral NeMo 12B(本地):0.677

相关表格引用:Pipeline v1/v2性能对比表(Tabel 2)

Pipeline v2明显优于v1,证明了升级后的检索和属性识别机制对准确率提升意义重大。


2. 多KG/多模型综合评估

  • Wikidata/DBpedia/本地KG(Curriculum KG)上四大模型评测:
  • Wikidata: 0.458

  • DBpedia: 0.517

  • Curriculum KG: 0.805(与Mistral NeMo 12B持平)

  • Qwen2.5 7B 在所有数据集表现最好,如:

各模型各KG表现(Tabel 3)

  • 多语言初测(印尼语):存在准确率下降(0.362),归因于机器翻译导致的语义偏移,但系统多语言能力得到基本验证。
  • Qwen2.5 7B表现优异,得益于预训练语料规模达18万亿token,对语言和事实理解更深,而Qwen2.5 Coder 7B(面向代码任务)表现偏低。

3. Ablation Study(组件贡献消融分析)

  • Ontology Retrieval

    (本体属性检索):影响最大,删除后准确率大幅滑坡。Curriculum KG从0.805→0.183,若再去verbalisaiton降为0。

  • Few-Shot Examples

    (小样本示例):删除后Wikidata/DBpedia/Curriculum KG分别下降显著,需保留以辅助LLM跨领域迁移。

  • Verbalization

    (属性三元组口语化):复杂KG(Wikidata)上提升大,简洁KG(Curriculum KG)反而影响负向(甚至去除提升到0.949)。

  • Chain-of-Thought(CoT)

    :复杂KG效果好,在单纯KG场景益处有限,甚至略降。

如何学习大模型 AI ?

我国在AI大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着Al技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国Al产业的创新步伐。加强人才培养,优化教育体系,国际合作并进,是破解困局、推动AI发展的关键。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

2025最新大模型学习路线

明确的学习路线至关重要。它能指引新人起点、规划学习顺序、明确核心知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。

对于从来没有接触过AI大模型的同学,我帮大家准备了从零基础到精通学习成长路线图以及学习规划。可以说是最科学最系统的学习路线。

在这里插入图片描述

针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。

大模型经典PDF书籍

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路!

在这里插入图片描述

配套大模型项目实战

所有视频教程所涉及的实战项目和项目源码等
在这里插入图片描述

博主介绍+AI项目案例集锦

MoPaaS专注于Al技术能力建设与应用场景开发,与智学优课联合孵化,培养适合未来发展需求的技术性人才和应用型领袖。

在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

为什么要学习大模型?

2025人工智能大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

在这里插入图片描述

适合人群

  • 在校学生:包括专科、本科、硕士和博士研究生。学生应具备扎实的编程基础和一定的数学基础,有志于深入AGI大模型行业,希望开展相关的研究和开发工作。
  • IT行业从业人员:包括在职或失业者,涵盖开发、测试、运维、产品经理等职务。拥有一定的IT从业经验,至少1年以上的编程工作经验,对大模型技术感兴趣或有业务需求,希望通过课程提升自身在IT领域的竞争力。
  • IT管理及技术研究领域人员:包括技术经理、技术负责人、CTO、架构师、研究员等角色。这些人员需要跟随技术发展趋势,主导技术创新,推动大模型技术在企业业务中的应用与改造。
  • 传统AI从业人员:包括算法工程师、机器视觉工程师、深度学习工程师等。这些AI技术人才原先从事机器视觉、自然语言处理、推荐系统等领域工作,现需要快速补充大模型技术能力,获得大模型训练微调的实操技能,以适应新的技术发展趋势。
    在这里插入图片描述

课程精彩瞬间

大模型核心原理与Prompt:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为Al应用开发打下坚实基础。

在这里插入图片描述

RAG应用开发工程:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。 在这里插入图片描述

Agent应用架构进阶实践:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
在这里插入图片描述

模型微调与私有化大模型:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。 在这里插入图片描述

顶尖师资,深耕AI大模型前沿技术

实战专家亲授,让你少走弯路
在这里插入图片描述

一对一学习规划,职业生涯指导

  • 真实商业项目实训
  • 大厂绿色直通车

人才库优秀学员参与真实商业项目实训

以商业交付标准作为学习标准,具备真实大模型项目实践操作经验可写入简历,支持项目背调

在这里插入图片描述
大厂绿色直通车,冲击行业高薪岗位
在这里插入图片描述

文中涉及到的完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐