Graphiti是一个用于构建和查询时间感知知识图谱的开源框架,专为AI智能体设计。与传统RAG不同,它能持续集成用户互动和企业数据到可查询图谱中,支持实时增量更新和精确历史查询。文章详细介绍了Graphiti的特点、与Zep和GraphRAG的区别、安装配置方法,以及与OpenAI、Gemini等多种LLM的集成方式,为开发者提供了构建动态、上下文感知AI应用的完整解决方案。


💡查看Graphiti 的新 MCP 服务器[1]Claude、Cursor 和其他 MCP 客户端提供强大的基于知识图谱的记忆功能。


什么是 Graphiti?

Graphiti 是一个框架,用于构建和查询具有时间感知的知识图谱,特别适用于在动态环境中操作的 AI 智能体。与传统的检索增强生成(RAG)方法不同,Graphiti 能够持续地将用户互动、结构化与非结构化的企业数据以及外部信息集成到一个连贯的、可查询的图谱中。该框架支持增量数据更新、高效检索,并且可以精确地进行历史查询,而无需重新计算整个图谱,因此非常适合开发交互式、具有上下文感知的 AI 应用程序。

使用 Graphiti 可以:

•集成并维护动态的用户互动和业务数据。•促进基于状态的推理和任务自动化。•使用语义、关键词和基于图谱的搜索方法查询复杂的、不断发展的数据。

知识图谱是由一系列相互连接的事实组成的网络,例如 “Kendra 喜欢 Adidas 鞋子”。每个事实是一个由两个实体(或节点)和它们之间的关系(或边)组成的“三元组”(例如,“Kendra”,“Adidas 鞋子”和“喜欢”)。知识图谱在信息检索中被广泛应用。Graphiti 的独特之处在于,它能够自主构建知识图谱,同时处理关系的变化并维护历史上下文。

Graphiti 与 Zep 的上下文工程平台

Graphiti 为 Zep 的核心提供支持,Zep 是一个为 AI 智能体提供开箱即用的上下文工程平台。Zep 提供智能体记忆、图谱 RAG(用于动态数据)以及上下文检索和组装功能。

我们很高兴开源 Graphiti,认为它的潜力远远超出了 AI 记忆应用的范畴。

Zep vs Graphiti

方面 Zep Graphiti
它们是什么 完全托管的平台,用于上下文工程和 AI 记忆 开源图谱框架
用户与会话管理 内置用户、线程和消息存储 自定义实现
检索与性能 预配置的、生产就绪的检索,性能可达到200ms以下,适合大规模使用 需要自定义实现;性能取决于您的设置
开发者工具 提供图谱可视化的仪表盘、调试日志、API日志;提供 Python、TypeScript 和 Go 的 SDK 需要自定义工具
企业功能 服务级别协议(SLA)、支持、安全保障 自行管理
部署方式 完全托管或在您的云中部署 仅支持自托管

选择哪个?

选择 Zep:如果您需要一个开箱即用的企业级平台,具备安全性、性能和支持。•选择 Graphiti:如果您需要一个灵活的开源核心,并且愿意构建/运营周围的系统。


为什么选择 Graphiti?

传统的 RAG 方法通常依赖于批量处理和静态数据汇总,这使得它们在处理频繁变化的数据时效率较低。Graphiti 通过以下方式解决了这些问题:

实时增量更新:即时集成新的数据事件,而无需批量重新计算。•双时间数据模型:明确跟踪事件发生和数据摄取的时间,允许精确的时间点查询。•高效的混合检索:结合语义嵌入、关键词(BM25)和图遍历,实现低延迟查询,无需依赖大语言模型(LLM)摘要。•自定义实体定义:通过简单的 Pydantic 模型,支持灵活的本体创建和开发者定义实体。•可扩展性:高效地管理大型数据集,支持并行处理,适合企业级环境。

Graphiti vs. GraphRAG

方面 GraphRAG Graphiti
主要用途 静态文档总结 动态数据管理
数据处理 批量处理 持续增量更新
知识结构 实体簇和社区总结 事件数据、语义实体、社区
检索方法 顺序的大语言模型(LLM)摘要 混合语义、关键词和基于图谱的搜索方法
适应性
时间处理 基本的时间戳追踪 明确的双时间追踪
矛盾处理 基于 LLM 的摘要判断 时间边缘失效
查询延迟 几秒到几十秒 通常为亚秒级延迟
自定义实体类型 是,可自定义
可扩展性 中等 高,针对大数据集进行了优化

Graphiti 与 GraphRAG 的区别

Graphiti 专门设计用来解决动态和频繁更新的数据集问题,特别适用于需要实时交互和精确历史查询的应用。


安装

要求:

•Python 3.10 或更高版本•Neo4j 5.26 / FalkorDB 1.1.2 / Kuzu 0.11.2 / Amazon Neptune 数据库集群或 Neptune Analytics 图 + Amazon OpenSearch Serverless 集合(作为全文搜索后台)•OpenAI API 密钥(Graphiti 默认使用 OpenAI 进行 LLM 推理和嵌入)

重要说明:

Graphiti 最适合与支持结构化输出的 LLM 服务一起使用(例如 OpenAI 和 Gemini)。如果使用其他服务,可能会导致输出模式不正确或数据摄取失败。尤其是在使用较小的模型时,这个问题会更明显。

可选项:

•Google Gemini、Anthropic 或 Groq API 密钥(用于替代的 LLM 提供商)

提示:

安装 Neo4j 最简单的方式是通过 Neo4j Desktop。它提供了一个用户友好的界面来管理 Neo4j 实例和数据库。或者,您可以通过 Docker 本地使用 FalkorDB,并使用快速入门示例进行快速启动:

docker run -p 6379:6379-p 3000:3000-it --rm falkordb/falkordb:latest
pip install graphiti-core

或使用以下命令:

uv add graphiti-core

安装 FalkorDB 支持

如果您计划使用 FalkorDB 作为图谱数据库后台,请使用 FalkorDB 扩展进行安装:

pip install graphiti-core[falkordb]
或使用 uv 安装:
uv add graphiti-core[falkordb]

安装 Kuzu 支持

如果您计划使用 Kuzu 作为图谱数据库后台,请使用 Kuzu 扩展进行安装:

pip install graphiti-core[kuzu]
或使用 uv 安装:
uv add graphiti-core[kuzu]

安装 Amazon Neptune 支持

如果您计划使用 Amazon Neptune 作为图谱数据库后台,请使用 Amazon Neptune 扩展进行安装:

pip install graphiti-core[neptune]
或使用 uv 安装:
uv add graphiti-core[neptune]

安装可选的 LLM 提供商

您还可以选择安装可选的 LLM 提供商作为扩展:

安装Anthropic支持:
pip install graphiti-core[anthropic]
安装Groq支持:
pip install graphiti-core[groq]
安装GoogleGemini支持:
pip install graphiti-core[google-genai]
安装多个 LLM 提供商:
pip install graphiti-core[anthropic,groq,google-genai]
安装FalkorDB和 LLM 提供商:
pip install graphiti-core[falkordb,anthropic,google-genai]
安装AmazonNeptune支持:
pip install graphiti-core[neptune]

默认低并发设置;LLM 提供商 429 限速错误

Graphiti 的数据摄取管道是为高并发设计的。默认情况下,并发量设置为较低,以避免 LLM 提供商出现 429 限速错误。如果您发现 Graphiti 性能较慢,可以按照下面的说明增加并发量。

并发量由 SEMAPHORE_LIMIT 环境变量控制。默认情况下,SEMAPHORE_LIMIT 设置为 10 并发操作,以帮助防止 LLM 提供商返回 429 限速错误。如果您遇到此类错误,可以尝试降低该值。

如果您的 LLM 提供商允许更高的吞吐量,您可以增加 SEMAPHORE_LIMIT 来提升数据摄取性能。


快速开始

重要说明

Graphiti 默认使用 OpenAI 进行 LLM 推理和嵌入。确保在您的环境中设置了 OPENAI_API_KEY。也可以支持 Anthropic 和 Groq 的 LLM 推理。其他 LLM 提供商可能通过 OpenAI 兼容的 API 进行支持。

完整工作示例

有关完整的工作示例,请参阅 examples 目录中的快速入门示例。该示例演示了以下内容:

•连接到 Neo4j、Amazon Neptune、FalkorDB 或 Kuzu 数据库•初始化 Graphiti 索引和约束•向图谱中添加数据事件(包括文本和结构化 JSON)•使用混合搜索方法搜索关系(边)•使用图距离对搜索结果进行重新排序•使用预定义的搜索配方搜索节点

该示例有完整的文档,清晰地解释了每个功能,并包含了详细的 README 文件,提供了设置说明和后续步骤。


使用 Docker Compose 运行

您可以使用 Docker Compose 快速启动所需的服务:

•Neo4j Docker:

docker compose up

此命令将启动 Neo4j Docker 服务及相关组件。

•FalkorDB Docker:

docker compose --profile falkordb up

此命令将启动 FalkorDB Docker 服务及相关组件。

MCP 服务器

mcp_server 目录包含了 Graphiti 的 模型上下文协议(MCP)服务器实现。该服务器允许 AI 助手通过 MCP 协议与 Graphiti 的知识图谱功能进行交互。

MCP 服务器的主要功能:

•数据事件管理(添加、检索、删除)•实体管理和关系处理•语义和混合搜索功能•数据分组管理,用于组织相关数据•图谱维护操作

MCP 服务器可以使用 Docker 部署并与 Neo4j 集成,使 Graphiti 容易集成到您的 AI 助手工作流中。

有关详细的设置说明和使用示例,请参阅MCP 服务器的 README 文件[2]

REST 服务

server 目录包含了与 Graphiti API 交互的 API 服务,使用 FastAPI 构建。

更多信息请参考server[3]中的 README 文件。


可选环境变量

除了 Neo4j 和 OpenAi 兼容的凭证外,Graphiti 还提供了几个可选的环境变量。如果您使用的是我们的支持模型之一(例如 Anthropic 或 Voyage 模型),则必须设置相关的环境变量。

数据库配置

数据库名称在驱动程序构造器中直接配置:

Neo4j:数据库名称默认为 neo4j(在 Neo4jDriver 中硬编码)•FalkorDB:数据库名称默认为 default_db(在 FalkorDriver 中硬编码)

从 v0.17.0 版本开始,如果您需要自定义数据库配置,可以实例化一个数据库驱动程序,并通过 graph_driver 参数将其传递给 Graphiti 构造函数。

Neo4j 自定义数据库名称
from graphiti_core importGraphiti
from graphiti_core.driver.neo4j_driver importNeo4jDriver
# 创建一个带有自定义数据库名称的 Neo4j 驱动
driver =Neo4jDriver(
uri="bolt://localhost:7687",
user="neo4j",
password="password",
database="my_custom_database"# 自定义数据库名称
)
# 将驱动传递给 Graphiti
graphiti =Graphiti(graph_driver=driver)
FalkorDB 自定义数据库名称
from graphiti_core importGraphiti
from graphiti_core.driver.falkordb_driver importFalkorDriver
# 创建一个带有自定义数据库名称的 FalkorDB 驱动
driver =FalkorDriver(
host="localhost",
port=6379,
username="falkor_user",# 可选
password="falkor_password",# 可选
database="my_custom_graph"# 自定义数据库名称
)
# 将驱动传递给 Graphiti
graphiti =Graphiti(graph_driver=driver)
Kuzu 驱动
from graphiti_core importGraphiti
from graphiti_core.driver.kuzu_driver importKuzuDriver
# 创建一个 Kuzu 驱动
driver =KuzuDriver(db="/tmp/graphiti.kuzu")
# 将驱动传递给 Graphiti
graphiti =Graphiti(graph_driver=driver)
Amazon Neptune 驱动
from graphiti_core importGraphiti
from graphiti_core.driver.neptune_driver importNeptuneDriver
# 创建一个 Amazon Neptune 驱动
driver =NeptuneDriver(
host="<NEPTUNE_ENDPOINT>",
aoss_host="<Amazon_OpenSearch_Serverless_Host>",
port="<PORT>",# 可选,默认为 8182
aoss_port="<PORT>"# 可选,默认为 443
)
# 将驱动传递给 Graphiti
graphiti =Graphiti(graph_driver=driver)

使用 Graphiti 与 Azure OpenAI

Graphiti 支持 Azure OpenAI,用于 LLM 推理和嵌入,兼容 Azure 的 OpenAI v1 API。

快速开始

from openai importAsyncOpenAI
from graphiti_core importGraphiti
from graphiti_core.llm_client.azure_openai_client importAzureOpenAILLMClient
from graphiti_core.llm_client.config importLLMConfig
from graphiti_core.embedder.azure_openai importAzureOpenAIEmbedderClient
# 使用标准的 OpenAI 客户端初始化 Azure OpenAI 客户端
# 并使用 Azure 的 v1 API 端点
azure_client =AsyncOpenAI(
base_url="https://your-resource-name.openai.azure.com/openai/v1/",
api_key="your-api-key",
)
# 创建 LLM 和 Embedder 客户端
llm_client =AzureOpenAILLMClient(
azure_client=azure_client,
config=LLMConfig(model="gpt-5-mini", small_model="gpt-5-mini")# 你的 Azure 部署名称
)
embedder_client =AzureOpenAIEmbedderClient(
azure_client=azure_client,
model="text-embedding-3-small"# 你的 Azure 嵌入部署名称
)
# 使用 Azure OpenAI 客户端初始化 Graphiti
graphiti =Graphiti(
"bolt://localhost:7687",
"neo4j",
"password",
llm_client=llm_client,
embedder=embedder_client,
)
# 现在您可以使用 Graphiti 与 Azure OpenAI 进行交互

重点说明:

•用标准的 AsyncOpenAI 客户端,并使用 Azure 的 v1 API 端点格式:https://your-resource-name.openai.azure.com/openai/v1/•部署名称(例如:gpt-5-minitext-embedding-3-small)应与您的 Azure OpenAI 部署名称一致。•请参阅 examples/azure-openai/ 获取完整的工作示例。•将占位符值替换为实际的 Azure OpenAI 凭证和部署名称。


使用 Graphiti 与 Google Gemini

Graphiti 支持 Google 的 Gemini 模型进行 LLM 推理、嵌入和跨编码/重新排序。要使用 Gemini,您需要配置 LLM 客户端、嵌入器和跨编码器,并提供您的 Google API 密钥。

安装 Graphiti:

uv add "graphiti-core[google-genai]"
或
pip install "graphiti-core[google-genai]"
from graphiti_core importGraphiti
from graphiti_core.llm_client.gemini_client importGeminiClient,LLMConfig
from graphiti_core.embedder.gemini importGeminiEmbedder,GeminiEmbedderConfig
from graphiti_core.cross_encoder.gemini_reranker_client importGeminiRerankerClient
# Google API 密钥配置
api_key ="<your-google-api-key>"
# 使用 Gemini 客户端初始化 Graphiti
graphiti =Graphiti(
"bolt://localhost:7687",
"neo4j",
"password",
llm_client=GeminiClient(
config=LLMConfig(
api_key=api_key,
model="gemini-2.0-flash"
)
),
embedder=GeminiEmbedder(
config=GeminiEmbedderConfig(
api_key=api_key,
embedding_model="embedding-001"
)
),
cross_encoder=GeminiRerankerClient(
config=LLMConfig(
api_key=api_key,
model="gemini-2.5-flash-lite"
)
)
)
# 现在您可以使用 Graphiti 与 Google Gemini 的所有组件

Gemini 重新排序器默认使用gemini-2.5-flash-lite模型,该模型经过优化,适用于成本效益高且延迟低的分类任务。它采用与 OpenAI 重新排序器相同的布尔分类方法,利用 Gemini 的对数概率功能对段落相关性进行排名。

使用 Graphiti 与 Ollama(本地 LLM)

Graphiti 支持 Ollama,通过 Ollama 的 OpenAI 兼容 API 运行本地 LLM 和嵌入模型。这对于注重隐私的应用程序或希望避免 API 成本的场景非常适合。

注意:对于 Ollama 和其他 OpenAI 兼容的提供商(如 LM Studio),请使用 OpenAIGenericClient(而不是 OpenAIClient)。OpenAIGenericClient 针对本地模型进行了优化,具有更高的默认最大 token 限制(16K vs 8K),并完全支持结构化输出。

安装模型:

ollama pull deepseek-r1:7b# LLM
ollama pull nomic-embed-text  # 嵌入模型
from graphiti_core importGraphiti
from graphiti_core.llm_client.config importLLMConfig
from graphiti_core.llm_client.openai_generic_client importOpenAIGenericClient
from graphiti_core.embedder.openai importOpenAIEmbedder,OpenAIEmbedderConfig
from graphiti_core.cross_encoder.openai_reranker_client importOpenAIRerankerClient
# 配置 Ollama LLM 客户端
llm_config =LLMConfig(
api_key="ollama",# Ollama 不需要真正的 API 密钥,但需要一个占位符
model="deepseek-r1:7b",
small_model="deepseek-r1:7b",
base_url="http://localhost:11434/v1",# Ollama 的 OpenAI 兼容端点
)
llm_client =OpenAIGenericClient(config=llm_config)
# 使用 Ollama 客户端初始化 Graphiti
graphiti =Graphiti(
"bolt://localhost:7687",
"neo4j",
"password",
llm_client=llm_client,
embedder=OpenAIEmbedder(
config=OpenAIEmbedderConfig(
api_key="ollama",# 占位符 API 密钥
embedding_model="nomic-embed-text",
embedding_dim=768,
base_url="http://localhost:11434/v1",
)
),
cross_encoder=OpenAIRerankerClient(client=llm_client, config=llm_config),
)
# 现在您可以使用本地的 Ollama 模型与 Graphiti 进行交互

运行以下命令启动 Ollama 服务,并确保已经拉取了您想要使用的模型:ollama serve

https://github.com/getzep/graphiti

References

[1] Graphiti 的新 MCP 服务器: https://github.com/getzep/graphiti/blob/main/mcp_server/README.md
[2] MCP 服务器的 README 文件: https://github.com/getzep/graphiti/blob/main/mcp_server/README.md
[3] server: https://github.com/getzep/graphiti/blob/main/server/README.md

如何学习AI大模型 ?

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

👉1.大模型入门学习思维导图👈

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。

对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
在这里插入图片描述

👉2.AGI大模型配套视频👈

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。
在这里插入图片描述

在这里插入图片描述

👉3.大模型实际应用报告合集👈

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

在这里插入图片描述

👉4.大模型实战项目&项目源码👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战项目来学习。(全套教程文末领取哈)
在这里插入图片描述

👉5.大模型经典学习电子书👈

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)
在这里插入图片描述

👉6.大模型面试题&答案👈

截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)
在这里插入图片描述

为什么分享这些资料?

只要你是真心想学AI大模型,我这份资料就可以无偿分享给你学习,我国在这方面的相关人才比较紧缺,大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!

这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述
在这里插入图片描述

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐