一、 准备工作

在开始之前,请确保你已准备好以下基础条件:

  1. API 密钥:你需要至少一个 AI 服务商的 API Key(如 OpenAI, Anthropic, 或 Google Gemini)。
    • 推荐:使用 OpenAI 兼容格式的接口(如阿里云百炼、DeepSeek)以降低成本。
  2. Docker 环境:建议安装 Docker Desktop(Windows/Mac)或 Docker Engine(Linux)。
  3. 硬件要求:至少 4GB 内存(若运行本地模型如 Ollama,则需要更高配置的 GPU / 内存)。
  4. 完整教程:Open Notebook 完整部署教程:打造私有化 NotebookLM 替代方案 - nanshawsの博客
  5. 项目地址:lfnovo/open-notebook: An Open Source implementation of Notebook LM with more flexibility and features


二、 快速部署方案 (Docker)

这是最推荐的安装方式,适合绝大多数用户。

1. 创建项目目录

在你的电脑上创建一个文件夹:

mkdir open-notebook && cd open-notebook

2. 编写 docker-compose.yml

在该目录下创建一个名为 docker-compose.yml 的文件,并粘贴以下内容(以单容器版本为例):

services:
surrealdb:
image: surrealdb/surrealdb:v2
command: start --user root --pass password --bind 0.0.0.0:8000 rocksdb:/mydata/mydatabase.db
ports:
- "8000:8000"
volumes:
- ./surreal_data:/mydata
open_notebook:
image: lfnovo/open_notebook:v1-latest
pull_policy: always
ports:
- "8502:8502" # Web UI
- "5055:5055" # API
environment:
- OPENAI_COMPATIBLE_BASE_URL=你代理商的url
- OPENAI_COMPATIBLE_API_KEY=你的API_KEY
# Database
- SURREAL_URL=ws://surrealdb:8000/rpc
- SURREAL_USER=root
- SURREAL_PASSWORD=password
- SURREAL_NAMESPACE=open_notebook
- SURREAL_DATABASE=open_notebook
volumes:
- ./notebook_data:/app/data
depends_on:
- surrealdb
restart: always

3. 启动容器

在终端运行命令:

#上述的key和baseurl修改完成后,运行下述命令即可
docker compose up -d

启动完成后,在浏览器访问 http://localhost:8502 即可进入界面。

environment: 该项目内嵌了各大 ai 代理商的 url,如果使用各大代理商的话,可以直接设置 key,即可,环境 key 设置名称如下:

1. 主流 AI 厂商原生接口

这些是各大模型厂商的标准配置项,直接填入申请到的 API Key 即可。

  • OpenAI:OPENAI_API_KEY=你的sk-key
  • Anthropic (Claude):ANTHROPIC_API_KEY=你的key
  • Google Gemini (推荐:处理长文档和播客效果最佳):GOOGLE_API_KEY=你的key GEMINI_API_BASE_URL= # 可选:用于中转或 Vertex AI 代理
  • DeepSeek (深度求索):DEEPSEEK_API_KEY=你的key
  • Mistral:MISTRAL_API_KEY=你的key
  • Groq (极速推理):GROQ_API_KEY=你的key
  • xAI (Grok):XAI_API_KEY=你的key

2. 多模型中转与兼容平台

如果你使用的是第三方中转代理,或者国内厂商(如阿里云百炼、月之暗面)提供的兼容接口,请使用以下格式:

OpenRouter:

OPENROUTER_BASE_URL="https://openrouter.ai/api/v1" ,

OPENROUTER_API_KEY=你的key.

通用 OpenAI 兼容接口 (Generic)OPENAI_COMPATIBLE_BASE_URL=http://代理商地址/v1 ,OPENAI_COMPATIBLE_API_KEY=你的key.


3. 分模式高级配置(推荐)

Open Notebook 允许你根据功能(对话、向量、语音)分别设置不同的代理商。这是最灵活的配置方式,可以让你用最便宜的厂商做向量,用最强的厂商做对话。

  • 用于聊天对话 (LLM):OPENAI_COMPATIBLE_BASE_URL_LLM=http://地址/v1 ,OPENAI_COMPATIBLE_API_KEY_LLM=你的key.
  • 用于语义搜索 (Embedding):OPENAI_COMPATIBLE_BASE_URL_EMBEDDING=http://地址/v1 ,OPENAI_COMPATIBLE_API_KEY_EMBEDDING=你的key.
  • 用于音频转录与播客 (STT/TTS):OPENAI_COMPATIBLE_BASE_URL_STT=http://地址/v1 ,OPENAI_COMPATIBLE_API_KEY_STT=你的key ,OPENAI_COMPATIBLE_BASE_URL_TTS=http://地址/v1 ,OPENAI_COMPATIBLE_API_KEY_TTS=你的key.

4. 本地模型与企业级服务
  • Ollama (本地私有部署)
  • OLLAMA_API_BASE="http://你的内网IP:11434"
  • Azure OpenAI (微软企业版)
  • AZURE_OPENAI_API_KEY=你的key AZURE_OPENAI_ENDPOINT=你的终结点地址 AZURE_OPENAI_API_VERSION=2024-12-01-preview

5. 辅助功能 Key

除了大模型,Open Notebook 还需要一些辅助工具来实现网页爬取和播客生成:

  • 网页爬取 (Firecrawl/Jina):FIRECRAWL_API_KEY=你的key JINA_API_KEY=你的key
  • 播客专用语音 (ElevenLabs):ELEVENLABS_API_KEY=你的key
  • 向量搜索优化 (Voyage AI):VOYAGE_API_KEY=你的key


三、 开发者部署方案 (Conda / 源码)

如果你希望进行二次开发或自定义功能,可以使用源码安装。

克隆仓库

git clone https://github.com/lfnovo/open-notebook.git
cd open-notebook

创建 Conda 环境

conda create -n open-notebook python=3.11 -y
conda activate open-notebook
conda install -c conda-forge uv nodejs -y
uv sync

启动服务: 使用项目自带的 Makefile 一键启动所有服务(包括数据库、API 和前端):

make start-all

注意:此模式下前端地址通常为 http://localhost:3000


四、 核心配置与使用指南

1. 模型分配 (Model Assignments)

进入系统后,首先点击左侧的 Settings 或 Models 进行模型绑定:

  • Chat Model:用于对话,推荐逻辑强的模型。
  • Embedding Model必需。用于文档的语义搜索,推荐使用 text-embedding-v4
  • TTS Model:用于生成播客语音。

2. 创建笔记本与添加素材

  1. 点击 + Create Notebook 创建一个新的研究项目。
  2. 点击 Add Source 上传素材。支持 PDF, DOCX, TXT, MD 甚至 YouTube 链接。
  3. 上传后,系统会自动对文档进行向量化处理(Embedding)。

3. AI 对话与 RAG 检索

在右侧的聊天窗口提问。AI 会基于你上传的 “知识库” 内容进行回答,并标注信息来源。

4. 转换功能 (Transformations)

Open Notebook 提供预设的指令模板(如生成摘要、提取关键词、生成测验)。你也可以在 Transformations 菜单中创建自定义的 Prompt 模板,针对所有文档一键生成结果。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐