🧠 一、Pinokio 是什么?

Pinokio 是一个 开源的 AI 应用浏览器(AI Browser),旨在让用户像安装普通软件一样轻松运行本地 AI 模型和应用,无需命令行、无需复杂配置。

✅ 核心理念:“一键安装 + 自动管理 + 图形界面” = 让本地 AI 像手机 App 一样简单

它由前 Google 工程师创建,目标是成为 “AI 时代的操作系统” —— 用户通过 Pinokio 安装、启动、管理和共享各种 AI 应用(如 ComfyUI、Ollama、Llama.cpp、Stable Diffusion WebUI 等)。


🌟 二、核心特性

1. 图形化 AI 应用商店

  • 内置 AI 应用市场(类似 App Store),可一键安装热门 AI 工具:
    • ✅ ComfyUI
    • ✅ Ollama(本地大语言模型)
    • ✅ LM Studio
    • ✅ Stable Diffusion WebUI (AUTOMATIC1111)
    • ✅ AnythingLLM、Jan、GPT4All、Whisper 等
  • 所有应用自动处理依赖(Python、Node.js、Git、CUDA 等)

2. 全自动环境管理

  • 自动检测并安装所需运行时(如 Python 3.10、PyTorch、FFmpeg)
  • 自动下载模型(支持 Hugging Face、GitHub Releases)
  • 自动配置端口、路径、GPU 加速(CUDA/Metal)

3. 跨平台支持

  • 支持 Windows / macOS / Linux
  • 在 Apple Silicon(M1/M2/M3)上原生优化
  • 无需手动设置 PATH 或虚拟环境

4. 脚本驱动(Scriptable)

  • 每个应用通过 pinokio.js 脚本定义安装/启动逻辑
  • 开发者可提交自己的 AI 应用到社区库
  • 支持自定义参数、模型选择、更新策略

5. 离线优先 & 隐私安全

  • 所有 AI 模型和数据默认保存在本地
  • 不强制联网(除首次下载外)
  • 无云服务依赖,适合敏感场景

6. 轻量级 Electron 应用

  • 基于 Electron + Node.js 构建
  • 启动快、资源占用低(相比 Docker 方案)

📦 三、典型使用场景

用户类型 使用方式
普通用户 打开 Pinokio → 搜索 “ComfyUI” → 点击安装 → 启动 → 开始生成图片
开发者 编写 pinokio.js 脚本 → 发布到 GitHub → 社区用户一键安装你的 AI 工具
研究者 快速切换不同模型(如 SDXL vs Flux vs Z Image)而无需重配环境

🔧 四、安装与使用

1. 下载安装

2. 基本操作流程

  1. 打开 Pinokio
  2. 浏览或搜索 AI 应用(如 “comfyui”)
  3. 点击 Install → 自动下载代码 + 模型 + 依赖
  4. 安装完成后点击 Run → 自动启动 Web UI(通常在 http://localhost:8188
  5. 关闭后可随时从 Pinokio 重新启动

💡 首次运行会自动安装 Python 和 Git(如果系统没有)


🧩 五、与 ComfyUI 的关系

  • Pinokio 不是 ComfyUI 的替代品,而是它的 “安装器 + 启动器 + 管理器”
  • 通过 Pinokio 安装 ComfyUI:
    • 无需 git clone
    • 无需 pip install
    • 无需手动放模型文件
    • 自动集成常用插件(如 ComfyUI Manager)
  • 特别适合不熟悉命令行的新手用户

🌐 六、开源与社区

  • 许可证:MIT(完全免费开源)
  • 源码结构
    • apps/:内置应用脚本库(JSON + JS)
    • engine/:核心运行引擎
    • ui/:Electron 前端界面
  • 社区贡献:欢迎提交新的 AI 应用脚本(PR 到 apps/ 目录)

⚠️ 七、注意事项

  • 某些大型模型(如 SDXL、Flux)仍需大量磁盘空间(10–50GB)
  • 首次安装可能较慢(需下载依赖和模型)
  • 高级用户若需深度定制(如修改 ComfyUI 源码),仍建议手动部署

✅ 总结一句话:

Pinokio 是让普通用户也能轻松运行本地 AI 应用的“傻瓜式管家”,把复杂的环境配置、依赖管理和模型下载全部自动化,真正实现“点一下就跑起来”。


如果你正在寻找一种不用敲命令、不用配环境、就能玩转 ComfyUI / Ollama / LLM / SD 的方式,Pinokio 是目前最友好的选择之一


新手友好 + 实用性强的 5 个推荐应用(适合刚接触 Pinokio 的你)

✅ 所有应用都支持 一键安装 + 自动配置 + 图形界面启动

应用名称 用途 为什么推荐
1. ComfyUI 可视化文生图/图生图工作流(比 WebUI 更强大灵活) 支持 SDXL、Flux、Z Image 等主流模型;可做高清修复、局部重绘、视频生成等高级操作
2. Ollama 本地运行大语言模型(如 Llama 3.2、Qwen、Gemma、Phi-3) 输入自然语言即可对话、写代码、总结文档;完全离线、隐私安全
3. LM Studio 类似 Ollama,但带图形聊天界面 更适合普通用户,像 ChatGPT 桌面版,支持中文模型(如 Qwen、DeepSeek)
4. AnythingLLM 构建个人知识库 + 私有 ChatGPT 上传 PDF/Word/TXT,AI 自动回答你的问题(适合学生、研究者)
5. Whisper Desktop 语音转文字(支持中英文) 录音/视频自动转字幕,准确率高,完全本地运行

💡 建议安装顺序:先装 ComfyUI(玩图像) + Ollama 或 LM Studio(玩文本),体验最直观!


“Pinokio 脚本部署模型”是什么意思?—— 举个真实例子

场景:

你想在本地运行 阿里巴巴的 Z Image 模型(中文优化、免费、效果好),但它需要:

  • 下载 ComfyUI
  • 安装 Python 和 PyTorch
  • 下载 Z Image 的 .safetensors 模型文件(约 6GB)
  • 放到正确目录(models/checkpoints/
  • 启动 ComfyUI 并加载模型

👉 手动操作:至少要敲 10 条命令,还可能出错。


用 Pinokio 怎么做?

Pinokio 社区已经有人写好了一个 自动化脚本,叫 z-image

这个脚本(pinokio.js)里写了:

// 伪代码示意(实际是 JS + JSON)
{
  name: "Z Image",
  description: "阿里通义实验室开源的中文文生图模型",
  install: [
    "git clone https://github.com/comfyanonymous/ComfyUI",
    "download model from huggingface.co/ZhipuAI/Z-Image → models/checkpoints/",
    "pip install -r requirements.txt"
  ],
  run: "python main.py --listen"
}

你在 Pinokio 里只需三步:

  1. 打开 Pinokio → 点顶部 Discover(发现)
  2. 搜索 z image → 找到官方或社区版本
  3. 点击 Install → 等待自动完成(下载代码 + 模型 + 依赖)
  4. 安装完点 Run → 自动打开浏览器 http://localhost:8188
  5. 在 ComfyUI 里选择 “Z Image” 模型 → 输入中文提示词 → 生成图片!

✅ 整个过程 无需命令行、无需找模型链接、无需配环境 —— 这就是“用 Pinokio 脚本部署模型”的含义。


进阶理解:什么是 “Pinokio 脚本”?

  • 每个 AI 应用在 Pinokio 中都是一个 独立文件夹 + pinokio.js 脚本
  • 脚本定义了:
    • 从哪里下载代码(GitHub)
    • 需要哪些依赖(Python 包、系统库)
    • 模型下载地址(Hugging Face / Google Drive)
    • 如何启动(运行什么命令)
    • 是否支持 GPU、Mac M 系列芯片等
  • 用户点击“Install”,Pinokio 就按脚本一步步执行,全自动完成部署

🌐 类似 Steam 安装游戏:你不用管游戏引擎、贴图、DLL 文件在哪,点“安装”就行。

修改下载源

要让 Pinokio 下载模型更快(尤其在中国大陆),你可以通过 修改其底层下载逻辑或配置环境变量 来实现。下面提供 最有效、最安全、可长期使用 的几种方法,按推荐顺序排列:


✅ 推荐方案 1:全局设置 HF_ENDPOINT(最简单高效)

这是 90% 场景下最有效的办法,无需改代码。

操作步骤:

  1. 设置系统环境变量

    • Windows
      • Win + R → 输入 sysdm.cpl → 高级 → 环境变量
      • 在“用户变量”中点击“新建”:
        • 变量名:HF_ENDPOINT
        • 变量值:https://hf-mirror.com
    • macOS / Linux
    echo 'export HF_ENDPOINT=https://hf-mirror.com' >> ~/.zshrc
    source ~/.zshrc
    

    (如果你用 bash,替换为 ~/.bashrc

  2. 重启 Pinokio
    确保新环境变量生效。

效果:

  • 所有通过 huggingface_hubgit clone https://huggingface.co/... 的请求
    → 自动重定向到 hf-mirror.com(国内高速 CDN)
  • 实测下载速度从 几 KB/s 提升到 10~50 MB/s

✅ 适用于 ComfyUI 模型、LoRA、VAE、Checkpoint 等绝大多数 Hugging Face 模型。


✅ 推荐方案 2:在 Pinokio 脚本中手动替换下载链接

如果你知道某个模型在 ModelScope(魔搭)hf-mirror 有镜像,直接改脚本。

示例:

原脚本(慢):

run("wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.safetensors")

改为(快):

// 方法 A:用 hf-mirror(推荐)
run("wget https://hf-mirror.com/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.safetensors")

// 方法 B:用 ModelScope(仅限支持的模型)
run("wget https://modelscope.cn/models/runwayml/stable-diffusion-v1-5/resolve/master/v1-5-pruned.safetensors")

🔍 如何找 ModelScope 链接?
访问 https://modelscope.cn/models,搜索模型名。


🧪 验证是否生效

在 Pinokio 脚本中加一行测试:

run("curl -I https://huggingface.co/stabilityai/sd-vae-ft-mse-original/resolve/main/vae-ft-mse-840000-ema-pruned.safetensors")

如果返回的 Location 或实际下载地址变成 hf-mirror.com,说明成功!


终极建议(中国大陆用户)
场景 推荐做法
通用加速 ✅ 设置 HF_ENDPOINT=https://hf-mirror.com(必做!)
Qwen / 通义千问模型 直接从 ModelScope 下载
大模型(>5GB) aria2c + hf-mirror.com
避免重复下载 脚本开头加 if (!exists(...)) { ... }

🔗 有用资源
  • HF 镜像站:https://hf-mirror.com
  • ModelScope:https://modelscope.cn
  • aria2 下载:https://aria2.github.io/
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐