AI 应用浏览器-Pinokio
Pinokio 是让普通用户也能轻松运行本地 AI 应用的“傻瓜式管家”,把复杂的环境配置、依赖管理和模型下载全部自动化,真正实现“点一下就跑起来”。如果你正在寻找一种不用敲命令、不用配环境、就能玩转 ComfyUI / Ollama / LLM / SD的方式,Pinokio 是目前最友好的选择之一。每个 AI 应用在 Pinokio 中都是一个独立文件夹 +pinokio.js脚本脚本定义了:
🧠 一、Pinokio 是什么?
Pinokio 是一个 开源的 AI 应用浏览器(AI Browser),旨在让用户像安装普通软件一样轻松运行本地 AI 模型和应用,无需命令行、无需复杂配置。
✅ 核心理念:“一键安装 + 自动管理 + 图形界面” = 让本地 AI 像手机 App 一样简单
它由前 Google 工程师创建,目标是成为 “AI 时代的操作系统” —— 用户通过 Pinokio 安装、启动、管理和共享各种 AI 应用(如 ComfyUI、Ollama、Llama.cpp、Stable Diffusion WebUI 等)。
🌟 二、核心特性
1. 图形化 AI 应用商店
- 内置 AI 应用市场(类似 App Store),可一键安装热门 AI 工具:
- ✅ ComfyUI
- ✅ Ollama(本地大语言模型)
- ✅ LM Studio
- ✅ Stable Diffusion WebUI (AUTOMATIC1111)
- ✅ AnythingLLM、Jan、GPT4All、Whisper 等
- 所有应用自动处理依赖(Python、Node.js、Git、CUDA 等)
2. 全自动环境管理
- 自动检测并安装所需运行时(如 Python 3.10、PyTorch、FFmpeg)
- 自动下载模型(支持 Hugging Face、GitHub Releases)
- 自动配置端口、路径、GPU 加速(CUDA/Metal)
3. 跨平台支持
- 支持 Windows / macOS / Linux
- 在 Apple Silicon(M1/M2/M3)上原生优化
- 无需手动设置 PATH 或虚拟环境
4. 脚本驱动(Scriptable)
- 每个应用通过
pinokio.js脚本定义安装/启动逻辑 - 开发者可提交自己的 AI 应用到社区库
- 支持自定义参数、模型选择、更新策略
5. 离线优先 & 隐私安全
- 所有 AI 模型和数据默认保存在本地
- 不强制联网(除首次下载外)
- 无云服务依赖,适合敏感场景
6. 轻量级 Electron 应用
- 基于 Electron + Node.js 构建
- 启动快、资源占用低(相比 Docker 方案)
📦 三、典型使用场景
| 用户类型 | 使用方式 |
|---|---|
| 普通用户 | 打开 Pinokio → 搜索 “ComfyUI” → 点击安装 → 启动 → 开始生成图片 |
| 开发者 | 编写 pinokio.js 脚本 → 发布到 GitHub → 社区用户一键安装你的 AI 工具 |
| 研究者 | 快速切换不同模型(如 SDXL vs Flux vs Z Image)而无需重配环境 |
🔧 四、安装与使用
1. 下载安装
- 官网:https://pinokio.computer
- GitHub Releases:https://github.com/pinokiocomputer/pinokio/releases
- 支持
.exe(Windows)、.dmg(macOS)、.AppImage(Linux)
2. 基本操作流程
- 打开 Pinokio
- 浏览或搜索 AI 应用(如 “comfyui”)
- 点击 Install → 自动下载代码 + 模型 + 依赖
- 安装完成后点击 Run → 自动启动 Web UI(通常在
http://localhost:8188) - 关闭后可随时从 Pinokio 重新启动
💡 首次运行会自动安装 Python 和 Git(如果系统没有)
🧩 五、与 ComfyUI 的关系
- Pinokio 不是 ComfyUI 的替代品,而是它的 “安装器 + 启动器 + 管理器”
- 通过 Pinokio 安装 ComfyUI:
- 无需
git clone - 无需
pip install - 无需手动放模型文件
- 自动集成常用插件(如 ComfyUI Manager)
- 无需
- 特别适合不熟悉命令行的新手用户
🌐 六、开源与社区
- 许可证:MIT(完全免费开源)
- 源码结构:
apps/:内置应用脚本库(JSON + JS)engine/:核心运行引擎ui/:Electron 前端界面
- 社区贡献:欢迎提交新的 AI 应用脚本(PR 到
apps/目录)
⚠️ 七、注意事项
- 某些大型模型(如 SDXL、Flux)仍需大量磁盘空间(10–50GB)
- 首次安装可能较慢(需下载依赖和模型)
- 高级用户若需深度定制(如修改 ComfyUI 源码),仍建议手动部署
✅ 总结一句话:
Pinokio 是让普通用户也能轻松运行本地 AI 应用的“傻瓜式管家”,把复杂的环境配置、依赖管理和模型下载全部自动化,真正实现“点一下就跑起来”。
如果你正在寻找一种不用敲命令、不用配环境、就能玩转 ComfyUI / Ollama / LLM / SD 的方式,Pinokio 是目前最友好的选择之一。
新手友好 + 实用性强的 5 个推荐应用(适合刚接触 Pinokio 的你)
✅ 所有应用都支持 一键安装 + 自动配置 + 图形界面启动
| 应用名称 | 用途 | 为什么推荐 |
|---|---|---|
| 1. ComfyUI | 可视化文生图/图生图工作流(比 WebUI 更强大灵活) | 支持 SDXL、Flux、Z Image 等主流模型;可做高清修复、局部重绘、视频生成等高级操作 |
| 2. Ollama | 本地运行大语言模型(如 Llama 3.2、Qwen、Gemma、Phi-3) | 输入自然语言即可对话、写代码、总结文档;完全离线、隐私安全 |
| 3. LM Studio | 类似 Ollama,但带图形聊天界面 | 更适合普通用户,像 ChatGPT 桌面版,支持中文模型(如 Qwen、DeepSeek) |
| 4. AnythingLLM | 构建个人知识库 + 私有 ChatGPT | 上传 PDF/Word/TXT,AI 自动回答你的问题(适合学生、研究者) |
| 5. Whisper Desktop | 语音转文字(支持中英文) | 录音/视频自动转字幕,准确率高,完全本地运行 |
💡 建议安装顺序:先装 ComfyUI(玩图像) + Ollama 或 LM Studio(玩文本),体验最直观!
“Pinokio 脚本部署模型”是什么意思?—— 举个真实例子
场景:
你想在本地运行 阿里巴巴的 Z Image 模型(中文优化、免费、效果好),但它需要:
- 下载 ComfyUI
- 安装 Python 和 PyTorch
- 下载 Z Image 的
.safetensors模型文件(约 6GB) - 放到正确目录(
models/checkpoints/) - 启动 ComfyUI 并加载模型
👉 手动操作:至少要敲 10 条命令,还可能出错。
用 Pinokio 怎么做?
Pinokio 社区已经有人写好了一个 自动化脚本,叫 z-image。
这个脚本(pinokio.js)里写了:
// 伪代码示意(实际是 JS + JSON)
{
name: "Z Image",
description: "阿里通义实验室开源的中文文生图模型",
install: [
"git clone https://github.com/comfyanonymous/ComfyUI",
"download model from huggingface.co/ZhipuAI/Z-Image → models/checkpoints/",
"pip install -r requirements.txt"
],
run: "python main.py --listen"
}
你在 Pinokio 里只需三步:
- 打开 Pinokio → 点顶部 Discover(发现)
- 搜索
z image→ 找到官方或社区版本 - 点击 Install → 等待自动完成(下载代码 + 模型 + 依赖)
- 安装完点 Run → 自动打开浏览器
http://localhost:8188 - 在 ComfyUI 里选择 “Z Image” 模型 → 输入中文提示词 → 生成图片!
✅ 整个过程 无需命令行、无需找模型链接、无需配环境 —— 这就是“用 Pinokio 脚本部署模型”的含义。
进阶理解:什么是 “Pinokio 脚本”?
- 每个 AI 应用在 Pinokio 中都是一个 独立文件夹 +
pinokio.js脚本 - 脚本定义了:
- 从哪里下载代码(GitHub)
- 需要哪些依赖(Python 包、系统库)
- 模型下载地址(Hugging Face / Google Drive)
- 如何启动(运行什么命令)
- 是否支持 GPU、Mac M 系列芯片等
- 用户点击“Install”,Pinokio 就按脚本一步步执行,全自动完成部署
🌐 类似 Steam 安装游戏:你不用管游戏引擎、贴图、DLL 文件在哪,点“安装”就行。
修改下载源
要让 Pinokio 下载模型更快(尤其在中国大陆),你可以通过 修改其底层下载逻辑或配置环境变量 来实现。下面提供 最有效、最安全、可长期使用 的几种方法,按推荐顺序排列:
✅ 推荐方案 1:全局设置 HF_ENDPOINT(最简单高效)
这是 90% 场景下最有效的办法,无需改代码。
操作步骤:
-
设置系统环境变量
- Windows:
- 按
Win + R→ 输入sysdm.cpl→ 高级 → 环境变量 - 在“用户变量”中点击“新建”:
- 变量名:
HF_ENDPOINT - 变量值:
https://hf-mirror.com
- 变量名:
- 按
- macOS / Linux:
echo 'export HF_ENDPOINT=https://hf-mirror.com' >> ~/.zshrc source ~/.zshrc(如果你用 bash,替换为
~/.bashrc) - Windows:
-
重启 Pinokio
确保新环境变量生效。
效果:
- 所有通过
huggingface_hub、git clone https://huggingface.co/...的请求
→ 自动重定向到 hf-mirror.com(国内高速 CDN) - 实测下载速度从 几 KB/s 提升到 10~50 MB/s
✅ 适用于 ComfyUI 模型、LoRA、VAE、Checkpoint 等绝大多数 Hugging Face 模型。
✅ 推荐方案 2:在 Pinokio 脚本中手动替换下载链接
如果你知道某个模型在 ModelScope(魔搭) 或 hf-mirror 有镜像,直接改脚本。
示例:
原脚本(慢):
run("wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.safetensors")
改为(快):
// 方法 A:用 hf-mirror(推荐)
run("wget https://hf-mirror.com/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.safetensors")
// 方法 B:用 ModelScope(仅限支持的模型)
run("wget https://modelscope.cn/models/runwayml/stable-diffusion-v1-5/resolve/master/v1-5-pruned.safetensors")
🔍 如何找 ModelScope 链接?
访问 https://modelscope.cn/models,搜索模型名。
🧪 验证是否生效
在 Pinokio 脚本中加一行测试:
run("curl -I https://huggingface.co/stabilityai/sd-vae-ft-mse-original/resolve/main/vae-ft-mse-840000-ema-pruned.safetensors")
如果返回的 Location 或实际下载地址变成 hf-mirror.com,说明成功!
终极建议(中国大陆用户)
| 场景 | 推荐做法 |
|---|---|
| 通用加速 | ✅ 设置 HF_ENDPOINT=https://hf-mirror.com(必做!) |
| Qwen / 通义千问模型 | 直接从 ModelScope 下载 |
| 大模型(>5GB) | 用 aria2c + hf-mirror.com |
| 避免重复下载 | 脚本开头加 if (!exists(...)) { ... } |
🔗 有用资源
- HF 镜像站:https://hf-mirror.com
- ModelScope:https://modelscope.cn
- aria2 下载:https://aria2.github.io/
更多推荐


所有评论(0)