Sim Logo

Sim:开源的AI代理工作流构建器

Sim是一个轻量级、用户友好的平台,旨在帮助用户快速构建和部署与您喜欢的工具连接的LLM(语言模型)工作流。结合简洁直观的操作界面,Sim帮助用户在构建AI代理工作流时更为高效。

应用场景

Sim适用于多个场景,包括但不限于:

  • 智能客服:通过构建自定义AI代理,实现24/7的客户服务。
  • 教育助手:为学生提供实时的智能辅导和个性化学习支持。
  • 数据分析:帮助团队快速获取和分析关键业务数据,提供决策支持。
  • 虚拟助手:开发多功能个人助手,处理日常任务和提醒。

功能特点

  1. 轻量级和易于使用:用户可以通过简洁的界面快速上手,无需复杂的设置。
  2. 多种托管选项:用户可以选择使用云托管的版本,也可以根据需要自我托管。
  3. 支持本地模型:与Ollama配合,可以在本地运行AI模型,保障数据隐私和安全。
  4. 实时协作:通过Socket.io实现多用户的实时协作工作流。
  5. 模块化结构:支持开发自定义模块,增强功能和灵活性。

如何开始使用Sim

方法一:使用云托管版本

最简单的方式是访问Sim的云托管版本

方法二:自我托管

你可以选择以下几种方式之一来本地运行Sim:

选项1:NPM包(最简单)
  1. 确保你的设备已经安装了Docker。
  2. 在终端运行以下命令:
    npx simstudio
    
  3. 完成后在浏览器中打开http://localhost:3000/
可选参数
  • -p, --port : 指定Sim运行的端口(默认:3000)
  • --no-pull: 跳过拉取最新的Docker镜像
选项2:Docker Compose

这个方法相对简单,适合有Docker基础的用户。

  1. 克隆代码库
    git clone https://github.com/simstudioai/sim.git
    
  2. 进入项目目录
    cd sim
    
  3. 启动Sim
    docker compose -f docker-compose.prod.yml up -d
    
  4. 访问应用程序:http://localhost:3000/
使用Ollama运行本地模型

如需与本地AI模型(如Ollama)配合使用的功能,依照以下步骤操作:

  1. 带GPU支持启动(自动下载gemma3:4b模型)

    docker compose -f docker-compose.ollama.yml --profile setup up -d
    
  2. 对于仅CPU的系统:

    docker compose -f docker-compose.ollama.yml --profile cpu --profile setup up -d
    
  3. 模型下载完成后,访问http://localhost:3000。如需添加更多模型:

    docker compose -f docker-compose.ollama.yml exec ollama ollama pull llama3.1:8b
    
选项3:开发容器
  1. 使用Remote - Containers扩展打开VS Code。
  2. 打开项目并在提示时选择“在容器中重启”。
  3. 在终端运行 bun run dev:full 启动主应用程序和实时socket服务器。
选项4:手动设置
  • 环境要求
  1. 克隆并安装依赖:

    git clone https://github.com/simstudioai/sim.git
    cd sim
    bun install
    
  2. 设置PostgreSQL与pgvector:

选择以下任一选项:

选项A:使用Docker(推荐)

docker run --name simstudio-db \
  -e POSTGRES_PASSWORD=your_password \
  -e POSTGRES_DB=simstudio \
  -p 5432:5432 -d \
  pgvector/pgvector:pg17

选项B:手动安装

  1. 设置环境变量:
    cd apps/sim
    cp .env.example .env  # 使用必需的变量配置
    

更新.env文件中的数据库URL:

DATABASE_URL="postgresql://postgres:your_password@localhost:5432/simstudio"
  1. 设置数据库:

    bunx drizzle-kit migrate 
    
  2. 启动开发服务器:

推荐方案 - 在项目根目录下同时启动两个服务器:

bun run dev:full

可选方案 - 分别运行服务器:

  • Next.js应用(从项目根目录):
    bun run dev
    
  • 实时socket服务器(从 apps/sim 目录在另一个终端):
    cd apps/sim
    bun run dev:sockets
    

技术栈

同类项目推荐

在开源AI工作流构建领域,除了Sim之外,还有一些值得关注的项目:

  1. Rasa:专注于构建对话式AI,提供自然语言处理和机器学习功能,适合开发智能客服或语音助手。
  2. Haystack:是一个开源的框架,用于构建以搜索为导向的AI应用,支持文档检索和问答系统。
  3. Dialogflow:虽然是由Google支持的项目,但它提供强大的对话流创建功能,适合用于构建聊天机器人和语音助理应用。

这些项目各有特色,选择适合您需求的工具,构建强大的AI工作流吧!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐