Dify 配置

  • 拉取 Dify 镜像:

    git clone https://ghfast.top/https://github.com/langgenius/dify.git
    
  • 进入/dify/docker目录中,对 .env、docker-compose.yaml 配置文件部分内容进行修改:

    cp .env.example .env #复制实例环境配置文件
    
  • 配置环境变量:参考Dify部署;主要是Nginx端口号、上传文件大小限制(提供的 .env、docker-compose.yaml 文件已经配置端口号为8010和4433,大小限制为 1500M,可按需修改)

    # 修改端口
    NGINX_PORT=8010
    NGINX_SSL_PORT=4433
    
    # 修改上传文件大小
    UPLOAD_FILE_SIZE_LIMIT=1500
    NGINX_CLIENT_MAX_BODY_SIZE=1500M
    
    # docker-compose.yaml
    NGINX_PORT: ${NGINX_PORT:-8010}
    NGINX_SSL_PORT: ${NGINX_SSL_PORT:-4433}
    UPLOAD_FILE_SIZE_LIMIT: ${UPLOAD_FILE_SIZE_LIMIT:-1500}
    NGINX_CLIENT_MAX_BODY_SIZE: ${NGINX_CLIENT_MAX_BODY_SIZE:-1500M}
    
    docker compose up -d #启动 Dify 服务
    docker compose down #停止服务
    

Ollama 配置

  • 手动安装参考:Ollama安装
  • 镜像站ollama | newbe获取安装 tgz 文件:镜像站可能会出现不稳定情况,可以先尝试访问几个版本的镜像源链接;最好是解压到/usr目录中
    wget https://gh.ddlc.top/https://github.com/ollama/ollama/releases/download/v0.13.2/ollama-linux-amd64.tgz
    mkdir -p /usr/ollama
    tar -xzvf ollama-linux-amd64.tgz -C /usr/ollama # 解压程序包
    
  • 配置环境变量(相对路径):在/etc/profile中添加
    #ollama 环境
    export PATH=/usr/ollama/bin:$PATH
    
    source /etc/profile #激活配置
    
  • 拉取模型:以 qwen3:1.7b 为例
    ollama pull qwen3:1.7b
    

配置本地大模型

  • 安装 Ollama插件:
    在这里插入图片描述
    在这里插入图片描述
  • 新建工作流、添加节点:
    在这里插入图片描述
  • 修改 LLM 节点中的模型设置
    在这里插入图片描述
  • 添加 Ollama 在本地拉取的模型:
    在这里插入图片描述
    在这里插入图片描述
  • 终端查看主机 IP 以及本地大模型:
    hostname -I | awk '{print $1}'
    ollama list
    

在这里插入图片描述

  • 填写相关配置后保存:(以qwen2:7b为例)
    在这里插入图片描述
  • Ollama 支持的模型列表:
    在这里插入图片描述
  • 配置 LLM 节点的模型:
    在这里插入图片描述
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐