你是否也曾想过,如果能有一个24小时在线的智能助手藏在微信里,会是什么体验?

忙碌时,它能帮你自动回复消息,甚至处理群聊中的各种提问;
需要灵感时,它能秒速生成文案、翻译外语,或者根据你的描述创作一幅画;
更重要的是,它能基于你的私人文档和知识库,给出精准回答,成为你的专属知识顾问……

这听起来像是未来科技,但chatgpt-on-wechat让这一切触手可及。它不仅仅是一个简单的“微信机器人”,更是一个功能全面、高度可定制的智能对话与应用平台,能将微信打造成你的私人AI助理。


chatgpt-on-wechat框架信息卡

项目

详情

项目名称

chatgpt-on-wechat (也常被称为COW) 

核心定位

基于大语言模型的智能对话机器人,支持在微信等主流社交平台部署 

核心特性

多端部署、基础对话、语音识别与合成、图像生成与识别、丰富插件、Tool工具、知识库 

项目地址

https://github.com/zhayujie/chatgpt-on-wechat 

技术栈

主要使用 Python 

开源协议 Apache-2.0

价值点、优势和可解决的问题

1.  核心价值点

  • 极致的用户体验与集成:在熟悉的微信环境里与AI交互,几乎零学习成本,信息触达和输出都非常自然。

  • 全面的功能覆盖:从多轮文本对话语音消息处理图片生成与识别,甚至访问互联网执行代码,几乎涵盖了你对个人智能助理的所有想象。

  • 强大的扩展性与灵活性插件系统Tool工具让你能随心定制机器人能力,而知识库功能则可以打造真正懂你的“数字分身”或企业专属客服。

2.  主要优势

  • 多平台与多模型支持:不仅能接入个人微信、公众号、企业微信,还支持飞书、钉钉等。除了OpenAI的GPT系列模型(如GPT-3.5, GPT-4, GPT-4o等),还支持Claude、文心一言、讯飞星火、通义千问等多种主流大模型,避免被单一厂商绑定。

  • 开源透明与数据可控:代码完全开源,你可以自行部署,对自己的数据和隐私有更强的掌控力。

  • 活跃的社区与持续更新:项目在GitHub上非常受欢迎,有活跃的社区支持和持续的功能迭代,能跟上AI发展的快速步伐。

3. 可解决的典型问题

  • 个人效率提升:自动回复消息、快速生成邮件和文案、实时翻译、激发创意灵感。

  • 社群高效管理:自动应答群内常见问题、发送欢迎消息、进行群聊总结,提升社群运营效率。

  • 企业智能客服:基于内部文档构建知识库,为员工或客户提供24/7的精准问答服务。

  • 个人知识管理:将学习资料、笔记、文章喂给机器人,打造一个永不遗忘的“第二大脑”。

本地部署和基本使用

这里介绍两种主流的部署方式:传统的本地Python环境部署更方便的Docker部署

1. 环境准备 (通用)

  • OpenAI API Key:你需要一个OpenAI的API Key。如果使用其他大模型,则需要准备对应模型的API Key。

  • 运行环境:确保你的电脑或服务器安装了Python 3.7-3.9(推荐3.8)或Docker环境。

2. 方法一:传统本地部署 (适合Python用户)

  1. 克隆项目代码

    git clone https://github.com/zhayujie/chatgpt-on-wechat
    cd chatgpt-on-wechat/
  2. 安装核心依赖

    pip3 install -r requirements.txt
  3. 配置config.json文件

    复制配置文件模板并根据需要修改config.json,以下是一些关键配置项:

    {
      "open_ai_api_key": "YOUR API KEY",                          // 你的OpenAI API KEY
      "model": "gpt-3.5-turbo",                                  // 使用的模型
      "single_chat_prefix": ["bot", "@bot"],                     // 私聊触发前缀
      "single_chat_reply_prefix": "[bot] ",                      // 私聊回复前缀
      "group_chat_prefix": ["@bot"],                             // 群聊触发前缀
      "group_name_white_list": ["ChatGPT测试群"],                 // 开启自动回复的群聊名称列表
      "image_create_prefix": ["画", "看", "找"],                 // 触发图片生成的前缀
      "speech_recognition": false,                               // 是否开启语音识别
      "character_desc": "你是ChatGPT...",                        // 设定机器人的人格描述
      ... // 其他配置项
    }
  4. 运行项目

    • 本地调试:直接在终端运行 python3 app.py,扫描输出的二维码登录微信。

    • 服务器后台运行:使用 nohup python3 app.py & tail -f nohup.out 命令。

3. 方法二:Docker部署 (推荐,更简单)

  1. 配置docker-compose.yml

    获取官方提供的docker-compose.yml文件。

    wget https://open-1317903499.cos.ap-guangzhou.myqcloud.com/docker-compose.yml

    编辑docker-compose.yml文件,填入你的配置,例如OPEN_AI_API_KEYGROUP_NAME_WHITE_LIST等。

  2. 启动容器

    docker-compose.yml所在目录执行:

    sudo docker compose up -d
  3. 查看日志并扫码登录

    sudo docker logs -f chatgpt-on-wechat

    查看运行日志,扫描日志中出现的二维码即可完成登录。

4. 基本使用

登录成功后,你的微信就变身为智能机器人了!

  • 私聊:在任意私人聊天中,发送以 bot 或 @bot 开头的内容(取决于你的single_chat_prefix配置),即可触发机器人回复。

  • 群聊:在配置了白名单(group_name_white_list)的群聊中,@机器人 或发送以配置的群聊触发前缀(如@bot)开头的内容,机器人便会自动回复。

温馨提醒和扩展

1. 重要提醒

  • 账号安全须知:网页版微信扫码登录存在一定的账号风险,请谨慎使用,并密切关注官方政策。

  • 模型费用:使用OpenAI等云端API会产生费用,请注意监控API使用量,避免意外扣费。合理配置会话长度(conversation_max_tokens)有助于控制成本。

  • 网络问题:访问OpenAI等服务可能需要代理设置,在配置中注意 proxy 和 open_ai_api_base 等配置项。

  • 解析能力限制:虽然知识库功能强大,但对于格式复杂或扫描质量差的文档,解析效果可能不理想,上传文档后建议检查解析结果。

2. 进阶扩展

当你熟悉了基础功能,可以探索更多强大能力:

  • 探索丰富插件:试试角色扮演文字冒险聊天记录总结联网搜索等插件,极大丰富机器人的可玩性和实用性。

  • 深入研究知识库:通过LinkAI 平台的能力,可以更精细地管理知识库,打造真正专属的AI助手。

  • 接入更多平台:除了个人微信,还可以尝试将机器人部署到企业微信公众号飞书钉钉,赋能团队协作。

  • 了解替代方案:如果对网页版协议有顾虑,可以了解基于 Hook 技术或 RPA(机器人流程自动化) 的方案,它们各有优劣。

总而言之,chatgpt-on-wechat 以其强大的功能和极低的使用门槛,为我们在最熟悉的通讯工具中打开了一扇通往AI世界的大门。无论你是普通用户还是开发者,都值得一试,亲身感受AI带来的高效与便捷。

希望这篇介绍能帮助你快速上手。如果你在使用的过程中发现了更有趣的玩法,或者遇到了任何问题,欢迎在评论区分享与讨论!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐