我把deepseek等大模型接入了微信公众号,打造个人AI助手

前言

最近deepseek大模型可是火出了圈,给国产大模型公司点赞。于是乎去deepseek试了一下效果,奈何太多人使用了,问两句来一句 "服务器繁忙,请稍后再试",体验感实在太差了。

作为程序员,怎么能忍受?于是乎去寻找deepseek供应商,对比了下常用的供应商,比如阿里百炼的通义、字节火山的豆包、腾讯的混元、fireworks、together等等。发现其中还真有不少好用且稳定的供应商。

于是萌生了接入微信公众号,自己独享,速度快的起飞。直接在微信上使用,岂不美滋滋,说干就干。

cow项目

chatgpt-on-wechat(简称CoW),项目地址如下:cow

CoW开源项目,支持将deepseek、OpenAI、通义、豆包、文心一言等大模型接入到我们的办公工具上面,包括但不限于微信公众号、飞书、钉钉等

1、提前准备

  1. 你需要登录deepseek官网(或者其他提供商)获取你自己的专属API-KEYS
  2. 登录公众号后台,"在左侧菜单选择 "设置与开发 - 基本配置 - 服务器配置"获取你专属的url、token等信息

以上信息请提前准备好

2、配置cow项目

  1. 克隆项目到自己服务器上面,可以使用linux部署,也可以使用docker部署
  2. pip3 install -r requirements.txt (请使用python3.8+版本)
  3. 打开config.json配置文件,把刚才准备好的密钥填进来
yaml 复制代码
{
  "channel_type": "wechatmp",
  "model": "你的大模型,可以是deepseek,也可以是qwen等等",
  "open_ai_api_key": "apikey",
  "open_ai_api_base": "https://api.deepseek.com/v1",
  "single_chat_prefix": [""],
  "single_chat_reply_prefix": "",

  "wechatmp_app_id": "wx6e**********0b5",
  "wechatmp_app_secret": "a204ce**********a12007a5",
  "wechatmp_token": "保持和公众号一致即可",
  "wechatmp_aes_key": "Hego**************2VeCc8875",
  "wechatmp_port": 8080,

  "clear_memory_commands": ["#清除记忆"],
  "conversation_max_tokens": 1000,
  "expires_in_seconds": 3600,
  "character_desc": "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。",
  "temperature": 0.8,
  "subscribe_msg": "感谢您的关注!\n程序员博博公众号已接入DeepSeek-V3、阿里qwen-max等模型,可以自由对话。\n受微信限制,较长的输出会先回复一句【正在思考中】,等待片刻后发送任意文字即可获取输出。如需清楚记忆,请回复:#清除记忆",
  "use_linkai": false
}
  1. 然后使用python3 app.py, 启动项目即可。
  2. 如果以上都没问题,那么恭喜你,你的公众号现在已经拥有deepseek大模型的能力,愉快的玩耍吧。
  3. 如果遇到了问题,请参考cow的官方文档

3、最终效果

这里我尝试了一下deepseek、qwen、文心一言等。发觉qwen是比较稳定快速的,所以最终我接入了阿里的qwen大模型

最后

最后,微信公众号接入了deepseek等大模型,非常的好用,可以成为自己的AI小助手,有问题,直接在微信上问他即可,非常的方便,专属于你的小助手。

也希望大家有条件可以尝试接入一下,接入的过程中肯定会遇到各种各样的奇葩问题,但大家一一解决的过程就是成长,我差不多利用下班时间2天搞定了。