今年,随着各大GLM模型的开源和算力的提升,尤其是最近比较火热的月之暗面的Kimi 模型,AI应用场景中的各种智能体如雨后春笋般涌现。许多同学们纷纷表达了加入AI应用的学习和测试的愿望,然而各大模型提供商所提供的API的免费tokens在数量和其他方面都存在着不同的限制,这给我们这些白嫖党带来了一定的不便。今天,在GitHub上,我发现了这个名为kimi-free-api的项目,它为我们学习和测试使用GLM模型提供了极大的便利。
项目介绍
支持高速流式输出、支持多轮对话、支持联网搜索、支持长文档解读、支持图像解析,零配置部署,多路token支持,自动清理会话痕迹。
与ChatGPT接口完全兼容。
github地址: github.com/LLM-Red-Tea...
_20240414225639.jpg
虽然Kimi新用户注册后会免费赠送 15 元额度。如果赠送额度用完了,你还想继续免费体验,那么,这个开源项目一定要试试。以下几个大模型也是一样。
阶跃星辰 (跃问StepChat) 接口转API step-free-api:https://github.com/LLM-Red-Team/step-free-api
阿里通义 (Qwen) 接口转API qwen-free-api:https://github.com/LLM-Red-Team/qwen-free-api
ZhipuAI (智谱清言) 接口转API glm-free-api:https://github.com/LLM-Red-Team/glm-free-api
秘塔AI (metaso) 接口转API metaso-free-api:https://github.com/LLM-Red-Team/metaso-free-api
聆心智能 (Emohaa) 接口转API emohaa-free-api:https://github.com/LLM-Red-Team/emohaa-free-api
接入准备
- 从 kimi.moonshot.cn 获取refresh_token
进入kimi随便发起一个对话,然后F12打开开发者工具,从Application > Local Storage中找到refresh_token的值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN
_20240414230519.jpg
- 多账号接入
目前kimi限制普通账号每3小时内只能进行30轮长文本的问答(短文本不限),你可以通过提供多个账号的refresh_token并使用,拼接提供:
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
每次请求服务会从中挑选一个。
Docker-compose部署服务
- 创建docker-compose.yml文件
在部署目录下创建docker-compose.yml文件,写入以下内容:
yaml
version: '3.3'
services:
kimi-free-api:
container_name: kimi-free-api
image: vinlic/kimi-free-api:latest
restart: always
ports:
- "8000:8000"
environment:
- TZ=Asia/Shanghai
- 启动服务
在docker-compose.yml文件的同级目录下使用以下命令启动服务
docker-compose up -d
使用接口
- 配置模型
我们此处是以dify
为例使用的,使用其它开源服务也是可以的,比如chatgpt-next-web-proxy
,lobe-chat
等。
在dify
的设置-->模型供应商->模型列表中选择OpenAI-API-compatible
->添加模型
_20240414232103.png
添加如下内容:
_20240414232933.jpg
内容填写完毕后点击保存,这样我们模型就配置完毕了
- 测试api
模型配置完毕后我们在dify的工作室中创建一个简单的聊天应用
_20240414233325.jpg
创建完成后发布,我们在探索中使用这个应用
_20240414233607.jpg
可以看到,我们已经可以使用这个api接口了。
总结
Kimi-free-api项目的出现,不仅为AI爱好者和开发者提供了便利,也推动了开源社区的发展。通过这些工具,我们可以更加便捷地探索AI的无限可能,共同期待未来AI技术带来的更多惊喜。