Atomgit 提供限时免费大模型调用啦!有qwen和glm5

最近想玩小龙虾openclaw,但是大模型调用不足,幸好Atomgit提供免费大模型调用啦!

踩坑完毕,这三个免费模型也没法用在小龙虾上。

三种模型:

选用模型

首先登录网站:Atomgit AI社区 - 昇腾模型服务

然后找到模型,比如glm-5模型

废弃部分(这里走了弯路了)

点击api文档:

python 复制代码
import http.client
import json

conn = http.client.HTTPSConnection("api.atomgit.com")
payload = json.dumps({
  "temperature": 0,
  "top_k": 0,
  "top_p": 0,
  "frequency_penalty": 0,
  "messages": [
    "string"
  ],
  "model": "string",
  "maxTokens": 0
})
headers = {
  'Content-Type': 'application/json',
  'Accept': 'application/json',
  'Authorization': '个人令牌'
}
conn.request("POST", "/api/v5/chat/completions", payload, headers)
res = conn.getresponse()
data = res.read()
print(data.decode("utf-8"))

说实话,我没看懂,为什么不用openai调用啊?

当然我也不想屈从与openai,问题是目前openai是最兼容的啊!

curl是这样的:

python 复制代码
curl -L 'https://api.atomgit.com/api/v5/chat/completions' \
-H 'Content-Type: application/json' \
-H 'Accept: application/json' \
-H 'Authorization: 个人令牌' \
-d '{
  "temperature": 0,
  "top_k": 0,
  "top_p": 0,
  "frequency_penalty": 0,
  "messages": [
    "string"
  ],
  "model": "string",
  "maxTokens": 0
}'

调用模型

是我唐突了,给了例子的,应该这样用,点击在线体验:

然后就能看到调用代码了:

Max Tokens 最大可以设置为4k,所以这些模型可以一试,但无法再AI agent如OpenClaw里面使用。

详细curl调用::

python 复制代码
curl https://api-ai.gitcode.com/v1/chat/completions \
    -H "Authorization: Bearer mhhsCRBz13zFRKjVWbfPkG9P" \
    -H 'Content-Type: application/json' \
    -d '{
      "model": "zai-org/GLM-5",
      "messages": [
        {
          "role": "user",
          "content": "告诉我一个有关宇宙的有趣事实?"
        }
      ],
      "stream": true,
      "max_tokens": 2048,
      "temperature": 0.6,
      "top_p": 0.95,
      "top_k": 50,
      "frequency_penalty": 0,
      "thinking_budget": 32768
    }'

openai调用是这样的:

python 复制代码
import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api-ai.gitcode.com/v1",
    api_key="mhhsCRBz13zFRKjVWbfPkG9P",
)

stream = client.chat.completions.create(
    model="zai-org/GLM-5",
    messages=[
        {
            "role": "user",
            "content": "告诉我一个有关宇宙的有趣事实?"
        }
    ],
    stream=True,
    max_tokens=2048,
    temperature=0.6
)
for chunk in stream:
    print(chunk.choices[0].delta.content, end = "")

看了一下,key可能经常变动的。

qwen模型是这样的:

python 复制代码
import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api-ai.gitcode.com/v1",
    api_key="ibhrNs-rpyPoyLaXUvd6xvM",
)

stream = client.chat.completions.create(
    model="Qwen/Qwen3.5-122B-A10B",
    messages=[
        {
            "role": "user",
            "content": [
                {
                    "type": "image_url",
                    "image_url": {
                        "url": "data:image/jpeg;base64,iVBORw0KGgoAAAANSUhEUgAA..."
                    }
                },
                {
                    "type": "text",
                    "text": "用一句话描述这张图片"
                }
            ]
        }
    ],
    stream=True,
    max_tokens=1024,
    temperature=0.7
)
for chunk in stream:
    print(chunk.choices[0].delta.content, end = "")

第一次晚上试用的时候发现很长时间没有响应,我估计服务被冲了吧?

后来第二天再测试,就正常了。

后来仔细看了一下,它的上限:调用上限500 次/分钟

是全国所有人的总上限吗?那没法玩了...

速度

速度,有时候开了thinging之后有些慢:

推理

42秒内完成

总结

免费调用,但是token最大4k,所以无法在OpenClaw等AI智能体里使用。

刚开始服务有时候不太稳定,现在可能越来越稳定了。

对一些小项目,比如智能问答,酒馆应用等,还是可以一用的。

相关推荐
猿类崛起@10 小时前
CherryStudio配置本地MCP服务器实现FileSystem本地文件系统读写操作
人工智能·学习·程序员·大模型·agent·ai大模型·mcp
AI医影跨模态组学10 小时前
Cell Rep Med(IF=10.6)北京清华长庚医院李国新&云南省肿瘤医院放射科李振辉等团队:基于TME的深度学习模型预测胃癌治疗反应
人工智能·深度学习·医学·医学影像·医学科研
宇擎智脑科技10 小时前
Claude Code 源码分析(二):Shell 命令安全体系 —— AI Agent 执行终端命令的纵深防御设计
人工智能·安全·claude code
TianFuRuanJian10 小时前
当车辆热管理系统遇到工业AI
人工智能·汽车
AI营销先锋10 小时前
原圈科技AI市场分析:破解增长瓶颈,领航智能营销
大数据·人工智能
AI创界者10 小时前
基于 C++ 架构的高性能远程管理技术探究(附 V7.4 优化解析)
人工智能·架构
KvPiter10 小时前
AI辅助开发行业动态(202603)
人工智能·编辑器
算法-大模型备案 多米10 小时前
大模型备案实操指南:材料、流程与避坑要点
大数据·网络·人工智能·算法·文心一言
minhuan10 小时前
医疗AI智能体:构筑长效对话链路:智能体多轮对话记忆机制与上下文完整处理实际.132
人工智能·多轮对话记忆·智能体上下文处理·构建ai智能体
AI职业加油站10 小时前
数据要素时代:大数据治理工程师证书深度解码
大数据·开发语言·人工智能·python·数据分析