Atomgit 提供限时免费大模型调用啦!有qwen和glm5

最近想玩小龙虾openclaw,但是大模型调用不足,幸好Atomgit提供免费大模型调用啦!

踩坑完毕,这三个免费模型也没法用在小龙虾上。

三种模型:

选用模型

首先登录网站:Atomgit AI社区 - 昇腾模型服务

然后找到模型,比如glm-5模型

废弃部分(这里走了弯路了)

点击api文档:

python 复制代码
import http.client
import json

conn = http.client.HTTPSConnection("api.atomgit.com")
payload = json.dumps({
  "temperature": 0,
  "top_k": 0,
  "top_p": 0,
  "frequency_penalty": 0,
  "messages": [
    "string"
  ],
  "model": "string",
  "maxTokens": 0
})
headers = {
  'Content-Type': 'application/json',
  'Accept': 'application/json',
  'Authorization': '个人令牌'
}
conn.request("POST", "/api/v5/chat/completions", payload, headers)
res = conn.getresponse()
data = res.read()
print(data.decode("utf-8"))

说实话,我没看懂,为什么不用openai调用啊?

当然我也不想屈从与openai,问题是目前openai是最兼容的啊!

curl是这样的:

python 复制代码
curl -L 'https://api.atomgit.com/api/v5/chat/completions' \
-H 'Content-Type: application/json' \
-H 'Accept: application/json' \
-H 'Authorization: 个人令牌' \
-d '{
  "temperature": 0,
  "top_k": 0,
  "top_p": 0,
  "frequency_penalty": 0,
  "messages": [
    "string"
  ],
  "model": "string",
  "maxTokens": 0
}'

调用模型

是我唐突了,给了例子的,应该这样用,点击在线体验:

然后就能看到调用代码了:

Max Tokens 最大可以设置为4k,所以这些模型可以一试,但无法再AI agent如OpenClaw里面使用。

详细curl调用::

python 复制代码
curl https://api-ai.gitcode.com/v1/chat/completions \
    -H "Authorization: Bearer mhhsCRBz13zFRKjVWbfPkG9P" \
    -H 'Content-Type: application/json' \
    -d '{
      "model": "zai-org/GLM-5",
      "messages": [
        {
          "role": "user",
          "content": "告诉我一个有关宇宙的有趣事实?"
        }
      ],
      "stream": true,
      "max_tokens": 2048,
      "temperature": 0.6,
      "top_p": 0.95,
      "top_k": 50,
      "frequency_penalty": 0,
      "thinking_budget": 32768
    }'

openai调用是这样的:

python 复制代码
import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api-ai.gitcode.com/v1",
    api_key="mhhsCRBz13zFRKjVWbfPkG9P",
)

stream = client.chat.completions.create(
    model="zai-org/GLM-5",
    messages=[
        {
            "role": "user",
            "content": "告诉我一个有关宇宙的有趣事实?"
        }
    ],
    stream=True,
    max_tokens=2048,
    temperature=0.6
)
for chunk in stream:
    print(chunk.choices[0].delta.content, end = "")

看了一下,key可能经常变动的。

qwen模型是这样的:

python 复制代码
import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api-ai.gitcode.com/v1",
    api_key="ibhrNs-rpyPoyLaXUvd6xvM",
)

stream = client.chat.completions.create(
    model="Qwen/Qwen3.5-122B-A10B",
    messages=[
        {
            "role": "user",
            "content": [
                {
                    "type": "image_url",
                    "image_url": {
                        "url": "data:image/jpeg;base64,iVBORw0KGgoAAAANSUhEUgAA..."
                    }
                },
                {
                    "type": "text",
                    "text": "用一句话描述这张图片"
                }
            ]
        }
    ],
    stream=True,
    max_tokens=1024,
    temperature=0.7
)
for chunk in stream:
    print(chunk.choices[0].delta.content, end = "")

第一次晚上试用的时候发现很长时间没有响应,我估计服务被冲了吧?

后来第二天再测试,就正常了。

后来仔细看了一下,它的上限:调用上限500 次/分钟

是全国所有人的总上限吗?那没法玩了...

速度

速度,有时候开了thinging之后有些慢:

推理

42秒内完成

总结

免费调用,但是token最大4k,所以无法在OpenClaw等AI智能体里使用。

刚开始服务有时候不太稳定,现在可能越来越稳定了。

对一些小项目,比如智能问答,酒馆应用等,还是可以一用的。

相关推荐
耶夫斯计8 小时前
Context Engineering:构建高可靠性 AI Agent 的底层逻辑
人工智能·python
C灿灿数模8 小时前
2026五一数学建模C题思路模型,解析2025五一数学建模C题
人工智能·机器学习·逻辑回归
輕華8 小时前
LSTM实战(下篇):微博情感分析——训练策略、早停机制与推理部署
人工智能·rnn·lstm
黑金IT8 小时前
AI自媒体自动化与Web Coding深度实战
人工智能·自动化·媒体
MaoziShan8 小时前
CMU Subword Modeling | 22 Phonological Similarity and Cognate Detection
人工智能·语言模型·自然语言处理·分类
智星云算力8 小时前
算力民主化的 “临界点”:RTX 5090 专属算力平台专项测评与租用实战分析
大数据·人工智能·gpu算力·智星云·gpu租用
掘金安东尼8 小时前
Cloudflare :Agent Readiness 评分来了!你的网站,AI 代理能"看懂"吗?
人工智能
我是发哥哈8 小时前
主流AI培训机构能力横向评测:核心维度与选型要点解析
大数据·人工智能·学习·机器学习·ai·chatgpt·aigc
QYR-分析8 小时前
电气化浪潮下,电池液体冷却器行业发展全景解析
大数据·人工智能
ai产品老杨8 小时前
架构解析:基于GB28181/RTSP的AI视频管理平台——支持X86/ARM异构计算、Docker容器化与源码交付
人工智能·架构·音视频