智谱清言提供的免费模型及工具推荐

前言

正在找免费模型的小伙伴可以看过来,最近发现智谱清言提供了福利专区,包含免费模型和免费工具的调用,想白嫖或者在某些场景想使用免费模型的小伙伴可以尝试一下。

BigModel福利专区

官网地址:bigmodel.cn/dev/activit...

福利专区提供了6个免费模型和2个免费工具:

免费模型:

  • GLM-4.1V-Thinking-Flash:智谱推出的免费视觉推理模型。它在图表/视频理解、前端Coding、GUI任务等场景表现出色,核心能力达到全面新SOTA。模型引入思维链推理机制,显著提升了复杂场景中的回答精准度与可解释性。
  • GLM-4-Flash-250414:智谱AI首个免费的大模型API,在实时网页检索、长上下文处理、多语言支持等方面表现出色,适用于智能问答、摘要生成和文本数据处理等多种应用场景
  • GLM-4V-Flash:智谱推出的首个完全免费的图像理解模型。在图像识别、图像问答、图像推理等多项任务中展现出卓越的性能
  • GLM-Z1-Flash:智谱首个永久免费调用的推理模型,它在数学逻辑推理、长文档处理、代码生成等场景表现十分出色,更适用于编程、数学、科学等任务。
  • Cogview-3-Flash:智谱AI推出的免费图像生成模型,能够根据用户指令生成符合要求且美学评分更高的图像。
  • CogVideoX-Flash:智谱 AI 推出的免费的视频生成模型,不仅支持文生视频,还支持图生视频

免费工具:

  • 文档内容抽取:提取文件内容并基于文件内容进行问答
  • Web-Search-Pro:在传统搜索引擎网页抓取信息,排序的能力基础上,增强了意图识别,支持搜索结果的流式输出

优势

  • 免费使用,无需付费

限制

申请API Key

API Key后续可以复制,不用担心丢失问题

官网地址:www.bigmodel.cn/usercenter/...

在智谱官网点击【秘钥】进入API Keys列表,点击【添加新的API Key】创建一个新的密钥

GLM-4.1V-Thinking-Flash(视觉推理)

功能特色

  • 图文理解(Image General):精准识别并综合分析图像与文本信息;
  • 数学与科学推理(Math & Science):支持持复杂题解、多步演绎与公式理解;
  • 视频理解(Video):具备时序分析与事件逻辑建模能力;
  • GUI 与网页智能体任务(UI2Code、Agent):理解界面结构,辅助自动化操作;
  • 视觉锚定与实体定位(Grounding):语言与图像区域精准对齐,提升人机交互可控性。

在线体验

官网地址:www.bigmodel.cn/trialcenter...

点击链接直接进入体验中心,在这里可以切换模型体验

在Cherry Studio中使用

在模型服务中配置智谱AI模型【GLM-4.1V-Thinking-Flash】

点击模型右侧设置,勾选【视觉】,否则将无法上传文件

配置完成后即可在Chat中体验

对Cherry Studio使用不太熟悉的小伙伴可以看往期内容:

GLM-4-Flash/GLM-4-Flash-250414(自然语言处理)

功能特色

  • 超长上下文:模型具备128K上下文,单次提示词可以处理的文本长度相当于300页书籍。这样的能力使得GLM-4-Flash能够更好地理解和处理长文本内容,适用于需要深入分析上下文的场景。
  • 多语言支持:GLM-4-Flash拥有强大的多语言支持能力,能够支持多达26种语言。这为全球用户提供了多语言交互服务,拓宽了模型的应用范围。
  • 网页检索:支持外部工具调用,通过网络搜索获取信息,以增强语言模型输出的质量和时效性。

在线体验

官网地址:www.bigmodel.cn/trialcenter...

在Cherry Studio中使用

在模型服务中配置智谱AI模型【GLM-4-Flash】

GLM-4-Flash支持联网模式,这里我们将【联网】模式勾选上

配置完成后就可以正常使用了

GLM-4V-Flash(图像理解)

功能特色

  • 图像理解:GLM-4V-Flash能够自动为图片生成精确的描述性文本,帮助用户深入理解图像内容。它能够识别图像中的主要对象和场景,便于图像内容的组织和管理。
  • 视觉推理:模型拥有强大的视觉推理能力,能够理解图像中各对象之间的关系。它支持用户通过提问的方式获取图像相关信息,提升了模型的交互性和实际应用价值。
  • 多语言支持:GLM-4V-Flash支持中文、英语、日语、韩语等多种语言,极大地扩展了其应用范围,使其能够服务于全球不同语言的用户。

在线体验

官网地址:www.bigmodel.cn/trialcenter...

在Cherry Studio中使用

在模型服务中配置智谱AI模型【GLM-4V-Flash】,这里无需额外配置直接默认即可

GLM-Z1-Flash(推理模型)

功能特色

  • 复杂任务推理:GLM-Z1-Flash 引入了更多推理类数据,并在对齐阶段深度优化了通用能力。无论是数学证明中的逐步推导、长文档中的因果分析,还是代码生成时的边界条件检查,模型均能拆分任务层级,确保最终输出的严谨性,为更多复杂任务的解决提供了支持。
  • 轻量级应用:GLM-Z1-Flash 解放了开发者在推理模型部署硬件方面的限制,更轻量级、更高速,完全免费调用,同时支持高并发场景下的稳定服务,实现高性能和高性价比的双重突破。

在线体验

官网地址:www.bigmodel.cn/trialcenter...

在Cherry Studio中使用

在模型服务中配置智谱AI模型【GLM-Z1-Flash】

点击模型设置,在【更多设置】中勾选【推理】

Cogview-3-Flash(图像生成)

功能特色

  • 多分辨率支持:该模型支持多种分辨率,包括1024x1024、768x1344、864x1152、1344x768、1152x864、1440x720、720x1440等,能够满足专业设计、广告宣传、艺术创作等领域对图像质量的高标准要求。
  • 创意丰富多样:模型能够根据用户输入的文本描述,生成具有丰富创意和想象力的图像,为创意工作者提供了广泛的灵感来源和创作可能性。
  • 推理速度快:该模型具备实时生成图像的能力,响应速度快,能够迅速满足用户对图像生成的需求。

在线体验

官网地址:www.bigmodel.cn/trialcenter...

在Cherry Studio中使用

不支持API形式调用,可以选择试用智普SDK调用

使用Python代码如下:

ini 复制代码
import os
from zhipuai import ZhipuAI
api_key = os.getenv("ZHIPU_API_KEY")
client = ZhipuAI(api_key=api_key) # 请填写您自己的APIKey

response = client.images.generations(
    model="cogview-3-flash", #填写需要调用的模型编码
    prompt="一只可爱的小猫咪",
)
print(response.data[0].url)

效果看着还不错

CogVideoX-Flash(视频生成)

新特性

  • 沉浸式AI音效:全新加入的AI音效功能,通过对不同场景元素的精准识别,如动作类型、场景氛围、物体特征等,智能生成适配的音效组合,为观众带来专业级的视听融合体验。
  • 4K高清画质呈现:图生视频功能支持多种分辨率输出,最高可达 3840x2160(4K)超高清标准,同时涵盖 720x480、1024x1024、1280x960、960x1280、1920x1080、1080x1920、2048x1080 等常用分辨率选项,展现细腻画质,提升视觉盛宴。
  • 10 秒视频时长拓展:图生视频最高支持10秒视频长度,满足更多场景需求。
  • 60fps 高帧率输出:图生视频最高支持60fps,流畅度大幅提升,捕捉每一个精彩瞬间。

在线体验

官网地址:www.bigmodel.cn/trialcenter...

在Cherry Studio中使用

不支持API形式调用,可以选择试用智普SDK调用

使用Python代码如下:

ini 复制代码
import os
from zhipuai import ZhipuAI
api_key = os.getenv("ZHIPU_API_KEY")
client = ZhipuAI(api_key=api_key) # 请填写您自己的APIKey
# 文生图,请求消息
response = client.videos.generations(
    model="cogvideox-flash",
    prompt="比得兔开小汽车,游走在马路上,脸上的表情充满开心喜悦。",
    quality="speed",  # 输出模式,"quality"为质量优先,"speed"为速度优先
    with_audio=True,
    size="1920x1080",  # 视频分辨率,支持最高4K(如: "3840x2160")
    fps=30,  # 帧率,可选为30或60
)
print(response.id)
# 查询结果,需要单独查询
response2 = client.videos.retrieve_videos_result(
    id=response.id
)
print("response2", response2)

文档内容抽取

目前服务报错,可以再观望一下

文件问答支持通过提取文件(PDF、DOC、PPT、JPG等格式)的内容,并基于文件内容进行问答:

  • 利用开放平台的文件上传功能,完成文件的上传
  • 通过文件内容抽取接口,提取上传文件中的的文本
  • 将抽取到的文本内容至messages列表中

代码如下:

ini 复制代码
import os
from zhipuai import ZhipuAI
from pathlib import Path
import json
api_key = os.getenv("ZHIPU_API_KEY")
print("ZhipuAI API Key:", api_key)
# 填写您自己的APIKey
client = ZhipuAI(api_key=api_key)
# 格式限制:.PDF .DOCX .DOC .XLS .XLSX .PPT .PPTX .PNG .JPG .JPEG .CSV .PY .TXT .MD .BMP .GIF
# 大小:单个文件50M、总数限制为100个文件
file_object = client.files.create(file=Path("abc.pdf"), purpose="file-extract")
# 获取文本内容
file_content = json.loads(client.files.content(file_id=file_object.id).content)["content"]
# 生成请求消息
message_content = f"请对\n{file_content}\n的内容进行分析,并撰写一份论文摘要。"
response = client.chat.completions.create(
    model="glm-4-long",  
    messages=[
        {"role": "user", "content": message_content}
    ],
)
print(response.choices[0].message)

Web-Search-Pro(现在收费了)

Web-Search-Pro 将从 2025 年 3 月 14 日 0 时 起结束免费服务,并开始按 0.03 元/次收费

专业版联网搜索在传统搜索引擎网页抓取、排序的能力基础上,增强了意图识别,支持搜索结果的流式输出。搜索工具能更有效地结合在大语言模型应用中,提高用户获取信息的效率,并一定程度上解决大语言模型所面临的幻觉问题。

python 复制代码
import asyncio
import os
import httpx
import requests
import uuid
api_key = os.getenv("ZHIPU_API_KEY")
def web_search_v4_sync():
    msg = [
        {
            "role": "user",
            "content":"中国队奥运会拿了多少奖牌"
        }
    ]
    tool = "web-search-pro"
    url = "https://open.bigmodel.cn/api/paas/v4/tools"
    request_id = str(uuid.uuid4())
    data = {
        "request_id": request_id,
        "tool": tool,
        "stream": False,
        "messages": msg
    }
    resp = requests.post(
        url,
        json=data,
        headers={'Authorization': api_key},
        timeout=300
    )
    print(resp.content.decode())
    # 解析返回结果
    res_data = []
    choices = resp.json()["choices"]
    for choice in choices:
        for tool_call in choice["message"]["tool_calls"]:
            # 检查 'search_result' 是否存在于 tool_call 中
            if 'search_result' in tool_call:
                search_results = tool_call["search_result"]
                if search_results:
                    [res_data.append(result["content"]) for _, result in enumerate(search_results)]
    return res_data
async def web_search_v4_async(query: str) -> str:
    """
    Search the web for information.
    Args:
        query (str): The query to search for.
    Returns:
        str: The result of the search.
    """
    async with httpx.AsyncClient() as client:
        # 从环境中获取api key
        response = await client.post(
            "https://open.bigmodel.cn/api/paas/v4/tools", 
            headers={ 'Authorization': api_key},
            json={
                "request_id": str(uuid.uuid4()),
                "tool": "web-search-pro",
                "messages": [
                    {
                        "role": "user",
                        "content": query
                    }
                ],
                "stream": False
            }
        )
        # 解析返回结果
        res_data = []
        choices = response.json()["choices"]
        for choice in choices:
            for tool_call in choice["message"]["tool_calls"]:
                # 检查 'search_result' 是否存在于 tool_call 中
                if 'search_result' in tool_call:
                    search_results = tool_call["search_result"]
                    if search_results:
                        [res_data.append(result["content"]) for _, result in enumerate(search_results)]
        return res_data

async def async_run():
    print(await web_search_v4_async("中国队奥运会拿了多少奖牌"))
if __name__ == '__main__':
    # 同步
    # print(web_search_v4_sync())
    # 异步
    asyncio.run(async_run())

友情提示

见原文:智谱清言提供的免费模型及工具推荐

本文同步自微信公众号 "程序员小溪" ,这里只是同步,想看及时消息请移步我的公众号,不定时更新我的学习经验。

相关推荐
饼干哥哥1 个月前
GLM-4.5 发布,50块钱包月爽玩。真实测评:六大模型混战,谁能一键生成“真·可用”的应用?
chatglm (智谱)
星际码仔1 个月前
Zread 和 DeepWiki 怎么选?一张图全搞懂
github·chatglm (智谱)
几米哥5 个月前
从思考到行动:AutoGLM沉思如何让AI真正"动"起来
llm·aigc·chatglm (智谱)
星际码仔5 个月前
AutoGLM沉思,仍然没有摆脱DeepResearch产品的通病
人工智能·ai编程·chatglm (智谱)