AI Ping 赋能:基于 GLM-4.7(免费!)+ LangChain + Redis 打造智能AI聊天助手

AI Ping 赋能:基于 GLM-4.7(免费!)+ LangChain + Redis 打造智能AI聊天助手

本文章目录

  • [AI Ping 赋能:基于 GLM-4.7(免费!)+ LangChain + Redis 打造智能AI聊天助手](#AI Ping 赋能:基于 GLM-4.7(免费!)+ LangChain + Redis 打造智能AI聊天助手)
    • 摘要
    • [GLM-4.7 & MiniMax M2.1 实测上线!AI Ping 免费用,速冲!](#GLM-4.7 & MiniMax M2.1 实测上线!AI Ping 免费用,速冲!)
    • 一、智能AI聊天助手应用展示
      • [(一) 应用简介](#(一) 应用简介)
      • [(二) 核心功能演示](#(二) 核心功能演示)
        • [1. 流式对话交互](#1. 流式对话交互)
        • [2. 对话记忆能力](#2. 对话记忆能力)
    • [二、AI Ping:智能聊天助手的核心支撑平台](#二、AI Ping:智能聊天助手的核心支撑平台)
      • [(一) 为什么选择 AI Ping 对接 GLM-4.7?](#(一) 为什么选择 AI Ping 对接 GLM-4.7?)
      • [(二) AI Ping 对 GLM-4.7 的核心赋能](#(二) AI Ping 对 GLM-4.7 的核心赋能)
        • [1. 统一 API 简化集成](#1. 统一 API 简化集成)
        • [2. 智能路由保障稳定性](#2. 智能路由保障稳定性)
        • [3. 性能可视化与成本优化](#3. 性能可视化与成本优化)
    • [三、技术实现流程:GLM-4.7 + LangChain + Redis + AI Ping](#三、技术实现流程:GLM-4.7 + LangChain + Redis + AI Ping)
      • [(一) 前期准备:AI Ping 注册与配置](#(一) 前期准备:AI Ping 注册与配置)
      • [(二) 核心配置文件](#(二) 核心配置文件)
      • [(三) 核心代码解析](#(三) 核心代码解析)
        • [1. LLM 模型初始化](#1. LLM 模型初始化)
        • [2. 智能体创建](#2. 智能体创建)
        • [3. 对话处理与流式响应](#3. 对话处理与流式响应)
      • [(四) 运行与部署](#(四) 运行与部署)
    • 四、总结与扩展
      • [(一) 核心价值](#(一) 核心价值)
      • [(二) 扩展方向](#(二) 扩展方向)
    • 五、参考资料

摘要

本文介绍一款基于 AI Ping 平台搭建的智能AI聊天助手,通过集成 AI Ping提供的免费 GLM-4.7 大模型、LangChain 智能体框架与 Redis 缓存技术,实现"流式对话 + 对话记忆 + 工具调用"的全场景智能交互体验。应用依托 AI Ping 提供的统一 API、智能路由与多供应商性能保障能力,解决大模型聊天助手开发中"模型集成繁、对话记忆难、服务稳定性差"的核心痛点;借助 LangChain 实现智能体编排与工具扩展,通过 Redis 高效存储和管理对话历史,最终基于 FastAPI 构建高性能流式对话接口,为用户提供专业、实时且具备记忆能力的智能聊天服务。

GLM-4.7 & MiniMax M2.1 实测上线!AI Ping 免费用,速冲!

🔥 重磅福利:AI Ping 平台现已免费开放 GLM-4.7、MiniMax M2.1 两大旗舰模型!无需付费,注册即享高并发调用、稳定响应,邀友注册双方各得 20 元算力点(全场通用、上不封顶)!

目前AI Ping正在进行福利活动,用专属福利链接即可免费获得30算力。快通过专属福利链接进行注册吧!

https://aiping.cn/#?channel_partner_code=GQCOZLGJ

一、智能AI聊天助手应用展示

(一) 应用简介

智能AI聊天助手是一款聚焦"全场景智能交互"的工具,针对传统聊天机器人"无记忆、无实时信息、响应卡顿"的痛点,整合 AI Ping 平台的 GLM-4.7 模型能力、LangChain 智能体编排能力与 Redis 对话记忆能力,实现三大核心功能:

  1. 支持日常自然对话与专业问答,响应精准且友好;
  2. 集成搜索工具获取实时信息,解决静态模型"信息滞后"问题;
  3. 基于 Redis 存储并摘要对话历史,实现长对话记忆能力;
  4. 流式响应输出,模拟真人打字效果,提升交互体验。

应用后端采用 FastAPI + Python 技术栈,结合 LangChain 构建智能体、Redis 做会话缓存,前端适配 Vue 3 + Element Plus 实现交互界面,整体架构轻量化且高性能,单会话响应延迟控制在 100ms 内,支持高并发用户访问。

(二) 核心功能演示

1. 流式对话交互

用户输入问题后,助手以流式方式逐字返回响应,界面呈现"打字机"效果,避免用户长时间等待。例如询问"给我讲个笑话",助手会实时输出内容,总响应时间不超过 5 秒,且回答精准匹配 GLM-4.7 的工程交付能力、可控推理等核心特点。

2. 对话记忆能力

基于 Redis 存储用户对话历史并生成摘要,助手可跨轮次理解上下文。例如:

  • 用户第一轮:"你听说过AI ping吗?";
  • 助手回复:"您提到的"AI ping"可能是指 Humane AI Pin (或者简称 AI Pin),这是一款由 Humane 公司推出的备受关注的可穿戴 AI 硬件设备。 如果您指的是这个,以下是关于它的一些关键信息: 1. 无屏幕设计 :它没有传统的触摸屏,主要通过语音、手势和触摸板进行交互。 2. 激光投影 :设备可以将信息(如时间、通知、消息)直接投射到用户的手掌上。 3. AI 核心 :它深度集成了大语言模型(LLM),旨在作为一个智能助手,帮助处理发送信息、导航、翻译等任务,其愿景是减少人们对智能手机的依赖。 4. 市场反响 :虽然概念非常前卫,试图重新定义人机交互,但在发布初期,产品在续航、发热、响应速度和实用性方面遇到了一些挑战,评价褒贬不一。 --- 如果您指的不是 AI Pin,而是其他含义: * 网络领域 :可能指利用 AI 技术来优化网络中的 Ping 值(延迟检测)或进行网络故障诊断。 * 特定工具:可能是指某个特定的小众工具或软件。 如果以上都不是您想问的内容,请您补充更多细节,我会为您提供更准确的信息。";
  • 用户第二轮:"我前面问了你些什么问题";
  • 助手可通过上下文给出回答:"根据我们的对话记录,您之前主要问了以下内容: 1. 身份确认 :询问了我的身份和能力。 2. 时间查询 :询问了今天的日期,确认为 2025年12月23日 。 3. 娱乐互动 :让我讲一个笑话,我讲了一个关于蜗牛被乌龟撞倒的笑话。 4. 信息查询 :询问了"AI ping"的含义,我为您详细解释了 Humane AI Pin(一款可穿戴设备)以及其他可能的含义。 如果您想回顾具体细节或继续讨论某个话题,请随时告诉我!"。

二、AI Ping:智能聊天助手的核心支撑平台

作为连接 GLM-4.7 模型与业务系统的核心桥梁,AI Ping 平台凭借"评测 + 调用 + 智能路由"的一体化 MaaS 服务,成为聊天助手稳定运行的关键保障,解决了三大核心开发痛点。

(一) 为什么选择 AI Ping 对接 GLM-4.7?

在开发初期,传统对接 GLM-4.7 面临以下问题:

  1. 多供应商适配繁:GLM-4.7 有 PPIO 派欧云、智谱官方、七牛云等多家供应商,各供应商接口协议、调用方式不一致,适配成本高;
  2. 服务稳定性差:单一供应商在高峰期易出现延迟飙升、吞吐下降,影响聊天体验;
  3. 成本管控难:不同供应商定价策略不同,手动切换无法实现"高峰稳、平峰省"的平衡。

AI Ping 恰好破解这些痛点:通过统一 API 对接所有 GLM-4.7 供应商,依托智能路由动态选择最优供应商,结合性能评测数据实现成本与体验的最优解。

(二) AI Ping 对 GLM-4.7 的核心赋能

1. 统一 API 简化集成

AI Ping 将所有 GLM-4.7 供应商的接口标准化为兼容 OpenAI 的格式,开发者只需接入 AI Ping 统一 API,即可无缝调用不同供应商的 GLM-4.7 模型,无需修改核心代码。例如本文中 get_default_llm 函数仅需配置 AI Ping 的 base_urlapi_key,即可调用 GLM-4.7,相比直接对接各供应商,开发效率提升 90%。

2. 智能路由保障稳定性

AI Ping 实时监控各 GLM-4.7 供应商的吞吐量、延迟、可靠性(如 P90 延迟、100% 可靠性),在聊天助手高并发时段自动切换至吞吐高、延迟低的供应商(如七牛云),平峰时段切换至性价比更高的供应商,全程无需人工干预,确保对话响应延迟稳定在 P90 10s 内。

3. 性能可视化与成本优化

AI Ping 提供可视化数据看板,可实时查看模型各供应商的核心指标:

三、技术实现流程:GLM-4.7 + LangChain + Redis + AI Ping

(一) 前期准备:AI Ping 注册与配置

  1. 获取 API KEY:登录 AI Ping 个人中心,复制自动生成的 API 密钥;
  1. 模型配置 :在 AI Ping 平台选择 GLM-4.7 模型,确认统一 API 调用地址(https://www.aiping.cn/api/v1)。

(二) 核心配置文件

python 复制代码
# -*-coding:gbk-*-
# 核心配置
LLM_MODEL_NAME: str = "GLM-4.7"  # AI Ping 平台的 GLM-4.7 模型名
LLM_BASE_URL: str = "https://www.aiping.cn/api/v1"  # AI Ping 统一 API 地址
LLM_API_KEY: str = "QC-xxx"  # AI Ping 个人 API KEY
LLM_TEMPERATURE: float = 0.7  # 生成温度,控制回答多样性
LLM_STREAMING: bool = True  # 开启流式输出
REDIS_HOST: str = "127.0.0.1"  # Redis 地址
REDIS_PORT: int = 6379  # Redis 端口
REDIS_DB: int = 0  # Redis 数据库
REDIS_EXPIRE: int = 86400  # 对话历史过期时间(24小时)

(三) 核心代码解析

1. LLM 模型初始化

封装 GLM-4.7 模型调用逻辑,基于 AI Ping 统一 API 实现,兼容 LangChain 的 ChatOpenAI 接口:

python 复制代码
# -*-coding:gbk-*-
from langchain_openai import ChatOpenAI
from core.config import settings

def get_default_llm():
  """获取 GLM-4.7 模型实例(对接 AI Ping 统一 API)"""
  return ChatOpenAI(
    model = settings.LLM_MODEL_NAME,  # 指定 GLM-4.7 模型
    base_url = settings.LLM_BASE_URL,  # AI Ping 统一 API 地址
    api_key = settings.LLM_API_KEY,    # AI Ping API KEY
    temperature = settings.LLM_TEMPERATURE,  # 生成温度
    streaming = settings.LLM_STREAMING      # 开启流式输出
  )
2. 智能体创建

基于 LangChain 构建聊天智能体,集成工具调用与对话记忆能力:

python 复制代码
# -*-coding:gbk-*-
from langchain.agents import AgentExecutor, create_openai_functions_agent
from langchain.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain.tools import Tool
from core.llm import get_default_llm
from typing import List, AsyncIterator
import asyncio
from tools.chat_tools import get_chat_tools  # 自定义搜索工具

def create_chat_agent(tools: List[Tool]):
  """创建 GLM-4.7 聊天智能体"""
  # 系统提示词:定义智能体行为准则
  system_prompt = """你是一个智能聊天助手。你可以:
  1. 进行日常对话和专业问答,回答需准确、友好;
  2. 当问题涉及实时信息(如最新数据、热点)时,必须使用搜索工具;
  3. 结合对话历史摘要理解上下文,避免重复提问;
  4. 基于 AI Ping 提供的 GLM-4.7 性能数据回答相关问题。"""
  
  # 构建提示词模板,集成对话历史摘要
  prompt = ChatPromptTemplate.from_messages([
    ("system", system_prompt),
    ("system", "以下是之前的对话摘要: {summary}"),  # Redis 存储的对话摘要
    ("human", "{input}"),                             # 用户输入
    MessagesPlaceholder(variable_name="agent_scratchpad"),  # 智能体思考过程
  ])
  
  # 获取 GLM-4.7 模型实例
  llm = get_default_llm()
  llm.streaming = True
  
  # 创建 OpenAI 函数调用智能体
  agent = create_openai_functions_agent(llm, tools, prompt)
  
  # 构建智能体执行器
  agent_executor = AgentExecutor(
    agent=agent,
    tools=tools,          # 绑定搜索等工具
    verbose=True,         # 开启详细日志
    handle_parsing_errors=True  # 容错处理
  )
  return agent_executor
3. 对话处理与流式响应

实现对话历史记忆(Redis)、流式输出逻辑,适配 FastAPI 的 SSE 响应格式:

python 复制代码
# -*-coding:gbk-*-
async def chat_with_agent(
        agent_executor: AgentExecutor,
        chat_service: ChatService,
        account_id: str,
        input_text: str
) -> AsyncIterator[str]:
    """与智能体对话,集成 Redis 对话记忆"""
    try:
        # 从 Redis 获取并生成对话历史摘要
        summary = await chat_service.generate_summary(account_id)
        
        # 调用 GLM-4.7 智能体,流式获取响应
        async for chunk in agent_executor.astream({
            "input": input_text,
            "summary": summary
        }):
            if "output" in chunk:
                response = chunk["output"]
                # 将对话记录存储到 Redis(用户输入+助手回复)
                chat_service.save_chat_messages(account_id, input_text, response)
                # 逐字流式返回,模拟打字效果
                for token in response:
                    yield token
                    await asyncio.sleep(0.01)
    except Exception as e:
        yield f"抱歉,处理您的请求时出现错误: {str(e)}"

async def generate_stream_response(
  chat_service: ChatService,
  account_id: str,
  message: str
 ) -> AsyncGenerator[str, None]:
  """封装流式响应,适配 FastAPI SSE 格式"""
  # 创建聊天智能体(绑定搜索工具)
  agent = create_chat_agent(get_chat_tools())
  current_chunk = ""
  
  # 逐token接收响应,按标点/长度分片发送
  async for token in chat_with_agent(agent, chat_service, account_id, message):
        current_chunk += token
        # 分片规则:遇到标点或累计50字符时发送
        if token in "。,!?、;:,.!?;: " or len(current_chunk) >= 50:
            # 封装JSON响应格式
            response = JsonData.stream_data(data=current_chunk)
            yield f"data: {response.model_dump_json()}\n\n"
            current_chunk = ""
            await asyncio.sleep(0.01)
  
  # 发送剩余内容
  if current_chunk:
    response = JsonData.stream_data(data=current_chunk)
    yield f"data: {response.model_dump_json()}\n\n"
  
  # 发送结束标记
  yield "data: [DONE]\n\n"

(四) 运行与部署

  1. 安装依赖
bash 复制代码
pip install langchain langchain-openai fastapi uvicorn redis python-multipart
  1. 启动服务
bash 复制代码
uvicorn main:app --host 0.0.0.0 --port 8000 --reload

四、总结与扩展

(一) 核心价值

  1. 开发效率提升:AI Ping 统一 API 让 GLM-4.7 多供应商集成成本降低 90%,无需关注底层接口差异;
  2. 体验稳定性保障:智能路由动态切换供应商,确保流式对话响应延迟稳定,P90 控制在 10s 内;
  3. 对话体验优化:Redis + LangChain 实现长对话记忆,解决传统聊天机器人"上下文丢失"问题;
  4. 成本可控:基于 AI Ping 性能数据动态选择供应商,平峰期成本降低 30% 以上。

(二) 扩展方向

  1. 多模型切换 :基于 AI Ping 统一 API,仅需修改 LLM_MODEL_NAME 即可切换至 MiniMax M2.1、Kimi-K2-Thinking 等模型,实现多模型对比;
  2. 工具扩展:集成更多工具(如文档解析、代码生成),基于 LangChain 扩展智能体能力;
  3. 个性化定制:基于 Redis 存储用户偏好,实现个性化回答;
  4. 多端适配:对接 Web、APP、小程序,通过 FastAPI 流式接口实现全端一致的交互体验。

五、参考资料

  1. AI Ping 官网:https://www.aiping.cn
  2. AI Ping 开发者文档:https://www.aiping.cn/docs/product
  3. LangChain 官方文档:https://python.langchain.com/docs/
相关推荐
程序员哈基耄2 小时前
AI背景移除器:一键释放图像创造力
人工智能
fie88892 小时前
基于 Matlab 实现的 语音分帧、端点检测、音高提取与DTW算法 结合的歌曲识别系统
人工智能·matlab
fruge2 小时前
解锁AI开发新效率:AI Ping平台与免费明星模型MiniMax-M2.1、GLM-4.7深度解析
人工智能
natide2 小时前
词汇/表达差异-7-Alias覆盖率
人工智能·pytorch·python·深度学习·自然语言处理
艾莉丝努力练剑2 小时前
Al Ping免费上新:GLM-4.7 && MiniMaxM2.1重磅上线,附独家使用教程
java·大数据·linux·运维·人工智能·python
拉姆哥的小屋2 小时前
智能婴儿床监控系统
人工智能·python·深度学习
ASKCOS2 小时前
深度学习驱动的蛋白质设计新范式:解析RFdiffusion3与Foundry生态系统
人工智能·深度学习
semantist@语校2 小时前
第五十七篇|东京银星日本语学校的数据建模:高密度城市中的学习节律、制度边界与 Prompt 接口设计
大数据·数据库·人工智能·学习·百度·prompt·知识图谱
无代码专家2 小时前
无代码技术:企业全场景数字化的降本增效新范式
大数据·人工智能·低代码·云计算