Trae编程:用腾讯云 HAI 快速开发一个智能客服助手,白嫖党的福利到底有多香?

Trae编程:用腾讯云 HAI 快速开发一个智能客服助手,白嫖党的福利到底有多香?

声明:非广告,为用户体验,开发一个智能客服助手

声明:非广告,为用户体验,开发一个智能客服助手

声明:非广告,为用户体验,开发一个智能客服助手


🌟 嗨,我是LucianaiB!

🌍 总有人间一两风,填我十万八千梦。

🚀 路漫漫其修远兮,吾将上下而求索。


目录

  1. 效果展示
  2. 腾讯云HAI开发流程
    • [2.1 需求分析(白嫖党的福利,那必须尝试)](#2.1 需求分析(白嫖党的福利,那必须尝试) "#21%E9%9C%80%E6%B1%82%E5%88%86%E6%9E%90%E7%99%BD%E5%AB%96%E5%85%9A%E7%9A%84%E7%A6%8F%E5%88%A9%E9%82%A3%E5%BF%85%E9%A1%BB%E5%B0%9D%E8%AF%95")
    • [2.2 整体思路](#2.2 整体思路 "#22%E6%95%B4%E4%BD%93%E6%80%9D%E8%B7%AF")
  3. 寻找腾讯云HAI以及API测试
  4. Trae编程集成谷歌插件
  5. 总结
  6. 系统框架

1.效果展示

2.腾讯云HAI开发流程

2.1需求分析(白嫖党的福利,那必须尝试)

在当今数字化时代,客服行业正经历着一场前所未有的"智能革命"。想象一下,当你深夜下单后,突然冒出一个疑问,却发现客服小哥早已下班,那种"求而不得"的焦虑感简直让人抓狂!而传统的客服模式,不仅人力成本高昂,还常常因为"人手不足"或"反应迟缓"而让客户望而却步。于是,我们决定用科技的力量,打造一个"永不打烊"的智能客服助手------AIHelper,让它成为企业和客户之间的超级纽带。

腾讯云HAI平台的出现,就像是一场及时雨,为我们的想法插上了翅膀。它不仅提供了强大的算力支持,还预装了DeepSeek-R1系列模型,这些模型就像是不同"体型"的智慧大脑,从1.5B到32B,能满足各种复杂场景的需求。更让人兴奋的是,腾讯云还贴心地推出了1元体验1个月的福利,这简直是对开发者最大的诱惑!于是,我们决定利用腾讯云HAI的API接口和DeepSeek-R1模型,开发一个智能客服助手系统,让AI技术真正落地,为企业和客户带来实实在在的便利。

在这个充满挑战和机遇的时代,AIHelper将成为我们的"秘密武器",用智能和高效重新定义客服行业的未来。

2.2整体思路

1. 技术选型与平台选择

  • 腾讯云HAI平台:作为项目的核心技术支撑,腾讯云HAI提供了强大的算力支持和便捷的模型部署环境,能够快速实现AI模型的落地应用。
  • DeepSeek-R1模型:利用腾讯云HAI预装的DeepSeek-R1系列模型(1.5B、7B、8B、14B、32B),根据不同的业务需求选择合适的模型规模,兼顾性能和成本。
  • API接口:通过腾讯云HAI提供的公网API接口,实现前端应用与后端模型的无缝对接,确保系统的灵活性和可扩展性。

2. 系统架构设计

  • 前端界面:设计简洁、友好的用户界面(UI),支持多终端访问(PC端和移动端),方便用户与AI客服进行交互。
  • 后端逻辑:通过API接口调用腾讯云HAI平台的DeepSeek-R1模型,实现自然语言处理和问答生成。
  • 知识库管理:构建企业专属的知识库,将业务知识与模型结合,提升问答的准确性和相关性。
  • 数据分析模块:记录用户对话,分析用户需求和系统表现,为企业提供数据支持。

3. 功能实现路径

  1. 模型选择与测试

    • 注册腾讯云HAI平台,开通DeepSeek-R1模型服务。
    • 利用1元体验活动,测试不同模型(1.5B、7B、8B、14B、32B)的性能和效果,选择最适合业务需求的模型。
    • 通过API接口进行模型调用测试,确保接口的稳定性和响应速度。
  2. 前端开发

    • 使用HTML、CSS和JavaScript开发用户界面,设计简洁、直观的交互流程。
    • 集成腾讯云HAI的API接口,实现用户输入与模型输出的实时交互。
  3. 后端开发

    • 使用Python等后端语言,开发API接口调用逻辑,处理用户请求和模型响应。
    • 集成知识库管理系统,支持企业自定义知识库内容。
  4. 数据分析与优化

    • 设计数据存储方案,记录用户对话和系统反馈。
    • 分析对话数据,优化知识库内容和模型参数,提升系统性能。

3.寻找腾讯云HAI以及API测试

腾讯云HAI上线了CPU版1元限时体验活动,什么?1元体验1个月,对于我这样的白嫖党那必须尝试一下的。

在这里可以最高1个月,我想尝试一下16核32GB的,于是选择了第二种。

打开算力界面,我们可以看到我们购买的这个体验版。

点击这个体验版,这里腾讯云提供了5种使用的方法,简直是小白学习的好办法,这里还可以看到算力的使用情况。

本次的测试接口,在jupyter这里进行尝试,按照下图点击。

我们输入以下命令,看回应效果。localhost改为公网地址,我们就可以在自己的电脑提供公网访问。(这里也进行了尝试,证明是可以的)

arduino 复制代码
curl -X POST http://localhost:6399/api/chat \
      -H "Content-Type: application/json" \
      -d '{
            "model": "deepseek-r1:7b",
            "messages": [
              {"role": "user", "content": "你好!"},
              {"role": "assistant", "content": "你好!有什么我可以帮助你的吗?"},
              {"role": "user", "content": "推荐一些美食?"}
            ],
            "stream": false
          }'
# localhost改为公网地址即可

4. Trae编程集成谷歌插件

基于现有代码,现在我们需要整合腾讯云API,建议提前把已有功能告诉Trae,这样也能更好地理解代码背景。输入提示词示例,可结合个人实际情况调整:

ruby 复制代码
# 目的
用户需求是基于腾讯云 HAI 快速开发AIHelper - 智能客服助手系统
​
# 使用方法
我用的是python,我要的是在运行后端的时候直接就运行前端,并给了我接口
​
# 要求实现的功能有:
系统提供智能对话服务、用户管理、知识库管理和数据分析等核心功能。支持自然语言交互,能够准确理解客户需求并提供相应解答。具备知识库自动更新、多轮对话管理、情感分析、用户意图识别等AI能力。系统通过机器学习模型持续优化响应质量,支持多渠道接入,提供实时监控和数据分析功能。同时具备会话历史记录、用户画像分析、服务质量评估等管理功能,确保服务质量和用户体验。
​
​
# 腾讯云使用的AI接口
## 腾讯云API
curl -X POST http://localhost:6399/api/chat \
      -H "Content-Type: application/json" \
      -d '{
            "model": "deepseek-r1:7b",
            "messages": [
              {"role": "user", "content": "你好!"},
              {"role": "assistant", "content": "你好!有什么我可以帮助你的吗?"},
              {"role": "user", "content": "推荐一些美食?"}
            ],
            "stream": false
          }'

我们要的效果如下,运行pycharm后就可以看到网址了,出乎意料的API文档都输出了:

可以看到最后的前端效果:

5.总结

在完成整个项目的开发和测试后,我详细查看了运行过程中的各项资源使用情况,尤其是GPU的利用率。从监控数据来看,GPU的利用率表现非常出色,这表明腾讯云HAI平台提供的强大算力能够高效支持DeepSeek-R1模型的运行,满足了智能客服助手系统的需求。

从上图可以看出,在测试期间,GPU的利用率始终保持在一个较高的水平,这说明系统在处理用户请求时能够充分利用硬件资源,确保了快速响应和高效处理。这种高效的资源利用不仅提升了用户体验,也验证了腾讯云HAI平台在实际应用中的强大性能。

此外,通过本次项目开发,我总结了以下几点关键收获:

  1. 腾讯云HAI平台的强大支持 腾讯云HAI平台不仅提供了强大的算力支持,还通过预装的DeepSeek-R1系列模型,极大地简化了开发流程。从模型选择到API调用,整个过程都非常顺畅,大大缩短了开发周期。
  2. 模型性能与成本的平衡 通过测试不同规模的DeepSeek-R1模型(如1.5B、7B、8B、14B、32B),我找到了最适合当前业务需求的模型规模。这不仅保证了系统的高性能,还兼顾了成本效益。
  3. 用户体验的优化 在前端界面设计和交互流程中,我们注重简洁性和直观性,确保用户能够轻松与智能客服助手进行交互。同时,通过后端逻辑的优化和知识库的动态更新,系统能够提供更准确、更智能的解答。
  4. 数据分析与持续优化 通过记录用户对话和系统反馈,我们能够实时分析系统的表现,进一步优化知识库内容和模型参数。这种基于数据的优化方式,为系统的持续改进提供了有力支持。
  5. 多渠道接入与扩展性 项目不仅支持网页端访问,还具备扩展到其他渠道(如微信公众号、小程序等)的潜力,为企业提供了更多与客户互动的机会。

通过本次项目,我深刻体会到腾讯云HAI平台在AI应用开发中的强大优势。借助其强大的算力和灵活的API接口,开发者可以快速实现从概念到产品的转变。未来,我将继续探索更多基于腾讯云HAI的创新应用,为企业和客户带来更多价值。

6.系统框架

csharp 复制代码
project_root/
├── app/                    # 应用主目录
│   ├── __init__.py        # 初始化文件
│   ├── api/               # API接口目录
│   │   ├── __init__.py
│   │   ├── chat.py       # 聊天相关接口
│   │   └── user.py       # 用户相关接口
│   │
│   ├── models/           # 数据模型
│   │   ├── __init__.py
│   │   ├── chat.py       # 聊天模型
│   │   └── user.py       # 用户模型
│   │
│   ├── services/         # 业务逻辑层
│   │   ├── __init__.py
│   │   ├── chat.py       # 聊天业务逻辑
│   │   └── auth.py       # 认证业务逻辑
│   │
│   ├── utils/            # 工具函数
│   │   ├── __init__.py
│   │   └── helpers.py    # 通用辅助函数
│   │
│   └── config/           # 配置文件
│       ├── __init__.py
│       └── settings.py   # 系统配置
│
├── tests/                # 测试目录
│   ├── __init__.py
│   ├── test_api/        # API测试
│   └── test_services/   # 服务测试
│
├── static/              # 静态文件
│   ├── css/
│   ├── js/
│   └── images/
│
├── templates/           # 模板文件
│   ├── base.html
│   ├── chat/
│   └── user/
│
├── logs/               # 日志文件夹
│   ├── app.log
│   └── error.log
│
├── requirements.txt    # 项目依赖
├── .env               # 环境变量
├── .gitignore        # git忽略文件
├── README.md         # 项目说明
└── run.py            # 启动文件
相关推荐
SaebaRyo5 分钟前
手把手教你在网站中启用https和http2
后端·nginx·https
A-Kamen20 分钟前
Spring Boot拦截器(Interceptor)与过滤器(Filter)深度解析:区别、实现与实战指南
java·spring boot·后端
豆豆酱25 分钟前
Transformer结构详解
后端
upsilon26 分钟前
golang切片slice
后端·go
狂奔小菜鸡27 分钟前
Java运行时数据区
java·jvm·后端
lovebugs28 分钟前
Java并发编程之Lock机制:更灵活的线程同步方案
后端·面试
kunge201328 分钟前
Paddle快速入门
后端
卑微小文38 分钟前
2025国内网络反爬新高度:代理IP智能轮换算法揭秘
后端·算法·架构
AIGC龙哥1 小时前
Stable Diffusion教程|快速入门SD绘画原理与安装
stable diffusion·aigc·ai绘画·sd·安装包·本地部署·炼丹师
anyup1 小时前
最终!我还是抛弃了 VSCode 这个开发工具
前端·aigc·visual studio code