chatglm2

Alex_StarSky10 个月前
chatgpt·大模型·chatglm2·p-tuning训练·本地化训练·llm训练·训练代码解读
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(二)本文试图分析程序结构和代码,解释序列转换生成模型的微调训练。为了篇幅不要过长,分两篇文章解读,本文解读训练代码。框架概述请看前篇文章:GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)
Alex_StarSky10 个月前
chatgpt·llm·chatglm2·私有数据·p-tuning·微调训练·本地化训练
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)本文试图分析程序结构和代码,解释序列转换生成模型的微调训练。为了篇幅不要过长,下期解读训练代码。 GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,训练代码解读?(二)
码农丁丁10 个月前
人工智能·pytorch·深度学习·chatgpt·chatglm2
Win10系统下torch.cuda.is_available()返回为False的问题解决经查网上资料,说默认用官网命令安装的最新版torch是不加载cuda加速的,而且版本不匹配,需要手动指定版本安装
Alex_StarSky1 年前
人工智能·gpt·ai·chatgpt·chatglm2·本地数据训练·p-tuning训练
GPT实战系列-ChatGLM2模型的微调训练参数解读ChatGLM-6B是开源的文本生成式对话模型,基于General Language Model(GLM)框架,具有62亿参数,FP16 半精度下,ChatGLM-6B 需要 13GB 左右的显存进行推理。
太空眼睛1 年前
运维·websocket·nginx·chatglm2·转发·chunked·403
【ChatGLM2-6B】nginx转发配置好不容易把ChatGLM2-6B大语言模型部署好了,使用streamlit方式启动起来了,终于可以愉快的玩耍了,然后想着申请一个域名,使用HTTPS协议访问,但实践过程中,发现这个大语言模型的nginx转发配置还是有点小小的与众不同,折腾了半天,终于研究出来了。如何在只有CPU的Linux服务器上部署ChatGLM2-6B,可以参考这篇文章
京东云技术团队1 年前
人工智能·langchain·aigc·京东云·chatglm2
chatglm2-6b模型在9n-triton中部署并集成至langchain实践 | 京东云技术团队近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已经正式发布,引入了如下新特性: