技术栈
chatglm2
Alex_StarSky
1 年前
chatgpt
·
大模型
·
chatglm2
·
p-tuning训练
·
本地化训练
·
llm训练
·
训练代码解读
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(二)
本文试图分析程序结构和代码,解释序列转换生成模型的微调训练。为了篇幅不要过长,分两篇文章解读,本文解读训练代码。框架概述请看前篇文章:GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)
Alex_StarSky
1 年前
chatgpt
·
llm
·
chatglm2
·
私有数据
·
p-tuning
·
微调训练
·
本地化训练
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)
本文试图分析程序结构和代码,解释序列转换生成模型的微调训练。为了篇幅不要过长,下期解读训练代码。 GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,训练代码解读?(二)
码农丁丁
1 年前
人工智能
·
pytorch
·
深度学习
·
chatgpt
·
chatglm2
Win10系统下torch.cuda.is_available()返回为False的问题解决
经查网上资料,说默认用官网命令安装的最新版torch是不加载cuda加速的,而且版本不匹配,需要手动指定版本安装
Alex_StarSky
1 年前
人工智能
·
gpt
·
ai
·
chatgpt
·
chatglm2
·
本地数据训练
·
p-tuning训练
GPT实战系列-ChatGLM2模型的微调训练参数解读
ChatGLM-6B是开源的文本生成式对话模型,基于General Language Model(GLM)框架,具有62亿参数,FP16 半精度下,ChatGLM-6B 需要 13GB 左右的显存进行推理。
太空眼睛
1 年前
运维
·
websocket
·
nginx
·
chatglm2
·
转发
·
chunked
·
403
【ChatGLM2-6B】nginx转发配置
好不容易把ChatGLM2-6B大语言模型部署好了,使用streamlit方式启动起来了,终于可以愉快的玩耍了,然后想着申请一个域名,使用HTTPS协议访问,但实践过程中,发现这个大语言模型的nginx转发配置还是有点小小的与众不同,折腾了半天,终于研究出来了。如何在只有CPU的Linux服务器上部署ChatGLM2-6B,可以参考这篇文章
京东云技术团队
1 年前
人工智能
·
langchain
·
aigc
·
京东云
·
chatglm2
chatglm2-6b模型在9n-triton中部署并集成至langchain实践 | 京东云技术团队
近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已经正式发布,引入了如下新特性: