chatglm2微调—ptuning

P-Tuning: 在输入的embedding层前,将prompt转换为可学习的额外一层embedding层.

  • P-Tuning,仅对大模型的Embedding加入新的参数。
  • P-Tuning-V2,将大模型的Embedding和每一层前都加上新的参数。
  • 当prefix_projection为True时,为P-Tuning-V2方法,在大模型的Embedding和每一层前都加上新的参数;为False时,为P-Tuning方法,仅在大模型的Embedding上新的参数。
相关推荐
-XWB-22 分钟前
【LLM】使用MySQL MCP Server让大模型轻松操作本地数据库
人工智能·python·自然语言处理
訾博ZiBo1 小时前
AI日报 - 2025年4月8日
人工智能
James. 常德 student2 小时前
深度学习之微调
人工智能·深度学习
liuyunshengsir2 小时前
chromadb 安装和使用
人工智能·大模型
FIT2CLOUD飞致云2 小时前
全面支持MCP协议,开启便捷连接之旅,MaxKB知识库问答系统v1.10.3 LTS版本发布
人工智能·开源
云水木石2 小时前
ChatGPT-4o 在汉字显示上进步巨大
人工智能·chatgpt
Mr_LeeCZ2 小时前
PyTorch 深度学习 || 7. Unet | Ch7.1 Unet 框架
人工智能·深度学习·机器学习
James. 常德 student2 小时前
多GPU训练
人工智能·pytorch·深度学习
Jozky863 小时前
大语言模型在端到端智驾中的应用
人工智能·语言模型·自然语言处理
脑洞专家3 小时前
基于改进的点线融合和关键帧选择的视觉SLAM 方法
人工智能·机器学习·计算机视觉