1.神经网络反向传播为什么不能权重初始化为0?
会导致每个隐藏层的神经元权重相同
https://zhuanlan.zhihu.com/p/423874940
- 大模型微调的方法
解析大模型常用微调方法:P-Tuning、Prefix Tuning、Adapter、LoRA_51CTO博客_模型微调的步骤
1.神经网络反向传播为什么不能权重初始化为0?
会导致每个隐藏层的神经元权重相同
https://zhuanlan.zhihu.com/p/423874940
解析大模型常用微调方法:P-Tuning、Prefix Tuning、Adapter、LoRA_51CTO博客_模型微调的步骤