NLP常见问题

transformer中的attention为什么scaled?-CSDN博客

Transformer模型中的Feed-Forward层的作用_transformer feed-forward解释-CSDN博客

关于ChatGPT:GPT和BERT的差别(易懂版)

Index - 算法工程师笔记

Transformer模型中,decoder的第一个输入是什么? - 知乎

大部分的大模型(LLM)采用左填充(left-padding)的原因 - 知乎

多种Attention之间的对比(上) - 知乎

ChatGLM-6B 实践分享 - 知乎

重磅!第二代ChatGLM发布!清华大学THUDM发布ChatGLM2-6B:更快更准,更低成本更长输入! - 知乎

transformer 为什么使用 layer normalization,而不是其他的归一化方法? - 知乎

CRF模型详解-CSDN博客

非凸函数上,随机梯度下降能否收敛?网友热议:能,但有条件,且比凸函数收敛更难 - 知乎

分类必然交叉熵,回归无脑MSE?未必 - 知乎

分类问题可以使用MSE(均方误差)作为损失函数吗_分类问题可以用mse吗-CSDN博客

[分析] ROPE的不同实现:llama&palm - 知乎

LORA微调系列(一):LORA和它的基本原理 - 知乎

大模型升级与设计之道:ChatGLM、LLAMA、Baichuan及LLM结构解析-CSDN博客

ChatGPT/InstructGPT详解 - 知乎

从零开始了解transformer的机制|第四章:FFN层的作用-CSDN博客

大模型思维链(Chain-of-Thought)技术原理 - 知乎

强化学习AC、A2C、A3C算法原理与实现! - 知乎

大模型微调(finetune)方法总结-LoRA,Adapter,Prefix-tuning,P-tuning,Prompt-tuning - 知乎

Gradient Checkpointing(梯度检查点) - 知乎

[NLP] LLM---<训练中文LLama2(二)>扩充LLama2词表构建中文tokenization_斗破苍芎原始数据预处理-CSDN博客

BERT为何使用学习的position embedding而非正弦position encoding? - 知乎

相关推荐
easy20207 分钟前
从 Excel 趋势线到机器学习:拆解 AI 背后的核心框架
人工智能·笔记·机器学习
天机️灵韵15 分钟前
OpenAvatarChat项目在Windows本地运行指南
人工智能·开源项目·openavatarchat
DeeplyMind1 小时前
AMD KFD驱动技术分析16:SVM Aperture
人工智能·机器学习·amdgpu·rocm·kfd
非门由也1 小时前
《sklearn机器学习——聚类性能指标》Davies-Bouldin Index (戴维斯-博尔丁指数)
人工智能·机器学习·支持向量机
limengshi1383921 小时前
人工智能学习:LR和SVM的联系与区别?
人工智能·算法·机器学习·支持向量机
爆改模型1 小时前
【CVPR2025】计算机视觉|即插即用|DSSA:即插即用!显著提升模型性能的双重稀疏注意力模块!
人工智能·计算机视觉
2401_897930063 小时前
tensorflow常用使用场景
人工智能·python·tensorflow
deepdata_cn4 小时前
开源混合专家大语言模型(DBRX)
人工智能·语言模型
deepdata_cn4 小时前
开源本地LLM推理引擎(Cortex AI)
人工智能·推理引擎
说私域5 小时前
“互联网 +”时代商业生态变革:以开源 AI 智能名片链动 2+1 模式 S2B2C 商城小程序为例
人工智能·小程序·开源