技术栈
q-k-v
庞轩px
3 小时前
人工智能
·
rnn
·
深度学习
·
transformer
·
attention
·
q-k-v
Transformer的核心思想——Attention机制直观理解
在上一篇中,我们理解了Embedding如何把文字变成向量。但光有向量还不够——大模型需要"读懂"一句话里各个词之间的关系。比如:
我是有底线的