技术栈

q-k-v

庞轩px
3 小时前
人工智能·rnn·深度学习·transformer·attention·q-k-v
Transformer的核心思想——Attention机制直观理解在上一篇中,我们理解了Embedding如何把文字变成向量。但光有向量还不够——大模型需要"读懂"一句话里各个词之间的关系。比如:
我是有底线的