五一节前吹的牛,五一期间没完成,今天忙里偷闲,给完成了。
那就是初步拟定了一个《Transformer专栏》的写作大纲。
之前一直想写一系列Transformer架构的算法解析文章,但因为一直在忙(虽然不知道在忙啥),总是被耽搁。
今天终于算是启动了。
巧的是,下班路上刚手敲完大纲,晚上一个小伙伴来咨询学习LLM的事情,问我之前写的《AI视觉入门专栏》是否适合LLM的入门。
我就顺便给这位小伙伴安利了一下正在做的这个专栏,虽然还未开始写。
Transformer 专栏是什么?
Transformer架构相比很多小伙伴都不陌生了,说它是目前最火的AI模型架构也不为过。
现在很多主流的大语言模型,比如chatGPT都是基于该架构进行的模型设计,可以说Transformer顶起了AI的半壁江山。
本专栏主要就是要拆解Transformer架构的算法原理。
我会尽可能用通俗的大白话来讲清楚该架构的各种细节。
你可能在很多地方都看过该架构相关的算法解析文章,什么注意力机制啦、QKV矩阵啦等等。
对于这些有些枯燥的概念,有些乏味的数学表达,我会尽可能说的直白和通俗易懂,打通理解Transformer的最后一公里。
当然,为了说清楚其中的一些概念,我会在相关知识点处穿插大量的背景知识介绍。
本专栏也会介绍一些chatGPT模型用到的技术点。
相信本专栏能帮你彻底搞懂Transformer这个变形金刚。
如何阅读相关文章
有两种阅读渠道可以阅读到本专栏的文章:
第一,在我的公众号《董董灿是个攻城狮》进行阅读。点击这里查看详情。
我会在本公众号进行文章的首发,相关文章会添加标签"Transformer专栏",可点击文章左下角的标签查看所有文章。
第二个阅读渠道:关注我的掘金账号。
相关文章会发布到《Transformer最后一公里》专栏中,如本篇文章就会加入到本专栏。
本专栏文章计划要写100篇左右的文章,希望自己可以坚持下去,也希望对此专栏感兴趣的小伙伴监督,努力更新下去。
最后
如果你对Transformer架构有独特的理解,诚挚的邀请你称为本专栏文章的合伙人,进行联合创作,你将获得与本专栏内容有关的收益分成。