一、说明
栏目《NLP入门到精通》本着从简到难得台阶式学习过度。将自然语言处理得知识贯穿过来。本栏目得前导栏目是《深度学习》、《pytorch实践》,因此,读者需要一定得深度学习基础,才能过度到此栏目内容。
为了保证读者由浅入深地学习Halcon学习。本栏目在持续更新中,直到以上知识篇完整为止。
单元内容范围 | 专题描述 | 备注 |
---|---|---|
第一单元: | 文本分类,基于统计学模型。 | 待续 |
第二单元 | 词嵌入,基于深度学习网络。 | |
第三单元: | CNN。LSTM,序列神经网络,句法分析。 | |
第四单元: | 在词嵌入基础上,对上下文进行分析。 | |
第五单元: | Bert词法,词性分析。 | |
第六单元 | transformers语言翻译,词法、句法综合。 | |
第七单元 | LLM大语言模型。 | |
第八单元 | 主题模型,文本摘要提取,语义分解。 | |
第九单元 | 综合知识。 | |
[栏目文档导读表] |
第一单元:文本分类
该专题专门针对 基础学员,对基本的pytorch内容、语法、类和属性等进行了解,以便以后能明确无疑地应用。此专题在不断更新中,目前的全部文章是:
【NLP概念源和流】 02-稠密文档表示(第 2/20 部分)
【NLP】PageRank、TextRank算法的原理解析_textrank和pagerank
第二单元:词嵌入
【NLP概念源和流】 06-编码器-解码器模型(6/20 部分)
【NLP概念源和流】 03-基于计数的嵌入,GloVe(第 3/20 部分)
【NLP】Word2vec概念和演进史_word2vec的发展
第三单元:CNN和LSTM
【NLP概念源和流】 04-过度到RNN(第 4/20 部分)
【BBC新闻文章分类】使用 TF 2.0和 LSTM 的文本分类
第四单元:Attension
第五单元:Bert
第六单元:Transformers
第七单元:大语言模型
第八单元 :主题模型
【NLP】使用 LSA、PLSA、LDA 和 lda2Vec 进行主题建模
第九单元:NLP综合
【NLP模型】文本建模(1)(BoW、N-gram、tf-idf)
语音识别:时间序列Damerau--Levenshtein距离_damerau-levenshtein
语音识别:时间序列的匹配算法(Needleman-Wunsch 算法)_时间匹配算法
【NLP】斯密斯-沃特曼的对齐算法(python)-CSDN博客