「NLP主题分析」LDA隐含狄利克雷分布(Latent Dirichlet Allocation)

是基于贝叶斯思想无监督的聚类算法,广泛用于文本聚类,文本分析,文本关键词等场景。LDA主题模型主要用于推测文档的主题分布,可以将文档集中每篇文档的主题以概率分布的形式给出根据主题进行主题聚类或文本分类。

LDA主题模型不关心文档中单词的顺序,通常使用词袋特征(bag-of-word feature)来代表文档。

-先了解LDA的生成模型,LDA认为一篇文章是怎么形成的呢?

LDA模型认为主题可以由一个词汇分布来表示,而文章可以由主题分布来表示。

**主题分析模型(Topic Model)**是以非监督学习的方式对文档的隐含语义结构进行统计聚类,用以挖掘文本蕴含的语义结构的技术。隐含狄利克雷分布(Latent Dirichlet Allocation, 简称 LDA)是常用的主题模型计算方法。

e.g.200 维主题模型(定义了200多个主题编号,当前文本段落落入改主题的概率为 XXX),并展示出了关系最密切的主题和代表性词汇。主题分析可用于文本聚类、关联文本推荐等应用。其中主题编号是指主题的抽象表达,因为其语义内涵不能直接用字词来简单定义和命名,所以用编号来表示。

主题词是主题的具象描述。概率值是指这段文本属于某个主题的概率值,概率值越高,文本的内容越倾向于对应的主题。

Reference:

比如有两个主题,美食和美妆。LDA说两个主题可以由词汇分布表示,他们分别是:

{面包:0.4,火锅:0.5,眉笔:0.03,腮红:0.07}

{眉笔:0.4,腮红:0.5,面包:0.03,火锅:0.07}

同样,对于两篇文章,LDA认为文章可以由主题分布这么表示:

《美妆日记》{美妆:0.8,美食:0.1,其他:0.1}

《美食探索》{美食:0.8,美妆:0.1,其他:0.1}

所以想要生成一篇文章,可以先以一定的概率选取上述某个主题,再以一定的概率选取那个主题下的某个单词,不断重复这两步就可以生成最终文章。

相关推荐
NAGNIP3 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab4 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab4 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP8 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年8 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼8 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS8 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区9 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈10 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能
Ray Liang10 小时前
被低估的量化版模型,小身材也能干大事
人工智能·ai·ai助手·mindx