【自然语言处理与大模型】BERTopic主题建模

一、BERTopic是什么

BERTopic 是一种先进的、模块化的主题建模方法,它融合预训练语言模型(如 BERT 或 Sentence-BERT)与传统统计技术(如 c-TF-IDF),目的是为了从大规模非结构化文本中自动提取语义丰富、可解释性强的主题。

核心论文:[2203.05794] BERTopic: Neural topic modeling with a class-based TF-IDF procedurehttps://arxiv.org/abs/2203.05794

开源项目地址:MaartenGr/BERTopic: Leveraging BERT and c-TF-IDF to create easily interpretable topics.https://github.com/MaartenGr/BERTopic

BERTopic库官方文档https://maartengr.github.io/BERTopic/index.html#quick-start

二、核心原理与关键步骤

BERTopic 的工作流程主要包含以下六个关键步骤:

(1)文本向量化(Embedding)

使用预训练语言模型(如 `all-MiniLM-L6-v2` 或中文 BERT 模型)将每篇文档映射为高维语义向量。这些向量能够捕捉上下文信息,使语义相近的文档在向量空间中距离更近。

(2)降维(Dimensionality Reduction)

利用 UMAP(Uniform Manifold Approximation and Projection)算法将高维嵌入降至低维(通常为5维),以保留局部和全局结构,便于后续聚类。

(3)聚类(Clustering)

采用 HDBSCAN(Hierarchical Density-Based Spatial Clustering of Applications with Noise)进行无监督聚类。该算法无需预设主题数量,能识别任意形状的簇,并有效处理噪声点(被标记为 Topic -1)

(4)词袋构建

将每个聚类内的所有文档合并为一个"超级文档",并使用 CountVectorizer 构建词频统计。

(5)关键词提取(c-TF-IDF)

这是 BERTopic 的核心创新:将每个聚类视为一个"类文档",计算词在类内频率(c-TF)与类间区分度(c-IDF),从而得出每个词对特定主题的代表性权重。

(6)主题生成(Topic)

提取每个主题的 Top-N 关键词作为标签,并可选地通过 KeyBERT、LLM(如 GPT)、最大边际相关性(MMR)等方法优化主题连贯性与多样性。

相关推荐
数智化精益手记局9 小时前
拆解物料管理erp系统的核心功能,看物料管理erp系统如何解决库存积压与缺料难题
大数据·网络·人工智能·安全·信息可视化·精益工程
Flying pigs~~10 小时前
RAG 完整面试指南:原理、优化、幻觉解决方案
人工智能·prompt·rag·智能体·检索增强生成·rag优化
博.闻广见10 小时前
AI_概率统计-2.常见分布
人工智能·机器学习
企业架构师老王10 小时前
2026制造业安全生产隐患识别AI方案:从主流产品对比看企业级AI Agent的非侵入式落地路径
人工智能·安全·ai
Aleeeeex10 小时前
RAG 那点事:从 8 份企业文档到能用的问答系统,全过程拆给你看
人工智能·python·ai编程
冬奇Lab10 小时前
一天一个开源项目(第87篇):Tank-OS —— Red Hat 工程师用一个周末,把 AI Agent 塞进了一个可启动的 Linux 镜像
人工智能·开源·资讯
小糖学代码10 小时前
LLM系列:2.pytorch入门:8.神经网络的损失函数(criterion)
人工智能·深度学习·神经网络
Captaincc10 小时前
转发-中央网信办部署开展“清朗·整治AI应用乱象”专项行动
人工智能·vibecoding
AI自动化工坊11 小时前
Late框架技术深度解析:5GB VRAM实现10倍AI编码效率的工程架构
人工智能·5g·架构·ai编程·late
我是大聪明.11 小时前
DeepSeek V4 Pro + 华为昇腾910:国产大模型落地的性能实测与深度解析
人工智能·华为