文本分类

X.Cristiano16 天前
bert·文本分类·qwen3
Qwen3 - 0.6B与Bert文本分类实验:深度见解与性能剖析[25/04/28] 新增Qwen3-0.6B在Ag_news数据集Zero-Shot的效果。新增Qwen3-0.6B线性层分类方法的效果。调整Bert训练参数(epoch、eval_steps),以实现更细致的观察,避免严重过拟合的情况。
羽星_s20 天前
人工智能·bert·文本分类·ai大模型·qwen3
文本分类任务Qwen3-0.6B与Bert:实验见解最近在知乎上刷到一个很有意思的提问Qwen3-0.6B这种小模型有什么实际意义和用途。查看了所有回答,有人提到小尺寸模型在边缘设备场景中的优势(低延迟)、也有人提出小模型只是为了开放给其他研究者验证scaling law(Qwen2.5系列丰富的模型尺寸为开源社区验证方法有效性提供了基础)、还有人说4B、7B的Few-Shot效果就已经很好了甚至直接调用更大的LLM也能很好的解决问题。让我比较感兴趣的是有大佬提出小模型在向量搜索、命名实体识别(NER)和文本分类领域中很能打,而另一个被拿来对比的就是Ber
zeroporn23 天前
macos·分类·数据挖掘·nlp·transformer·预训练模型·文本分类
在Mac M1/M2上使用Hugging Face Transformers进行中文文本分类(完整指南)随着Apple Silicon芯片(M1/M2)的普及,越来越多的开发者希望在Mac上运行深度学习任务。本文将详细介绍如何在Mac M1/M2设备上使用Hugging Face Transformers库进行中文文本分类任务,包括环境配置、数据处理、模型训练和性能优化等完整流程。
梦丶晓羽3 个月前
人工智能·python·自然语言处理·文本分类·朴素贝叶斯·逻辑斯谛回归
自然语言处理:文本分类大家好,我这个热衷于分享知识的博主又来啦!之前我们一起深入探讨了自然语言处理领域中非常重要的两个方法:朴素贝叶斯和逻辑斯谛回归。在探索的过程中,我们剖析了朴素贝叶斯如何基于概率原理和特征条件独立假设,快速对文本进行分类。也了解了逻辑斯谛回归是怎样通过巧妙地将线性模型与逻辑函数相结合,精准地预测文本的类别归属。
开着奔驰种地9 个月前
深度学习·docker·文本分类·paddle
PaddleNLP本文分类及docker部署流程本文记录使用PaddleNLP进行文本分类的全流程参考:https://github.com/PaddlePaddle/PaddleNLP/tree/develop/legacy/applications/text_classification/multi_class
chencjiajy9 个月前
论文阅读·bert·文本分类
文本分类场景下微调BERT论文《How to Fine-Tune BERT for Text Classification?》是2019年发表的一篇论文。这篇文章做了一些实验来分析了如何在文本分类场景下微调BERT,是后面网上讨论如何微调BERT时经常提到的论文。
仙魁XAN1 年前
transformer·文本分类·agi·hugging face·文本分类器
AGI 之 【Hugging Face】 的【文本分类】的 [文本分类器] 的简单整理目录AGI 之 【Hugging Face】 的【文本分类】的 [文本分类器] 的简单整理一、简单介绍
仙魁XAN1 年前
ai·文本分类·agi·hugging face·词元
AGI 之 【Hugging Face】 的【文本分类】的[数据集][文本转换成词元]的简单整理目录AGI 之 【Hugging Face】 的【文本分类】的[数据集][文本转换成词元]的简单整理一、简单介绍
伊织code1 年前
自然语言处理·nlp·文本分类·transformers·评估·inference
NLP transformers - 文本分类本文翻译自:Text classification https://huggingface.co/docs/transformers/tasks/sequence_classification notebook : https://colab.research.google.com/github/huggingface/notebooks/blob/main/transformers_doc/en/pytorch/sequence_classification.ipynb
XianxinMao1 年前
微调·文本分类·机器翻译·文本生成·大型语言模型
微调大型语言模型(LLM):应用案例示例微调大型语言模型(LLM):应用案例示例摘要: 本文讨论了大型语言模型(LLM)的微调,这是一种通过少量数据训练已经预训练好的模型以执行特定任务的过程。微调可以让LLM在翻译、文本分类、文本生成等领域更加高效。本文还提供了微调的实践示例和代码,帮助读者理解并应用微调过程。
会害羞的杨卓越1 年前
rnn·深度学习·nlp·tensorflow·文本分类
TensorFlow2实战-系列教程11:RNN文本分类3有任何问题欢迎在下面留言 本篇文章的代码运行界面均在Jupyter Notebook中进行 本篇文章配套的代码资源已经上传
伪_装1 年前
自然语言处理·分类·cnn·c#·文本分类
基于多种CNN模型在清华新闻语料分类效果上的对比该实验项目目录如图:TextCNN训练效果Test Time0:04:23Test Loaa:0.3Test Acc
wang2008start1 年前
prompt·文本分类·信息抽取·关系抽取·实体识别
基于Prompt Learning的信息抽取清华;liuzhiyuan;通过规则制定subpromptRelation Extraction as Open-book Examination: Retrieval-enhanced Prompt Tuning
QomolangmaH2 年前
人工智能·机器学习·自然语言处理·数据挖掘·文本分类
【2023】数据挖掘课程设计:基于TF-IDF的文本分类目录一、课程设计题目基于TF-IDF的文本分类二、课程设计设置1. 操作系统2. IDE3. python
szZack2 年前
bert·文本分类
【AI实战】BERT 文本分类模型自动化部署之 dockerfile本文主要介绍:BERT 的全称为 Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以致能生成深度的双向语言表征。
.别拖至春天.2 年前
人工智能·自然语言处理·pyqt·分词·文本分类·文本聚类·命名实体识别
自然语言处理应用程序设计原文地址:https://zhanghan.xyz/posts/22426/