文本分类

开着奔驰种地3 个月前
深度学习·docker·文本分类·paddle
PaddleNLP本文分类及docker部署流程本文记录使用PaddleNLP进行文本分类的全流程参考:https://github.com/PaddlePaddle/PaddleNLP/tree/develop/legacy/applications/text_classification/multi_class
chencjiajy4 个月前
论文阅读·bert·文本分类
文本分类场景下微调BERT论文《How to Fine-Tune BERT for Text Classification?》是2019年发表的一篇论文。这篇文章做了一些实验来分析了如何在文本分类场景下微调BERT,是后面网上讨论如何微调BERT时经常提到的论文。
仙魁XAN6 个月前
transformer·文本分类·agi·hugging face·文本分类器
AGI 之 【Hugging Face】 的【文本分类】的 [文本分类器] 的简单整理目录AGI 之 【Hugging Face】 的【文本分类】的 [文本分类器] 的简单整理一、简单介绍
仙魁XAN6 个月前
ai·文本分类·agi·hugging face·词元
AGI 之 【Hugging Face】 的【文本分类】的[数据集][文本转换成词元]的简单整理目录AGI 之 【Hugging Face】 的【文本分类】的[数据集][文本转换成词元]的简单整理一、简单介绍
伊织code8 个月前
自然语言处理·nlp·文本分类·transformers·评估·inference
NLP transformers - 文本分类本文翻译自:Text classification https://huggingface.co/docs/transformers/tasks/sequence_classification notebook : https://colab.research.google.com/github/huggingface/notebooks/blob/main/transformers_doc/en/pytorch/sequence_classification.ipynb
XianxinMao9 个月前
微调·文本分类·机器翻译·文本生成·大型语言模型
微调大型语言模型(LLM):应用案例示例微调大型语言模型(LLM):应用案例示例摘要: 本文讨论了大型语言模型(LLM)的微调,这是一种通过少量数据训练已经预训练好的模型以执行特定任务的过程。微调可以让LLM在翻译、文本分类、文本生成等领域更加高效。本文还提供了微调的实践示例和代码,帮助读者理解并应用微调过程。
会害羞的杨卓越1 年前
rnn·深度学习·nlp·tensorflow·文本分类
TensorFlow2实战-系列教程11:RNN文本分类3有任何问题欢迎在下面留言 本篇文章的代码运行界面均在Jupyter Notebook中进行 本篇文章配套的代码资源已经上传
伪_装1 年前
自然语言处理·分类·cnn·c#·文本分类
基于多种CNN模型在清华新闻语料分类效果上的对比该实验项目目录如图:TextCNN训练效果Test Time0:04:23Test Loaa:0.3Test Acc
wang2008start1 年前
prompt·文本分类·信息抽取·关系抽取·实体识别
基于Prompt Learning的信息抽取清华;liuzhiyuan;通过规则制定subpromptRelation Extraction as Open-book Examination: Retrieval-enhanced Prompt Tuning
QomolangmaH1 年前
人工智能·机器学习·自然语言处理·数据挖掘·文本分类
【2023】数据挖掘课程设计:基于TF-IDF的文本分类目录一、课程设计题目基于TF-IDF的文本分类二、课程设计设置1. 操作系统2. IDE3. python
szZack1 年前
bert·文本分类
【AI实战】BERT 文本分类模型自动化部署之 dockerfile本文主要介绍:BERT 的全称为 Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以致能生成深度的双向语言表征。
.别拖至春天.1 年前
人工智能·自然语言处理·pyqt·分词·文本分类·文本聚类·命名实体识别
自然语言处理应用程序设计原文地址:https://zhanghan.xyz/posts/22426/