预训练模型

zeroporn2 个月前
macos·分类·数据挖掘·nlp·transformer·预训练模型·文本分类
在Mac M1/M2上使用Hugging Face Transformers进行中文文本分类(完整指南)随着Apple Silicon芯片(M1/M2)的普及,越来越多的开发者希望在Mac上运行深度学习任务。本文将详细介绍如何在Mac M1/M2设备上使用Hugging Face Transformers库进行中文文本分类任务,包括环境配置、数据处理、模型训练和性能优化等完整流程。
Code_流苏2 个月前
python·深度学习·微调·resnet·迁移学习·预训练模型·超参数优化
《Python星球日记》 第55天:迁移学习与预训练模型名人说:路漫漫其修远兮,吾将上下而求索。—— 屈原《离骚》 创作者:Code_流苏(CSDN)(一个喜欢古诗词和编程的Coder😊)
Light602 个月前
开发语言·python·深度学习·自然语言处理·预训练模型·transformers库 |·|应用场景
智启未来:深度解析Python Transformers库及其应用场景本文全面系统地介绍了Python Transformers库的基础原理、架构设计与实际应用。重点剖析模型预训练、微调、推理等核心流程,并结合自然语言处理及多模态任务实例,展示了从数据准备到系统部署的完整流程。文章旨在为读者提供理论阐述与实战经验的双重指导,帮助开发者快速上手并深入理解Transformer技术在AI时代的应用价值。
catchtimea3 个月前
python·gpt·bert·transformer·预训练模型·elmo
Transformer、ELMo、GPT、BERT的详细理解以上内容很多参考于博主 v_JULY_v-CSDN博客 的文章和b站up主 自然卷小蛮 的内容(自然卷小蛮的个人空间-自然卷小蛮个人主页-哔哩哔哩视频),如有侵权,联系删除。
喵~来学编程啦8 个月前
论文阅读·计算机视觉·prompt·论文笔记·预训练模型
【论文精读】ID-like Prompt Learning for Few-Shot Out-of-Distribution Detection🌈 个人主页:十二月的猫-CSDN博客 🔥 系列专栏: 🏀论文精读_十二月的猫的博客-CSDN博客
木亦汐丫10 个月前
人工智能·gpt·大模型·bert·预训练模型
【大模型系列篇】预训练模型:BERT & GPT2018 年,Google 首次推出 BERT(Bidirectional Encoder Representations from Transformers)。该模型是在大量文本语料库上结合无监督和监督学习进行训练的。 BERT 的目标是创建一种语言模型,可以理解句子中单词的上下文和含义,同时考虑到它前后出现的单词。
David_jiahuan1 年前
人工智能·预训练模型·公开数据集·ai视觉
AI视觉相关的预训练模型、公开数据集
余俊晖2 年前
预训练模型·多模态·文档智能
【文档智能】多模态预训练模型及相关数据集汇总大模型时代,在现实场景中或者企业私域数据中,大多数数据都以文档的形式存在,如何更好的解析获取文档数据显得尤为重要。文档智能也从以前的目标检测(版面分析)阶段转向多模态预训练阶段,本文将介绍目前一些前沿的多模态预训练模型及相关数据集。
一支绝命钩2 年前
人工智能·python·深度学习·预训练模型
深度学习:UserWarning: The parameter ‘pretrained‘ is deprecated since 0.13..解决办法pytorch版本:0.14.1 在利用pytorch中的预训练模型时,如resnet18会提示警告:
uncle_ll2 年前
bert·预训练模型
机器学习:Bert and its family先用无监督的语料去训练通用模型,然后再针对小任务进行专项训练学习。