技术栈
预训练模型
zeroporn
2 个月前
macos
·
分类
·
数据挖掘
·
nlp
·
transformer
·
预训练模型
·
文本分类
在Mac M1/M2上使用Hugging Face Transformers进行中文文本分类(完整指南)
随着Apple Silicon芯片(M1/M2)的普及,越来越多的开发者希望在Mac上运行深度学习任务。本文将详细介绍如何在Mac M1/M2设备上使用Hugging Face Transformers库进行中文文本分类任务,包括环境配置、数据处理、模型训练和性能优化等完整流程。
Code_流苏
2 个月前
python
·
深度学习
·
微调
·
resnet
·
迁移学习
·
预训练模型
·
超参数优化
《Python星球日记》 第55天:迁移学习与预训练模型
名人说:路漫漫其修远兮,吾将上下而求索。—— 屈原《离骚》 创作者:Code_流苏(CSDN)(一个喜欢古诗词和编程的Coder😊)
Light60
2 个月前
开发语言
·
python
·
深度学习
·
自然语言处理
·
预训练模型
·
transformers库 |
·
|应用场景
智启未来:深度解析Python Transformers库及其应用场景
本文全面系统地介绍了Python Transformers库的基础原理、架构设计与实际应用。重点剖析模型预训练、微调、推理等核心流程,并结合自然语言处理及多模态任务实例,展示了从数据准备到系统部署的完整流程。文章旨在为读者提供理论阐述与实战经验的双重指导,帮助开发者快速上手并深入理解Transformer技术在AI时代的应用价值。
catchtimea
3 个月前
python
·
gpt
·
bert
·
transformer
·
预训练模型
·
elmo
Transformer、ELMo、GPT、BERT的详细理解
以上内容很多参考于博主 v_JULY_v-CSDN博客 的文章和b站up主 自然卷小蛮 的内容(自然卷小蛮的个人空间-自然卷小蛮个人主页-哔哩哔哩视频),如有侵权,联系删除。
喵~来学编程啦
8 个月前
论文阅读
·
计算机视觉
·
prompt
·
论文笔记
·
预训练模型
【论文精读】ID-like Prompt Learning for Few-Shot Out-of-Distribution Detection
🌈 个人主页:十二月的猫-CSDN博客 🔥 系列专栏: 🏀论文精读_十二月的猫的博客-CSDN博客
木亦汐丫
10 个月前
人工智能
·
gpt
·
大模型
·
bert
·
预训练模型
【大模型系列篇】预训练模型:BERT & GPT
2018 年,Google 首次推出 BERT(Bidirectional Encoder Representations from Transformers)。该模型是在大量文本语料库上结合无监督和监督学习进行训练的。 BERT 的目标是创建一种语言模型,可以理解句子中单词的上下文和含义,同时考虑到它前后出现的单词。
David_jiahuan
1 年前
人工智能
·
预训练模型
·
公开数据集
·
ai视觉
AI视觉相关的预训练模型、公开数据集
余俊晖
2 年前
预训练模型
·
多模态
·
文档智能
【文档智能】多模态预训练模型及相关数据集汇总
大模型时代,在现实场景中或者企业私域数据中,大多数数据都以文档的形式存在,如何更好的解析获取文档数据显得尤为重要。文档智能也从以前的目标检测(版面分析)阶段转向多模态预训练阶段,本文将介绍目前一些前沿的多模态预训练模型及相关数据集。
一支绝命钩
2 年前
人工智能
·
python
·
深度学习
·
预训练模型
深度学习:UserWarning: The parameter ‘pretrained‘ is deprecated since 0.13..解决办法
pytorch版本:0.14.1 在利用pytorch中的预训练模型时,如resnet18会提示警告:
uncle_ll
2 年前
bert
·
预训练模型
机器学习:Bert and its family
先用无监督的语料去训练通用模型,然后再针对小任务进行专项训练学习。