《昇思25天学习打卡营第1天|QuickStart》

说在前面

曾经接触过华为的910B服务级显卡,当时基于910B做了一些开发的工作,但是总感觉做的事情太低层,想要能自顶向下的了解下,因此开始了MindSpore的学习。另外也想给予提供的显卡,简单尝试下llm模型的训练,不知道提供的显卡能否支持llm模型训练。

1. QuickStart

介绍了云开发环境的使用方法,以及昇思全家桶。

通过这张图看,我比较感兴趣AI Compiler部分,不过在入门阶段还没有介绍,希望可以通过后续的学习过程中,能了解一些。

接下来用两个推理的小例子,开发下兴趣:

  1. 使用 vit 进行图像分类
    应该是有预训练的模型,这里直接通过封装好的脚本,进行简单的测试:
    跑了vit模型的推理过程,能够将雏菊🌼识别成雏菊。
  2. 使用 BERT 进行中文命名实体识别
    通过一个预训练模型,可以识别命名实体。
    输入是:小明作为开发人员去北京参加华为开发者大会。
    输出是:
json 复制代码
[
	[{
		'entity_group': 'position',
		'start': 4,
		'end': 6,
		'score': 0.72418,
		'word': '开发人'
	}, {
		'entity_group': 'address',
		'start': 9,
		'end': 10,
		'score': 0.9383,
		'word': '北京'
	}, {
		'entity_group': 'company',
		'start': 13,
		'end': 14,
		'score': 0.5476,
		'word': '华为'
	}]
]

可以看出来,Bert识别出了三个词,还算可以吧。在执行的时候是下载的模型,感觉可以直接可以将常用模型都打到镜像中,减少网络消耗。

接下来是一个训练的小例子:

  1. 经典的手写体识别:
    可能是便于入门,这里很多模型封装的都比较简单。几乎点点按钮就可以了,手写体识别的模型名称叫做:lenet,执行了训练的动作,在cpu上训练还是花了几分钟的,过程中的日志信息:

    loss是在逐渐降低的。
    最终的识别结果也是符合预期,只能说,lenet是真的开创性的,不过我还是想要叫做AlexNet

打卡

最后在执行一边,并且打卡。

今天的学习就到这里,整体体验很顺畅,希望接下来每天可以保持,或者一天可以打多个卡。

相关推荐
石像鬼₧魂石10 小时前
HexStrike-AI人工智能 渗透测试学习(Metasploitable2 192.168.1.4)完整流程总结
学习·ubuntu
非凡ghost10 小时前
MusicPlayer2(本地音乐播放器)
前端·windows·学习·软件需求
蓝桉~MLGT11 小时前
Ai-Agent学习历程—— 阶段1——环境的选择、Pydantic基座、Jupyter Notebook的使用
人工智能·学习·jupyter
杰米不放弃12 小时前
AI大模型应用开发学习-26【20251227】
人工智能·学习
执笔论英雄13 小时前
【RL】Megatron使学习forward_backward_func返回值
学习
幺零九零零14 小时前
压测学习-JMeter
学习·jmeter
程途拾光15814 小时前
自监督学习在无标签数据中的潜力释放
人工智能·学习
软件技术NINI14 小时前
JavaScript性能优化实战指南
前端·css·学习·html
Blossom.11815 小时前
多模态大模型LoRA微调实战:从零构建企业级图文检索系统
人工智能·python·深度学习·学习·react.js·django·transformer
一 乐15 小时前
健身房预约|基于springboot + vue健身房预约小程序系统(源码+数据库+文档)
java·数据库·vue.js·spring boot·后端·学习·小程序