【云端深度学习训练与部署平台】AutoDL连接VSCode运行深度学习项目的全流程

目录

[📌 摘要:AutoDL平台使用全流程指南](#📌 摘要:AutoDL平台使用全流程指南)

一、AutoDL介绍

[1.1 简介](#1.1 简介)

[1.2 核心功能](#1.2 核心功能)

[1.3 AutoDL 的优势](#1.3 AutoDL 的优势)

[1.4 示例场景](#1.4 示例场景)

二、租用云服务器

[2.1 进入官网](#2.1 进入官网)

[2.2 选择服务器](#2.2 选择服务器)

[2.3 查看配置信息](#2.3 查看配置信息)

[扩展知识点:AutoDL 平台中「1卡」与「2卡」](#扩展知识点:AutoDL 平台中「1卡」与「2卡」)

1、什么是「1卡」「2卡」?

2、二者的核心区别

3、举个例子

4、一句话总结

三、VScode连接服务器

[3.1 VScode中下载Remote-SSH插件](#3.1 VScode中下载Remote-SSH插件)

[3.2 连接服务器](#3.2 连接服务器)

[3.3 查看数据盘位置](#3.3 查看数据盘位置)

[3.4 安装高级 GPU 监控工具](#3.4 安装高级 GPU 监控工具)


📌 摘要:AutoDL平台使用全流程指南

本文详细介绍了 AutoDL 平台的使用方法,从平台简介、服务器租用、VSCode远程连接,到高级GPU监控工具的安装,适合中文开发者快速上手深度学习任务。


一、AutoDL介绍

1.1 简介

AutoDL 是一个面向开发者和 AI 初学者的 深度学习在线训练平台,支持在线上传数据、选择模型、训练微调,并可生成 API 进行部署调用,目标是**"让训练大模型像点外卖一样简单"**。

AutoDL 是一个适合中文开发者使用的"云端深度学习训练与部署平台",零代码快速上手模型微调与应用上线,非常适合教学、实验、原型开发和中小企业使用。


1.2 核心功能

功能 说明
🖥 在线训练 无需本地安装环境,网页端即可上传数据、启动训练
🧠 模型支持 支持 BERT、LLaMA、ChatGLM、Qwen、Whisper 等多种模型
💾 数据上传 可直接上传 CSV、JSON、TXT 等格式数据
🔁 微调支持 支持分类、生成、问答、指令微调等任务类型
🚀 快速部署 一键部署 API,可用于网页、微信小程序等调用
📊 可视化 提供训练过程图表、模型评估指标、混淆矩阵等展示
🛠 自定义配置 可调学习率、batch size、LoRA 参数等(专业模式)

1.3 AutoDL 的优势

优点 描述
零环境配置 适合没有本地算力或不懂 PyTorch 的用户
中文友好 全中文界面,适合国内初学者与中小团队
轻量微调 支持 LoRA、Prefix 等参数高效微调方式
模型上线快 训练完成后生成接口或网页 demo,可直接上线
自动化高 类似"AI 训练托管平台",开箱即用、简化流程

1.4 示例场景

  • 上传客服问答语料,微调一个 ChatGLM 模型,生成客服对话 API

  • 上传情感评论数据(正/负),微调 BERT 做情感分类

  • 上传语音音频,使用 Whisper 模型完成语音转文本

  • 上传公司文档,用向量检索 + 大模型问答做企业知识助手


二、租用云服务器

2.1 进入官网

AUtoDL官网地址:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL

登录账号


2.2 选择服务器

选择之前,先去充一定额度,选择【自定义】,根据情况充即可,可以一点一点充;

选择服务器

选择【基础镜像】,其余步骤如下图

创建成功,


2.3 查看配置信息

1、点击jupterLab,进入开发界面;

2、选择【终端】

该界面可用来对服务器进行操作;

3、查看服务器配置信息

复制代码
nvidia-smi

可以发现,显卡是3090,显存是24GB


扩展知识点:AutoDL 平台中「1卡」与「2卡」

1、什么是「1卡」「2卡」?

在 AutoDL 平台中,「卡」指的是 显卡数量(GPU)

训练任务会分配对应数量的显卡资源给你:

配置 含义 适合场景
1卡 分配 1 块 GPU(如 A100-80G) 小模型微调、小数据集、单任务
2卡 分配 2 块 GPU(并行训练) 大模型微调、大数据集、训练提速
2、二者的核心区别
对比项 1卡 2卡
💻 计算能力 单块 GPU,算力有限 双卡并行,训练更快
🧠 可训练模型大小 支持中小模型(如 BERT、小型 LLaMA) 支持大模型(如 ChatGLM3-6B、Qwen-7B)
⏱ 训练速度 相对较慢 更快(尤其在大 batch / 多样本时)
🧾 资源费用 较低(适合试验) 较高(更适合正式训练)
🧰 编程复杂度 逻辑简单,无需分布式 背后自动使用 PyTorch DDP(无需你手动处理)
3、举个例子
  • 你想微调一个 BERT 模型做情感分类,只有几千条文本 → 用 1卡 就足够

  • 你想微调 ChatGLM-6B 模型,样本几万条,每轮训练很慢 → 建议用 2卡


4、一句话总结

1卡 = 基础版:适合中小模型、原型验证;2卡 = 加强版:适合大模型、大数据,更快更强。


三、VScode连接服务器

前提:安装好VS Code

3.1 VScode中下载Remote-SSH插件

Remote-SSH 是 VSCode 插件,用于通过 SSH 远程连接服务器,在本地界面中像操作本地一样编辑、运行、调试远程代码。


3.2 连接服务器

到Autodl中,复制【登录指令】

回到vscode→电脑图标→点击SSH后的"+"图标 →粘贴复制的【登录指令】

这时会出现.ssh的配置路径,选择电脑默认账户即可;

选择完后,右下角出现连接弹窗,点击【连接】

点击连接后,会出现一个新的VScode窗口,就是服务器窗口

再到Autodl中复制服务器【密码】

新VScode窗口(服务器窗口):

选择【Linux】→继续→粘贴【密码】

打开文件→确定

在输入框中在粘贴一次【密码】

到这里,服务器就连接成功了,之后就可以通过服务器做开发了。


3.3 查看数据盘位置

在租用不同的服务器时,文件结构可能会有所不同,我们可以直接通过终端查看数据盘和系统盘的位置,因为在做微调时,一般是把模型存放在数据盘中。


3.4 安装高级 GPU 监控工具

复制代码
#安装高级 GPU 监控工具
pip install nvitop

#启动工具
nvitop

在终端输入【pip install nvitop】 ,执行安装依赖

输入【nvitop】,启动工具后,就能够通过终端实时查看GPU的实时状态了;

启动该工具后,该终端也将无法再进行操作,可以新建一个【终端】执行其他操作;

相关推荐
我爱一条柴ya28 分钟前
【AI大模型】LLM模型架构深度解析:BERT vs. GPT vs. T5
人工智能·python·ai·ai编程
Coovally AI模型快速验证29 分钟前
从FCOS3D到PGD:看深度估计如何快速搭建你的3D检测项目
人工智能·深度学习·神经网络·yolo·3d·cnn
kikikidult4 小时前
Ubuntu20.04运行openmvg和openmvs实现三维重建(未成功,仅供参考)
人工智能·笔记·ubuntu·计算机视觉
189228048614 小时前
NW728NW733美光固态闪存NW745NW746
大数据·服务器·网络·人工智能·性能优化
大模型最新论文速读5 小时前
模拟注意力:少量参数放大 Attention 表征能力
人工智能·深度学习·机器学习·语言模型·自然语言处理
lishaoan775 小时前
用TensorFlow进行逻辑回归(二)
人工智能·tensorflow·逻辑回归
慌ZHANG6 小时前
智慧气象新范式:人工智能如何重构城市级气象服务生态?
人工智能
Eumenidus6 小时前
使用ESM3蛋白质语言模型进行快速大规模结构预测
人工智能·语言模型·自然语言处理
熊猫钓鱼>_>6 小时前
FastGPT革命:下一代语言模型的极速进化
人工智能·语言模型·自然语言处理
吕永强6 小时前
电网的智能觉醒——人工智能重构能源生态的技术革命与公平悖论
人工智能·科普