机器学习和深度学习在代码实现流程上有诸多共通之处,但由于深度学习模型更复杂、依赖算力更强,在部分环节存在显著差异。以下从相同流程和不同流程两方面梳理:
一、相同流程(核心逻辑一致)
问题定义与目标明确
- 确定任务类型(分类、回归、聚类、生成等),明确输入数据和输出目标(如预测房价、识别图像类别)。
- 评估指标定义(如准确率、MSE、F1 分数等)。
数据收集与加载
- 从文件(CSV、JSON、图像库等)、数据库或 API 获取数据,用工具(Pandas、NumPy、OpenCV 等)加载。
- 示例:
pd.read_csv("data.csv")
加载表格数据,cv2.imread()
加载图像。
数据预处理
- 清洗:处理缺失值(填充、删除)、异常值(检测与修正)。
- 转换:特征编码(类别变量转独热编码 / 标签编码)、数据归一化 / 标准化(如 Min-Max、Z-score)。
- 示例:
SimpleImputer
填充缺失值,StandardScaler
标准化特征。
特征工程
- 特征选择(过滤法、嵌入法、包裹法)、特征降维(PCA、t-SNE)、特征构造(如多项式特征)。
- 示例:
SelectKBest
选择重要特征,PCA(n_components=2)
降维。
数据集划分
- 将数据分为训练集(训练模型)、验证集(调参)、测试集(评估最终性能),常用
train_test_split
。 - 示例:
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)
。
模型训练
- 初始化模型,用训练集拟合参数,通过反向传播(深度学习)或优化算法(如 SGD、Adam,机器学习部分模型也用)更新参数。
- 示例:
model.fit(X_train, y_train)
(Scikit-learn / 深度学习框架均支持类似接口)。
模型评估
- 用测试集计算评估指标,分析模型性能(如混淆矩阵、ROC 曲线)。
- 示例:
model.score(X_test, y_test)
计算准确率,roc_auc_score(y_test, y_pred)
评估 AUC。
模型调优
- 调整超参数(如学习率、树的深度),通过网格搜索(GridSearchCV)、随机搜索(RandomizedSearchCV)优化。
- 示例:
GridSearchCV(estimator, param_grid, cv=5)
遍历参数组合。
模型部署
- 将训练好的模型保存(如
joblib.dump()
、torch.save()
),部署到生产环境(API、移动端等)。
二、不同流程(深度学习特有或差异显著环节)
机器学习特有(或简化环节)
模型选择更依赖传统算法
- 以轻量级模型为主,如逻辑回归、SVM、决策树、随机森林等,直接调用 Scikit-learn 等库的现成实现,无需手动设计网络结构。
- 示例:
from sklearn.ensemble import RandomForestClassifier
。
算力需求低,训练速度快
- 无需 GPU 加速,普通 CPU 可高效训练,适合小规模数据或简单任务。
特征工程依赖性高
- 模型性能严重依赖人工特征设计(如手动提取图像的边缘、纹理特征),特征质量直接决定效果。
深度学习特有(或复杂环节)
模型结构设计
- 需要手动定义网络层(如卷积层、循环层、Transformer 块)、激活函数、损失函数,依赖框架(TensorFlow、PyTorch)搭建。
- 示例(PyTorch):
python
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 32, 3) # 卷积层
self.fc1 = nn.Linear(32*28*28, 10) # 全连接层
def forward(self, x):
x = self.conv1(x)
return self.fc1(x.flatten(1))
数据增强(针对图像、文本等)
- 为缓解过拟合,对训练数据进行随机变换(如图像旋转、裁剪、翻转,文本同义词替换),常用框架内置工具(如 TorchVision 的
transforms
)。 - 示例:
transforms.RandomCrop(224)
随机裁剪图像。
批处理与迭代训练
- 数据量大时需分批次(batch)训练,通过
DataLoader
(PyTorch)或tf.data
(TensorFlow)实现批量加载和迭代。 - 示例:
DataLoader(dataset, batch_size=32, shuffle=True)
。
算力与硬件依赖
- 必须依赖 GPU 加速(大规模模型需多 GPU 或 TPU),否则训练时间过长,需配置框架的设备参数(如
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
)。
正则化与优化细节更复杂
- 除传统正则化(L1/L2),还需设置 dropout 率、批归一化(BatchNorm)、学习率调度(如余弦退火)等。
- 示例:
nn.Dropout(0.5)
随机丢弃神经元,torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=10)
调整学习率。
预训练与迁移学习
- 常用预训练模型(如 ResNet、BERT)微调,减少数据需求和训练成本,需加载预训练权重并冻结部分层。
- 示例:
resnet = torchvision.models.resnet50(pretrained=True)
加载预训练 ResNet。
总结
两者核心流程(数据处理、训练、评估)一致,但深度学习在模型设计、数据增强、算力依赖、优化细节上更复杂,且更依赖自动化特征提取(减少人工特征工程);机器学习则侧重传统算法和人工特征设计,适合小规模任务。