正则化概念及使用
- 正则化概念
- 正则化原理
- 常用的两种正则化方法
-
-
- L1 正则化(Lasso)
-
- L2 正则化(Ridge)
-
- 正则化参数
正则化概念
在机器学习中,我们致力于通过从训练数据中学习模式或规律来构建模型。为了找到最佳的模型参数,我们定义了一个损失函数(或成本函数),它度量了模型预测与真实标签之间的差异。我们的目标是最小化这个损失函数,以使模型的预测尽可能接近真实标签。
然而,当模型过于复杂时,它可能会过度拟合训练数据,即在训练数据上表现很好,但在未见过的数据上表现不佳。为了防止过度拟合,我们引入了正则化技术。
正则化原理
正则化通过在损失函数中引入额外的惩罚项,迫使模型偏好较简单的解决方案。这个额外的惩罚项通常与模型参数相关,迫使模型在学习过程中不仅要最小化预测误差,还要尽量减小这个惩罚项的值。这样做的目的是平衡模型的拟合能力和泛化能力,防止过度拟合。
常用的两种正则化方法
在逻辑回归中,常用的正则化方法包括 L1 正则化(Lasso)和 L2 正则化(Ridge)。
1. L1 正则化(Lasso)
-
概念:L1 正则化通过在损失函数中添加参数的 L1 范数作为惩罚项,倾向于产生稀疏的参数向量,从而实现特征选择。
-
使用方式 :在 Scikit-learn 的 LogisticRegression 类中,通过设置参数
penalty='l1'
来启用 L1 正则化。 -
示例代码 :
pythonfrom sklearn.linear_model import LogisticRegression # 创建 LogisticRegression 模型并指定使用 L1 正则化 logreg_l1 = LogisticRegression(penalty='l1', solver='liblinear') # 在训练数据上训练模型 logreg_l1.fit(X_train, y_train) # 在测试数据上评估模型 accuracy = logreg_l1.score(X_test, y_test) print("Accuracy with L1 regularization:", accuracy)
-
调整参数 :通过调整
C
参数来控制 L1 正则化的强度。C
越小,表示正则化的强度越大。
2. L2 正则化(Ridge)
-
概念:L2 正则化通过在损失函数中添加参数的 L2 范数的平方作为惩罚项,倾向于使参数较小,减轻特征之间的共线性问题,并提高模型的泛化能力。
-
使用方式:在 LogisticRegression 类中,默认情况下使用 L2 正则化,因此不需要额外设置。
-
示例代码 :
pythonfrom sklearn.linear_model import LogisticRegression # 创建 LogisticRegression 模型,默认使用 L2 正则化 logreg_l2 = LogisticRegression() # 在训练数据上训练模型 logreg_l2.fit(X_train, y_train) # 在测试数据上评估模型 accuracy = logreg_l2.score(X_test, y_test) print("Accuracy with L2 regularization:", accuracy)
-
调整参数 :通过调整
C
参数来控制 L2 正则化的强度。C
越小,表示正则化的强度越大。
正则化参数
在 Scikit-learn 的 LogisticRegression 中,正则化参数 C
的数值越小,表示正则化的强度越大。具体来说,C
是正则化参数的倒数。这意味着 C
的值越小,正则化的强度越大。更小的 C
值导致了更大的正则化惩罚,因此模型更倾向于选择较小的参数值,以减少过拟合的风险。相反,较大的 C
值会减轻正则化的影响,使模型更容易拟合训练数据,但也可能导致过度拟合。
通过调整 C
参数,我们可以平衡模型的拟合能力和泛化能力,以获得更好的性能。
通过了解正则化的原理和常用方法,我们可以更好地构建具有良好泛化能力的机器学习模型,从而在实际问题中取得更好的效果。