找到【SVM】中最优的惩罚项系数C

因为本来SVM是想找到间隔最大的分割面,所以C越大,SVC会选择边际更小的,能够更好的分类所有训练点的决策边界,不过模型的训练时间也会越长。如果C的设定值较小,那SVC会尽量最大化边界,决策功能会更简单,但代价是训练的准确度。

我们先来调线性核函数:

python 复制代码
#调线性核函数
score = []
C_range = np.linspace(0.01,30,50)
for i in C_range:
    clf = SVC(kernel="linear",C=i,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9766081871345029 1.2340816326530613

可以看到准确率最高是97%以上。接下来我们来看看在rbf上的结果:

python 复制代码
score = []
C_range = np.linspace(0.01,30,50)
for i in C_range:
    clf = SVC(kernel="rbf",C=i,gamma = 0.012742749857031322,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
    
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9824561403508771 6.130408163265306

既然最高的得分所对应的C值是6,那么我们可以在5-7之间进一步细化,看能否找到一个更好的局部最优:

python 复制代码
#进一步细化
score = []
C_range = np.linspace(5,7,50)
for i in C_range:
    clf = SVC(kernel="rbf",C=i,gamma = 
0.012742749857031322,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
    
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9824561403508771 5.938775510204081

可以看到,98.2456%就是我们最好的得分。

相关推荐
无名-CODING7 分钟前
计算机视觉技术底层原理说明文档(上篇):基础与图像处理
图像处理·人工智能·计算机视觉
实在智能RPA8 分钟前
2026 企业 AI 选型博弈:自研大模型底座的“研发黑洞” vs. 标准化 Agent 平台的“效能突围”
人工智能·ai
fundoit11 分钟前
OpenClaw通过ROS控制机器人完整教程
人工智能·ai·机器人·ai编程·openclaw
deephub19 分钟前
TPU 架构与 Pallas Kernel 编程入门:从内存层次结构到 FlashAttention
人工智能·python·深度学习·tpu
人工智能培训22 分钟前
少量样本下具身智能的新环境快速适应路径
人工智能·深度学习·机器学习
枫叶林FYL30 分钟前
【脑电图信号自动睡眠分期(机器学习驱动睡眠质量评估)】第二章 应用场景拓展、可穿戴集成与临床转化挑战
人工智能·深度学习·机器学习
K姐研究社30 分钟前
Pexo AI视频制作教程 – 零门槛生成UGC带货视频
人工智能
智能工业品检测-奇妙智能31 分钟前
绩效考核系统的核心功能
人工智能·目标检测·计算机视觉·奇妙智能
多租户观察室31 分钟前
工作流新生态:2026年工作流与Coding的重新分工
前端·人工智能·后端·低代码
枫叶林FYL32 分钟前
公开数据集类型汇总分类
人工智能·分类·数据挖掘