找到【SVM】中最优的惩罚项系数C

因为本来SVM是想找到间隔最大的分割面,所以C越大,SVC会选择边际更小的,能够更好的分类所有训练点的决策边界,不过模型的训练时间也会越长。如果C的设定值较小,那SVC会尽量最大化边界,决策功能会更简单,但代价是训练的准确度。

我们先来调线性核函数:

python 复制代码
#调线性核函数
score = []
C_range = np.linspace(0.01,30,50)
for i in C_range:
    clf = SVC(kernel="linear",C=i,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9766081871345029 1.2340816326530613

可以看到准确率最高是97%以上。接下来我们来看看在rbf上的结果:

python 复制代码
score = []
C_range = np.linspace(0.01,30,50)
for i in C_range:
    clf = SVC(kernel="rbf",C=i,gamma = 0.012742749857031322,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
    
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9824561403508771 6.130408163265306

既然最高的得分所对应的C值是6,那么我们可以在5-7之间进一步细化,看能否找到一个更好的局部最优:

python 复制代码
#进一步细化
score = []
C_range = np.linspace(5,7,50)
for i in C_range:
    clf = SVC(kernel="rbf",C=i,gamma = 
0.012742749857031322,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
    
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9824561403508771 5.938775510204081

可以看到,98.2456%就是我们最好的得分。

相关推荐
AC赳赳老秦3 分钟前
测试工程师:OpenClaw自动化测试脚本生成,批量执行测试用例
大数据·linux·人工智能·python·django·测试用例·openclaw
Rubin智造社4 分钟前
04月18日AI每日参考:Claude Design上线冲击设计圈,OpenAI高管接连出走
人工智能·anthropic·claude design·openai高管·metr·ai拟人化监管
人工智能AI技术5 分钟前
面试官内部面经,仅限应届生看
人工智能
rainbow72424415 分钟前
AI学习路线分享:通用型认证与算法认证学习体验对比
人工智能·学习·算法
IT_陈寒18 分钟前
Java集合的这个坑,我调试了整整3小时才爬出来
前端·人工智能·后端
Simon_lca21 分钟前
验厂不翻车!Acushnet 11 项核心政策 + 自查要点,一文搞定
大数据·人工智能·经验分享·算法·制造
2501_9481142422 分钟前
2026 深度评测:Qwen 3.6-Plus 全模态逻辑链融合架构解析与高可用接入实践
人工智能·gpt·ai·架构·claude
水如烟23 分钟前
孤能子视角:AI分形定律,结构依赖度 = AI能效比,以及科研“结构偏见“端倪
人工智能
一江寒逸34 分钟前
人工智能的“记忆灵魂”:深度拆解大模型时代的上下文技术体系、实战与未来
人工智能
开放知识图谱38 分钟前
论文浅尝 | 图形约束推理:基于大型语言模型在知识图谱上的可信推理(ICML2025)
人工智能·语言模型·自然语言处理·知识图谱