找到【SVM】中最优的惩罚项系数C

因为本来SVM是想找到间隔最大的分割面,所以C越大,SVC会选择边际更小的,能够更好的分类所有训练点的决策边界,不过模型的训练时间也会越长。如果C的设定值较小,那SVC会尽量最大化边界,决策功能会更简单,但代价是训练的准确度。

我们先来调线性核函数:

python 复制代码
#调线性核函数
score = []
C_range = np.linspace(0.01,30,50)
for i in C_range:
    clf = SVC(kernel="linear",C=i,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9766081871345029 1.2340816326530613

可以看到准确率最高是97%以上。接下来我们来看看在rbf上的结果:

python 复制代码
score = []
C_range = np.linspace(0.01,30,50)
for i in C_range:
    clf = SVC(kernel="rbf",C=i,gamma = 0.012742749857031322,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
    
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9824561403508771 6.130408163265306

既然最高的得分所对应的C值是6,那么我们可以在5-7之间进一步细化,看能否找到一个更好的局部最优:

python 复制代码
#进一步细化
score = []
C_range = np.linspace(5,7,50)
for i in C_range:
    clf = SVC(kernel="rbf",C=i,gamma = 
0.012742749857031322,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
    
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9824561403508771 5.938775510204081

可以看到,98.2456%就是我们最好的得分。

相关推荐
_codemonster9 分钟前
AI大模型入门到实战系列(八)文本聚类
人工智能·数据挖掘·聚类
AI码上来21 分钟前
眼神交流+触摸感应,打造更贴心的小智AI:原理和实现
人工智能
露临霜21 分钟前
重启机器学习
人工智能·机器学习
IT·小灰灰35 分钟前
告别“翻墙“烦恼:DMXAPI让Gemini-3-pro-thinking调用快如闪电
网络·人工智能·python·深度学习·云计算
gwd20037 分钟前
如何快速设置 Docker 代理设置
运维·人工智能·docker·容器
CappuccinoRose1 小时前
均值向量的检验
机器学习·均值向量·均值向量的检验·多元均值向量的检验
DatGuy1 小时前
Week 29: 深度学习补遗:MoE的稳定性机制与路由策略实现
人工智能·深度学习
mys55181 小时前
杨建允:AI搜索趋势对留学服务行业的影响
人工智能·geo·ai搜索优化·geo优化·ai引擎优化
Curvatureflight1 小时前
前端性能优化实战:从3秒到300ms的加载速度提升
前端·人工智能·性能优化
新智元1 小时前
仅 4 人 28 天!OpenAI 首曝 Sora 内幕:85% 代码竟由 AI 完成
人工智能·openai