找到【SVM】中最优的惩罚项系数C

因为本来SVM是想找到间隔最大的分割面,所以C越大,SVC会选择边际更小的,能够更好的分类所有训练点的决策边界,不过模型的训练时间也会越长。如果C的设定值较小,那SVC会尽量最大化边界,决策功能会更简单,但代价是训练的准确度。

我们先来调线性核函数:

python 复制代码
#调线性核函数
score = []
C_range = np.linspace(0.01,30,50)
for i in C_range:
    clf = SVC(kernel="linear",C=i,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9766081871345029 1.2340816326530613

可以看到准确率最高是97%以上。接下来我们来看看在rbf上的结果:

python 复制代码
score = []
C_range = np.linspace(0.01,30,50)
for i in C_range:
    clf = SVC(kernel="rbf",C=i,gamma = 0.012742749857031322,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
    
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9824561403508771 6.130408163265306

既然最高的得分所对应的C值是6,那么我们可以在5-7之间进一步细化,看能否找到一个更好的局部最优:

python 复制代码
#进一步细化
score = []
C_range = np.linspace(5,7,50)
for i in C_range:
    clf = SVC(kernel="rbf",C=i,gamma = 
0.012742749857031322,cache_size=5000).fit(Xtrain,Ytrain)
    score.append(clf.score(Xtest,Ytest))
    
print(max(score), C_range[score.index(max(score))])
plt.plot(C_range,score)
plt.show()

输出结果为:0.9824561403508771 5.938775510204081

可以看到,98.2456%就是我们最好的得分。

相关推荐
YuhsiHu10 分钟前
【论文精读】ACE-Zero
人工智能·深度学习·计算机视觉·3d·机器人
声网12 分钟前
Tavus 发布对话轮次控制模型:能理解对话节奏和意图;百度推出 AI 情感陪伴应用月匣,整合 MiniMax 等模型丨日报
人工智能
晴空对晚照14 分钟前
[动手学习深度学习]12.权重衰退
人工智能·深度学习·学习
蹦蹦跳跳真可爱58929 分钟前
Python----计算机视觉处理(opencv:图片灰度化)
人工智能·python·opencv·计算机视觉
岛屿旅人32 分钟前
基于生成式人工智能的网络安全主动防御技术(上)
网络·人工智能·安全·web安全·网络安全
A林玖36 分钟前
KNN算法原理及python代码实现
人工智能·机器学习
喵叔哟1 小时前
AI落地:走入生活--引言
人工智能·生活
GIS数据转换器1 小时前
空间遥感智能处理技术发展现状与趋势
大数据·人工智能·gis·智慧城市
六边形战士DONK2 小时前
03_NLP常用的文本数据分析处理方法
人工智能·自然语言处理·数据分析
梦丶晓羽2 小时前
自然语言处理:主题模型
人工智能·python·自然语言处理·lda·主题模型