4.7【机器学习】SVM,软间隔,硬间隔,作业题

软间隔、硬件隔

升维,核技巧

目标函数

拉格朗日

如果在约束边界线上,就是紧约束,朗姆达就不等于0,表示起到约束效果,而且约束条件=0

不在的话,就不是,朗姆达就等于0,相当于没起到约束效果

KKT条件,对偶问题

最优解仅与支持向量有关,即只与约束边界上的点有关

首先是要保证约束条件不等式是大于等于0的,然后给约束条件乘个朗姆达,再给它减到原函数里,如果满足约束条件,那么不等式大于0,对于朗姆达,如果是负的话,在不满足约束条件时,为负,那么乘负,再减,还是负,就导致最后结果小于0,就相当于鼓励违反约束条件,所以朗姆达一定是正的或者为0

KKT要改为的形式如上所述

只有相切的地方,梯度方向相反,相加后,才能使新函数的梯度为0,实际就是把新函数拆分为目标函数和约束函数,然后新函数的梯度就是这俩函数的梯度向量和

即目标函数的梯度向量加上约束函数的梯度向量等于0,即方向相反,大小相等,方向是靠约束取点来实现,大小相等是靠拉格朗日乘子朗姆达来实现

如果gX等于0的话,就说明约束条件起到了作用,那么就需要调整朗姆达来使之最后的结果加和为目标函数的方向相反,大小相等的向量

如果不等于0的话,说明没起作用,那么最后的向量上就不应该有它的贡献,所以就要让朗姆达为0,表示不起作用

如果在可行域的话,那么约束条件都满足;不在可行域的话,一定都不满足约束条件

满足约束条件时,小于等于0,要让它最大,必然为0,那最后就只剩下了原函数

对x求梯度为0,实际就是在x下最小值

就是说同一个函数里最小值里的最大值一定小于等于其最大值里的最小值

作业题

RBF

复制代码
clear
x=[0 0;0 1; 1 0;1 1];
y=[0;1;1;0];

hideNum=10;               %隐层神经元数目,要求必须大于输入层个数
rho=rand(4,hideNum);       %径向基函数的值
py=rand(4,1);             %输出值
w=rand(1,hideNum);        %隐层第i个神经元与输出神经元的权值
beta=rand(1,hideNum);     %样本与第i个神经元的中心的距离的缩放系数
eta=0.5;                    %学习率

c=rand(hideNum,2);     %隐层第i个神经元的中心

kn=0;                 %累计迭代的次数
sn=0;                 %同样的累积误差值累积次数
previous_E=0;          %前一次迭代的累积误差

while(1)
  kn=kn+1;
  E=0;
  %计算每个样本的径向基函数值
  for i=1:4
    for j=1:hideNum
      p(i,j)=exp(-beta(j)*(x(i,:)-c(j,:))*(x(i,:)-c(j,:))');
     end
     py(i)=w*p(i,:)'; 
   end
   %计算累积误差
   for i=1:4
     E=E+((py(i)-y(i))^2);    %计算均方误差
   end
     E=E/2;    %累积误差
   
   %更新w、beta
   delta_w=zeros(1,hideNum);
   delta_beta=zeros(1,hideNum);
   for i=1:4
     for j=1:hideNum
       delta_w(j)=delta_w(j)+(py(i)-y(i))*p(i,j);
       delta_beta(j)= delta_beta(j)-(py(i)-y(i))*w(j)*(x(i,:)-c(j,:))*(x(i,:)-c(j,:))'*p(i,j);
      end
     end
     
    %更新w、beta
    w=w-eta*delta_w/4;
    beta=beta-eta*delta_beta/4;
    
    %迭代终止的条件
    if(abs(previous_E-E)<0.0001)
       sn=sn+1;
       if(sn==50)
         break;
        end
     else
       previous_E=E;
       sn=0;
      end
      
 end

6.5

若将隐层神经元数设置为训练样本数,且每个训练样本对应一个神经元中心,则以高斯径向基函数为激活函数的RBF网络恰与高斯核SVM的预测函数相同。

6.6

SVM的决策只基于决策边界的支持向量,如果支持向量含有噪音,就会对决策造成影响,因此SVM对噪音敏感。

相关推荐
geneculture35 分钟前
社会应用融智学的人力资源模式:潜能开发评估;认知基建资产
人工智能·课程设计·融智学的重要应用·三级潜能开发系统·人力资源升维·认知基建·认知银行
仙人掌_lz3 小时前
Qwen-3 微调实战:用 Python 和 Unsloth 打造专属 AI 模型
人工智能·python·ai·lora·llm·微调·qwen3
美林数据Tempodata4 小时前
大模型驱动数据分析革新:美林数据智能问数解决方案破局传统 BI 痛点
数据库·人工智能·数据分析·大模型·智能问数
硅谷秋水4 小时前
NORA:一个用于具身任务的小型开源通才视觉-语言-动作模型
人工智能·深度学习·机器学习·计算机视觉·语言模型·机器人
正儿八经的数字经4 小时前
人工智能100问☞第46问:AI是如何“学习”的?
人工智能·学习
飞哥数智坊4 小时前
别卷提示词了!像带新人一样“带”AI,产出效率翻倍
人工智能
扫地的小何尚5 小时前
全新NVIDIA Llama Nemotron Nano视觉语言模型在OCR基准测试中准确率夺冠
c++·人工智能·语言模型·机器人·ocr·llama·gpu
m0_575470885 小时前
n8n实战:自动化生成AI日报并发布
人工智能·ai·自动化·ai自动写作
时空无限5 小时前
使用 ollama 在 mac 本地部署一个 qwen3:8b 模型
人工智能·语言模型