5.27周报

这两周邻近毕业故没有很多时间来学习课余内容,另外最近身体有些不舒服【偏头痛】,所以学的内容不多,包括SVM向量机和ResNet【不包括代码复现】

1.SVM支持向量机的大概内容

1、目的:

  1. 主要内容是如何找到分类的那条线【超平面】------>此线应该是唯一的,那么如何保证两条平行线的最大距离d。
    2.而我们的SVM的目的就是找到这个最大化d以及分类的超平面。

2、相关工作:

1.点到平面的距离 【因为要寻找到我们对样本进行分类的超平面】------>进而衍生到了向量X0到超平面的距离。
2. 将距离公式进行演变 ,目的是最大化d即为最小化||w||^2。

**3.给模型规定限制条件:**目的是区分支持向量和非支持向量。

3.引入松弛变量求W: 但是最小化方程1/2||W||^2最小化求极值点W是无解的,所以我们需要添加一个正则项(Regulation Term)去求解【也就是我们的松弛变量,在反向传播算法中常用来减少梯度消失问题】,还有一种可能优化问题求解的解并不是我们想要的,我们也需要加一个正则项。【本质凸优化问题求唯一极值点】

4.问题:但是如果样本为线性不可分,则无法进行分类:

1、引入思想: 高维映射,将低维矢量映射到高维,然后用一个向量代数式表示。【这里用了异或问题进行解释,参考链接】

在这里也有一个思想出现了:无限维度被线性可分的概率接近1。

2、后面得到了约束条件的方程【本质类似与低维,只是我们的W变成向量,而那个fai函数也是一个高维映射,两内积相乘为常量】,可以发现分类结果已经出来了。

5.所以按过程来说我们应该要求这个高维映射函数,这里涉及核函数的引入【具体推导过程参考链接】

目的:无需显式的计算高维映射函数,内积得到常量,减少复杂性【推导过程极其优美】

6.引入对偶问题和原问题,将优化问题转换到对偶空间【引入拉格朗日乘数,主要好处是优化问题变成了仅依赖于数据点之间内积的形式,在后续公式推导中可以直接将核函数进行带入计算出高维空间的内积(核技巧)】

笔记一:

关于对偶问题的学习以及原问题如何转换为对偶问题的学习

笔记二:

SVM解决线性可分问题

2.ResNet残差网络的学习

本文基于何明凯前辈论文的学习,首先是学习了残差网络的背景,就于梯度消失和cnn参数过大FLOPs过多,以及VGG/plain网络的劣势进行对比,进而提出方案【所涉及的技术,如何改进等】

笔记三:
https://blog.csdn.net/weixin_57128596/article/details/139223695

3.写了一个关于阿里艺术字的接口:

基于WordArt锦书模型,输入字体和提示词即可生成关于提示词的艺术字。

效果图:

后期展望:

1.CNN学习和+复习大模型

2.准备复现一下代码(结合几个大模型CNN,VGG,残差网络ResNet对于图片的分类)或者微调一下大模型(拿到了关于医学的数据)

想学习一下微调大模型。

数据如下:

相关推荐
liuyao_xianhui几秒前
动态规划_简单多dp问题_打家劫舍_打家劫舍2_C++
java·开发语言·c++·算法·动态规划
王伟19821 分钟前
圆周率的历史发展与国际圆周率日
算法·圆周率
程序员夏末1 分钟前
【LeetCode | 第五篇】算法笔记
笔记·学习·算法·leetcode
所谓伊人,在水一方3339 分钟前
【机器学习精通】第1章 | 机器学习数学基础:从线性代数到概率统计
人工智能·python·线性代数·机器学习·信息可视化
郑同学zxc11 分钟前
机器学习17-tensorflow2 线性代数
线性代数·机器学习·tensorflow
郑同学zxc2 小时前
机器学习18-tensorflow3
人工智能·机器学习
夜天炫安全4 小时前
数据结构中所需的C语言基础
c语言·数据结构·算法
2301_789015625 小时前
DS进阶:AVL树
开发语言·数据结构·c++·算法
qyzm8 小时前
天梯赛练习(3月13日)
开发语言·数据结构·python·算法·贪心算法
逆境不可逃9 小时前
LeetCode 热题 100 之 64. 最小路径和 5. 最长回文子串 1143. 最长公共子序列 72. 编辑距离
算法·leetcode·动态规划