文章目录
线性学习方法
聚类Clustering
Kmeans
随机选取K个中心,然后计算每个点与中心的距离,找最近的,然后更新中心点
HAC
如何觉得距离的个数跟kmeans不一样,切的地方不一样导致的数量会不一样。
分布表示
降维
PCA
特征先归一化,然后计算投影,选择最大的方差的
w 1 w_1 w1 与 w 2 w_2 w2是垂直的,后续也是找垂直于它们的 w 3 w_3 w3 ...看需要多少维。
w 1 w1 w1就是最大的特征向量。然后找下一个 w 2 w2 w2
基本的内容组成,直线,点,斜线,圆圈等。一个数字就能用这些进行表示:
在强度,生命力,攻击力等方面各有侧重
Matrix Factorization
元素之间有些相同的特点。
这些事情是没有人知道的。
有的是只有这种关系矩阵,如果基于这些关系推断出关系:
可以将这个进行矩阵分解,得到两个向量相乘,但是会存在那种缺失值的话,可以考虑使用梯度下降方法:
只考虑有定义的值。
就可以预测缺失的值,然后就能判断每个人对某个物体的喜好程度,填充:
该算法可以用于推荐系统。
可以考虑通过梯度下降算法硬解一下。
MF也可以用于主题分析,LSA
Manifold Learning
从立体变成2d
LLE
Laplacian Eigenmaps
t-SEN
coil-20数据
两个分布越接近越好,KL散度,对这个问题做梯度下降的。
这种相似度计算方式会维持原来的距离。