机器学习:无监督学习

文章目录

线性学习方法

聚类Clustering

Kmeans

随机选取K个中心,然后计算每个点与中心的距离,找最近的,然后更新中心点

HAC


如何觉得距离的个数跟kmeans不一样,切的地方不一样导致的数量会不一样。

分布表示

降维



PCA

特征先归一化,然后计算投影,选择最大的方差的



w 1 w_1 w1 与 w 2 w_2 w2是垂直的,后续也是找垂直于它们的 w 3 w_3 w3 ...看需要多少维。



w 1 w1 w1就是最大的特征向量。然后找下一个 w 2 w2 w2



基本的内容组成,直线,点,斜线,圆圈等。一个数字就能用这些进行表示:








在强度,生命力,攻击力等方面各有侧重





Matrix Factorization

元素之间有些相同的特点。

这些事情是没有人知道的。

有的是只有这种关系矩阵,如果基于这些关系推断出关系:

可以将这个进行矩阵分解,得到两个向量相乘,但是会存在那种缺失值的话,可以考虑使用梯度下降方法:

只考虑有定义的值。

就可以预测缺失的值,然后就能判断每个人对某个物体的喜好程度,填充:

该算法可以用于推荐系统。

可以考虑通过梯度下降算法硬解一下。

MF也可以用于主题分析,LSA


Manifold Learning

从立体变成2d

LLE





Laplacian Eigenmaps



t-SEN

coil-20数据

两个分布越接近越好,KL散度,对这个问题做梯度下降的。

这种相似度计算方式会维持原来的距离。

相关推荐
萌新小码农‍15 分钟前
人工智能线性代数基础
人工智能·线性代数·机器学习
my1_1my37 分钟前
AD-MT
人工智能·机器学习·机器翻译
她说人狗殊途39 分钟前
概率密度函数 & 累积分布函数
人工智能·机器学习
HyperAI超神经1 小时前
利用堆叠集成学习,英国研究团队实现251颗盾牌座δ型星星震学指数高精度预测
人工智能·机器学习·集成学习
wayz111 小时前
Day 16 编程实战:PCA主成分分析与技术指标降维
人工智能·算法·机器学习
ComputerInBook11 小时前
数字图像处理(4版)——第 7 章——小波及其它图像变换(上)(Rafael C.Gonzalez&Richard E. Woods)
人工智能·机器学习·数字图像处理·图像变换
Black蜡笔小新14 小时前
企业级私有化AI模型训练工作站DLTM一体化AI模型训练工作站重构企业AI自主可控新模式
机器学习·ai大模型
深念Y17 小时前
哈希与向量:计算机理解现实的两座桥梁
人工智能·数学·机器学习·向量·hash·哈希·空间
CCC:CarCrazeCurator18 小时前
自动驾驶泊车全面解析
人工智能·机器学习·自动驾驶
让学习成为一种生活方式19 小时前
RSEM v1.3.3安装与使用--生信工具086
机器学习