机器学习:无监督学习

文章目录

线性学习方法

聚类Clustering

Kmeans

随机选取K个中心,然后计算每个点与中心的距离,找最近的,然后更新中心点

HAC


如何觉得距离的个数跟kmeans不一样,切的地方不一样导致的数量会不一样。

分布表示

降维



PCA

特征先归一化,然后计算投影,选择最大的方差的



w 1 w_1 w1 与 w 2 w_2 w2是垂直的,后续也是找垂直于它们的 w 3 w_3 w3 ...看需要多少维。



w 1 w1 w1就是最大的特征向量。然后找下一个 w 2 w2 w2



基本的内容组成,直线,点,斜线,圆圈等。一个数字就能用这些进行表示:








在强度,生命力,攻击力等方面各有侧重





Matrix Factorization

元素之间有些相同的特点。

这些事情是没有人知道的。

有的是只有这种关系矩阵,如果基于这些关系推断出关系:

可以将这个进行矩阵分解,得到两个向量相乘,但是会存在那种缺失值的话,可以考虑使用梯度下降方法:

只考虑有定义的值。

就可以预测缺失的值,然后就能判断每个人对某个物体的喜好程度,填充:

该算法可以用于推荐系统。

可以考虑通过梯度下降算法硬解一下。

MF也可以用于主题分析,LSA


Manifold Learning

从立体变成2d

LLE





Laplacian Eigenmaps



t-SEN

coil-20数据

两个分布越接近越好,KL散度,对这个问题做梯度下降的。

这种相似度计算方式会维持原来的距离。

相关推荐
山间小僧7 小时前
「AI学习笔记」RNN
机器学习·aigc·ai编程
春末的南方城市15 小时前
比肩顶尖闭源模型!京东开源240亿参数多模态模型JoyAI-Image:统一理解/生成/编辑,重塑AI图像编辑。
人工智能·深度学习·机器学习·计算机视觉·aigc
哥布林学者15 小时前
深度学习进阶(七)Data-efficient Image Transformer
机器学习·ai
做cv的小昊15 小时前
【TJU】应用统计学——第五周作业(3.1 假设检验的基本思想、3.2 单个正态总体参数的假设检验)
学习·线性代数·机器学习·数学建模·矩阵·概率论·tju
kyle-fang15 小时前
大模型微调
人工智能·深度学习·机器学习
Master_oid15 小时前
机器学习38:距离度量与特征处理
人工智能·机器学习
Hello.Reader16 小时前
为什么学线性代数(一)
线性代数·算法·机器学习
网络工程小王16 小时前
【大模型基础部署】(学习笔记)
人工智能·深度学习·机器学习
别或许16 小时前
4、高数----一元函数微分学的计算
人工智能·算法·机器学习