2 机器学习之基本术语

要进行机器学习,先要有数据。假定我们收集了一批关于西瓜的数据,例如(色泽=青绿;根蒂=蜷缩;敲声=浊响)​,​(色泽=乌黑;根蒂=稍蜷;敲声=沉闷)​,​(色泽=浅白;根蒂=硬挺;敲声=清脆)​,......,每对括号内是一条记录,​"="意思是"取值为"​。

有时整个数据集亦称一个"样本"​,因为它可看作对样本空间的一个采样;通过上下文可判断出"样本"是指单个示例还是数据集。

这组记录的集合称为一个"数据集"(data set),其中每条记录是关于一个事件或对象(这里是一个西瓜)的描述,称为一个"示例"(instance)或"样本"(sample)反映事件或对象在某方面的表现或性质的事项,例如"色泽"​"根蒂"​"敲声"​,称为"属性"(attribute)或"特征"(feature);属性上的取值,例如"青绿"​"乌黑"​,称为"属性值"(attribute value)。属性张成的空间称为"属性空间"(attribute space)、​"样本空间"(sample space)或"输入空间"​。例如我们把"色泽"​"根蒂"​"敲声"作为三个坐标轴,则它们张成一个用于描述西瓜的三维空间,每个西瓜都可在这个空间中找到自己的坐标位置。由于空间中的每个点对应一个坐标向量,因此我们也把一个示例称为一个"特征向量"(feature vector)。

一般地,令D={x1,x2,...,xm}表示包含m个示例的数据集,每个示例由d个属性描述(例如上面的西瓜数据使用了3个属性)​,则每个示例xi=(xi1;xi2;...;xid)是d维样本空间中的一个向量,xi∈,其中xij是xi在第j个属性上的取值(例如上述第3个西瓜在第2个属性上的值是"硬挺"​)​,d称为样本xi的"维数"(dimensionality)。

训练样本亦称"训练示例"(training instance)或"训练例"​。

学习算法通常有参数需设置,使用不同的参数值和(或)训练数据,将产生不同的结果。

从数据中学得模型的过程称为"学习"(learning)或"训练"(training),这个过程通过执行某个学习算法来完成。训练过程中使用的数据称为"训练数据"(training data),其中每个样本称为一个"训练样本"(training sample),训练样本组成的集合称为"训练集"(training set)。学得模型对应了关于数据的某种潜在的规律,因此亦称"假设"(hypothesis);这种潜在规律自身,则称为"真相"或"真实"(ground-truth),学习过程就是为了找出或逼近真相。本书有时将模型称为"学习器"(learner),可看作学习算法在给定数据和参数空间上的实例化。

将"label"译为"标记"而非"标签"​,是考虑到英文中"label"既可用作名词、也可用作动词。

如果希望学得一个能帮助我们判断没剖开的是不是"好瓜"的模型,仅有前面的示例数据显然是不够的。要建立这样的关于"预测"(prediction)的模型,我们需获得训练样本的"结果"信息,例如"​(​(色泽=青绿;根蒂=蜷缩;敲声=浊响)​,好瓜)​"​。这里关于示例结果的信息,例如"好瓜"​,称为"标记"(label);拥有了标记信息的示例,则称为"样例"(example)。一般地,用(xi,yi)表示第i个样例,其中yi∈是示例xi的标记,是所有标记的集合,亦称"标记空间"(label space)或"输出空间"​。

亦称"负类"​。

若我们欲预测的是离散值,例如"好瓜"​"坏瓜"​,此类学习任务称为"分类"(classification);若欲预测的是连续值,例如西瓜成熟度0.95、0.37,此类学习任务称为"回归"(regression)。对只涉及两个类别的"二分类"(binary classification)任务,通常称其中一个类为"正类"(positive class),另一个类为"反类"(negative class);涉及多个类别时,则称为"多分类"(multi-class classification)任务。一般地,预测任务是希望通过对训练集{(x1,y1),(x2,y2),...,(xm,ym)}进行学习,建立一个从输入空间到输出空间的映射f:↦。对二分类任务,通常令={-1,+1}或{0,1};对多分类任务,||>2;对回归任务,=,为实数集。

亦称"测试示例"(testing instance)或"测试例"​。

学得模型后,使用其进行预测的过程称为"测试"(testing),被预测的样本称为"测试样本"(testing sample)。例如在学得f后,对测试例x,可得到其预测标记y=f(x)。

否则标记信息直接形成了簇划分;但也有例外情况,参见(13.6半监督聚类)​。

我们还可以对西瓜做"聚类"(clustering),即将训练集中的西瓜分成若干组,每组称为一个"簇"(cluster);这些自动形成的簇可能对应一些潜在的概念划分,例如"浅色瓜"​"深色瓜"​,甚至"本地瓜"​"外地瓜"​。这样的学习过程有助于我们了解数据内在的规律,能为更深入地分析数据建立基础。需说明的是,在聚类学习中,​"浅色瓜"​"本地瓜"这样的概念我们事先是不知道的,而且学习过程中使用的训练样本通常不拥有标记信息。

亦称"有导师学习"和"无导师学习"​。

更确切地说,是"未见示例"(unseen instance)。

根据训练数据是否拥有标记信息,学习任务可大致划分为两大类:​"监督学习"(supervised learning)和"无监督学习"(unsupervised learning),分类和回归是前者的代表,而聚类则是后者的代表。

现实任务中样本空间的很好地适用于整个样本空间。于是,规模通常很大(例如20个属性,每个属性有10个可能取值,则样本空间的规模已达1020)​。

需注意的是,机器学习的目标是使学得的模型能很好地适用于"新样本"​,而不是仅仅在训练样本上工作得很好;即便对聚类这样的无监督学习任务,我们也希望学得的簇划分能适用于没在训练集中出现的样本。学得模型适用于新样本的能力,称为"泛化"(generalization)能力。具有强泛化能力的模型能很好地适用于整个样本空间。于是,尽管训练集通常只是样本空间的一个很小的采样,我们仍希望它能很好地反映出样本空间的特性,否则就很难期望在训练集上学得的模型能在整个样本空间上都工作得很好。通常假设样本空间中全体样本服从一个未知"分布"(distribution),我们获得的每个样本都是独立地从这个分布上采样获得的,即"独立同分布"​(independent and identically distributed,简称i.i.d.)​。一般而言,训练样本越多,我们得到的关于的信息越多,这样就越有可能通过学习获得具有强泛化能力的模型。

相关推荐
qq_529025298 分钟前
Torch.gather
python·深度学习·机器学习
XiaoLeisj22 分钟前
【递归,搜索与回溯算法 & 综合练习】深入理解暴搜决策树:递归,搜索与回溯算法综合小专题(二)
数据结构·算法·leetcode·决策树·深度优先·剪枝
IT古董41 分钟前
【漫话机器学习系列】017.大O算法(Big-O Notation)
人工智能·机器学习
Jasmine_llq41 分钟前
《 火星人 》
算法·青少年编程·c#
凯哥是个大帅比41 分钟前
人工智能ACA(五)--深度学习基础
人工智能·深度学习
闻缺陷则喜何志丹1 小时前
【C++动态规划 图论】3243. 新增道路查询后的最短距离 I|1567
c++·算法·动态规划·力扣·图论·最短路·路径
m0_748232921 小时前
DALL-M:基于大语言模型的上下文感知临床数据增强方法 ,补充
人工智能·语言模型·自然语言处理
szxinmai主板定制专家1 小时前
【国产NI替代】基于FPGA的32通道(24bits)高精度终端采集核心板卡
大数据·人工智能·fpga开发
海棠AI实验室1 小时前
AI的进阶之路:从机器学习到深度学习的演变(三)
人工智能·深度学习·机器学习