今天聊聊机器学习(Machine Learning)中的一种分类算法,逻辑回归(Logistic Regression).这名听着是解决回归问题,其实是一种分类算法.它的原理就是:将回归问题接收到的连续性标签值,通过sigmoid函数映射到区间(0,1)上的值,通过设定阈值,通常为0.5,返回分类标签(逻辑回复:"有"或"没有","是"或"不是"),底层原理:多个独立同分布的随机变量的联合分布函数概率取得最大值时的极大似然估计,考虑到连乘比较麻烦,同时数值溢出的问题,对极大似然估计的结果取自然对数的负数得到交叉熵损失函数,方便应用梯度下降算法.求得损失函数的极小值,得模型的最优解.本质就是将连续问题离散化.在生活中,多数情况下也是如此,我们不关心中间过程咋样?有时我们只关心一个结果.逻辑回归(Logistic Regression)算法在pycharm中的应用:首先输入命令:from sklearn.linear_model import LogisticRegression,考虑到:sklearn包里面有案例,同样的方法导入案例,用一个变量接收,再用pandas读取文件.需对数据集进行划分,标准化处理......调用fit_transfrom()函数,transfrom()处理,然后fit()拟合,score()评分.