这两天啊,有不少朋友和我说,想学机器学习,但是之前没有基础,不知道能不能学得会。
首先说结论,只要坚持,就能学会,但是一定不能三天打鱼两天晒网,要持之以恒,至少每隔两天,必须得看一点。所以呀,我整理了关于机器学习各种内容的资料,跟大家一起看一看,从零基础入门,想要学会深度学习,到底需要多长时间呢?
首先声明,没有广告!没有广告!没有广告!
接下来呢,咱们就进入正题,要多久能学会,也就是基本掌握机器学习。这里,我们依次来看。
(想要直接学深度学习的同学!直接移步第二部分!)
传统机器学习
Python 10-20天
首先要说咱们传统的机器学习,我们现在的机器学习呢,尤其是后面的深度学习,都是用python来写的,所以学会python一定是必不可少的。
需要掌握到什么程度呢?基础语法全部要掌握,进阶语法部分,元组,字典这些结构要掌握,列表生成器也要掌握,面向对象的Python更是十分重要。同时,对于python的numpy库,一定要了如指掌,pandas库最好也有一定了解。这一部分,大概十到二十天。
线性回归和K近邻算法 5天
学会python以后,就可以开始上手机器学习了,线性回归和K近邻算法是两个最简单、最好实现的机器学习算法了,学会这两个,大概5天时间,是完全可以完成的。
SVM支持向量机 3天
支持向量机,主要用于分类和回归任务。它的基本原理是通过在特征空间中找到一个最优的超平面来进行分类或回归。
具体来说,SVM 的核心思想是找到能够将不同类别的数据点分隔开的最佳决策边界(超平面)。这个决策边界被定义为能够使得两个类别的间隔(Margin)最大化的超平面。支持向量机的名称来源于在确定这个决策边界时,只有一部分数据点对决策边界有贡献,这些数据点被称为支持向量(Support Vectors)。
决策树与随机森林 5天
这一部分内容啊,需要对数据结构中的树结构稍有了解,多一点时间,需要学一学数据结构。
决策树是一种树形结构,每个非叶子节点表示一个特征属性测试,每个分支代表测试结果的一个可能的输出,最终的叶子节点代表分类或者回归的结果。随机森林是通过集成多棵决策树来提高预测准确性的方法。每棵决策树由不同的随机样本和随机特征组成,通过投票或者平均来确定最终的预测结果。
聚类算法 7天
主要目标是将数据集中的样本分成若干组,使得组内的样本彼此更加相似,而组间的样本差异较大。聚类算法通常用于数据探索、数据分析、模式识别以及预处理阶段。聚类算法可以细分为许多种算法,如**K均值聚类、层次聚类。**所以这一部分内容,花稍微多一点时间是必要的。
降维算法 7天
降维算法是一类常用于高维数据分析和可视化的技术,其主要目的是减少数据特征的数量,同时保留数据中最重要的信息。通过降低数据维度,可以减少存储空间的需求、简化数据计算复杂度,并且有助于发现数据的内在结构和模式。
深度学习
近些年,chat-GPT兴起,深度学习爆火。许多人想要直接入门深度学习,**不想看机器学习,这样做,完全可以!**那么,深度学习,都有哪些东西呢?
浅层神经网络 5天
主要包括线性回归(没错,如果你直接上手深度学习,没有学机器学习,这一部分还是要学的,如果之前学过机器学习,这部分,直接跳过!)以及Softmax回归这两个内容。他们两个,是最基本的神经网络类型,适用于分类和回归问题。
这部分内容,比较基础比较简单,但是十分重要,一定要好好学。五天时间,完全可以熟练掌握了!
多层感知机 2天
实际上是线性回归和Softmax的一个深度化,本质没有区别,只是加了隐藏层,2天足矣。
卷积神经网络 10天
学到这里的话,恭喜你,已经接触到真正的深度学习了!卷积神经网络主要用于处理图像数据,通过局部感受野和权值共享来有效地提取特征。在计算机视觉任务中表现优异,如图像分类、物体检测和图像分割。
这一部分,有难度,也很重要,时间多一点!
现代卷积神经网络 7天
卷积神经网络升级版,现代版,更新版,结构更复杂,效果更厉害!
这部分内容多且杂,如LeNet,AlexNet,NiN,VGG,ResNet,GoogLeNet。
需要注意的是,NiN和LeNet,ResNet三者是最重要的!也许你现在不知道他们是什么,但是一定要记住,他们最重要!!!
这部分难度很高,如果你学习时感到有些疲倦,那是十分正常的,适当休息,劳逸结合!
循环神经网络 >10天
非常重要!非常重要!非常重要!
所谓循环神经网络,就是具有循环连接的神经网络,适用于处理序列数据,如自然语言处理和时间序列预测。这部分不求快,但求稳,一定要把每个点都弄明白,这至关重要!
现代循环神经网络 >10天
这部分包含GRU,LSTM,seq2seq等一系列内容,全部建立在循环神经网络之上,这就是为什么我说循环神经网络非常非常重要!这一部分,也十分重要,他们是现代语言处理的常用模型。
注意力机制 10天
注意力机制是一种模拟人类注意力机制的方法,最初在神经网络领域得到广泛应用,特别是在自然语言处理和计算机视觉任务中取得了显著的成果。注意力机制的主要目的是在处理序列数据或高维数据时,有效地捕捉输入中不同部分之间的关系,从而提升模型的性能和表现力。
如果前面非常掌握,非常熟练,那么这部分手到擒来!如果学到这里,忘了前面,没关系,别着急,回去看看循环神经网络,然后再来看这部分内容。
学到这已经十分现代了,其中transformer的模型是2017年才提出的!
注意力之后...
走到这一步,恭喜你,你已经能看懂许多机器学习的论文了,相信你也对很多领域有了不少了解。那么,找到自己喜欢的领域,看一看最新的论文,学一学最最前沿,最最先进的知识,保持好奇心和学习的激情,将会为你在机器学习和人工智能领域的发展道路上开辟更加广阔的可能性。