机器学习概述自用笔记(李宏毅)

机器学习概述

机器学习即找一个复杂的人类写不出来的函数,把输入(向量,矩阵,序列)转换为输出。

regression:输出是一个数值(预测PM2.5的数值)

classification:选择设置好的类别(是否为垃圾邮件)

structured Lenrning:生成一个有结构的东西

机器学习的三步

假设求今天视频订阅的人数和昨天视频订阅的人数之间有什么关系。

第一步 Function:先设置一个y=wx+b叫做模型

第二步 Define Loss:误差损失L(b,w)

y=wx+b

频道订阅L(0.5k,1)y=1x+0.5k计算出预测值和label的差值e

第三步 optimization(最佳化)看看代入哪个数值可以使Loss最小

gradient descent : Loss-w曲线选取一个随机的w0,计算出w=w0时L对W微分,如果为负数增加W,如果为正数减少W,η走的步长自己设置(hyperparameter)W1=W0-η*L对W微分

最大的问题时微分为0的时候即看作找到了最佳的点,但是容易为Local minima ,找不到global minima(这种方法为假义的)

这三部叫做Training,只是在已知的数据集合上面去预测,统计2017年到2020年的频道订阅有周期性的原因,只考虑前一天的误差L=0.48k,考虑七天的误差L=0.38k

w为斜率,b为截距,这个函数恒为直线,但是现实情况下不一定是直线,这种限制叫Model Bias, 我们需要更复杂的方程来做模型,用多条曲线相加去拟合原来的直线

但是很多情况下原来的变化曲线很复杂,要用多条曲线去拟合相加,导致模型很复杂。甚至是原来的完美数据变化图是曲线,要用Sigmoid Function去拟合。

所以原来的相加拟合可以用这个来表示

用θ表示所有的未知数,然后去一个θ0求出η,计算出θ1,然后利用batch不断迭代,

Sigmoid---->ReLU:

两个ReLU叠起来可以代替一个Hard Sigmoid

用很多Sigmoid和ReLU即可构成Neuron,多个Neuron可以构成Neuron Netw(神经元网络),这一整套技术叫做Deep Learning

层数过多会发生Overfitting,在测试数据上表现好,在预测数据上表述的差

相关推荐
Yolanda942 分钟前
【人工智能】AI问答助手项目
人工智能·python
Java小白笔记3 分钟前
什么是 Token?2026 年主流大模型计费规则、价格与性能全面对比
人工智能·ai·ai编程·ai写作
lkx097884 分钟前
统计学基础
笔记
盘古信息IMS8 分钟前
注塑工厂上MES系统,如何选对厂商实现数智化跃迁?
大数据·人工智能·物联网
自由的风.9 分钟前
【无标题】
人工智能·机器学习·自然语言处理
NineData15 分钟前
NineData 5.0 产品发布和生态伙伴大会,圆满举办!
运维·数据库·人工智能
oi..19 分钟前
SRC 实战复盘:SSRF 漏洞挖掘、自动化检测及流量插件优化(含Burp suite 25.1.2文件)
笔记·web安全·网络安全·自动化·系统安全·安全架构
羽师19 分钟前
Prompt 提示词中的 === 是干嘛
人工智能
薛定猫AI21 分钟前
【技术干货】AI Agent 自动化业务流程实战:从零构建智能营销系统
运维·人工智能·自动化
我叫张土豆23 分钟前
WebTransport:下一代Web实时通信的“终极协议“来了
人工智能·网络协议