嵌入式学习-(李宏毅)机器学习(2)-day29

十五个作业

不同类型的Functions

两大类任务

一个是Regression(回归) 一个是 Classification(分类)

一个是给出一个数值,一个是从类别中选择一个

还有一类任务 Structured Learning 机器要学会创造文件

机器学习预测频道第二天的观看人数的三个步骤

1,我们要写出一个带有未知参数的函数

猜测 y = b + wX1

w 是 weight

b 是 bias

2,Define Loss from Training Data 定义一个损失函数

Loss :how good a set of values is.

预估的结果和真实的结果的差距

计算差距

真实的值叫做label

把三年每一天的误差都加起来

然后求一个均值 : L

L越大, 这一组参数越不好

L越小,这一组参数越好

计算误差的公式有很多

MAE,MSE,交叉熵

将计算的Loss画一个等高线图,越靠近蓝色就代表参数设置的越好,Loss越小

3,一个未知数 Gradient Descent 梯度下降

只有一个w的时候的图像

选择一个初始的点W0,随机的选择

计算W对Loss的微分,计算切线斜率,

自己需要自己设置的东西是 超参数 hyperparameters

向左或者向右走的步伐就是 learning rate 自己决定

什么时候停下来,算出微分是0,或者更新次数达到已设置的值

容易出现Local minnima的问题

还有梯度消失和梯度爆炸

3,两个未知数 Gradient Descent 梯度下降

机器学习的三个步骤

1,写一个函数

2,定义一个loss函数,损失函数

3,optimization

Linear models

Linear model也许太过简单了

由于model的限制叫做 Model Bias

我们需要写一个更复杂的,有位置参数的function

就算是曲线,也可以用piecewise linear

怎么把蓝色function写出来呢

有一个就是sigmod function

x -> max y -> c

x -> -max y -> 0

改变 w b c 的区别如图

所以红的得线可以用每个蓝色sigmod 函数加起来,再别忘了一个常数constant b,就是橙色函数

相关推荐
AI成长日志5 小时前
【Agentic RL】1.1 什么是Agentic RL:从传统RL到智能体学习
人工智能·学习·算法
_李小白6 小时前
【OSG学习笔记】Day 38: TextureVisitor(纹理访问器)
android·笔记·学习
杨云龙UP7 小时前
从0到1快速学会Linux操作系统(基础),这一篇就够了!
linux·运维·服务器·学习·ubuntu·centos·ssh
头疼的程序员7 小时前
计算机网络:自顶向下方法(第七版)第八章 学习分享(三)
网络·学习·计算机网络
_李小白8 小时前
【OSG学习笔记】Day 37: NodeVisitor(顶点访问器)
笔记·学习
程序员雷欧8 小时前
大模型应用开发学习第八天
大数据·人工智能·学习
晓晓hh9 小时前
JavaSE学习——set集合和Map映射
学习
لا معنى له9 小时前
Var-JEPA:联合嵌入预测架构的变分形式 —— 连接预测式与生成式自监督学习 ----论文翻译
人工智能·笔记·学习·语言模型
世人万千丶9 小时前
Flutter 框架跨平台鸿蒙开发 - 宠物语言翻译器应用
学习·flutter·华为·开源·harmonyos·鸿蒙
AI成长日志10 小时前
【笔面试算法学习专栏】哈希表基础:两数之和与字母异位词分组
学习·算法·面试