李宏毅机器学习课程知识点摘要(14-18集)

线性回归,逻辑回归(线性回归+sigmoid),神经网络

linear regression , logistic regression , neutral network

里面的偏导的相量有几百万维,这就是neutral network的不同,他是计算量超级大的。

所以我们引入了一种新的训练方法

链式法则也就代表了反馈

这里需要引入的数学知识就是链式法则。

s对z的微分可以有两个路径。s对z的微分,这个提法还挺有意思的

现在是Backward pass

这里老师对权重做偏微分,得到的是输入值

第一项

其实是逆着往前推

相关推荐
两棵雪松34 分钟前
为什么RAG技术可以缓解大模型知识固话和幻觉问题
人工智能·rag
NEUMaple1 小时前
python爬虫(三)----Selenium
爬虫·python·selenium
未来智慧谷1 小时前
华为发布AI推理新技术,降低对HBM内存依赖
人工智能·华为
AKAMAI1 小时前
通过Akamai分布式计算区域实现直播传输
人工智能·分布式·云计算
坐在地上想成仙1 小时前
计算机视觉(4)-相机基础知识恶补
人工智能·数码相机·计算机视觉
sssammmm2 小时前
AI入门学习--如何写好prompt?
人工智能·学习·prompt
阿群今天学习了吗2 小时前
“鱼书”深度学习进阶笔记(3)第四章
人工智能·笔记·python·深度学习·算法
神齐的小马2 小时前
机器学习 [白板推导](十)[马尔可夫链蒙特卡洛法]
人工智能·机器学习·概率论
白-胖-子2 小时前
深度剖析主流AI大模型的编程语言与架构选择:行业实践与技术细节解读
人工智能·架构
AI模块工坊3 小时前
IEEE 2025 | 重磅开源!SLAM框架用“法向量+LRU缓存”,将三维重建效率飙升72%!
人工智能·深度学习·神经网络·机器学习·计算机视觉