【无标题】

1. 【机器学习】机器学习笔记(吴恩达)-CSDN博客

  1. 误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。

  2. 梯度下降会自动采取更小的步骤,所以不需要随时间减小学习率a。

  3. 在梯度下降算法中,如果学习率太大,loss不是来回震荡,而是爆炸。如下图:在第二种情况中,如果学习率太大,参数更新超过了最小值点,由于学习率的放大作用,loss到了更高的一点,基于这点的偏导数,乘以放大的学习率,会反向跳到更大的loss处。所以,学习率太大,最终的loss不是震荡,而是爆炸。


4. 解决过拟合问题

降低特征数量:手动选择或者模型自动选择特征

正则化:保留特征,但是降低参数的幅值。

相关推荐
智算菩萨4 分钟前
GPT-5.4 Pro与Thinking模型全面研究报告
人工智能·gpt·ai·chatgpt·ai-native
团子和二花12 分钟前
openclaw平替之nanobot源码解析(八):Gateway进阶——定时任务与心跳机制
人工智能·gateway
机器之心15 分钟前
昨晚,OpenClaw大更新,亲手终结「旧插件」时代
人工智能·openai
码路高手23 分钟前
Trae-Agent源码重点
人工智能·架构
剑穗挂着新流苏31231 分钟前
114_PyTorch 进阶:模型保存与读取的两大方式及“陷阱”避坑指南
人工智能·pytorch·深度学习
CoovallyAIHub33 分钟前
把 Whisper、Moonshine、SenseVoice 统统装进手机:sherpa-onnx 离线语音部署框架,GitHub 10.9K Star
人工智能·架构
一只叫煤球的猫40 分钟前
RAG 如何落地?从原理解释到工程实现
人工智能·后端·ai编程
AI营销快线44 分钟前
AI营销获客难?原圈科技深度解析SaaS系统增长之道
大数据·人工智能
南滑散修1 小时前
机器学习(四):混合高斯模型GMM
人工智能·机器学习
柯儿的天空1 小时前
Mem0深度解析:给你的ai agent加上长期记忆,让ai从“健忘“到“过目不忘“
人工智能·gpt·自然语言处理·ai作画·aigc·ai编程·agi