唐宇迪2025最新机器学习课件——学习心得(1)

今天是10.21日,开始学习

这里推导了求似然函数,推导到最后让似然函数置零,得到最小二乘解,相当于构建了问题和问题的求解方向

下一步,需要用某个解法去更新他,不能求出来一个值就完事了,还要找到让目标函数最优的那个theta,即下图的梯度下降

批量下降和随机下降的区别就是运算量的区别,避免了m个样本数量过大带来计算量过大的问题,这么说,小样本是否是可以用枚举来满足目标函数最小的?

步长就是学习率

这里也侧面帮助理解梯度下降的本质其实就是一个搜索策略,每次将自变量往梯度的方向求解计算,然后直到目标函数不怎么变化

利用一个较小的值就可以约束目标函数的变化,就判断为收敛,比如设置一个阈值tolerance=1e-6

复制代码
# 检查是否收敛
        if abs(prev_loss - current_loss) < tolerance:
            no_improvement_count += 1
        else:
            no_improvement_count = 0
相关推荐
TF男孩5 小时前
重新认识Markdown:它不仅是排版工具,更是写Prompt的最佳结构
人工智能
想打游戏的程序猿5 小时前
AI时代的内容输出
人工智能
小兵张健6 小时前
Playwright MCP 截图标注方案调研:推荐方案 1
人工智能
凌杰7 小时前
AI 学习笔记:Agent 的能力体系
人工智能
IT_陈寒9 小时前
React状态管理终极对决:Redux vs Context API谁更胜一筹?
前端·人工智能·后端
舒一笑10 小时前
如何获取最新的技术趋势和热门技术
人工智能·程序员
聚客AI10 小时前
🎉OpenClaw深度解析:多智能体协同的三种模式、四大必装技能与自动化运维秘籍
人工智能·开源·agent
黄粱梦醒10 小时前
大模型企业级部署方案-vllm
人工智能·llm
IT_陈寒11 小时前
JavaScript代码效率提升50%?这5个优化技巧你必须知道!
前端·人工智能·后端
IT_陈寒11 小时前
Java开发必知的5个性能优化黑科技,提升50%效率不是梦!
前端·人工智能·后端