【强化学习】第一章 强化学习初探

强化学习初探

就是笔记,网址在这动手强化学习

核心内容总结

强化学习的定义

强化学习是机器通过与环境交互来实现目标的一种计算方法,主要解决 ** 序贯决策(sequential decision making)** 任务。

基本交互模式:

  • 智能体(agent)感知环境状态 智能体做出动作决策 环境根据动作产生奖励反馈 环境发生状态转移 智能体在下一轮感知新状态
  • 智能体的三个关键要素
    感知
    智能体感知环境的当前状态
    例:围棋 AI 感知棋盘情况、无人车感知道路状况
    决策
    根据当前状态计算最优动作的过程
    策略(policy)是智能体的核心体现
    例:决定落子位置、计算方向盘角度
    奖励
    环境产生的标量反馈信号
    衡量动作好坏的即时指标
    目标:最大化累积奖励期望

强化学习的环境特点

动态随机过程:

环境会随时间不断演变

状态转移由当前状态和智能体动作共同决定

数学表示: 下一状态 = f ( 当前状态,智能体动作 ) 下一状态 = f (当前状态,智能体动作) 下一状态=f(当前状态,智能体动作)

双重随机性:

智能体决策动作的随机性

环境状态转移的随机性

强化学习的目标

优化目标:最大化累积奖励的期望(价值)

关键概念:

回报(return) :多轮交互获得的累积奖励
价值(value) :回报的期望值
占用度量(occupancy measure):状态 - 动作对的概率分布

与有监督学习的根本区别

任务性质不同

  1. 有监督学习:单轮独立的预测任务
  2. 强化学习:多轮迭代的决策任务

数据分布不同

  1. 有监督学习:固定的数据分布
  2. 强化学习:数据分布随策略变化而变化

优化方式不同

  1. 有监督学习:优化模型输出,数据分布固定
  2. 强化学习:优化策略,改变数据分布

强化学习的独特性

核心区别

  1. 有监督学习:在固定数据分布下最小化损失期望
  2. 强化学习:通过改变策略产生最优数据分布,最大化奖励期望

学习难点

策略改变导致数据分布改变

改变过程复杂,难以用显式数学公式刻画

具有 "混沌效应",初始设置微小变化可能导致结果巨大差异

重要启示

  • 决策的长远影响:当前获得最大奖励的动作,长期来看不一定最优
  • 环境的动态性:智能体需要考虑环境的演变和未来的状态变化
  • 数据的生成性:智能体的策略决定了能观察到什么样的数据
  • 目标的期望性:关注的是回报的期望值而非单次具体结果
相关推荐
2501_942191771 天前
RetinaNet与伪装目标检测:提升模型识别能力的实战指南
人工智能·目标检测·目标跟踪
2501_941333101 天前
【工业视觉检测】基于YOLOv8的皮带输送机关键部件检测与识别系统完整实现
人工智能·yolo·视觉检测
yukai080081 天前
【最后203篇系列】036 MDP学习思考
人工智能·学习
知行合一。。。1 天前
程序中的log4j、stderr、stdout日志
python·单元测试·log4j
大模型玩家七七1 天前
安全对齐不是消灭风险,而是重新分配风险
android·java·数据库·人工智能·深度学习·安全
wxin_VXbishe1 天前
springboot旅游信息管理系统-计算机毕业设计源码21675
java·c++·spring boot·python·spring·django·php
格林威1 天前
Baumer相机电池极耳对齐度检测:提升叠片工艺精度的 5 个实用方案,附 OpenCV+Halcon 实战代码!
人工智能·opencv·机器学习·计算机视觉·视觉检测·工业相机·堡盟相机
2501_941329721 天前
基于Centernet的甜菜幼苗生长状态识别与分类系统
人工智能·分类·数据挖掘
sg_knight1 天前
原型模式(Prototype)
python·设计模式·开发·原型模式
洁洁!1 天前
JDK21→25升级实战:飞算Java AI专业版帮我自动适配了哪些坑?
人工智能·科技·语言模型·数据分析·飞算javaai·ai开发工具