基于python实现强化学习的贪吃蛇游戏

文章目录


前言

参考大佬博主的代码修改了一些,实现了基于python实现强化学习的贪吃蛇游戏以下功能!


一、实现功能

1 贪吃蛇的游戏操纵

2 贪吃蛇的强化学习

3 重新加载学习后的权重

二、py功能讲解

1.agent.py

这段代码实现了一个贪婪策略的蛇游戏AI训练过程。整个训练过程分为以下几个步骤:

  1. 导入必要的模块和类:包括游戏相关的模块和类、PyTorch库、NumPy库、神经网络模型和训练器类、双向队列类、随机数模块以及操作系统模块等。
  2. 定义Agent类:Agent类是整个训练过程的核心,其中包含了模型的初始化、获取动作、获取状态、记忆、短期记忆训练、长期记忆训练、保存模型和加载模型等方法。
  3. 初始化Agent:在训练函数中创建Agent对象,加载模型权重,并创建游戏对象。
  4. 训练循环:在循环中,Agent根据当前游戏状态获取动作,执行动作并获取奖励、下一状态和游戏是否结束的信息,然后将这些信息用于训练短期记忆和长期记忆。
  5. 保存模型:如果游戏结束且当前得分高于最高分,则更新最高分并保存模型权重。
  6. 输出信息:在每次游戏结束后,输出当前游戏次数、得分和最高分,并计算并输出平均得分。

2.game.py

这段代码实现了一个贪吃蛇游戏的基本逻辑,包括游戏初始化、重置、游戏进行、碰撞检测、移动等功能。具体功能如下:

  1. 导入所需模块:包括re模块的S标志、matplotlib的collections模块、pygame库、Enum枚举类、random模块、namedtuple和deque类以及numpy库。
  2. 初始化pygame,并设置一些游戏参数,如方块大小、颜色常量、游戏速度和字体。
  3. 定义了一个Point命名元组用于表示坐标点,以及一个Direction枚举类表示移动方向。
  4. 定义了SnakeGameAI类,实现了贪吃蛇游戏的各种功能。
    • __init__方法用于初始化游戏窗口和一些游戏参数,包括窗口大小、初始移动方向等。
    • reset方法用于重置游戏状态,包括初始化蛇头、蛇身、食物位置等。
    • _place_food方法用于随机放置食物,确保食物不会出现在蛇身上。
    • play_step方法用于执行游戏的每一步逻辑,包括移动蛇头、检查游戏是否结束、判断是否吃到食物等。
    • is_collision方法用于判断是否发生碰撞,包括是否撞到墙壁或者撞到自己的身体。
    • _update_ui方法用于更新游戏界面,包括绘制蛇、食物和分数等信息。
    • _move方法用于移动蛇头,根据传入的动作确定新的移动方向,并更新蛇头的位置。
  5. 最后,使用pygame的事件循环来运行游戏,不断调用play_step方法来执行游戏逻辑,实现游戏的进行。

3 model.py

这段代码定义了一个简单的神经网络模型 Linear_QNet 和一个 Q 学习训练器 QTrainer。下面是代码的功能描述:

  1. Linear_QNet 类是一个简单的前馈神经网络模型,包含一个输入层、一个隐藏层和一个输出层。init 方法初始化模型结构,forward 方法定义了模型的前向传播过程,将输入数据传入网络并返回输出结果。save_model 方法用于保存模型的参数到文件。
  2. QTrainer 类用于训练 Q 学习模型。init 方法初始化训练器,接受一个神经网络模型、学习率和折扣因子作为参数。在初始化过程中,创建了一个 Adam 优化器和一个均方误差损失函数。train_step 方法用于执行 Q 学习的训练步骤,接受状态、动作、奖励、下一个状态和游戏结束标志作为输入,根据 Q 学习算法更新模型参数,以优化模型的预测能力。

4 reload_agent.py

这段代码实现了一个基于深度 Q 网络(DQN)的贪婪蛇类游戏智能体。主要包含以下几个部分:

  1. Agent 类:定义了智能体的结构和行为。智能体根据当前状态选择动作,并根据选择的动作与环境交互并获取奖励。智能体使用经验回放机制来训练神经网络模型,其中包括短期记忆训练和长期记忆训练。
  2. Linear_QNet 类:定义了一个简单的线性神经网络模型,用于近似 Q 值函数。模型接收一个状态向量作为输入,并输出每个动作的 Q 值。
  3. QTrainer 类:定义了一个 Q 学习训练器,用于训练神经网络模型。训练器使用均方误差损失函数来计算误差,并使用 Adam 优化器来更新模型参数。
  4. train 函数:主要实现了智能体的训练过程。在每一轮游戏中,智能体根据当前状态选择动作,并与环境交互。交互过程中,智能体根据获得的奖励和新状态更新模型参数,并将经验存储到记忆中。当游戏结束时,智能体根据存储的记忆训练模型,并更新最高分数记录。

5 play_step.py

相当于普通的贪吃蛇游戏,上下左右控制,可以在代码里面调整速度。


总结

效果如下:

相关推荐
晓纪同学23 分钟前
QT-简单视觉框架代码
开发语言·qt
威桑23 分钟前
Qt SizePolicy详解:minimum 与 minimumExpanding 的区别
开发语言·qt·扩张策略
飞飞-躺着更舒服26 分钟前
【QT】实现电子飞行显示器(简易版)
开发语言·qt
明月看潮生32 分钟前
青少年编程与数学 02-004 Go语言Web编程 16课题、并发编程
开发语言·青少年编程·并发编程·编程与数学·goweb
明月看潮生35 分钟前
青少年编程与数学 02-004 Go语言Web编程 17课题、静态文件
开发语言·青少年编程·编程与数学·goweb
Java Fans37 分钟前
C# 中串口读取问题及解决方案
开发语言·c#
盛派网络小助手1 小时前
微信 SDK 更新 Sample,NCF 文档和模板更新,更多更新日志,欢迎解锁
开发语言·人工智能·后端·架构·c#
算法小白(真小白)1 小时前
低代码软件搭建自学第二天——构建拖拽功能
python·低代码·pyqt
唐小旭1 小时前
服务器建立-错误:pyenv环境建立后python版本不对
运维·服务器·python
007php0071 小时前
Go语言zero项目部署后启动失败问题分析与解决
java·服务器·网络·python·golang·php·ai编程