基于MATLAB强化学习的单智能体与多智能体路径规划算法

一、单智能体路径规划(Q-learning)

1... MATLAB实现步骤
  1. 环境建模

    matlab 复制代码
    % 创建栅格地图(0: 可通行, 1: 障碍物)
    gridSize = 20;
    gridMap = ones(gridSize);
    gridMap(5:8, 10) = 1; % 设置障碍物
  2. Q-learning参数设置

    matlab 复制代码
    Q = zeros(gridSize^2, 4); % 4个动作:上下左右
    alpha = 0.1; gamma = 0.9; epsilon = 0.1;
  3. 训练循环

    matlab 复制代码
    for episode = 1:1000
        state = [startRow, startCol]; % 起点
        while ~isGoal(state)
            % 选择动作(ε-greedy策略)
            if rand < epsilon
                action = randi(4); % 随机动作
            else
                [~, action] = max(Q(sub2ind(size(Q), state(1), state(2)), :));
            end
            % 执行动作并更新状态
            nextState = moveAgent(state, action);
            % 计算奖励
            reward = calculateReward(state, nextState, gridMap);
            % 更新Q值
            Q(sub2ind(size(Q), state(1), state(2)), action) = ...
                (1-alpha)*Q(sub2ind(size(Q), state(1), state(2)), action) + ...
                alpha*(reward + gamma*max(Q(sub2ind(size(Q), nextState(1), nextState(2)), :)));
            state = nextState;
        end
    end

二、多智能体路径规划(DDPG)

1. 算法原理
  • DDPG(深度确定性策略梯度):适用于连续动作空间,包含Actor-Critic网络结构:

    • Actor:策略网络,输出确定性动作 a=μ(s)

    • Critic:Q值评估网络,估计 Q(s,a)

  • 奖励设计

    • 协同奖励:多智能体共同接近目标(如总距离减少)

    • 冲突惩罚:智能体间距离过近时施加负奖励

2. MATLAB实现步骤
  1. 环境建模

    matlab 复制代码
    function env = createMultiAgentEnv(gridMap, starts, goals)
        numAgents = size(starts, 1);
        stateInfo = rlNumericSpec([numAgents*2 1], 'LowerLimit', [1 1], 'UpperLimit', [gridSize gridSize]);
        actionInfo = rlNumericSpec([numAgents*2 1], 'LowerLimit', [-1 1], 'UpperLimit', [1 1]);
        env = rl.env.MATLABEnvironment('ObservationInfo', stateInfo, 'ActionInfo', actionInfo);
        env.GridMap = gridMap;
        env.Starts = starts;
        env.Goals = goals;
    end
  2. DDPG智能体构建

    matlab 复制代码
    % Actor网络
    actorNet = [
        featureInputLayer(4) % 输入:4维状态(2智能体坐标)
        fullyConnectedLayer(64)
        reluLayer
        fullyConnectedLayer(2) % 输出:2维动作(x,y方向速度)
        tanhLayer]; % 动作范围[-1,1]
    
    % Critic网络
    criticNet = [
        concatenationLayer(1,2,'Name','concat') % 合并状态和动作
        fullyConnectedLayer(64)
        reluLayer
        fullyConnectedLayer(1)];
    
    agentOpts = rlDDPGAgentOptions('SampleTime', 0.1, 'DiscountFactor', 0.99);
    agent = rlDDPGAgent(actorNet, criticNet, agentOpts);
  3. 多智能体训练

    matlab 复制代码
    % 多智能体联合训练
    simOpts = rlSimulationOptions('MaxSteps', 500);
    trainOpts = rlTrainingOptions('MaxEpisodes', 1000, 'Verbose', false);
    trainingStats = train(agent, env, trainOpts);

三、优化

  1. 状态空间扩展

    • 单智能体:加入历史路径信息(如最近5步轨迹)

    • 多智能体:联合状态(所有智能体位置+目标点)

  2. 奖励函数改进

    • 动态权重调整:根据任务阶段调整奖励权重

    • 稀疏奖励处理:引入虚拟奖励点

  3. 冲突避免机制

    • 势场法:在奖励函数中加入排斥势场

    • 通信机制:智能体共享局部观测信息


四、MATLAB代码示例(简化版)

单智能体Q-learning完整代码
matlab 复制代码
% 参数设置
gridSize = 10;
start = [1,1]; goal = [10,10];
Q = zeros(gridSize^2, 4);

% 训练循环
for ep = 1:500
    state = start;
    while ~isequal(state, goal)
        % 选择动作
        if rand < 0.1
            action = randi(4);
        else
            [~, action] = max(Q(sub2ind([gridSize gridSize], state(1), state(2)), :));
        end
        % 执行动作
        nextState = move(state, action);
        % 计算奖励
        reward = -1 + 100*(isequal(nextState, goal));
        % 更新Q值
        Q(sub2ind([gridSize gridSize], state(1), state(2)), action) = ...
            Q(sub2ind([gridSize gridSize], state(1), state(2)), action) + ...
            0.1*(reward + 0.9*max(Q(sub2ind([gridSize gridSize], nextState(1), nextState(2)), :)) - ...
            Q(sub2ind([gridSize gridSize], state(1), state(2)), action));
        state = nextState;
    end
end
多智能体DDPG可视化代码
matlab 复制代码
% 绘制训练曲线
figure;
plot(trainingStats.EpisodeRewards);
xlabel('Episode'); ylabel('Total Reward');

% 路径可视化
figure;
hold on;
plot(env.Goals(:,1), env.Goals(:,2), 'go');
for i = 1:numAgents
    plot(agentTrajectory{i}(:,1), agentTrajectory{i}(:,2), 'r-o');
end
axis equal;

参考代码 基于强化学习的单智能体与多智能体路径规划算法 www.youwenfan.com/contentcsq/80525.html

五、参考文献

  1. Q-learning路径规划:

  2. DDPG多智能体实现:

  3. 复杂场景优化:

相关推荐
南境十里·墨染春水20 小时前
C++传记(面向对象)虚析构函数 纯虚函数 抽象类 final、override关键字
开发语言·c++·笔记·算法
2301_7971727520 小时前
基于C++的游戏引擎开发
开发语言·c++·算法
有为少年21 小时前
告别“唯语料论”:用合成抽象数据为大模型开智
人工智能·深度学习·神经网络·算法·机器学习·大模型·预训练
比昨天多敲两行21 小时前
C++ 二叉搜索树
开发语言·c++·算法
Season45021 小时前
C++11之正则表达式使用指南--[正则表达式介绍]|[regex的常用函数等介绍]
c++·算法·正则表达式
Tisfy1 天前
LeetCode 2839.判断通过操作能否让字符串相等 I:if-else(两两判断)
算法·leetcode·字符串·题解
问好眼1 天前
《算法竞赛进阶指南》0x04 二分-1.最佳牛围栏
数据结构·c++·算法·二分·信息学奥赛
会编程的土豆1 天前
【数据结构与算法】优先队列
数据结构·算法
minji...1 天前
Linux 进程信号(二)信号的保存,sigset_t,sigprocmask,sigpending
linux·运维·服务器·网络·数据结构·c++·算法
罗湖老棍子1 天前
最大数(信息学奥赛一本通- P1549)(洛谷-P1198)
数据结构·算法·线段树·单点修改 区间求最大值