基于MATLAB强化学习的单智能体与多智能体路径规划算法

一、单智能体路径规划(Q-learning)

1... MATLAB实现步骤
  1. 环境建模

    matlab 复制代码
    % 创建栅格地图(0: 可通行, 1: 障碍物)
    gridSize = 20;
    gridMap = ones(gridSize);
    gridMap(5:8, 10) = 1; % 设置障碍物
  2. Q-learning参数设置

    matlab 复制代码
    Q = zeros(gridSize^2, 4); % 4个动作:上下左右
    alpha = 0.1; gamma = 0.9; epsilon = 0.1;
  3. 训练循环

    matlab 复制代码
    for episode = 1:1000
        state = [startRow, startCol]; % 起点
        while ~isGoal(state)
            % 选择动作(ε-greedy策略)
            if rand < epsilon
                action = randi(4); % 随机动作
            else
                [~, action] = max(Q(sub2ind(size(Q), state(1), state(2)), :));
            end
            % 执行动作并更新状态
            nextState = moveAgent(state, action);
            % 计算奖励
            reward = calculateReward(state, nextState, gridMap);
            % 更新Q值
            Q(sub2ind(size(Q), state(1), state(2)), action) = ...
                (1-alpha)*Q(sub2ind(size(Q), state(1), state(2)), action) + ...
                alpha*(reward + gamma*max(Q(sub2ind(size(Q), nextState(1), nextState(2)), :)));
            state = nextState;
        end
    end

二、多智能体路径规划(DDPG)

1. 算法原理
  • DDPG(深度确定性策略梯度):适用于连续动作空间,包含Actor-Critic网络结构:

    • Actor:策略网络,输出确定性动作 a=μ(s)

    • Critic:Q值评估网络,估计 Q(s,a)

  • 奖励设计

    • 协同奖励:多智能体共同接近目标(如总距离减少)

    • 冲突惩罚:智能体间距离过近时施加负奖励

2. MATLAB实现步骤
  1. 环境建模

    matlab 复制代码
    function env = createMultiAgentEnv(gridMap, starts, goals)
        numAgents = size(starts, 1);
        stateInfo = rlNumericSpec([numAgents*2 1], 'LowerLimit', [1 1], 'UpperLimit', [gridSize gridSize]);
        actionInfo = rlNumericSpec([numAgents*2 1], 'LowerLimit', [-1 1], 'UpperLimit', [1 1]);
        env = rl.env.MATLABEnvironment('ObservationInfo', stateInfo, 'ActionInfo', actionInfo);
        env.GridMap = gridMap;
        env.Starts = starts;
        env.Goals = goals;
    end
  2. DDPG智能体构建

    matlab 复制代码
    % Actor网络
    actorNet = [
        featureInputLayer(4) % 输入:4维状态(2智能体坐标)
        fullyConnectedLayer(64)
        reluLayer
        fullyConnectedLayer(2) % 输出:2维动作(x,y方向速度)
        tanhLayer]; % 动作范围[-1,1]
    
    % Critic网络
    criticNet = [
        concatenationLayer(1,2,'Name','concat') % 合并状态和动作
        fullyConnectedLayer(64)
        reluLayer
        fullyConnectedLayer(1)];
    
    agentOpts = rlDDPGAgentOptions('SampleTime', 0.1, 'DiscountFactor', 0.99);
    agent = rlDDPGAgent(actorNet, criticNet, agentOpts);
  3. 多智能体训练

    matlab 复制代码
    % 多智能体联合训练
    simOpts = rlSimulationOptions('MaxSteps', 500);
    trainOpts = rlTrainingOptions('MaxEpisodes', 1000, 'Verbose', false);
    trainingStats = train(agent, env, trainOpts);

三、优化

  1. 状态空间扩展

    • 单智能体:加入历史路径信息(如最近5步轨迹)

    • 多智能体:联合状态(所有智能体位置+目标点)

  2. 奖励函数改进

    • 动态权重调整:根据任务阶段调整奖励权重

    • 稀疏奖励处理:引入虚拟奖励点

  3. 冲突避免机制

    • 势场法:在奖励函数中加入排斥势场

    • 通信机制:智能体共享局部观测信息


四、MATLAB代码示例(简化版)

单智能体Q-learning完整代码
matlab 复制代码
% 参数设置
gridSize = 10;
start = [1,1]; goal = [10,10];
Q = zeros(gridSize^2, 4);

% 训练循环
for ep = 1:500
    state = start;
    while ~isequal(state, goal)
        % 选择动作
        if rand < 0.1
            action = randi(4);
        else
            [~, action] = max(Q(sub2ind([gridSize gridSize], state(1), state(2)), :));
        end
        % 执行动作
        nextState = move(state, action);
        % 计算奖励
        reward = -1 + 100*(isequal(nextState, goal));
        % 更新Q值
        Q(sub2ind([gridSize gridSize], state(1), state(2)), action) = ...
            Q(sub2ind([gridSize gridSize], state(1), state(2)), action) + ...
            0.1*(reward + 0.9*max(Q(sub2ind([gridSize gridSize], nextState(1), nextState(2)), :)) - ...
            Q(sub2ind([gridSize gridSize], state(1), state(2)), action));
        state = nextState;
    end
end
多智能体DDPG可视化代码
matlab 复制代码
% 绘制训练曲线
figure;
plot(trainingStats.EpisodeRewards);
xlabel('Episode'); ylabel('Total Reward');

% 路径可视化
figure;
hold on;
plot(env.Goals(:,1), env.Goals(:,2), 'go');
for i = 1:numAgents
    plot(agentTrajectory{i}(:,1), agentTrajectory{i}(:,2), 'r-o');
end
axis equal;

参考代码 基于强化学习的单智能体与多智能体路径规划算法 www.youwenfan.com/contentcsq/80525.html

五、参考文献

  1. Q-learning路径规划:

  2. DDPG多智能体实现:

  3. 复杂场景优化:

相关推荐
CoovallyAIHub15 小时前
Moonshine:比 Whisper 快 100 倍的端侧语音识别神器,Star 6.6K!
深度学习·算法·计算机视觉
CoovallyAIHub16 小时前
速度暴涨10倍、成本暴降6倍!Mercury 2用扩散取代自回归,重新定义LLM推理速度
深度学习·算法·计算机视觉
CoovallyAIHub16 小时前
实时视觉AI智能体框架来了!Vision Agents 狂揽7K Star,延迟低至30ms,YOLO+Gemini实时联动!
算法·架构·github
CoovallyAIHub16 小时前
开源:YOLO最强对手?D-FINE目标检测与实例分割框架深度解析
人工智能·算法·github
CoovallyAIHub16 小时前
OpenClaw:从“19万星标”到“行业封杀”,这只“赛博龙虾”究竟触动了谁的神经?
算法·架构·github
刀法如飞17 小时前
程序员必须知道的核心算法思想
算法·编程开发·算法思想
徐小夕18 小时前
pxcharts Ultra V2.3更新:多维表一键导出 PDF,渲染兼容性拉满!
vue.js·算法·github
CoovallyAIHub19 小时前
OpenClaw一脚踩碎传统CV?机器终于不再只是看世界
深度学习·算法·计算机视觉
CoovallyAIHub19 小时前
仅凭单目相机实现3D锥桶定位?UNet-RKNet破解自动驾驶锥桶检测难题
深度学习·算法·计算机视觉
zone773919 小时前
002:RAG 入门-LangChain 读取文本
后端·算法·面试