记录一下返修

1.对复杂度的分析还不够;

2.融合两种指标的解释还不够,审稿人认为这两种指标存在冲突,不能同时优化,但其实我们考虑的是公平性保证整个调度周期内用户分配到了更加平均的sum-rate,而se是为了追求每个调度时刻都尽可能找到信道条件最好的用户。虽然看起来冲突,但是公平性作为se的系数会影响整体的reward,因为后期策略学习到了不会违规,即每次能选择的用户数量保持一定。然后如果经过这么多调度时刻之后学到了一个不好的策略,fair维持到一个比较低的值,作为系数会极大影响奖励因为如果系数偏低可能降低一个数量级或者减半,而后期如果fair能够找到一个高点,此时获得的se虽然相比于最优策略低但是由于选择的用户数量基本一致,所以整体还是维持在一个数量级,这样就实现了两种指标的平衡;

从实验得到的数据也可以看到,两种指标其实是能够在调度周期内的后期实现一个平衡的。

3.第三个审稿人提出的更多是关于写作方面的问题;

4.第一个审稿人和第四个审稿人提出的关于补充实验的问题比较多;

5.关于时间性能上无法符合5G的亚毫秒级,我感觉是因为自己机器的推理速度导致的。根本不可能达到审稿人说的这个速度;这个问题该怎么回?

6.和PPO比较了,和其他算法比较,实现起来不是不可以就是需要改动很多,因为本身就是对策略网络进行了复杂的加工,改用SAC这种,还是比较复杂,用A2C这种原始的比较简单。

7.奖励函数融合了两种指标和两种惩罚项。进行了消融实验

相关推荐
NAGNIP10 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
颜酱19 小时前
单调栈:从模板到实战
javascript·后端·算法
CoovallyAIHub1 天前
仿生学突破:SILD模型如何让无人机在电力线迷宫中发现“隐形威胁”
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
从春晚机器人到零样本革命:YOLO26-Pose姿态估计实战指南
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
Le-DETR:省80%预训练数据,这个实时检测Transformer刷新SOTA|Georgia Tech & 北交大
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
强化学习凭什么比监督学习更聪明?RL的“聪明”并非来自算法,而是因为它学会了“挑食”
深度学习·算法·计算机视觉
CoovallyAIHub1 天前
YOLO-IOD深度解析:打破实时增量目标检测的三重知识冲突
深度学习·算法·计算机视觉
NAGNIP1 天前
轻松搞懂全连接神经网络结构!
人工智能·算法·面试
NAGNIP1 天前
一文搞懂激活函数!
算法·面试
董董灿是个攻城狮1 天前
AI 视觉连载7:传统 CV 之高斯滤波实战
算法