Abstract:
为了有效地解决海战场环境下多舰艇的追踪目标问题,以多智能体(舰艇)为研究对象,提出一种基于改进的Deep Q-Network(DQN)算法的路径规划方法。DQN算法结合多智能体的强化学习环境特性,在传统DQN算法的基础上,添加一个结构相同、参数不同的网络,分别对Q实际值和估计值进行更新来实现价值函数的收敛。此外,该方法使用经验回放和目标网络双参数更新机制,有效地解决了神经网络训练误差大、泛化能力差和训练不稳定等问题。实验结果表明,与传统的算法相比,提出的方法能够更快地适应复杂多变的多类型海战场环境,避障能力提高两倍多,并且在环境中能够获得更高的训练奖励。
Keyword:
Reprint Author's Address:
Email:
Source :
智能科学与技术学报
Year: 2022
Issue: 03
Volume: 4
Page: 418-425
Cited Count:
WoS CC Cited Count: 0
SCOPUS Cited Count:
ESI Highly Cited Papers on the List: 0 Unfold All
WanFang Cited Count:
Chinese Cited Count:
30 Days PV: 7
Affiliated Colleges: