空中传感器网络中负载均衡的地理路由协议
针对多跳空中传感器网络(Aerial Sensor Network,ASN)中的负载不均衡问题,提出了强化学习(Reinforcement Learning,RL)理论辅助的队列高效地理路由(Reinforcement-Learning Based Queue-Efficient Geographic Routing,RLQE-GR)协议.RLQE GR协议首先将ASN路由问题抽象为强化学习(RL)任务,其中每个无人机抽象为一个RL状态,而数据包的每跳成功转发则抽象为一个RL动作.其次,RLQE-GR协议中引入了新的奖赏函数来评估每次动作,该奖赏函数的值不仅与无人机节点地理位置和每跳链路质量相关,而且与无人机节点的可用路由队列长度密切相关.然后,根据所设计的奖赏函数,RLQE-GR协议利用Q函数分布式地更新每个动作的长期累积奖赏值(Q值),并使得每个节点根据本地Q值的大小采用贪婪策略转发数据包.最后,为了使全网的Q值快速收敛且最小化收敛过程中造成的路由性能损失,RLQE GR采用周期性信标机制对Q值进行迭代更新.当Q值收敛时,RLQE-GR协议能够实现可靠有效的多跳数据传输性能.与现有地理路由协议相比,所提协议在转发数据包的同时考虑了节点之间的相对距离、每跳链路质量和中间节点路由队列利用率.这使得RLQE-GR协议能够在保证路由跳数以及数据包重传次数的限制下,实现ASN的负载均衡.此外,利用强化学习理论,所提协议可以实现近乎最优的路由性能.
空中传感器网络;地理路由协议;强化学习;奖赏函数;信标机制
49
TN927
国家自然科学基金;国家自然科学基金;江苏省自然科学基金;中国博士后科学基金
2022-03-07(万方平台首次上网日期,不代表论文的发表时间)
共11页
342-352