智能科学与技术学报 ›› 2020, Vol. 2 ›› Issue (4): 372-384.doi: 10.11959/j.issn.2096-6652.202040

• 专刊:深度强化学习 • 上一篇    下一篇

基于DQN的列车节能驾驶控制方法

宿帅1, 朱擎阳1, 魏庆来2, 唐涛1, 阴佳腾1   

  1. 1 北京交通大学轨道交通控制与安全国家重点实验室,北京 100044
    2 中国科学院自动化研究所复杂系统管理与控制国家重点实验室,北京 100190
  • 修回日期:2020-12-02 出版日期:2020-12-15 发布日期:2020-12-01
  • 作者简介:宿帅(1987- ),男,博士,北京交通大学轨道交通控制与安全国家重点实验室副教授,主要研究方向为列车节能控制、列车智能调度、强化学习算法等。
    朱擎阳(1996- ),男,北京交通大学轨道交通控制与安全国家重点实验室硕士生,主要研究方向为列车节能驾驶控制、强化学习算法等。
    魏庆来(1979- ),男,博士,中国科学院自动化研究所研究员,复杂系统管理与控制国家重点实验室副主任,中国科学院大学岗位教授,青岛智能产业技术研究院智能技术创新中心主任,主要研究方向为自学习控制、平行控制自适应动态规划、智能控制、最优控制及其工业应用。
    唐涛(1963- ),男,博士,北京交通大学轨道交通控制与安全国家重点实验室主任,电子信息工程学院院长、教授,主要研究方向为高速铁路控制、智能控制理论、智能交通理论等。
    阴佳腾(1992- ),男,博士,北京交通大学轨道交通控制与安全国家重点实验室副教授,主要研究方向为列车智能控制与调度、机器学习、列车节能驾驶控制等。
  • 基金资助:
    国家自然科学基金资助项目(61803021);国家自然科学基金资助项目(U1734210);北京市自然科学基金资助项目(L191015)

A DQN-based approach for energy-efficient train driving control

Shuai SU1, Qingyang ZHU1, Qinglai WEI2, Tao TANG1, Jiateng YIN1   

  1. 1 State Key Laboratory of Rail Traffic Control and Safety, Beijing Jiaotong University, Beijing 100044, China
    2 The State Key Laboratory for Management and Control of Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing 100190, China
  • Revised:2020-12-02 Online:2020-12-15 Published:2020-12-01
  • Supported by:
    The National Natural Science Foundation of China(61803021);The National Natural Science Foundation of China(U1734210);The Natural Science Founda-tion of Beijing of China(L191015)

摘要:

随着轨道交通网络规模的扩大和列车运营间隔的缩短,列车牵引能耗在快速增加。因此,通过优化列车的驾驶策略降低牵引能耗,对于轨道交通系统的节能减排具有重大意义。针对列车的驾驶策略优化问题,提出一种基于深度 Q 网络(DQN)的列车节能驾驶控制方法。首先介绍了传统的列车节能驾驶问题并构造其反问题,即通过分配最少的能耗达到规定运行时分。进一步将该问题转化为有限马尔可夫决策过程(MDP),通过设计状态动作值函数、定义动作策略选取方法等,构建基于 DQN 方法的列车节能驾驶控制方法。通过实际驾驶数据对DQN 进行训练,得到最优的状态动作值函数,并通过该值函数确定最优的能耗分配方案,从而得到最优驾驶策略。最后,以北京地铁亦庄线的实际运营数据设计了仿真算例,对方法的有效性进行验证,并对方法参数进行了敏感度分析。提出的方法可充分利用列车的驾驶数据提升驾驶策略,降低列车牵引能耗,对未来我国智慧城轨的发展具有一定的借鉴意义。

关键词: 列车节能驾驶, 驾驶策略, 深度Q网络

Abstract:

The energy consumption in railway system is growing rapidly due to the expanding scale of the railway network and decreased operational headway.Hence, it is of great significant to apply the energy-efficient operation of the vehicles to cut down the energy cost of the railway system.A method for solving the energy-efficient train driving control based on deep Q-network (DQN) approach was proposed.Firstly, the traditional energy-efficient train driving control problem was presented and its inverse problem was formulated, i.e., distributing the least energy consumption units to achieve the scheduled trip time.Moreover, the problem was reformulated as a Markov decision process (MDP) and a DQN-based approach for energy-efficient train driving control was proposed.A DQN was built to approximate the action value function which determines the optimal energy distribution policy and further obtain the optimal driving strategy.Finally, a numerical experiment based on the real-world operational data was proposed to verify the effectiveness of the proposed method and analyze the performance of the proposed method.The driving data of the trains is applied to improve the driving strategy via the proposed method in the paper which reduces the traction energy consumption.It is of significance for the future development of Chinese intelligent urban railway system.

Key words: energy-efficient train driving, driving strategy, deep Q-network

中图分类号: 

No Suggested Reading articles found!