차량통신 네트워크에서 심층 강화 학습 기반 에너지 효율적인 무선 자원 및 전력 할당 기법
Deep Reinforcement Learning-based Energy-Efficient Resource and Power Allocation in Vehicular Communication Networks
- 주제어 (키워드) 차량 통신 , 자원 할당 , 심층 강화 학습
- 발행기관 서강대학교 일반대학원
- 지도교수 소재우
- 발행년도 2023
- 학위수여년월 2023. 2
- 학위명 석사
- 학과 및 전공 일반대학원 전자공학과
- 실제 URI http://www.dcollection.net/handler/sogang/000000070198
- UCI I804:11029-000000070198
- 본문언어 한국어
- 저작권 서강대학교 논문은 저작권 보호를 받습니다.
초록 (요약문)
Vehicle-to-everything (V2X) communication technologies that provide wireless connectivity between vehicles and pedestrians, roadside base stations, and other vehicles are important components of high-level autonomous driving technology. Vehicle-to-vehicle (V2V) communication, one of the components of V2X communication technology, is an important communication technology that prevents accidents by providing technology to exchange status information between vehicles in real time through direct communication between vehicles. Therefore, V2V communication technology should provide a stable communication environment that satisfies high reliability and low latency in various conditions, such as a communication environment in which demand traffic data increases due to an increase in the number of vehicles and a communication environment with high mobility conditions. Accordingly, the V2V communication system requires energy-efficient resource management while satisfying strict communication requirements in various situations. In this paper, we propose a deep reinforcement learning (DRL)-based resource allocation scheme in a V2X communication environment in which V2V communication network reuses resource block (RB) of a vehicle-to-infrastructure (V2I) communication network. Moreover, we additionally considers energy efficiency in the DRL-based resource allocation scheme. The agent selects the optimal RB and transmit power based on the state information observed from the environment to maximize the throughput of all V2I links while satisfying latency constraints for all V2V links. The simulation results show that the proposed scheme shows better energy efficiency than the conventional scheme.
more초록 (요약문)
차량과 보행자, 노변 기지국, 다른 차량과 무선 연결을 제공하는 차량-사물 (vehicleto everything; V2X) 통신 기술은 높은 수준의 자율주행 기술의 필수 구성 요소이다. V2X 통신 기술의 구성 요소 중 하나인 차량-차량 (vehicle-to-vehicle; V2V) 통신은 차량 간 직접 통신을 통해 차량간 상태 정보를 실시간으로 주고받는 기술을 제공하여 사고를 예방하는 중요한 통신 기술이다. 따라서 V2V 통신 기술은 차량의 수가 증가하여 요구 트래픽 데이터가 증가하는 통신 환경, 빠른 속도로 이동 중인 차량간 통신 환경과 같은 다양한 악조건에서 고신뢰성-초저지연을 만족하는 안정적인 통신 환경을 제공해야 한다. 그러므로 V2V 통신 시스템은 다양한 상황에서 엄격한 통신 요구 사항을 만족하면서 동시에 에너지 효율적인 자원 관리 시스템이 필요하다. 본 논문은 V2V 통신 네트워크가 차량-인프라 (vehicle-to-infrastructure; V2I) 통신 네트워크의 무선 자원 블록 (resource block; RB)를 재사용하는 V2X 통신 환경에서 심층 강화 학습 (deep reinforcement learning; DRL) 기반 자원 할당 시스템을 설명한다. 그 다음 DRL 기반 자원 할당 기법에서 에너지 효율을 추가로 고려한 DRL 기반 자원 할당 기법을 제안한다. 에이전트 (agent)는 모든 V2V 링크에 대한 지연 시간 제약조건을 만족하면서 모든 V2I 링크의 채널 용량 (channel capacity)을 최대화하기 위해 환경으로부터 관측한 상태정보를 기반으로 최적의 RB 와 전력을 선택한다. 모의 실험 결과는 제안하는 기법이 기존 기법보다 높은 에너지 효율을 보이면서 거의 동일한 V2V 통신, V2I 통신 채널 용량 성능을 보여준다.
more