Szczegóły publikacji

Opis bibliograficzny

Deep reinforcement learning for energy-efficient 6G V2X networks / Faysal MARZUK, Andres VEJAR, Piotr CHOŁDA // Electronics [Dokument elektroniczny]. — Czasopismo elektroniczne ; ISSN  2079-9292 . — 2025 — vol. 14 iss. 6 art. no. 1148, s. 1–23. — Wymagania systemowe: Adobe Reader. — Bibliogr. s. 21–23, Abstr. — Publikacja dostępna online od: 2025-03-14

Autorzy (3)

Słowa kluczowe

machine learningoptimizationmulti-access edge computing6Gvehicle to everythingintelligent transportation systemdeep reinforcement learning5Gartificial intelligence

Dane bibliometryczne

ID BaDAP159050
Data dodania do BaDAP2025-05-05
Tekst źródłowyURL
DOI10.3390/electronics14061148
Rok publikacji2025
Typ publikacjiartykuł w czasopiśmie
Otwarty dostęptak
Creative Commons
Czasopismo/seriaElectronics

Abstract

The deployment of 6G vehicle-to-everything (V2X) networks is a challenging task given the 6G requirements of ultra-high data rates along with ultra-low latency levels. For intelligent transportation systems (ITSs), V2X communications involve a high density of user equipment (UE), vehicles, and next-generation Node-B (gNB). Therefore, optimal management of the current network infrastructure plays a key role in minimizing energy and latency. Optimal resource allocation using linear programming methods cannot be scaled to the required scenarios of 6G V2X communications and is not suitable for online allocation. To overcome these limitations, deep reinforcement learning (DRL) is a promising approach given its properties of direct integration with online allocation models. In this work, we investigate the problem of optimal resource allocation in 6G V2X networks, where ITSs are deployed to execute tasks offloaded by vehicles subject to data rate and latency requirements. We apply a policy optimization-based DRL to jointly reduce the number of active gNBs and the latency concerning the offloaded tasks going on in the vehicle. The model is analyzed for several ITS scenarios to investigate the performance observed and the advantages of the proposed policy optimization allocation for 6G V2X networks. Our evaluation results illustrate that the proposed DRL-based algorithm produces dynamic solutions that approximate the optimal ones at reasonable rates of energy consumption. Our numerical results indicate that DRL-based solutions are distinguished by equivalently balanced energy consumption under different scenarios.

Publikacje, które mogą Cię zainteresować

artykuł
#157329Data dodania: 3.2.2025
Offloading in V2X with road side units: deep reinforcement learning / Widhi Yahya, Ying-Dar Lin, Faysal MARZUK, Piotr CHOŁDA, Yuan-Cheng Lai // Vehicular Communications ; ISSN 2214-2096. — 2025 — vol. 51 art. no. 100862, s. 1–15. — Bibliogr. s. 14–15, Abstr. — Publikacja dostępna online od: 2024-12-05
artykuł
#155697Data dodania: 29.10.2024
Optimal resource allocation for 6G V2X communication systems — Optymalna alokacja zasobów dla systemów łączności V2X w sieciach 6G / Faysal MARZUK, Andres VEJAR, Piotr CHOŁDA // Przegląd Telekomunikacyjny, Wiadomości Telekomunikacyjne ; ISSN 1230-3496. — 2024 — R. 97 nr 4, s. 350–353. — Bibliogr. s. 353, Streszcz., Abstr. — Publikacja dostępna tylko online. --- Tryb dostępu: https://sigma-not.pl/zeszyt-7541-przeglad-telekomunikacyjny-2024-4.html [2024-10-01]. — KRiT 2024 : II Konferencja Radiokomunikacji i Teleinformatyki : Poznań, 11-13 września 2024