隨著5G技術(shù)的迅猛發(fā)展與廣泛普及,基站業(yè)務(wù)量的精準(zhǔn)預(yù)測(cè)愈發(fā)關(guān)鍵。在多基站的場(chǎng)景中,預(yù)測(cè)工作不僅依賴于各基站自身的歷史業(yè)務(wù)量信息,還需充分考量基站間的空間聯(lián)系及其對(duì)預(yù)測(cè)結(jié)果的作用。本文聚焦于多基站情境下的業(yè)務(wù)量預(yù)測(cè)問(wèn)題,探討時(shí)間維度和空間維度如何影響基站業(yè)務(wù)量的預(yù)測(cè)成效,以期為相關(guān)研究與實(shí)踐提供有益的參考和借鑒。
基站業(yè)務(wù)量預(yù)測(cè)概述
5G基站業(yè)務(wù)量預(yù)測(cè)方法成為了一種重要的技術(shù)手段,旨在提前感知流量的變化趨勢(shì),從而幫助基站進(jìn)行資源的合理分配和調(diào)整,以滿足用戶的需求。然而多基站業(yè)務(wù)量預(yù)測(cè)屬于復(fù)雜的時(shí)間序列預(yù)測(cè)任務(wù)。時(shí)間域方面,傳統(tǒng)的數(shù)理統(tǒng)計(jì)和機(jī)器學(xué)習(xí)模型,在提取業(yè)務(wù)量數(shù)據(jù)特征的能力有限。近年來(lái),深度學(xué)習(xí)模型因?yàn)樯瞄L(zhǎng)處理非線性數(shù)據(jù),所以被開發(fā)應(yīng)用于時(shí)間序列任務(wù)中。但卷積神經(jīng)網(wǎng)絡(luò)(CNN)卷積層的局部感知能力需要在模型中設(shè)置多層卷積和池化操作,通常難以捕捉長(zhǎng)期依賴關(guān)系。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)類的模型存在梯度爆炸和無(wú)法在硬件顯卡中并行訓(xùn)練的問(wèn)題。此外,在空間域方面,5G基站的業(yè)務(wù)量數(shù)據(jù)表現(xiàn)出明顯的區(qū)域性特征。
圖1 不同地區(qū)5G基站業(yè)務(wù)量的走勢(shì)圖
如圖 1 所示,我們獲取了來(lái)自高鐵站、住宅區(qū)、高校等多個(gè)區(qū)域的真實(shí) 5G 基站業(yè)務(wù)量數(shù)據(jù),并繪制出相應(yīng)的業(yè)務(wù)量走勢(shì)圖。經(jīng)分析發(fā)現(xiàn),某高速路段的 5G 基站業(yè)務(wù)量呈現(xiàn)出顯著的潮汐特性,其波峰與波谷的數(shù)值差異頗為顯著。與之相對(duì),某小區(qū)的 5G 基站業(yè)務(wù)量走勢(shì)較為平穩(wěn)緩和,并且在趨勢(shì)上與高速基站的業(yè)務(wù)量走勢(shì)表現(xiàn)出一定的趨同性。另外,公園區(qū)域的 5G 基站業(yè)務(wù)量數(shù)據(jù)中,波峰和波谷的出現(xiàn)時(shí)間相對(duì)更早。基于以上的分析,我們利用基站之間在空間上的相關(guān)性,進(jìn)一步提高模型的預(yù)測(cè)精度。
GCformer時(shí)空預(yù)測(cè)模型
我們描述如何使用GCFormer模型來(lái)對(duì)5G基站的業(yè)務(wù)量進(jìn)行預(yù)測(cè),模型由空域和時(shí)間域兩個(gè)子模塊組成,如圖2所示?臻g域方面,我們根據(jù)多基站的工參和業(yè)務(wù)量數(shù)據(jù)對(duì)相關(guān)基站節(jié)點(diǎn)選擇,得到鄰接矩陣的空間數(shù)據(jù)。之后我們使用圖卷積神經(jīng)網(wǎng)絡(luò)(Graph Convolutional Networks, GCN)模型提取基站網(wǎng)絡(luò)的空間關(guān)聯(lián)結(jié)構(gòu)。時(shí)域方面我們將多基站的歷史業(yè)務(wù)量數(shù)據(jù),通過(guò)1D-CNN模塊提取歷史數(shù)據(jù)的時(shí)間段信息,其次將得到的數(shù)據(jù)輸入到Transformer模型中。并且在Transformer的位置編碼的分,我們通過(guò)TVOM(Time Variant Optimization Module)方法加入了周期項(xiàng)信息,提高模型捕獲時(shí)序關(guān)系的能力。最后我們將時(shí)空兩模塊的輸出特征進(jìn)行融合,得到模型的預(yù)測(cè)結(jié)果。
圖2. GCformer系統(tǒng)模型,包括通過(guò)1D-CNN和TVOM模塊改進(jìn)的Transformer類模型和通過(guò)基站節(jié)點(diǎn)選擇并基于GCN模型的空間信息提取部分
圖卷積神經(jīng)網(wǎng)絡(luò)和相關(guān)基站節(jié)點(diǎn)選擇
圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks,GNN)是一種處理圖數(shù)據(jù)的深度學(xué)習(xí)模型。與CNN, RNN等傳統(tǒng)的深度學(xué)習(xí)模型不同,它能夠處理非歐幾里德空間的數(shù)據(jù),對(duì)節(jié)點(diǎn)和邊進(jìn)行信息傳遞和學(xué)習(xí),從而對(duì)整個(gè)圖進(jìn)行綜合建模和分析。
圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)是 GNN 中的一種。相比于傳統(tǒng)的 GNN,GCN 利用圖形結(jié)構(gòu)的信息,在節(jié)點(diǎn)卷積操作中使用鄰接矩陣和度矩陣進(jìn)行特征聚合,從而提取節(jié)點(diǎn)的高層次特征表示,反映出基站間復(fù)雜的網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),進(jìn)一步準(zhǔn)確地捕捉空間相關(guān)性。具體來(lái)說(shuō)GCN 的核心就是在圖形數(shù)據(jù)上定義卷積層。與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)不同,GCN 中的卷積層旨在利用圖形結(jié)構(gòu),從相鄰節(jié)點(diǎn)的信息中汲取有效的特征,而關(guān)系越親近的鄰居對(duì)當(dāng)前節(jié)點(diǎn)的影響就越大。
在構(gòu)建5G基站的鄰接矩陣時(shí),選擇合適的基站節(jié)點(diǎn)是至關(guān)重要的,這不僅影響數(shù)據(jù)的準(zhǔn)確性,還關(guān)系到網(wǎng)絡(luò)優(yōu)化的效果;诖,我們運(yùn)用三種方法來(lái)構(gòu)建鄰接矩陣:一是歐式距離法,即通過(guò)計(jì)算兩基站間的直線距離衡量其物理接近程度,此為評(píng)估地理位置相近基站關(guān)系的基本方法;二是區(qū)域類型法,鑒于基站所處區(qū)域類型(如商業(yè)區(qū)、學(xué)校區(qū)、住宅區(qū)等)會(huì)對(duì)其業(yè)務(wù)量特性產(chǎn)生重要影響,故而依據(jù)區(qū)域類型將功能或位置相似的基站分組,以此明晰基站間的異同;三是業(yè)務(wù)量相似性法,借助余弦相似度、聚類等手段對(duì)基站間業(yè)務(wù)量數(shù)據(jù)展開分析,基于數(shù)據(jù)驅(qū)動(dòng)從多維度揭示基站在業(yè)務(wù)量上的相似或差異情況,助力基站網(wǎng)絡(luò)的理解與分析。
時(shí)間域模型和時(shí)變優(yōu)化模塊
Transformer模型是一種應(yīng)用于序列建模的神經(jīng)網(wǎng)絡(luò)模型,因?yàn)槠鋬?nèi)部的Self-Attention機(jī)制以及Positional Encoding方法,使得該模型在文本摘要、語(yǔ)言翻譯等自然語(yǔ)言處理任務(wù)中取得了優(yōu)異的成績(jī)。近年來(lái),Transformer模型也被廣泛應(yīng)用其他領(lǐng)域的序列建模和預(yù)測(cè)任務(wù)。而5G基站業(yè)務(wù)量預(yù)測(cè)是一個(gè)時(shí)間序列預(yù)測(cè)任務(wù),其中每個(gè)時(shí)間窗口都對(duì)應(yīng)著基站的一段實(shí)際業(yè)務(wù)量。因此,Transformer 模型可以被用來(lái)對(duì)5G基站的業(yè)務(wù)量進(jìn)行建模和預(yù)測(cè),為相關(guān)的業(yè)務(wù)決策提供參考和依據(jù)。
圖3 Self-Attention and Multi-head attention
此外,傳統(tǒng)的Transformer模型根據(jù)輸入數(shù)據(jù)位置的不同,通過(guò)Positional Encoding的方法增加輸入數(shù)據(jù)之間的順序關(guān)系。但是這種絕對(duì)位置編碼的方法,在處理5G基站業(yè)務(wù)量數(shù)據(jù)時(shí),缺乏可靠且針對(duì)性的時(shí)間序列的分析。因此,我們提出Time Variant Optimization Module(TVOM)增加Transformer模型中的時(shí)序信息。TVOM通過(guò)計(jì)算數(shù)據(jù)中的相關(guān)性,來(lái)提取5G基站小區(qū)的業(yè)務(wù)量數(shù)據(jù)的周期項(xiàng)信息,并將周期數(shù)據(jù)加入到Positional Encoding部分。
具體來(lái)說(shuō),我們利用Prophet模型分析5G基站用戶數(shù)業(yè)務(wù)量數(shù)據(jù),提取出具體的周期性信息。隨后我們通過(guò)最小二乘法進(jìn)行曲線擬合,該方法將設(shè)計(jì)的曲線數(shù)據(jù)和實(shí)際數(shù)據(jù)的誤差作為目標(biāo)函數(shù),對(duì)擬合的曲線進(jìn)行優(yōu)化。通過(guò)最小化誤差的平方值,來(lái)獲得最優(yōu)的多項(xiàng)式的系數(shù),進(jìn)而構(gòu)造出周期項(xiàng)對(duì)應(yīng)的的函數(shù)表達(dá)式。在訓(xùn)練模型的過(guò)程中,將小區(qū)ID作為匹配標(biāo)簽,根據(jù)輸入數(shù)據(jù)的起始時(shí)刻對(duì)應(yīng)替換周期項(xiàng)函數(shù)。從而彌補(bǔ)原始的Positional Encoding方法無(wú)法在時(shí)間序列數(shù)據(jù)中表示不足的問(wèn)題。
總結(jié)
在這項(xiàng)研究中,我們根據(jù)5G基站業(yè)務(wù)量數(shù)據(jù)的時(shí)空特性,提出了一個(gè)深度學(xué)習(xí)架構(gòu)GCformer。為了有效地描述多個(gè)基站之間空間相關(guān)性的關(guān)系,我們選取了基站距離、區(qū)域類型、數(shù)據(jù)相似度建立綜合信息的鄰接矩陣,并使用GCN模塊提取其空間關(guān)系。此外GCformer的時(shí)間域模塊繼承了Transformer模型,使用Self-Attention方法提取業(yè)務(wù)量數(shù)據(jù)之間的關(guān)系,并且通過(guò)1D-CNN和TVOM模塊進(jìn)一步提升捕獲數(shù)據(jù)中的時(shí)序信息。