awgn信道中的噪声功率谱密度_从OFC2020看高级算法在光通信中的应用
? 各種神經網絡算法(XNN)在大數據機器學習和人工智能領域有著十分廣泛的應用,這些高級算法在分類、優化、自學習這些方面的突出能力和其在互聯網及自動控制領域的優異表現是毋庸置疑的,自然這些年也是火得一塌糊涂了。不過,之前一直沒有過多地關注AI相關的高級算法在光通信領域的應用的。這兩天剛好有機會掃了一眼新鮮出爐的OFC2020的論文集。要不是被疫情耽誤,本次OFC預計算是比較火熱的一次盛會了,各種技術熱點,高波特率相干,高帶寬集成器件,400G/600G 實時傳輸,超寬帶光放大,概率整形的芯片實現和優化等都有較多的文章涉及。
看了幾篇,覺得有點意思,與大家分享。
1. 高級算法輔助概率整形,開辟新途徑
有兩種科研idea讓人嘆為觀止:一種是“唉,這個我就是想不到啊”,另一種是“唉,我怎么就想不到啊?”。這篇文章就是屬于第二種。看完了之后,覺得很有道理,也很簡單,但只后悔自己之前沒想到。
常規的概率整形,一般是先根據信道情況和系統需求,選定一個基本的星座圖,設定一個Entropy,然后利用MaxwellBoltzman分布求得整形系數及星座圖上每一符號出現的概率,然后再通過一些分布匹配器(DM)去做多對一的映射和二進制標記。這種常規的概率整形(PS)的性能通常是最優的,不過有個前提條件,那就是信道是AWGN。而對于光纖信道,顯然,某些場景下并不滿足這一假設,特別是在有非線性效應的時候。這也為進一步探測概率整形方法和提升性能開辟了機會窗口。怎么做呢?
圖1. 基于訓練序列的星座誤差圖樣估計
如圖1所示,先利用均勻分布的QAM星座圖作為訓練序列,經過光纖信道傳輸后,在接收端統計星座圖上每個點(符號)出錯的情況,并把誤符號率(SER)按照符號的位置記錄下來。
然后再采用投影梯度下降算法(PGD)來求解最優的發射星座點概率分布,使得信道的互信息量(容量)最大,用數學表述為下述優化問題:
其中,alpha是一個調整熵的整形參量,第一個約束條件是為了限制使得那些容易出錯的符號的概率變小,第二個約束條件則是為了滿足發端所有符號出現在概率之和為1。通過一番高端大氣上檔次的優化算法之后,可以得到給定目標entropy的優化概率分布。然后再利用CCDM來將幅度映射成符號,完成概率匹配。優化后的星座點概率圖示如下。
圖2.PGD優化求解后的發端星座點概率分布示意圖
然后作者在 VPI中建模對以下三種場景進行了仿真對比,從整形后的SER情況來看,得出的結論是,在保證相同的entropy條件下,這種新的概率分布性能不差于常規的PS算法。并且也通過簡單的實驗作了驗證,經過這種整形之后SER性能優于不整形的16QAM。
圖3. 仿真的三種場景及整形前后效果對比
其實,這種方法看起來高端,實際上思路是我們之前在別的地方經常用到的。用均勻概率分布的信號作導頻估計符號錯誤圖樣,這是在OFDM自適應調制的時候慣用手法;先估計出損傷的相對影響,然后反過來在發端來進行抑制的思路在發端預失真的時候也是很常用的。不過一般人還真是沒有想到。不過這篇文章,還是有很多地方可以繼續深入探討灌水的。比如約束條件的重新構建,相位噪聲恢復算法的影響等。
即便如此,這篇文章的意義我覺得還是特別明顯的。1)解決了單圈星座圖的概率整形問題,比如按這個思路QPSK也可以整,這樣就有可能縮小頻譜效率小于2時候,QPSK與香農極限之間的Gap; 2)對于非方形QAM也可以實現MB分布整形;3)為解決非AWGN信道,有非線性效應時的最優概率整形的求解提供了示范。
2. 高級算法用于幾何整形,改善性能
與概率整形(PS)不同,幾何整形(GS)需要優化星座圖上每個星座點的位置。這篇文章中,作者引入神經網絡算法對32QAM和 128QAM進行一維和二維的星座圖及比特映射優化,實驗驗證了優化的幾何整形,對于800G 32QAM和1T 128QAM性能提升分別約為0.98dB和 1.21dB。
圖4. 基于神經網絡的幾何整形星座圖優化結果
3. 神經網絡用于OSNR監測,從原型機走向產品
Ciena已經將包含35個輸入,2個隱含層,每層5個結點的神經網絡做成相干光模塊的固件,用于分離非線性效應噪聲,從而精確地估計系統的OSNR,并且對非線性效應不敏感。經過仿真數據訓練后用于56G~400G實時相干光模塊中進行實驗驗證,得到了較好的OSNR估計精度,如圖5所示。
圖5. 基于神經網絡的OSNR估計模型的訓練和估計結果
該模型在Ciena Wavelogic AI不同速率,配合不同種類光纖鏈路情況下估計精度分別為(系統偏移及波動標準差):56G~200G是0.04±0.25 dB,56G~300G是-0.03±0.29ddB, 56G~400G是-0.12±0.48dB。
4. 神經網絡用于PON中高速信號均衡,FPGA原型驗證
國內有研究團隊將神經網絡算法用于50G接入網,實現對帶寬限制效應的均衡,有望將10G級別的 DML器件超頻傳輸50Gb/s PAM4信號。而Nokia更是將神經網絡算法做成了定點,然后通過離線實驗比較了50Gb/s NRZ系統中它與經典的 6抽頭的最大似然序列估計算法(MLSE)的均衡效果。實驗表明,神經網絡算法在光背靠背(OB2B)和30km光纖傳輸時相對于MLSE均衡有0.2dB和0.7dB的性能提升。作者還通過降頻降速,將神經網絡均衡算法在 FPGA上進行了驗證,并評估了其復雜度和對資源的消耗,分析表明,神經網絡算法比6抽頭的MLSE復雜度還要高,如果要將該算法實用,還需要進行優化。
圖6. Nokia在50G PON中驗證神經網絡均衡算法實驗框圖
從今年的OFC論文中,可以感受到新技術從概念探索到討論關注到實用產品化已經變得非常迅速了,每個階段的痕跡已經不明顯了。也許下一代光通信產品革命的號角已經吹響,是AI,是新算法,還是新特性?我們拭目以待,可是你準備好了嗎?你的產品準備好迎接這場變革了嗎?
參考資料:
[1] A.Fallahpour et al., paper M1G.3, OFC 2020
[2] AndrewD. Shiner et al., paper M4E.2, OFC 2020
[3] MaximilianSchaedler et al., paper M1G.1, OFC 2020
[4] LilinYi et al., paper T4D.3, OFC 2020
[5] NoriakiKaneda et al., paper T4D.2, OFC 2020
總結
以上是生活随笔為你收集整理的awgn信道中的噪声功率谱密度_从OFC2020看高级算法在光通信中的应用的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: js排序的时间复杂度_JavaScrip
- 下一篇: python mkl freebsd_f