中大新聞網(wǎng)廣州12月20日電(通訊員陳勝朋)中山大學(xué)航空航天學(xué)院飛行器視覺感知團隊(Aircraft Vision Perception, AVP),提出了一種基于神經(jīng)網(wǎng)絡(luò)特征點提取及高精度位姿測量的算法框架,于2022年12月13日在歐空局空間目標位姿估計挑戰(zhàn)賽上取得排名第一。該算法框架是在團隊帶頭人張小虎教授的指導(dǎo)下,由2020級博士生陳勝朋等完成,相關(guān)工作得到了中國人民解放軍軍事科學(xué)院的支持。

團隊成員
空間目標位姿估計挑戰(zhàn)賽由歐洲航天局先進概念團隊(the Advanced Concepts Team (ACT) of the European Space Agency)和斯坦福大學(xué)空間交會對接實驗室(the Space Rendezvous Laboratory (SLAB) of Stanford University)于2019年起舉辦,要求從單個灰度圖像中估計航天器的位姿,受到國際相關(guān)院校和科研機構(gòu)的廣泛關(guān)注,包括斯坦福大學(xué)(Stanford University, SLAB)、阿德萊德大學(xué)(The University of Adelaide)、洛桑聯(lián)邦理工學(xué)院(EPFL)以及東北大學(xué)(Tohoku University, Japan)等研究團隊。該挑戰(zhàn)賽第一階段于2019年6月結(jié)束,阿德萊德大學(xué)研究團隊獲勝。在此之后,賽事舉辦方繼續(xù)開放接收比賽結(jié)果并進行公開排名,截至2022年底,共有82個團隊提交比賽結(jié)果。中山大學(xué)航空航天學(xué)院飛行器視覺感知團隊提出的方法針對空間目標位姿估計,在總體精度(all-score)、姿態(tài)精度(orientation-score)、位置精度(position-score)方面展現(xiàn)了充分優(yōu)勢,打破了阿德萊德大學(xué)自2019年以來一直保持領(lǐng)先的紀錄(https://kelvins.esa.int/satellite-pose-estimation-challenge)。

中山大學(xué)航空航天學(xué)院飛行器視覺感知團隊算法成績排名第一
隨著人類航天事業(yè)的發(fā)展,衛(wèi)星、空間站等空間目標日益增加,對其在軌狀態(tài)的監(jiān)測是保障太空安全的基本要求,而空間目標在軌運行的位置姿態(tài)是表征其在軌狀態(tài)的核心參數(shù)。利用視覺感知技術(shù)對空間目標進行位姿估計是一種備受關(guān)注的方法,眾多研究者在致力于提高其精度和可靠性。
中山大學(xué)航空航天學(xué)院飛行器視覺感知團隊此次提出的算法框架針對空間剛性目標的場景,創(chuàng)新修改HRnet網(wǎng)絡(luò),相比原紀錄保持者阿德萊德大學(xué)使用的網(wǎng)絡(luò)模型,image size和heatmap size更小,不僅很大程度上減少了計算機的運行壓力與訓(xùn)練時間,而且測量精度更高。此外,針對空間剛性目標位姿估計,首次提出Levenberg-Marquardt參數(shù)化修正模型,進一步提高了位姿測量的精度。該算法框架主要由三部分組成:目標檢測網(wǎng)絡(luò)采用YOLOV7,目標特征點提取網(wǎng)絡(luò)采用HRnet,位姿估計采用EPnP及Levenberg-Marquardt參數(shù)化修正模型。

中山大學(xué)航空航天學(xué)院飛行器視覺感知團隊與阿德萊德大學(xué)精度比較

圖像數(shù)據(jù)解算結(jié)果
中山大學(xué)航空航天學(xué)院飛行器視覺感知團隊面向國家航空航天重大型號和工程任務(wù)的態(tài)勢感知需求,深入開展靶場測控、空間監(jiān)視、在軌服務(wù)、深空探測、對地觀測、無人機集群等方面的工作,為國家航空航天視覺感知領(lǐng)域提供重點技術(shù)支持。團隊運動特性數(shù)據(jù)采集軟件已在實際工程中得到應(yīng)用,助力中國空間站航天員運動特性數(shù)據(jù)采集。
文稿終審:航空航天學(xué)院 溫光浩