技術總結
本發(fā)明公開了一種面向RGBD三維重建的關鍵幀提取方法。首先對于相機采集的RGBD數(shù)據(jù)流和用視覺里程計估計的相機位姿,將時間上相鄰的若干數(shù)據(jù)幀分為一組。對于每一組數(shù)據(jù),根據(jù)相機位姿和相機參數(shù)將每一幀深度圖像向第一幀深度圖像投影;將每組第一幀RGB圖像向其余每一幀圖像投影,通過線性插值的方式得到每一張投影RGB圖像的灰度值。然后估計每一幀RGB圖像的模糊程度,結合對應投影深度圖像的權值,得到投影RGB圖像的權值。根據(jù)得到的權值分別將組內(nèi)投影深度圖像和投影RGB圖像融合,得到RGBD關鍵幀。本發(fā)明減少了深度相機采集數(shù)據(jù)的空洞和噪聲,得到較清晰的深度圖像和RGB圖像,為相機位姿的全局優(yōu)化和紋理提取等三維重建中的其它工作提供較可靠的數(shù)據(jù)來源。
技術研發(fā)人員:齊越;韓尹波;王晨
受保護的技術使用者:北京航空航天大學
文檔號碼:201611222413
技術研發(fā)日:2016.12.27
技術公布日:2017.06.20