本發明屬于計算機視覺識別技術領域,涉及一種移動機器人對環境識別定位的方法,具體涉及一種移動機器人對室內環境進行高效簡單識別及定位的方法。
技術背景
目前移動機器人室內定位多數采用激光雷達掃描構建二維地圖(如掃地機器人)定位和采用計算機視覺領域的圖像特征提取和特征匹配等一系列復雜方法來完成物體識別和定位,這些方法的缺點是成本高和較復雜。
技術實現要素:
為了解決上述技術問題,本發明提供了一種新的移動機器人室內環境識別和定位的方法,與人對室內環境識別和自身定位的方法相接近,并且對環境識別和定位的魯棒性增強,實時性強,效率更高。
本發明所采用的技術方案是:一種基于視覺的移動機器人室內環境識別定位方法,其特征在于,包括以下步驟:
步驟1:利用圖像數據庫,進行深度學習,得出深度學習模型;
步驟2:確定拓撲節點和確定節點自然路標,構建拓撲地圖;
步驟3:將每個節點自然路標以單詞形式命名,構建詞袋模型;
步驟4:實時采集圖像,利用深度學習模型,對自然路標進行識別;
步驟5:利用步驟4中自然路標識別結果,結合詞袋模型,進行自然路標匹配;
步驟6:利用匹配結果,結合拓撲地圖,進行模糊推理,實現室內環境識別定位。
本發明的優點在于:
(1)通過深度學習的方法對室內環境物體識別,準確率和效率都比傳統圖像特征匹配法高;
(2)構建室內環境拓撲地圖和詞袋模型,比激光雷達構建二維地圖成本要低,并且方法簡單,更向人工智能靠近。
附圖說明
圖1是本發明實施例的移動機器人離線狀態下需要完成任務的流程圖;
圖2是本發明實施例的移動機器人在線狀態下完成識別定位流程圖。
具體實施方式
為了便于本領域普通技術人員理解和實施本發明,下面結合附圖及實施例對本發明作進一步的詳細描述,應當理解,此處所描述的實施示例僅用于說明和解釋本發明,并不用于限定本發明。
本實施例首先移動機器人在離線狀態下對圖像數據集進行深度學習,得到訓練模型,同時構建拓撲地圖和詞袋庫,然后移動機器人在線狀態下通過攝像頭采集實時圖像,輸入訓練好的模型,識別出實時圖像中的自然路標,最后通過自然路標匹配,結合詞袋庫和拓撲地圖就可以模糊推理出移動機器人的大概位置。
本發明提供的一種基于視覺的移動機器人室內環境識別定位方法,其特征在于,包括以下步驟:
步驟1:利用圖像數據庫,進行深度學習,得出深度學習模型;
圖像數據庫運用現有的imagenet數據集,采用卷積神經網絡(cnn)提取圖像特征,采用cnn訓練其中一個優點能權重(卷積核)共享,就是直接用世界上別人訓練效果非常好的權重參數,再根據實際任務(需要識別分類哪些物體),通過fineturn算法對自己要訓練的網絡進行參數初始化和一些模塊參數改變。最終得到自己想要的深度學習模型。
步驟2:確定拓撲節點和確定節點自然路標,構建拓撲地圖;
具體實現包括以下子步驟:
步驟2.1:將室內環境中預定位置(例如:廚房、客廳、臥室、陽臺、走廊、書房、衛生間這些空間分別設定為不同的節點)設定為拓撲節點;
步驟2.2:將每個節點自然路標以單詞形式命名,節點與節點間連線為走道。
步驟3:將每個節點自然路標以單詞形式命名,構建詞袋模型;
節點自然路標主要由一些特定物體組成(廚房里固定的物體如鍋、油煙機、冰箱等可視作自然路標),節點處這些物體組成小詞袋。
步驟4:實時采集圖像,利用深度學習模型,對自然路標進行識別;然后以單詞形式輸出。
步驟5:利用步驟4中自然路標識別結果,結合詞袋模型,進行自然路標匹配;
步驟6:利用匹配結果,結合拓撲地圖,進行模糊推理,實現室內環境識別定位。
請見圖1和圖2,本實施例的深度學習、構建拓撲地圖、建立詞袋模型和標定節點自然路標都是離線狀態執行的;而實時采集圖像、自然路標識別、單詞匹配、模糊推理都必須在線狀態執行。
應當理解的是,本說明書未詳細闡述的部分均屬于現有技術。
應當理解的是,上述針對較佳實施例的描述較為詳細,并不能因此而認為是對本發明專利保護范圍的限制,本領域的普通技術人員在本發明的啟示下,在不脫離本發明權利要求所保護的范圍情況下,還可以做出替換或變形,均落入本發明的保護范圍之內,本發明的請求保護范圍應以所附權利要求為準。