麻豆精品无码国产在线播放,国产亚洲精品成人AA片新蒲金,国模无码大尺度一区二区三区,神马免费午夜福利剧场

一種基于機器學習的眼控跟蹤方法與流程

文檔序號:12595053閱讀:298來源:國知局
一種基于機器學習的眼控跟蹤方法與流程

本發明涉及智能視覺處理技術領域,特別涉及一種基于機器學習的眼控跟蹤方法。



背景技術:

隨著現代社會的發展,人們對安全、智能與舒適的要求越來越高,采用眼控跟蹤技術可以在不需要人手部參與的情況下對智能設備進行控制,實現多種設備的智能化提升。

目前,常用的眼控跟蹤技術采用的是基于紅外光源探測獲取眼球運動信息的方法,其技術要點在于傳統方法:首先,使用外接紅外攝像模組獲取眼球圖像,并進行圖像預處理。然后,對瞳孔的中心和紅外led燈產生的普洱欽斑的大小、位置等特征進行檢測;接著,建立瞳孔角膜反射向量,進而通過該向量映射、求解注視點在屏幕上的坐標,獲得眼動信息。該方法結構簡單,易于實現。

但是,隨著低成本消費電子設備的出現,在低頻視頻設備上,該技術的弊病日益顯現。在駕駛員疲勞檢測、人臉金融支付等領域,該方法也存在著識別效率較低,判斷不夠準確,可靠性較差等問題。阻礙了該技術的進一步推廣和實驗,成為亟待解決和提高的問題。



技術實現要素:

本發明的目的是:提出一種基于機器學習的眼控跟蹤方法,以解決現有的眼控跟蹤技術識別準確率低、魯棒性差的問題。

本發明解決其技術問題所采用的技術方案是:

一種基于機器學習的眼控跟蹤方法,包括以下步驟:

S1,啟動眼控跟蹤模式;

S2,通過攝像頭獲取被跟蹤人員的瞳孔、眼臉形狀特征和頭部姿勢,獲得聯合特征數據;

S3,對步驟S2所獲得的聯合特征數據進行分析,采用機器學習方法,對多特征進行深度學習和訓練,得到具有強識別性能的分類器;

S4,通過處理單元接收分析信息,并依據該分析信息產生眼動指針。

進一步,所述步驟S1具體包括如下步驟:通過語音指令或觸控指令啟動,對APP發出啟動指令,電子設備在得到指令后自動打開眼控跟蹤模塊,啟動眼控跟蹤模式。

進一步,所述步驟S2具體包括如下步驟:

S21,對攝像機獲得的當前圖像進行色彩空間轉換處理,由三通道RGB彩色空間轉換到單通道灰度空間,并進行直方圖均衡化處理;

S22,使用雙邊濾波在保證圖像中障礙物邊緣清晰的前提下去除圖像中的噪聲,濾波計算表達式為:

其中,f為原輸入圖像,h為去噪后的輸出圖像,c(ξ,x)為度量了領域中心點x和領近點ξ的幾何臨近度,kd為歸一化參數;

S23,采用圖像特征提取方法,獲得圖像的像素級特征序列,對算法生成的有序對象列表進行分析,去除其中不屬于聚類群的孤立點和奇異點。

進一步,所述步驟S3具體包括以下步驟:

S31,利用深度置信網絡對步驟S23中獲得的特征進行訓練和學習,并對訓練和學習結果進行測試;

S32,采用步驟S31獲得具有強分辨能力的分類器,并將獲得的分類器集成到本發明所述的眼控跟蹤技術中。

進一步,所述步驟S4具體包括以下步驟:

S41,采用步驟S32所獲得的強分類器,實時檢測瞳孔位置信息,對位置進行記錄,構成一階馬爾科夫過程,并采用隨機狀態估計方法對瞳孔在下一時刻的可能位置進行預測;

S42,采用Kalman濾波方法對步驟S41獲得的位置進行跟蹤,進而提供本發明所述眼控跟蹤方法的實時性;

S43,采用步驟S42所獲得的瞳孔跟蹤信息,提取其中的瞳孔運動速度和方向信息構成眼動指針。

本發明的有益效果是:

1、本發明采用深度機器學習方法,可以極大的提高眼控跟蹤的效率和魯棒性,系統檢測單次循環不超過38ms,檢測成功率達到93%以上。

2、本發明采用消費級電子設備攝像頭作為環境感知設備,極大地降低了該方法推廣使用的門檻和成本,本可以獲得更為準確可靠的眼控跟蹤。

附圖說明

圖1為本發明的眼控跟蹤方法的系統硬件框圖。

圖2為本發明的眼控跟蹤方法的實施流程框圖。

圖中:01-智能電子設備、011-攝像頭、012-顯示屏、013-眼控跟蹤指針。

具體實施方式

以下結合附圖,對本發明做進一步說明。

本發明是一種基于機器學習的眼控跟蹤方法,該方法基于的硬件結構如圖1所示,硬件采用消費級的智能電子設備01,例如:智能手機、平板電腦、臺式機或筆記本電腦。該智能電子設備包括有顯示屏012和攝像頭011;圖1中顯示的是一種單目攝像頭,期采樣頻率低,采用低幀率標準感光元件,該單目攝像頭用于將采集到的圖像信號傳輸至智能電子設備的計算單元中。

本發明提供的一直基于機器學習的眼控跟蹤方法,具體實施步驟如圖2所示,包括:

S1,啟動眼控跟蹤模式;

在本實施方式中,啟動眼控跟蹤模式,具體方法為:通過語音信息,觸摸屏等方式,對APP發出啟動指令,電子設備在得到指令后自動打開眼控跟蹤模塊。

S2,通過攝像頭獲取被跟蹤人員的瞳孔、眼臉形狀特征和頭部姿勢,獲得聯合特征數據;該聯合特征可對被跟蹤人員進行區別,具有旋轉、縮放特征不變性;

在本實施方式中,對被跟蹤人員的瞳孔、眼臉形狀特征和頭部姿勢,獲得聯合特征,具體包括以下步驟:

S21,對攝像機獲得的當前圖像進行色彩空間轉換處理,由三通道RGB彩色空間轉換到單通道灰度空間,并進行直方圖均衡化處理;

S22,使用雙邊濾波在保證圖像中障礙物邊緣清晰的前提下去除圖像中的噪聲,濾波計算表達式為:

其中,f為原輸入圖像,h為去噪后的輸出圖像,c(ξ,x)為度量了領域中心點x和領近點ξ的幾何臨近度,kd為歸一化參數;

S23,采用圖像特征提取方法,獲得圖像的像素級特征序列,對算法生成的有序對象列表進行分析,去除其中不屬于聚類群的孤立點和奇異點。

S3,對步驟S2所獲得的聯合特征數據進行分析,采用機器學習方法,對多特征進行深度學習和訓練,得到具有強識別性能的分類器,

在本實施方式中,采用機器學習方法,對多特征進行深度學習和訓練,具體包括以下步驟:

S31利用深度置信網絡對步驟S23中獲得的特征進行訓練和學習,并對訓練和學習結果進行測試;

S32采用步驟S31獲得具有強分辨能力的強分類器,并將獲得的強分類器集成到本發明的眼控跟蹤系統中。

S4,通過處理單元接收分析信息,并依據分析信息產生眼動指針。

在本實施方式中,通過處理單元接收分析信息,并依據分析信息產生眼動指針包括以下步驟:

S41采用步驟S32所獲得的強分類器,實時檢測瞳孔位置信息,對位置進行記錄,構成一階馬爾科夫過程,并采用隨機狀態估計方法對瞳孔在下一時刻的可能位置進行預測;

S42采用Kalman濾波方法對步驟S41獲得的位置進行跟蹤,進而提供本發明所述眼控跟蹤方法的實時性;

S43采用步驟S42所獲得的瞳孔跟蹤信息,提取其中的瞳孔運動速度和方向信息構成眼動指針。

以上顯示和描述了本發明的基本原理和主要特征和本發明的優點。本行業的技術人員應該了解,本發明不受上述實施例的限制,上述實施例和說明書中描述的只是說明本發明的原理,在不脫離本發明精神和范圍的前提下,本發明還會有各種變化和改進,這些變化和改進都落入要求保護的本發明范圍內。本發明要求保護范圍由所附的權利要求書及其等效物界定。

當前第1頁1 2 3 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
主站蜘蛛池模板: 湄潭县| 屏山县| 密云县| 城口县| 新干县| 贵港市| 永清县| 桐乡市| 长寿区| 健康| 信丰县| 夏河县| 岑溪市| 乌审旗| 宁阳县| 日土县| 辽中县| 宁津县| 乐山市| 贵德县| 北川| 巴彦县| 繁昌县| 项城市| 平南县| 治县。| 宜良县| 师宗县| 陆川县| 金溪县| 周口市| 通州市| 九台市| 乌拉特中旗| 安塞县| 大荔县| 恩平市| 濮阳市| 婺源县| 永清县| 安岳县|