1.基于說話人識別技術的口語測評身份認證方法,其特征在于,包括以下步驟:
S1:用戶注冊時,獲取并分析用戶的語音信息,得到標準語音模板,初始化身份認證分數;
S2:當用戶啟動口語測評功能時,根據測評的總時長T、身份認證分數S計算得到認證次數和認證時間;
S3:當認證時間到達時,獲取用戶的語音信息,并與標準語音模板進行對比,如果匹配,本次認證成功;否則返回步驟S3對下一次認證時間進行監測;
S4:根據本次口語測評的認證結果更新身份認證分數。
2.根據權利要求1所述的基于說話人識別技術的口語測評身份認證方法,其特征在于,所述步驟S1還包括:實時檢測是否接收到老師反饋的身份認證分數,如果是,更新身份認證分數。
3.根據權利要求1所述的基于說話人識別技術的口語測評身份認證方法,其特征在于,所述步驟S1中,所述語音信息為多條,通過麥克風直接獲取或是從用戶的測試數據庫中調取。
4.根據權利要求1所述的基于說話人識別技術的口語測評身份認證方法,其特征在于,所述步驟S2具體為:
S2a:計算認證次數A,A=5T/S;
S2b:計算認證時間:Pi=Pi-1+B;其中,Pi-1=0,B為0~12S之間的隨機數。
5.根據權利要求4所述的基于說話人識別技術的口語測評身份認證方法,其特征在于,所述步驟S3具體為:
S3a:當認證時間Pi到達時,設定認證錯誤次數為0;
S3b:判斷在預設的延長時間內是否接收到用戶的語音信息,如果是,執行步驟S3c;否則,認證失敗次數累積1,返回步驟S2;
S3c:認證錯誤次數是否達到預設的認證錯誤上限值,如果是,認證失敗次數累積1,返回步驟S2;否則,執行步驟S3d;
S3d:將接收的語音信息與標準語音模板進行對比,如果匹配,返回步驟S3a對下一次認證時間進行監測;如果不匹配,認證錯誤次數累加1,返回步驟S3b。
6.根據權利要求5所述的基于說話人識別技術的口語測評身份認證方法,其特征在于,所述步驟S4中,身份認證分數為認證失敗次數的倒數。
7.根據權利要求1所述的基于說話人識別技術的口語測評身份認證方法,其特征在于,該方法分析用戶的語音信息時,首先構建若干個分類器,然后將分類器進行融合,得到標準語音模板。
8.根據權利要求7所述的基于說話人識別技術的口語測評身份認證方法,其特征在于,所述分類器的構建方法如下:
首先,提取語音信息相應的JFA話者超向量,從JFA超向量中的均值向量中選取一個新的維度較低的子空間;然后,采用主成分分析方法對該子空間中的特征向量進行最優降維,將其投影到維度為J的低維子空間中;其次,在該低維子空間中,應用隨機采樣技術得到若干個隨機子空間;最后,對于每個隨機子空間,分別進行類內協方差規整以及非參數線性區分分析,從而得到每個隨機子空間對應的投影矩陣,即分類器。
9.根據權利要求7所述的基于說話人識別技術的口語測評身份認證方法,其特征在于,采用動態融合方法對分類器的輸出進行融合。
10.根據權利要求7所述的基于說話人識別技術的口語測評身份認證方法,其特征在于,所述動態融合方法具體為:
首先,對來自大量說話人的開發集語音數據集X進行分析,根據一定的準則將其劃分為K個子集SK;然后,用每個分類器對各個子集中的語音數據進行測試,統計相應的得分輸出;最后,將得分平均值作為確定分類器在各個集合上的權重。