麻豆精品无码国产在线播放,国产亚洲精品成人AA片新蒲金,国模无码大尺度一区二区三区,神马免费午夜福利剧场

智能交互方法和裝置與流程

文檔序號:11097772閱讀:343來源:國知局
智能交互方法和裝置與制造工藝

本發(fā)明涉及人工智能技術(shù)領(lǐng)域,具體涉及一種智能交互方法和裝置。



背景技術(shù):

隨著人工智能技術(shù)的不斷發(fā)展以及人們對于交互體驗要求的不斷提高,智能交互方式已逐漸開始替代一些傳統(tǒng)的人機交互方式,并而已成為一個研究熱點。然而,現(xiàn)有智能交互方式雖然能大概分析出用戶消息的語義內(nèi)容,卻僅能單純地根據(jù)該語義內(nèi)容提供應(yīng)答服務(wù)。實際上,不同的用戶即使輸入了相同的用戶消息,所期望得到的應(yīng)答服務(wù)也有可能是不同的,但若采用現(xiàn)有智能交互方式卻只能得到相同的應(yīng)答服務(wù)。例如,即使成年人和兒童輸入了相同的用戶消息“給我講故事”,成年人所希望聽到的故事可能為懸疑類故事,而兒童所希望聽到的故事可能為童話故事,但采用現(xiàn)有的智能交互方式是無法根據(jù)成年人和兒童的身份區(qū)別播放不同的故事文件的。由此可見,急需一種能為不同用戶提供不同應(yīng)答服務(wù)的智能交互方式。



技術(shù)實現(xiàn)要素:

有鑒于此,本發(fā)明實施例提供了一種智能交互方法和裝置,解決了現(xiàn)有智能交互方式無法為不同用戶提供不同應(yīng)答服務(wù)的問題。

本發(fā)明一實施例提供的一種智能交互方法包括:

獲取采集的用戶語音的語義所對應(yīng)的標準服務(wù)信息;

根據(jù)所述用戶語音確定所述用戶語音所匹配的用戶聲音模型;以及

結(jié)合所述匹配的用戶聲音模型以及所述標準服務(wù)信息確定對應(yīng)的應(yīng)答服務(wù)信息。

本發(fā)明一實施例提供的一種智能交互裝置包括:

語音采集模塊,配置為采集用戶語音;

標準服務(wù)提取模塊,配置為獲取所述用戶語音的語義所對應(yīng)的標準服務(wù)信息;

聲音模型模塊,配置為根據(jù)所述用戶語音確定所述用戶語音所匹配的用戶聲音模型;以及

應(yīng)答模塊,配置為結(jié)合所述匹配的用戶聲音模型以及所述標準服務(wù)信息確定對應(yīng)的應(yīng)答服務(wù)信息。

本發(fā)明實施例提供的一種智能交互方法和裝置,先根據(jù)用戶語音的語義獲取對應(yīng)的標準服務(wù)信息,再根據(jù)用戶語音確定所匹配的用戶聲音模型,并結(jié)合所匹配的用戶聲音模型以及標準服務(wù)信息二者確定最終的應(yīng)答服務(wù)信息。由于不同用戶的用戶語音可匹配到不同的用戶聲音模型,因此根據(jù)不同用戶的用戶語音所最終確定的應(yīng)答服務(wù)信息也可有所不同,從而實現(xiàn)了為不同用戶提供不同的應(yīng)答服務(wù),提高了用戶的體驗效果,使得智能交互更加智能和準確。

附圖說明

圖1所示為本發(fā)明一實施例提供的一種智能交互方法的流程示意圖。

圖2所示為本發(fā)明一實施例提供的一種智能交互方法中標準服務(wù)信息的獲取流程示意圖。

圖3所示為本發(fā)明一實施例提供的一種智能交互方法中用戶聲音模型的預先建立流程示意圖。

圖4所示為本發(fā)明一實施例提供的一種智能交互裝置的結(jié)構(gòu)示意圖。

圖5所示為本發(fā)明另一實施例提供的一種智能交互裝置的結(jié)構(gòu)示意圖。

具體實施方式

下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例僅是本發(fā)明一部分實施例,而不是全部的實施例。基于本發(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有作出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。

圖1所示為本發(fā)明一實施例提供的一種智能交互方法的流程示意圖。如圖1所示,該方法包括:

步驟101:獲取采集的用戶語音的語義所對應(yīng)的標準服務(wù)信息。

用戶語音可為用戶輸入的自然語音格式的語音內(nèi)容。通過語義理解過程獲取用戶語音所對應(yīng)的語義內(nèi)容,然后再根據(jù)該語義內(nèi)容確定對應(yīng)的標準服務(wù)信息。該標準服務(wù)信息雖然也對應(yīng)一個大概的服務(wù)內(nèi)容,但卻并不是最終執(zhí)行的細分的服務(wù)內(nèi)容,因為后續(xù)還要結(jié)合用戶聲音模型的匹配過程以確定用戶的身份,并結(jié)合用戶的身份確定最終所需要的細分的服務(wù)內(nèi)容,該細分的服務(wù)內(nèi)容即為最終確定的應(yīng)答服務(wù)信息。例如,當用戶語音為“放個歌曲聽吧”,該語義內(nèi)容所對應(yīng)的標準服務(wù)信息就為“播放歌曲”。然而,由于不同的用戶所想要聽到的歌曲可能有所不同,例如,兒童用戶想要聽到的歌曲為兒歌,而老年人想要聽到的歌曲為民歌,因此就需要后續(xù)的用戶聲音模型匹配過程來先確定用戶的身份,并根據(jù)不同的用戶身份來提供不同的細分的服務(wù)內(nèi)容。

在本發(fā)明一實施例中,如圖2所示,用戶語音所對應(yīng)的標準服務(wù)信息可通過如下過程獲取:

步驟1011:將用戶語音與多個預先存儲的標準語義模板進行相似度計算。在本發(fā)明一實施例中,標準語義模板可以呈文本形式,例如“給我唱歌吧”或“給我講故事吧”等。此時,上述相似度計算過程其實是將用戶語音所對應(yīng)的文本內(nèi)容與多個預先存儲的標準語義模板之間進行文本相似度的計算。

步驟1012:根據(jù)相似度最高的標準語義模板獲取對應(yīng)的標準服務(wù)信息,其中標準語義模板與標準服務(wù)信息之間的映射關(guān)系為預先建立。

雖然用戶語音與標準語義模板可能并不相同,但通過相似度計算過程可以找到相似度最高的標準語義模板作為匹配的標準語義模板。例如,當用戶語音為“你會唱歌嗎”時,雖然用戶語音的文本內(nèi)容與標準語義模板“給我唱歌吧”并不相同,但由于二者存在相同的詞語“唱歌”,因而相似度較高,仍會將“給我唱歌吧”作為對應(yīng)的標準語義模板。相比之下,“給我講故事吧”與用戶語音“你會唱歌嗎”之間的相似度則較低,因而并不會被用作匹配的標準語義模板。

預先存儲的標準語義模板與標準服務(wù)信息之間的映射關(guān)系可通過訓練過程預先建立起來。例如,標準語義模板“給我唱歌吧”所對應(yīng)的標準服務(wù)信息就為“播放歌曲文件”,標準語義模板“給我講故事吧”所對應(yīng)的標準服務(wù)信息就為“播放故事文件”。

步驟102:根據(jù)用戶語音確定用戶語音所匹配的用戶聲音模型。

該用戶聲音模型可為根據(jù)用戶語音預先建立,不同的用戶對應(yīng)建立不同的用戶聲音模型。這樣當不同用戶的用戶語音被采集時,就可匹配到不同的用戶聲音模型。

在本發(fā)明一實施例中,用戶聲音模型可包括用戶聲紋特征信息。該用戶聲紋特征信息用于與用戶語音中的聲紋特征相匹配。具體而言,在根據(jù)用戶語音確定用戶語音所匹配的用戶聲音模型時,首先要提取用戶語音中的聲紋特征信息,然后將提取的聲紋特征信息與已存儲的用戶聲音模型中的用戶聲紋特征信息相匹配。在一進一步實施例中,用戶聲音模型還可包括用戶靜態(tài)屬性信息。該用戶靜態(tài)屬性信息則用于表明該用戶聲音模型所對應(yīng)的用戶的身份信息,例如性別,年齡,職業(yè),喜好和家庭角色等。

在本發(fā)明一實施例中,如圖3所示,用戶聲音模型可通過如下過程預先建立起來:

步驟301:接收用戶輸入的語料語音信息,提取語料語音信息中的用戶聲紋特征信息。語料語音信息可為預設(shè)的一些訓練語料,不同用戶即使閱讀相同的訓練語料,所提取到的用戶聲紋特征信息也是有所不同的,而這些提取到的用戶聲紋特征信息正是用于與用戶語音中的聲紋特征相匹配的依據(jù)。

步驟302:接收用戶靜態(tài)屬性信息。用戶靜態(tài)屬性信息可由用戶輸入或通過第三方直接獲取。用戶可通過語音交互、文本交互等方式輸入用戶靜態(tài)屬性信息。第三方可為具體應(yīng)用場景下的第三方業(yè)務(wù)系統(tǒng),如銀行客戶系統(tǒng)、商家會員系統(tǒng)等,該第三方業(yè)務(wù)系統(tǒng)中預先存儲有用戶的用戶靜態(tài)屬性信息。本發(fā)明對此不做限定。

步驟303:訓練用戶聲紋特征信息與用戶靜態(tài)屬性信息之間的映射關(guān)系以生成用戶聲音模型。建立起用戶聲紋特征信息與用戶靜態(tài)屬性信息之間的映射關(guān)系后,只要根據(jù)用戶語音的聲紋特征確定了所匹配的用戶聲音模型,就相當于確定了用于表明用戶身份的用戶靜態(tài)屬性信息。

在本發(fā)明一實施例中,還可根據(jù)用戶語音與所匹配的用戶聲音模型之間的聲紋特征信息的差別自適應(yīng)調(diào)整所匹配的用戶聲音模型的用戶聲紋特征信息。這樣隨著與用戶的交互層級的不斷加深,用戶聲音模型也在不斷的修正,從而可提高后續(xù)用戶聲音模型匹配過程的準確性。

步驟103:結(jié)合匹配的用戶聲音模型以及標準服務(wù)信息確定對應(yīng)的應(yīng)答服務(wù)信息。

如前所述,當確定了與用戶語音相匹配的用戶聲音模型后,就獲得了與用戶身份對應(yīng)的用戶靜態(tài)屬性信息。根據(jù)該匹配的用戶聲音模型中的用戶靜態(tài)屬性信息以及標準服務(wù)信息便可確定對應(yīng)的應(yīng)答服務(wù)信息,其中標準服務(wù)信息和用戶靜態(tài)屬性信息與應(yīng)答服務(wù)信息之間的映射關(guān)系為預先建立。根據(jù)該最終確定的應(yīng)答服務(wù)信息便可提供與用戶身份相對應(yīng)的應(yīng)答服務(wù)。

例如,在預先建立的用戶A所對應(yīng)的用戶聲音模型中的用戶靜態(tài)屬性信息包括:男,年齡38歲,家庭成員角色為爸爸;而用戶B所對應(yīng)的用戶聲音模型中的用戶靜態(tài)屬性信息包括:男,年齡8歲,家庭成員為兒子。

當用戶A輸入“給我唱歌吧”的用戶語音時,根據(jù)聲紋特征匹配到用戶A的用戶聲音模型,便會根據(jù)用戶A的用戶聲音模型中的用戶靜態(tài)屬性信息來為用戶A播放:周杰倫的《青花瓷》。而當用戶B輸入相同的用戶語音時,便會根據(jù)聲紋特征匹配到用戶B的用戶聲音模型,并根據(jù)用戶B的用戶靜態(tài)屬性信息播放:兒歌《兩只老虎》。

應(yīng)當理解,當所確定的標準服務(wù)信息的具體細分內(nèi)容無法根據(jù)用戶的身份而產(chǎn)生變化時,不同用戶的用戶語音所最終確定的應(yīng)答服務(wù)信息也有可能是相同的。此外,還應(yīng)當理解,應(yīng)答服務(wù)信息可以是具體的服務(wù)指令,例如隨機聊天、播放歌曲、播放故事和播放詩文等;也有可能是特別設(shè)置的應(yīng)答語句,此時根據(jù)用戶身份的不同,對于同一個用戶語音的應(yīng)答語句也可能不同。本發(fā)明對應(yīng)答服務(wù)信息的具體內(nèi)容和形式并不做限定。

例如,仍以上述的用戶A和用戶B為例。當用戶A輸入“你會寫毛筆字嗎?”的用戶語音時,雖然根據(jù)聲紋特征匹配到用戶A的用戶聲音模型,但由于并無法提供寫毛筆字的服務(wù),便會直接回復應(yīng)答服務(wù)信息“我不會哦”。但當用戶A進一步輸入“這個都不會啊”,根據(jù)用戶A的用戶聲音模型中的用戶靜態(tài)屬性信息可確定的應(yīng)答服務(wù)信息可為“對的啊,這個你天天工作又沒有教過我”。

而當用戶B輸入“你會寫毛筆字嗎?”的用戶語音時,同樣地,雖然根據(jù)聲紋特征匹配到用戶B的用戶聲音模型,但由于無法提供寫毛筆字的服務(wù)便會直接回復應(yīng)答服務(wù)信息“我不會哦”。但當用戶B進一步輸入“這個都不會啊”,根據(jù)用戶B的用戶聲音模型中的用戶靜態(tài)屬性信息可確定的應(yīng)答服務(wù)信息可為“不好意思啊,這個我還在學習中,要不你教我吧”。

由此可見,采用本發(fā)明實施例提供的一種智能交互方法,先根據(jù)用戶語音的語義獲取對應(yīng)的標準服務(wù)信息,再根據(jù)用戶語音確定所匹配的用戶聲音模型,并結(jié)合所匹配的用戶聲音模型以及標準服務(wù)信息二者確定最終的應(yīng)答服務(wù)信息。由于不同用戶的用戶語音可匹配到不同的用戶聲音模型,因此根據(jù)不同用戶的用戶語音所最終確定的應(yīng)答服務(wù)信息也可有所不同,從而實現(xiàn)了為不同用戶提供不同的應(yīng)答服務(wù)。

在本發(fā)明一實施例中,為了提高用戶輸入的語音內(nèi)容的利用率,用戶所輸入的語音內(nèi)容需要經(jīng)過預處理,該用戶輸入的語音內(nèi)容既可以是交互過程中的用戶語音,也可以是用戶聲音模型建立過程中用戶輸入的語料語音信息。該預處理過程可包括聲音信號的采集與轉(zhuǎn)化、預濾波、預加重、加窗分幀、端點檢測等過程,在此不再贅述。

在本發(fā)明一實施例中,還可將應(yīng)答服務(wù)信息所調(diào)用的應(yīng)答服務(wù)的服務(wù)記錄信息存入匹配的用戶聲音模型。這樣在后續(xù)的交互過程中,就可以根據(jù)用戶聲音模型中的服務(wù)記錄信息快速確定用戶對具體服務(wù)內(nèi)容的習慣要求,從而提供更加智能準確的交互體驗。具體而言,在確定所匹配的用戶聲音模型后,獲取該匹配的用戶聲音模型中與標準服務(wù)信息對應(yīng)的服務(wù)記錄信息,再根據(jù)該獲取的服務(wù)記錄信息確定對應(yīng)的應(yīng)答服務(wù)信息。例如,用戶語音“打開空調(diào)”所對應(yīng)的標準服務(wù)信息為“開啟空調(diào)模式”,根據(jù)該標準服務(wù)信息搜尋所匹配的用戶聲音模型,發(fā)現(xiàn)其中存在服務(wù)記錄信息“空調(diào)制冷23度”,這說明制冷23度可能是用戶對于空調(diào)服務(wù)的習慣要求,那么則根據(jù)該服務(wù)記錄信息直接將空調(diào)開啟并調(diào)整至23度。

應(yīng)當理解,根據(jù)標準服務(wù)信息確定服務(wù)記錄信息的過程可通過關(guān)鍵詞識別或文本相似度計算的方式實現(xiàn),當標準服務(wù)信息與一個服務(wù)記錄信息之間存在相同或相近的關(guān)鍵詞,或文字相似度較高時,則可將該服務(wù)記錄信息作為與標準服務(wù)信息相對應(yīng)的服務(wù)記錄信息。然而,本發(fā)明對此過程并不做具體限定。

還應(yīng)當理解,服務(wù)記錄信息的具體內(nèi)容可根據(jù)交互過程中所涉及到的服務(wù)種類而不斷豐富和更新,例如對于空調(diào)服務(wù),所涉及到的服務(wù)記錄信息就可能包括空調(diào)模式、溫度、耗電模式、風量大小、開啟關(guān)閉時間等。本發(fā)明對服務(wù)記錄信息的具體內(nèi)容并不做限定。

在本發(fā)明一實施例中,服務(wù)記錄信息可包括服務(wù)時間屬性,這意味著服務(wù)記錄信息的具體內(nèi)容可能與時間屬性相關(guān),此時在確定最終的應(yīng)答服務(wù)信息時則還需要考慮該服務(wù)時間屬性,即,要獲取匹配的用戶聲音模型中與標準服務(wù)信息相對應(yīng)且服務(wù)時間屬性與當前時間相對應(yīng)的服務(wù)記錄信息。仍以上述例子說明,當確定所匹配的用戶聲音模型后,雖然用戶語音“打開空調(diào)”所對應(yīng)的標準服務(wù)信息為“開啟空調(diào)模式”,但所匹配的用戶聲音模型中可能存在兩個與標準服務(wù)信息相匹配的服務(wù)記錄信息,分別為“下午2點到4點開啟空調(diào)模式為制冷23度”和“晚上8點到11點開啟空調(diào)模式為制冷26度”。由于當前的時間為2點30分,因此選取其中的“午2點到4點開啟空調(diào)模式為制冷23度”作為與標準服務(wù)信息對應(yīng)的服務(wù)記錄信息,并直接將空調(diào)調(diào)整至制冷23度。

在本發(fā)明一實施例中,用戶聲音模型還包括用戶靜態(tài)屬性信息,此時在確定應(yīng)答服務(wù)信息時就需要同時考慮用戶靜態(tài)屬性信息以及服務(wù)記錄信息兩個方面的因素。考慮到服務(wù)記錄信息所代表的習慣要求一般是優(yōu)先于用戶靜態(tài)屬性信息所代表的用戶身份的,因此可先判斷是否能獲取所述匹配的用戶聲音模型中與所述標準服務(wù)信息對應(yīng)的服務(wù)記錄信息;若可以獲取,則根據(jù)所獲取的服務(wù)記錄信息確定對應(yīng)的應(yīng)答服務(wù)信息;若無法獲取,則根據(jù)匹配的用戶聲音模型中的用戶靜態(tài)屬性信息以及標準服務(wù)信息確定對應(yīng)的應(yīng)答服務(wù)信息,其中標準服務(wù)信息和用戶靜態(tài)屬性信息與應(yīng)答服務(wù)信息之間的映射關(guān)系為預先建立。

例如,成年媽媽經(jīng)常需要給小孩點播兒童故事,這樣該成年媽媽在交互的過程中經(jīng)常確定的應(yīng)答服務(wù)信息就為“播放兒童故事”,因此“播放兒童故事”就會被作為服務(wù)記錄信息存入該成年媽媽的用戶聲音模型。雖然“播放兒童故事”與成年媽媽的用戶靜態(tài)屬性信息“成年人,母親”是相沖突的,但當該成年媽媽輸入“播放故事”的用戶語音時,直接根據(jù)與該成年媽媽匹配的用戶聲音模型中的服務(wù)記錄信息播放兒童故事,而并不考慮用戶靜態(tài)信息“成年人,母親”。而當另一個成年人也輸入“播放故事”的用戶語音時,如果該另一個成年人所匹配的用戶聲音模型中并不存在與播放故事相關(guān)的服務(wù)記錄信息時,則根據(jù)該另一個成年人的用戶靜態(tài)屬性播放懸疑故事。

應(yīng)當理解,用戶聲音模型可以為一種包含多個組成要素的模型,聲紋特征信息、用戶靜態(tài)屬性以及服務(wù)記錄信息都可以是其中的組成要素。這樣對于聲紋特征信息和用戶靜態(tài)屬性的訓練過程以及服務(wù)記錄信息的存儲過程都可以被看成是對一個原始標準模型中各組成要素內(nèi)容的更新過程。在本發(fā)明另一實施例中,該用戶聲音模型還可包括聲音子模型和用戶子模型,其中聲音子模型對應(yīng)存儲和更新聲紋特征信息,用戶子模型對應(yīng)存儲和更新用戶靜態(tài)屬性以及服務(wù)記錄信息,聲音子模型與用戶子模型之間存在一定的映射關(guān)系。然而,本發(fā)明對用戶聲音模型的具體構(gòu)建形式并不做限定,只要用戶聲音模型包括聲紋特征信息、用戶靜態(tài)屬性、服務(wù)記錄信息以及相關(guān)的映射關(guān)系即可。

圖4所示為本發(fā)明一實施例提供的一種智能交互裝置的結(jié)構(gòu)示意圖。如圖4所示,該智能交互裝置40,包括:

語音采集模塊41,配置為采集用戶語音;

標準服務(wù)提取模塊42,配置為獲取用戶語音的語義所對應(yīng)的標準服務(wù)信息;

聲音模型模塊43,配置為根據(jù)用戶語音確定用戶語音所匹配的用戶聲音模型;以及

應(yīng)答模塊44,配置為結(jié)合匹配的用戶聲音模型以及標準服務(wù)信息確定對應(yīng)的應(yīng)答服務(wù)信息。

在本發(fā)明一實施例中,如圖5所示,標準服務(wù)提取模塊42包括:

相似度單元421,配置為將用戶語音與多個預先存儲的標準語義模板進行相似度計算;以及

標準服務(wù)匹配單元422,配置為根據(jù)相似度最高的標準語義模板獲取對應(yīng)的標準服務(wù)信息,其中標準語義模板與標準服務(wù)信息之間的映射關(guān)系為預先建立。

在本發(fā)明一實施例中,用戶聲音模型包括:用戶聲紋特征信息;

其中,如圖5所示,聲音模型模塊43包括:

聲紋提取單元431,配置為提取用戶語音中的聲紋特征信息;

聲紋匹配單元432,配置為將聲紋提取單元431提取的聲紋特征信息與已存儲的用戶聲音模型中的用戶聲紋特征信息相匹配。

在本發(fā)明一實施例中,聲音模型模塊43進一步包括:

自適應(yīng)調(diào)整單元,配置為根據(jù)用戶語音與匹配的用戶聲音模型之間聲紋特征信息的差別自適應(yīng)調(diào)整匹配的用戶聲音模型的用戶聲紋特征信息。

在本發(fā)明一實施例中,用戶聲音模型進一步包括:用戶靜態(tài)屬性信息;應(yīng)答模塊44進一步配置為根據(jù)匹配的用戶聲音模型中的用戶靜態(tài)屬性信息以及標準服務(wù)信息確定對應(yīng)的應(yīng)答服務(wù)信息,其中標準服務(wù)信息和用戶靜態(tài)屬性信息與應(yīng)答服務(wù)信息之間的映射關(guān)系為預先建立。

在本發(fā)明一實施例中,聲音模型模塊43進一步配置為預先建立用戶聲音模型。

在本發(fā)明一實施例中,語音采集模塊41進一步配置為,接收用戶輸入的語料語音信息;

聲紋提取單元431進一步配置為,提取語料語音信息中的用戶聲紋特征信息;

其中,如圖5所示,聲音模型模塊43進一步包括:

屬性接收單元433,配置為接收用戶靜態(tài)屬性信息;以及

訓練單元434,配置為訓練用戶聲紋特征信息與用戶靜態(tài)屬性信息之間的映射關(guān)系以生成用戶聲音模型。

在本發(fā)明一實施例中,屬性接收單元433通過用戶輸入或第三方輸入的方式接收用戶靜態(tài)屬性信息。

在本發(fā)明一實施例中,智能交互裝置40進一步包括:記錄模塊45,配置為將應(yīng)答服務(wù)信息所調(diào)用的應(yīng)答服務(wù)的服務(wù)記錄信息存入匹配的用戶聲音模型。

在本發(fā)明一實施例中,應(yīng)答模塊44進一步配置為,獲取匹配的用戶聲音模型中與標準服務(wù)信息對應(yīng)的服務(wù)記錄信息,以及根據(jù)所獲取的服務(wù)記錄信息確定對應(yīng)的應(yīng)答服務(wù)信息。

在本發(fā)明一實施例中,用戶聲音模型進一步包括:用戶靜態(tài)屬性信息;

此時,應(yīng)答模塊44進一步配置為,若無法獲取與標準服務(wù)信息對應(yīng)的服務(wù)記錄信息,則根據(jù)匹配的用戶聲音模型中的用戶靜態(tài)屬性信息以及標準服務(wù)信息確定對應(yīng)的應(yīng)答服務(wù)信息,其中標準服務(wù)信息和用戶靜態(tài)屬性信息與應(yīng)答服務(wù)信息之間的映射關(guān)系為預先建立。

在本發(fā)明一實施例中,服務(wù)記錄信息包括服務(wù)時間屬性;

此時,應(yīng)答模塊44進一步配置為,獲取匹配的用戶聲音模型中與標準服務(wù)信息相對應(yīng)且服務(wù)時間屬性與當前時間相對應(yīng)的服務(wù)記錄信息,以及根據(jù)所獲取的服務(wù)記錄信息確定對應(yīng)的應(yīng)答服務(wù)信息。

在本發(fā)明一實施例中,智能交互裝置40為智能玩具,由此實現(xiàn)在家庭應(yīng)用場景下針對不同家庭角色的不同個性化交互體驗。

應(yīng)當理解,上述實施例所提供的智能交互裝置40中記載的每個模塊或單元都與前述的一個方法步驟相對應(yīng)。由此,前述的方法步驟描述的操作和特征同樣適用于該裝置40及其中所包含的對應(yīng)的模塊和單元,重復的內(nèi)容在此不再贅述。

本發(fā)明的教導還可以實現(xiàn)為一種計算機可讀存儲介質(zhì)的計算機程序產(chǎn)品,包括計算機程序代碼,當計算機程序代碼由處理器執(zhí)行時,其使得處理器能夠按照本發(fā)明實施方式的方法來實現(xiàn)如本文實施方式所述的智能交互方法。計算機存儲介質(zhì)可以為任何有形媒介,例如軟盤、CD-ROM、DVD、硬盤驅(qū)動器、甚至網(wǎng)絡(luò)介質(zhì)等。

應(yīng)當理解,雖然以上描述了本發(fā)明實施方式的一種實現(xiàn)形式可以是計算機程序產(chǎn)品,但是本發(fā)明的實施方式的方法或裝置可以被依軟件、硬件、或者軟件和硬件的結(jié)合來實現(xiàn)。硬件部分可以利用專用邏輯來實現(xiàn);軟件部分可以存儲在存儲器中,由適當?shù)闹噶顖?zhí)行系統(tǒng),例如微處理器或者專用設(shè)計硬件來執(zhí)行。本領(lǐng)域的普通技術(shù)人員可以理解上述的方法和設(shè)備可以使用計算機可執(zhí)行指令和/或包含在處理器控制代碼中來實現(xiàn),例如在諸如磁盤、CD或DVD-ROM的載體介質(zhì)、諸如只讀存儲器(固件)的可編程的存儲器或者諸如光學或電子信號載體的數(shù)據(jù)載體上提供了這樣的代碼。本發(fā)明的方法和裝置可以由諸如超大規(guī)模集成電路或門陣列、諸如邏輯芯片、晶體管等的半導體、或者諸如現(xiàn)場可編程門陣列、可編程邏輯設(shè)備等的可編程硬件設(shè)備的硬件電路實現(xiàn),也可以用由各種類型的處理器執(zhí)行的軟件實現(xiàn),也可以由上述硬件電路和軟件的結(jié)合例如固件來實現(xiàn)。

應(yīng)當理解,盡管在上文的詳細描述中提及了裝置的若干模塊或單元,但是這種劃分僅僅是示例性而非強制性的。實際上,根據(jù)本發(fā)明的示例性實施方式,上文描述的兩個或更多模塊/單元的特征和功能可以在一個模塊/單元中實現(xiàn),反之,上文描述的一個模塊/單元的特征和功能可以進一步劃分為由多個模塊/單元來實現(xiàn)。此外,上文描述的某些模塊/單元在某些應(yīng)用場景下可被省略。

應(yīng)當理解,為了不模糊本發(fā)明的實施方式,說明書僅對一些關(guān)鍵、未必必要的技術(shù)和特征進行了描述,而可能未對一些本領(lǐng)域技術(shù)人員能夠?qū)崿F(xiàn)的特征做出說明。

以上所述僅為本發(fā)明的較佳實施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換等,均應(yīng)包含在本發(fā)明的保護范圍之內(nèi)。

當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
主站蜘蛛池模板: 安西县| 乌拉特前旗| 五华县| 班戈县| 万宁市| 金乡县| 永春县| 龙胜| 景宁| 尉犁县| 平阴县| 永城市| 湛江市| 桓台县| 广河县| 筠连县| 蒙阴县| 齐河县| 碌曲县| 江都市| 都匀市| 望奎县| 凤城市| 普宁市| 阿拉善左旗| 扶余县| 台州市| 上虞市| 万州区| 凌源市| 宁德市| 连州市| 宜兰县| 灵丘县| 兴国县| 海口市| 布尔津县| 紫阳县| 和硕县| 蓬溪县| 砚山县|