(58)【調査した分野】(Int.Cl.,DB名)
【発明の概要】
【発明が解決しようとする課題】
【0003】
本発明は、これを考慮して、マン−マシン音声インタラクションの実感、興味性を向上するための音声インタラクション方法、装置、設備、コンピュータ記憶媒体及びコンピュータプログラムを提供する。
【0004】
本発明において技術の問題点を解決するために採用した技術案は、第一端末設備が送信した音声データを受信することと、前記音声データの音声識別結果及び声紋識別結果を取得することと、前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことと、変換して得られたオーディオデータを前記第一端末設備に送信することと、を含む、音声インタラクション方法を提供する。
【0005】
本発明の一つの好ましい実施形態によれば、前記声紋識別結果は、ユーザの性別、年齢、地域、職業内の少なくとも一種の身元情報を含む。
【0006】
本発明の一つの好ましい実施形態によれば、前記音声識別結果に対する応答テキストを取得することは、前記音声識別結果を利用して検索を行い、前記音声識別結果に対応するテキスト検索結果及び/又は提示テキストを獲得すること、を含む。
【0007】
本発明の一つの好ましい実施形態によれば、前記音声識別結果を利用して検索を行い、オーディオ検索結果を獲得したら、前記オーディオ検索結果を前記第一端末設備に送信すること、を更に含む。
【0008】
本発明の一つの好ましい実施形態によれば、前記音声識別結果に対する応答テキストを取得することは、前記音声識別結果及び声紋識別結果を利用して検索を行い、前記音声識別結果及び声紋識別結果に対応するテキスト検索結果及び/又は提示テキストを獲得すること、を含む。
【0009】
本発明の一つの好ましい実施形態によれば、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことは、予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、前記声紋識別結果に対応する音声合成パラメータを確定すること、確定された音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を含む。
【0010】
本発明の一つの好ましい実施形態によれば、第二端末設備の前記対応関係に対する
設定を受信し、保存すること、を更に含む。
【0011】
本発明の一つの好ましい実施形態によれば、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行う前に、前記第一端末設備がアダプティブ音声応答として
設定されたかを判断し、そうであれば、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことを続けて実行し、そうでなければ、予め
設定された又はデフォルトの音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を更に含む。
【0012】
本発明において技術の問題点を解決するために採用した技術案は、第一端末設備が送信した音声データを受信するための受信手段と、前記音声データの音声識別結果及び声紋識別結果を取得するための処理手段と、前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うための変換手段と、変換して得られたオーディオデータを前記第一端末設備に送信するための送信手段と、を含む音声インタラクション装置を提供する。
【0013】
本発明の一つの好ましい実施形態によれば、前記声紋識別結果は、ユーザの性別、年齢、地域、職業内の少なくとも一種の身元情報を含む。
【0014】
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記音声識別結果に対する応答テキストを取得する時、前記音声識別結果を利用して検索を行い、前記音声識別結果に対応するテキスト検索結果及び/又は提示テキストを獲得することを具体的に実行する。
【0015】
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記音声識別結果を利用して検索を行い、オーディオ検索結果を獲得したら、前記オーディオ検索結果を前記第一端末設備に送信することを実行するために用いられる。
【0016】
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記音声識別結果に対する応答テキストを取得する時、前記音声識別結果及び声紋識別結果を利用して検索を行い、前記音声識別結果及び声紋識別結果に対応するテキスト検索結果及び/又は提示テキストを獲得すること、を具体的に実行する。
【0017】
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行う時、予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、前記声紋識別結果に対応する音声合成パラメータを確定すること、確定された音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を具体的に実行する。
【0018】
本発明の一つの好ましい実施形態によれば、前記変換手段は、第二端末設備の前記対応関係に対する
設定を受信し、保存することを実行するために用いられる。
【0019】
本発明の一つの好ましい実施形態によれば、前記変換手段は、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行う前、前記第一端末設備がアダプティブ音声応答として
設定されたかを判断し、そうであれば、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うことを続けて実行し、そうでなければ、予め
設定された又はデフォルトの音声合成パラメータを利用して前記応答テキストに対して音声変換を行うこと、を更に具体的に実行する。
【0020】
以上の技術案から分かるように、本発明は、ユーザが入力した音声データによって、動的に音声合成パラメータを取得して音声識別結果に対応する応答テキストに対して音声変換を行い、変換して得られたオーディオデータをユーザの身元情報に合わせ、マン−マシンインタラクションの音声適応を実現し、マン−マシン音声インタラクションの実感を向上し、マン−マシン音声インタラクションの興味性を向上する。
【発明を実施するための形態】
【0022】
本発明の実施形態の目的、技術案と利点をより明確で簡潔させるために、以下、本発明の実施形態の図面を参照して実施形態を挙げて、本発明をはっきりと完全に説明する。
【0023】
本発明の実施形態において使用される専門用語は、特定の実施形態を説明することのみを目的としており、本発明を限定することを意図するものではない。本発明の実施形態と添付の特許請求の範囲において使用された単数形式の「一種」、「前記」及び「該」は、文脈が明らかに他の意味を示さない限り、ほとんどのフォームを含めることも意図する。
【0024】
本願において使用される専門用語「及び/又は」は、関連対象を記述する関連関係だけであり、三つの関係、例えば、A及び/又はBは、Aだけ存在し、AとBが同時に存在し、Bだけ存在するという三つの情况が存在することを表すと理解されるべきである。また、本願における文字「/」は、一般的に、前後関連対象が一種の「又は」の関係であるを表す。
【0025】
言葉の環形に応じて、ここで使用される語彙「たら」は、「……とき」又は「……と」又は「確定に応答」又は「検出に応答」と解釈することができる。類似に、状況に応じて、語句「確定したら」又は「(記載した条件又はイベントを)検出したら」は、「確定したとき」又は「確定に応答」又は「(記載した条件又はイベントを)検出したとき」又は「(記載した条件又はイベントの)検出に応答」と解釈することができる。
【0026】
図1は、本発明の一実施形態にかかる音声インタラクション方法フロー図であり、
図1に示すように、前記方法は、サーバ側において実行され、以下のようなものを含む。
【0027】
101において、第一端末設備が送信した音声データを受信する。
【0028】
本ステップにおいて、サーバ側は、第一端末設備が送信したユーザによって入力した音声データを受信する。本発明において、第一端末設備は、スマート端末設備であり、例如スマートフォン、タブレット、スマートウェアラブル設備、スマートスピーカボックス、スマート家電等であり、該スマート設備は、ユーザ音声データを取得する及びオーディオデータを再生する能力を有す。
【0029】
ただし、第一端末設備は、マイクによってユーザが入力した音声データを収集し、第一端末設備がウェイクアップ状態にある時、収集された音声データをサーバ側までに送信する。
【0030】
102において、前記音声データの音声識別結果及び声紋識別結果を取得する。
【0031】
本ステップにおいて、ステップ101において受信した音声データに対して音声識別及び声紋識別を行うことで、音声データに対応する音声識別結果及び声紋識別結果をそれぞれに取得する。
【0032】
当然のことながら、音声データの音声識別結果及び声紋識別結果を取得するとき、サーバ側で音声データに対して音声識別及び声紋識別を行ってもよく、第一端末設備で音声データに対して音声識別及び声紋識別を行い、第一端末設備によって音声データ、音声データに対応する音声識別結果及び声紋識別結果をサーバ側まで送信してもよく、サーバ側によって受信された音声データをそれぞれに音声識別サーバ及び声紋識別サーバに送信し、更にこの二つのサーバから音声データの音声識別結果及び声紋識別結果を取得してもよい。
【0033】
ただし、音声データの声紋識別結果は、ユーザの性別、年齢、地域、職業の少なくとも一種の身元情報を含む。ユーザの性別は、ユーザが男性又は女性であることができ、ユーザの年齢は、ユーザが子供、若者、中年又は老人であることができる。
【0034】
具体的に、音声データに対して音声識別を行い、音声データに対応する音声識別結果を取得し、その結果は一般的にテキストデータであり、音声データに対して声紋識別を行い、音声データに対応する声紋識別結果を取得する。当然のことながら、本発明に関する音声識別及び声紋識別は、従来技術であり、ここではその説明を略し、且つ本発明は、音声識別及び声紋識別の順序を限定しない。
【0035】
また、音声データに対して音声識別及び声紋識別を行う前に、音声データに対してノイズ除去処理を行い、ノイズ除去処理後の音声データを利用して音声識別及び声紋識別を行うことで、音声識別及び声紋識別の確度を向上すること、を更に含んでもよい。
【0036】
103において、前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行う。
【0037】
本ステップにおいて、ステップ102において取得した音声データに対応する音声識別結果に基づいて、検索を行い、音声識別結果に対応する応答テキストを取得し、更に声紋識別結果を利用して応答テキストに対して音声変換を行うことで、応答テキストに対応するオーディオデータを得る。
【0038】
音声データの音声識別結果は、テキストデータであり、常に、テキストデータのみに基づいて検索を行うと、対応テキストデータの全ての検索結果を得るばかりであり、異なる性別、異なる年齢、異なる地域、異なる職業に適応する検索結果は獲得できない。
【0039】
従って、本ステップにおいて、音声識別結果を利用して検索を行う時、音声識別結果及び声紋識別結果を利用して検索を行い、対応音声識別結果及び声紋識別結果の検索結果を得る方式を採用してもよい。本発明は、取得された声紋識別結果を加えて検索を行うことで、取得された検索結果を声紋識別結果におけるユーザの身元情報に合わせることができることで、更に正しく、更にユーザの所望に合う検索結果を取得する目的を実現する。
【0040】
ただし、音声識別結果及び声紋識別結果を利用して検索を行う時、先ず、音声識別結果を利用して検索を行い、対応音声識別結果の検索結果を得てから、次に、声紋識別結果と得られた検索結果との間のマッチング度を計算し、マッチング度がプリセット閾値を超える検索結果を、対応音声識別結果及び声紋識別結果の検索結果とする方式を採用してもよい。本発明は、音声識別結果及び声紋識別結果を利用して検索を行い検索結果を取得する方式を限定しない。
【0041】
例えば、声紋識別結果におけるユーザの身元情報が子供であれば、本ステップにおいて、検索結果を取得する時、更に子供に合う検索結果を得る。声紋識別結果におけるユーザの身元情報が男性であれば、本ステップにおいて、検索結果を取得する時、更に男性に合う検索結果を得る。
【0042】
音声識別結果に基づいて検索を行う時、直接に検索エンジンを利用して検索を行い、音声識別結果に対応する検索結果を得ることができる。
【0043】
または、音声識別結果に対応する特定領域のサーバを確定し、音声識別結果に基づいて確定された特定領域のサーバにおいて検索を行うことで、該当の検索結果を取得する方式を採用してもよい。例えば、音声識別結果が「激励歌をお勧め下さい」であれば、該音声識別結果に基づいて、対応する特定領域のサーバが音楽領域のサーバであると確定し、声紋識別結果におけるユーザの身元情報が男性であれば、音楽特定領域のサーバにおいて「男性に合う激励歌」の検索結果を検索して得る方式を採用してもよい。
【0044】
本ステップにおいて、音声識別結果を利用して検索を行い、音声識別結果に対応する応答テキストを得る。ただし、音声識別結果に対応する応答テキストは、音声識別結果に対応するテキスト検索結果及び/又は提示テキストを含み、該提示テキストは、第一端末設備が再生する前にユーザに対して続いて再生しようとするものを提示するために用いられる。
【0045】
例えば、音声識別結果が「激励歌を再生する」であれば、対応の提示テキストは、「あなたのために歌を再生します」であることができ、音声識別結果が「激励歌を検索」であれば、対応の提示テキストは、「あなたのために以下の内容を検索して得た」であることができる。
【0046】
また、本ステップにおいて、音声識別結果に対応する応答テキストを取得した後、更に声紋識別結果を利用して取得された応答テキストに対して音声変換を行う。
【0047】
当然のことながら、声紋識別結果を利用して取得された応答テキストに対して音声変換を行う前、更に以下の内容も含む。第一端末設備がアダプティブ音声応答として
設定されたかを判断し、そうであれば、声紋識別結果を利用して取得された応答テキストに対して音声変換を行うことを実行し、そうでなければ、予め
設定された又はデフォルトの音声合成パラメータを利用して応答テキストに対して音声変換を行う。
【0048】
具体的に、声紋識別結果を利用して応答テキストに対して音声変換を行う時、予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、声紋識別結果に対応する音声合成パラメータを確定し、確定された音声合成パラメータを利用して応答テキストに対して音声変換を行うことで、応答テキストに対応するオーディオデータを得る方式を採用することができる。
【0049】
例えば、ユーザの身元情報が子供であれば、子供に対応する音声合成パラメータが「子供」音声合成パラメータであると確定し、続いて確定された「子供」音声合成パラメータを利用して応答テキストに対して音声変換を行い、変換して得られたオーディオデータにおける声が子供の声となるようにする。
【0050】
当然のことながら、サーバ側における身元情報と音声合成パラメータとの間の対応関係は、第二端末設備によって
設定され、該第二端末設備は、第一端末設備と同じても、異なってもよい。第二端末設備は、
設定された対応関係をサーバ側までに送信し、サーバ側に該対応関係を保存することで、サーバ側は、該対応関係に基づいて、ユーザの身元情報に対応する音声合成パラメータを確定することができる。ただし、音声合成パラメータは、声の音高、音長と音強等のパラメータのようなものを含むことができる。
【0051】
既存において、検索結果に対して音声変換を行う時に使用する音声合成パラメータは一般的に固定的なものであり、即ち、異なるユーザが得た音声変換後のオーディオデータにおける声は固定的なものである。しかし、本願は、声紋識別結果に基づいて、動的にユーザの身元情報に対応する音声合成パラメータを取得し、異なるユーザが得られた音声変換後のオーディオデータにおける声を、ユーザの身元情報に対応させることができるので、ユーザのインタラクション体験を向上する。
【0052】
104において、変換して得られたオーディオデータを前記第一端末設備に送信する。
【0053】
本ステップにおいて、第一端末設備が対応ユーザの音声データのフィードバック内容を再生するように、ステップ103において変換して得られたオーディオデータを第一端末設備に送信する。
【0054】
当然のことながら、音声識別結果を利用してマッチング検索を行う時、獲得された検索結果がオーディオ検索結果であれば、該オーディオ検索結果に対して音声変換を行う必要がなく、直接該オーディオ検索結果を第一端末設備に送信する。
【0055】
また、音声識別結果に基づいてそれに対応する提示テキストを取得したら、該提示テキストに対応するオーディオデータをオーディオ検索結果又はテキスト検索結果に対応するオーディオデータの前に追加し、第一端末設備がオーディオ検索結果又はテキスト検索結果に対応するオーディオデータを再生する前に、提示テキストに対応するオーディオデータをまず再生するようにすることで、第一端末設備がユーザの入力した音声データに対応するフィードバック内容を再生する時に更にスムーズになるように確保することができる。
【0056】
図2は、本発明の一実施形態にかかる一つの音声インタラクション装置フロー図であり、
図2に示すように、前記装置は、サーバ側に位置し、以下を含む。
【0057】
受信手段21は、第一端末設備が送信した音声データを受信するために用いられる。
【0058】
受信手段21は、第一端末設備が送信したユーザによって入力した音声データを受信する。本発明において、第一端末設備は、スマート端末設備であり、例如スマートフォン、タブレット、スマートウェアラブル設備、スマートスピーカボックス、スマート家電等であり、該スマート設備は、ユーザ音声データを取得する及びオーディオデータを再生する能力を有す。
【0059】
ただし、第一端末設備は、マイクによってユーザが入力した音声データを収集し、第一端末設備がウェイクアップ状態にある時、収集された音声データを受信手段21までに送信する。
【0060】
処理手段22は、前記音声データの音声識別結果及び声紋識別結果を取得するために用いられる。
【0061】
処理手段22は、受信手段21が受信した音声データに対して音声識別及び声紋識別を行うことで、それぞれに音声データに対応する音声識別結果及び声紋識別結果を取得する。
【0062】
当然のことながら、音声データの音声識別結果及び声紋識別結果を取得する時、処理手段22によって音声データに対して音声識別及び声紋識別を行ってもよく、第一端末設備が音声データに対して音声識別及び声紋識別を行った後、音声データ、音声識別結果及び声紋識別結果を共にサーバ側までに送信してもよく、処理手段22によって受信した音声データをそれぞれに音声識別サーバと声紋識別サーバまでに送信し、この二つのサーバから音声データの音声識別結果及び声紋識別結果を取得してもよい。
【0063】
ただし、音声データの声紋識別結果は、ユーザの性別、年齢、地域、職業の少なくとも一種の身元情報を含む。ユーザの性別は、ユーザが男性又は女性であることができ、ユーザの年齢は、ユーザが子供、若者、中年又は老人であることができる。
【0064】
具体的に、処理手段22は、音声データに対して音声識別を行い、音声データに対応する音声識別結果を取得し、その結果は一般的にテキストデータであり、処理手段22は、音声データに対して声紋識別を行い、音声データに対応する声紋識別結果を取得する。当然のことながら、本発明に関する音声識別及び声紋識別は、従来技術であり、ここではその説明を略し、且つ本発明は、音声識別及び声紋識別の順序を限定しない。
【0065】
また、処理手段22は、音声データに対して音声識別及び声紋識別を行う前に、音声データに対してノイズ除去処理を行い、ノイズ除去処理後の音声データを利用して音声識別及び声紋識別を行うことで、音声識別及び声紋識別の確度を向上することを含んでもよい。
【0066】
変換手段23は、前記音声識別結果に対する応答テキストを取得し、前記声紋識別結果を利用して前記応答テキストに対して音声変換を行うために用いられる。
【0067】
変換手段23は、処理手段22が取得した音声データに対応する音声識別結果に基づいて、検索を行い、音声識別結果に対応する応答テキストを取得し、更に声紋識別結果を利用して応答テキストに対して音声変換を行うことで、応答テキストに対応するオーディオデータを得る。
【0068】
音声データの音声識別結果は、テキストデータであり、常に、テキストデータのみに基づいて検索を行う時、対応テキストデータの全ての検索結果を得るばかりであり、異なる性別、異なる年齢、異なる地域、異なる職業に適応する検索結果は獲得できない。
【0069】
従って、変換手段23は、音声識別結果を利用して検索を行う時、音声識別結果及び声紋識別結果を利用して検索を行い、対応音声識別結果及び声紋識別結果の検索結果を得る方式を採用してもよい。変換手段23は、取得された声紋識別結果を結合して検索を行うことで、取得された検索結果を声紋識別結果におけるユーザの身元情報に合わせることができることで、更に正しく、更にユーザの所望に合う検索結果を取得する目的を実現する。
【0070】
ただし、変換手段23は、音声識別結果及び声紋識別結果を利用して検索を行う時、先ず音声識別結果を利用して検索を行い、対応音声識別結果の検索結果を得てから、次に声紋識別結果と得られた検索結果との間のマッチング度を計算し、マッチング度がプリセット閾値を超える検索結果を、対応音声識別結果及び声紋識別結果の検索結果とする方式を採用してもよい。本発明は、変換手段23が音声識別結果及び声紋識別結果を利用して検索結果を取得する方式を限定しない。
【0071】
変換手段23は、音声識別結果に基づいて検索を行う時、直接に検索エンジンを利用して検索を行い、音声識別結果に対応する検索結果を得ることができる。
【0072】
または、変換手段23は、音声識別結果に対応する特定領域のサーバを確定し、音声識別結果に基づいて確定された特定領域のサーバにおいて検索を行うことで、該当の検索結果を取得する方式を採用してもよい。
【0073】
変換手段23は、音声識別結果を利用して検索を行い、音声識別結果に対応する応答テキストを得る。ただし、音声識別結果に対応する応答テキストは、音声識別結果に対応するテキスト検索結果及び/又は提示テキストを含み、該提示テキストは、第一端末設備が再生する前にユーザに対して続いて再生しようとするものを提示するために用いられる。
【0074】
また、変換手段23は、音声識別結果に対応する応答テキストを取得した後、更に声紋識別結果を利用して取得された応答テキストに対して音声変換を行う。
【0075】
当然のことながら、変換手段23は、声紋識別結果を利用して取得された応答テキストに対して音声変換を行う前、第一端末設備がアダプティブ音声応答として
設定されたかを判断し、そうであれば、声紋識別結果を利用して取得された応答テキストに対して音声変換を行うことを実行し、そうでなければ、予め
設定された又はデフォルトの音声合成パラメータを利用して応答テキストに対して音声変換を行うこと、を更に実行する。
【0076】
具体的に、変換手段23は、声紋識別結果を利用して応答テキストに対して音声変換を行う時、予め設定された身元情報と音声合成パラメータとの間の対応関係に基づいて、声紋識別結果に対応する音声合成パラメータを確定し、確定された音声合成パラメータを利用して応答テキストに対して音声変換を行うことで、応答テキストに対応するオーディオデータを得る方式を採用することができる。
【0077】
当然のことながら、変換手段23における身元情報と音声合成パラメータとの間の対応関係は、第二端末設備によって
設定され、該第二端末設備は、第一端末設備と同じても、異なってもよい。第二端末設備は、
設定された対応関係を変換手段23までに送信し、変換手段23に該対応関係を保存することで、変換手段23は、該対応関係に基づいて、ユーザの身元情報に対応する音声合成パラメータを確定することができる。ただし、音声合成パラメータは、声の音高、音長と音強等のパラメータのようなものを含むことができる。
【0078】
送信手段24は、変換して得られたオーディオデータを前記第一端末設備に送信することために用いられる。
【0079】
送信手段24は、第一端末設備が対応ユーザの音声データのフィードバック内容を再生するように、変換手段23が変換して得られたオーディオデータを第一端末設備に送信する。
【0080】
当然のことながら、変換手段23が音声識別結果を利用してマッチング検索を行う時、獲得された検索結果がオーディオ検索結果であれば、該オーディオ検索結果に対して音声変換を行う必要がなく、送信手段24によって直接該オーディオ検索結果を第一端末設備に送信する。
【0081】
また、変換手段23が音声識別結果に基づいてそれに対応する提示テキストを取得したら、送信手段24は、該提示テキストに対応するオーディオデータをオーディオ検索結果又はテキスト検索結果に対応するオーディオデータの前に追加し、第一端末設備がオーディオ検索結果又はテキスト検索結果に対応するオーディオデータを再生する前に、先ずに提示テキストに対応するオーディオデータを再生するようにすることで、第一端末設備がユーザの入力した音声データに対応するフィードバック内容を再生する時に更にスムーズになるように確保することができる。
【0082】
図3は、本発明の実施形態を実現するために適用できる例示的なコンピュータシステム/サーバ012のブロック図を示す。
図3に示すコンピュータシステム/サーバ012は、一つの例だけであり、本発明の実施形態の機能と使用範囲を制限していない。
【0083】
図3に示すように、コンピュータシステム/サーバ012は、汎用演算設備の形態で表現される。コンピュータシステム/サーバ012の構成要素には、1つ又は複数のプロセッサ又は処理手段016と、システムメモリ028と、異なるシステム構成要素(システムメモリ028と処理手段016とを含む)を接続するためのバス018を含んでいるが、これに限定されない。
【0084】
バス018は、複数種類のバス構成の中の1つ又は複数の種類を示し、メモリバス又はメモリコントローラ、周辺バス、グラフィック加速ポート、プロセッサ又は複数種類のバス構成でのいずれかのバス構成を使用したローカルバスを含む。例えば、それらの架構には、工業標準架構(ISA)バス、マイクロチャンネル架構(MAC)バス、増強型ISAバス、ビデオ電子規格協会(VESA)ローカルバス及び周辺コンポーネント接続(PCI)バスを含んでいるが、これに限定されない。
【0085】
コンピュータシステム/サーバ012には、典型的には複数のコンピュータシステム読取り可能な媒体を含む。それらの媒体は、コンピュータシステム/サーバ012にアクセスされて使用可能な任意な媒体であり、揮発性の媒体と不揮発性の媒体や移動可能な媒体と移動不可な媒体を含む。
【0086】
システムメモリ028には、揮発性メモリ形式のコンピュータシステム読取り可能な媒体、例えばランダムアクセスメモリ(RAM)030及び/又はキャッシュメモリ032を含むことができる。コンピュータシステム/サーバ012には、更に他の移動可能/移動不可なコンピュータシステム記憶媒体や揮発性/不揮発性のコンピュータシステム記憶媒体を含むことができる。例として、ストレジ034は、移動不可能な不揮発性磁媒体を読み書くために用いられる(
図3に示していないが、常に「ハードディスクドライブ」とも呼ばれる)。
図3に示していないが、移動可能な不揮発性磁気ディスク(例えば「フレキシブルディスク」)に対して読み書きを行うための磁気ディスクドライブ、及び移動可能な不揮発性光ディスク(例えばCD−ROM、DVD−ROM又は他の光媒体)に対して読み書きを行うための光ディスクドライブを提供できる。このような場合に、ドライブは、ぞれぞれ1つ又は複数のデータ媒体インターフェースによってバス018に接続される。システムメモリ028には少なくとも1つのプログラム製品を含み、該プログラム製品には1組の(例えば少なくとも1つの)プログラムモジュールを含み、それらのプログラムモジュールは、本発明の各実施形態の機能を実行するように配置される。
【0087】
1組の(少なくとも1つの)プログラムモジュール042を含むプログラム/実用ツール040は、例えばシステムメモリ028に記憶され、このようなプログラムモジュール042には、オペレーティングシステム、1つの又は複数のアプリケーションプログラム、他のプログラムモジュール及びプログラムデータを含んでいるが、これに限定しておらず、それらの例示での1つ又はある組み合にはネットワーク環境の実現を含む可能性がある。プログラムモジュール042は、常に本発明に記載されている実施形態における機能及び/或いは方法を実行する。
【0088】
コンピュータシステム/サーバ012は、一つ又は複数の周辺設備014(例えばキーボード、ポインティングデバイス、ディスプレイ024)と通信を行ってもよく、本発明において、コンピュータシステム/サーバ012は外部レーダ設備と通信を行い、一つ又は複数のユーザと該コンピュータシステム/サーバ012とのインタラクションを実現することができる設備と通信を行ってもよく、及び/又は該コンピュータシステム/サーバ012と一つ又は複数の他の演算設備との通信を実現することができるいずれかの設備(例えばネットワークカード、モデム等)と通信を行っても良い。このような通信は入力/出力(I/O)インターフェース022によって行うことができる。そして、コンピュータシステム/サーバ012は、ネットワークアダプタ020によって、一つ又は複数のネットワーク(例えばローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)及び/又は公衆回線網、例えばインターネット)と通信を行っても良い。図に示すように、ネットワークアダプタ020は、バス018によって、コンピュータシステム/サーバ012の他のモジュールと通信を行う。当然のことながら、
図3に示していないが、コンピュータシステム/サーバ012と連携して他のハードウェア及び/又はソフトウェアモジュールを使用することができ、マイクロコード、設備ドライブ、冗長処理手段、外部磁気ディスクドライブアレイ、RAIDシステム、磁気テープドライブ及びデータバックアップストレジ等を含むが、これに限定されない。
【0089】
プロセッサ016は、メモリ028に記憶されているプログラムを実行することで、様々な機能応用及びデータ処理、例えば本発明に記載されている実施形態における方法フローを実現する。
【0090】
上記のコンピュータプログラムは、コンピュータ記憶媒体に
設定されることができ、即ち該コンピュータ記憶媒体にコンピュータプログラムを符号化することができ、該プログラムが一つ又は複数のコンピュータによって実行される時、一つ又は複数のコンピュータに本発明の上記実施形態に示す方法フロー及び/又は装置操作を実行させる。例えば、上記一つ又は複数のプロセッサによって本発明の実施形態が提供した方法フローを実行する。
【0091】
時間と技術の発展に伴って、媒体の意味はますます広範囲になり、コンピュータプログラムの伝送経路は有形のメディアによって制限されなくなり、ネットワークなどから直接ダウンロードすることもできる。1つ又は複数のコンピューター読み取りな可能な媒体の任意な組合を採用しても良い。コンピューター読み取りな可能な媒体は、コンピューター読み取りな可能な信号媒体又はコンピューター読み取りな可能な記憶媒体である。コンピューター読み取りな可能な記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、又は半導体のシステム、装置又はデバイス、或いは上記ものの任意な組合であるが、これに限定されない。コンピューター読み取りな可能な記憶媒体の更なる具体的な例(網羅していないリスト)には、1つ又は複数のワイヤを具備する電気的な接続、携帯式コンピュータ磁気ディスク、ハードディクス、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュ)、光ファイバー、携帯式コンパクト磁気ディスクリードオンリーメモリ(CD−ROM)、光メモリ部材、磁気メモリ部材、又は上記ものの任意で適当な組合を含む。本願において、コンピューター読み取りな可能な記憶媒体は、プログラムを含む又は記憶する任意な有形媒体であってもよく、該プログラムは、命令実行システム、装置又はデバイスに使用される又はそれらと連携して使用されるができる。
【0092】
コンピューター読み取りな可能な信号媒体には、ベースバンドにおいて伝搬されるデータ信号或いはキャリアの一部として伝搬されるデータ信号を含み、それにコンピューター読み取りな可能なプログラムコードが載っている。このような伝搬されるデータ信号について、複数種類の形態を採用でき、電磁気信号、光信号又はそれらの任意で適当な組合を含んでいるが、これに限定されない。コンピューター読み取りな可能な信号媒体は、コンピューター読み取りな可能な記憶媒体以外の任意なコンピューター読み取りな可能な媒体であってもよく、該コンピューター読み取りな可能な媒体は、命令実行システム、装置又はデバイスによって使用される又はそれと連携して使用されるプログラムを送信、伝搬又は転送できる。
【0093】
コンピューター読み取りな可能な媒体に記憶されたプログラムコードは、任意で適正な媒体によって転送されてもよく、無線、電線、光ケーブル、RF等、又は上記ものの任意で適当な組合が含まれているが、これに限定されない。
【0094】
1つ又は複数のプログラミング言語又はそれらの組合で、本発明の操作を実行するためのコンピュータプログラムコードを編集することができ、前記プログラミング言語には、オブジェクト向けのプログラミング言語、例えばJava(登録商標)、Smalltalk、C++が含まれ、通常のプロシージャ向けプログラミング言語、例えば「C」言葉又は類似しているプログラミング言語も含まれる。プログラムコードは、完全的にユーザコンピュータに実行されてもよく、部分的にユーザコンピュータに実行されてもよく、1つの独立のソフトウェアパッケージとして実行されてもよく、部分的にユーザコンピュータに実行され且つ部分的に遠隔コンピュータに実行されてもよく、又は完全的に遠隔コンピュータ又はサーバに実行されてもよい。遠隔コンピュータに係る場合に、遠隔コンピュータは、ローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意の種類のネットワークを介して、ユーザコンピュータ、又は、外部コンピュータに接続できる(例えば、インターネットサービス事業者を利用してインターネットを介して接続できる)。
【0095】
本発明が提供した技術案は、ユーザが入力した音声データによって、動的に音声合成パラメータを取得して音声識別結果に対応する応答テキストに対して音声変換を行い、変換して得られたオーディオデータをユーザの身元情報に合わせ、マン−マシンインタラクションの音声適応を実現し、マン−マシン音声インタラクションの実感を向上し、マン−マシン音声インタラクションの興味性を向上する。
【0096】
本発明における幾つかの実施形態において、開示されたデバイス、装置と方法は、他の方法で開示され得ることを理解されたい。例えば、上記した装置は単なる例示に過ぎず、例えば、前記手段の分割は、論理的な機能分割のみであり、実際には、別の方法で分割することもできる。
【0097】
前記の分離部品として説明された手段が、物理的に分離されてもよく、物理的に分離されなくてもよく、手段として表される部品が、物理手段でもよく、物理手段でなくてもよく、1つの箇所に位置してもよく、又は複数のネットワークセルに分布されても良い。実際の必要に基づいて、その中の一部又は全部を選択して、本実施形態の態様の目的を実現することができる。
【0098】
また、本発明の各実施形態における各機能手段が1つの処理手段に集積されてもよく、各手段が物理的に独立に存在してもよく、2つ又は2つ以上の手段が1つの手段に集積されても良い。上記集積された手段は、ハードウェアの形式で実現してもよく、ハードウェア+ソフトウェア機能手段の形式で実現しても良い。
【0099】
上記ソフトウェア機能手段の形式で実現する集積された手段は、1つのコンピューター読み取りな可能な記憶媒体に記憶されることができる。上記ソフトウェア機能手段は1つの記憶媒体に記憶されており、1台のコンピュータ設備(パソコン、サーバ、又はネットワーク設備等)又はプロセッサ(processor)に本発明の各実施形態に記載された方法の一部の手順を実行させるための若干の命令を含む。前述の記憶媒体には、USBメモリ、リムーバブルハードディスク、リードオンリーメモリ(ROM,Read−Only Memory)、ランダムアクセスメモリ(RAM,Random Access Memory)、磁気ディスク又は光ディスク等の、プログラムコードを記憶できる媒体を含む。
【0100】
以上は、本発明の好ましい実施形態のみであり、本発明を制限しなく、本発明の精神および原則の範囲内で行われた変更、同等の置換、改善等は、全て本発明の特許請求の範囲に含めるべきである。