特許第6671356号(P6671356)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アリババ グループ ホウルディング リミテッドの特許一覧

特許6671356声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム
<>
  • 特許6671356-声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム 図000003
  • 特許6671356-声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム 図000004
  • 特許6671356-声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム 図000005
  • 特許6671356-声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム 図000006
  • 特許6671356-声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム 図000007
  • 特許6671356-声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム 図000008
  • 特許6671356-声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム 図000009
  • 特許6671356-声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム 図000010
  • 特許6671356-声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム 図000011
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6671356
(24)【登録日】2020年3月5日
(45)【発行日】2020年3月25日
(54)【発明の名称】声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システム
(51)【国際特許分類】
   G10L 17/00 20130101AFI20200316BHJP
   G10L 15/02 20060101ALI20200316BHJP
【FI】
   G10L17/00 200C
   G10L15/02 300J
   G10L17/00 200D
【請求項の数】14
【全頁数】27
(21)【出願番号】特願2017-518071(P2017-518071)
(86)(22)【出願日】2015年9月30日
(65)【公表番号】特表2017-534905(P2017-534905A)
(43)【公表日】2017年11月24日
(86)【国際出願番号】CN2015091260
(87)【国際公開番号】WO2016054991
(87)【国際公開日】20160414
【審査請求日】2018年9月27日
(31)【優先権主張番号】201410532530.0
(32)【優先日】2014年10月10日
(33)【優先権主張国】CN
(73)【特許権者】
【識別番号】511050697
【氏名又は名称】アリババ グループ ホウルディング リミテッド
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(72)【発明者】
【氏名】ション,ジアン
【審査官】 山下 剛史
(56)【参考文献】
【文献】 特表2009−503661(JP,A)
【文献】 特開2014−182270(JP,A)
【文献】 特開平11−344992(JP,A)
【文献】 米国特許出願公開第2012/0130714(US,A1)
【文献】 米国特許出願公開第2007/0255564(US,A1)
【文献】 韓国公開特許第2013−0075513(KR,A)
(58)【調査した分野】(Int.Cl.,DB名)
G10L 15/00−17/26
(57)【特許請求の範囲】
【請求項1】
声紋情報を生成する方法であって、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得するステップと、
前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するステップと、
前記音声情報のテキスト認識処理を実行して、前記音声情報に対応するテキスト情報を取得するステップと、
前記テキスト情報を複数個のサブテキスト情報にセグメント化するステップと、
前記サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるステップと、
前記サブテキスト情報の前記開始時刻および前記終了時刻に従って、前記サブテキスト情報のそれぞれに対応するサブ音声情報を、前記音声情報から獲得するステップと、
前記第1のユーザの識別子を格納し、かつ、前記音声情報および前記対応するテキスト情報を前記第1のユーザの識別子の参照声紋情報として格納するステップと、
を含むことを特徴とする方法。
【請求項2】
請求項1に記載の方法において、
前記音声情報および前記対応するテキスト情報を前記第1のユーザの参照声紋情報として格納するステップが、
サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の前記第1のユーザの参照声紋情報として格納するステップを含むことを特徴とする方法。
【請求項3】
声紋情報を生成する方法であって、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得するステップと、
前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するステップと、
前記音声情報のテキスト認識処理を実行して、前記音声情報に対応するテキスト情報を取得するステップと、
前記第1のユーザの識別子を格納し、かつ、前記音声情報および前記対応するテキスト情報を前記第1のユーザの識別子の参照声紋情報として格納するステップと、
を含み、
前記第1のユーザの前記参照声紋情報および前記識別子を格納するステップが、
前記参照声紋情報中の前記テキスト情報と同一である第2のテキスト情報と、前記第1のユーザの前記識別子と同一である第2の識別子と、を含む第2の参照声紋情報が声紋ライブラリに存在するかどうかを判定するステップと、
前記第2の参照声紋情報が前記声紋ライブラリに存在しないことに応じて、前記参照声紋情報および前記識別子を格納するステップと、
前記第2の参照声紋情報が前記声紋ライブラリに存在することに応じて、前記参照声紋情報中の前記音声情報の品質を、前記第2の参照声紋情報中の第2の音声情報の品質と比較するステップと、
前記音声情報の前記品質が前記第2の音声情報の前記品質よりも低いことに応じて、前記参照声紋情報を削除するステップと、
前記音声情報の前記品質が前記第2の音声情報の前記品質よりも高いことに応じて、前記第2の参照声紋情報を削除し、前記参照声紋情報および前記識別子を格納するステップと、
を含むことを特徴とする方法。
【請求項4】
声紋情報を生成するシステムであって、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するように構成された音声フィルタと、
前記音声情報のテキスト認識処理を実行して、前記音声情報に対応するテキスト情報を取得するように構成されたテキスト認識部と、
前記テキスト情報を複数個のサブテキスト情報にセグメント化し、かつ、前記サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるように構成されたテキストセグメント化部と、
前記サブテキスト情報の前記開始時刻および前記終了時刻に従って、前記サブテキスト情報のそれぞれに対応するサブ音声情報を、前記音声情報から獲得するように構成された声紋セグメント化部と、
前記音声情報および前記対応するテキスト情報を前記第1のユーザの参照声紋情報として格納し、かつ、前記第1のユーザの識別子を格納するように構成された声紋生成部と、を含むことを特徴とするシステム。
【請求項5】
請求項4に記載のシステムにおいて、前記声紋生成部が、サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の前記第1のユーザの参照声紋情報として格納するようにさらに構成されることを特徴とするシステム。
【請求項6】
声紋情報を生成するシステムであって、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するように構成された音声フィルタと、
前記音声情報のテキスト認識処理を実行して、前記音声情報に対応するテキスト情報を取得するように構成されたテキスト認識部と、
前記音声情報および前記対応するテキスト情報を前記第1のユーザの参照声紋情報として格納し、かつ、前記第1のユーザの識別子を格納するように構成された声紋生成部と、を含み、
前記声紋生成部が、
前記参照声紋情報中の前記テキスト情報と同一である第2のテキスト情報と、前記第1のユーザの前記識別子と同一である第2の識別子と、を含む第2の参照声紋情報が声紋ライブラリに存在するかどうかを判定し、
前記第2の参照声紋情報が前記声紋ライブラリに存在しないことに応じて、前記参照声紋情報および前記識別子を格納し、
前記第2の参照声紋情報が前記声紋ライブラリに存在することに応じて、前記参照声紋情報中の前記音声情報の品質を、前記第2の参照声紋情報中の第2の音声情報の品質と比較し、
前記音声情報の前記品質が前記第2の音声情報の前記品質よりも低いことに応じて、前記参照声紋情報を削除し、
前記音声情報の前記品質が前記第2の音声情報の前記品質よりも高いことに応じて、前記第2の参照声紋情報を削除し、前記参照声紋情報および前記識別子を格納する、
ようにさらに構成されることを特徴とするシステム。
【請求項7】
本人認証方法であって、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得するステップと、
前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するステップと、
前記第1のユーザの前記音声情報のテキスト認識処理を実行して、前記第1のユーザの前記音声情報に対応するテキスト情報を取得するステップと、
前記テキスト情報を複数個のサブテキスト情報にセグメント化するステップと、
前記サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるステップと、
前記サブテキスト情報の前記開始時刻および前記終了時刻に従って、前記サブテキスト情報のそれぞれに対応するサブ音声情報を、前記音声情報から獲得するステップと、
前記第1のユーザの識別子を格納し、かつ、前記音声情報および前記対応するテキスト情報を前記第1のユーザの識別子の参照声紋情報として格納するステップと、
認証の対象となっているユーザの識別子に対応する参照声紋情報を獲得するステップと、
前記獲得した参照声紋情報中のテキスト情報を出力し、認証の対象となる音声情報を受け取るステップと、
前記獲得した参照声紋情報中の音声情報を、前記認証の対象となる音声情報と比較するステップと、
前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチすることに応じて、前記ユーザの前記認証に成功したと判定するステップと、
前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチしないことに応じて、前記ユーザの前記認証に失敗したと判定するステップと、
を含むことを特徴とする本人認証方法。
【請求項8】
請求項7に記載の本人認証方法において、前記音声情報および前記対応するテキスト情報を前記第1のユーザの参照声紋情報として格納するステップが、
サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の前記第1のユーザの参照声紋情報として格納するステップを含むことを特徴とする本人認証方法。
【請求項9】
本人認証方法であって、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得するステップと、
前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するステップと、
前記第1のユーザの前記音声情報のテキスト認識処理を実行して、前記第1のユーザの前記音声情報に対応するテキスト情報を取得するステップと、
前記第1のユーザの識別子を格納し、かつ、前記音声情報および前記対応するテキスト情報を前記第1のユーザの識別子の参照声紋情報として格納するステップと、
を含み、
前記第1のユーザの前記参照声紋情報および前記識別子を格納するステップが、
前記参照声紋情報中の前記テキスト情報と同一である第2のテキスト情報と、前記第1のユーザの前記識別子と同一である第2の識別子と、を含む第2の参照声紋情報が声紋ライブラリに存在するかどうかを判定するステップと、
前記第2の参照声紋情報が前記声紋ライブラリに存在しない場合には、前記参照声紋情報および前記識別子を格納するステップと、
前記第2の参照声紋情報が前記声紋ライブラリに存在する場合には、前記参照声紋情報中の前記音声情報の品質を、前記第2の参照声紋情報中の第2の音声情報の品質と比較するステップと、
前記音声情報の前記品質が前記第2の音声情報の前記品質よりも低い場合には、前記参照声紋情報を削除するステップと、
前記音声情報の前記品質が前記第2の音声情報の前記品質よりも高い場合には、前記第2の参照声紋情報を削除し、前記参照声紋情報および前記識別子を格納するステップと、
を含み、前記方法が、
認証の対象となっているユーザの識別子に対応する参照声紋情報を獲得するステップと
前記獲得した参照声紋情報中のテキスト情報を出力し、認証の対象となる音声情報を受け取るステップと、
前記獲得した参照声紋情報中の音声情報を、前記認証の対象となる音声情報と比較するステップと、
前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチすることに応じて、前記ユーザの前記認証に成功したと判定するステップと、
前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチしないことに応じて、前記ユーザの前記認証に失敗したと判定するステップと、
を含むことを特徴とする本人認証方法。
【請求項10】
本人認証システムであって、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するように構成された音声フィルタと、
前記音声情報のテキスト認識処理を実行して、前記音声情報に対応するテキスト情報を取得するように構成されたテキスト認識部と、
前記音声情報および前記対応するテキスト情報を前記第1のユーザの参照声紋情報として格納し、かつ、前記第1のユーザの識別子を格納するように構成された声紋生成部と、
前記テキスト情報を複数個のサブテキスト情報にセグメント化し、かつ、前記サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるように構成されたテキストセグメント化部と、
前記サブテキスト情報の前記開始時刻および前記終了時刻に従って、前記サブテキスト情報のそれぞれに対応するサブ音声情報を、前記音声情報から獲得するように構成された声紋セグメント化部と、
認証の対象となっているユーザの識別子に対応する参照声紋情報を獲得するように構成された声紋抽出部と、
前記獲得した参照声紋情報中のテキスト情報を出力し、かつ、認証の対象となる音声情報を受け取るように構成されたユーザインタフェースと、
前記獲得した参照声紋情報中の音声情報を、前記認証の対象となる音声情報と比較するように構成され、さらに、前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチする場合には、前記ユーザの前記認証に成功したと判定し、かつ、前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチしない場合には、前記ユーザの前記認証に失敗したと判定するように構成された声紋マッチング部と、
を含むことを特徴とする本人認証システム。
【請求項11】
請求項10に記載の本人認証システムにおいて、前記声紋生成部が、サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の前記第1のユーザの参照声紋情報として格納するようにさらに構成されることを特徴とする本人認証システム。
【請求項12】
本人認証システムであって、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するように構成された音声フィルタと、
前記音声情報のテキスト認識処理を実行して、前記音声情報に対応するテキスト情報を取得するように構成されたテキスト認識部と、
前記音声情報および前記対応するテキスト情報を前記第1のユーザの参照声紋情報として格納し、かつ、前記第1のユーザの識別子を格納するように構成された声紋生成部と、

を含み、
前記声紋生成部が、
前記参照声紋情報中の前記テキスト情報と同一である第2のテキスト情報と、前記第1のユーザの前記識別子と同一である第2の識別子と、を含む第2の参照声紋情報が声紋ライブラリに存在するかどうかを判定し、
前記第2の参照声紋情報が前記声紋ライブラリに存在しない場合には、前記参照声紋情報および前記識別子を格納し、
前記第2の参照声紋情報が前記声紋ライブラリに存在する場合には、前記参照声紋情報中の前記音声情報の品質を、前記第2の参照声紋情報中の第2の音声情報の品質と比較し、
前記音声情報の前記品質が前記第2の音声情報の前記品質よりも低い場合には、前記参照声紋情報を削除し、
前記音声情報の前記品質が前記第2の音声情報の前記品質よりも高い場合には、前記第2の参照声紋情報を削除し、前記参照声紋情報および前記識別子を格納する、
ようにさらに構成され、前記システムが、
認証の対象となっているユーザの識別子に対応する参照声紋情報を獲得するように構成された声紋抽出部と、
前記獲得した参照声紋情報中のテキスト情報を出力し、かつ、認証の対象となる音声情報を受け取るように構成されたユーザインタフェースと、
前記獲得した参照声紋情報中の音声情報を、前記認証の対象となる音声情報と比較するように構成され、さらに、前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチする場合には、前記ユーザの前記認証に成功したと判定し、かつ、前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチしない場合には、前記ユーザの前記認証に失敗したと判定するように構成された声紋マッチング部と、
を含むことを特徴とする本人認証システム。
【請求項13】
命令の組を記憶する非一時的コンピュータ可読媒体であって、前記命令の組は、システムの少なくとも1つのプロセッサによって、前記システムに、声紋情報を生成する方法を実行させるように、実行可能であり、前記方法は、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得するステップと、
前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するステップと、
前記音声情報のテキスト認識処理を実行して、前記音声情報に対応するテキスト情報を取得するステップと、
前記テキスト情報を複数個のサブテキスト情報にセグメント化するステップと、
前記サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるステップと、
前記サブテキスト情報の前記開始時刻および前記終了時刻に従って、前記サブテキスト情報のそれぞれに対応するサブ音声情報を、前記音声情報から獲得するステップと、
前記第1のユーザの識別子を格納し、かつ、前記音声情報および前記対応するテキスト情報を前記第1のユーザの識別子の参照声紋情報として格納するステップと、
を含むことを特徴とする、非一時的コンピュータ可読媒体。
【請求項14】
命令の組を記憶する非一時的コンピュータ可読媒体であって、前記命令の組は、システムの少なくとも1つのプロセッサによって、前記システムに本人認証方法を実行させるように、実行可能であり、前記方法は、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得するステップと、
前記履歴音声ファイルのフィルタリング処理を実行して前記第1のユーザの音声情報を取得するステップと、
前記第1のユーザの前記音声情報のテキスト認識処理を実行して、前記第1のユーザの前記音声情報に対応するテキスト情報を取得するステップと、
前記テキスト情報を複数個のサブテキスト情報にセグメント化するステップと、
前記サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるステップと、
前記サブテキスト情報の前記開始時刻および前記終了時刻に従って、前記サブテキスト情報のそれぞれに対応するサブ音声情報を、前記音声情報から獲得するステップと、
前記第1のユーザの識別子を格納し、かつ、前記音声情報および前記対応するテキスト情報を前記第1のユーザの識別子の参照声紋情報として格納するステップと、
認証の対象となっているユーザの識別子に対応する参照声紋情報を獲得するステップと、
前記獲得した参照声紋情報中のテキスト情報を出力し、認証の対象となる音声情報を受け取るステップと、
前記獲得した参照声紋情報中の音声情報を、前記認証の対象となる音声情報と比較するステップと、
前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチすることに応じて、前記ユーザの前記認証に成功したと判定するステップと、
前記獲得した参照声紋情報中の前記音声情報が前記認証の対象となる音声情報とマッチしないことに応じて、前記ユーザの前記認証に失敗したと判定するステップと、
を含むことを特徴とする、非一時的コンピュータ可読媒体。



【発明の詳細な説明】
【技術分野】
【0001】
技術分野
本出願は、声紋認識の技術分野に関し、特に、声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システムに関する。
【背景技術】
【0002】
背景技術
声紋とは、電気音響機器によって表わされたバーバル情報を担う音波スペクトルを指す。同じ言葉でも話す人が異なれば発生する音波は異なり、対応する音波スペクトル、すなわち声紋情報も異なる。したがって、対応する話者が同一であるかどうかは、声紋情報を比較することにより判定することができる。すなわち、声紋認識に基づいた本人認証が実施される。声紋認識に基づいた本人認証方法は、アカウントのセキュリティを確保するための様々なアカウント管理システムに広く適用することができる。
【0003】
関連技術において、本人認証が本出願の声紋認識技術を用いて実施される以前は、最初にユーザは、所定のテキスト情報を読み上げる必要があり、この瞬間のユーザの音声信号が収集され、分析されて対応する声紋情報を取得する。この声紋情報がユーザの参照声紋情報の役割を果たし、声紋ライブラリに格納される。本人認証を実施しているときには、認証の対象となっている人もまた上記所定のテキスト情報を読み上げる必要があり、認証の対象となっている人の音声信号が収集され、分析されて対応する声紋情報を取得する。この声紋情報を声紋ライブラリの参照声紋情報と比較することによって、認証の対象となっている人が、ユーザその人自身であるかどうかを判定することができる。
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記の技術では、声紋ライブラリを構築する際に本人認証用テキスト情報が開示されており、したがって、本人認証を実行するときに、認証の対象となっている人が読み上げる必要があるテキスト情報もまた知られている。ユーザその人自身がテキスト情報を読み上げている音声ファイルが予め記録されていると、予め記録されている音声ファイルを再生することにより、誰でも首尾よく認証されてしまうおそれがある。既存の声紋認識に基づいた本人認証方法では、場合によっては重大なセキュリティ上の危険があることがわかる。
【課題を解決するための手段】
【0005】
発明の要約
関連技術に存在する問題を克服するために、本出願は、声紋情報管理方法および声紋情報管理装置、ならびに本人認証方法および本人認証システムを提供する。
【0006】
本出願の第1の態様は、声紋情報管理方法であって、以下のステップ、すなわち、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得するステップと、
履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得するステップと、
音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得するステップと、
音声情報および対応するテキスト情報を第1のユーザの参照声紋情報に編集し、第1のユーザの参照声紋情報および本人識別子を格納するステップと、を含む方法を提供する。
【0007】
第1の態様に関連して、第1の態様の第1の実現可能な実施形態では、声紋情報管理方法は、
テキスト情報を複数個のサブテキスト情報にセグメント化し、サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるステップと、
サブテキスト情報の開始時刻および終了時刻に従って、サブテキスト情報のそれぞれに対応するサブ音声情報を、音声情報からそれぞれ切り取るステップと、をさらに含む。
【0008】
第1の態様の第1の実現可能な実施形態に関連して、第1の態様の第2の実現可能な実施形態では、音声情報および対応するテキスト情報を第1のユーザの参照声紋情報に編集するステップは、
サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の第1のユーザの参照声紋情報にそれぞれ編集するステップを含む。
【0009】
第1の態様に関連して、第1の態様の第3の実現可能な実施形態では、第1のユーザの参照声紋情報および本人識別子を格納するステップは、
格納の対象となる第1の参照声紋情報中の第1のテキスト情報と同一である、対応する第2のテキスト情報と、第1の参照声紋情報に対応する第1の本人識別子とやはり同一である、対応する第2の本人識別子と、を有する第2の参照声紋情報が存在するかどうかを判定するステップと、
第2の参照声紋情報が存在しない場合には、第1の参照声紋情報および第1の本人識別子を直接に格納するステップと、
第2の参照声紋情報が存在する場合には、第1の参照声紋情報中の第1の音声情報の品質を、第2の参照声紋情報中の第2の音声情報の品質と比較し、第1の音声情報の品質が第2の音声情報の品質よりも低い場合には、第1の参照声紋情報を削除するステップと、
第1の音声情報の品質が第2の音声情報の品質よりも高い場合には、第2の参照声紋情報を削除し、第1の参照声紋情報および第1の本人識別子を格納するステップと、を含む。
【0010】
本出願の第2の態様は、声紋情報管理装置を提供する。この装置は、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得するように構成された音声フィルタと、
音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得するように構成されたテキスト認識部と、
音声情報および対応するテキスト情報を第1のユーザの参照声紋情報に編集し、かつ、第1のユーザの参照声紋情報および本人識別子を格納するように構成された声紋生成部と、を含む。
【0011】
第2の態様に関連して、第2の態様の第1の実現可能な実施形態では、声紋情報管理装置は、
テキスト情報を複数個のサブテキスト情報にセグメント化し、かつ、サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるように構成されたテキストセグメント化部と、
サブテキスト情報の開始時刻および終了時刻に従って、サブテキスト情報のそれぞれに対応するサブ音声情報を、音声情報からそれぞれ切り取るように構成された声紋セグメント化部と、をさらに含む。
【0012】
第2の態様の第1の実現可能な実施形態に関連して、第2の態様の第2の実現可能な実施形態では、声紋生成部は、音声情報および対応するテキスト情報を、第1のユーザの参照声紋情報に編集するが、これは、
サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の第1のユーザの参照声紋情報にそれぞれ編集することを含む。
【0013】
第2の態様に関連して、第2の態様の第3の実現可能な実施形態では、声紋生成部は、第1のユーザの参照声紋情報および本人識別子を格納するが、これは、
格納の対象となる第1の参照声紋情報中の第1のテキスト情報と同一である、対応する第2のテキスト情報と、第1の参照声紋情報に対応する第1の本人識別子とやはり同一である、対応する第2の本人識別子と、を有する第2の参照声紋情報が存在するかどうかを判定することと、
第2の参照声紋情報が存在しない場合には、第1の参照声紋情報および第1の本人識別子を直接に格納することと、
第2の参照声紋情報が存在する場合には、第1の参照声紋情報中の第1の音声情報の品質を、第2の参照声紋情報中の第2の音声情報の品質と比較し、第1の音声情報の品質が第2の音声情報の品質よりも低い場合には、第1の参照声紋情報を削除することと、
第1の音声情報の品質が第2の音声情報の品質よりも高い場合には、第2の参照声紋情報を削除し、第1の参照声紋情報および第1の本人識別子を格納することと、を含む。
【0014】
本出願の第3の態様は、本人認証方法を提供する。この方法は、以下のステップ、すなわち、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得するステップと、
履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得するステップと、
音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得するステップと、
音声情報および対応するテキスト情報を第1のユーザの参照声紋情報に編集し、第1のユーザの参照声紋情報および本人識別子を格納するステップと、
認証の対象となっているユーザの本人識別子に対応する参照声紋情報を獲得するステップと、
獲得した参照声紋情報中のテキスト情報を出力し、認証の対象となる対応する音声情報を受け取るステップと、
獲得した参照声紋情報中の音声情報を、認証の対象となる音声情報とマッチングさせ、マッチングに成功した場合には、認証の対象となっているユーザの認証に成功したと判定し、マッチングに失敗した場合には、認証の対象となっているユーザの認証に失敗したと判定するステップと、を含む。
【0015】
第3の態様に関連して、第3の態様の第1の実現可能な実施形態では、本人認証方法は、
テキスト情報を複数個のサブテキスト情報にセグメント化し、サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるステップと、
サブテキスト情報の開始時刻および終了時刻に従って、サブテキスト情報のそれぞれに対応するサブ音声情報を、音声情報からそれぞれ切り取るステップと、をさらに含む。
【0016】
第3の態様の第1の実現可能な実施形態に関連して、第3の態様の第2の実現可能な実施形態では、音声情報および対応するテキスト情報を第1のユーザの参照声紋情報に編集するステップは、
サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の第1のユーザの参照声紋情報にそれぞれ編集するステップを含む。
【0017】
第3の態様に関連して、第3の態様の第3の実現可能な実施形態では、第1のユーザの参照声紋情報および本人識別子を格納するステップは、
格納の対象となる第1の参照声紋情報中の第1のテキスト情報と同一である、対応する第2のテキスト情報と、第1の参照声紋情報に対応する第1の本人識別子とやはり同一である、対応する第2の本人識別子と、を有する第2の参照声紋情報が存在するかどうかを判定するステップと、
第2の参照声紋情報が存在しない場合には、第1の参照声紋情報および第1の本人識別子を直接に格納するステップと、
第2の参照声紋情報が存在する場合には、第1の参照声紋情報中の第1の音声情報の品質を、第2の参照声紋情報中の第2の音声情報の品質と比較し、第1の音声情報の品質が第2の音声情報の品質よりも低い場合には、第1の参照声紋情報を削除するステップと、
第1の音声情報の品質が第2の音声情報の品質よりも高い場合には、第2の参照声紋情報を削除し、第1の参照声紋情報および第1の本人識別子を格納するステップと、を含む。
【0018】
本出願の第4の態様は、本人認証システムを提供する。このシステムは、
第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得するように構成された音声フィルタと、
音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得するように構成されたテキスト認識部と、
音声情報および対応するテキスト情報を第1のユーザの参照声紋情報に編集し、かつ、第1のユーザの参照声紋情報および本人識別子を格納するように構成された声紋生成部と、
認証の対象となっているユーザの本人識別子に対応する参照声紋情報を獲得するように構成された声紋抽出部と、
獲得した参照声紋情報中のテキスト情報を出力し、かつ、認証の対象となる対応する音声情報を受け取るように構成された認識プロキシミタ部と、
獲得した参照声紋情報中の音声情報を、認証の対象となる音声情報とマッチングさせ、マッチングに成功した場合には、認証の対象となっているユーザの認証に成功したと判定し、マッチングに失敗した場合には、認証の対象となっているユーザの認証に失敗したと判定するように構成された声紋マッチング部と、を含む。
【0019】
第4の態様に関連して、第4の態様の第1の実現可能な実施形態では、本人認証システムは、
テキスト情報を複数個のサブテキスト情報にセグメント化し、かつ、サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるように構成されたテキストセグメント化部と、
サブテキスト情報の開始時刻および終了時刻に従って、サブテキスト情報のそれぞれに対応するサブ音声情報を、音声情報からそれぞれ切り取るように構成された声紋セグメント化部と、をさらに含む。
【0020】
第4の態様の第1の実現可能な実施形態に関連して、第4の態様の第2の実現可能な実施形態では、声紋生成部は、音声情報および対応するテキスト情報を、第1のユーザの参照声紋情報に編集するが、これは、
サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の第1のユーザの参照声紋情報にそれぞれ編集することを含む。
【0021】
第4の態様に関連して、第4の態様の第3の実現可能な実施形態では、声紋生成部は、第1のユーザの参照声紋情報および本人識別子を格納するが、これは、
格納の対象となる第1の参照声紋情報中の第1のテキスト情報と同一である、対応する第2のテキスト情報と、第1の参照声紋情報に対応する第1の本人識別子とやはり同一である、対応する第2の本人識別子と、を有する第2の参照声紋情報が存在するかどうかを判定することと、
第2の参照声紋情報が存在しない場合には、第1の参照声紋情報および第1の本人識別子を直接に格納することと、
第2の参照声紋情報が存在する場合には、第1の参照声紋情報中の第1の音声情報の品質を、第2の参照声紋情報中の第2の音声情報の品質と比較し、第1の音声情報の品質が第2の音声情報の品質よりも低い場合には、第1の参照声紋情報を削除することと、
第1の音声情報の品質が第2の音声情報の品質よりも高い場合には、第2の参照声紋情報を削除し、第1の参照声紋情報および第1の本人識別子を格納することと、を含む。
【0022】
上記の技術的解決法から、本出願は、関連するシステムに格納された履歴音声ファイルをフィルタリングして、第1のユーザの音声情報を取得するステップと、テキスト認識処理を用いて、その音声情報に対応するテキスト情報を取得するステップと、音声情報および対応するテキスト情報を、第1のユーザの参照声紋情報に編集するステップと、を含んでいることがわかる。参照声紋情報中のテキスト情報および音声情報はいずれも、関連するシステムによって予め設定されたものではなく、すなわち開示されたものではなく、上述の履歴音声ファイルに基づいて取得されるので、第1のユーザも、第2のユーザも、そして他のいかなるユーザも、本人認証を実行する際に再度読み上げる必要があるテキスト情報の具体的な内容を予測し得ないことにより、対応する音声ファイルを前もって記録することができないようにすることで、前もって記録された音声ファイルを再生して首尾よく認証目的を達成することもできないようにしている。したがって、既存の声紋認識に基づいた本人認証方法と比較して、本人認証が本出願によって提供される声紋情報管理方法に基づいて実行されることにより、認証結果がさらに正確になり、潜在的なセキュリティ上の危険が存在せず、アカウントのセキュリティが高くなる。
【0023】
上記の概説および以下の詳細な説明は、単に例示的、説明的なものであり、本出願を限定し得ないことを理解されたい。
【0024】
添付図面の簡単な説明
本明細書の図面は、明細書に組み込まれ、明細書の一部を構成する。それらの図面は、本発明に一致する諸実施形態を示し、明細書とともに本発明の原理を説明するために使用される。
【図面の簡単な説明】
【0025】
図1】本出願の一実施形態によって提供される声紋情報管理方法のフローチャートである。
図2】本出願の一実施形態によって提供される別の声紋情報管理方法のフローチャートである。
図3】本出願の一実施形態によって提供される、参照声紋情報を格納するための方法のフローチャートである。
図4】本出願の一実施形態によって提供される声紋情報管理システムの構造ブロック図である。
図5】本出願の一実施形態によって提供される別の声紋情報管理システムの構造ブロック図である。
図6】本出願の一実施形態によって提供される本人認証方法のフローチャートである。
図7】本出願の一実施形態によって提供される別の本人認証方法のフローチャートである。
図8】本出願の一実施形態によって提供される本人認証システムの構造ブロック図である。
図9】本出願の一実施形態によって提供される別の本人認証システムの構造ブロック図である。
【発明を実施するための形態】
【0026】
詳細な説明
例示的な諸実施形態が本明細書に詳細に説明され、例示的な諸実施形態の例が図面に表されている。図面に関する以下の説明では、そうでないことが表されていない限り、異なる図面における同一の番号は、同一の要素または同様の要素を表す。以下の例示的な諸実施形態において説明される諸実施形態が、本発明と整合性のあるすべての実施形態を表しているとは限らない。むしろ、それらは、添付の特許請求の範囲に詳細に記載されている、本発明のいくつかの態様と整合性のある装置および方法の単なる例にすぎない。
【0027】
図1は、本出願の一実施形態によって提供される声紋情報管理方法のフローチャートである。声紋情報管理方法は、アカウント管理システムに適用される。図1に示されるように、声紋情報管理方法は以下のステップを含む。
【0028】
S11:第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得する。
【0029】
上記の第1のユーザは、アカウント管理システムに、対応する個人のアカウントを有する登録ユーザとすることができ、したがって、第2のユーザは、アカウント管理システムの業務スタッフとすることができる。
【0030】
S12:履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得する。
【0031】
S13:音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得する。
【0032】
S14:音声情報および対応するテキスト情報を第1のユーザの参照声紋情報に編集し、第1のユーザの参照声紋情報および本人識別子を格納する。
【0033】
一般に、実績統計、サービス品質評価、揉め事の処理などを容易にするために、アカウント管理システムは、登録ユーザと業務スタッフとの間の音声通話のプロセスを記録し、対応する音声ファイルを格納することができる。この点を考慮して、本出願の諸実施形態は、アカウント管理システムに格納された履歴音声ファイル中の機械プロンプト音および業務スタッフの音響情報をフィルタリングして、登録ユーザの音声情報を取得するステップと、音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得するステップと、を含んでいることにより、音声情報および対応するテキスト情報が、登録ユーザの参照声紋情報グループとしての役割を果たすことができるようになっている。上記のステップは、各登録ユーザに関してそれぞれ実行される。したがって、各登録ユーザに対応する参照声紋情報を取得して、声紋ライブラリの作成を実現することが可能である。
【0034】
上記の方法から、本出願の諸実施形態は、関連するシステムに格納された履歴音声ファイルをフィルタリングして、第1のユーザの音声情報を取得するステップと、テキスト認識処理を用いて、その音声情報に対応するテキスト情報を取得するステップと、音声情報および対応するテキスト情報を、第1のユーザの参照声紋情報に編集するステップと、を含んでいることがわかる。参照声紋情報中のテキスト情報および音声情報はいずれも、関連するシステムによって予め設定されたものではなく、すなわち開示されたものではなく、上述の履歴音声ファイルに基づいて取得されるので、第1のユーザも、第2のユーザも、そして他のいかなるユーザも、本人認証を実行する際に再度読み上げる必要があるテキスト情報の具体的な内容を予測し得ないことにより、対応する音声ファイルを前もって記録することができないようにすることで、前もって記録された音声ファイルを再生して首尾よく認証目的を達成することもできないようにしている。したがって、既存の声紋認識に基づいた本人認証方法と比較して、本人認証が本出願の諸実施形態によって提供される声紋情報管理方法に基づいて実行されることにより、認証結果がさらに正確になり、潜在的なセキュリティ上の危険が存在せず、アカウントのセキュリティが高くなる。
【0035】
本出願の実現可能な諸実施形態では、第1のユーザと第2のユーザとの間の任意の通話のプロセスに対応する履歴音声ファイルが無作為に獲得可能であり、これにより、声紋ライブラリの本人識別子が参照声紋情報に1対1で対応するようにしている。実際に獲得した履歴音声ファイルがどの通話のプロセスに対応するのかを予測することができないので、取得される参照声紋情報中のテキスト情報の具体的な内容を予測することができない。したがって、本実施形態に基づいた本人認証を実行することにより、認証結果の正確性を確保し、アカウントのセキュリティを高めることが可能である。
【0036】
本出願の別の実現可能な実施形態では、第1のユーザに対応するすべての履歴音声ファイルを獲得することもまた可能であり、ここでは、それぞれの履歴音声ファイルは、参照声紋情報の少なくとも1つのグループに対応することが可能である。これにより、声紋ライブラリの1つの本人識別子が複数の参照声紋情報グループに対応する(すなわち、第1のユーザが複数の参照声紋情報グループを有する)ことが可能であり、したがって、任意の参照声紋情報グループを無作為に獲得して本人認証を実行することができる。各参照声紋情報グループ中のテキスト情報が開示されず、本人認証を実行する際に獲得される参照声紋情報を予測することもできないので、本人認証を実行するためのテキスト情報の具体的な内容もまた予測することができない。したがって、対応する音声ファイルを前もって記録し、前もって記録された音声ファイルを再生して首尾よく認証目的を達成することは不可能である。したがって、本実施形態に基づいた本人認証を実行することにより、認証結果の正確性を確保し、アカウントのセキュリティを高めることが可能である。
【0037】
図2は、本出願の別の実施形態によって提供される声紋情報管理方法のフローチャートである。声紋情報管理方法は、アカウント管理システムに適用される。図2に示されるように、声紋情報管理方法は以下のステップを含む。
【0038】
S21:第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得する。
【0039】
S22:履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得する。
【0040】
S23:音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得する。
【0041】
S24:テキスト情報を複数個のサブテキスト情報にセグメント化し、サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつける。
【0042】
S25:サブテキスト情報の開始時刻および終了時刻に従って、サブテキスト情報のそれぞれに対応するサブ音声情報を、それぞれ音声情報から切り取る。
【0043】
S26:サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の第1のユーザの参照声紋情報にそれぞれ編集し、第1のユーザの各参照声紋情報および本人識別子を格納する。
【0044】
履歴音声ファイルは、ある一定時間の間の第1のユーザと第2のユーザとの間の通話の記録ファイルであるので、フィルタリングにより取得された音声情報は、第1のユーザの音声情報の複数のセグメントを含んでおり、したがって、テキスト認識によって取得されたテキスト情報は、複数の文または句を含んでいる。本出願の諸実施形態は、テキスト情報を複数個のサブテキスト情報(サブテキスト情報はそれぞれ、文、句または単語とすることができる)にセグメント化するステップを含んでおり、同時に、セグメント化によって取得されたサブテキスト情報のそれぞれの開始時刻および終了時刻に印がつけられ、サブテキスト情報に対応するサブ音声情報が、開始時刻および終了時刻に従って、音声情報から切り取られる(すなわち、音声情報がサブテキスト情報に従ってセグメント化される)。例えば、テキスト情報中の「私のアカウントがロックされている」という文が、時刻00:03から00:05までの音声情報の認識によって取得され、「私のアカウントがロックされている」という文は次に、開始時刻および終了時刻が00:03および00:05である1個のサブテキスト情報にセグメント化され、それに応じて、音声情報中の00:03から00:05までの時刻の音声情報が切り取られ、次に、サブテキスト情報「私のアカウントがロックされている」に対応するサブ音声情報が取得される。テキスト情報および音声情報をセグメント化することによって、サブテキスト情報およびサブ音声情報の複数個のペアを取得することが可能であり、それぞれのペアが、所定の形式に従って、参照声紋情報にそれぞれ編集され、次いで、同一のユーザに対応する複数個の参照声紋情報が取得される。
【0045】
本発明の諸実施形態では、サブ音声情報および対応するサブテキスト情報を、参照声紋情報に編集するステップは、サブ音声情報を、対応するサブ声紋情報に処理し、サブ声紋情報用のファイル名を設定するステップであって、ファイル名の形式は、例えば0989X.WAVのように「声紋番号.ファイル形式拡張子」とすることが可能である、設定するステップと、第1のユーザのサブ声紋情報および本人識別子のような情報、ならびにサブ声紋情報に対応するサブテキスト情報を格納するステップと、を含むことができる。上記の声紋情報管理方法に基づいて取得された声紋ライブラリの格納構造は、表1に示される通りである。
【0046】
【表1】
【0047】
表1では、各行は、声紋ライブラリの1個の参照声紋情報に対応する。本人識別子(すなわちユーザID)は、声紋情報照会および通話の主キーとして使用される。また、ユーザ声紋番号は、同一のユーザIDに対応する参照声紋情報の番号に印をつけるために使用される。ユーザID「139XXXXXXXX」を例に挙げると、ユーザIDに関する本人認証リクエストが受信されると、「139XXXXXXXX」に対応する参照声紋情報が上記の声紋ライブラリ内で照会され、複数の照会結果を取得する場合があり、そこから1つが、現在の認証の参照声紋情報として無作為に抽出される。例えば、ユーザIDに対応する参照声紋情報番号2が抽出され、現在の認証の参照声紋情報としての役割を果たし、そこにあるサブテキスト情報「なぜ、まだ返金していないのか」が出力され、認証の対象となっているユーザがサブファイル情報を再度読み上げることにより取得される、認証の対象となる音声情報が受信され、認証の対象となる音声情報が、認証の対象となる声紋情報として処理され、認証の対象となる声紋情報は、声紋ライブラリから抽出されたサブ声紋情報「0389X.WAV」と比較され、2つが互いにマッチしている場合には、本人認証に成功したと判定される。すなわち、認証の対象となっているユーザは、「139XXXXXXXX」に対応する第1のユーザであると見なされる。そうでなくて、2つが互いにマッチしていない場合には、本人認証に失敗したと判定される。
【0048】
上記の技術的解決法から、本出願の諸実施形態は、システムに格納された履歴音声ファイルをフィルタリングして、第1のユーザの音声情報を取得するステップと、音声情報のテキスト認識処理を実行することにより対応するテキスト情報を取得するステップと、認識されたテキスト情報を複数個のサブテキスト情報にセグメント化するステップと、対応するサブ音声情報を、サブテキスト情報のそれぞれの開始時刻および終了時刻に従って、上記の音声情報から切り取るステップと、サブテキスト情報およびサブ音声情報のそれぞれペアを、1個の参照声紋情報にそれぞれ編集し、1個の参照声紋情報にそれぞれ編集したものを声紋ライブラリに格納することにより、それぞれの第1のユーザが複数個の参照声紋情報を有するようにして、本人認証を実行する必要があるときに、認証の対象となる本人識別子に対応する複数個の参照声紋情報から1つが、無作為に選択されるようにするステップと、を含んでいることがわかる。本人認証を実行する際に獲得される参照声紋情報は無作為であるので、認証の対象となっているユーザが再度読み上げる必要があるテキスト情報の具体的な内容は、予測することができない。したがって、本実施形態において取得された声紋ライブラリに基づいた本人認証を実行することにより、認証結果の正確性を確保し、アカウントのセキュリティを高めることが可能である。加えて、本実施形態では、それぞれの参照声紋情報中のサブテキスト情報は簡潔で短いことで、テキスト情報を再度読み上げるのに必要な時間を短縮し、声紋比較に費やされる時間を短縮し、認証効率を高めることが可能である。
【0049】
本出願の諸実施形態によって提供される声紋情報管理方法は、新たな声紋ライブラリを作成することが可能であるだけでなく、作成された声紋ライブラリを更新すること、例えば、新たなユーザに対応する参照声紋情報を追加したり、旧来のユーザに対する新たな参照声紋情報を追加したりすることもまた可能である。新たなユーザに関しては、その新たなユーザに対応する履歴音声ファイルだけを獲得する必要があり、上記のステップS12からS4、またはステップS22からS26を実行すれば、新たなユーザに対応する参照声紋情報を取得することが可能である。時間の経過とともに、同一のユーザに対応する履歴音声ファイルは増え続ける。したがって、旧来のユーザに関しては、対応する新規追加された履歴音声ファイルを獲得することが可能であり、上記のステップを実行すれば、新たな参照声紋情報を旧来のユーザに対して追加することが可能である。
【0050】
本出願の諸実施形態によって提供される声紋情報管理方法に基づいて、1つまたは複数個の参照声紋情報を第1のユーザに対して設定することが可能である。複数個の参照声紋情報が同一の第1のユーザに対して設定される場合には、第1のユーザに対応する参照声紋情報のうちの任意の2個のテキスト情報が、必ず異なるようにすることが必要である。しかしながら、実際の適用においては、どうしても以下のような事例が発生する場合もあろう。すなわち、同一の内容のテキスト情報が、異なる履歴音声ファイルから認識されるか、または、同一の内容の複数個のサブテキスト情報が、同一のテキスト情報からセグメント化されることにより、同一のサブテキスト情報を複数個のサブ音声情報に対応させてしまうのである。この時、本出願の諸実施形態では、図3に示されるような方法を採用して、参照声紋情報の格納を実現する。説明の都合上、格納の対象となる参照声紋情報は、第1のテキスト情報および第1の音声情報によって構成された、第1の参照声紋情報であると仮定する。図3に示されるように、本出願の一実施形態において第1の参照声紋情報を格納するプロセスは、以下のステップを含む。
【0051】
S31:比較条件を満たす第2の参照声紋情報が存在するかどうかを判定し、存在する場合には、次に、ステップS32を実行し、それ以外の場合には、ステップS34を実行する。
ここでは、上記の比較条件は、第1の参照声紋情報中の第1のテキスト情報と同一である、第2の参照声紋情報に対応する第2のテキスト情報と、第1の参照声紋情報に対応する第1の本人識別子と同一である、第2の参照声紋情報に対応する第2の本人識別子と、を含む。
【0052】
S32:第1の参照声紋情報中の第1の音声情報の品質が、第2の参照声紋情報中の第2の音声情報の品質よりも高いかどうかを判定し、高い場合には、ステップS33を実行し、それ以外の場合には、ステップS35を実行する。
【0053】
S33:第2の参照声紋情報を削除し、ステップS34を実行する。
【0054】
S34:第1の参照声紋情報および対応する第1の本人識別子を格納する。
【0055】
S35:第1の参照声紋情報を削除する。
【0056】
上記のステップS31では、上述の第2の参照声紋情報が存在するかどうかを判定するための検索範囲は、少なくとも、声紋ライブラリに格納されている参照声紋情報を含み、第1の参照声紋情報と同時に生成された、まだ格納されていない参照声紋情報を含んでもまたよい。上述の第2の参照声紋情報が存在しない場合には、第1の参照声紋情報が直接に格納される。上述の第2の参照声紋情報が見つかった場合には、それは、同一の第1のユーザおよび同一のテキスト情報に関して少なくとも2個の異なる音声情報が存在することを示し、この時、第1の参照声紋情報中の第1の音声情報の品質が、第2の参照声紋情報中の第2の音声情報の品質と比較される。第1の音声情報の品質が第2の音声情報の品質よりも高い場合には、第1の参照声紋情報が格納され、同時に、第2の参照声紋情報は削除される。第1の音声情報の品質が第2の音声情報の品質よりも低い場合には、第1の参照声紋情報は、直接に削除される。すなわち、同一のテキスト情報に関して、最も高い品質を有する音声情報だけを保存することで、音声情報の比較結果の正確性を高め、本人認証プロセスにおける比較の困難さを軽減するようにする。
【0057】
上述の格納プロセスに基づいて、以下の3つの声紋ライブラリ更新方法、すなわち、1)新たなユーザの参照声紋情報を追加するステップと、2)旧来のユーザに対応する異なるテキスト情報を有する参照声紋情報を追加するステップと、3)声紋ライブラリの中の音声情報の品質が相対的に低い参照声紋情報を、音声情報の品質が高い方の参照声紋情報に置き換えるステップと、を実施することが可能である。
【0058】
上記の技術的解決法から、本出願の諸実施形態では、取得された新たな参照声紋情報に関して、情報は声紋ライブラリに直接に格納されるのではなく、最初に、テキスト情報および対応する本人識別子が、参照声紋情報中のそれとそれぞれ同じである別の参照声紋情報が格納されているかどうかが判定され、格納されているならば、次に、2個の参照声紋情報中の音声情報の品質が比較され、音声情報の品質が高い方の参照声紋情報が保存され、音声情報の品質が低い方の参照声紋情報が削除されることがわかる。したがって、本出願の諸実施形態は、格納された参照声紋情報では、同一の本人識別子(すなわち同一の第1のユーザ)に対応する任意の2個の参照声紋情報中のテキスト情報が、必ず異なっているようにすることが可能であるだけでなく、各種のテキスト情報に対応する音声情報の品質が、必ず最も高くなるようにすることもまた可能である。また、本出願の諸実施形態に基づいて本人認証が実行される際に、品質が高い方の音声情報に基づいた声紋比較を実行することにより、認証の正確性を確保し、認証効率を高めることが可能である。
【0059】
図4は、本出願の一実施形態によって提供される声紋情報管理システムの構造ブロック図である。声紋情報管理システムは、アカウント管理システムに適用することが可能である。図4に示されるように、声紋情報管理システム100は、音声フィルタ110と、テキスト認識部120と、声紋生成部130と、を含む。
【0060】
音声フィルタ110は、第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得するように構成されている。
【0061】
テキスト認識部120は、音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得するように構成されている。
【0062】
声紋生成部130は、音声情報および対応するテキスト情報を第1のユーザの参照声紋情報に編集し、かつ、第1のユーザの参照声紋情報および本人識別子を格納するように構成されている。
【0063】
上記の構造から、本出願の諸実施形態は、関連するシステムに格納された履歴音声ファイルをフィルタリングして、第1のユーザの音声情報を取得するステップと、テキスト認識処理を用いて、その音声情報に対応するテキスト情報を取得するステップと、音声情報および対応するテキスト情報を、第1のユーザの参照声紋情報に編集するステップと、を含んでいることがわかる。参照声紋情報中のテキスト情報および音声情報はいずれも、関連するシステムによって予め設定されたものではなく、すなわち開示されたものではなく、上述の履歴音声ファイルに基づいて取得されるので、第1のユーザも、第2のユーザも、そして他のいかなるユーザも、本人認証を実行する際に再度読み上げる必要があるテキスト情報の具体的な内容を予測し得ないことにより、対応する音声ファイルを前もって記録することができないようにすることで、前もって記録された音声ファイルを再生して首尾よく認証目的を達成することもできないようにしている。したがって、既存の声紋認識に基づいた本人認証方法と比較して、本人認証が本出願の諸実施形態によって提供される声紋情報管理方法に基づいて実行されることにより、認証結果がさらに正確になり、潜在的なセキュリティ上の危険が存在せず、アカウントのセキュリティが高くなる。
【0064】
図5は、本出願の一実施形態によって提供される別の声紋情報管理システムの構造ブロック図である。声紋情報管理システムは、アカウント管理システムに適用することが可能である。図5に示されるように、声紋情報管理システム200は、音声フィルタ210と、テキスト認識部220と、テキストセグメント化部240と、声紋セグメント化部250と、声紋生成部230と、を含む。
【0065】
音声フィルタ210は、第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得するように構成されている。
【0066】
テキスト認識部220は、音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得するように構成されている。
【0067】
テキストセグメント化部240は、テキスト情報を複数個のサブテキスト情報にセグメント化し、かつ、サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるように構成されている。
【0068】
声紋セグメント化部250は、サブテキスト情報の開始時刻および終了時刻に従って、サブテキスト情報のそれぞれに対応するサブ音声情報を、音声情報からそれぞれ切り取るように構成されている。
【0069】
声紋生成部230は、サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の第1のユーザの参照声紋情報にそれぞれ編集し、かつ、第1のユーザの各参照声紋情報および本人識別子を格納するように構成されている。
【0070】
上記の構造から、本出願の諸実施形態は、システムに格納された履歴音声ファイルをフィルタリングして、第1のユーザの音声情報を取得するステップと、音声情報のテキスト認識処理を実行することにより対応するテキスト情報を取得するステップと、認識されたテキスト情報を複数個のサブテキスト情報にセグメント化するステップと、対応するサブ音声情報を、サブテキスト情報のそれぞれの開始時刻および終了時刻に従って、上記の音声情報から切り取るステップと、サブテキスト情報およびサブ音声情報のそれぞれのペアを、1個の参照声紋情報にそれぞれ編集し、1個の参照声紋情報にそれぞれ編集したものを声紋ライブラリに格納することにより、それぞれの第1のユーザが複数個の参照声紋情報を有するようにして、本人認証を実行する必要があるときに、認証の対象となる本人識別子に対応する複数個の参照声紋情報から1つが、無作為に選択されるようにするステップと、を含んでいることがわかる。本人認証を実行する際に獲得される参照声紋情報は無作為であるので、認証の対象となっているユーザが再度読み上げる必要があるテキスト情報の具体的な内容は、予測することができず、対応する音声ファイルを前もって記録し、前もって記録された音声ファイルを再生して首尾よく認証目的を達成することは不可能である。したがって、本実施形態によって取得された声紋ライブラリに基づいた本人認証を実行することにより、認証結果の正確性を確保し、アカウントのセキュリティを高めることが可能である。加えて、本実施形態では、それぞれの参照声紋情報中のサブテキスト情報は簡潔で短いことで、テキスト情報を再度読み上げるのに必要な時間を短縮し、声紋比較に費やされる時間を短縮し、認証効率を高めることが可能である。
【0071】
本出願の諸実施形態によって提供される声紋情報管理システムでは、第1のユーザの参照声紋情報および本人識別子を格納する機能を実施するために、上記の声紋生成部130および声紋生成部230は、
格納の対象となる第1の参照声紋情報中の第1のテキスト情報と同一である、対応する第2のテキスト情報と、第1の参照声紋情報に対応する第1の本人識別子とやはり同一である、対応する第2の本人識別子と、を有する第2の参照声紋情報が存在するかどうかを判定し、
第2の参照声紋情報が存在しない場合には、第1の参照声紋情報および第1の本人識別子を直接に格納し、
第2の参照声紋情報が存在する場合には、第1の参照声紋情報中の第1の音声情報の品質を、第2の参照声紋情報中の第2の音声情報の品質と比較し、第1の音声情報の品質が第2の音声情報の品質よりも低い場合には、第1の参照声紋情報を削除し、
第1の音声情報の品質が第2の音声情報の品質よりも高い場合には、第2の参照声紋情報を削除し、第1の参照声紋情報および第1の本人識別子を格納するように構成することが可能である。
【0072】
上記のように構成された声紋生成部に基づいて、本出願の諸実施形態は、格納された参照声紋情報では、同一のユーザに対応する任意の2個の参照声紋情報のテキスト情報が、必ず異なっているようにすることが可能であるだけでなく、各種のテキスト情報に対応する音声情報の品質が、必ず最も高くなるようにすることもまた可能であり、したがって、本出願の諸実施形態に基づいて本人認証を実行する際に、品質が高い方の音声情報に基づいた声紋比較を実行することにより、認証の正確性を確保し、認証効率を高めることが可能である。
【0073】
図6は、本出願の一実施形態によって提供される本人認証方法のフローチャートであり、本人認証方法は、アカウント管理システムに適用することが可能である。図6を参照すると、本人認証方法は、以下のステップを含む。
【0074】
S41:第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得する。
ここでは、上記の第1のユーザは、アカウント管理システムに、対応する個人のアカウントを有する登録ユーザとすることができ、したがって、第2のユーザは、アカウント管理システムの業務スタッフとすることができる。
【0075】
S42:履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得する。
【0076】
S43:音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得する。
【0077】
S44:テキスト情報および対応する音声情報を第1のユーザの参照声紋情報に編集し、第1のユーザの参照声紋情報および本人識別子を格納する。
【0078】
S45:認証の対象となっているユーザの本人識別子に対応する参照声紋情報を獲得する。
【0079】
S46:獲得した参照声紋情報中のテキスト情報を出力し、認証の対象となる対応する音声情報を受け取る。
【0080】
S47:獲得した参照声紋情報中の音声情報を、認証の対象となる音声情報とマッチングさせ、マッチングに成功した場合には、認証の対象となっているユーザの認証に成功したと判定し、マッチングに失敗した場合には、認証の対象となっているユーザの認証に失敗したと判定する。
【0081】
上記の方法から、本出願の諸実施形態は、関連するシステムに格納された履歴音声ファイルをフィルタリングして、第1のユーザの音声情報を取得するステップと、テキスト認識処理を用いて、その音声情報に対応するテキスト情報を取得するステップと、音声情報および対応するテキスト情報を、第1のユーザの参照声紋情報に編集するステップと、を含んでいることがわかる。参照声紋情報中のテキスト情報および音声情報はいずれも、関連するシステムによって予め設定されたものではなく、すなわち開示されたものではなく、上述の履歴音声ファイルに基づいて取得されるので、第1のユーザも、第2のユーザも、そして他のいかなるユーザも、本人認証を実行する際に再度読み上げる必要があるテキスト情報の具体的な内容を予測し得ないことにより、対応する音声ファイルを前もって記録することができないようにすることで、前もって記録された音声ファイルを再生して首尾よく認証目的を達成することもできないようにしている。したがって、既存の声紋認識に基づいた本人認証方法と比較して、本人認証が本出願の諸実施形態によって提供される声紋情報管理方法に基づいて実行されることにより、認証結果がさらに正確になり、潜在的なセキュリティ上の危険が存在せず、アカウントのセキュリティが高くなる。
【0082】
図7は、本出願の一実施形態によって提供される別の本人認証方法のフローチャートであり、本人認証方法は、アカウント管理システムに適用することが可能である。図7を参照すると、本人認証方法は、以下のステップを含む。
S51:第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得する。
【0083】
S52:履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得する。
【0084】
S53:音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得する。
【0085】
S54:テキスト情報を複数個のサブテキスト情報にセグメント化し、サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつける。
【0086】
S55:サブテキスト情報の開始時刻および終了時刻に従って、サブテキスト情報のそれぞれに対応するサブ音声情報を、それぞれ音声情報から切り取る。
【0087】
S56:サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の第1のユーザの参照声紋情報にそれぞれ編集し、第1のユーザの各参照声紋情報および本人識別子を格納する。
【0088】
S57:認証の対象となっているユーザの本人識別子に対応する参照声紋情報を獲得する。
【0089】
S58:獲得した参照声紋情報中のサブテキスト情報を出力し、認証の対象となる対応する音声情報を受け取る。
【0090】
S59:獲得した参照声紋情報中のサブ音声情報を、認証の対象となる音声情報とマッチングさせ、マッチングに成功した場合には、認証の対象となっているユーザの認証に成功したと判定し、マッチングに失敗した場合には、認証の対象となっているユーザの認証に失敗したと判定する。
【0091】
上記の方法から、本出願の諸実施形態は、認識により取得されたテキスト情報を複数個のサブテキスト情報にセグメント化するステップと、対応するサブ音声情報を、その開始時刻および終了時刻に従って切り取るステップと、サブテキスト情報および対応するサブ音声情報をそれぞれ、1個の参照声紋情報に編集することにより、第1のユーザが複数個の参照声紋情報を有するようにして、本人認証を実行する必要があるときに、認証の対象となる本人識別子に対応する複数個の参照声紋情報から1つを無作為に選択するようにするステップと、を含んでいることがわかる。本人認証を実行する際に獲得される参照声紋情報は無作為であるので、認証の対象となっているユーザが再度読み上げる必要があるテキスト情報の具体的な内容は、予測することができず、対応する音声ファイルを前もって記録し、前もって記録された音声ファイルを再生して首尾よく認証目的を達成することは不可能である。したがって、本実施形態によって提供される本人認証方法は、認証結果の正確性を確保し、アカウントのセキュリティを高めることが可能である。加えて、本実施形態では、それぞれの参照声紋情報中のサブテキスト情報は簡潔で短いことで、テキスト情報を再度読み上げるのに必要な時間を短縮し、声紋比較に費やされる時間を短縮し、認証効率を高めることが可能である。
【0092】
本出願の諸実施形態によって提供される本人認証方法は、図3に示されるような方法を採用して、参照声紋情報の格納を実施することもまた可能であることで、格納された参照声紋情報では、同一のユーザに対応する任意の2個の参照声紋情報のテキスト情報が、必ず異なっているようにすることが可能であるだけでなく、各種のテキスト情報に対応する音声情報の品質が、必ず最も高くなるようにすることもまた可能である。また、本出願の諸実施形態に基づいて本人認証を実行する際に、品質が高い方の音声情報に基づいた声紋比較を実行することにより、認証の正確性を確保し、認証効率を高めることが可能である。
【0093】
図8は、本出願の一実施形態によって提供される本人認証システムの構造ブロック図であり、ここでは、本人認証システムは、アカウント管理システムに適用することが可能である。図8を参照すると、本人認証システム300は、音声フィルタ310と、テキスト認識部320と、声紋生成部330と、声紋抽出部360と、認識プロキシミタ部370と、声紋マッチング部380と、を含む。
【0094】
音声フィルタ310は、第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得するように構成されている。
【0095】
テキスト認識部320は、音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得するように構成されている。
【0096】
声紋生成部330は、音声情報および対応するテキスト情報を第1のユーザの参照声紋情報に編集し、かつ、第1のユーザの参照声紋情報および本人識別子を格納するように構成されている。
【0097】
声紋抽出部360は、認証の対象となっているユーザの本人識別子に対応する参照声紋情報を獲得するように構成されている。
【0098】
認識プロキシミタ部370は、獲得した参照声紋情報中のテキスト情報を出力し、かつ、認証の対象となる対応する音声情報を受け取るように構成されている。
【0099】
声紋マッチング部380は、獲得した参照声紋情報中の音声情報を、認証の対象となる音声情報とマッチングさせ、マッチングに成功した場合には、認証の対象となっているユーザの認証に成功したと判定し、マッチングに失敗した場合には、認証の対象となっているユーザの認証に失敗したと判定するように構成されている。
【0100】
上記の構造では、認識プロキシミタ部370は、本人認証システムと、認証の対象となっているユーザとの間の対話を実施するために使用され、声紋抽出部360により獲得した参照声紋情報中のテキスト情報を出力し、認証の対象となっているユーザによって入力される認証の対象となる音声情報を受け取るために使用されることに加えて、認識プロキシミタ部370は、認証の対象となっているユーザの本人認証リクエストを受け取り、本人認証リクエストを受け取った後に声紋抽出部360をトリガし、声紋マッチング部380により取得された認証結果を、認証の対象となっているユーザに出力することもまた可能である。
【0101】
上記の構造から、本出願の諸実施形態は、関連するシステムに格納された履歴音声ファイルをフィルタリングして、第1のユーザの音声情報を取得するステップと、テキスト認識処理を用いて、その音声情報に対応するテキスト情報を取得するステップと、音声情報および対応するテキスト情報を、第1のユーザの参照声紋情報に編集するステップと、を含んでいることがわかる。参照声紋情報中のテキスト情報および音声情報はいずれも、関連するシステムによって予め設定されたものではなく、すなわち開示されたものではなく、上述の履歴音声ファイルに基づいて取得されるので、第1のユーザも、第2のユーザも、そして他のいかなるユーザも、本人認証を実行する際に再度読み上げる必要があるテキスト情報の具体的な内容を予測し得ないことにより、対応する音声ファイルを前もって記録することができないようにすることで、前もって記録された音声ファイルを再生して首尾よく認証目的を達成することもできないようにしている。したがって、既存の声紋認識に基づいた本人認証方法と比較して、本人認証が本出願の諸実施形態によって提供される声紋情報管理方法に基づいて実行されることにより、認証結果がさらに正確になり、潜在的なセキュリティ上の危険が存在せず、アカウントのセキュリティが高くなる。
【0102】
図9は、本出願の一実施形態によって提供される本人認証システムの構造ブロック図であり、ここでは、本人認証システムは、アカウント管理システムに適用することが可能である。図9を参照すると、本人認証システム400は、音声フィルタ410と、テキスト認識部420と、テキストセグメント化部440と、声紋セグメント化部450と、声紋生成部430と、声紋抽出部460と、認識プロキシミタ部470と、声紋マッチング部480と、を含む。
【0103】
音声フィルタ410は、第1のユーザと第2のユーザとの間の通話によって生成された履歴音声ファイルを獲得し、かつ、履歴音声ファイルのフィルタリング処理を実行して第1のユーザの音声情報を取得するように構成されている。
【0104】
テキスト認識部420は、音声情報のテキスト認識処理を実行して、その音声情報に対応するテキスト情報を取得するように構成されている。
【0105】
テキストセグメント化部440は、テキスト情報を複数個のサブテキスト情報にセグメント化し、かつ、サブテキスト情報のそれぞれの開始時刻および終了時刻に印をつけるように構成されている。
【0106】
声紋セグメント化部450は、サブテキスト情報の開始時刻および終了時刻に従って、サブテキスト情報のそれぞれに対応するサブ音声情報を、音声情報からそれぞれ切り取るように構成されている。
【0107】
声紋生成部430は、サブ音声情報およびサブテキスト情報のそれぞれのペアを1個の第1のユーザの参照声紋情報にそれぞれ編集し、かつ、第1のユーザの各参照声紋情報および本人識別子を格納するように構成されている。
【0108】
声紋抽出部460は、認証の対象となっているユーザの本人識別子に対応する参照声紋情報を獲得するように構成されている。
【0109】
認識プロキシミタ部470は、獲得した参照声紋情報中のサブテキスト情報を出力し、かつ、認証の対象となる対応する音声情報を受け取るように構成されている。
【0110】
声紋マッチング部480は、獲得した参照声紋情報中のサブ音声情報を、認証の対象となる音声情報とマッチングさせ、マッチングに成功した場合には、認証の対象となっているユーザの認証に成功したと判定し、マッチングに失敗した場合には、認証の対象となっているユーザの認証に失敗したと判定するように構成されている。
【0111】
上記の構造から、本出願の諸実施形態は、認識により取得されたテキスト情報を、複数個のサブテキスト情報にセグメント化するステップと、対応するサブ音声情報を、その開始時刻および終了時刻に従って切り取るステップと、サブテキスト情報および対応するサブ音声情報をそれぞれ、1個の参照声紋情報に編集することにより、第1のユーザが複数個の参照声紋情報を有するようにし、本人認証を実行する必要があるときに、認証の対象となっているユーザに対応する本人識別子に従って、複数個の対応する参照声紋情報を判定し、そこから1つを現在の本人認証に対して無作為に選択するステップと、を含んでいることがわかる。本人認証を実行する際に獲得される参照声紋情報は無作為であるので、認証の対象となっているユーザが再度読み上げる必要があるテキスト情報の具体的な内容は、予測することができず、対応する音声ファイルを前もって記録し、前もって記録された音声ファイルを再生して首尾よく認証目的を達成することは不可能である。したがって、本実施形態によって提供される本人認証システムは、認証結果の正確性を確保し、アカウントのセキュリティを高めることが可能である。加えて、本実施形態では、それぞれの参照声紋情報中のサブテキスト情報は簡潔で短いことで、テキスト情報を再度読み上げるのに必要な時間を短縮し、声紋比較に費やされる時間を短縮し、認証効率を高めることが可能である。
【0112】
本出願の諸実施形態によって提供される本人認証システムでは、参照声紋情報および対応するユーザ本人識別子を格納する機能を実施するために、上記の声紋生成部330および声紋生成部430は、
格納の対象となる第1の参照声紋情報中の第1のテキスト情報と同一である、対応する第2のテキスト情報と、第1の参照声紋情報に対応する第1の本人識別子とやはり同一である、対応する第2の本人識別子と、を有する第2の参照声紋情報が存在するかどうかを判定し、
第2の参照声紋情報が存在しない場合には、第1のユーザの第1の参照声紋情報および本人識別子を直接に格納し、
第2の参照声紋情報が存在する場合には、第1の参照声紋情報中の第1の音声情報の品質を、第2の参照声紋情報中の第2の音声情報の品質と比較し、第1の音声情報の品質が第2の音声情報の品質よりも低い場合には、第1の参照声紋情報を削除し、
第1の音声情報の品質が第2の音声情報の品質よりも高い場合には、第2の参照声紋情報を削除し、第1の参照声紋情報および対応するユーザ本人識別子を格納するように構成することが可能である。
【0113】
上記のように構成された声紋生成部に基づいて、本出願の諸実施形態は、格納された参照声紋情報では、同一の本人識別子に対応する任意の2個の参照声紋情報のテキスト情報が、必ず異なっているようにすることが可能であるだけでなく、各種のテキスト情報に対応する音声情報の品質が、必ず最も高くなるようにすることもまた可能であり、本出願の諸実施形態に基づいて本人認証を実行する際に、品質が高い方の音声情報に基づいた声紋比較を実行することにより、認証の正確性を確保し、認証効率を高めることが可能である。
【0114】
当業者であれば、本明細書に開示された説明を考慮に入れ、本発明を実践すれば、本発明の他の実施態様に容易に想到することであろう。本出願は、本発明のあらゆる変形形態、使用法または適応可能な変形を網羅することを意図しており、これらの変形形態、使用法または適応可能な変形は、本発明の一般原理に従い、本出願において開示されていない当技術分野における周知の事柄または通常の技術手段を含む。説明および実施形態は、単に例示的なものと見なされ、本発明の真の範囲および精神は、以下の特許請求の範囲によって指摘されている。
【0115】
本発明は、上述され、かつ、図面に示された、まさにその構造に限定されるのではなく、本発明の範囲から逸脱することなく、様々な修正および変更を行ない得ることを理解されたい。本発明の範囲は、添付の特許請求の範囲によってのみ限定される。
図1
図2
図3
図4
図5
図6
図7
図8
図9