IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 公立大学法人会津大学の特許一覧

特開2024-76083ユーザ認証プログラム、情報処理装置及びユーザ認証方法
<>
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図1
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図2
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図3
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図4
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図5
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図6
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図7
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図8
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図9
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図10
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図11
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図12
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図13
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図14
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図15
  • 特開-ユーザ認証プログラム、情報処理装置及びユーザ認証方法 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024076083
(43)【公開日】2024-06-05
(54)【発明の名称】ユーザ認証プログラム、情報処理装置及びユーザ認証方法
(51)【国際特許分類】
   G06F 21/32 20130101AFI20240529BHJP
   G06N 20/00 20190101ALI20240529BHJP
【FI】
G06F21/32
G06N20/00 130
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2022187467
(22)【出願日】2022-11-24
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り (1)令和4年3月26日にThe 5th International Conference on Electronics,Communications and Control Engineering(ICECC 2022)にて発表。 (2)令和4年7月8日にhttps://dl.acm.org/doi/10.1145/3531028.3531032にて発表。
(71)【出願人】
【識別番号】506301140
【氏名又は名称】公立大学法人会津大学
(74)【代理人】
【識別番号】110003421
【氏名又は名称】弁理士法人フィールズ国際特許事務所
(72)【発明者】
【氏名】慎 重弼
(72)【発明者】
【氏名】ハサン ムハンマド アル メヘディ
(57)【要約】
【課題】ユーザが容易に覚えることが可能なジェスチャーを用いた認証を行うことを可能とするユーザ認証プログラム、情報処理装置及びユーザ認証方法を提供する。
【解決手段】同一の手の親指と親指以外のいずれかの指とのタップをそれぞれ含む1以上のジェスチャーを推定対象の人物が実施した場合における手の動作を示す第1の時系列データを取得し、取得した第1の時系列データから、推定対象の人物の手の特徴を示す第1の特徴データを特定し、学習対象の人物が1以上のジェスチャーを実施した場合における学習対象の人物の手の特徴を示す第2の特徴データと、学習対象の人物の第2の識別情報とをそれぞれ含む複数の教師データを学習した機械学習モデルに対して、第1の特徴データを入力し、第1の特徴データの入力に伴って機械学習モデルから出力される第1の識別情報を取得し、取得した第1の識別情報に基づいて、推定対象の人物と学習対象の人物とが一致するか否かを判定し、推定対象の人物と学習対象の人物とが一致するか否かについての判定結果を出力する。
【選択図】図3
【特許請求の範囲】
【請求項1】
同一の手の親指と親指以外のいずれかの指とのタップをそれぞれ含む1以上のジェスチャーを推定対象の人物が実施した場合における手の動作を示す第1の時系列データを取得し、
取得した前記第1の時系列データから、前記推定対象の人物の手の特徴を示す第1の特徴データを特定し、
学習対象の人物が前記1以上のジェスチャーを実施した場合における前記学習対象の人物の手の特徴を示す第2の特徴データと、前記学習対象の人物の第2の識別情報とをそれぞれ含む複数の教師データを学習した機械学習モデルに対して、前記第1の特徴データを入力し、前記第1の特徴データの入力に伴って前記機械学習モデルから出力される第1の識別情報を取得し、
取得した前記第1の識別情報に基づいて、前記推定対象の人物と前記学習対象の人物とが一致するか否かを判定し、
前記推定対象の人物と前記学習対象の人物とが一致するか否かについての判定結果を出力する、
処理をコンピュータに実行させることを特徴とするユーザ認証プログラム。
【請求項2】
請求項1において、
さらに、前記複数の教師データを学習することによって前記機械学習モデルを生成し、
生成した前記機械学習モデルを記憶部に記憶する、
処理をコンピュータに実行させ、
前記取得する処理では、前記記憶部に記憶された前記機械学習モデルに対して前記第1の特徴データを入力する、
ことを特徴とするユーザ認証プログラム。
【請求項3】
請求項1において、
前記特定する処理では、前記推定対象の人物の手の形状における特徴と前記推定対象の人物の手の動作に関する特徴とのうちの少なくともいずれかを含む特徴データを前記第1の特徴データとして特定し、
前記第1の識別情報を取得する処理では、前記学習対象の人物が前記1以上のジェスチャーを実施した場合における前記学習対象の人物の手の形状に関する特徴と前記学習対象の人物の手の動作についての特徴とのうちのいずれかを含む前記第2の特徴データと、前記学習対象の人物の前記第2の識別情報とをそれぞれ含む前記複数の教師データを学習した前記機械学習モデルに対して、前記第1の特徴データを入力する、
ことを特徴とするユーザ認証プログラム。
【請求項4】
請求項1において、
前記特定する処理では、
取得した前記第1の時系列データを時系列順に複数のグループに分割し、
前記複数のグループごとに、各グループに含まれる前記第1の時系列データから前記第1の特徴データを特定し、
前記取得する処理では、前記機械学習モデルに対して、前記複数のグループごとの前記第1の特徴データを入力する、
ことを特徴とするユーザ認証プログラム。
【請求項5】
請求項1において、さらに、
前記1以上のジェスチャーを前記学習対象の人物が実施した場合における手の動作を示す第2の時系列データを取得し、
取得した前記第2の時系列データを時系列順に複数のグループに分割し、
前記複数のグループごとに、各グループに含まれる前記第2の時系列データから前記第2の特徴データを特定し、
前記複数のグループごとの前記第2の特徴データと前記第2の識別情報とをそれぞれ含む前記複数の教師データを学習することによって前記機械学習モデルを生成し、
生成した前記機械学習モデルを記憶部に記憶する、
処理をコンピュータに実行させることを特徴とするユーザ認証プログラム。
【請求項6】
請求項1において、
前記判定する処理では、前記第1の識別情報と前記第2の識別情報とが一致する場合、前記推定対象の人物と前記学習対象の人物とが一致すると判定する、
ことを特徴とするユーザ認証プログラム。
【請求項7】
同一の手の親指と親指以外のいずれかの指とのタップをそれぞれ含む1以上のジェスチャーを推定対象の人物が実施した場合における手の動作を示す第1の時系列データを取得するデータ受信部と、
取得した前記第1の時系列データから、前記推定対象の人物の手の特徴を示す第1の特徴データを特定する特徴特定部と、
学習対象の人物が前記1以上のジェスチャーを実施した場合における前記学習対象の人物の手の特徴を示す第2の特徴データと、前記学習対象の人物の第2の識別情報とをそれぞれ含む複数の教師データを学習した機械学習モデルに対して、前記第1の特徴データを入力し、前記第1の特徴データの入力に伴って前記機械学習モデルから出力される第1の識別情報を取得する識別情報取得部と、
取得した前記第1の識別情報に基づいて、前記推定対象の人物と前記学習対象の人物とが一致するか否かを判定する対象判定部と、
前記推定対象の人物と前記学習対象の人物とが一致するか否かについての判定結果を出力する結果出力部と、を有する、
ことを特徴とする情報処理装置。
【請求項8】
同一の手の親指と親指以外のいずれかの指とのタップをそれぞれ含む1以上のジェスチャーを推定対象の人物が実施した場合における手の動作を示す第1の時系列データを取得し、
取得した前記第1の時系列データから、前記推定対象の人物の手の特徴を示す第1の特徴データを特定し、
学習対象の人物が前記1以上のジェスチャーを実施した場合における前記学習対象の人物の手の特徴を示す第2の特徴データと、前記学習対象の人物の第2の識別情報とをそれぞれ含む複数の教師データを学習した機械学習モデルに対して、前記第1の特徴データを入力し、前記第1の特徴データの入力に伴って前記機械学習モデルから出力される第1の識別情報を取得し、
取得した前記第1の識別情報に基づいて、前記推定対象の人物と前記学習対象の人物とが一致するか否かを判定し、
前記推定対象の人物と前記学習対象の人物とが一致するか否かについての判定結果を出力する、
処理をコンピュータが実行することを特徴とするユーザ認証方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザ認証プログラム、情報処理装置及びユーザ認証方法に関する。
【背景技術】
【0002】
近年、例えば、実空間上におけるユーザの手の動作を検知する検知装置(以下、単に検知装置とも呼ぶ)を用いることにより、ユーザの認証を行う技術の研究が行われている。
【0003】
具体的に、ユーザは、例えば、予め定めたパスワードを示す1以上のジェスチャーを実空間上において行う。そして、検知装置は、例えば、ユーザが行った1以上のジェスチャーを構成する各動作を検知する。その後、ユーザの認証を行う情報処理装置(以下、単に情報処理装置とも呼ぶ)は、例えば、検知装置によって検知された各動作から特定したパスワードによってユーザの認証を行う(特許文献1参照)。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】国際公開第2013/003424号
【発明の概要】
【発明が解決しようとする課題】
【0005】
ここで、例えば、認証に用いられるジェスチャーが複雑である場合、認証を行うために必要な全てのジェスチャーを覚えることが容易でない場合がある。そのため、上記のような分野では、例えば、ユーザが容易に覚えることが可能なジェスチャーを用いた認証方法が求められている。
【0006】
そこで、本発明の目的は、ユーザが容易に覚えることが可能なジェスチャーを用いた認証を行うことを可能とするユーザ認証プログラム、情報処理装置及びユーザ認証方法を提供することにある。
【課題を解決するための手段】
【0007】
上記目的を達成するための本発明におけるユーザ認証プログラムは、同一の手の親指と親指以外のいずれかの指とのタップをそれぞれ含む1以上のジェスチャーを推定対象の人物が実施した場合における手の動作を示す第1の時系列データを取得し、取得した前記第1の時系列データから、前記推定対象の人物の手の特徴を示す第1の特徴データを特定し、学習対象の人物が前記1以上のジェスチャーを実施した場合における前記学習対象の人物の手の特徴を示す第2の特徴データと、前記学習対象の人物の第2の識別情報とをそれぞれ含む複数の教師データを学習した機械学習モデルに対して、前記第1の特徴データを入力し、前記第1の特徴データの入力に伴って前記機械学習モデルから出力される第1の識別情報を取得し、取得した前記第1の識別情報に基づいて、前記推定対象の人物と前記学習対象の人物とが一致するか否かを判定し、前記推定対象の人物と前記学習対象の人物とが一致するか否かについての判定結果を出力する、処理をコンピュータに実行させる。
【発明の効果】
【0008】
本発明におけるユーザ認証プログラム、情報処理装置及びユーザ認証方法によれば、ユーザが容易に覚えることが可能なジェスチャーを用いることによる認証を行うことが可能になる。
【図面の簡単な説明】
【0009】
図1図1は、第1の実施の形態における情報処理装置1の構成例を示す図である。
図2図2は、第1の実施の形態におけるジェスチャーJの具体例について説明する図である。
図3図3は、第1の実施の形態におけるジェスチャーJの具体例について説明する図である。
図4図4は、第1の実施の形態におけるジェスチャーJの具体例について説明する図である。
図5図5は、第1の実施の形態の概略を説明する図である。
図6図6は、第1の実施の形態の概略を説明する図である。
図7図7は、第1の実施の形態における学習処理の詳細を説明するフローチャート図である。
図8図8は、第1の実施の形態における学習処理の詳細を説明するフローチャート図である。
図9図9は、第1の実施の形態における学習処理の詳細を説明するフローチャート図である。
図10図10は、第1の実施の形態における学習処理の詳細を説明するフローチャート図である。
図11図11は、時系列データ131の具体例について説明する図である。
図12図12は、特徴データ132の具体例について説明する図である。
図13図13は、第1の実施の形態における学習処理の詳細を説明する図である。
図14図14は、教師データ134の具体例について説明を行う。
図15図15は、第1の実施の形態におけるユーザ認証処理の詳細を説明するフローチャート図である。
図16図16は、第1の実施の形態におけるユーザ認証処理の詳細を説明する図である。
【発明を実施するための形態】
【0010】
以下、図面を参照して本発明の実施の形態について説明する。しかしながら、かかる実施の形態例が、本発明の技術的範囲を限定するものではない。
【0011】
[第1の実施の形態における情報処理装置1の構成例]
初めに、第1の実施の形態における情報処理装置1の構成例について説明を行う。図1は、第1の実施の形態における情報処理装置1の構成例を示す図である。
【0012】
情報処理装置1は、情報処理システム10に含まれるコンピュータ装置であって、例えば、汎用的なPC(Personal Computer)である。そして、情報処理装置1は、例えば、ユーザの認証を行う処理(以下、ユーザ認証処理とも呼ぶ)を行う。
【0013】
情報処理装置1は、汎用的なコンピュータ装置のハードウエア構成を有し、例えば、図1に示すように、プロセッサであるCPU101と、メモリ102と、通信インタフェース103と、記憶媒体104(以下、記憶部104とも呼ぶ)とを有する。各部は、バス105を介して互いに接続される。
【0014】
記憶媒体104は、例えば、ユーザ認証処理を行うためのプログラム(図示しない)を記憶するプログラム格納領域(図示しない)を有する。
【0015】
また、記憶媒体104は、例えば、ユーザ認証処理を行う際に用いられる情報を記憶する記憶領域(図示せず)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
【0016】
CPU101は、例えば、記憶媒体104からメモリ102にロードされたプログラム(図示せず)を実行することによってユーザ認証処理を行う。
【0017】
通信インタフェース103は、例えば、有線通信または無線通信によって検知装置2と通信を行う。
【0018】
また、検知装置2は、例えば、情報処理システム10に含まれるコンピュータ装置であって、例えば、リープモーション社のLEAP MOTION(登録商標)コントローラである。
【0019】
そして、検知装置2は、例えば、実空間上においてユーザが行った1以上のジェスチャーを構成する複数の動作を検知し、検知した複数の動作のそれぞれを示す複数の時系列データ(以下、キャプチャーデータとも呼ぶ)を情報処理装置1に送信する。具体的に、検知装置2は、例えば、ユーザが1以上のジェスチャーを実施している間、所定時間ごと(例えば、10msごと)に時系列データを生成して情報処理装置1に送信する。その後、情報処理装置1は、例えば、検知装置2から送信された複数の時系列データが示すパスワードによってユーザ(1以上のジェスチャーを行ったユーザ)の認証を行う。
【0020】
[第1の実施の形態におけるジェスチャーJの具体例]
次に、第1の実施の形態におけるジェスチャーJの具体例について説明を行う。図2から図4は、第1の実施の形態におけるジェスチャーJの具体例について説明する図である。
【0021】
各ジェスチャーJは、認証対象のユーザが実施するジェスチャーであり、図2から図4に示すように、例えば、同一の手の親指と親指以外のいずれかの指とのタップを含む動作である。
【0022】
具体的に、ユーザは、図2(A)に示すように、例えば、右手の親指と人差し指とをタップすることによってジェスチャーJ(以下、ジェスチャーJ1とも呼ぶ)を行う。また、ユーザは、図2(B)に示すように、例えば、右手の親指と中指とをタップすることによってジェスチャーJ(以下、ジェスチャーJ2とも呼ぶ)を行う。また、ユーザは、図2(C)に示すように、例えば、右手の親指と薬指とをタップすることによってジェスチャーJ(以下、ジェスチャーJ3とも呼ぶ)を行う。さらに、ユーザは、図2(D)に示すように、例えば、右手の親指と小指とをタップすることによってジェスチャーJ(以下、ジェスチャーJ4とも呼ぶ)を行う。
【0023】
さらに具体的に、例えば、「2143」が示すパスワードを入力するために、「2143」を示す1以上のジェスチャーJを実施する場合、ユーザは、図3に示すように、ジェスチャーJ2、ジェスチャーJ1、ジェスチャーJ4及びジェスチャーJ3を検知装置2の近傍において連続的に実施する。
【0024】
そして、検知装置2は、この場合、例えば、ジェスチャーJ2、ジェスチャーJ1、ジェスチャーJ4及びジェスチャーJ3を構成する複数の動作を検知し、検知した複数の動作のそれぞれを示す複数の時系列データを情報処理装置1に送信する。その後、情報処理装置1は、例えば、検知装置2から送信された複数の時系列データに対応するパスワードとして「2143」を特定し、特定した「2143」によってユーザ(1以上のジェスチャーJを実施したユーザ)の認証を行う。
【0025】
また、例えば、「1422」が示すパスワードを入力するために、「1422」を示す1以上のジェスチャーJを実施する場合、ユーザは、図3に示すように、ジェスチャーJ1、ジェスチャーJ4、ジェスチャーJ2及びジェスチャーJ2を検知装置2の近傍において連続的に実施する。
【0026】
そして、検知装置2は、この場合、例えば、ジェスチャーJ1、ジェスチャーJ4、ジェスチャーJ2及びジェスチャーJ2を構成する複数の動作を検知し、検知した複数の動作のそれぞれを示す複数の時系列データを情報処理装置1に送信する。その後、情報処理装置1は、例えば、検知装置2から送信された複数の時系列データに対応するパスワードとして「1422」を特定し、特定した「1422」によってユーザ(1以上のジェスチャーJを実施したユーザ)の認証を行う。
【0027】
すなわち、人差し指は、親指の1つ隣の指であり、中指は、親指の2つ隣の指であり、薬指は、親指の3つ隣の指であり、小指は、親指の4つ隣の指である。そのため、人差し指が「1」に対応し、中指が「2」に対応し、薬指が「3」に対応し、さらに、小指が「4」に対応することは、ユーザが直感的に理解しやすい対応付けであると考えられる。
【0028】
そこで、本実施の形態における情報処理装置1は、ユーザ認証処理において、例えば、親指と人差し指とをタップするジェスチャーJ1を「1」に対応するジェスチャーとして利用し、親指と中指とをタップするジェスチャーJ2を「2」に対応するジェスチャーとして利用し、親指と薬指とをタップするジェスチャーJ3を「3」に対応するジェスチャーとして利用し、さらに、親指と小指とをタップするジェスチャーJ4を「4」に対応するジェスチャーとして利用する。
【0029】
これにより、本実施の形態における情報処理装置1は、例えば、ユーザが容易に覚えることが可能なジェスチャーを用いた認証を行うことが可能になる。そのため、情報処理装置1は、例えば、ユーザの認証に行うために必要なユーザの負担を軽減させることが可能になる。
【0030】
また、本実施の形態における情報処理装置1は、例えば、ジェスチャーJを用いてユーザの認証を行うことにより、ユーザが各ジェスチャーJを行うスペースを抑えることが可能になる。そのため、情報処理装置1は、例えば、十分なスペースを確保することができない場合であっても、ユーザの認証を行うことが可能になる。
【0031】
また、本実施の形態における情報処理システム10では、例えば、LEAP MOTIONコントローラ等を検知装置2として用いることにより、ユーザがデバイス等に直接接触する必要がなくなる。そのため、情報処理システム10では、例えば、ユーザ認証を実施に伴う感染症の拡大等を防止することが可能になる。
【0032】
また、本実施の形態における情報処理システム10では、例えば、ジェスチャーJを用いてユーザの認証を行うことにより、ユーザが検知装置2に対して指を向けた状態でジェスチャーJを実施することが可能になる。そのため、情報処理システム10では、例えば、ジェスチャーJの実施中においてユーザの手(指)が検知装置2から隠れることの防止が可能になり、検知装置2による各動作の認識率の低下を抑制することが可能になる。
【0033】
なお、以下、図2及び図3に示すように、認証対象のユーザが4つのジェスチャーJを連続して実施する場合について説明を行うが、これに限られない。具体的に、情報処理システム10では、例えば、「123」のように、連続して行われた3つ以下のジェスチャーJを検知し、さらに、連続して行われた3つ以下のジェスチャーJが示すパスワードの認証を行うものであってもよい。また、情報処理システム10では、例えば、「42312」のように、連続して行われた5つ以上のジェスチャーJを検知し、さらに、連続して行われた5つ以上のジェスチャーJが示すパスワードの認証を行うものであってもよい。
【0034】
また、連続して行われる1つ以上のジェスチャーJには、例えば、図2に示す「2143」のように、4種類のジェスチャーJの全て(ジェスチャーJ1、ジェスチャーJ2、ジェスチャーJ3及びジェスチャーJ4)が含まれるものであってもよいし、例えば、図3に示す「1422」のように、3種類のジェスチャーJ(ジェスチャーJ1、ジェスチャーJ2及びジェスチャーJ4)のみが含まれるものであってもよい。また、連続して行われる1つ以上のジェスチャーJには、例えば、「4144」のように、2種類のジェスチャーJ(ジェスチャーJ1及びジェスチャーJ4)のみが含まれるものであってもよいし、例えば、「1111」のように、1種類のジェスチャーJ(ジェスチャーJ1)のみが含まれるものであってもよい。
【0035】
また、検知装置2は、例えば、机や台の上面等の水平面に載置されるものであってもよいし、壁等の垂直面に取り付けられるものであってもよい。
【0036】
[第1の実施の形態の概略]
次に、第1の実施の形態の概略について説明を行う。図5及び図6は、第1の実施の形態の概略を説明する図である。具体的に、図5は、情報処理装置1の機能について説明するブロック図である。また、図6は、記憶媒体104に記憶される情報について説明する図である。
【0037】
情報処理装置1は、図5に示すように、例えば、データ受信部111、特徴特定部112、データ生成部113、モデル生成部114、識別情報取得部115、対象判定部116及び結果出力部117を含む各機能を実現する。なお、データ受信部111、特徴特定部112、データ生成部113及びモデル生成部114は、学習モデルMDの生成を行う処理(以下、学習処理とも呼ぶ)を実現する機能である。また、データ受信部111、特徴特定部112、識別情報取得部115、対象判定部116及び結果出力部117は、ユーザ認証処理を実現する機能である。
【0038】
また、記憶媒体104は、図6に示すように、例えば、時系列データ131と、特徴データ132と、対象識別情報133(以下、単に識別情報133とも呼ぶ)と、教師データ134と、学習モデルMDを記憶する。
【0039】
初めに、学習処理を実現する機能について説明を行う。
【0040】
情報処理装置1のデータ受信部111は、例えば、検知装置2によって検知されたユーザの時系列データ131を検知装置2から受信(取得)する。時系列データ131は、例えば、ユーザが1以上のジェスチャーJ(1つのパスワードに対応する1以上のジェスチャーJ)を実施している場合におけるユーザの手の動きを示す時系列データである。そして、データ受信部111は、例えば、検知装置2から受信した時系列データ131を記憶媒体104に記憶する。
【0041】
具体的に、時系列データ131は、例えば、ユーザの手に関する静的データ(すなわち、時間の経過に伴って変化しないデータ)と、動的データ(すなわち、時間の経過に伴って変化するデータ)とのうちの少なくともいずれかを含む。
【0042】
さらに具体的に、静的データは、例えば、ユーザの手の骨の長さや幅、ユーザの掌の長さや幅、または、ユーザの腕の長さや幅を含むものであってよい。
【0043】
また、動的データは、例えば、ユーザの手の骨の回転角度(手の骨が伸びる方向を軸とした場合における回転角度)、ユーザの掌の回転角度(掌が伸びる方向を軸とした場合における回転角度)、または、ユーザの腕の回転角度(腕が伸びる方向を軸とした場合における回転角度)を含むものであってよい。
【0044】
また、動的データは、例えば、ユーザの手の指先から掌までの距離、ユーザの手のDIP関節から掌までの距離、ユーザの手のPIP関節から掌までの距離、または、ユーザの手のMP関節から掌までの距離を含むものであってよい。
【0045】
また、動的データは、例えば、ユーザの手の指の末節の角度(中節に対する角度)、ユーザの手の指の中節の角度(基節に対する角度)、または、ユーザの手の指の基節の角度(掌に対する角度)を含むものであってよい。
【0046】
また、動的データは、例えば、ユーザの手の小指の角度(薬指に対する角度)、ユーザの手の薬指の角度(中指に対する角度)、ユーザの手の中指の角度(人差し指に対する角度)または、ユーザの手の人差し指の角度(親指に対する角度)を含むものであってよい。
【0047】
また、動的データは、例えば、ユーザの手の小指の指先から親指までの距離、ユーザの手の薬指の指先から親指までの距離、ユーザの手の中指の指先から親指までの距離、または、ユーザの手の人差し指の指先から親指までの距離を含むものであってよい。
【0048】
また、動的データは、例えば、ユーザの掌の動作速度、または、ユーザの掌の動作方向を含むものであってよい。
【0049】
また、動的データは、例えば、ユーザの手の親指と人差し指とが物を掴んでいる場合における親指と人差し指との間における距離、または、ユーザの掌に対するユーザの各指の平均角度を含むものであってよい。
【0050】
情報処理装置1の特徴特定部112は、例えば、データ受信部111が受信した複数の時系列データ131から、ユーザの手の特徴を示す特徴データ132を生成する。そして、特徴特定部112は、例えば、生成した特徴データ132を記憶媒体104に記憶する。
【0051】
具体的に、特徴特定部112は、例えば、1以上のジェスチャーJ(1つのパスワードに対応する1つ以上のジェスチャーJ)が実施される間に検知された複数の時系列データ131から1以上の特徴データ132を生成する。
【0052】
さらに具体的に、特徴特定部112は、例えば、時系列データ131を構成する項目のうちの少なくともいずれか(静的データや動的データのうちの少なくともいずれか)についての最大値、最小値、平均値、分散及び標準偏差の少なくともいずれかを特徴データ132として生成(算出)する。言い換えれば、特徴特定部112は、例えば、時系列データ131に含まれる静的データについての特徴(すなわち、ユーザの手の形状における特徴)と、時系列データ131に含まれる動的データについての特徴(すなわち、ユーザの手の動作についての特徴)とのうちのいずれかを含むデータを特徴データ132として生成する。
【0053】
情報処理装置1のデータ生成部113は、例えば、特徴特定部112が生成した特徴データ132(記憶媒体104に記憶された特徴データ132)と、特徴データ132に対応するユーザを識別する対象識別情報133(記憶媒体104に記憶された対象識別情報133)とをそれぞれ含む複数の教師データ134を生成する。対象識別情報133は、例えば、記憶媒体104に予め記憶されるものであってよい。そして、データ生成部113は、例えば、生成した複数の教師データ134を記憶媒体104に記憶する。なお、データ生成部113は、例えば、特徴特定部112が生成した特徴データ132について正規化を行ってから教師データ134の生成を行うものであってもよい。
【0054】
情報処理装置1のモデル生成部114は、例えば、データ生成部113が生成した複数の教師データ134(記憶媒体104に記憶された複数の教師データ134)を学習することによって機械学習モデルMD(以下、単に学習モデルMDとも呼ぶ)を生成する。そして、モデル生成部114は、例えば、生成した学習モデルMDを記憶媒体104に記憶する。なお、学習モデルMDは、例えば、サポートベクトルマシン(SVM:Support Vector Machine)やランダムフォレスト(RF:Ramdom Forest)等の学習モデルであってよい。
【0055】
次に、ユーザ認証処理を実現する機能について説明を行う。
【0056】
情報処理装置1のデータ受信部111は、例えば、検知装置2によって検知されたユーザ(認証対象のユーザ)の新たな時系列データ131(以下、時系列データ131aとも呼ぶ)を検知装置2から受信(取得)する。そして、データ受信部111は、例えば、検知装置2から受信した時系列データ131aを記憶媒体104に記憶する。
【0057】
情報処理装置1の特徴特定部112は、例えば、データ受信部111が受信した時系列データ131aから、ユーザの手の特徴を示す新たな特徴データ132(以下、特徴データ132aとも呼ぶ)を生成する。そして、特徴特定部112は、例えば、生成した特徴データ132aを記憶媒体104に記憶する。
【0058】
情報処理装置1の識別情報取得部115は、例えば、モデル生成部114が生成した学習モデルMD(記憶媒体104に記憶された学習モデルMD)に対して、特徴特定部112が生成した特徴データ132a(記憶媒体104に記憶された特徴データ132a)を入力する。そして、識別情報取得部115は、例えば、特徴データ132aの入力に伴って学習モデルMDから出力される対象識別情報133の推定値(以下、対象識別情報133aとも呼ぶ)を取得する。そして、識別情報取得部115は、例えば、取得した対象識別情報133aを記憶媒体104に記憶する。
【0059】
情報処理装置1の対象判定部116は、例えば、識別情報取得部115が取得した対象識別情報133a(記憶媒体104に記憶された対象識別情報133a)に基づいて、時系列データ131aに対応するユーザ(認証対象のユーザ)の認証を行う。
【0060】
具体的に、対象判定部116は、例えば、識別情報取得部115が取得した対象識別情報133aが記憶媒体104に記憶された対象識別情報133のうちのいずれかと一致するか否かを判定する。
【0061】
情報処理装置1の結果出力部117は、例えば、対象判定部116による認証結果(判定結果)を出力装置(図示せず)に出力する。
【0062】
具体的に、結果出力部117は、例えば、識別情報取得部115が取得した対象識別情報133aが記憶媒体104に記憶された対象識別情報133のうちのいずれかと一致するか否かについての判定結果を出力する。
【0063】
すなわち、本実施の形態における情報処理装置1は、ユーザ認証処理において、例えば、静的データだけでなく動的データについても含む時系列データ131から生成した教師データ134を学習した学習モデルMDを用いる。
【0064】
これにより、本実施の形態における情報処理装置1は、例えば、静的データに加えて動的データについても考慮する形でユーザの認証を行うことが可能になる。そのため、情報処理装置1は、例えば、ユーザが容易に覚えることが可能なジェスチャーJを用いることによってユーザの認証を行う場合であっても、パスワードの漏洩や悪意の第三者によるなりすまし等のリスクを抑えることが可能になる。
【0065】
なお、以下、学習処理及びユーザ認証処理が単一のコンピュータ装置である情報処理装置1において実行される場合について説明を行うが、これに限られない。具体的に、学習処理及びユーザ認証処理は、例えば、複数の情報処理装置1が連携して行うものであってもよい。
【0066】
[第1の実施の形態の詳細]
次に、第1の実施の形態における学習処理の詳細について説明を行う。図7から図10は、第1の実施の形態における学習処理の詳細を説明するフローチャート図である。また、図11から図14は、第1の実施の形態における学習処理の詳細を説明する図である。また、図15は、第1の実施の形態におけるユーザ認証処理の詳細を説明するフローチャート図である。また、図16は、第1の実施の形態におけるユーザ認証処理の詳細を説明する図である。
【0067】
[時系列データ記憶処理]
初めに、第1の実施の形態における学習処理のうち、検知装置2から送信された時系列データ131を記憶媒体104に蓄積する処理(以下、時系列データ記憶処理をも呼ぶ)について説明を行う。図7は、第1の実施の形態における時系列データ記憶処理について説明する図である。
【0068】
データ受信部111は、図7に示すように、例えば、検知装置2から時系列データ131を受信するまで待機する(S11のNO)。
【0069】
そして、時系列データ131を受信した場合、(S11のYES)、データ受信部111は、例えば、受信した時系列データ131を記憶媒体104に記憶する(S12)。以下、時系列データ131の具体例について説明を行う。
【0070】
[時系列データ131の具体例]
図11は、時系列データ131の具体例について説明する図である。具体的に、図11に示す時系列データ131は、例えば、1つのパスワードに対応する1つ以上のジェスチャーJが実施される間に検知された複数の時系列データ131の具体例である。
【0071】
図11に示す時系列データ131は、例えば、時系列データ131が検知装置2によって検知された時刻が設定される「時刻」と、1つ目の静的データが設定される「静的データA」と、2つ目の静的データが設定される「静的データB」と、1つ目の動的データが設定される「動的データA」と、2つ目の動的データが設定される「動的データB」とを項目として有する。1つ目の静的データは、例えば、手の人差し指の指先(末節)の骨の長さであってよく、2つ目の静的データは、例えば、手の中指の指先(末節)の骨の長さであってよい。また、1つ目の動的データは、例えば、手の人差し指の指先から掌までの距離であってよく、2つ目の動的データは、例えば、手の中指の指先から掌までの距離であってよい。
【0072】
具体的に、図11に示す時系列データ131において、1行目のデータには、「時刻」として「12:00:00.010」が設定され、「静的データA」として「1.2」が設定され、「静的データB」として「3.2」が設定され、「動的データA」として「-2.1」が設定され、「動的データB」として「6.0」が設定されている。
【0073】
また、図11に示す時系列データ131において、2行目のデータには、「時刻」として「12:00:00.020」が設定され、「静的データA」として「1.3」が設定され、「静的データB」として「3.8」が設定され、「動的データA」として「-2.1」が設定され、「動的データB」として「5.9」が設定されている。図11に含まれる他のデータについての説明は省略する。
【0074】
なお、図11に示す時系列データ131は、2つの静的データと2つの動的データとを含むデータであるが、これに限られない。具体的に、時系列データ131は、例えば、3つ以上の静的データを含むものであってもよいし、3つ以上の動的データを含むものであってもよい。また、時系列データ131は、例えば、静的データを1つのみ含むものであってもよし、動的データを1つのみ含むものであってもよい。
【0075】
[特徴特定処理]
次に、第1の実施の形態における学習処理のうち、検知装置2から送信された時系列データ131から特徴データ132を生成する処理(以下、特徴特定処理とも呼ぶ)について説明を行う。図8は、第1の実施の形態における特徴特定処理について説明する図である。
【0076】
特徴特定部112は、例えば、記憶媒体104に記憶された時系列データ131から、ユーザの手の特徴を示す特徴データ132を生成する(S21)。
【0077】
具体的に、特徴特定部112は、例えば、1つのパスワードに対応する1つ以上のジェスチャーJが実施される間に検知された複数の時系列データ131(以下、単に複数の時系列データ131とも呼ぶ)を時系列順に複数のグループ(以下、単に複数のグループとも呼ぶ)に分割する。そして、特徴特定部112は、例えば、分割した複数のグループごとに、各グループに含まれる複数の時系列データ131から、各グループに含まれる複数の時系列データ131が検知装置2によって検知された時間帯における特徴データ132をそれぞれ生成する。
【0078】
さらに具体的に、特徴特定部112は、例えば、複数のグループごとに、時系列データ131を構成するデータのうちの少なくともいずれか(すなわち、静的データや動的データのうちの少なくともいずれか)についての最大値、最小値、平均値、分散及び標準偏差の少なくともいずれかを特徴データ132として特定する。
【0079】
そして、特徴特定部112は、例えば、S21の処理で生成した特徴データ132を記憶媒体104に記憶する(S22)。
【0080】
具体的に、特徴特定部112は、例えば、複数のグループごとに生成した複数の特徴データ132を記憶媒体104に記憶する。以下、特徴データ132の具体例について説明を行う。
【0081】
[特徴データ132の具体例]
図12は、特徴データ132の具体例について説明する図である。具体的に、図12に示す特徴データ132は、例えば、1つのパスワードに対応する1つ以上のジェスチャーJが実施される間に検知された複数の時系列データ131から生成された複数の特徴データ132の具体例である。
【0082】
図12に示す特徴データ132は、例えば、時系列データ131と同様に、「静的データA」、「静的データB」、「動的データA」及び「動的データB」を項目として有する。
【0083】
具体的に、図12に示すように、1行目のデータの「静的データA」には、例えば、図11で説明した時系列データ131における1行目から4行目までの「静的データA」に設定された値の平均値である「1.2」が設定される。また、1行目のデータの「静的データB」には、例えば、図11で説明した時系列データ131における1行目から4行目までの「静的データB」に設定された値の平均値である「3.6」が設定される。また、1行目のデータの「動的データA」には、例えば、図11で説明した時系列データ131における1行目から4行目までの「動的データA」に設定された値の平均値である「-2.1」が設定される。また、1行目のデータの「動的データB」には、例えば、図11で説明した時系列データ131における1行目から4行目までの「動的データB」に設定された値の平均値である「6.1」が設定される。
【0084】
すなわち、図12に示す特徴データ132における1行目のデータは、例えば、ユーザが1以上のジェスチャーJを実施している時間帯において生成された複数の時系列データ131のうち、「12:00:00.010」から「12:00:00.040」までの間の時間帯における4つの時系列データ131(複数のグループのうちの1つ目のグループに含まれる4つの時系列データ131)から生成された特徴データ132である。
【0085】
また、図12に示すように、2行目のデータの「静的データA」には、例えば、図11で説明した時系列データ131における5行目から8行目までの「静的データA」に設定された値の平均値である「1.3」が設定される。また、2行目のデータの「静的データB」には、例えば、図11で説明した時系列データ131における5行目から8行目までの「静的データB」に設定された値の平均値である「3.9」が設定される。また、2行目のデータの「動的データA」には、例えば、図11で説明した時系列データ131における5行目から8行目までの「動的データA」に設定された値の平均値である「-2.1」が設定される。また、2行目のデータの「動的データB」には、例えば、図11で説明した時系列データ131における5行目から8行目までの「動的データB」に設定された値の平均値である「7.5」が設定される。
【0086】
すなわち、図12に示す特徴データ132における2行目のデータは、例えば、ユーザが1以上のジェスチャーJを実施している時間帯において生成された複数の時系列データ131のうち、「12:00:00.050」から「12:00:00.080」までの間の時間帯における4つの時系列データ131(複数のグループのうちの2つ目のグループに含まれる4つの時系列データ131)から生成された特徴データ132である。図12に含まれる他のデータについての説明は省略する。
【0087】
なお、特徴特定部112は、S21の処理において、例えば、複数の時系列データ131(1つのパスワードに対応する1つ以上のジェスチャーJが実施される間に検知された複数の時系列データ131)のそれぞれに含まれる動的データについて分割を行う一方、複数の時系列データ131のそれぞれに含まれる静的データについては分割を行わないものであってよい。そして、特徴特定部112は、例えば、静的データについて、複数の時系列データ131から1つの特徴データ132を生成するとともに、動的データについて、複数の時系列データ131から複数の特徴データ132(複数のグループのそれぞれに対応する複数の特徴データ132)を生成するものであってもよい。
【0088】
[識別情報記憶処理]
次に、第1の実施の形態における学習処理のうち、対象識別情報133を記憶媒体104に記憶する処理(以下、識別情報記憶処理とも呼ぶ)について説明を行う。図9は、第1の実施の形態における識別情報記憶処理について説明する図である。
【0089】
データ生成部113は、図9に示すように、例えば、ユーザや情報処理装置1の管理者(以下、単に管理者とも呼ぶ)によって入力された対象識別情報133を受信する(S31)。
【0090】
そして、データ生成部113は、例えば、S31の処理で受信した対象識別情報133を記憶媒体104に記憶する(S32)。
【0091】
[学習処理のメイン処理]
次に、第1の実施の形態における学習処理のメイン処理について説明を行う。図10は、第1の実施の形態における学習処理のメイン処理について説明する図である。
【0092】
データ生成部113は、図10及び図13(A)に示すように、例えば、記憶媒体104に記憶された特徴データ132と対象識別情報133とをそれぞれ含む複数の教師データ134を生成する(S41)。以下、教師データ134の具体例について説明を行う。
【0093】
[教師データ134の具体例]
図14は、教師データ134の具体例について説明を行う。具体的に、図14に示す教師データ134は、例えば、1つのパスワードに対応する1つ以上のジェスチャーJが実施される間に検知された複数の時系列データ131から生成された複数の特徴データ132を含む1つの教師データ134の具体例である。
【0094】
図14に示す教師データ134は、例えば、ユーザを示す対象識別情報133が設定される「対象識別情報」を項目として有する。
【0095】
また、図14に示す教師データ134は、例えば、1つ目のグループに含まれる時系列データ131から算出された1つ目の静的データが設定される「静的データA1」と、1つ目のグループに含まれる時系列データ131から算出された2つ目の静的データが設定される「静的データB1」と、1つ目のグループに含まれる時系列データ131から算出された1つ目の動的データが設定される「動的データA1」と、1つ目のグループに含まれる時系列データ131から算出された2つ目の動的データが設定される「動的データB1」とを項目として有する。
【0096】
また、図14に示す教師データ134は、例えば、2つ目のグループに含まれる時系列データ131から算出された1つ目の静的データが設定される「静的データA2」と、2つ目のグループに含まれる時系列データ131から算出された2つ目の静的データが設定される「静的データB2」と、2つ目のグループに含まれる時系列データ131から算出された1つ目の動的データが設定される「動的データA2」と、2つ目のグループに含まれる時系列データ131から算出された2つ目の動的データが設定される「動的データB2」とを項目として有する。
【0097】
具体的に、図14に示す教師データ134には、例えば、「対象識別情報」として「AAA」が設定され、「静的データA1」として「1.2」が設定され、「静的データB1」として「3.6」が設定され、「動的データA1」として「-2.1」が設定され、「動的データB1」として「6.1」が設定され、「静的データA2」として「1.3」が設定され、「静的データB2」として「3.9」が設定され、「動的データA2」として「-2.1」が設定され、「動的データB2」として「7.5」が設定されている。図14に示す教師データ134に含まれる他のデータについての説明は省略する。
【0098】
すなわち、本実施の形態における教師データ134は、例えば、1つのパスワードに対応する1つ以上のジェスチャーJが実施される間に検知された複数の時系列データ131から生成された複数の特徴データ132(複数のグループごとに生成された複数の特徴データ132)を含む。言い換えれば、教師データ134は、例えば、互いに異なる複数のタイミングのそれぞれについての手の特徴を示す複数の特徴データ132を含む。
【0099】
そのため、情報処理装置1は、例えば、教師データ134を用いて学習モデルMDを学習させることにより、1つのパスワードに対応する1つ以上のジェスチャーJの実施順序についても学習モデルMDに学習させることが可能になる。そのため、情報処理装置1は、例えば、ジェスチャーJの実施順序のみが異なる複数のパスワード(例えば、「1234」及び「3142」)を区別することが可能な学習モデルMDを生成することが可能になる。
【0100】
図10に戻り、モデル生成部114は、図10及び図13(B)に示すように、例えば、S41の処理で生成した複数の教師データ134を用いた機械学習を行うことによって学習モデルMDを生成する(S42)。
【0101】
その後、モデル生成部114は、例えば、S42の処理で生成した学習モデルMDを記憶媒体104に記憶する(S43)。
【0102】
なお、データ生成部113は、例えば、各ユーザが同一のパスワードに対応する1以上のジェスチャーJを複数回(例えば、10回以上の回数)繰り返し行うことによって生成された複数回分の複数の時系列データ131から、複数の教師データ134を生成するものであってよい。そして、モデル生成部114は、例えば、生成した複数の教師データ134のそれぞれを学習することによって学習モデルMDを生成するものであってよい。
【0103】
これにより、情報処理装置1は、例えば、学習モデルMDを用いることによるユーザの認証精度を向上させることが可能になる。
【0104】
また、例えば、複数のユーザが情報処理装置1による認証を行う場合、データ生成部113は、複数のユーザごとに、各ユーザが1以上のジェスチャーJを行うことによって生成された複数の時系列データ131から教師データ134を生成するものであってよい。そして、モデル生成部114は、例えば、複数のユーザごとに生成した教師データ134のそれぞれを学習することによって学習モデルMDを生成するものであってよい。
【0105】
これにより、情報処理装置1は、例えば、認証を行うユーザが複数存在する場合であっても、学習モデルMDを用いることによるユーザの認証精度の低下を抑制することが可能になる。
【0106】
[ユーザ認証処理]
次に、第1の実施の形態におけるユーザ認証処理について説明を行う。図15は、第1の実施の形態におけるユーザ認証処理について説明する図である。
【0107】
データ受信部111は、図15に示すように、例えば、検知装置2から時系列データ131aを受信するまで待機する(S51のNO)。
【0108】
具体的に、データ受信部111は、例えば、検知装置2の近傍においてユーザが1以上のジェスチャーJが行われ、1以上のジェスチャーJを構成する各動作を示す複数の時系列データ131aが検知装置2から送信されるまで待機する。
【0109】
そして、時系列データ131aを受信した場合、(S41のYES)、特徴特定部112は、例えば、S51の処理で受信した時系列データ131aから特徴データ132aを特定する(S52)。
【0110】
具体的に、特徴特定部112は、例えば、S51の処理で受信した複数の時系列データ131を時系列順に複数のグループ(以下、単に複数のグループとも呼ぶ)に分割する。そして、特徴特定部112は、例えば、分割した複数のグループごとに、各グループに含まれる複数の時系列データ131aから、各グループに含まれる複数の時系列データ131aが検知装置2によって検知された時間帯における複数の特徴データ132aを生成する。
【0111】
続いて、識別情報取得部115は、図16に示すように、例えば、S52の処理で特定した特徴データ132aを学習モデルMDに入力する(S53)。
【0112】
具体的に、識別情報取得部115は、例えば、複数のグループごとに生成した複数の特徴データ132aを学習モデルMDに入力する。
【0113】
さらに、識別情報取得部115は、例えば、学習モデルMDから出力された対象識別情報133aを取得する(S54)。
【0114】
そして、対象判定部116は、例えば、S43の処理で取得した対象識別情報133aから、S51の処理で受信した時系列データ131aに対応するユーザの認証を行う(S55)。
【0115】
具体的に、対象判定部116は、例えば、S54の処理で取得した対象識別情報133aが記憶媒体104に記憶された対象識別情報133のうちのいずれかと一致するか否かを判定する。
【0116】
その後、結果出力部117は、例えば、S54の処理における認証結果(判定結果)を出力装置(図示せず)に出力する(S55)。
【0117】
具体的に、例えば、S54の処理で取得した対象識別情報133aが記憶媒体104に記憶された対象識別情報133のうちのいずれかと一致すると対象判定部116が判定した場合、結果出力部117は、ユーザの認証が成功したことを示す情報を出力する。
【0118】
一方、S54の処理で取得した対象識別情報133aが記憶媒体104に記憶された対象識別情報133のうちのいずれかと一致しないと対象判定部116が判定した場合、結果出力部117は、ユーザの認証が失敗したことを示す情報を出力する。
【0119】
このように、本実施の形態における情報処理装置1は、例えば、同一の手の親指と親指以外のいずれかの指とのタップをそれぞれ含む1以上のジェスチャーJを、ユーザ(以下、推定対象のユーザとも呼ぶ)が実施した場合における手の動作を示す時系列データ131a(以下、第1の時系列データ131aとも呼ぶ)を取得する。そして、情報処理装置1は、例えば、取得した第1の時系列データ131aから、推定対象のユーザの手の特徴を示す特徴データ132a(以下、第1の特徴データ132aとも呼ぶ)を特定する。
【0120】
さらに、情報処理装置1は、例えば、ユーザ(以下、学習対象のユーザとも呼ぶ)が1以上のジェスチャーJを実施した場合における学習対象のユーザの手の特徴を示す特徴データ132(以下、第2の特徴データ132とも呼ぶ)と、学習対象のユーザの対象識別情報133(以下、第2の識別情報133とも呼ぶ)とをそれぞれ含む複数の教師データ134を学習した学習モデルMDに対して、第1の特徴データ132aを入力し、第1の特徴データ132aの入力に伴って学習モデルMDから出力される対象識別情報133a(以下、第1の識別情報133aとも呼ぶ)を取得する。そして、情報処理装置1は、例えば、取得した第1の対象識別情報133aに基づいて、推定対象のユーザと学習対象のユーザとが一致するか否かを判定する。その後、情報処理装置1は、例えば、推定対象のユーザと学習対象のユーザとが一致するか否かについての判定結果を出力する。
【0121】
また、本実施の形態における情報処理装置1は、例えば、複数の教師データ134を学習することによって学習モデルMDを生成し、生成した学習モデルMDを記憶媒体104に記憶する。そして、情報処理装置1は、例えば、記憶媒体104に記憶された学習モデルMDに対して第1の特徴データ132aを入力する。
【0122】
また、本実施の形態における情報処理装置1は、例えば、推定対象のユーザの手の形状における特徴と推定対象のユーザの手の動作に関する特徴とのうちの少なくともいずれかを含む特徴データを第1の特徴データ132aとして特定する。そして、情報処理装置1は、例えば、学習対象のユーザが1以上のジェスチャーJを実施した場合における学習対象のユーザの手の形状に関する特徴と学習対象のユーザの手の動作についての特徴とのうちのいずれかを含む第2の特徴データ132と、学習対象のユーザの第2の対象識別情報133とをそれぞれ含む複数の教師データ134を学習した学習モデルMDに対して、第1の特徴データ132aを入力する。
【0123】
また、本実施の形態における情報処理装置1は、例えば、第1の時系列データ131aを時系列順に複数のグループに分割し、複数のグループごとに、各グループに含まれる第1の時系列データ131aから第1の特徴データ132aを特定する。そして、情報処理装置1は、例えば、学習モデルMDに対して、複数のグループごとの第1の特徴データ132aを入力する。
【0124】
また、本実施の形態における情報処理装置1は、例えば、1以上のジェスチャーJを学習対象のユーザが実施した場合における手の動作を示す第2の時系列データ131を取得し、取得した第2の時系列データ131を時系列順に複数のグループに分割し、複数のグループごとに、各グループに含まれる第2の時系列データ131から第2の特徴データ132を特定し、複数のグループごとの第2の特徴データ132と第2の対象識別情報133とをそれぞれ含む複数の教師データ134を学習することによって学習モデルMDを生成し、生成した学習モデルMDを記憶媒体104に記憶する。
【0125】
また、本実施の形態における情報処理装置1は、例えば、第1の対象識別情報133aと第2の対象識別情報133とが一致する場合、推定対象のユーザと学習対象のユーザとが一致すると判定する。
【0126】
すなわち、人差し指は、親指の1つ隣の指であり、中指は、親指の2つ隣の指であり、薬指は、親指の3つ隣の指であり、小指は、親指の4つ隣の指である。そのため、人差し指が「1」に対応し、中指が「2」に対応し、薬指が「3」に対応し、さらに、小指が「4」に対応することは、ユーザが直感的に理解しやすい対応付けであると考えられる。
【0127】
そこで、本実施の形態における情報処理装置1は、ユーザ認証処理において、例えば、親指と人差し指とをタップするジェスチャーJ1を「1」に対応するジェスチャーとして利用し、親指と中指とをタップするジェスチャーJ2を「2」に対応するジェスチャーとして利用し、親指と薬指とをタップするジェスチャーJ3を「3」に対応するジェスチャーとして利用し、さらに、親指と小指とをタップするジェスチャーJ4を「4」に対応するジェスチャーとして利用する。
【0128】
これにより、本実施の形態における情報処理装置1は、例えば、識別力の高いユーザ認証を、ユーザが容易に覚えることが可能なジェスチャーJを用いることによって行うことが可能になる。そのため、情報処理装置1は、例えば、ユーザの認証に伴うユーザの負担を軽減させることが可能になる。
【0129】
また、本実施の形態における情報処理装置1は、例えば、静的データに加えて動的データについても考慮する形でユーザの認証を行うことで、ジェスチャーJを用いることによってユーザの認証を行う場合であっても、パスワードの漏洩や悪意の第三者によるなりすまし等のリスクを抑えることが可能になる。
【0130】
また、本実施の形態における情報処理装置1は、例えば、ジェスチャーJを用いてユーザの認証を行うことにより、ユーザが各ジェスチャーJを行うスペースを抑えることが可能になる。また、本実施の形態における検知装置2は、例えば、机や台の上面等の水平面に載置するだけでなく、壁等の垂直面に取り付けることも可能である。そのため、情報処理装置1は、例えば、十分なスペースを確保することができない場合であっても、ユーザの認証を行うことが可能になる。
【0131】
また、本実施の形態における情報処理システム10では、例えば、LEAP MOTIONコントローラ等を検知装置2として用いることにより、ユーザがデバイス等に直接接触する必要がなくなる。そのため、情報処理システム10では、例えば、ユーザ認証を実施に伴う感染症の拡大等を防止することが可能になる。
【0132】
また、本実施の形態における情報処理システム10では、例えば、ジェスチャーJを用いてユーザの認証を行うことにより、ユーザが検知装置2に対して指を向けた状態でジェスチャーJを実施することが可能になる。そのため、情報処理システム10では、例えば、ジェスチャーJの実施中においてユーザの手(指)が検知装置2から隠れることの防止が可能になり、検知装置2による各動作の認識率の低下(情報処理装置1における判定精度の低下)を抑制することが可能になる。
【0133】
また、本実施の形態における情報処理システム10では、例えば、ジェスチャーJを用いてユーザの認証を行うことにより、1つのパスワードに対応させるジェスチャーJの数やジェスチャーJの順序を任意に決定することが可能になる。
【符号の説明】
【0134】
1:情報処理装置
2:検知装置
101:CPU
102:メモリ
103:通信インタフェース
104:記憶媒体
105:バス
111:データ受信部
112:特徴特定部
113:データ生成部
114:モデル生成部
115:識別情報取得部
116:対象判定部
117:結果出力部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16