IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社トリプルアイズの特許一覧

特許7008352情報処理装置、情報処理方法、及びプログラム
<>
  • 特許-情報処理装置、情報処理方法、及びプログラム 図1
  • 特許-情報処理装置、情報処理方法、及びプログラム 図2
  • 特許-情報処理装置、情報処理方法、及びプログラム 図3
  • 特許-情報処理装置、情報処理方法、及びプログラム 図4
  • 特許-情報処理装置、情報処理方法、及びプログラム 図5
  • 特許-情報処理装置、情報処理方法、及びプログラム 図6
  • 特許-情報処理装置、情報処理方法、及びプログラム 図7
  • 特許-情報処理装置、情報処理方法、及びプログラム 図8
  • 特許-情報処理装置、情報処理方法、及びプログラム 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-01-13
(45)【発行日】2022-01-25
(54)【発明の名称】情報処理装置、情報処理方法、及びプログラム
(51)【国際特許分類】
   G07C 9/25 20200101AFI20220118BHJP
   G07C 9/10 20200101ALI20220118BHJP
   G07C 9/27 20200101ALI20220118BHJP
【FI】
G07C9/25
G07C9/10
G07C9/27
【請求項の数】 4
(21)【出願番号】P 2020067799
(22)【出願日】2020-04-03
(65)【公開番号】P2021163423
(43)【公開日】2021-10-11
【審査請求日】2020-12-21
【早期審査対象出願】
【前置審査】
(73)【特許権者】
【識別番号】517250376
【氏名又は名称】株式会社トリプルアイズ
(74)【代理人】
【識別番号】100190621
【弁理士】
【氏名又は名称】崎間 伸洋
(74)【代理人】
【識別番号】100154748
【弁理士】
【氏名又は名称】菅沼 和弘
(72)【発明者】
【氏名】福原 智
【審査官】小原 正信
(56)【参考文献】
【文献】特開2005-141319(JP,A)
【文献】特開2018-060354(JP,A)
【文献】米国特許出願公開第2018/0285544(US,A1)
【文献】特開2003-030154(JP,A)
【文献】特開2018-151838(JP,A)
【文献】韓国公開特許第2007-0119463(KR,A)
(58)【調査した分野】(Int.Cl.,DB名)
G07C 9/25
G07C 9/10
G07C 9/27
(57)【特許請求の範囲】
【請求項1】
所定者により管理される情報処理装置であって、ユーザの顔の撮像画像に基づく第1情報に基づいて、当該ユーザの認証を行う情報処理装置において、
前記ユーザが前記認証をする第1場所及び第1時刻並びに当該ユーザを特定可能な第2情報を取得し、前記所定者及び当該ユーザ以外の者により管理される、第2場所に配置されている既存の装置に対して第2時刻に前記認証とは独立した行動をしたことにより当該既存の装置において取得された情報を、当該認証が行われる前に当該認証とは独立して当該ユーザが存在した当該第2場所及び当該第2時刻並びに当該ユーザを特定可能な第3情報として取得する取得手段と、
前記第2情報及び前記第3情報に基づいて、前記第2時刻において前記第2場所に存在したときから前記第1時刻において前記第1場所で認証が行われるまでの行動が前記ユーザの行動として辻褄が合うか否かを判断し、その判断結果と前記第1情報とを用いて、前記ユーザの認証を行う認証手段と、
を備える情報処理装置。
【請求項2】
前記第2情報は、前記ユーザが保有する所定の情報処理端末により管理されているデータである、
請求項1に記載の情報処理装置。
【請求項3】
所定者により管理される情報処理装置であって、ユーザの顔の撮像画像に基づく第1情報に基づいて、当該ユーザの認証を行う情報処理装置が実行する情報処理方法において、
前記ユーザが前記認証をする第1場所及び第1時刻並びに当該ユーザを特定可能な第2情報を取得し、前記所定者及び当該ユーザ以外の者により管理される、第2場所に配置されている既存の装置に対して第2時刻に前記認証とは独立した行動をしたことにより当該既存の装置において取得された情報を、当該認証が行われる前に当該認証とは独立して当該ユーザが存在した当該第2場所及び当該第2時刻並びに当該ユーザを特定可能な第3情報として取得する取得ステップと、
前記第2情報及び前記第3情報に基づいて、前記第2時刻において前記第2場所に存在したときから前記第1時刻において前記第1場所で認証が行われるまでの行動が前記ユーザの行動として辻褄が合うか否かを判断し、その判断結果と前記第1情報とを用いて、前記ユーザの認証を行う認証ステップと、
を含む情報処理方法
【請求項4】
所定者により管理される情報処理装置であって、ユーザの顔の撮像画像に基づく第1情報に基づいて、当該ユーザの認証を行う情報処理装置を制御するコンピュータに
前記ユーザが前記認証をする第1場所及び第1時刻並びに当該ユーザを特定可能な第2情報を取得し、前記所定者及び当該ユーザ以外の者により管理される、第2場所に配置されている既存の装置に対して第2時刻に前記認証とは独立した行動をしたことにより当該既存の装置において取得された情報を、当該認証が行われる前に当該認証とは独立して当該ユーザが存在した当該第2場所及び当該第2時刻並びに当該ユーザを特定可能な第3情報として取得する取得ステップと、
前記第2情報及び前記第3情報に基づいて、前記第2時刻において前記第2場所に存在したときから前記第1時刻において前記第1場所で認証が行われるまでの行動が前記ユーザの行動として辻褄が合うか否かを判断し、その判断結果と前記第1情報とを用いて、前記ユーザの認証を行う認証ステップと、
を含む制御処理を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
【背景技術】
【0002】
従来より、認証手法としての顔認証は利用されている。また、顔認証に関連する技術も提案されている(例えば特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2020-038545号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、現段階における技術水準では、顔認証のみによる抜け目の無い完全な認証は困難である。例えば、顔の撮像画像のデータの解像度の違いや、ピントのズレ、カメラと認証の対象との距離の違いなどによって認証結果に差異が生じることがある。
【0005】
本発明は、このような状況に鑑みてなされたものであり、顔認証に用いられる情報と、それ以外の情報とを用いた総合的な認証を行うことで、より抜け目のない認証を行うことを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するため、本発明の一態様の情報処理装置は、
ユーザの顔の撮像画像に基づく第1情報を取得する第1取得手段と、
当該ユーザの1以上のコンテクストデータに基づく第2情報を取得する第2取得手段と、
前記第1取得手段により取得された前記第1情報と、前記第2取得手段により取得された前記第2情報とに基づく判断結果に基づいて、前記ユーザの認証を行う認証手段と、
を備える。
【0007】
本発明の一態様の情報処理方法及びプログラムは、上述の本発明の一態様の情報処理装置に対応する情報処理方法及びプログラムである。
【発明の効果】
【0008】
本発明によれば、顔認証に用いられる情報と、それ以外の情報とを用いた総合的な認証を行うことで、より抜け目のない認証を行うことができる。
【図面の簡単な説明】
【0009】
図1】本発明の情報処理装置の一実施形態に係るサーバが適用される情報処理システムの適用対象となる本サービスの概要を示す図である。
図2】ユーザの顔関連情報及びコンテクスト関連情報が取得されるタイミングの具体例を示す図である。
図3】サーバによる総合認証の具体例を示す図である。
図4】サーバによる総合認証の具体例を示す図である。
図5】サーバによる総合認証の具体例を示す図である。
図6】本発明の一実施形態に係るサーバが適用される情報処理システムの構成の一例を示すブロック図である。
図7図6の情報処理システムのうち、サーバのハードウェア構成の一例を示すブロック図である。
図8図7のサーバにより実行が制御される処理のうち、総合認証処理を実現させる機能的構成の一例を示す機能ブロック図である。
図9図8の機能的構成を有するサーバにより実行が制御される処理のうち、総合認証処理の流れを示すフローチャートである。
【発明を実施するための形態】
【0010】
以下、本発明の実施形態について、図面を用いて説明する。
【0011】
まず、図1乃至図5を参照して、本発明の情報処理装置の一実施形態に係るサーバ1が適用される情報処理システム(後述する図6参照)の適用対象となるサービス(以下、「本サービス」と呼ぶ)の概要について説明する。
【0012】
図1は、本発明の情報処理装置の一実施形態に係るサーバが適用される情報処理システムの適用対象となる本サービスの概要を示す図である。
【0013】
本サービスは、ユーザUの認証が行われる際に提供されるサービスである。ユーザUは特に限定されず、本サービスによる認証の対象となり得るすべての人間が含まれる。
ユーザUの認証を行う者(図示せず)は、本サービスを利用することで、ユーザUの顔関連情報と、ユーザUのコンテクスト関連情報とに基づいて総合的に行われる精度の高い認証(以下、「総合認証」と呼ぶ)を行うことができる。
【0014】
「顔関連情報」とは、ユーザUの顔に関する情報のことをいう。顔関連情報には、ユーザUの顔の撮像画像のデータ自体、ユーザUの顔認証に用いるための特徴量等に変換されたデータ、ユーザUの顔認証の結果を示す情報等が含まれる。
【0015】
「コンテクスト関連情報」とは、ユーザUのコンテクストデータに基づく情報のことをいう。「コンテクストデータ」とは、ユーザUの内的状態と外的状態とのうち少なくとも1以上の状態を示すデータのことをいう。即ち、1つのコンテクストデータは、ユーザUの「内的状態」と「外的状態」とのうちいずれか1つ以上の状態を示すデータとなる。ここで、「内的状態」とは、ユーザU自体をセンシングの対象とすることで得られた各種のデータにより示される、ユーザUの状態のことをいう。「内的状態」を示すデータには、例えば、測定や調査等により得られた、身長、体重、体温、脈拍、体脂肪率、体型、指紋、声紋、年齢などユーザUの身体的特徴を示す客観的なデータが含まれる。また、アンケートや問診等により得られた体調や感情等の主観的なデータや、ユーザUの行動履歴もユーザUの内的状態を示すデータに含まれる。また、「外的状態」とは、ユーザUの周囲の環境をセンシングの対象とすることで得られた各種のデータにより示される、ユーザUの状態のことをいう。「外的状態」を示すデータには、例えば、ユーザUが、過去に存在した、現在存在する、又は将来存在し得る場所における、気象(天気、気温、湿度等)の履歴や予報、室温等に関するデータが含まれる。また、外的状態を示すデータには、ユーザUの空間的又は時間的な配置の位置を示すデータ、ユーザUの周囲の空間的方向と時間的方向のうち、少なくとも1の方向に分布する所定の状態を示すデータ等も含まれる。
なお、本明細書において「時間」とは、本来的な概念である「幅」を示すものに限らず、「そのとき」を示す概念として、「時刻」や「タイミング」も含まれるものとする。このため、「時間的な配置の位置を示すデータ」には、例えば過去の所定タイミングにおける時刻や、現在時刻等が含まれる。
【0016】
なお、本サービスを利用してユーザUの総合認証を行う者は特に限定されない。例えばイベント会場のセキュリティを管理するイベント管理会社、ATM(Automatic Teller Machine)を管理する金融機関、宿泊者を管理するホテル等の宿泊施設、EC(Electronic Commerce)サイト管理会社などが総合認証を行う者として挙げられる。
【0017】
上述したように、ユーザUの顔認証の結果を示す情報は、顔関連情報として取得される。また、コンテクストデータを用いて行われた各種の認証の結果は、コンテクストデータに基づく情報としての「コンテクスト関連情報」として取得される。例えば、ユーザUが金融機関のATMで預金の引き出しを行う際、ATMによる認証(例えばキャッシュカードの識別情報と暗証番号との組み合わせによる認証)の結果は、ユーザUのコンテクスト関連情報として取得される。
【0018】
このように、ユーザUの顔関連情報及びコンテクスト関連情報は、総合認証が行われるタイミングのみならず、ユーザUの生活上のあらゆる場面で取得される。
図2は、ユーザの顔関連情報及びコンテクスト関連情報が取得されるタイミングの具体例を示す図である。
【0019】
図2には、東京に住むユーザUが、大阪で開催されるイベントに参加するために出張した場合の流れが示されている。
ユーザUは、東京駅の自動改札機(外部装置4)に自分のスマートフォン等の情報処理装置(ユーザ端末3)をかざして、所定情報を読取らせることでプラットホーム内に入場した(ステップSS1)。
ここで、ユーザUが東京駅の自動改札機を通過したという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。具体的には、東京駅の自動改札機に、「東京駅の改札を通過した」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザ端末3にも、「東京駅の改札を通過した」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、東京駅の自動改札機やユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。具体的には例えば、MACアドレス(Media Access Control address)、スマートフォン等の端末ID、WiFiのアクセスポイント等からユーザ端末3とユーザUとを特定することで、ユーザUの行動履歴が管理される。
【0020】
新幹線で新大阪駅に到着したユーザUは、新大阪駅の自動改札機(外部装置4)にユーザ端末3をかざして、所定情報を読取らせることでプラットホームから退出した(ステップSS2)。
ここで、ユーザUが新大阪駅の自動改札機を通過したという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。具体的には、新大阪駅の自動改札機に、「新大阪駅の改札を通過した」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザUが所持するユーザ端末3にも、「新大阪駅の改札を通過した」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、新大阪駅の自動改札機やユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
【0021】
新大阪駅を出たユーザUは、駅前の銀行に設置されたATMから現金を引き出した(ステップSS3)。ここで、ATMは、本サービスを利用して総合認証を行う総合認証装置2として機能するものとする。
ユーザUが新大阪駅の駅前の銀行のATMで現金を引き出したという行動履歴(コンテクストデータ)は、コンテクスト関連情報として記録される。さらに、ユーザUがATMを利用する際、ATMにより実行された総合認証の結果も、コンテクスト関連情報として記録される。
具体的には、駅前の銀行に設置されたATMに、「新大阪駅の駅前の銀行のATMで現金が引き出された」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザUが所持するユーザ端末3にも、「新大阪駅の駅前の銀行のATMで現金が引き出された」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、銀行のATMやユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて管理される。
【0022】
さらに、ATMの総合認証における顔認証の結果は、顔関連情報として記録される。ATMに記録されている顔関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
なお、図2の例においてATMは、総合認証を行う総合認証装置2としているが、従来の認証のみを行うATMであってもよい。この場合にも、認証結果はコンテクスト関連情報として記録される。
【0023】
駅前の銀行のATMで現金を引き出したユーザUは、宿泊先である大阪市内のホテルに向かい、エントランスに設置された自動チェックイン受付装置(外部装置4)を操作してチェックインを行った(ステップSS4)。
ここで、ユーザUが大阪市内のホテルにチェックインしたという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。さらに、ユーザUがホテルにチェックインする際、自動チェックイン受付装置により実行された認証の結果も、コンテクスト関連情報として記録される。具体的には、ホテルに設置された自動チェックイン受付装置に、「大阪市内の〇〇ホテルにチェックインした」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザ端末3にも、「大阪市内の〇〇ホテルにチェックインした」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、自動チェックイン受付装置やユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて管理される。
【0024】
大阪市内のホテルで一泊したユーザUは、その日の午後から開催されるイベントに参加する前にレストランで昼食をとった。そして、ユーザUは、POS(Point of sales)端末(外部装置4)に設けられた所定の受信機にユーザ端末3をかざすことで、代金の決済処理を済ませた(ステップSS5)。
ここで、ユーザUがレストランで決済を行ったという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。具体的には、レストランに設置されたPOS端末に、「大阪市内の〇〇レストランで〇〇円の決済を行った」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザ端末3にも、「大阪市内の〇〇レストランで〇〇円の決済を行った」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、POS端末やユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
【0025】
レストランで昼食を済ませたユーザUは、自身が参加するイベントが開催されるイベント会場に向かった(ステップSS6)。
ユーザUが参加するイベントが開催されるイベント会場の出入口(セキュリティゲート)には、総合認証装置2が設置されている。総合認証装置2は、ユーザUがイベント会場の出入口(セキュリティゲート)を通過しようとすると、そのユーザUの顔関連情報及びコンテクスト関連情報を、サーバ1を介して取得する。
また、総合認証装置2は、カメラ等の撮像装置に、イベント会場の出入口(セキュリティゲート)を通過しようとするユーザUの顔を含むユーザUの身体の少なくとも一部を撮像させる。そして、ユーザUの顔の撮像画像のデータは顔関連情報として取得され、それ以外の撮像画像のデータはコンテクスト関連情報として取得される。
【0026】
総合認証装置2は、顔関連情報とコンテクスト関連情報に基づくサーバ1による総合的な判断(以下、「総合判断」と呼ぶ)の結果に基づいて、ユーザUの総合認証を行う。総合認証装置2による総合認証の結果は、情報の種類に応じて、顔関連情報又はコンテクスト関連情報として総合認証装置2に記録される。また、総合認証装置2に記録されている総合認証の結果は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
なお、サーバ1により行われる、総合認証の具体例については、図3及び図4を参照して後述する。
【0027】
大阪で開催されたイベントに参加したユーザUは、仕事を終えてイベント会場を出ると、休憩のためにカフェ(喫茶店)に入店した(ステップSS7)。
ユーザUは、オーダー後、客席でユーザ端末3を操作して、ECサイトにアクセスして、インターネットショッピングを行った。その後、ユーザUは、レストランと同様にPOS端末(外部装置4)による決済処理を済ませて退店した。
ここで、ユーザUがECサイトにアクセスしてインターネットショッピングを行ったという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。さらに、ユーザUがECサイトにログインする際、ECサイトにより実行された認証の結果も、コンテクスト関連情報として記録される。具体的には、ECサイトの運営を行う運営サーバ(外部装置4)に、インターネットショッピングの購入履歴(行動履歴)が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザ端末3にも、インターネットショッピングの購入履歴(行動履歴)が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、ECサイトの運営サーバやユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
【0028】
図3乃至図5は、サーバによる総合認証の具体例を示す図である。
【0029】
図3には、図2の大阪市内のイベント会場のセキュリティゲートに設置された総合認証装置2によるユーザUの総合認証が、2020年2月20日の午後2時に行われた場合の例が示されている。
ここで、サーバ1が、ユーザUのコンテクスト関連情報として、「2020年2月20日の午後12時30分に大阪市内のレストランで決済処理が行われた」という情報を取得したとする。この場合、サーバ1は、取得したコンテクスト関連情報に基づいて、「辻褄が合うかどうか」についての判断を行う。即ち、サーバは、大阪市内のレストランで決済処理が行われた時刻と、大阪市内のイベント会場で総合認証が行われている時刻との時間差(1時間30分)と位置関係とを考慮して、「辻褄が合うかどうか」についての判断を行う。サーバ1による判断の結果、「辻褄が合う」と判断された場合には、総合認証装置2は、顔認証の結果と、サーバ1の判断結果とに基づいて、ユーザUの総合認証を行う。
【0030】
このように、サーバ1がユーザUのコンテクスト関連情報のうち、「時間」と「行動履歴」に基づく判断を行うことで、その判断結果を利用する総合認証装置2におけるより正確な判断が可能となる。これにより、仮にユーザUの顔認証が正確に行われなかった場合であっても、サーバ1の総合判断の結果に基づいた総合認証が可能となる。具体的には例えば、ユーザUを偽って大阪のイベント会場に入場しようとする者が、たとえ顔認証を潜り抜けることができる変装の達人であったとしても、サーバ1による判断結果が「辻褄が合わない」というものであれば認証されない。例えば、図3に示すように、総合認証が行われるタイミングにおいて、本物のユーザUが東京に存在することを示すコンテクスト関連情報(東京都内の某銀行のATMを利用したという行動履歴)が取得された場合には、サーバ1による判断結果は「辻褄が合わない」というものになり、認証されない。
【0031】
図4には、図3と同様に、大阪市内のイベント会場のセキュリティゲートに設置された総合認証装置2により、ユーザUの総合認証が行われた場合の例が示されている。
ここで、サーバ1が、ユーザUのコンテクスト関連情報として、「身長が185cm」、「体重が65kg」、「性別が男性」、「黒色のセーターを着用」という情報を取得したとする。また、セキュリティゲートに設置されたカメラ等の撮像装置から、ユーザUの全身の撮像画像のデータがコンテクスト関連情報として取得されたものとする。
この場合も、図3の例と同様に、サーバ1は、取得したコンテクスト関連情報に基づいて、「辻褄が合うかどうか」についての判断を行う。即ち、サーバ1は、客観的に示されるユーザUの身体的特徴に関する情報(例えば身長、体重、服装、性別等)と、撮像装置により撮像されたユーザUの全身の撮像画像のデータとを比較して、「辻褄が合うかどうか」についての判断を行う。サーバ1による判断の結果、「辻褄が合う」と判断された場合には、総合認証装置2は認証を行う。
【0032】
このように、サーバ1がユーザUのコンテクスト関連情報のうち、「特徴」と「撮像画像」に基づく判断を行うことで、その判断結果を利用する総合認証装置2は、より正確な判断を行うことができる。これにより、図3の例と同様に、仮にユーザUの顔認証が正確に行われなかった場合であっても、サーバ1の判断結果に基づいた認証が可能となる。具体的には例えば、ユーザUを偽って大阪のイベント会場に入場しようとする者が、たとえ顔認証を潜り抜けることができる変装の達人であったとても、サーバ1による判断結果が「辻褄が合わない」というものであれば認証されない。例えば、本物のユーザUは「身長が185cm」、「体重が65kg」である。このため、ユーザUの骨格は、いわゆる「細身の長身」となるが、ユーザUを偽って大阪のイベント会場に入場しようとする者の全身の撮像画像のデータから「細身の長身」が見出せない場合がある。この場合、サーバ1による判断結果は「辻褄が合わない」というものになるので、総合認証装置2は認証しない。
【0033】
図5には、銀行に設置されたATMを総合認証装置2とする総合認証の具体例が示されている。
ここで、サーバ1は、ユーザUのコンテクスト関連情報として、「名前」及び「声紋」を予め取得しているものとする。
この場合、サーバ1は、予め取得しているコンテクスト関連情報と、総合認証装置2により取得された「名前」及び「声紋(生体情報)」を示すコンテクスト関連情報とに基づいて、「辻褄が合うかどうか」についての判断を行う。サーバ1による判断の結果、「辻褄が合う」と判断された場合には、総合認証装置2は、顔認証の結果と、サーバ1の総合判断の結果とに基づいて、ユーザUの総合認証を行う。
具体的には例えば、ATMを利用して現金を引き出そうとする者が、顔認証を潜り抜けることができるいわゆる変装の達人であったとしても、スピーカから出力される「お名前は?」という質問に対する応答が的確なものでなければ認証されない。即ち、予め記憶されている本物のユーザUの名前と声紋との一致が認められなければ認証されない。
【0034】
このように、図5の例では、ATMからの質問(「お名前は?」)に対するユーザUの応答が的確なもの(「名前」と「声紋」とが夫々一致)である場合に認証される。このような、総合認証装置2からユーザUに対するアクションに対する応答が的確である場合に認証する手法と同様の手法として、例えば以下のような手法がある。
即ち、図示はしないが、ATM(総合認証装置2)からユーザUに対する何等かの「指示」がランダムで出され、その指示に対するユーザUの応答が的確である場合に認証される手法がある。具体的には例えば、「右手の人差し指と中指とを立てて、カメラに向かってピースサインを出してください」といったジェスチャーを求める指示や、「カメラに向かって笑顔を見せてください」といった指示が出される。これらの指示に対してユーザUが的確に応答すると認証される。
また例えば、「タッチパネルにタッチペンでお名前を書いてください」といった指示を出し、その応答が的確なものである場合に認証する手法がある。このような認証は、例えば筆跡のパターン認識や空間認識等の技術を用いて実現させることができる。
また例えば、ATMが、ユーザUの仕草(例えばタッチパネルを操作する手が左右どちらなのか等)、くせ、話し方のパターンを予め学習したうえで指示を出す手法もある。この場合、ユーザUの応答が統計的に不自然でなければ認証される。
このように、ATM(総合認証装置2)からユーザUに対する何等かの「指示」がランダムで出される態様とすることにより、例えばユーザUを偽って認証を受けようとする者がいたとしても、認証のための準備を行うことができなくなる。これにより、不正行為による認証を容易に防ぐことが可能となる。
【0035】
また、本サービスにおける総合認証の要素となる顔認証は、従来から行われている、ユーザUの顔を正面から撮像した1枚の静止画像のデータによるものに限定されない。例えば、複数枚(例えば3枚)の静止画像のデータや、多数枚の静止画像のデータからなる動画像によるものも含まれる。これにより、1枚の静止画像のデータでは実現できないユーザUの表情の変化(例えば頬の筋肉の動きの変化)に基づいた認証が可能となる。
【0036】
具体的には例えば、ユーザUの表情の変化を撮像した動画像のデータを集積し、ディープラーニング等の技術を用いて特徴量の解析等を行うことで、動画像による顔認証が実現可能となる。ユーザUの表情の変化は、そのユーザUの感情が表出したものである。このため、ユーザUの表情と感情との関連性を示す感情特徴量を抽出した解析等を行うことも可能となる。また、ユーザUを撮像した動画像には、ユーザUの正面の顔、横顔、及び後ろ姿の動画像のデータが含まれ得るため、ユーザUの正面の顔と、横顔と、後ろ姿との関係を対応付けて管理することもできる。これにより、従来から行われているユーザUの正面の顔の静止画像のデータを用いた顔認証のみならず、ユーザUの横顔の静止画像や後ろ姿の静止画像のデータを用いた認証も可能となる。さらに、多数のユーザUの正面の顔と、横顔と、後ろ姿とを対応付けたデータを集積し、ディープラーニング等の技術を用いて特徴量の抽出及び解析等を行うことができる。その結果、ユーザUの正面の顔の静止画像のデータから、横顔や後ろ姿を推測することも可能となる。またさらに、推測の精度を向上させていくことで、マスクやサングラスをした状態のユーザUの顔の静止画像のデータから、マスクやサングラスを外した状態を推測することもできる。また、マスクで隠れない部分(目やその周りの皮膚)の動き(まばたきや皮膚の振幅)に基づく認証を行うことも可能となる。
【0037】
また、本サービスによれば、例えば求められるセキュリティの高さ、予算等に応じて、柔軟に認証のレベルやパターンに差異を設けることもできる。
【0038】
また例えば、本サービスによれば、パスワードによるログイン操作が不要になるので、パスワードの失念や入力ミス等が生じることがなくなる。また、他人の「なりすまし」によるログイン操作が行われることがなくなる。
【0039】
また例えば、本サービスによれば、ユーザUを容易に特定することができるので、戸籍管理が不十分な国や地域における国民等の管理を容易に行うことができるようになる。また、未知のウイルス等の感染ルートの特定することも可能となる。
【0040】
また例えば、本サービスによれば、ユーザUがどの程度エネルギー(例えば電力)を消費しているのかを容易に管理することもできる。このため、エネルギーの消費量に応じたスコアリングを行うこともできる。具体的には例えば、「環境スコア」という指標を設けて、エネルギー消費量の削減に貢献しているユーザUに付与することもできる。エネルギー消費量のみならず、例えばルールを守ってゴミ出しを行ったり、森林を守るための具体的な行動を行ったりした場合にも環境スコアが付与されてもよい。
また、本サービスによれば、ユーザUがどの程度の信用を有してるのかを容易に管理することできるので、ユーザUの信用度に応じたスコアリングを行うこともできる。具体的には例えば、「信用スコア」という指標を設けて、ユーザUに付与することもできる。これにより、例えば環境スコアや信用スコアが高いユーザUは、環境スコアや信用スコアが低いユーザUよりも認証を簡素化させて、認証を効率化させることもできる。その結果、環境スコアや信用スコアを高めようとするユーザUが増えることが期待できるので、本サービスが地球環境の保護に寄与することも可能となる。
【0041】
図6は、本発明の一実施形態に係るサーバが適用される情報処理システムの構成の一例を示すブロック図である。
【0042】
図6に示す情報処理システムは、サーバ1と、総合認証装置2-1乃至2-n(nは1以上の整数値)と、ユーザ端末3-1乃至3-m(mは1以上の整数値)と、外部装置4-1乃至4-k(kは1以上の整数値)とを含む。
サーバ1と、総合認証装置2-1乃至2-nと、ユーザ端末3-1乃至3-mと、外部装置4-1乃至4-kとは、インターネット(Internet)等のネットワークNを介して相互に接続されている。なお、ネットワークNは、その形態は特に限定されず、例えば、Bluetooth(登録商標)、Wi-Fi、LAN(Local Area Network)、インターネット等を採用することができる。
以下、総合認証装置2-1乃至2-n、ユーザ端末3-1乃至3-m、外部装置4-1乃至4-kの夫々を個々に区別する必要がない場合、これらをまとめて、「総合認証装置2」、「ユーザ端末3」、「外部装置4」の夫々と呼ぶ。
【0043】
サーバ1は、サービス提供者(図示せず)により管理される情報処理装置である。サーバ1は、総合認証装置2、ユーザ端末3、及び外部装置4の夫々からユーザUの顔関連情報又はコンテクスト関連情報を取得する。
また、サーバ1は、取得した顔関連情報及びコンテクスト関連情報に基づいて、総合判断を行う。
【0044】
総合認証装置2は、ユーザUの総合認証を行う装置である。総合認証装置2は、例えば図2に示すイベント会場に来場したユーザUの認証を行ったり、銀行のATMとして設置されたりする。総合認証装置2による総合認証の結果は、コンテクスト関連情報としてサーバ1に送信され、サーバ1において記憶されて管理される。
【0045】
ユーザ端末3は、ユーザUにより操作される情報処理装置である。ユーザ端末3は、例えばスマートフォンやタブレット等で構成される。
【0046】
外部装置4は、ユーザUのコンテクスト関連情報を取得する装置である。外部装置4は様々な場所に設置される。具体的には例えば、図2の例では、東京駅に設置された自動改札機、新大阪駅に設置された自動改札機、ホテルに設置された自動チェックイン受付装置、レストランに設置されたPOS端末は、いずれも外部装置4の一例である。また、図2の例でユーザUがアクセスしたECサイトの運営を行う運営サーバや、セキュリティゲートに設置されたカメラ等の撮像装置も外部装置4の一例である。
【0047】
図7は、図6の情報処理システムのうち、サーバのハードウェア構成の一例を示すブロック図である。
【0048】
サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memoy)13と、バス14と、入出力インターフェース15と、入力部16と、出力部17と、記憶部18と、通信部19と、ドライブ20と、を備えている。
【0049】
CPU11は、ROM12に記録されているプログラム、又は記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
【0050】
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、入力部16、出力部17、記憶部18、通信部19及びドライブ20が接続されている。
【0051】
入力部16は、各種ハードウェア釦等で構成され、操作者の指示操作に応じて各種情報を入力する。
出力部17は、液晶等のディスプレイにより構成され、各種画像を表示する。
【0052】
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(総合認証装置2、ユーザ端末3、及び外部装置4等)との間で行う通信を制御する。
【0053】
ドライブ20は、必要に応じて設けられる。ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア40が適宜装着される。ドライブ20によってリムーバブルメディア40から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア40は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
【0054】
このような図7のサーバ1の各種ハードウェアと各種ソフトウェアとの協働により、後述する各種処理の実行が可能になる。
なお、図示はしないが、図6の情報処理システムのうち、総合認証装置2、及びユーザ端末3、及び外部装置4も、図7に示すハードウェア構成を有している。このため、総合認証装置2、及びユーザ端末3、及び外部装置4のハードウェア構成についての説明は省略する。ただし、ユーザ端末3がスマートフォンやタブレットで構成される場合には、入力部16及び出力部17として、タッチパネルを有している。
【0055】
図8は、図7のサーバにより実行が制御される処理のうち、総合認証処理を実現させる機能的構成の一例を示す機能ブロック図である。
【0056】
「総合認証処理」とは、上述の総合認証が行われる際に実行が制御される処理のことをいう。総合認証処理の実行が制御されることで、ユーザUの顔関連情報と、ユーザUのコンテクスト関連情報とに基づく精度の高い認証が可能となる。
【0057】
図8に示すように、サーバ1のCPU11においては、総合認証処理の実行が制御される場合には、顔関連情報取得部101と、コンテクスト関連情報取得部102と、判断部103と、認証部104とが機能する。また、サーバ1の記憶部18の一領域には、ユーザDB181が設けられている。
【0058】
顔関連情報取得部101は、ユーザUの顔の撮像画像に基づく顔関連情報を取得する。顔関連情報取得部101により取得された顔関連情報は、ユーザDB181に記憶されて管理される。
【0059】
コンテクスト関連情報取得部102は、ユーザUの1以上のコンテクストデータに基づくコンテクスト関連情報を取得する。コンテクスト関連情報取得部102により取得されたコンテクスト関連情報は、ユーザDB181に記憶されて管理される。
また、コンテクスト関連情報取得部102は、後述する認証部104による総合認証が行われるタイミング、及び当該タイミングよりも前の1以上のタイミングでコンテクスト関連情報を取得する。
また、コンテクスト関連情報取得部102は、コンテクスト関連情報として、コンテクストデータに含まれる、時間、ユーザUの行動、特徴、及び撮像画像の夫々を示すデータうち、少なくとも1のデータを取得する。
【0060】
判断部103は、顔関連情報取得部101により取得された顔関連情報と、コンテクスト関連情報取得部102により取得されたコンテクスト関連情報とに基づいて、総合認証に必要となる各種の判断を行う。この「判断」の一例として、判断部103は、顔関連情報及びコンテクスト関連情報を構成する複数の情報を総合的に考慮して、例えば情報間の「辻褄が合うかどうか」についての判断を行う。
【0061】
認証部104は、判断部103による判断の結果に基づいて、ユーザUの総合認証を行う。認証部104による認証の結果は、顔関連情報あるいはコンテクスト関連情報としてユーザDB181に記憶されて管理される。
ここで、総合認証の根拠となる「判断部103による判断の結果」には、顔関連情報と、コンテクスト関連情報取得部102により複数のタイミングで夫々取得されたコンテクスト関連情報とに基づく判断結果が含まれる。
即ち、認証部104は、総合認証を行うタイミング、及びそれよりも前の1以上のタイミングの夫々で取得されたコンテクスト関連情報の夫々に含まれるユーザUの位置を示す情報に基づく判断結果に基づいて、ユーザUの認証を行う。
【0062】
次に、図9を参照して、図8の機能的構成を有するサーバ1により実行が制御される総合認証処理の流れについて説明する。
図9は、図8の機能的構成を有するサーバにより実行が制御される処理のうち、総合認証処理の流れを示すフローチャートである。
【0063】
図9に示すように、サーバ1において総合認証処理の実行が制御される場合、ステップS1において、サーバ1の判断部103は、顔関連情報取得部101により顔関連情報が取得されたか否かの判定を行う。顔関連情報が取得されている場合、判断部103が「YES」と判定し、処理はステップS2に進む。これに対して、顔関連情報が取得されていない場合、判断部103は、「NO」と判定して、顔関連情報が取得されるまでステップS1の処理を繰り返す。
【0064】
ステップS2において、判断部103は、コンテクスト関連情報取得部102によりコンテクスト関連情報が取得されたか否かの判定を行う。コンテクスト関連情報が取得されている場合、判断部103が「YES」と判定し、処理はステップS3に進む。これに対して、コンテクスト関連情報が取得されていない場合、判断部103は、「NO」と判定して、コンテクスト関連情報が取得されるまでステップS2の処理を繰り返す。
【0065】
ステップS3において、判断部103は、顔関連情報取得部101により取得された顔関連情報と、コンテクスト関連情報取得部102により取得されたコンテクスト関連情報とに基づいて、総合認証のために必要となる総合判断を行う。
【0066】
ステップS4において、認証部104は、ステップS3の判断結果に基づいて、ユーザUの総合認証を行う。総合認証の結果は総合認証端末に出力される。これにより、処理は終了する。
【0067】
以上、本発明の情報処理装置の一実施形態について説明したが、本発明は上述した本実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙に過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。
【0068】
例えば、上述の実施形態では、1人のユーザUが所持するユーザ端末3で管理されているコンテクストデータが取得されて、総合判断及び総合認証に利用されるが、これに限定されない。複数のユーザUの夫々のユーザ端末3に記憶されたコンテクストデータに基づく総合判断及び総合認証を行うこともできる。これにより、例えばユーザU間の関連性(例えば友人関係、恋人関係、同僚等)に基づいた総合判断及び総合認証も可能となる。
【0069】
また例えば、上述の実施形態では、ユーザUがホテルにチェックインする際、自動チェックイン受付装置(外部装置4)がコンテクスト関連情報を記録してサーバ1に送信しているが、これに限定されない。例えば、ホテルのフロントの担当者によるチェックイン処理の操作を受付けた所定の情報処理端末(外部装置4)がコンテクスト関連情報を記録してサーバ1に送信してもよい。
【0070】
また例えば、上述の実施形態では、認証のためにユーザUを撮像するカメラ等の撮像装置は、固定式であることを前提としているが、特に固定式に限定されない。例えばドローン等の小型飛行体にカメラ等の撮像装置を搭載させて、ユーザUを撮像させてもよい。この場合、その撮像画像のデータを重ねていくことで、撮像対象の高低差を認識することができる。その結果、ユーザUの顔認証も可能となる。
【0071】
また例えば、図9に示すフローチャートにおいて、ステップS1とステップS2とは順不同である。即ち、顔関連情報とコンテクスト関連情報が取得されるタイミングはどちらが先であってもよい。
【0072】
また、図6に示すシステム構成、図7に示すハードウェア構成、及び図8に示す機能的構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。
【0073】
換言すると、図8に示す機能的構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が、図6に示す情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図8の例に限定されない。また、機能ブロックの存在場所も、図8に特に限定されず、任意でよい。例えば、サーバ1の機能ブロックを、総合認証装置2、ユーザ端末3、又は外部装置4、あるいは図示せぬ他の情報処理装置等に移譲してもよい。即ち、サーバ1による総合認証処理を総合認証装置2が行えるようにすることもできる。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
【0074】
また例えば、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
【0075】
また例えば、このようなプログラムを含む記録媒体は、利用者にプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態で利用者に提供される記録媒体等で構成される。
【0076】
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図7のリムーバブルメディア40により構成されるだけでなく、装置本体に予め組み込まれた状態で各ユーザに提供される記録媒体等で構成される。リムーバブルメディア40は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図7のROM12や、図7の記憶部18に含まれるハードディスク等で構成される。
【0077】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
【0078】
以上まとめると、本発明が適用される情報処理装置は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される情報処理装置(例えば図8のサーバ1)は、
ユーザ(例えば上述のユーザU)の顔の撮像画像に基づく第1情報(例えば上述の顔関連情報)を取得する第1取得手段(例えば図8の顔関連情報取得部101)と、
当該ユーザの1以上のコンテクストデータに基づく第2情報(例えば上述のコンテクスト関連情報)を取得する第2取得手段(例えば図8のコンテクスト関連情報取得部102)と、
前記第1取得手段により取得された前記第1情報と、前記第2取得手段により取得された前記第2情報とに基づく判断結果(例えば図8の判断部103による判断)に基づいて、前記ユーザの認証(例えば上述の総合認証)を行う認証手段(例えば図8の認証部104)と、
を備える。
【0079】
また、前記第2取得手段は、
前記認証が行われるタイミング(例えば図2のセキュリティゲートで認証が行われるタイミング)、及び当該タイミングよりも前の1以上のタイミング(例えば図2のレストランで精算処理が行われるタイミング)、で前記第2情報を取得し、
前記認証手段は、前記第1取得手段により取得された前記第1情報と、前記第2取得手段により複数のタイミングで夫々取得された前記第2情報とに基づく判断結果(例えば辻褄が合うかどうかについての判断結果)に基づいて、前記ユーザの認証を行うことができる。
【0080】
これにより、認証が行われるタイミングと、それよりも前の1以上のタイミングとの夫々で取得された第2情報に基づく判断がなされ、その判断の結果に基づいてユーザの認証が行われる。
その結果、時間軸が考慮された信憑性の高い認証が実現される。
【0081】
また、前記認証手段は、
前記認証を行うタイミング、及び当該タイミングよりも前の1以上のタイミングの夫々で取得された前記第2情報の夫々に含まれる前記ユーザの位置を示す情報に基づく判断結果に基づいて、前記ユーザの認証を行うことができる。
【0082】
これにより、認証が行われるタイミングと、それよりも前の1以上のタイミングの夫々で取得された第2情報の夫々に含まれるユーザの位置を示す情報に基づいた判断がなされ、その判断の結果に基づいて、ユーザの認証が行われる。
その結果、同じタイミングで同一人物が異なる場所に存在することはないという事実に基づいた、いわゆる生存認証が可能となる。
【0083】
また、前記第2取得手段は、
前記第2情報として、前記コンテクストデータに含まれる、時間、前記ユーザの行動、前記ユーザの特徴、及び前記ユーザの撮像画像の夫々を示すデータうち、少なくとも1のデータを取得することができる。
【0084】
これにより、時間、ユーザの行動、ユーザの特徴、及びユーザの撮像画像の夫々を示すコンテクストデータに基づく認証がなされる。
その結果、より抜け目のない認証を行うことが可能となる。
【0085】
また、前記コンテクストデータに含まれる前記ユーザの行動を示すデータは、
当該ユーザが保有する所定の情報処理端末(例えばユーザ端末3)により管理されているデータとすることができる。
【0086】
これにより、例えばユーザが保有する情報処理端末のMACアドレス等により特定される、ユーザの行動履歴に基づいた認証が可能となる。
【符号の説明】
【0087】
1・・・サーバ、2・・・総合認証装置、3・・・ユーザ端末、4・・・外部装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・入力部、17・・・出力部、18・・・記憶部、19・・・通信部、20・・・ドライブ、40・・・リムーバブルメディア、101・・・顔関連情報取得部、102・・・コンテクスト関連情報取得部、103・・・判断部、104・・・認証部、181・・・ユーザDB、U・・・ユーザ、N・・・ネットワーク
図1
図2
図3
図4
図5
図6
図7
図8
図9