(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023137981
(43)【公開日】2023-09-29
(54)【発明の名称】行動判定装置、行動判定方法、プログラム及び記録媒体
(51)【国際特許分類】
G16H 40/00 20180101AFI20230922BHJP
【FI】
G16H40/00
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022044449
(22)【出願日】2022-03-18
(71)【出願人】
【識別番号】000232092
【氏名又は名称】NECソリューションイノベータ株式会社
(71)【出願人】
【識別番号】522111482
【氏名又は名称】瀧浪 将貴
(74)【代理人】
【識別番号】100115255
【弁理士】
【氏名又は名称】辻丸 光一郎
(74)【代理人】
【識別番号】100201732
【弁理士】
【氏名又は名称】松縄 正登
(74)【代理人】
【識別番号】100154081
【弁理士】
【氏名又は名称】伊佐治 創
(72)【発明者】
【氏名】廣野 孝行
(72)【発明者】
【氏名】近藤 昌紀
(72)【発明者】
【氏名】竹内 拓也
(72)【発明者】
【氏名】瀧浪 将貴
【テーマコード(参考)】
5L099
【Fターム(参考)】
5L099AA03
(57)【要約】
【課題】 X線被ばく量を低減可能な行動判定装置を提供する。
【解決手段】 本発明の行動判定装置は、視線情報取得部、行動判定部、判定結果出力部を含み、
前記視線情報取得部は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定部は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力部は、前記判定結果を出力する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
視線情報取得部、行動判定部、判定結果出力部を含み、
前記視線情報取得部は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定部は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力部は、前記判定結果を出力する、
行動判定装置。
【請求項2】
前記視線情報取得部は、さらに、前記判定対象者と前記判定対象物までの距離情報を取得し、
前記行動判定部は、前記視線方向情報及び前記距離情報を基に、前記判定対象者が判定対象物を見ているか否かを判定する、請求項1に記載の行動判定装置。
【請求項3】
さらに、視線方向判定部を含み、
前記視線方向判定部は、前記判定対象者の顔画像情報に基づき視線方向を判定して前記視線方向情報を生成する、
請求項1又は2記載の行動判定装置。
【請求項4】
さらに、合成画像生成部を含み、
前記合成画像生成部は、前記判定対象者の標識画像を合成画像として生成し、
前記視線情報取得部は、判定対象者画像を取得し、
前記判定結果出力部は、前記行動判定部が、前記判定対象者が前記判定対象物を見ていると判定した場合に、前記標識画像及び前記判定対象者画像を合成して表示する、
請求項1から3のいずれか一項に記載の行動判定装置。
【請求項5】
前記合成画像生成部は、前記視線方向情報に基づき、前記判定対象者毎に視線方向表示画像を生成し、
前記視線情報取得部は、前記判定対象者画像を取得し、
前記判定結果出力部は、前記視線方向表示画像及び前記判定対象者画像を合成して表示する、
請求項1から4のいずれか一項に記載の判定装置。
【請求項6】
前記判定対象物は、ディスプレーである、
請求項1から5のいずれか一項に記載の判定装置。
【請求項7】
前記ディスプレーは、医療機器のディスプレーである、
請求項6記載の判定装置。
【請求項8】
視線情報取得工程、行動判定工程、判定結果出力工程を含み、
前記視線情報取得工程は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定工程は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力工程は、前記判定結果を出力する、
行動判定方法。
【請求項9】
視線情報取得手順、行動判定手順、判定結果出力手順を含み、
前記視線情報取得手順は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定手順は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力手順は、前記判定結果を出力し、
前記各手順が、コンピュータにより実行される、プログラム。
【請求項10】
請求項9記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、行動装置、行動判定方法、プログラム及び記録媒体に関する。
【背景技術】
【0002】
内視鏡的逆行性膵胆管造影術(ERCP:endoscopic retrograde cholangiopancreatography)は、内視鏡とX線診断を併用した医療検査方法である。特許文献1には、ERCP及び超音波内視鏡ガイド下穿刺術(FNA:Fine Needle Aspiration)を1つの内視鏡装置で実施することにより、患者への負担を軽減でき、且つ術者へ煩雑な手技を強いることなく、施術時間を短くでき、さらには病院の導入費用の削減、及び洗浄消毒などの回数を減らすことで衛生管理し易い技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ERCPでは、X線撮影を伴うことから、X線の被ばく量の低減の要請がある。この要請は、ERCPに限らず、他の医療装置及び他の産業装置等においても同様である。
【0005】
そこで、本発明は、X線被ばく量を低減可能な行動判定装置、行動判定方法及びプログラムの提供を目的とする。
【課題を解決するための手段】
【0006】
前記目的を達成するために、本発明の行動判定装置は、
視線情報取得部、行動判定部、判定結果出力部を含み、
前記視線情報取得部は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定部は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力部は、前記判定結果を出力する。
【0007】
本発明の行動判定方法は、
視線情報取得工程、行動判定工程、判定結果出力工程を含み、
前記視線情報取得工程は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定工程は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力工程は、前記判定結果を出力する。
【0008】
本発明のプログラムは、
視線情報取得手順、行動判定手順、判定結果出力手順を含み、
前記視線情報取得手順は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定手順は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力手順は、前記判定結果を出力し、
前記各手順が、コンピュータにより実行される、プログラムである。
【0009】
本発明の記録媒体は、前記本発明のプログラムを記録しているコンピュータ読み取り可能な記録媒体である。
【発明の効果】
【0010】
本発明によれば、前記判定対象者が前記判定対象物を見ているか否かが判定できる。本発明を、例えば、ERCPに適用すれば、術者がX線撮影画像を表示するモニターを見ているか否かを判断することができ、見ている時はX線撮影をオンにし、見ていないときはX線撮影をオフにすることで、X線照射時間を短縮することができ、その結果、X線被ばく量を低減することが可能である。
【図面の簡単な説明】
【0011】
【
図1】
図1は、実施形態1の行動判定装置の一例の構成を示すブロック図である。
【
図2】
図2は、実施形態1の行動判定装置のハードウェア構成の一例を示すブロック図である。
【
図3】
図3は、実施形態1の行動装置における処理の一例を示すフローチャートである。
【
図4】
図4は、実施形態2の行動判定装置の一例の構成を示すブロック図である。
【
図5】
図5は、実施形態2の行動判定装置のハードウェア構成の一例を示すブロック図である。
【
図6】
図6は、実施形態2の行動装置における処理の一例を示すフローチャートである。
【
図7】
図7は、実施形態2の行動判定装置の一例の構成を示すブロック図である。
【
図8】
図8は、実施形態2の行動判定装置のハードウェア構成の一例を示すブロック図である。
【
図9】
図9は、実施形態2の行動装置における処理の一例を示すフローチャートである。
【
図10】
図10は、ERCPに本発明を適用した一例を示す説明図である。
【
図11】
図11は、ERCPに本発明を適用した一例を示す説明図である。
【
図12】
図12は、ERCPに本発明を適用した一例を示す説明図である。
【
図13】
図13は、ERCPに本発明を適用した一例を示す説明図である。
【発明を実施するための形態】
【0012】
本発明の行動判定装置において、例えば、前記視線情報取得部は、さらに、前記判定対象者と前記判定対象物までの距離情報を取得し、
前記行動判定部は、前記視線方向情報及び前記距離情報を基に、前記判定対象者が判定対象物を見ているか否かを判定する、という態様であってもよい。
【0013】
本発明の行動判定装置は、例えば、さらに、視線方向判定部を含み、
前記視線方向判定部は、前記判定対象者の顔画像情報に基づき視線方向を判定して前記視線方向情報を生成する、という態様であってもよい。
【0014】
本発明の行動判定装置は、例えば、
さらに、合成画像生成部を含み、
前記合成画像生成部は、前記判定対象者の標識画像を合成画像として生成し、
前記視線情報取得部は、判定対象者画像を取得し、
前記判定結果出力部は、前記行動判定部が、前記判定対象者が前記判定対象物を見ていると判定した場合に、前記標識画像及び前記判定対象者画像を合成して表示する、という態様であってもよい。
【0015】
本発明の行動判定装置において、例えば、前記合成画像生成部は、前記視線方向情報に基づき、前記判定対象者毎に視線方向表示画像を生成し、
前記視線情報取得部は、前記判定対象者画像を取得し、
前記判定結果出力部は、前記視線方向表示画像及び前記判定対象者画像を合成して表示する、という態様であってもよい。
【0016】
本発明の行動判定装置において、例えば、前記判定対象物は、ディスプレーであり、より具体的には、医療機器のディスプレーである、という態様であってもよい。
【0017】
本発明の行動判定方法において、例えば、前記視線情報取得工程は、さらに、前記判定対象者と前記判定対象物までの距離情報を取得し、
前記行動判定工程は、前記視線方向情報及び前記距離情報を基に、前記判定対象者が判定対象物を見ているか否かを判定する、という態様であってもよい。
【0018】
本発明の行動判定方法は、例えば、さらに、視線方向判定工程を含み、
前記視線方向判定工程は、前記判定対象者の顔画像情報に基づき視線方向を判定して前記視線方向情報を生成する、という態様であってもよい。
【0019】
本発明の行動判定方法は、例えば、
さらに、合成画像生成工程を含み、
前記合成画像生成工程は、前記判定対象者の標識画像を合成画像として生成し、
前記視線情報取得工程は、判定対象者画像を取得し、
前記判定結果出力工程は、前記行動判定工程が、前記判定対象者が前記判定対象物を見ていると判定した場合に、前記標識画像及び前記判定対象者画像を合成して表示する、という態様であってもよい。
【0020】
本発明の行動判定方法において、例えば、前記合成画像生成工程は、前記視線方向情報に基づき、前記判定対象者毎に視線方向表示画像を生成し、
前記視線情報取得工程は、前記判定対象者画像を取得し、
前記判定結果出力工程は、前記視線方向表示画像及び前記判定対象者画像を合成して表示する、という態様であってもよい。
【0021】
本発明の行動判定方法において、例えば、前記判定対象物は、ディスプレーであり、より具体的には、医療機器のディスプレーである、という態様であってもよい。
【0022】
本発明のプログラムにおいて、例えば、前記視線情報取得手順は、さらに、前記判定対象者と前記判定対象物までの距離情報を取得し、
前記行動判定手順は、前記視線方向情報及び前記距離情報を基に、前記判定対象者が判定対象物を見ているか否かを判定する、という態様であってもよい。
【0023】
本発明のプログラムは、例えば、さらに、視線方向判定手順を含み、
前記視線方向判定手順は、前記判定対象者の顔画像情報に基づき視線方向を判定して前記視線方向情報を生成する、という態様であってもよい。
【0024】
本発明のプログラムは、例えば、
さらに、合成画像生成手順を含み、
前記合成画像生成手順は、前記判定対象者の標識画像を合成画像として生成し、
前記視線情報取得手順は、判定対象者画像を取得し、
前記判定結果出力手順は、前記行動判定手順が、前記判定対象者が前記判定対象物を見ていると判定した場合に、前記標識画像及び前記判定対象者画像を合成して表示する、という態様であってもよい。
【0025】
本発明のプログラムにおいて、例えば、前記合成画像生成手順は、前記視線方向情報に基づき、前記判定対象者毎に視線方向表示画像を生成し、
前記視線情報取得手順は、前記判定対象者画像を取得し、
前記判定結果出力手順は、前記視線方向表示画像及び前記判定対象者画像を合成して表示する、という態様であってもよい。
【0026】
本発明のプログラムにおいて、例えば、前記判定対象物は、ディスプレーであり、より具体的には、医療機器のディスプレーである、という態様であってもよい。
【0027】
次に、本発明の実施形態について図を用いて説明する。本発明は、以下の実施形態には限定されない。以下の各図において、同一部分には、同一符号を付している。また、各実施形態の説明は、特に言及がない限り、互いの説明を援用でき、各実施形態の構成は、特に言及がない限り、組合せ可能である。
【0028】
[実施形態1]
図1は、本実施形態の行動判定装置10Aの一例の構成を示すブロック図である。
図1に示すように、本装置10Aは、視線情報取得部11、行動判定部12、判定結果出力部13を含む。また、本装置10Aは、図示していないが、記憶部を含んでもよい。
【0029】
本装置10Aは、例えば、前記各部を含む1つの装置でもよいし、前記各部が、通信回線網を介して接続可能な装置でもよい。また、本装置10Aは、前記通信回線網を介して、後述する外部装置と接続可能である。前記通信回線網は、特に制限されず、公知のネットワークを使用でき、例えば、有線でも無線でもよい。前記通信回線網は、例えば、インターネット回線、WWW(World Wide Web)、電話回線、LAN(Local Area Network)、SAN(Storage Area Network)、DTN(Delay Tolerant Networking)、LPWA(Low Power Wide Area)、L5G(ローカル5G)、等があげられる。無線通信としては、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、ローカル5G、LPWA等が挙げられる。前記無線通信としては、各装置が直接通信する形態(Ad Hoc通信)、インフラストラクチャ(infrastructure通信)、アクセスポイントを介した間接通信等であってもよい。本装置10は、例えば、システムとしてサーバに組み込まれていてもよい。また、本装置10Aは、例えば、本発明のプログラムがインストールされたパーソナルコンピュータ(PC、例えば、デスクトップ型、ノート型)、スマートフォン、タブレット端末等であってもよい。本装置10Aは、例えば、前記各部のうち少なくとも一つがサーバ上にあり、その他の前記各部が端末上にあるような、クラウドコンピューティングやエッジコンピューティング等の形態であってもよい。
【0030】
図2に、本装置10Aのハードウェア構成のブロック図を例示する。本装置10Aは、例えば、中央処理装置(CPU、GPU等)101、メモリ102、バス103、記憶装置104、入力装置105、出力装置106、通信デバイス107等を含む。本装置10Aの各部は、それぞれのインタフェース(I/F)により、バス103を介して相互に接続されている。
【0031】
中央処理装置101は、コントローラ(システムコントローラ、I/Oコントローラ等)等により、他の構成と連携動作し、本装置10Aの全体の制御を担う。本装置10Aにおいて、中央処理装置101により、例えば、本発明のプログラムやその他のプログラムが実行され、また、各種情報の読み込みや書き込みが行われる。具体的には、例えば、中央処理装置101が、視線情報取得部11、行動判定部12、及び判定結果出力部13として機能する。本装置10Aは、演算装置として、CPU、GPU(Graphics Processing Unit)、APU(Accelerated Processing Unit)等の他の演算装置を備えてもよいし、これらの組合せを備えてもよい。
【0032】
バス103は、例えば、外部装置とも接続できる。前記外部装置は、例えば、外部記憶装置(外部データベース等)、プリンタ、外部入力装置、外部表示装置、外部撮像装置等があげられる。本装置10は、例えば、バス103に接続された通信デバイス107により、外部ネットワーク(前記通信回線網)に接続でき、外部ネットワークを介して、他の装置と接続することもできる。
【0033】
メモリ102は、例えば、メインメモリ(主記憶装置)が挙げられる。中央処理装置101が処理を行う際には、例えば、後述する記憶装置104に記憶されている本発明のプログラム等の種々の動作プログラムを、メモリ102が読み込み、中央処理装置101は、メモリ102からデータを受け取って、プログラムを実行する。前記メインメモリは、例えば、RAM(ランダムアクセスメモリ)である。また、メモリ102は、例えば、ROM(読み出し専用メモリ)であってもよい。
【0034】
記憶装置104は、例えば、前記メインメモリ(主記憶装置)に対して、いわゆる補助記憶装置ともいう。前述のように、記憶装置104には、本発明のプログラムを含む動作プログラムが格納されている。記憶装置104は、例えば、記録媒体と、記録媒体に読み書きするドライブとの組合せであってもよい。前記記録媒体は、特に制限されず、例えば、内蔵型でも外付け型でもよく、HD(ハードディスク)、CD-ROM、CD-R、CD-RW、MO、DVD、フラッシュメモリー、メモリーカード等が挙げられる。記憶装置104は、例えば、記録媒体とドライブとが一体化されたハードディスクドライブ(HDD)、及びソリッドステートドライブ(SSD)であってもよい。本装置10Aが前記記憶部を含む場合、例えば、記憶装置104は、前記記憶部として機能する。前記記憶部は、例えば、取得した前記視線情報、前記判定結果等を記憶できる。
【0035】
本装置10Aにおいて、メモリ102及び記憶装置104は、ログ情報、外部データベース(図示せず)や外部の装置から取得した情報、本装置10Aによって生成した情報、本装置10Aが処理を実行する際に用いる情報等の種々の情報を記憶することも可能である。この場合、メモリ102及び記憶装置104は、例えば、前記判定対象者の情報(例えば、視線情報、識別情報)等、前記判定対象物の情報(装置識別番号、装置種類等)を記憶していてもよい。なお、少なくとも一部の情報は、例えば、メモリ102及び記憶装置104以外の外部サーバに記憶されていてもよいし、複数の端末にブロックチェーン技術等を用いて分散して記憶されていてもよい。
【0036】
本装置10Aは、例えば、さらに、入力装置105、出力装置10を備える。入力装置105は、例えば、タッチパネル、トラックパッド、マウス等のポインティングデバイス;キーボード;カメラ、スキャナ等の撮像手段;ICカードリーダ、磁気カードリーダ等のカードリーダ;マイク等の音声入力手段;等があげられる。出力装置106は、例えば、LEDディスプレー、液晶ディスプレー等の表示装置;スピーカ等の音声出力装置;プリンタ;等があげられる。本実施形態1において、入力装置105と出力装置106とは、別個に構成されているが、入力装置105と出力装置106とは、タッチパネルディスプレーのように、一体として構成されてもよい。
【0037】
つぎに、本実施形態の行動判定方法の一例を、
図3のフローチャートS10Aに基づき説明する。本実施形態の行動判定方法は、例えば、
図1又は
図2の行動判定装置10Aを用いて、次のように実施する。なお、本実施形態の行動判定方法は、
図1又は
図2の装置10Aの使用には限定されない。
【0038】
まず、視線情報取得部11により、視線方向情報を含む視線情報を取得する(S11A、視線情報取得工程)。前記視線方向情報は、例えば、顔画像から視線方向を判定する視線方向判定装置を用いて得ることができる。例えば、カメラ等により判定対象者の顔画像を撮像し、顔画像の特性から視線方向が判定される。このような視線判定装置は、市販品又はライセンス供与されている。視線情報取得部11は、通信回線網を介して、視線方向判定装置が判定した視線方向情報を取得してもよい。本発明において、判定対象者は一名であってもよいし複数名であってもよい。本発明において、判定対象物は、一つでもよいし、複数でもよい。また、視線情報取得部11は、例えば、前記判定対象者と前記判定対象物までの距離情報を取得してもよい。前記距離情報は、例えば、対象物間の距離を測定する距離センサ等を用いて得ることができる。例えば、前記距離センサ等により判定対象物から判定対象者までの距離を測定し、視線情報取得部11は、例えば、通信回線網を介して、測定した前記距離情報を取得してもよい。前記判定対象物は、特に制限されず、例えば、ディスプレー等の表示装置があげられ、具体例としては、医療機器のディスプレーが挙げられる。前記医療機器は、例えば、X線撮像に関連する機器であることが好ましく、ERCPに用いる医療機器のディスプレーであることがさらに好ましい。
【0039】
次に、行動判定部12により、前記視線方向情報を基にして前記判定対象者が前記判定対象物を見ているか否かを判定する(S12A、行動判定工程)。行動判定部12は、例えば、前記視線方向情報により、前記判定対象者の前記視線方向に前記判定対象物が存在する場合は、「見ている」と判定する。また、行動判定部12は、例えば、前記判定対象者の前記視線方向に前記判定対象物が存在しない場合は、「見ていない」と判定する。なお、行動判定部12による処理はこれには限定されず、行動判定部12は、例えば、前記視線方向情報及び前記距離情報を基に、前記判定対象者が判定対象物を見ているか否かを判定してもよい。具体的に、行動判定部12は、例えば、前記視線方向情報及び前記距離情報に基づいて、前記判定対象者が見ている空間の座標を算出し、前記空間座標に前記判定対象物が存在する場合、「見ている」と判定できる。また、この場合、行動判定部12は、例えば、前記空間座標に前記判定対象物が存在しない場合は、「見ていない」と判定できる。また、行動判定部12は、例えば、さらに、前記判定対象者と前記判定対象物までの距離情報が閾値以内の判定対象者についてのみ、判定対象物を見ているか否かを判定してもよい。前記閾値は、特に制限されず、任意に設定できる。これにより、例えば、ERCPを実施している医師が、医療機器のディスプレーを見ているか否かを判定でき、また、医師でない者(例えば、看護師)が、ディスプレーを見ているか否かを判定してしまうことを抑制できる。
【0040】
行動判定部12は、例えば、前記視線方向情報により、前記判定対象者の前記視線方向に判定対象物が存在する状態が一定時間以上続いた場合に、「見ている」と判定してもよい。また、行動判定部12は、例えば、前記判定対象者の前記視線方向に判定対象物が存在する状態が一定時間以上続いた後、前記視線方向にある判定対象物が存在しない状態が一定時間続いた場合に、「見ていない」と判定してもよい。また、行動判定部12は、例えば、さらに、前記視線方向にある判定対象物が存在しない状態が一定時間続いた場合、かつ、前記一定時間が経過する前に、前記判定対象者の視線方向に判定対象物が存在する状態を検知した場合、前記「見ていない」と判定する一定時間のカウントをリセットしてもよい。このような態様によれば、例えば、いわゆる「チラ見」による誤判定を抑制することができる。
【0041】
そして、判定結果出力部13は、「見ている」又は「見ていない」という判定結果を出力する(S13A、判定結果出力工程)。出力は、例えば、画像出力でもよいし(例えば、ディスプレーに判定結果を表示)、音声出力(例えば、「見ている」時にスピーカで音を発声)、制御信号出力(判定対象物の制御、例えば、判定対象装置のオンオフ、モニターのオンオフ等)等がある。ERCP等のX線を使用する装置の場合、前記判定結果の出力により、X線撮影のオンオフを制御(自動又は手動)してもよい。
【0042】
[実施形態2]
本実施形態の装置10Bのブロック図を
図4に示し、本実施形態の装置10Bのハードウェアの構成図を
図5に示す。
図4及び
図5に示すように、本装置10Bでは、視線方向判定部14を含み、実施形態1で説明した前記視線方向判定部装置の機能を備える。これ以外は、本実施形態は、実施形態1と同様である。
【0043】
つぎに、本実施形態の行動判定方法の一例を、
図6のフローチャートS10Bに基づき説明する。本実施形態の行動判定方法は、例えば、
図4又は
図5の行動判定装置10Bを用いて、次のように実施する。なお、本実施形態の行動判定方法は、
図4又は
図5の装置10Bの使用には限定されない。
【0044】
まず、視線方向判定部14により、カメラ等で撮影された判定対象者の顔画像から視線方向を判定し、視線方向情報を生成する(S11B、視線方向判定工程)。これ以降の処理は、実施形態1と同様である。
【0045】
[実施形態3]
本実施形態の装置10Cのブロック図を
図7に示し、本実施形態の装置10Cのハードウェアの構成図を
図8に示す。
図7及び
図8に示すように、本装置10Cでは、合成画像生成部15を含み、画像合成部15は、前記判定対象者の標識画像を合成画像として生成し、視線情報取得部11は、判定対象者画像を取得し、判定結果出力部13は、行動判定部12が、前記判定対象者が前記判定対象物を見ていると判定した場合に、前記標識画像及び前記判定対象者画像を合成して表示する。これ以外は、本実施形態は、実施形態1と同様である。
【0046】
つぎに、本実施形態の行動判定方法の一例を、
図9のフローチャートS10Cに基づき説明する。本実施形態の行動判定方法は、例えば、
図7又は
図8の行動判定装置10Cを用いて、次のように実施する。なお、本実施形態の行動判定方法は、
図7又は
図8の行動判定装置10Cの使用には限定されない。
【0047】
まず、視線情報取得部11により、判定対象者画像を取得する(S11C、視線情報取得工程)。前記判定対象者画像は、例えば、前記判定対象者が撮像された画像であり、前述の判定対象者の顔画像でもよい。視線情報取得部11は、例えば、通信回線網を介して、カメラ等の撮像装置により判定対象者を撮像した判定対象者画像を取得してもよい。また、視線情報取得部11は、前記実施形態1と同様に、前記視線情報も取得する。
【0048】
つぎに、合成画像生成部15により、前記判定対象者の標識画像を合成画像として生成する(S11C、合成画像生成工程)。前記合成画像は、例えば、後述する判定対象者画像に含まれる判定対象者を区別するための情報であり、例えば、判定対象者を囲うための枠線の画像等があげられる。前記標識画像は、例えば、一種類でもよいし、二種類以上の複数でもよい。また、合成画像生成部15は、例えば、前記視線方向情報に基づき、前記判定対象者毎に視線方向表示画像を生成してもよい。前記視線方向表示画像は、例えば、前記判定対象者の視線を視覚化した画像であり、例えば、判定対象者の目と判定対象物を結ぶ線(例えば、「目線ビーム」ともいう)等があげられる。
【0049】
つぎに、行動判定部12により、前記実施形態1のS12Aと同様にして行動判定工程を実施する。
【0050】
そして、判定結果出力部13は、行動判定部12により、前記判定対象者が前記判定対象物を見ていると判定した場合に、前記標識画像及び前記判定対象者画像を合成して表示する。具体的に、判定結果出力部13は、例えば、前記判定対象者画像において、前記判定対象物を見ていると判定された前記判定対象者を前記標識画像(枠線画像)で囲った合成画像を生成し、表示できる。前記標識画像の合成位置は、特に制限されず、判定結果出力部13は、例えば、顔認識技術により前記判定対象者画像に含まれる判定対象者の顔画像を認識し、前記顔画像の位置に前記標識画像を合成してもよいし、判定対象者の全身を囲うように前記標識画像を合成してもよい。なお、前記標識画像が二種類以上の複数ある場合、例えば、前記判定対象物を見ていると判定された前記判定対象者と、前記判定対象物を見ていないと判定された前記判定対象者とについて、異なる種類の標識画像を合成して表示してもよい。具体的には、前記見ていると判定された判定対象者を赤枠線で囲い、前記見ていないと判定された判定対象者を白枠線で囲う処理があげられる。また、前記視線方向表示画像が生成されている場合、判定結果出力部13は、例えば、前記判定対象者画像に前記視線方向表示画像を合成して表示してもよい。
【0051】
本実施形態の装置10Cによれば、例えば、判定対象物を見ていると判定された判定対象者について、前記標識画像を合成して表示することができるため、より容易に前記判定対象者が前記判定対象物を見ているか否かを判断できる。
【0052】
[実施形態4]
つぎに、実施形態1の装置10A、実施形態2の装置10B、又は実施形態3の装置10C(各装置をまとめて装置10という。)をERCPに適用した例を、
図10から
図13に示す。本実施形態では、装置10をERCPに適用した例であるため、前記判定対象物は、例えば、医療機器のディスプレーである。
【0053】
図10に、検査室モニターM1~M4、撮像装置(カメラ)C1、本装置10、及び判定結果表示装置(ディスプレー)D1の関係図を示す。4個の検査室モニターM1~M4は、上下左右に二個となるように配置されている。モニターM1は、カルテ画面表示モニターであり、モニターM2は、内視鏡画像表示モニターであり、モニターM3は、録画したレントゲン表示モニターであり、モニターM4は、リアルタイムのレントゲン表示モニターである。前記「録画したレントゲン表示モニター」とは、例えば、本装置10外部のレントゲン装置が撮像したレントゲン画像をキャプチャ(録画)した画像を表示しているモニターである。本実施形態において、装置10により判定対象者が見ているか否かを判定する判定対象「★」は、モニターM4である。4個のモニターM1~M4の中央にカメラC1が配置されている。カメラC1は、本装置10と接続している。本装置10は、ディスプレーD1と接続している。
【0054】
図11及び
図12に、モニターM4を見ているか否かの判定の様子を示す。両図に示すように、判定範囲内にいる人物(2名)の視線方向を推定し、右下モニターM4を見ているかをリアルタイムで判定しており、見ている場合は、ディスプレーD1に「利用中」の文字が表示され(
図11)、見ていない場合は、ディスプレーD1に「利用者なし」の文字が表示される(
図12)。なお、図示していないが、見ている場合は、スピーカから信号音を発生し、見ていない場合は、信号音を発生しない(又はその逆)でもよいし、見ている場合の信号音と見ていない場合とで異なる信号音を発生してもよい。
【0055】
図13では、モニターM4に判定状態を表示している。同図において、判定対象者は、四角枠で顔が囲まれて表示されており、四角枠が、本発明の判定対象者の標識画像である。また、同図において、判定対象者の視線方向を示すラインが示されており、ラインが本発明の視線方向表示画像である。なお、
図13では、モニターM4に判定状態を表示しているが、本発明はこれに限定されず、例えば、
図10~12のディスプレーD1に表示してもよい。
【0056】
[実施形態5]
さらに、本発明において、下記のような態様であってもよい。
【0057】
本発明において、いわゆる「チラ見」を排除するために、例えば、一定時間未満のモニターを見ている場合は、見ていると判定せず、一定時間以上モニターを見ている時に、見ていると判定してもよい。これにより、例えば、別の物を見ている判定対象者が、判定対象物を「チラ見」した場合に、「見ている」と誤判定することを抑制できる。さらに、例えば、一定時間以上モニターを見ていると判定した場合、例えば、視線が外れてから一定時間経過した後に「見ていない」と判定してもよい。この場合、例えば、さらに、視線が外れてから「見ていない」と判定する一定時間の間に、判定対象者が判定対象物に視線を向けた場合、前記「見ていない」と判定する一定時間のカウントをリセットしてもよい。これにより、例えば、判定対象者が判定対象のモニターとは別の物を「チラ見」した場合に「見ていない」と誤判定することを抑制できる。また、一定時間以上のモニター注視を検知した場合は、モニター外周に赤枠線・利用中を表す文言表示、およびスピーカからアラーム音を出力し、視線がモニターから外れたら表示と音出力を止めてもよい。
【0058】
さらに、本発明において、カメラが撮像した画像において、カメラから一定距離の範囲(判定範囲)に居るヒトを判定対象者とし、判定範囲外の人は判定対象者としない、としてもよい。なお、カメラからの距離は、カメラで撮像された画像において、ヒトの両目の間隔から推定してもよい。
【0059】
さらに、本発明において、カメラで撮像された画像において、複数フレームにまたがって検出された人が同一人物かどうかを判定してもよい(トラッキング)。
【0060】
さらに、本発明において、カメラが撮像した画像において、複数フレームの視線情報を平均化し(例えば、視線角度の平均化)、突発的な誤検知を抑止してもよい。
【0061】
[実施形態6]
本実施形態のプログラムは、前述の行動判定方法の各工程を、コンピュータに実行させるためのプログラムである。具体的に、本実施形態のプログラムは、コンピュータに、視線情報取得手順、行動判定手順、及び判定結果出力手順を実行させるためのプログラムである。
【0062】
前記視線情報取得手順は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定手順は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力手順は、前記判定結果を出力する。
【0063】
また、本実施形態のプログラムは、コンピュータを、視線情報取得手順、行動判定手順、及び判定結果出力手順として機能させるプログラムということもできる。
【0064】
本実施形態のプログラムは、前記本発明の行動判定装置および行動判定方法における記載を援用できる。前記各手順は、例えば、「手順」を「処理」と読み替え可能である。また、本実施形態のプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録されてもよい。前記記録媒体は、例えば、非一時的なコンピュータ可読記録媒体(non-transitory computer-readable storage medium)である。前記記録媒体は、特に制限されず、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。
【0065】
以上、実施形態を参照して本発明を説明したが、本発明は、上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をできる。
【0066】
<付記>
上記の実施形態の一部または全部は、以下の付記のように記載されうるが、以下には限られない。
(付記1)
視線情報取得部、行動判定部、判定結果出力部を含み、
前記視線情報取得部は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定部は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力部は、前記判定結果を出力する、
行動判定装置。
(付記2)
前記視線情報取得部は、さらに、前記判定対象者と前記判定対象物までの距離情報を取得し、
前記行動判定部は、前記視線方向情報及び前記距離情報を基に、前記判定対象者が判定対象物を見ているか否かを判定する、付記1に記載の行動判定装置。
(付記3)
さらに、視線方向判定部を含み、
前記視線方向判定部は、前記判定対象者の顔画像情報に基づき視線方向を判定して前記視線方向情報を生成する、
付記1又は2記載の行動判定装置。
(付記4)
さらに、合成画像生成部を含み、
前記合成画像生成部は、前記判定対象者の標識画像を合成画像として生成し、
前記視線情報取得部は、判定対象者画像を取得し、
前記判定結果出力部は、前記行動判定部が、前記判定対象者が前記判定対象物を見ていると判定した場合に、前記標識画像及び前記判定対象者画像を合成して表示する、
付記1から3のいずれかに記載の行動判定装置。
(付記5)
前記合成画像生成部は、前記視線方向情報に基づき、前記判定対象者毎に視線方向表示画像を生成し、
前記視線情報取得部は、前記判定対象者画像を取得し、
前記判定結果出力部は、前記視線方向表示画像及び前記判定対象者画像を合成して表示する、
付記1から4のいずれかに記載の判定装置。
(付記6)
前記判定対象物は、ディスプレーである、
付記1から5のいずれかに記載の判定装置。
(付記7)
前記ディスプレーは、医療機器のディスプレーである、
付記6記載の判定装置。
(付記8)
視線情報取得工程、行動判定工程、判定結果出力工程を含み、
前記視線情報取得工程は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定工程は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力工程は、前記判定結果を出力する、
行動判定方法。
(付記9)
前記視線情報取得工程は、さらに、前記判定対象者と前記判定対象物までの距離情報を取得し、
前記行動判定工程は、前記視線方向情報及び前記距離情報を基に、前記判定対象者が判定対象物を見ているか否かを判定する、付記8に記載の行動判定方法。
(付記10)
さらに、視線方向判定工程を含み、
前記視線情報判定部は、前記判定対象者の顔画像情報に基づき視線方向を判定して前記視線方向情報を生成する、
付記8又は9記載の行動判定方法。
(付記11)
さらに、合成画像生成工程を含み、
前記合成画像生成工程は、前記判定対象者の標識画像を合成画像として生成し、
前記視線情報取得工程は、前記判定対象者画像を取得し、
前記判定結果出力工程は、前記行動判定工程が、前記判定対象者が前記判定対象物を見ていると判定した場合に、前記標識画像及び前記判定対象者画像を合成して表示する、
付記10記載の行動判定方法。
(付記12)
前記合成画像生成工程は、前記視線方向情報に基づき、前記判定対象者毎に視線方向表示画像を生成し、
前記視線情報取得工程は、前記判定対象者画像を取得し、
前記判定結果出力工程は、前記視線方向表示画像及び前記判定対象者画像を合成して表示する、
付記10又は11記載の行動判定方法。
(付記13)
前記判定対象物は、ディスプレーである、
付記8から12のいずれかに記載の行動判定方法。
(付記14)
前記ディスプレーは、医療機器のディスプレーである、
付記13記載の行動判定方法。
(付記15)
視線情報取得手順、行動判定手順、判定結果出力手順を含み、
前記視線情報取得手順は、判定対象者の視線方向情報を含む視線情報を取得し、
前記行動判定手順は、前記視線方向情報を基に、前記判定対象者が判定対象物を見ているか否かを判定し、
前記判定結果出力手順は、前記判定結果を出力し、
前記各手順が、コンピュータにより実行される、プログラム。
(付記16)
前記視線情報取得手順は、さらに、前記判定対象者と前記判定対象物までの距離情報を取得し、
前記行動判定手順は、前記視線方向情報及び前記距離情報を基に、前記判定対象者が判定対象物を見ているか否かを判定する、付記15に記載のプログラム。
(付記17)
さらに、視線方向判定手順を含み、
前記視線情報判定部は、前記判定対象者の顔画像情報に基づき視線方向を判定して前記視線方向情報を生成する、
付記15又は16記載のプログラム。
(付記18)
さらに、合成画像生成手順を含み、
前記合成画像生成手順は、前記判定対象者の標識画像を合成画像として生成し、
前記視線情報取得手順は、前記判定対象者画像を取得し、
前記判定結果出力手順は、前記行動判定手順が、前記判定対象者が前記判定対象物を見ていると判定した場合に、前記標識画像及び前記判定対象者画像を合成して表示する、
付記15から17のいずれかに記載のプログラム。
(付記19)
前記合成画像生成手順は、前記視線方向情報に基づき、前記判定対象者毎に視線方向表示画像を生成し、
前記視線情報取得手順は、前記判定対象者画像を取得し、
前記判定結果出力手順は、前記視線方向表示画像及び前記判定対象者画像を合成して表示する、
付記15から18のいずれかに記載のプログラム。
(付記20)
前記判定対象物は、ディスプレーである、
付記15から19のいずれかに記載のプログラム。
(付記21)
前記ディスプレーは、医療機器のディスプレーである、
付記20記載のプログラム。
(付記22)
付記15から21のいずれかに記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。
【産業上の利用可能性】
【0067】
本発明によれば、対象者が対象物を見ているか否かを判定でき、ERCP等のモニターを有する装置等の様々な分野において広く有用である。
【符号の説明】
【0068】
10(10A、10B、10C) 行動判定装置
11 視線情報取得部
12 行動判定部
13 判定結果出力部
14 視線方向判定部
15 合成画像生成部
101 中央処理装置
102 メモリ
103 バス
104 記憶装置
105 入力装置
106 出力装置
107 通信デバイス