(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-04-27
(45)【発行日】2022-05-11
(54)【発明の名称】情報処理装置、情報処理方法およびプログラム
(51)【国際特許分類】
G06F 3/16 20060101AFI20220428BHJP
G02B 21/36 20060101ALI20220428BHJP
G02B 23/24 20060101ALI20220428BHJP
G06F 3/0487 20130101ALI20220428BHJP
G06F 3/01 20060101ALI20220428BHJP
G10L 15/10 20060101ALI20220428BHJP
G10L 15/04 20130101ALI20220428BHJP
G01N 21/17 20060101ALI20220428BHJP
【FI】
G06F3/16 610
G02B21/36
G02B23/24 B
G06F3/0487
G06F3/01 510
G06F3/16 650
G06F3/16 620
G10L15/10 500Z
G10L15/04 300Z
G01N21/17 A
(21)【出願番号】P 2018095449
(22)【出願日】2018-05-17
【審査請求日】2021-05-14
(73)【特許権者】
【識別番号】000000376
【氏名又は名称】オリンパス株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】特許業務法人酒井国際特許事務所
(72)【発明者】
【氏名】堀内 一仁
(72)【発明者】
【氏名】渡辺 伸之
(72)【発明者】
【氏名】金子 善興
(72)【発明者】
【氏名】西村 英敏
【審査官】菅原 浩二
(56)【参考文献】
【文献】特開2017-016198(JP,A)
【文献】米国特許出願公開第2018/0129303(US,A1)
【文献】特開2018-028562(JP,A)
【文献】特開2016-181245(JP,A)
【文献】特開2015-056141(JP,A)
【文献】特開2009-086750(JP,A)
【文献】特開平08-083093(JP,A)
【文献】特開2011-102731(JP,A)
【文献】特開2018-057799(JP,A)
【文献】特開2018-41183(JP,A)
【文献】特開2017-16198(JP,A)
【文献】特開2017-134577(JP,A)
【文献】国際公開第2017/122400(WO,A1)
【文献】特開2014-14489(JP,A)
【文献】特開2009-142388(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/16
G02B 21/36
G02B 23/24
G06F 3/0487
G06F 3/01
G10L 15/10
G10L 15/04
G01N 21/17
(57)【特許請求の範囲】
【請求項1】
外部から入力される利用者の音声データに対して、音声重要度が高いキーワードが発声された発声期間を重要期間として設定する設定部と、
外部から入力される前記利用者の視線データであって、前記音声データと同じ時間軸が対応付けられた視線データに対して、前記設定部が設定した前記重要期間に応じた対応視線期間を割り当てて記録部へ記録する解析部と、
を備える情報処理装置。
【請求項2】
前記設定部は、
外部から入力されるキーワードと指数とが対応付けられた重要単語情報に基づいて、前記重要期間を設定する
請求項1に記載の情報処理装置。
【請求項3】
前記設定部は、
予め登録された複数のキーワードの各々と指数とが対応付けられた重要単語情報に基づいて、前記重要期間を設定する
請求項1に記載の情報処理装置。
【請求項4】
前記解析部は、
前記視線データに基づいて、前記利用者の視線の注視度を解析した注視期間を抽出し、かつ、該注視期間と前記重要期間とに基づいて、前記音声データの前記重要期間に前後する前記視線データの前記注視期間に対して前記対応視線期間を割り当てる
請求項1~3のいずれか一つに記載の情報処理装置。
【請求項5】
前記解析部は、
前記視線の移動速度、一定の時間内における前記視線の移動距離、一定領域内における前記視線の滞留時間のいずれか1つを検出することによって、前記注視度を解析する
請求項4に記載の情報処理装置。
【請求項6】
前記音声データを文字情報に変換する変換部をさらに備え、前記キーワードは文字情報の形態であり、
前記設定部は、前記文字情報と前記キーワードに基づいて、前記重要期間を設定する
請求項1~5のいずれか一つに記載の情報処理装置。
【請求項7】
外部から入力される画像データに対応する画像上に前記解析部が解析した前記対応視線期間および該対応視線期間の座標情報を関連付けた視線マッピングデータを生成する生成部をさらに備える
請求項6に記載の情報処理装置。
【請求項8】
前記解析部は、前記視線データに基づいて、前記利用者の視線の軌跡をさらに解析し、
前記生成部は、前記解析部が解析した前記軌跡を前記画像上にさらに関連付けて前記視線マッピングデータを生成する
請求項7に記載の情報処理装置。
【請求項9】
前記視線マッピングデータに対応する視線マッピング画像を表示部に表示させる表示制御部をさらに備え、
前記表示制御部は、前記対応視線期間に対応する前記視線マッピングデータの少なくとも一部の領域を前記表示部に強調表示させる
請求項7に記載の情報処理装置。
【請求項10】
前記生成部は、前記座標情報に前記文字情報をさらに関連付けて前記視線マッピングデータを生成する
請求項7~9のいずれか一つに記載の情報処理装置。
【請求項11】
外部から入力された操作信号に応じて指定されたキーワードを前記変換部によって変換された前記文字情報から抽出する抽出部と、
前記視線マッピングデータに対応する視線マッピング画像を表示部に表示させる表示制御部と、
をさらに備え、
前記表示制御部は、前記抽出部によって抽出された前記文字情報に関連付けられた前記視線マッピングデータの少なくとも一部の領域を前記表示部に強調表示させ、かつ、前記文字情報を前記表示部に表示させる
請求項7に記載の情報処理装置。
【請求項12】
前記利用者の視線を連続的に検出することによって前記視線データを生成する視線検出部と、
前記利用者の音声の入力を受け付けて前記音声データを生成する音声入力部と、
をさらに備える
請求項1~6のいずれか一つに記載の情報処理装置。
【請求項13】
複数の利用者の各々を識別する識別情報を検出する検出部をさらに備え、
前記解析部は、前記複数の利用者の各々の視線を検出した複数の前記視線データに基づいて、前記複数の利用者の各々の前記注視度を解析し、かつ、該注視度と前記識別情報とに基づいて、前記複数の利用者の各々の前記視線データに前記対応視線期間を割り当てる
請求項4に記載の情報処理装置。
【請求項14】
標本を観察する観察倍率を変更可能であり、前記利用者が前記標本の観察像を観察可能な接眼部を有する顕微鏡と、
前記顕微鏡に接続され、前記顕微鏡が結像した前記標本の観察像を撮像することによって画像データを生成する撮像部と、
をさらに備え、
前記視線検出部は、前記顕微鏡の接眼部に設けられ、
前記解析部は、前記観察倍率に応じて前記対応視線期間の重み付けを行う
請求項12に記載の情報処理装置。
【請求項15】
被検体に挿入可能な挿入部の先端部に設けられ、被検体内の体内を撮像することによって画像データを生成する撮像部と、視野を変更するための各種の操作の入力を受け付ける操作部と、を有する内視鏡と、
をさらに備える
請求項12に記載の情報処理装置。
【請求項16】
前記解析部は、前記操作部が受け付けた操作履歴に関する操作履歴に基づいて前記対応視線期間の重み付けを行う
請求項15に記載の情報処理装置。
【請求項17】
外部から入力される利用者の音声データに対して、音声重要度が高いキーワードが発声された期間を重要期間として設定する設定ステップと、
外部から入力される前記利用者の視線データであって、前記音声データと同じ時間軸が対応付けられた視線データに対して、前記設定ステップで設定した前記重要期間に応じた対応視線期間を割り当てて記録部へ記録する解析ステップと、
を含む情報処理方法。
【請求項18】
情報処理装置に、
外部から入力される利用者の音声データに対して、音声重要度が高いキーワードが発声された期間を重要期間として設定する設定ステップと、
外部から入力される前記利用者の視線データであって、前記音声データと同じ時間軸が対応付けられた視線データに対して、前記設定ステップで設定した前記重要期間に応じた対応視線期間を割り当てて記録部へ記録する解析ステップと、
を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、音声データと視線データとを処理する情報処理装置、情報処理方法およびプログラムに関する。
【背景技術】
【0002】
近年、画像データ等の情報を処理する情報処理装置において、利用者の音声を検出したときから、所定の時間遡った期間において、表示部が表示する画像上における複数の表示領域に対して、利用者の視線が最も長く停留した画像の表示領域を注目情報として検出するとともに、この注目情報と音声とを対応付けて記録する技術が知られている(特許文献1参照)。
【0003】
また、注視注釈システムにおいて、コンピューティングデバイスの表示デバイスが表示する画像に対して、注視追跡デバイスによって検出された利用者が注視する注視点の近くに注釈アンカーを表示するとともに、この注釈アンカーに音声によって情報を入力する技術が知られている(特許文献2参照)。
【先行技術文献】
【特許文献】
【0004】
【文献】特許第4282343号公報
【文献】特開2016-181245号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、利用者の視線を音声入力によって行うためのキューとして利用しているにすぎないため、音声の重要度に応じた、視線領域の把握はできなかった。
【0006】
本開示は、上記に鑑みてなされたものであって、音声(発話内容)の重要度に応じた、注視領域を把握することができる情報処理装置、情報処理方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上述した課題を解決し、目的を達成するために、本開示に係る情報処理装置は、外部から入力される利用者の音声データに対して、音声重要度が高いキーワードが発声された発声期間を重要期間として設定する設定部と、外部から入力される前記利用者の視線データであって、前記音声データと同じ時間軸が対応付けられた視線データに対して、前記設定部が設定した前記重要期間に応じた対応視線期間を割り当てて記録部へ記録する解析部と、を備える。
【0008】
また、本開示に係る情報処理装置は、上記開示において、前記設定部は、外部から入力されるキーワードと指数とが対応付けられた重要単語情報に基づいて、前記重要期間を設定する。
【0009】
また、本開示に係る情報処理装置は、上記開示において、前記設定部は、予め登録された複数のキーワードの各々と指数とが対応付けられた重要単語情報に基づいて、前記重要期間を設定する。
【0010】
また、本開示に係る情報処理装置は、上記開示において、前記解析部は、前記視線データに基づいて、前記利用者の視線の注視度を解析した注視期間を抽出し、かつ、該注視期間と前記重要期間とに基づいて、前記音声データの前記重要期間に前後する前記視線データの前記注視期間に対して前記対応視線期間を割り当てる。
【0011】
また、本開示に係る情報処理装置は、上記開示において、前記解析部は、前記視線の移動速度、一定の時間内における前記視線の移動距離、一定領域内における前記視線の滞留時間のいずれか1つを検出することによって、前記注視度を解析する。
【0012】
また、本開示に係る情報処理装置は、上記開示において、前記音声データを文字情報に変換する変換部をさらに備え、前記設定部は、前記文字情報と前記キーワードに基づいて、前記重要期間を設定する。
【0013】
また、本開示に係る情報処理装置は、上記開示において、外部から入力される画像データに対応する画像上に前記解析部が解析した前記対応視線期間および該対応視線期間の座標情報を関連付けた視線マッピングデータを生成する生成部をさらに備える。
【0014】
また、本開示に係る情報処理装置は、上記開示において、前記解析部は、前記視線データに基づいて、前記利用者の視線の軌跡をさらに解析し、前記生成部は、前記解析部が解析した前記軌跡を前記画像上にさらに関連付けて前記視線マッピングデータを生成する。
【0015】
また、本開示に係る情報処理装置は、上記開示において、前記視線マッピングデータに対応する視線マッピング画像を表示部に表示させる表示制御部をさらに備え、前記表示制御部は、前記対応視線期間に対応する前記視線マッピングデータの少なくとも一部の領域を前記表示部に強調表示させる。
【0016】
また、本開示に係る情報処理装置は、上記開示において、前記生成部は、前記座標情報に前記文字情報をさらに関連付けて前記視線マッピングデータを生成する。
【0017】
また、本開示に係る情報処理装置は、上記開示において、外部から入力された操作信号に応じて指定されたキーワードを前記変換部によって変換された前記文字情報から抽出する抽出部と、前記視線マッピングデータに対応する視線マッピング画像を表示部に表示させる表示制御部と、をさらに備え、前記表示制御部は、前記抽出部によって抽出された前記文字情報に関連付けられた前記視線マッピングデータの少なくとも一部の領域を前記表示部に強調表示させ、かつ、前記文字情報を前記表示部に表示させる。
【0018】
また、本開示に係る情報処理装置は、上記開示において、前記利用者の視線を連続的に検出することによって前記視線データを生成する視線検出部と、前記利用者の音声の入力を受け付けて前記音声データを生成する音声入力部と、をさらに備える。
【0019】
また、本開示に係る情報処理装置は、上記開示において、複数の利用者の各々を識別する識別情報を検出する検出部をさらに備え、前記解析部は、前記複数の利用者の各々の視線を検出した複数の前記視線データに基づいて、前記複数の利用者の各々の前記注視度を解析し、かつ、該注視度と前記識別情報とに基づいて、前記複数の利用者の各々の前記視線データに前記対応視線期間を割り当てる。
【0020】
また、本開示に係る情報処理装置は、上記開示において、標本を観察する観察倍率を変更可能であり、前記利用者が前記標本の観察像を観察可能な接眼部を有する顕微鏡と、前記顕微鏡に接続され、前記顕微鏡が結像した前記標本の観察像を撮像することによって画像データを生成する撮像部と、をさらに備え、前記視線検出部は、前記顕微鏡の接眼部に設けられ、前記解析部は、前記観察倍率に応じて前記対応視線期間の重み付けを行う。
【0021】
また、本開示に係る情報処理装置は、上記開示において、被検体に挿入可能な挿入部の先端部に設けられ、被検体内の体内を撮像することによって画像データを生成する撮像部と、視野を変更するための各種の操作の入力を受け付ける操作部と、を有する内視鏡と、
をさらに備える。
【0022】
また、本開示に係る情報処理装置は、上記開示において、前記解析部は、前記操作部が受け付けた操作履歴に関する操作履歴に基づいて前記対応視線期間の重み付けを行う。
【0023】
また、本開示に係る情報処理方法は、外部から入力される利用者の音声データに対して、音声重要度が高いキーワードが発声された期間を重要期間として設定する設定ステップと、外部から入力される前記利用者の視線データであって、前記音声データと同じ時間軸が対応付けられた視線データに対して、前記設定ステップで設定した前記重要期間に応じた対応視線期間を割り当てて記録部へ記録する解析ステップと、を含む。
【0024】
また、本開示に係るプログラムは、情報処理装置に、外部から入力される利用者の音声データに対して、音声重要度が高いキーワードが発声された期間を重要期間として設定する設定ステップと、外部から入力される前記利用者の視線データであって、前記音声データと同じ時間軸が対応付けられた視線データに対して、前記設定ステップで設定した前記重要期間に応じた対応視線期間を割り当てて記録部へ記録する解析ステップと、を実行させる。
【発明の効果】
【0025】
本発明によれば、音声の重要度に応じた、注視領域を把握することができるという効果を奏する。
【図面の簡単な説明】
【0026】
【
図1】
図1は、本開示の実施の形態1に係る情報処理システムの機能構成を示すブロック図である。
【
図2】
図2は、本開示の実施の形態1に係る情報処理装置が実行する処理の概要を示すフローチャートである。
【
図3】
図3は、本開示の実施の形態1に係る設定部による音声データに対する重要期間を設定する設定方法を模式的に説明する図である。
【
図4】
図4は、本開示の実施の形態1に係る解析部が視線データに重要度を設定する設定方法を模式的に説明する図である。
【
図5】
図5は、本開示の実施の形態1に係る表示部が表示する画像の一例を模式的に示す図である。
【
図6】
図6は、本開示の実施の形態1に係る表示部が表示する画像の別の一例を模式的に示す図である。
【
図7】
図7は、本開示の実施の形態2に係る情報処理システムの機能構成を示すブロック図である。
【
図8A】
図8Aは、本開示の実施の形態2に係る情報処理装置が実行する処理の概要を示すフローチャートである。
【
図8B】
図8Bは、本開示の実施の形態2に係る解析部が視線データに重要度を設定する設定方法を模式的に説明する図である。
【
図9】
図9は、本開示の実施の形態3に係る情報処理装置の構成を示す概略図である。
【
図10】
図10は、本開示の実施の形態3に係る情報処理装置の構成を示す概略図である。
【
図11】
図11は、本開示の実施の形態3に係る情報処理装置の機能構成を示すブロック図である。
【
図12】
図12は、本開示の実施の形態3に係る情報処理装置が実行する処理の概要を示すフローチャートである。
【
図13】
図13は、本開示の実施の形態3に係る表示部が表示する視線マッピング画像の一例を示す図である。
【
図14】
図14は、本開示の実施の形態3に係る表示部が表示する視線マッピング画像の別の一例を示す図である。
【
図15】
図15は、本開示の実施の形態4に係る顕微鏡システムの構成を示す概略図である。
【
図16】
図16は、本開示の実施の形態4に係る顕微鏡システムの機能構成を示すブロック図である。
【
図17】
図17は、本開示の実施の形態4に係る顕微鏡システムが実行する処理の概要を示すフローチャートである。
【
図18】
図18は、本開示の実施の形態5に係る内視鏡システムの構成を示す概略図である。
【
図19】
図19は、本開示の実施の形態5に係る内視鏡システムの機能構成を示すブロック図である。
【
図20】
図20は、本開示の実施の形態5に係る内視鏡システムが実行する処理の概要を示すフローチャートである。
【
図21】
図21は、本開示の実施の形態5に係る画像データ記録部が記録する複数の画像データに対応する複数の画像の一例を模式的に示す図である。
【
図22】
図22は、本開示の実施の形態5に係る画像処理部が生成する統合画像データに対応する統合画像の一例を示す図である。
【
図23】
図23は、本開示の実施の形態6に係る情報処理システムの機能構成を示すブロック図である。
【
図24】
図24は、本開示の実施の形態6に係る情報処理システムが実行する処理の概要を示すフローチャートである。
【発明を実施するための形態】
【0027】
以下、本開示を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本開示が限定されるものではない。また、以下の説明において参照する各図は、本開示の内容を理解でき得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎない。即ち、本開示は、各図で例示された形状、大きさおよび位置関係のみに限定されるものでない。
【0028】
(実施の形態1)
〔情報処理装置の構成〕
図1は、実施の形態1に係る情報処理システムの機能構成を示すブロック図である。
図1に示す情報処理システム1は、外部から入力される視線データ、音声データおよび画像データに対して各種の処理を行う情報処理装置10と、情報処理装置10から出力された各種データを表示する表示部20と、を備える。なお、情報処理装置10と表示部20は、無線または有線によって双方向に接続されている。
【0029】
〔情報処理装置の構成〕
まず、情報処理装置10の構成について説明する。
図1に示す情報処理装置10は、例えばサーバやパーソナルコンピュータ等にインストールされたプログラムを用いて実現され、ネットワークを経由して各種データが入力される、または外部の装置で取得された各種データが入力される。
図1に示すように、情報処理装置10は、設定部11と、解析部12と、生成部13と、記録部14と、表示制御部15と、を備える。
【0030】
設定部11は、外部から入力される利用者の音声データの重要期間を設定する。具体的には、設定部11は、外部から入力される重要単語情報に基づいて、外部から入力される利用者の音声データの重要期間を設定する。例えば、設定部11は、外部から入力されるキーワードが癌や出血等であり、各々の指数が「10」と「8」の場合、周知の音声パターンマッチング等を用いてキーワードが発せられた期間(区間または時間)を重要期間に設定する。外部から入力される利用者の音声データは、図示しないマイク等の音声入力部によって生成されたものである。なお、設定部11は、キーワードが発せられた期間の前後、例えば1秒から2秒程度を含むように重要期間を設置してもよい。設定部11は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)およびGPU(Graphics Processing Unit)等を用いて構成される。なお、重要単語情報はあらかじめデータベース(音声データ、文字情報)で記憶されているものを使用しても良いし、使用者の入力(音声データ・キーボード入力)によるものでも良い。
【0031】
解析部12は、外部から入力された利用者の視線データであって、音声データと同じ時間軸が対応付けられた視線データに対して、設定部11が設定した音声データの重要期間に応じた対応視線期間(例えば「癌」の場合、指数の「10」)を割り当てて記録部14へ記録する。ここで、対応視線期間とは、音声データにおいて重要なキーワードが発せられた重要期間で利用者の視線が注視する注視期間に、キーワードの指数に応じてランクが設定されたものである。また、解析部12は、外部から入力される利用者の視線を検出した所定時間の視線データに基づいて、利用者の視線の注視度を解析する。ここで、視線データとは、角膜反射法に基づくものである。具体的には、視線データは、図示しない視線検出部(アイトラッキング)に設けられたLED光源等から近赤外線が利用者の角膜赤に照射された際に、視線検出部である光学センサが角膜上の瞳孔点と反射点を撮像することによって生成されたデータである。そして、視線データは、光学センサが角膜上の瞳孔点と反射点を撮像することによって生成されたデータに対して画像処理等を行うことによって解析した解析結果に基づく利用者の瞳孔点と反射点のパターンから利用者の視線を算出したものである。
【0032】
また、図示していないが、視線検出部を備える装置が視線データを計測する際には、対応する画像データを使用者(利用者)に提示したうえで、視線データを計測している。この場合、図示しない視線検出部を備える装置は、使用者に表示している画像が固定している場合、すなわち表示領域の時間とともに絶対座標が変化しないとき、視線に計測領域と画像の絶対座標の相対的に位置関係を固定値として与えていれば良い。ここで、絶対座標とは、画像の所定の1点を基準に表記している座標を指している。
【0033】
利用形態が内視鏡システムや光学顕微鏡の場合、視線を検出するために提示している視野が画像データの視野となるため、画像の絶対座標にたいする観察視野の相対的な位置関係は変わらない。また、利用形態が内視鏡システムや光学顕微鏡においては、動画として記録している場合、視野のマッピングデータを生成するために、視線検出データと、視線の検出と同時に記録された画像または提示された画像を用いる。
【0034】
一方で、利用形態がWSI(Whole Slide Imaging)では、顕微鏡のスライドサンプルの一部を視野として使用者が観察しており、時刻とともに観察視野が変化する。この場合、画像データのどの部分が視野として提示されているか、すなわち表示領域の絶対座標の切り替えの時間情報も、視線・音声の情報と同じく同期化して記録されている。
【0035】
解析部12は、外部から入力される利用者の視線を検出した所定時間の視線データに基づいて、視線の移動速度、一定の時間内における視線の移動距離、一定領域内における視線の滞留時間のいずれか1つを検出することによって、視線(注視点)の注視度を解析する。なお、図示しない視線検出部は、所定の場所に載置されることによって利用者を撮像することによって視線を検出するものであってもよいし、利用者が装着することによって利用者を撮像することによって視線を検出するものであってもよい。また、視線データは、これ以外にも、周知のパターンマッチングによって生成されたものであってもよい。解析部12は、例えばCPU、FPGAおよびGPU等を用いて構成される。
【0036】
生成部13は、外部から入力される画像データに対応する画像上に解析部12が解析した対応視線期間を関連付けた視線マッピングデータを生成し、この生成した視線マッピングデータを記録部14および表示制御部15へ出力する。この場合、生成部13は、上述の様に視線マッピングデータを画像の絶対座標として得るとき、視線を計測した際の表示と画像の絶対座標の相対的位置関係を使用する。また、上述の様に、生成部13は、観察視野が時々刻々と変化する場合には、表示領域=視野の絶対座標(例えば表示画像の左上が元の画像データに絶対座標でどこに位置するか)の経時変化を入力する。具体的には、生成部13は、外部から入力される画像データに対応する画像上の所定領域毎に、解析部12が解析した対応視線期間を画像上の座標情報に関連付けた視線マッピングデータを生成する。さらに、生成部13は、注視度に加えて、外部から入力される画像データに対応する画像上に解析部12が解析した利用者の視線の軌跡を関連付けて視線マッピングデータを生成する。生成部13は、CPU、FPGAおよびGPU等を用いて構成される。
【0037】
記録部14は、設定部11が設定した音声データと、視線データと、解析部12が解析した対応視線期間と、を対応付けて記録する。また、記録部14は、解析部12が解析した視線データと、注視度と、を対応付けて記録する。さらに、記録部14は、生成部13から入力された視線マッピングデータを記録する。さらにまた、記録部14は、情報処理装置10が実行する各種プログラムおよび処理中のデータを記録する。記録部14は、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成される。
【0038】
表示制御部15は、外部から入力される画像データに対応する画像上に、生成部13が生成した視線マッピングデータを重畳して外部の表示部20に出力することによって表示させる。表示制御部15は、CPU、FPGAおよびGPU等を用いて構成される。なお、上述した設定部11、解析部12、生成部13および表示制御部15をCPU、FPGAおよびGPUのいずれか1つを用いて各機能が発揮できるように構成してもよいし、もちろん、CPU、FPGAおよびGPUを組み合わせて各機能が発揮できるように構成してもよい。
【0039】
〔表示部の構成〕
次に、表示部20の構成について説明する。
表示部20は、表示制御部15から入力された画像データに対応する画像や視線マッピングデータに対応する視線マッピング情報を表示する。表示部20は、例えば有機EL(Electro Luminescence)や液晶等の表示モニタを用いて構成される。
【0040】
〔情報処理装置の処理〕
次に、情報処理装置10の処理について説明する。
図2は、情報処理装置10が実行する処理の概要を示すフローチャートである。
【0041】
図2に示すように、まず、情報処理装置10は、外部から入力される視線データ、音声データ、キーワードおよび画像データを取得する(ステップS101)。
【0042】
続いて、設定部11は、外部から入力されたキーワードに基づいて、音声データにおいて重要単語であるキーワードが発せられた発声期間を判定し(ステップS102)、音声データにおいて重要単語が発せられた発声期間を重要期間に設定する(ステップS103)。ステップS103の後、情報処理装置10は、後述するステップS104へ移行する。
【0043】
図3は、設定部11による音声データに対する重要期間を設定する設定方法を模式的に説明する図である。
図3の(a)および
図3の(b)において、横軸が時間を示し、
図3の(a)の縦軸が音声データ(発声)を示し、
図3の(b)の縦軸が音声重要度を示す。また、
図3の(a)の曲線L1が音声データの時間変化を示し、
図3の(b)の曲線L2が音声重要度の時間変化を示す。
【0044】
図3に示すように、設定部11は、音声データに対して周知の音声パターンマッチングを用いることによって、外部から入力された重要単語のキーワードが「癌」である場合、この「癌」が発せられた音声データの発声期間(発声時間)の前後を重要度が高い重要期間D1に設定する。これに対して、設定部11は、利用者が音声を発声しているが、重要単語のキーワードが含まれていない期間D0を重要期間に設定しない。なお、設定部11は、周知の音声パターンマッチング以外に、音声データを文字情報に変換した後に、この文字情報に対してキーワードに対応する期間を重要度が高い重要期間として設定してもよい。
【0045】
図2に戻り、ステップS104以降の説明を続ける。
ステップS104において、解析部12は、外部から入力された利用者の視線データであって、音声データと同じ時間軸が対応付けられた視線データに対して、設定部11が設定した音声データの重要期間に対応する期間(時間)に重要単語のキーワードに割り当てられた指数(例えば「癌」の場合、指数が「10」)に応じた対応視線期間を割り当てて音声データと視線データとを同期化させて記録部14に記録する。ステップS104の後、情報処理装置10は、後述するステップS105へ移行する。
【0046】
図4は、解析部12が対応視線期間を割り当てる方法を模式的に説明する図である。
図4の(a)、
図4の(b)および
図4の(c)において、横軸が時間を示し、
図4の(a)の縦軸が音声重要度を示し、
図4の(b)の縦軸が視線移動速度を示し、
図4の(c)の縦軸が注視度を示す。
【0047】
解析部12は、設定部11によって設定された音声の重要度が設定された期間D1に基づき、対応する視線データの期間を設定する。解析部12は、期間D1に対して、開始時間差および終了時間差を設定し、対応視線期間D2を設定する。
【0048】
なお、実施の形態1では、予め利用者の注視度と発音(発声)との時間差を算出し(キャリブレーションデータ)、この算出結果に基づいて利用者の注視度と発音(発声)とのずれを補正するキャリブレーション処理を行ってもよい。単純に音声重要度が高いキーワードが発声された期間を重要期間として、その一定時間の前後、あるいは、シフトした期間を対応視線期間としても良い。
【0049】
図2に戻り、ステップS105以降の説明を続ける。
ステップS105において、生成部13は、画像データに対応する画像上に解析部12が解析した対応視線期間を関連付けた視線マッピングデータを生成する。
【0050】
続いて、表示制御部15は、画像データに対応する画像上に、生成部13が生成した視線マッピングデータを重畳して外部の表示部20に出力する(ステップS106)。ステップS106の後、情報処理装置10は、本処理を終了する。
【0051】
図5は、表示部20が表示する画像の一例を模式的に示す図である。
図5に示すように、表示制御部15は、画像データに対応する画像上に、生成部13が生成した視線マッピングデータに重畳した視線マッピング画像P1を表示部20に表示させる。
図5においては、注視度が高いほど、等高線の本数が多い。ヒートマップM1~M5の視線マッピング画像P1を表示部20に表示させる。この中で、音声重要度の高い期間に対応した視線がマッピングされた領域に関して強調表示を行う(ここでは等高線の外枠を太くする表示)。なお、
図5において、表示制御部15は、音声重要度の内容を模式的に示すため、メッセージQ1およびメッセージQ2を視線マッピング画像P1上に重畳して表示部20に表示させているが、メッセージQ1およびメッセージQ2を非表示であってもよい。
【0052】
図6は、表示部20が表示する画像の別の一例を模式的に示す図である。
図6に示すように、表示制御部15は、画像データに対応する画像上に、生成部13が生成した視線マッピングデータに重畳した視線マッピング画像P2を表示部20に表示させる。
図6においては、マークM11~M15は、視線の滞留時間が長いほど円の領域が大きい、この中で音声重要度の高い期間に対応した視線がマッピングされた領域に関して強調表示を行う。さらに、表示制御部15は、利用者の視線の軌跡K1および対応視線期間のランクの順番を数字で表示部20に表示させる。なお、
図6においては、表示制御部15は、各対応視線期間の期間(時間)で利用者が発した音声データを、周知の文字変換技術を用いて変換した文字情報(例えばメッセージQ1およびメッセージQ2)を、マークM11~M15の近傍または重畳して表示部20に表示させてもよい。
【0053】
以上説明した実施の形態1によれば、解析部12が音声データと同じ時間軸が対応付けられた視線データに対して、設定部11が設定した音声データの重要期間に対応する期間に重要単語のキーワードに割り当てられた指数に応じた対応視線期間を割り当てて音声データと視線データとを同期化させて記録部14に記録するので、視線データのどの期間が重要であるか否かを把握することができる。
【0054】
さらにまた、実施の形態1では、生成部13が外部から入力される画像データに対応する画像上に解析部12が解析した対応視線期間、および対応視線期間の座標情報を関連付けた視線マッピングデータを生成するので、利用者が直感的に画像上における重要な位置を把握することができる。
【0055】
また、実施の形態1では、記録部14が解析部12によって対応視線期間が割り当てられた視線データを記録するので、ディープラーニング等の機械学習で用いる視線のマッピングに基づく画像データと視線との対応関係を学習する際の学習データを容易に取得することができる。
【0056】
(実施の形態2)
次に、本開示の実施の形態2について説明する。上述した実施の形態1では、解析部12が音声データと同じ時間軸が対応付けられた視線データに対して、設定部11が設定した音声データの重要期間に対応する期間に対応視線期間を割り当てて音声データと視線データとを同期化させて記録部14に記録させていたが、実施の形態2では、解析部12が解析した視線の注視度と設定部11が設定した重要期間とに基づいて、視線データに対応視線期間を割り当てる。以下においては、実施の形態2に係る情報処理システムの構成を説明後、実施の形態2に係る情報処理装置が実行する処理について説明する。なお、上述した実施の形態1に係る情報処理システムと同一の構成には同一の符号を付して詳細な説明は、省略する。
【0057】
〔情報処理システムの構成〕
図7は、実施の形態2に係る情報処理システムの機能構成を示すブロック図である。
図7に示す情報処理システム1aは、上述した実施の形態1に係る情報処理装置10に換えて、情報処理装置10aを備える。情報処理装置10aは、上述した実施の形態1に係る解析部12に換えて、解析部12aを備える。
【0058】
解析部12aは、外部から入力された利用者の視線データであって、音声データと同じ時間軸が対応付けられた視線データに基づいて、視線の移動速度、一定の時間内における視線の移動距離、一定領域内における視線の滞留時間のいずれか1つを検出することによって、視線(注視点)の注視度を解析する。そして、解析部12aは、利用者の視線の注視度を解析した注視期間を抽出し、かつ、この注視期間と設定部11が設定した音声データの重要期間とに基づいて、音声データの重要期間に前後する視線データの注視期間に対して対応視線期間を割り当てて記録部14に記録する。
【0059】
〔情報処理装置の処理〕
次に、情報処理装置10aが実行する処理について説明する。
図8Aは、情報処理装置10aが実行する処理の概要を示すフローチャートである。
図8Aにおいて、ステップS201~ステップS203は、上述した
図2のステップS101~ステップS103それぞれに対応する。
【0060】
ステップS204において、解析部12aは、外部から入力された利用者の視線データであって、音声データと同じ時間軸が対応付けられた視線データに基づいて、視線の移動速度を検出することによって、視線(注視点)の注視度を解析する。
【0061】
続いて、解析部12aは、ステップS204において解析した注視度の注視期間と設定部11が設定した音声データの重要期間とに基づいて、視線データに対応視線期間を割り当てて記録部14に記録する(ステップS205)。具体的には、解析部12aは、音声データの重要期間前後の注視度に対してキーワードに応じた係数(例えば1~9の数字)を乗じた値(ランク)を対応視線期間として割り当てて記録部14に記録する。これにより、利用者が注視する注視期間で重要な期間を解析して記録部14に記録することができる。ステップS205の後、情報処理装置10aは、後述するステップS206へ移行する。ステップS206およびステップS207は、上述した
図2のステップS105およびステップS106それぞれに対応する。
【0062】
図8Bは、解析部12aが視線データに重要度を設定する設定方法を模式的に説明する図である。
図8Bの(a)、
図8Bの(b)および
図8Bの(c)において、横軸が時間を示し、
図8Bの(a)の縦軸が音声重要度を示し、
図8Bの(b)の縦軸が視線移動速度を示し、
図8Bの(c)の縦軸が視線重要度を示す。また、
図8Bの曲線L2が音声重要度の時間変化を示し、
図8Bの(b)の曲線L3が視線の視線移動速度の時間変化を示し、
図8Bの(c)の曲線L4が注視度の時間変化を示す。
【0063】
一般には、視線の移動速度が大きいほど、利用者の注視度が低く、視線の移動速度が小さいほど、利用者の視線の注視度が高いと解析することができる。即ち、
図8Bの曲線L1に示すように、解析部12は、利用者の視線の移動速度が大きいほど、利用者の視線の注視度が低いと解析し、視線の移動速度が小さいほど(視線の移動速度が小さい期間D2を参照)、利用者の視線の注視度が高いと解析する。このように、解析部12は、外部から入力された利用者の視線データであって、音声データと同じ時間軸が対応付けられた視線データに対して、設定部11が設定した音声データの音声重要度が高い重要期間D1に前後する期間であって、利用者の視線の注視度が高い注視期間D2を対応視線期間として割り当てる(
図8Bの(c)の曲線L4を参照)。なお、
図8Bでは、解析部12は、利用者の視線の移動速度を解析することによって、利用者の視線の注視度を解析していたが、これに限定されることなく、一定の時間内における利用者の視線の移動距離および一定領域内における利用者の視線の滞留時間のいずれか1つを検出することによって、視線の注視度を解析してもよい。
【0064】
以上説明した実施の形態2によれば、解析部12aが外部から入力された利用者の視線データであって、音声データと同じ時間軸が対応付けられた視線データに基づいて、視線(注視点)の注視度を解析した後、注視度を解析した注視期間を注視、かつ、この注視期間と設定部11が設定した音声データの重要期間とに基づいて、音声データの重要期間に前後する視線データの注視期間に対して対応視線期間を割り当てて記録部14に記録するので、視線データに対して利用者が注視する注視期間のうちで重要な期間を把握することができる。
【0065】
(実施の形態3)
次に、本開示の実施の形態3について説明する。実施の形態1では、外部から視線データ、音声データおよびキーワードの各々が入力されていたが、実施の形態3では、視線データおよび音声データを生成するとともに、予めキーワードと係数とが対応付けられた重要単語情報が記録されている。以下においては、実施の形態3に係る情報処理装置の構成を説明後、実施の形態3に係る情報処理装置が実行する処理について説明する。なお、上述した実施の形態1に係る情報処理システム1と同一の構成には同一の符号を付して詳細な説明は適宜省略する。
【0066】
図9は、実施の形態3に係る情報処理装置の構成を示す概略図である。
図10は、実施の形態3に係る情報処理装置の構成を示す概略図である。
図11は、実施の形態3に係る情報処理装置の機能構成を示すブロック図である。
【0067】
図9~
図11に示す情報処理装置1bは、解析部12と、表示部20と、視線検出部30と、音声入力部31と、制御部32と、時間計測部33と、記録部34と、変換部35と、抽出部36と、操作部37と、設定部38と、生成部39と、プログラム記憶部344と、重要単語記憶部345と、を備える。
【0068】
視線検出部30は、近赤外線を照射するLED光源と、角膜上の瞳孔点と反射点を撮像する光学センサ(例えばCMOS、CCD等)と、を用いて構成される。視線検出部30は、利用者U1が表示部20を視認可能な情報処理装置1bの筐体の側面に設けられる(
図9および
図10を参照)。視線検出部30は、制御部32の制御のもと、表示部20が表示する画像に対する利用者U1の視線を検出した視線データを生成し、この視線データを制御部32へ出力する。具体的には、視線検出部30は、制御部32の制御のもと、LED光源等から近赤外線を利用者U1の角膜に照射し、光学センサが利用者U1の角膜上の瞳孔点と反射点を撮像することによって視線データを生成する。そして、視線検出部30は、制御部32の制御のもと、光学センサによって生成されたデータに対して画像処理等によって解析した解析結果に基づいて、利用者U1の瞳孔点と反射点のパターンから利用者の視線や視線を連続的に算出することによって所定時間の視線データを生成し、この視線データを後述する視線検出制御部321へ出力する。なお、視線検出部30は、単に光学センサのみで利用者U1の瞳を周知のパターンマッチングを用いることによって瞳を検出することによって、利用者U1の視線を検出した視線データを生成してもよいし、他のセンサや他の周知技術を用いて利用者U1の視線を検出することによって視線データを生成してもよい。
【0069】
音声入力部31は、音声が入力されるマイクと、マイクが入力を受け付けた音声をデジタルの音声データに変換するとともに、この音声データを増幅することによって制御部32へ出力する音声コーデックと、を用いて構成される。音声入力部31は、制御部32の制御のもと、利用者U1の音声の入力を受け付けることによって音声データを生成し、この音声データを制御部32へ出力する。なお、音声入力部31は、音声の入力以外にも、音声を出力することができるスピーカ等を設け、音声出力機能を設けてもよい。
【0070】
制御部32は、CPU、FPGAおよびGPU等を用いて構成され、視線検出部30、音声入力部31および表示部20を制御する。制御部32は、視線検出制御部321と、音声入力制御部322と、表示制御部323と、を有する。
【0071】
視線検出制御部321は、視線検出部30を制御する。具体的には、視線検出制御部321は、視線検出部30を所定のタイミング毎に近赤外線を利用者U1へ照射させるとともに、利用者U1の瞳を視線検出部30に撮像させることによって視線データを生成させる。また、視線検出制御部321は、視線検出部30から入力された視線データに対して、各種の画像処理を行って記録部34へ出力する。
【0072】
音声入力制御部322は、音声入力部31を制御し、音声入力部31から入力された音声データに対して各種の処理、例えばゲインアップやノイズ低減処理等を行って記録部34へ出力する。
【0073】
表示制御部323は、表示部20の表示態様を制御する。表示制御部323は、記録部34に記録された画像データに対応する画像または生成部13によって生成された視線マッピングデータに対応する視線マッピング画像を表示部20に表示させる。
【0074】
時間計測部33は、タイマーやクロックジェネレータ等を用いて構成され、視線検出部30によって生成された視線データおよび音声入力部31によって生成された音声データ等に対して時刻情報を付与する。
【0075】
記録部34は、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成され、情報処理装置1bに関する各種の情報を記録する。記録部34は、視線データ記録部341と、音声データ記録部342と、画像データ記録部343と、を有する。
【0076】
視線データ記録部341は、視線検出制御部321から入力された視線データを記録するとともに、視線データを解析部12へ出力する。
【0077】
音声データ記録部342は、音声入力制御部322から入力された音声データを記録するとともに、音声データを変換部35へ出力する。
【0078】
画像データ記録部343は、複数の画像データを記録する。この複数の画像データは、情報処理装置1bの外部から入力されたデータ、または記録媒体によって外部の撮像装置によって撮像されたデータである。
【0079】
変換部35は、音声データに対して周知のテキスト変換処理を行うことによって、音声データを文字情報(テキストデータ)に変換し、この文字情報を抽出部36へ出力する。なお、音声の文字変換はこの時点で行わない構成も可能であり、その際には、音声情報のまま重要度を設定し、その後文字情報に変換するようにしても良い。
【0080】
抽出部36は、後述する操作部37から入力された指示信号に対応するキーワード(単語や文字)または後述する重要単語記憶部345が記録する複数のキーワードを、変換部35によって変換された文字情報から抽出し、この抽出結果を設定部38へ出力する。
【0081】
操作部37は、マウス、キーボード、タッチパネルおよび各種スイッチ等を用いて構成され、利用者U1の操作の入力を受け付け、入力を受け付けた操作内容を制御部32へ出力する。
【0082】
設定部38は、抽出部36によって抽出されたキーワードが音声データ上において発声された期間を重要期間として設定し、この設定結果を解析部12へ出力する。
【0083】
生成部39は、表示部20が表示する画像データに対応する画像上に解析部12が解析した対応視線期間および変換部35が変換した文字情報を関連付けた視線マッピングデータを生成し、この視線マッピングデータを画像データ記録部343または表示制御部323へ出力する。
【0084】
プログラム記憶部344は、情報処理装置1bが実行する各種プログラム、各種プログラムの実行中に使用するデータ(例えば辞書情報やテキスト変換辞書情報)および各種プログラムの実行中の処理データを記録する。
【0085】
重要単語記憶部345は、複数のキーワードと指数とを対応付けた重要単語情報を記録する。例えば、重要単語記憶部345は、キーワードが「癌」の場合、指数に「10」が対応付けられ、キーワードが「出血」の場合、指数に「8」が対応付けられ、キーワードが「異常なし」の場合、指数に「0」が対応付けられている。
【0086】
〔情報処理装置の処理〕
次に、情報処理装置1bが実行する処理について説明する。
図12は、情報処理装置1bが実行する処理の概要を示すフローチャートである。
【0087】
図12に示すように、まず、表示制御部323は、画像データ記録部343が記録する画像データに対応する画像を表示部20に表示させる(ステップS301)。この場合、表示制御部323は、操作部37の操作に応じて選択された画像データに対応する画像を表示部20に表示させる。
【0088】
続いて、制御部32は、視線検出部30が生成した視線データおよび音声入力部31が生成した音声データの各々と時間計測部33によって計測された時間とを対応付けて視線データ記録部341および音声データ記録部342に記録する(ステップS302)。
【0089】
その後、変換部35は、音声データ記録部342が記録する音声データを文字情報に変換する(ステップS303)。なお、このステップは、後述のS308の後に行っても良い。
【0090】
続いて、操作部37から表示部20が表示する画像の観察を終了する指示信号が入力された場合(ステップS304:Yes)、情報処理装置1bは、後述するステップS305へ移行する。これに対して、操作部37から表示部20が表示する画像の観察を終了する指示信号が入力されていない場合(ステップS304:No)、情報処理装置1bは、ステップS302へ戻る。
【0091】
ステップS305~ステップS308は、上述した
図8のステップS202~ステップS205それぞれに対応する。ステップS308の後、情報処理装置1bは、後述するステップS309へ移行する。
【0092】
続いて、生成部39は、表示部20が表示する画像データに対応する画像上に解析部12が解析した対応視線期間および変換部35が変換した文字情報を関連付けた視線マッピングデータを生成する(ステップS309)。
【0093】
続いて、表示制御部323は、生成部39が生成した視線マッピングデータに対応する視線マッピング画像を表示部20に表示させる(ステップS310)。
【0094】
図13は、表示部20が表示する視線マッピング画像の一例を示す図である。
図13に示すように、表示制御部323は、生成部13が生成した視線マッピングデータに対応する視線マッピング画像P3を表示部20に表示させる。視線マッピング画像P3には、対応視線期間のランクに基づく視線の注視領域に対応するマークM11~M15および視線の軌跡K1が重畳されるとともに、この対応視線期間のタイミングで発せされた音声データの文字情報が関連付けられている。また、マークM11~M15は、番号が利用者U1の視線の順番を示し、大きさ(領域)が対応視線期間のランクの大きさを示す。さらに、利用者U1が操作部37を操作してカーソルA1を所望の位置、例えばマークM14に移動させた場合、マークM14に関連付けられたメッセージQ1、例えば「ここで癌があります。」が表示される。なお、
図13では、表示制御部323が文字情報を表示部20に表示させているが、例えば文字情報を音声に変換することによって音声データを出力してもよい。これにより、利用者U1は、音声で発声した内容と注視していた領域とを直感的に把握することができる。さらに、利用者U1の観察時における視線の軌跡を直感的に把握することができる。
【0095】
図14は、表示部20が表示する視線マッピング画像の別の一例を示す図である。
図13に示すように、表示制御部323は、生成部13が生成した視線マッピングデータに対応する視線マッピング画像P4を表示部20に表示させる。さらに、表示制御部323は、文字情報と、この文字情報が発声された時間とを対応付けたアイコンB1~B5を表示部20に表示させる。さらに、表示制御部323は、利用者U1が操作部37を操作してマークM11~M15のいずれかを選択した場合、例えばマークM14を選択した場合、マークM14を表示部20に強調表示するとともに、マークM14の時間に対応する文字情報、例えばアイコンB4を表示部20に強調表示させる(例えば枠をハイライト表示または太線で表示)。これにより、利用者U1は、重要な音声内容と注視していた領域とを直感的に把握することができるうえ、発声した際の内容を直感的に把握することができる。
【0096】
図12に戻り、ステップS311以降の説明を続ける。
ステップS311において、操作部37によって複数の注視領域に対応するマークのいずれか一つが操作された場合(ステップS311:Yes)、制御部32は、操作に応じた動作処理を実行する(ステップS312)。具体的には、表示制御部323は、操作部37によって選択された注視領域に対応するマークを表示部20に強調表示させる(例えば
図13を参照)。また、音声入力制御部322は、注視度の高い領域に関連付けられた音声データを音声入力部31に再生させる。ステップS312の後、情報処理装置1bは、後述するステップS313へ移行する。
【0097】
ステップS311において、操作部37によって複数の注視度領域に対応するマークのいずれか一つが操作されていない場合(ステップS311:No)、情報処理装置1bは、後述するステップS313へ移行する。
【0098】
ステップS313において、操作部37から観察の終了を指示する指示信号が入力された場合(ステップS313:Yes)、情報処理装置1bは、本処理を終了する。これに対して、操作部37から観察の終了を指示する指示信号が入力されていない場合(ステップS313:No)、情報処理装置1bは、上述したステップS310へ戻る。
【0099】
以上説明した実施の形態2によれば、生成部13が表示部20によって表示される画像データに対応する画像上に解析部12が解析した対応視線期間および変換部35が変換した文字情報を関連付けた視線マッピングデータを生成するので、利用者U1は、対応視線期間の内容と注視していたが領域とを直感的に把握することができるうえ、発声した際の内容を直感的に把握することができる。
【0100】
また、実施の形態2によれば、表示制御部323は、生成部13が生成した視線マッピングデータに対応する視線マッピング画像を表示部20に表示させるので、画像に対する利用者の観察の見逃し防止の確認、利用者の読影等の技術スキルの確認、他の利用者に対する読影や観察等の教育およびカンファレンス等に用いることができる。
【0101】
(実施の形態4)
次に、本開示の実施の形態4について説明する。上述した実施の形態2では、情報処理装置1bのみで構成されていたが、実施の形態4では、顕微鏡システムの一部に情報処理装置を組み込むことによって構成する。以下においては、実施の形態4に係る顕微鏡システムの構成を説明後、実施の形態4に係る顕微鏡システムが実行する処理について説明する。なお、上述した実施の形態2に係る情報処理装置1bと同一の構成には同一の符号を付して詳細な説明は適宜省略する。
【0102】
〔顕微鏡システムの構成〕
図15は、実施の形態4に係る顕微鏡システムの構成を示す概略図である。
図16は、実施の形態4に係る顕微鏡システムの機能構成を示すブロック図である。
【0103】
図15および
図16に示すように、顕微鏡システム100は、情報処理装置1cと、表示部20と、音声入力部31と、操作部37と、顕微鏡200と、撮像部210と、視線検出部220と、を備える。
【0104】
〔顕微鏡の構成〕
まず、顕微鏡200の構成について説明する。
顕微鏡200は、本体部201と、回転部202と、昇降部203と、レボルバ204と、対物レンズ205と、倍率検出部206と、鏡筒部207と、接続部208と、接眼部209と、を備える。
【0105】
本体部201は、標本SPが載置される。本体部201は、略U字状をなし、回転部202を用いて昇降部203が接続される。
【0106】
回転部202は、利用者U2の操作に応じて回転することによって、昇降部203を垂直方向へ移動させる。
【0107】
昇降部203は、本体部201に対して垂直方向へ移動可能に設けられている。昇降部203は、一端側の面にレボルバが接続され、他端側の面に鏡筒部207が接続される。
【0108】
レボルバ204は、互いに倍率が異なる複数の対物レンズ205が接続され、光軸L1に対して回転可能に昇降部203に接続される。レボルバ204は、利用者U2の操作に応じて、所望の対物レンズ205を光軸L1上に配置する。なお、複数の対物レンズ205には、倍率を示す情報、例えばICチップやラベルが添付されている。なお、ICチップやラベル以外にも、倍率を示す形状を対物レンズ205に設けてもよい。
【0109】
倍率検出部206は、光軸L1上に配置された対物レンズ205の倍率を検出し、この検出した検出結果を情報処理装置1cへ出力する。倍率検出部206は、例えば対物切り替えのレボルバ204の位置を検出する手段を用いて構成される。
【0110】
鏡筒部207は、対物レンズ205によって結像された標本SPの被写体像の一部を接続部208に透過するとともに、接眼部209へ反射する。鏡筒部207は、内部にプリズム、ハーフミラーおよびコリメートレンズ等を有する。
【0111】
接続部208は、一端が鏡筒部207と接続され、他端が撮像部210と接続される。接続部208は、鏡筒部207を透過した標本SPの被写体像を撮像部210へ導光する。接続部208は、複数のコリメートレンズおよび結像レンズ等を用いて構成される。
【0112】
接眼部209は、鏡筒部207によって反射された被写体像を導光して結像する。接眼部209は、複数のコリメートレンズおよび結像レンズ等を用いて構成される。
【0113】
〔撮像部の構成〕
次に、撮像部210の構成について説明する。
撮像部210は、接続部208が結像した標本SPの被写体像を受光することによって画像データを生成し、この画像データを情報処理装置1cへ出力する。撮像部210は、CMOSまたはCCD等のイメージセンサおよび画像データに対して各種の画像処理を施す画像処理エンジン等を用いて構成される。
【0114】
〔視線検出部の構成〕
次に、視線検出部220の構成について説明する。
視線検出部220は、接眼部209の内部または外部に設けられ、利用者U2の視線を検出することによって視線データを生成し、この視線データを情報処理装置1cへ出力する。視線検出部220は、接眼部209の内部に設けられ、近赤外線を照射するLED光源と、接眼部209の内部に設けられ、角膜上の瞳孔点と反射点を撮像する光学センサ(例えばCMOS、CCD)と、を用いて構成される。視線検出部220は、情報処理装置1cの制御のもと、LED光源等から近赤外線を利用者U2の角膜に照射し、光学センサが利用者U2の角膜上の瞳孔点と反射点を撮像することによって生成する。そして、視線検出部222は、情報処理装置1cの制御のもと、光学センサによって生成されたデータに対して画像処理等によって解析した解析結果に基づいて、利用者U2の瞳孔点と反射点のパターンから利用者の視線を検出することによって視線データを生成し、この視線データを情報処理装置1cへ出力する。
【0115】
〔情報処理装置の構成〕
次に、情報処理装置1cの構成について説明する。
情報処理装置1cは、上述した実施の形態2に係る情報処理装置1bの制御部32、記録部34および解析部12に換えて、制御部32c、記録部34c、解析部40と、を備える。
【0116】
制御部32cは、CPU、FPGAおよびGPU等を用いて構成され、表示部20、音声入力部31、撮像部210および視線検出部220を制御する。制御部32cは、上述した実施の形態2の制御部32の視線検出制御部321、音声入力制御部322、表示制御部323に加えて、撮影制御部324および倍率算出部325をさらに備える。
【0117】
撮影制御部324は、撮像部210の動作を制御する。撮影制御部324は、撮像部210を所定のフレームレートに従って順次撮像させることによって画像データを生成させる。撮影制御部324は、撮像部210から入力された画像データに対して処理の画像処理(例えば現像処理等)を施して記録部34cへ出力する。
【0118】
倍率算出部325は、倍率検出部206から入力された検出結果に基づいて、現在の顕微鏡200の観察倍率を算出し、この算出結果を解析部40へ出力する。例えば、倍率算出部325は、倍率検出部206から入力された対物レンズ205の倍率と接眼部209の倍率とに基づいて、現在の顕微鏡200の観察倍率を算出する。
【0119】
記録部34cは、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成される。記録部34cは、上述した実施の形態2に係る画像データ記録部343に換えて、画像データ記録部346を備える。画像データ記録部346は、撮影制御部324から入力された画像データを記録し、この画像データを生成部13へ出力する。
【0120】
解析部40は、音声データと同じ時間軸が対応付けられた視線データに基づいて、視線の移動速度、一定の時間内における視線の移動距離、一定領域内における視線の滞留時間のいずれか1つを検出することによって、視線(注視点)の注視度を解析する。そして、解析部40は、解析した注視度の注視期間と、設定部38が設定した音声データの重要期間と、倍率算出部325が算出した算出結果と、に基づいて、視線データに対応視線期間および変換部35によって変換された文字情報を割り当てて記録部34cに記録する。具体的には、解析部40は、解析した注視度の注視期間に、倍率算出部325が算出した算出結果に基づく係数および設定部38が設定した重要期間のキーワードに応じた係数の各々を乗じた値と、音声データの重要期間前後に対応する視線データの注視度の注視期間(時間)に対応する対応視線期間とを割り当てて記録部34cへ記録する。すなわち、解析部40は、表示倍率が大きいほど対応視線期間のランクが高くなるような処理を行う。設定部38cは、CPU、FPGAおよびGPU等を用いて構成される。
【0121】
〔顕微鏡システムの処理〕
次に、顕微鏡システム100が実行する処理について説明する。
図17は、顕微鏡システム100が実行する処理の概要を示すフローチャートである。
【0122】
図17に示すように、まず、制御部32cは、視線検出部30が生成した視線データ、音声入力部31が生成した音声データ、および倍率算出部325が算出した観察倍率の各々を時間計測部33によって計測された時間を対応付けて視線データ記録部341および音声データ記録部342に記録する(ステップS401)。ステップS401の後、顕微鏡システム100は、後述するステップS402へ移行する。
【0123】
ステップS402~ステップS406は、上述した
図12のステップS302~ステップS307それぞれに対応する。ステップS406の後、顕微鏡システム100は、ステップS407へ移行する。
【0124】
ステップS407において、解析部40は、解析した注視度と、設定部11が設定した音声データの重要期間と、倍率算出部325が算出した算出結果と、に基づいて、視線データに対応視線期間および変換部35によって変換された文字情報を割り当てて記録部34cに記録する。具体的には、解析部40は、解析した注視度に、倍率算出部325が算出した算出結果に基づく係数および重要期間のキーワードに応じた係数の各々を乗じた値と、音声データの重要期間前後に対応する視線データの注視度の注視期間(時間)に対して対応視線期間として割り当てて記録部34cへ記録する。ステップS407の後、顕微鏡システム100は、ステップS408へ移行する。
【0125】
ステップS408~ステップS412は、上述した
図12のステップS309~ステップS313それぞれに対応する。
【0126】
以上説明した実施の形態4によれば、設定部38cが解析部40によって解析された注視度と倍率算出部325が算出した算出結果とに基づいて、視線データと同じ時間軸が対応付けられた音声データに重要度および変換部35によって変換された文字情報を割り当てて記録部34cすることによって、観察倍率および注視度に基づいた重要度が音声データに割り当てられるので、観察内容および注視度を加味した音声データの重要な期間を把握することができる。
【0127】
なお、実施の形態4では、倍率算出部325が算出した観察倍率を記録部14に記録していたが、利用者U2の操作履歴を記録し、この操作履歴をさらに加味して視線データの対応視線期間を割り当ててもよい。
【0128】
(実施の形態5)
次に、本開示の実施の形態5について説明する。実施の形態5では、内視鏡システムの一部に情報処理装置を組み込むことによって構成する。以下においては、実施の形態4に係る内視鏡システムの構成を説明後、実施の形態4に係る内視鏡システムが実行する処理について説明する。なお、上述した実施の形態2に係る情報処理装置1bと同一の構成には同一の符号を付して詳細な説明は適宜省略する。
【0129】
〔内視鏡システムの構成〕
図18は、実施の形態5に係る内視鏡システムの構成を示す概略図である。
図19は、実施の形態5に係る内視鏡システムの機能構成を示すブロック図である。
【0130】
図18および
図19に示す内視鏡システム300は、表示部20と、内視鏡400と、ウェアラブルデバイス500と、入力部600と、情報処理装置1dと、を備える。
【0131】
〔内視鏡の構成〕
まず、内視鏡400の構成について説明する。
内視鏡400は、医者や術者等の利用者U3が被検体U4に挿入することによって、被検体U4の内部を撮像することによって画像データを生成し、この画像データを情報処理装置1dへ出力する。内視鏡400は、撮像部401と、操作部402と、を備える。
【0132】
撮像部401は、内視鏡400の挿入部の先端部に設けられる。撮像部401は、情報処理装置1dの制御のもと、被検体U4の内部を撮像することによって画像データを生成し、この画像データを情報処理装置1dへ出力する。撮像部401は、観察倍率を変更することができる光学系と、光学系が結像した被写体像を受光することによって画像データを生成するCMOSやCCD等のイメージセンサ等を用いて構成される。
【0133】
操作部402は、利用者U3の各種の操作の入力を受け付け、受け付けた各種操作に応じた操作信号を情報処理装置1dへ出力する。
【0134】
〔ウェアラブルデバイスの構成〕
次に、ウェアラブルデバイス500の構成について説明する。
ウェアラブルデバイス500は、利用者U3に装着され、利用者U3の視線を検出するとともに、利用者U3の音声の入力を受け付ける。ウェアラブルデバイス500は、視線検出部510と、音声入力部520と、を有する。
【0135】
視線検出部510は、ウェアラブルデバイス500に設けられ、利用者U3の視線の注視度を検出することによって視線データを生成し、この視線データを情報処理装置1dへ出力する。視線検出部510は、上述した実施の形態3に係る視線検出部220と同様の構成を有するため、詳細な構成は省略する。
【0136】
音声入力部520は、ウェアラブルデバイス500に設けられ、利用者U3の音声の入力を受け付けることによって音声データを生成し、この音声データを情報処理装置1dへ出力する。音声入力部520は、マイク等を用いて構成される。
【0137】
〔入力部の構成〕
入力部600の構成について説明する。
入力部600は、マウス、キーボード、タッチパネルおよび各種のスイッチを用いて構成される。入力部600は、利用者U3の各種の操作の入力を受け付け、受け付けた各種操作に応じた操作信号を情報処理装置1dへ出力する。
【0138】
〔情報処理装置の構成〕
次に、情報処理装置1dの構成について説明する。
情報処理装置1dは、上述した実施の形態3に係る情報処理装置1cの制御部32c、記録部34c、設定部38c、解析部40に換えて、制御部32d、記録部34d、設定部38dおよび解析部40dを備える。さらに、情報処理装置1dは、画像処理部41をさらに備える。
【0139】
制御部32dは、CPU、FPGAおよびGPU等を用いて構成され、内視鏡400、ウェアラブルデバイス500および表示部20を制御する。制御部32dは、視線検出制御部321、音声入力制御部322、表示制御部323、撮影制御部324に加えて、操作履歴検出部326を備える。
【0140】
操作履歴検出部326は、内視鏡400の操作部402が入力を受け付けた操作の内容を検出し、この検出結果を記録部34dに出力する。具体的には、操作履歴検出部326は、内視鏡400の操作部402から拡大スイッチが操作された場合、この操作内容を検出し、この検出結果を記録部34dに出力する。なお、操作履歴検出部326は、内視鏡400を経由して被検体U4の内部に挿入される処置具の操作内容を検出し、この検出結果を記録部34dに出力してもよい。
【0141】
記録部34dは、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成される。記録部34dは、上述した実施の形態3に係る記録部34cの構成に加えて、操作履歴記録部347をさらに備える。
【0142】
操作履歴記録部347は、操作履歴検出部326から入力された内視鏡400の操作部402に対する操作の履歴を記録する。
【0143】
生成部39dは、後述する画像処理部41が生成した統合画像データに対応する統合画像上に、後述する解析部40dが解析した対応視線期間および文字情報を関連付けた視線マッピングデータを生成し、この生成した視線マッピングデータを記録部34dおよび表示制御部323へ出力する。
【0144】
解析部40dは、音声データと同じ時間軸が対応付けられた視線データに基づいて、視線の移動速度、一定の時間内における視線の移動距離、一定領域内における視線の滞留時間のいずれか1つを検出することによって、視線(注視点)の注視度を解析する。そして、解析部40dは、解析した注視度と、設定部38が設定した音声データの重要期間と、操作履歴記録部346が記録する操作履歴と、に基づいて、視線データに対応視線期間および変換部35によって変換された文字情報を割り当てて記録部34cに記録する。具体的には、解析部40dは、解析した注視度に、操作履歴記録部346が記録する操作履歴に基づく係数および設定部38が設定した重要期間のキーワードに応じた係数の各々を乗じた値を、音声データの重要期間前後に対応する視線データの注視度の注視期間(時間)に対応視線期間として割り当てて記録部34cへ記録する。すなわち、解析部40は、重要な操作内容、例えば拡大観察や病変に対する処置対応等の重要な操作内容が大きいほど対応視線期間のランクが高くなるような処理を行う。解析部40dは、CPU、FPGAおよびGPU等を用いて構成される。
【0145】
画像処理部41は、画像データ記録部346が記録する複数の画像データを合成することによって3次元画像の統合画像データを生成し、この統合画像データを生成部39dへ出力する。
【0146】
〔内視鏡システムの処理〕
次に、内視鏡システム300が実行する処理について説明する。
図20は、内視鏡システム300が実行する処理の概要を示すフローチャートである。
【0147】
図20に示すように、まず、制御部32dは、視線検出部30が生成した視線データ、音声入力部31が生成した音声データ、および操作履歴検出部326が検出した操作履歴の各々を時間計測部33によって計測された時間と対応付けて視線データ記録部341、音声データ記録部342および操作履歴記録部346に記録する(ステップS501)。ステップS501の後、内視鏡システム300は、後述するステップS502へ移行する。
【0148】
ステップS502~ステップS506は、上述した
図12のステップS303~ステップS307それぞれに対応する。ステップS506の後、内視鏡システム300は、ステップS507へ移行する。
【0149】
ステップS507において、解析部40dは、解析した注視度と、設定部38が設定した音声データの重要期間と、操作履歴記録部346が記録する操作履歴と、に基づいて、視線データに対応視線期間および変換部35によって変換された文字情報を割り当てて記録部34cに記録する。具体的には、解析部40dは、解析した注視度に、操作履歴記録部346が記録する操作履歴に基づく係数および設定部38が設定した重要期間のキーワードに応じた係数の各々を乗じた値を、音声データの重要期間前後に対応する視線データの注視度の注視期間(時間)に対応視線期間として割り当てて記録部34cへ記録する。
【0150】
続いて、画像処理部41は、画像データ記録部346が記録する複数の画像データを合成することによって3次元画像の統合画像データを生成し、この統合画像データを生成部39dへ出力する(ステップS508)。
図21は、画像データ記録部346が記録する複数の画像データに対応する複数の画像の一例を模式的に示す図である。
図22は、画像処理部41が生成する統合画像データに対応する統合画像の一例を示す図である。
図21および
図22に示すように、画像処理部41は、時間的に連続する複数の画像データP11~P
N(N=整数)を合成することによって統合画像データに対応する統合画像P100を生成する。
【0151】
その後、生成部39dは、画像処理部41が生成した統合画像データに対応する統合画像P100上に、解析部40dが解析した対応視線期間、視線および文字情報を関連付けた視線マッピングデータを生成し、この生成した視線マッピングデータを記録部34dおよび表示制御部323へ出力する(ステップS509)。この場合、生成部39dは、画像処理部41が生成した統合画像データに対応する統合画像P100上に、解析部40dが解析した対応視線期間、視線K2および文字情報に加えて、操作履歴を関連付けてもよい。ステップS509の後、内視鏡システム300は、後述するステップS510へ移行する。
【0152】
ステップS510~ステップS513は、上述した
図12のステップS308~ステップS311それぞれに対応する。
【0153】
以上説明した実施の形態5によれば、解析部40dは、解析した注視度に、操作履歴記録部346が記録する操作履歴に基づく係数および設定部38が設定した重要期間のキーワードに応じた係数の各々を乗じた値を、音声データの重要期間前後に対応する視線データの注視度の注視期間(時間)に対応視線期間として割り当てて記録部34cへ記録するので、操作内容および注視度を加味した視線データの重要な期間を把握することができる。
【0154】
また、実施の形態5では、内視鏡システムであったが、例えばカプセル型の内視鏡、被検体を撮像するビデオマイクロスコープ、撮像機能を有する携帯電話および撮像機能を有するタブレット型端末であっても適用することができる。
【0155】
また、実施の形態5では、軟性の内視鏡を備えた内視鏡システムであったが、硬性の内視鏡を備えた内視鏡システム、工業用の内視鏡を備えた内視鏡システムであっても適用することができる。
【0156】
また、実施の形態5では、被検体に挿入される内視鏡を備えた内視鏡システムであったが、副鼻腔内視鏡および電気メスや検査プローブ等の内視鏡システムであっても適用することができる。
【0157】
(実施の形態6)
次に、本開示の実施の形態6について説明する。上述した実施の形態1~5は、利用者が一人の場合を想定していたが、実施の形態6では、2人以上の利用者を想定する。さらに、実施の形態6では、複数の利用者で画像を閲覧する情報処理システムに情報処理装置を組み込むことによって構成する。以下においては、実施の形態6に係る閲覧システムの構成を説明後、実施の形態6に係る情報処理システムが実行する処理について説明する。なお、上述した実施の形態2に係る情報処理装置1bと同一の構成には同一の符号を付して詳細な説明は適宜省略する。
【0158】
〔情報処理システムの構成〕
図23は、実施の形態6に係る情報処理システムの機能構成を示すブロック図である。
図23に示す情報処理システム700は、表示部20と、第1ウェアラブルデバイス710と、第2ウェアラブルデバイス720と、検出部730と、情報処理装置1eと、を備える。
【0159】
〔第1ウェアラブルデバイスの構成〕
まず、第1ウェアラブルデバイス710の構成について説明する。
第1ウェアラブルデバイス710は、利用者に装着され、利用者の視線を検出するとともに、利用者の音声の入力を受け付ける。第1ウェアラブルデバイス710は、第1視線検出部711と、第1音声入力部712と、を有する。第1視線検出部711および第1音声入力部712は、上述した実施の形態4に係る視線検出部510および音声入力部520と同様の構成を有するため、詳細な構成は省略する。
【0160】
〔第2ウェアラブルデバイスの構成〕
次に、第2ウェアラブルデバイス720の構成について説明する。
第2ウェアラブルデバイス720は、上述した第1ウェアラブルデバイス710と同様の構成を有し、利用者に装着され、利用者の視線を検出するとともに、利用者の音声の入力を受け付ける。第2ウェアラブルデバイス720は、第2視線検出部721と、第2音声入力部722と、を有する。第2視線検出部721および第2音声入力部722は、上述した実施の形態4に係る視線検出部510および音声入力部520と同様の構成を有するため、詳細な構成は省略する。
【0161】
〔検出部の構成〕
次に、検出部730の構成について説明する。
検出部730は、複数の利用者の各々を識別する識別情報を検出し、この検出結果を情報処理装置1eへ出力する。検出部730は、複数の利用者の各々を識別する識別情報(例えばIDや名前等)を記録するICカードから利用者の識別情報を検出し、この検出結果を情報処理装置1eへ出力する。検出部730は、例えば、ICカードを読み取るカードリーダ等を用いて構成される。なお、検出部730は、複数の利用者の顔を撮像することによって生成した画像データに対応する画像に対して、予め設定された利用者の顔の特徴点および周知のパターンマッチングを用いて利用者を識別し、この識別結果を情報処理装置1eへ出力するようにしてもよい。もちろん、検出部730は、操作部37からの操作に応じて入力された信号に基づいて、利用者を識別し、この識別結果を情報処理装置1eへ出力するようにしてもよい。
【0162】
〔情報処理装置の構成〕
次に、情報処理装置1eの構成について説明する。
情報処理装置1eは、上述した実施の形態4に係る情報処理装置1dの制御部32d、記録部34dおよび解析部40dに換えて、制御部32e、記録部34eおよび解析部40eを備える。
【0163】
制御部32eは、CPU、FPGAおよびGPU等を用いて構成され、第1ウェアラブルデバイス710、第2ウェアラブルデバイス720、検出部730および表示部20を制御する。制御部32eは、視線検出制御部321、音声入力制御部322、表示制御部323に加えて、識別検出制御部327を備える。
【0164】
識別検出制御部327は、検出部730を制御し、検出部730が取得した取得結果に基づいて、複数の利用者の各々を識別し、この識別結果を記録部34eへ出力する。
【0165】
記録部34eは、揮発性メモリ、不揮発性メモリおよび記録媒体等を用いて構成される。記録部34eは、上述した実施の形態3に係る記録部34cの構成に加えて、識別情報記録部348をさらに備える。
【0166】
識別情報記録部348は、識別検出制御部327から入力された複数の利用者の各々の識別情報を記録する。
【0167】
解析部40eは、音声データと同じ時間軸が対応付けられた視線データに基づいて、視線の移動速度、一定の時間内における視線の移動距離、一定領域内における視線の滞留時間のいずれか1つを検出することによって、視線(注視点)の注視度を解析する。そして、解析部40eは、解析した注視度と、設定部38が設定した音声データの重要期間と、識別情報記録部348が記録する識別情報と、に基づいて、視線データに対応視線期間および変換部35によって変換された文字情報を割り当てて記録部34eに記録する。具体的には、解析部40eは、解析した注視度に、識別情報記録部348が記録する各利用者の識別情報に応じた係数および設定部38が設定した重要期間のキーワードに応じた係数の各々を乗じた値を、音声データの重要期間前後に対応する視線データの注視度の注視期間(時間)に対応視線期間として割り当てて記録部34eへ記録する。すなわち、解析部40eは、重要な利用者(例えば役職に応じて設定されたランク)ほど対応視線期間のランクが高くなる処理を行う。解析部40eは、CPU、FPGAおよびGPU等を用いて構成される。
【0168】
〔情報処理システムの処理〕
次に、情報処理システム700が実行する処理について説明する。
図24は、情報処理システム700が実行する処理の概要を示すフローチャートである。
【0169】
図24に示すように、表示制御部323は、画像データ記録部343が記録する画像データに対応する画像を表示部20に表示させる(ステップS601)。
【0170】
続いて、制御部32eは、第1ウェアラブルデバイス710および第2ウェアラブルデバイス720の各々が生成した視線データ、音声データ、および検出部730が取得した識別情報の各々を時間計測部33によって計測された時間と対応付けて視線データ記録部341、音声データ記録部342および識別情報記録部348に記録する(ステップS602)。ステップS602の後、情報処理システム700は、ステップS603へ移行する。
【0171】
ステップS603~ステップS607は、上述した
図12のステップS302~ステップS307それぞれに対応する。ステップS607の後、情報処理システム700は、後述するステップS608へ移行する。
【0172】
続いて、解析部40eは、解析した注視度に、識別情報記録部348が記録する各利用者の識別情報に応じた係数および設定部38が設定した重要期間のキーワードに応じた係数の各々を乗じた値を、音声データの重要期間前後に対応する視線データの注視度の期間(時間)に対応視線期間として割り当てて記録部34cへ記録する(ステップS608)。
【0173】
ステップS609~ステップS613は、上述した
図12のステップS309~ステップS313それぞれに対応する。
【0174】
以上説明した実施の形態5によれば、解析部40eが解析した注視度に、識別情報記録部348が記録する各利用者の識別情報に応じた係数および設定部38が設定した重要期間のキーワードに応じた係数の各々を乗じた値を、音声データの重要期間前後に対応する視線データの注視度の注視期間(時間)に対応視線期間として割り当てて記録部34eへ記録することによって、識別情報よび注視度に基づいた重要度が第1音声データまたは第2音声データに割り当てられるので、利用者に応じた注視度を加味した音声データの重要な期間を把握することができる。
【0175】
なお、実施の形態5では、解析部40eが解析した注視度に、識別情報記録部348が記録する各利用者の識別情報に応じた係数および設定部38が設定した重要期間のキーワードに応じた係数の各々を乗じた値を、音声データの重要期間前後に対応する視線データの注視度の注視期間(時間)に対応視線期間として割り当てて記録部34eへ記録していたが、これに限定されることなく、例えば複数の利用者の各々の位置を検出し、この検出結果を設定部38が設定した重要期間のキーワードに応じた係数の各々を乗じた値を、音声データの重要期間前後に対応する第1視線データおよび第2視線データの注視度の期間(時間)に対応視線期間として割り当てて、記録部34eへ記録してもよい。
【0176】
(その他の実施の形態)
上述した実施の形態1~5に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した実施の形態1~5に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した実施の形態1~5で説明した構成要素を適宜組み合わせてもよい。
【0177】
また、実施の形態1~5において、上述してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。
【0178】
また、実施の形態1~5に係る情報処理装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
【0179】
また、実施の形態1~5に係る情報処理装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。さらに、実施の形態1~5に係る情報処理装置に実行させるプログラムをインターネット等のネットワーク経由で提供または配布するようにすればよい。
【0180】
また、実施の形態1~5では、伝送ケーブルを経由して各種機器から信号を送信していたが、例えば有線である必要はなく、無線であってもよい。この場合、所定の無線通信規格(例えばWi-Fi(登録商標)やBluetooth(登録商標))に従って、各機器から信号を送信するようにすればよい。もちろん、他の無線通信規格に従って無線通信を行ってもよい。
【0181】
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
【0182】
以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、本発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
【符号の説明】
【0183】
1,1a 情報処理システム
1b,1c,1d,1e,10,10a 情報処理装置
11,38,38c,38d 設定部
12,12a,40,40d,40e 解析部
13,39,39d 生成部
14,34,34c,34d,34e 記録部
15 表示制御部
20 表示部
30,220,222,510 視線検出部
31,520 音声入力部
32,32c,32d,32e 制御部
35 変換部
36 抽出部
37,402 操作部
41 画像処理部
100 顕微鏡システム
200 顕微鏡
201 本体部
202 回転部
203 昇降部
204 レボルバ
205 対物レンズ
206 倍率検出部
207 鏡筒部
208 接続部
209 接眼部
210,401 撮像部
300 内視鏡システム
321 視線検出制御部
322 音声入力制御部
323 表示制御部
324 撮影制御部
325 倍率算出部
326 操作履歴検出部
327 識別検出制御部
341 視線データ記録部
342 音声データ記録部
343 画像データ記録部
344 プログラム記憶部
345 重要単語記憶部
346 操作履歴記録部
347 操作履歴記録部
348 識別情報記録部
400 内視鏡
500 ウェアラブルデバイス
600 入力部
700 情報処理システム
710 第1ウェアラブルデバイス
711 第1視線検出部
712 第1音声入力部
720 第2ウェアラブルデバイス
721 第2視線検出部
722 第2音声入力部
730 検出部