IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ KDDI株式会社の特許一覧

<>
  • 特許-情報端末、情報処理方法及びプログラム 図1
  • 特許-情報端末、情報処理方法及びプログラム 図2
  • 特許-情報端末、情報処理方法及びプログラム 図3
  • 特許-情報端末、情報処理方法及びプログラム 図4
  • 特許-情報端末、情報処理方法及びプログラム 図5
  • 特許-情報端末、情報処理方法及びプログラム 図6
  • 特許-情報端末、情報処理方法及びプログラム 図7
  • 特許-情報端末、情報処理方法及びプログラム 図8
  • 特許-情報端末、情報処理方法及びプログラム 図9
  • 特許-情報端末、情報処理方法及びプログラム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-18
(45)【発行日】2024-12-26
(54)【発明の名称】情報端末、情報処理方法及びプログラム
(51)【国際特許分類】
   G09B 9/00 20060101AFI20241219BHJP
   G09B 5/02 20060101ALI20241219BHJP
   G06F 3/01 20060101ALI20241219BHJP
【FI】
G09B9/00 Z
G09B5/02
G06F3/01 510
【請求項の数】 10
(21)【出願番号】P 2021208559
(22)【出願日】2021-12-22
(65)【公開番号】P2023093124
(43)【公開日】2023-07-04
【審査請求日】2024-01-17
(73)【特許権者】
【識別番号】000208891
【氏名又は名称】KDDI株式会社
(74)【代理人】
【識別番号】110004222
【氏名又は名称】弁理士法人創光国際特許事務所
(74)【代理人】
【識別番号】100166006
【弁理士】
【氏名又は名称】泉 通博
(74)【代理人】
【識別番号】100154070
【弁理士】
【氏名又は名称】久恒 京範
(74)【代理人】
【識別番号】100153280
【弁理士】
【氏名又は名称】寺川 賢祐
(72)【発明者】
【氏名】福原 忠行
【審査官】白形 優依
(56)【参考文献】
【文献】特開2019-185634(JP,A)
【文献】特開2020-201793(JP,A)
【文献】山崎寛 ほか,VR技術を用いた高齢者ケアシミュレータ:介護者の行動センシング手法の提案,第23回日本バーチャルリアリティ学会大会論文集,2018年09月,21E-3,pp.1-4
【文献】[認知症介護の本]ユマニチュードの技術1 見る(下),よみもの.com 誠文堂新光社 [online],2018年09月11日,[2024年9月18日検索], インターネット <URL:https://43mono.com/series/humanitude_f/humanitude_f7/>
【文献】平松知樹 ほか,拡張現実と分布型接触センサを組み合わせた認知症ケア教育システムの開発,ロボティクスメカトロニクス講演会2019講演会論文集,一般社団法人日本機械学会,2019年12月26日,pp.1-4
【文献】石坂 諒任 ほか,講演者の視線と発話に基づく積極的傾聴キャラクタを用いた没入型講演体験システムの開発,第81回(2019年)全国大会講演論文集,2019年02月28日,pp.4-235 - 4-236
【文献】平松知樹 ほか,拡張現実と分布型触覚センサを組み合わせた認知症ケア教育システムの開発 シナリオに基づく訓練システムと実証実験,ロボティクス・メカトロニクス講演会2020予稿集,一般社団法人日本機械学会,2021年07月21日,pp.1-4
【文献】沖野祐介 ほか,頭部装着型カメラを用いた介護スキル評価,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,Vol.116, No.39,pp.95-100
(58)【調査した分野】(Int.Cl.,DB名)
G09B 1/00 - 9/56
G09B17/00 - 19/26
G06F 3/01 - 3/04895
(57)【特許請求の範囲】
【請求項1】
被介護者とのコミュニケーションの訓練をユーザに提供する情報端末であって、
前記被介護者の3次元映像を表示する提示部と、
前記3次元映像を提示する空間における前記被介護者の視界の領域を決定する視界領域決定部と、
前記空間における前記ユーザの位置が前記視界の領域に含まれるか否かを判定する判定部と、を有し、
前記提示部は、前記判定部の判定結果に応じて異なる前記被介護者の前記3次元映像を表示する、
情報端末。
【請求項2】
前記視界領域決定部は、前記被介護者の前記3次元映像の表示を開始する際に、前記視界の領域を特定するための距離、視野角を示すそれぞれのパラメータについて、所定の範囲から値を決定し、決定したパラメータに基づいて前記被介護者の視界の領域を決定する、
請求項1に記載の情報端末。
【請求項3】
前記視界領域決定部は、前記被介護者の前記3次元映像の表示を開始する際に、前記視界の領域を特定するための距離、水平方向の視野角及び鉛直方向の視野角を示すそれぞれのパラメータについて、所定の範囲から値を決定し、決定したパラメータに基づいて前記被介護者の視界の領域を決定する、
請求項2に記載の情報端末。
【請求項4】
前記ユーザから操作を受け付ける操作受付部をさらに有し、
前記提示部は、前記操作受付部が前記視界の領域を表示する操作を受け付けた場合に、前記視界領域決定部が決定した前記被介護者の視界の領域を表示する、
請求項1から3のいずれか1項に記載の情報端末。
【請求項5】
前記ユーザの発声を検知する音声検知部をさらに有し、
前記判定部は、前記ユーザの発声を検知した場合に、前記ユーザの位置が前記視界の領域に含まれるか否かを判定し、
前記提示部は、前記ユーザの位置が前記視界の領域に含まれる場合、前記被介護者が第1の動作をする映像を表示し、前記ユーザの位置が前記視界の領域に含まれない場合、前記被介護者が第2の動作をする映像を表示する、
請求項1から4のいずれか1項に記載の情報端末。
【請求項6】
前記ユーザの視界の少なくとも一部を撮像対象領域とする撮像部が撮像することによって生成される撮像データを取得する撮像データ取得部と、
前記撮像データに含まれる前記ユーザの手の位置を検出する検出部をさらに有し、
前記判定部は、前記ユーザの手の位置が前記空間における前記被介護者の位置と重なる場合に、前記空間における前記ユーザの位置が前記視界の領域に含まれるか否かを判定する、
請求項1から5のいずれか1項に記載の情報端末。
【請求項7】
前記ユーザの視界の少なくとも一部を撮像対象領域とする撮像部が撮像することによって生成される撮像データを取得する撮像データ取得部と、
撮像データに含まれるダミーであって、前記3次元映像を重畳させるための前記ダミーを検出する検出部と、
圧力を検知する圧力検知手段を搭載した前記ダミーから前記ダミーにかかる圧力の強さを示す圧力情報を取得する圧力情報取得部と、を有し、
前記判定部は、取得した前記圧力情報が示す圧力が第1の閾値以上であるかをさらに判定し、
前記提示部は、前記被介護者の前記3次元映像を前記検出部が検出した前記ダミーに重畳して表示し、取得した前記圧力情報が示す圧力が前記第1の閾値以上であって前記ユーザの位置が前記視界の領域に含まれる場合、前記被介護者が前記第1の動作をする映像を表示し、取得した前記圧力情報が示す圧力が前記第1の閾値以上であって前記ユーザの位置が前記視界の領域に含まれない場合に、前記被介護者が前記第2の動作をする映像を表示する、
請求項5に記載の情報端末。
【請求項8】
前記判定部は、取得した前記圧力情報が示す圧力が第2の閾値未満であるかをさらに判定し、
前記提示部は、取得した前記圧力情報が示す圧力が前記第2の閾値以上である場合に、前記被介護者が前記第2の動作をする映像を表示し、取得した前記圧力情報が示す圧力が前記第1の閾値以上かつ前記第2の閾値未満であって前記ユーザの位置が前記視界の領域に含まれる場合、前記被介護者が前記第1の動作をする映像を表示し、取得した前記圧力情報が示す圧力が前記第1の閾値以上かつ前記第2の閾値未満であって前記ユーザの位置が前記視界の領域に含まれない場合に、前記被介護者が前記第2の動作をする映像を表示する、
請求項7に記載の情報端末。
【請求項9】
コンピュータが実行する、
被介護者の3次元映像を表示するステップと、
前記3次元映像を提示する空間における前記被介護者の視界の領域を決定するステップと、
前記空間におけるユーザの位置が前記視界の領域に含まれるか否かを判定するステップと、
前記判定するステップにおける判定結果に応じて異なる前記被介護者の前記3次元映像を表示するステップと、
を有する情報処理方法。
【請求項10】
コンピュータに、
被介護者の3次元映像を表示するステップと、
前記3次元映像を提示する空間における前記被介護者の視界の領域を決定するステップと、
前記空間におけるユーザの位置が前記視界の領域に含まれるか否かを判定するステップと、
前記判定するステップにおける判定結果に応じて異なる前記被介護者の前記3次元映像を表示するステップと、
を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報端末、情報処理方法及びプログラムに関する。
【背景技術】
【0002】
要介護者の介護をする介護者の訓練を行うためのシステムが知られている(例えば、特許文献1を参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2016-151750号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
高齢者や認知症患者の介護において、被介護者の視界に入りケアを行うユマニチュードが注目されている。ユマニチュードに基づいたケアを促進するためには被介護者を介護する介護者が、被介護者の視界に入り、被介護者とのコミュニケーションを行う訓練が必要となる。ここで、介護者の訓練の質をより高めるためには、被介護者の視界の広さを訓練者である介護者が体験できる必要があるが、従来の訓練システムにおいては、このような訓練は提供されていなかった。
【0005】
そこで、本発明はこれらの点に鑑みてなされたものであり、訓練者が被介護者の視界の広さを体験できるようにすることを目的とする。
【課題を解決するための手段】
【0006】
本発明の第1の態様の情報端末においては、被介護者とのコミュニケーションの訓練をユーザに提供する情報端末であって、前記被介護者の3次元映像を表示する提示部と、前記3次元映像を提示する空間における前記被介護者の視界の領域を決定する視界領域決定部と、前記空間における前記ユーザの位置が前記視界の領域に含まれるか否かを判定する判定部と、を有し、前記提示部は、前記判定部の判定結果に応じて異なる前記被介護者の前記3次元映像を表示する。
【0007】
前記視界領域決定部は、前記被介護者の前記3次元映像の表示を開始する際に、前記視界の領域を特定するための距離、視野角を示すそれぞれのパラメータについて、所定の範囲から値を決定し、決定したパラメータに基づいて前記被介護者の視界の領域を決定してもよい。
【0008】
前記視界領域決定部は、前記被介護者の前記3次元映像の表示を開始する際に、前記視界の領域を特定するための距離、水平方向の視野角及び鉛直方向の視野角を示すそれぞれのパラメータについて、所定の範囲から値を決定し、決定したパラメータに基づいて前記被介護者の視界の領域を決定してもよい。
【0009】
前記ユーザから操作を受け付ける操作受付部をさらに有し、前記提示部は、前記操作受付部が前記視界の領域を表示する操作を受け付けた場合に、前記視界領域決定部が決定した前記被介護者の視界の領域を表示してもよい。
【0010】
前記ユーザの発声を検知する音声検知部をさらに有し、前記判定部は、前記ユーザの発声を検知した場合に、前記ユーザの位置が前記視界の領域に含まれるか否かを判定し、前記提示部は、前記ユーザの位置が前記視界の領域に含まれる場合、前記被介護者が第1の動作をする映像を表示し、前記ユーザの位置が前記視界の領域に含まれない場合、前記被介護者が第2の動作をする映像を表示してもよい。
【0011】
前記ユーザの視界の少なくとも一部を撮像対象領域とする撮像部が撮像することによって生成される撮像データを取得する撮像データ取得部と、前記撮像データに含まれる前記ユーザの手の位置を検出する検出部をさらに有し、前記判定部は、前記ユーザの手の位置が前記空間における前記被介護者の位置と重なる場合に、前記空間における前記ユーザの位置が前記視界の領域に含まれるか否かを判定してもよい。
【0012】
前記ユーザの視界の少なくとも一部を撮像対象領域とする撮像部が撮像することによって生成される撮像データを取得する撮像データ取得部と、撮像データに含まれるダミーであって、前記3次元映像を重畳させるための前記ダミーを検出する検出部と、圧力を検知する圧力検知手段を搭載した前記ダミーから前記ダミーにかかる圧力の強さを示す圧力情報を取得する圧力情報取得部と、を有し、前記判定部は、取得した前記圧力情報が示す圧力が第1の閾値以上であるかをさらに判定し、前記提示部は、前記被介護者の前記3次元映像を前記検出部が検出した前記ダミーに重畳して表示し、取得した前記圧力情報が示す圧力が前記第1の閾値以上であって前記ユーザの位置が前記視界の領域に含まれる場合、前記被介護者が前記第1の動作をする映像を表示し、取得した前記圧力情報が示す圧力が前記第1の閾値以上であって前記ユーザの位置が前記視界の領域に含まれない場合に、前記被介護者が前記第2の動作をする映像を表示してもよい。
【0013】
前記判定部は、取得した前記圧力情報が示す圧力が第2の閾値未満であるかをさらに判定し、前記提示部は、取得した前記圧力情報が示す圧力が前記第2の閾値以上である場合に、前記被介護者が前記第2の動作をする映像を表示し、取得した前記圧力情報が示す圧力が前記第1の閾値以上かつ前記第2の閾値未満であって前記ユーザの位置が前記視界の領域に含まれる場合、前記被介護者が前記第1の動作をする映像を表示し、取得した前記圧力情報が示す圧力が前記第1の閾値以上かつ前記第2の閾値未満であって前記ユーザの位置が前記視界の領域に含まれない場合に、前記被介護者が前記第2の動作をする映像を表示してもよい。
【0014】
本発明の第2の態様の情報処理方法においては、コンピュータが実行する、被介護者の3次元映像を表示するステップと、前記3次元映像を提示する空間における前記被介護者の視界の領域を決定するステップと、前記空間におけるユーザの位置が前記視界の領域に含まれるか否かを判定するステップと、前記判定するステップにおける判定結果に応じて異なる前記被介護者の前記3次元映像を表示するステップと、を有する。
【0015】
本発明の第3の態様のプログラムにおいては、コンピュータに、被介護者の3次元映像を表示するステップと、前記3次元映像を提示する空間における前記被介護者の視界の領域を決定するステップと、前記空間におけるユーザの位置が前記視界の領域に含まれるか否かを判定するステップと、前記判定するステップにおける判定結果に応じて異なる前記被介護者の前記3次元映像を表示するステップと、を実行させる。
【発明の効果】
【0016】
本発明によれば、訓練者が被介護者の視界の広さを体験することができる。
【図面の簡単な説明】
【0017】
図1】情報端末1による訓練の概要を説明する図である。
図2】情報端末1の構成を示すブロック図である。
図3】提示部11が表示する被介護者の動作の一例を示す図である。
図4】提示部11が表示する被介護者の動作の一例を示す図である。
図5】視界領域決定部151が決定する視界の領域の一例を示す図である。
図6】提示部11が被介護者の視界の領域を表示する一例を示す図である。
図7】情報端末1における処理の流れを示すフローチャートである。
図8】変形例にかかる情報端末1の構成を示すブロック図である。
図9】第2の実施例にかかる情報端末1Bによる訓練の概要を説明する図である。
図10】第2の実施例にかかる情報端末1Bの構成を示すブロック図である。
【発明を実施するための形態】
【0018】
<第1の実施形態>
図1は、情報端末1による訓練の概要を説明する図である。図1においては、情報端末1を装着した介護者U(ユーザとも言う)が、被介護者Aを介助する際のコミュニケーションについての訓練を受けている様子を示している。図1に示す被介護者Aは、情報端末1に表示された映像である。被介護者Aから伸びる破線で区切られた領域Fは、情報端末1によって決定された被介護者Aの視界を示している。
【0019】
情報端末1は、被介護者Aを介護する介護者Uに被介護者Aとのコミュニケーションの訓練を提供する装置である。情報端末1は例えば、ヘッドマウントディスプレイである。情報端末1は、VR(Virtual Reality)により被介護者Aを表示してもよい。また、情報端末1は、MR(Mixed Reality)により現実空間に配置された所定の物に重畳して被介護者Aを表示してもよい。
【0020】
介護者Uが訓練を開始する操作をすると、情報端末1は、訓練空間における被介護者Aの位置を決定する。そして、情報端末1は、被介護者Aの位置と視界の領域を決定するパラメータとに基づいて被介護者Aの視界の領域Fを決定する。
【0021】
情報端末1は、情報端末1の位置情報に基づいて、訓練空間における介護者Uの位置を特定する。情報端末1は、例えばGPS(Global Positioning System)で位置情報を取得してもよいし、情報端末1の加速度に基づいて介護者Uの位置を算出してもよい。また、情報端末1は、情報端末1が撮像した映像に基づいて介護者Uの位置を特定してもよい。
【0022】
そして、情報端末1は、介護者Uが被介護者Aに声掛けをした場合に介護者Uが被介護者Aの視界の領域の中に位置するかを判定する。一例として情報端末1は、介護者Uが所定の発声をしたことを検出した場合に、介護者Uが被介護者Aに声掛けをしたことを特定する。
【0023】
情報端末1は、被介護者Aに声掛けをした際に、介護者Uが被介護者Aの視界の領域の中に位置していたかに基づいて、被介護者Aが異なる動作をする映像を表示する。一例として、介護者Uが被介護者Aの視界の領域の中に位置していた場合、情報端末1は、被介護者Aが笑顔で応答する映像を表示してもよい。そして、介護者Uが被介護者Aの視界の領域の中に位置していない場合、情報端末1は、被介護者Aが機嫌の悪い様子で応答をする映像を表示してもよい。
【0024】
情報端末1が、上記のような構成を有することで、訓練をうける介護者に被介護者の視野の広さを体験させることができる。特に、認知症の患者の視野は健常者の視野と比較して狭くなることが知られている。情報端末1を用いた訓練を行うことにより、訓練を受ける介護者はそのような視界の広さの違いを体験することができる。
【0025】
[情報端末1の構成]
図2は、情報端末1の構成を示すブロック図である。情報端末1は、提示部11、入力部12、位置検出手段13、記憶部14及び制御部15を有する。制御部15は、視界領域決定部151、判定部152、操作受付部153及び音声検知部154を有する。
【0026】
提示部11は、ディスプレイである。提示部11は、被介護者Aの3次元映像を表示する。提示部11は、視界領域決定部151が決定した位置に被介護者Aの3次元映像を表示する。
【0027】
提示部11は、判定部152の判定結果に応じて異なる被介護者Aの3次元映像を表示する。図3は、提示部11が表示する被介護者Aの動作の一例を示す図である。図3は、介護者Uが被介護者Aの視界の領域の中に位置していた場合に提示部11が表示する映像である。図3に示す映像においては、被介護者Aは笑顔で介護者Uに応答している。
【0028】
図4は、提示部11が表示する被介護者Aの動作の一例を示す図である。図4は、介護者Uが被介護者Aの視界の領域の中に位置していない場合に提示部11が表示する映像である。図4に示す映像においては、被介護者Aは機嫌の悪い様子で介護者Uに応答している。
【0029】
図2に戻り、入力部12は、介護者Uからの操作を受け付けるユーザインタフェースである。入力部12は、例えばタッチパネル、音声入力デバイス、ジェスチャ入力デバイス、ボタン等である。入力部12は、ユーザの操作内容に応じた信号を操作受付部153に入力する。入力部12は、入力された音声を音声検知部154に入力する。
【0030】
位置検出手段13は、情報端末1の位置を検出する。位置検出手段13はGPSにより位置を検出してもよいし、検出した加速度から位置を算出することにより位置を検出してもよい。位置検出手段13は情報端末1の位置を示す位置情報を判定部152に入力する。
【0031】
記憶部14は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、SSD(Solid State Drive)等の記憶媒体である。記憶部14は、制御部15が実行する各種のプログラムを記憶する。
【0032】
制御部15は、例えばCPU(Central Processing Unit)である。制御部15は、記憶部14に記憶されている制御プログラムを実行することにより、視界領域決定部151、判定部152、操作受付部153及び音声検知部154として機能する。
【0033】
視界領域決定部151は、3次元映像を提示する空間における被介護者Aの視界の領域を決定する。視界領域決定部151は、訓練空間における被介護者Aの位置を決定する。情報端末1は例えば、被介護者Aの水平方向の位置を示す位置座標、被介護者Aが向いている方向、及び被介護者Aの視点の高さを決定する。視界領域決定部151は、被介護者Aの位置と視界の領域を決定するパラメータとに基づいて被介護者Aの視界の領域Fを決定する。視界の領域を決定するパラメータは、例えば被介護者Aが視認可能な距離、水平方向の視野角及び鉛直方向の視野角である。
【0034】
図5は、視界領域決定部151が決定する視界の領域の一例を示す図である。被介護者Aの視線方向をD、被介護者Aが視認可能な距離をZ、水平方向の視野角をΘ、鉛直方向の視野角をφとすると、視界領域決定部151は、D方向の長さZの直線を、方向Dを中心に水平方向にΘ/2及び-Θ/2それぞれ回転させてなる面を決定する。そして、視界領域決定部151は、決定した面を視線の方向Dを中心に鉛直方向にφ/2及び-φ/2回転させてなる錐体を被介護者Aの視界の領域Fとして決定する。なお、視界の領域の形状は円錐、楕円錐、四角錐であってもよい。
【0035】
なお、視界領域決定部151は、水平方向の視野角と鉛直方向の視野角とを同一のパラメータに基づいて決定してもよい。すなわち、視界の領域を特定するための距離、視野角を示すそれぞれのパラメータについて、所定の範囲から値を決定し、決定したパラメータに基づいて被介護者Aの視界の領域を決定してもよい。
【0036】
図2に戻り、判定部152は、空間におけるユーザの位置が視界の領域に含まれるか否かを判定する。具体的には、判定部152は、位置検出手段13から入力された介護者Uの位置と、視界領域決定部151が決定した被介護者Aの視界の領域Fとを比較する。そして、判定部152は、介護者Uの位置が領域Fの内側又は境界線上にあるか否かを判定する。判定部152は、介護者Uが所定の操作を行った場合に判定を行ってもよい。所定の操作は、例えば、発声、ジェスチャ又は情報端末1に搭載されたボタンが押されることである。
【0037】
なお、判定部152は、介護者Uの位置を操作受付部153が受け付けた操作に基づいて介護者Uの移動量を算出し、介護者Uの位置を決定してもよい。この場合、判定部152は、決定した介護者Uの位置と、視界領域決定部151が決定した被介護者Aの視界の領域Fとを比較する。
【0038】
ところで、被介護者の視界の広さは、個人差や病気の進行状況により異なる場合がある。情報端末1が、様々な視界の広さを再現できるように構成されると、訓練を受ける介護者が様々な視界の広さがあることを体験することができる。
【0039】
視界領域決定部151は、被介護者Aの3次元映像の表示を開始する際に、視界の領域を特定するための距離、水平方向の視野角及び鉛直方向の視野角を示すそれぞれのパラメータについて、所定の範囲から値を決定する。一例として、それぞれのパラメータが選択される範囲は、健常者における通常の視野を特定するための距離、水平方向の視野角及び鉛直方向の視野角と、病気が進行した場合の視野特定するための距離、水平方向の視野角及び鉛直方向の視野角のいずれもが含まれるように設定される。視界領域決定部151は、一例として、それぞれのパラメータを設定された範囲の値からランダムで決定してもよい。
【0040】
視界領域決定部151は、それぞれのパラメータについて、病気の進行状況に応じた複数種類のパラメータの設定値の組み合わせを保持してもよい。そして、視界領域決定部151は、ランダムで設定値の組み合わせのいずれかを参照してパラメータを決定してもよいし、ユーザの選択に対応する設定値の組み合わせを参照してパラメータを決定してもよい。
【0041】
ところで、実際の被介護者は視線を固定させているとは限らず、ケアの最中に視線が動く場合もあり得る。そこで、被介護者Aの視線の方向を動的に決定するよう構成されることで、より実際の介護に近い訓練を提供することができる。
【0042】
視界領域決定部151は、被介護者Aの視界の領域Fを決定した後、所定の場合には、被介護者Aの視線の方向を再度決定し、決定した視線の方向に基づいて被介護者Aの視界の領域Fを再度決定してもよい。所定の場合は例えば、あらかじめ設定された時間が経過した場合や、所定の操作を受け付けた場合である。そして、判定部152は、空間におけるユーザの位置が再決定後の視界の領域Fに含まれるか否かを判定する。
【0043】
この場合、提示部11は、再度決定された被介護者Aの視線の方向を被介護者Aが向いている映像を表示してもよい。提示部11がこのように構成されることで、被介護者Aの視線の方向が変わったことを介護者Uが理解しやすくなる効果を奏する。
【0044】
介護者Uが訓練の途中又は終了後に被介護者Aの視界の領域を視認できるように提示部11が領域Fを表示すると、介護者Uにより強く被介護者Aの視界の広さを印象付けることができ、訓練の効果を向上させることが期待できる。
【0045】
操作受付部153は、ユーザから操作を受け付ける。操作受付部153は、入力部12から入力された信号に基づいてユーザの操作内容を特定する。
【0046】
提示部11は、操作受付部153が視界の領域を表示する操作を受け付けた場合に、視界領域決定部151が決定した被介護者Aの視界の領域を表示する。図6は、提示部11が被介護者Aの視界の領域を表示する一例を示す図である。図6においては、提示部11において視界領域決定部151が決定した視界の領域Fが介護者Uに視認可能な態様で表示される。提示部11は、例えば領域Fを他の部分と異なる色で表示する。
【0047】
提示部11は、ユーザの行った操作が視界の領域Fを表示するための所定の操作である場合、図6に示す映像を表示する。所定の操作は、例えば視界領域を表示するために割り当てられたボタンが押された場合、所定のジェスチャが行われた場合又はタッチパネルの所定の位置がタップされた場合である。
【0048】
介護者Uが声かけを行ったことに起因して判定部152の判定が行われるよう構成されると、より実際の介護に近い訓練を提供することができる。
【0049】
音声検知部154は、ユーザの発声を検知する。音声検知部154は、例えば入力部12から入力された音声データが所定の音量以上での発声を示す場合にユーザの発声を検知する。そして、音声検知部154は、ユーザの発声を検知したことを判定部152に通知する。
【0050】
また、音声検知部154は入力部12から入力された音声データを音声認識し、ユーザが発声した単語を特定してもよい。特定された単語が所定のキーワードと一致する場合に、介護者Uが被介護者Aに声かけをしたことを判定部152に通知する。所定のキーワードは声かけを行う際に用いられる言葉であり、例えば「こんにちは」、「失礼します」などの挨拶に用いられる単語である。
【0051】
判定部152は、ユーザの発声を検知した場合に、ユーザの位置が視界の領域に含まれるか否かを判定する。判定部152は、介護者Uが被介護者Aに声かけを行ったことを音声検知部154が検知した場合に、介護者Uが被介護者Aの視界の領域Fに含まれるか否かを判定してもよい。
【0052】
提示部11は、ユーザの位置が視界の領域に含まれる場合、被介護者Aが第1の動作をする映像を表示し、ユーザの位置が視界の領域に含まれない場合、被介護者Aが第2の動作をする映像を表示する。被介護者Aが第1の動作をする映像は例えば、図3に示す映像である。被介護者Aが第2の動作をする映像は例えば、図4に示す映像である。被介護者Aが第2の動作をする映像は、被介護者Aが応答しない映像でもよいし、被介護者Aが怒り出す映像であってもよい。
【0053】
[情報端末1における処理の流れ]
図7は、情報端末1における処理の流れを示すフローチャートである。図7に示すフローチャートは、介護者Uが訓練を開始する操作を行い、訓練が開始された時点から開始している。視界領域決定部151は、被介護者Aの位置を決定する(S101)。視界領域決定部151は、視界の領域を決定するパラメータを決定する(S102)。視界領域決定部151は、決定した被介護者Aの位置と、パラメータと、に基づいて、被介護者Aの視界の領域Fを決定する(S103)。提示部11は、被介護者Aの3次元映像を表示する(S104)。
【0054】
判定部152は、介護者Uが被介護者Aに声掛けを行ったか否かを判定する(S105)。一例として、音声検知部154が所定の音量以上で介護者Uが発声したことを検知した場合、判定部152は声掛けが行われたと判定する。介護者Uが被介護者Aに声掛けを行っていない間(S105におけるN)、情報端末1は、介護者Uが被介護者Aに声掛けを行うまで待機処理を継続する。
【0055】
介護者Uが被介護者Aに声掛けを行ったと判定する場合(S105におけるY)、判定部152は、情報端末1の介護者Uの位置を取得する(S106)。一例として、判定部152は、介護者Uの位置として位置検出手段13から取得した情報端末1の位置情報を取得する。
【0056】
判定部152は、介護者Uの位置が被介護者Aの視界の領域Fに含まれるか否かを判定する(S107)。介護者Uの位置が被介護者Aの視界の領域Fに含まれる場合(S107におけるY)、提示部11は、被介護者Aが第1の動作をする映像を表示する(S108)。一例として、第1の動作は、被介護者Aが笑顔で介護者Uに応答する映像である。
【0057】
介護者Uの位置が被介護者Aの視界の領域Fに含まれない場合(S107におけるN)、提示部11は、被介護者Aが第2の動作をする映像を表示する(S109)。一例として、第2の動作は、被介護者Aが機嫌の悪い様子で介護者Uに応答する映像である。
【0058】
提示部11は、被介護者Aの視界の領域Fを視認可能な態様で表示する(S110)。なお、提示部11は、操作受付部153が所定の操作を受け付けた場合に被介護者Aの視界の領域Fを表示してもよい。そして、情報端末1は、処理を終了する。
【0059】
[第1の実施形態の効果]
以上、説明したように第1の実施形態にかかる情報端末1においては、訓練を受けた介護者に視界の広さの違いを体験させることができるという効果を奏する。
【0060】
<変形例1>
ところで、介護者Uは声かけをした後、被介護者Aに触れ、介護をする。ここで相手の視界の中に入った状態で介護を行うことで介護の効果を高めることが期待できる。そこで、情報端末1は、被介護者Aの視界に入りながら被介護者Aに触れる訓練を提供するよう構成されても良い。以下では、既に説明した内容と同じ内容については説明を省略し、異なる部分を中心に説明する。
【0061】
図8は、変形例1にかかる情報端末1Aの構成を示すブロック図である。変形例1にかかる情報端末1Aは、撮像部16を有する。また、制御部15は、撮像データ取得部155及び検出部156を有する。制御部15は、記憶部14に記憶されている制御プログラムを実行することにより、撮像データ取得部155及び検出部156として機能する。
【0062】
撮像部16は、カメラである。撮像部16は、介護者Uの前方を撮像できるように配置される。撮像部16は、介護者Uの視界の少なくとも一部を撮像対象領域として撮像する。撮像部16は、撮像したデータを撮像データ取得部155に入力する。
【0063】
撮像データ取得部155は、ユーザの視界の少なくとも一部を撮像対象領域とする撮像部16が撮像することによって生成される撮像データを取得する。撮像データ取得部155は、取得した撮像データを検出部156に出力する。撮像データ取得部155は、撮像部16が撮像した画像フレームのうち所定の間隔ごとに抽出された一部のフレームのみを取得しても良い。
【0064】
検出部156は、撮像データに含まれる介護者Uの手の位置を検出する。検出部156は、撮像データ取得部155より入力された撮像データを画像認識することで撮像データに含まれる介護者Uの手を検出する。そして、検出部156は、情報端末1と検出した介護者Uの手との距離を測定する。検出部156は、位置検出手段13が検出した情報端末1の位置と、測定した距離と、を加算すること介護者Uの手の位置を得る。検出部156は、検出したユーザの手の位置を判定部152に出力する。
【0065】
判定部152は、介護者Uの手の位置が空間における被介護者Aの位置と重なる否かを判定する。そして、判定部152は、介護者Uの手の位置が空間における被介護者Aの位置と重なる場合に、空間におけるユーザの位置が被介護者Aの視界の領域に含まれるか否かを判定する。具体的には、判定部152は、取得した介護者Uの位置と、視界領域決定部151が決定した被介護者Aの視界の領域Fとを比較する。そして、判定部152は、介護者Uの位置が領域Fの内側又は境界線上にあるか否かを判定する。そして、提示部11は、判定結果に応じた被介護者Aの映像を表示する。
【0066】
なお、検出部156は、撮像データに含まれるユーザの掌の位置を検出してもよい。この場合、判定部152は、ユーザの掌の位置が空間における被介護者Aの位置と重なるかを判定する。
【0067】
<変形例2>
変形例1においては、撮像部16が撮像した撮像データに含まれる介護者Uの手に基づいてユーザの手の位置を検出したが、撮像部16が撮像した、ユーザが持つ位置検出装置(不図示)の撮像データに基づいてユーザの手の位置を検出してもよい。一例として、位置検出装置は複数のマーカを搭載している。そして、検出部156は、複数のカメラで撮像した複数のマーカの視差に基づいて、位置検出装置の位置を、ユーザの手の位置として特定する。一例として、マーカは、赤外線LEDであり、撮像部16は、赤外線カメラである。位置検出装置は例えばコントローラである。
【0068】
<変形例3>
さらに、ユーザの手の位置を検出する位置検出装置(不図示)が検出したユーザの手の位置を取得するよう構成されてもよい。この場合の位置検出装置は、例えば、位置を検出する機能と情報端末1Aと通信し、位置情報を送信する機能を有するコントローラである。検出部156は、位置検出装置から取得した位置情報に基づいて、ユーザの手の位置として特定する。
【0069】
<第2の実施形態>
第1の実施形態においては、実空間に配置された物を用いずに提示部11が被介護者Aの3次元映像を表示する場合について説明した。これに対して第2の実施形態にかかる情報端末1Bは、被介護者を模したダミーに被介護者Aの3次元映像を重畳して表示するよう構成されてもよい。訓練を受ける介護者Uはダミーに触れてコミュニケーションの訓練を行うため、より実際の介護に近い訓練を受けることができる。そして、訓練を受ける介護者の五感を刺激することで訓練の効果を高めることが期待される。
【0070】
図9は、第2の実施形態にかかる情報端末1Bを用いた訓練の概要を説明する図である。図9においては、実空間に配置されたダミーDに被介護者Aの映像が重畳して表示されている。ダミーDは被介護者Aを模したモデルである。ダミーDの表面にはマーカMが配置されている。マーカMは情報端末1がマーカを判別するための画像である。情報端末1Bは、前方を撮像した映像においてマーカMを検出した場合、ダミーDに被介護者Aの映像を重畳して表示する。
【0071】
ダミーDには圧力センサSが搭載されている。圧力センサSは検出した圧力を示す圧力情報を情報端末1に送信する。情報端末1は、取得した圧力情報が示す圧力が所定の条件を満たす場合、介護者Uの位置が、被介護者Aの位置に含まれるか否かを判定する。そして、情報端末1は、判定結果に応じた被介護者Aの映像を表示する。
【0072】
図10は、第2の実施形態にかかる情報端末1Bの構成を示すブロック図である。情報端末1Bは、通信部17をさらに有する。制御部15は、圧力情報取得部157をさらに有する。制御部15は、記憶部14に記憶されている制御プログラムを実行することにより、圧力情報取得部157として機能する。
【0073】
提示部11は、被介護者Aの3次元映像を検出部156が検出したダミーDに重畳して表示する。検出部156がダミーDを検出する処理については後述する。
【0074】
提示部11は、取得した圧力情報が示す圧力が第1の閾値以上であってユーザの位置が視界の領域に含まれる場合、被介護者Aが第1の動作をする映像を表示する。そして、提示部11は、取得した圧力情報が示す圧力が第1の閾値以上であってユーザの位置が視界の領域に含まれない場合に、被介護者Aが第2の動作をする映像を表示する。換言すれば、取得した圧力情報が示す圧力が第1の閾値以上である場合に、判定部152は、介護者Uの位置が被介護者Aの位置に含まれるかどうかの判定を行う。そして、提示部11は、上述の通り、判定結果に応じた映像を表示する。
【0075】
通信部17は、圧力センサSと通信するための通信インターフェースである。通信部17は、例えばBluetooth(登録商標)により、圧力センサSと通信する。
【0076】
判定部152は、取得した圧力情報が第1の閾値以上であるかを判定する。第1の閾値は、介護者が被介護者に触れる際に通常発生する程度の圧力に基づいて定められる値である。
【0077】
検出部156は、撮像データに含まれるダミーDであって、3次元映像を重畳させるためのダミーDを検出する。すなわち、検出部156は、撮像データ取得部155より入力された撮像データを画像認識することで撮像データに含まれるマーカMを検出する。そして、検出部156は、情報端末1と検出したマーカMとの距離を測定する。視界領域決定部151は、訓練空間における介護者Aの位置を決定する。視界領域決定部151は、位置検出手段13が検出した情報端末1の位置と、測定した距離と、を加算することで被介護者Aの位置を決定する。
【0078】
圧力情報取得部157は、圧力を検知する圧力検知手段を搭載したダミーDからダミーDにかかる圧力の強さを示す圧力情報を取得する。圧力情報取得部157は、通信部17を介して圧力センサSが周期的に検知する圧力情報を取得する。
【0079】
ところで、被介護者は強い力で触れられるとネガティブな反応を示す場合がある。そこで、判定部152は介護者Uが触れた圧力が所定の閾値未満であるか否かに応じて表示する映像を制御するよう構成されてもよい。
【0080】
判定部152は、取得した圧力情報が示す圧力が第2の閾値未満であるかを判定する。第2の閾値は、その圧力で触れられた人が強く圧迫されていると感じやすい圧力に基づいて定められる値であり、例えば25hPAである。
【0081】
提示部11は、取得した圧力情報が示す圧力が第2の閾値以上である場合に、被介護者Aが第2の動作をする映像を表示し、取得した圧力情報が示す圧力が第1の閾値以上かつ第2の閾値未満であってユーザの位置が視界の領域に含まれる場合、被介護者Aが第1の動作をする映像を表示し、取得した圧力情報が示す圧力が第1の閾値以上かつ第2の閾値未満であってユーザの位置が視界の領域に含まれない場合に、被介護者Aが第2の動作をする映像を表示する。換言すれば、取得した圧力情報が示す圧力が第2の閾値以上である場合に、判定部152は、介護者Uの位置によらず、被介護者Aが第2の動作をする映像を表示する。
【0082】
[第2の実施形態の効果]
第2の実施形態にかかる情報端末1Bにおいては、介護者に被介護者を模したダミーに触れながらコミュニケーションを取る訓練を提供することが可能となる。この結果、訓練の効果をより高めることができる。
【0083】
なお、本発明により、国連が主導する持続可能な開発目標(SDGs)の目標9「産業と技術革新の基盤をつくろう」に貢献することが可能となる。
【0084】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。例えば、情報端末1の構成の一部を情報端末1と通信可能に接続された不図示のサーバ上で実施し、情報端末1はサーバにおける処理の結果を受信するよう構成されてもよい。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
【符号の説明】
【0085】
1 情報端末
11 提示部
12 入力部
13 位置検出手段
14 記憶部
15 制御部
16 撮像部
17 通信部
151 視界領域決定部
152 判定部
153 操作受付部
154 音声検知部
155 撮像データ取得部
156 検出部
157 圧力情報取得部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10