(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024059258
(43)【公開日】2024-05-01
(54)【発明の名称】情報処理装置
(51)【国際特許分類】
G06F 3/01 20060101AFI20240423BHJP
【FI】
G06F3/01 510
【審査請求】未請求
【請求項の数】4
【出願形態】OL
(21)【出願番号】P 2022166829
(22)【出願日】2022-10-18
(71)【出願人】
【識別番号】591245473
【氏名又は名称】ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング
【氏名又は名称原語表記】ROBERT BOSCH GMBH
(74)【代理人】
【識別番号】100177839
【弁理士】
【氏名又は名称】大場 玲児
(74)【代理人】
【識別番号】100172340
【弁理士】
【氏名又は名称】高橋 始
(74)【代理人】
【識別番号】100182626
【弁理士】
【氏名又は名称】八島 剛
(72)【発明者】
【氏名】本井 滋
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA41
5E555BA23
5E555BB23
5E555BC04
5E555BE09
5E555CA42
5E555EA22
5E555FA01
(57)【要約】
【課題】より適切に操作者の状態を把握可能にすることである。
【解決手段】情報処理装置であるECU(110)は、操作装置(160)を操作する操作者を撮影した撮影データから前記操作者を認識する操作者認識部(121)と、前記操作者による前記操作装置(160)への操作の検出結果により、操作継続状況を判断する操作継続状況判断部(122)と、前記操作継続状況判断部(122)の判断結果、及び前記撮影データの解析結果に応じて、前記操作者が困り状態であることを推定する困り状態推定部(123)と、を備える。
【選択図】
図2
【特許請求の範囲】
【請求項1】
操作装置(160)を操作する操作者を撮影した撮影データから前記操作者を認識する操作者認識部(121)と、
前記操作者による前記操作装置(160)への操作の検出結果により、操作継続状況を判断する操作継続状況判断部(122)と、
前記操作継続状況判断部(122)の判断結果、及び前記撮影データの解析結果に応じて、前記操作者が困り状態であることを推定する困り状態推定部(123)と、
を備える情報処理装置(110)。
【請求項2】
前記困り状態推定部(123)の推定結果に応じて、前記操作装置(160)に操作案内を表示する情報表示部(124)をさらに備える、
請求項1に記載の情報処理装置(110)。
【請求項3】
前記困り状態推定部(123)は、前記撮影データを解析して前記操作者の感情を推定し、推定した前記操作者の感情に応じて、前記操作者が困り状態であることを推定する
請求項1に記載の情報処理装置(110)。
【請求項4】
前記困り状態推定部(123)は、前記撮影データを解析して前記操作者の指及び目の状態を検知し、検知した前記操作者の指及び目の状態に応じて、前記操作者が困り状態であることを推定する
請求項1に記載の情報処理装置(110)。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、操作者に操作方法の案内をする情報処理装置に関する。
【背景技術】
【0002】
自動車に搭載されたIVI(in-vehicle infotainment)などの情報処理装置では、機能の多様化に伴い、操作者に操作方法の案内をする必要性が高まっている。しかし、操作に慣れた操作者にとっては、案内が不要な場合があり、必要に応じて案内を行うのが望ましい。
【0003】
特許文献1に記載の操作支援装置では、操作者が操作をする位置にいながら無操作状態が続いた場合や操作履歴に応じて、操作に関してのヘルプが必要であると判断するようにしている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、操作者が操作に困った状態は、無操作状態や操作履歴に現れないこともあり、操作者が案内して欲しいときに適切に対応できない場合があるという問題があった。このため、従来、操作者の状態の把握に改善の余地があった。
【0006】
本発明は、より適切に操作者の状態を把握可能にすることを目的とする。
【課題を解決するための手段】
【0007】
本発明の一態様によれば、情報処理装置(110)であって、操作装置(160)を操作する操作者を撮影した撮影データから前記操作者を認識する操作者認識部(121)と、前記操作者による前記操作装置(160)への操作の検出結果により、操作継続状況を判断する操作継続状況判断部(122)と、前記操作継続状況判断部(122)の判断結果、及び前記撮影データの解析結果に応じて、前記操作者が困り状態であることを推定する困り状態推定部(123)と、を備える情報処理装置(110)が提供される。
【発明の効果】
【0008】
本発明によれば、より適切に操作者の状態を把握可能にすることができる。
【図面の簡単な説明】
【0009】
【
図1】本発明の一実施形態に係る車載システム100のハードウェア構成を示すブロック図である。
【
図2】
図1に示したECU110の機能構成を示すブロック図である。
【
図3】本発明の実施例1に係るECU110における処理を示すフローチャートである。
【
図4】ステップS302に示した操作者検知処理の具体例を示すフローチャートである。
【
図5】ステップS303に示した視線検知処理の具体例を示すフローチャートである。
【
図6】ステップS304に示した表情推定処理の具体例を示すフローチャートである。
【
図7】ステップS305に示したトラブル推定処理の具体例を示すフローチャートである。
【
図8】ステップS306に示した案内処理の具体例を示すフローチャートである。
【
図9】本発明の実施例2に係るECU110における処理を示すフローチャートである。
【
図10】ステップS902に示した操作者検知処理の具体例を示すフローチャートである。
【
図11】ステップS903に示した視線検知処理の具体例を示すフローチャートである。
【
図12】ステップS904に示した指/目状態検知処理の具体例を示すフローチャートである。
【
図13】ステップS905に示したトラブル推定処理の具体例を示すフローチャートである。
【発明を実施するための形態】
【0010】
以下、本発明に係る情報処理装置の実施形態について、図面を参照して説明する。以下に説明する構成は、本発明の一例(代表例)であり、これに限定されない。
【0011】
(車載システム100のハードウェア構成)
図1は、本実施形態に係る車載システム100のハードウェア構成を示すブロック図である。車載システム100は、自動車に搭載され、自動車の乗員に対して情報の提供や娯楽の提供を行う。車載システム100は、情報の提供として、例えば道案内を行うナビゲーションシステムの機能を有する。車載システム100は、娯楽の提供として、例えば音楽を出力するカーステレオシステムの機能を有する。車載システム100は、ECU110、カメラ150、及び操作装置160を有する。ECUは、Electronic Control Unitの略称である。ECU110は、情報処理装置の一例である。
【0012】
ECU110は、ソフトウェアプログラムを実行することで、車載システム100の機能を実現する。車載システム100の機能はハードウェアで実現されるものであってもかまわない。ECU110は、CPU111、メモリ112、第1通信制御部113及び第2通信制御部114を有する。
【0013】
CPU111は、メモリ112に格納されたソフトウェアプログラムを実行することで、車載システム100の機能を実現する。メモリ112は、揮発性メモリ及び不揮発性メモリを含む。メモリ112は、CPU111で実行するソフトウェアプログラムを不揮発性メモリに記憶する。メモリ112は、CPU111がソフトウェアプログラムを実行する際のワークメモリとしても機能する。メモリ112は、カメラ150から受信した撮影信号によって得られた撮影データを不揮発性メモリに記憶する。撮影データを長期的に保存する必要がない場合は、メモリ112は、カメラ150から受信した撮影信号によって得られた撮影データを揮発性メモリに記憶する。
【0014】
第1通信制御部113は、ECU110とカメラ150との通信を制御する。CPU111は、第1通信制御部113を介し、カメラ150との間で信号やデータの送受信を行う。第2通信制御部114は、ECU110と操作装置160との通信を制御する。CPU111は、第2通信制御部114を介し、操作装置160との間で信号やデータの送受信を行う。
【0015】
カメラ150は、動画を撮影可能なカメラである。カメラ150は、車載システム100が搭載された自動車に乗車している乗員を撮影可能な位置、例えばルームミラーの位置に設置されている。カメラ150は、少なくとも操作装置160の近傍を撮影可能であり、操作装置160を操作する乗員(運転者、助手席の乗員、及び後部座席の乗員)を撮影可能である。カメラ150は、ECU110からの指示で撮影開始及び撮影停止が可能である。カメラ150は、撮影した撮影信号をECU110に送信する。
【0016】
操作装置160は、操作者とのインターフェースを実現する装置である。操作装置160は、出力部161及び入力部162を有する。出力部161は、例えば、文字や画像を表示可能なディスプレイ装置である。出力部161は、例えばLCDである。LCDは、liquid crystal displayの略称である。出力部161は、例えば、音声出力可能なスピーカ、及び文字や画像を印刷可能なプリンタ装置の少なくとも一つを含むものであってもよい。入力部162は、例えば、文字や画像を入力可能な入力装置である。入力部162は、例えばタッチパッドである。入力部162は、例えば音声入力可能なマイク、及び文字や画像を読取可能なスキャナ装置の少なくとも一つを含むものであってもよい。操作装置160は、出力部161としてのLCDの機能及び入力部162としてのタッチパッドの機能を兼ね備えたタッチパネルであることが望ましい。
【0017】
(車載システム100の機能構成)
図2は、
図1に示したECU110の機能構成を示すブロック図である。ECU110は、操作者認識部121、操作継続状況判断部122、困り状態推定部123、及び情報表示部124を有する。
【0018】
操作者認識部121は、カメラ150からの撮影信号による撮影データを解析して、操作装置160を操作している操作者を認識する。カメラ150は複数の乗員を撮影する場合があるが、操作者認識部121は、その複数の乗員のうちの誰が操作装置160を操作しているかを選択する。なお、後述の実施例では、操作者認識部121の具体例を挙げて詳細に説明する。
【0019】
操作継続状況判断部122は、操作者による入力部162への操作の検出結果により、操作継続状況を判断する。なお、後述の実施例では、操作継続状況判断部122の具体例を挙げて詳細に説明する。
【0020】
困り状態推定部123は、操作継続状況判断部122の判断結果や、カメラ150からの撮影信号による撮影データを解析して、操作者が困った状態(「困り状態」という)の推定を行う。なお、後述の実施例では、困り状態推定部123の具体例を挙げて詳細に説明する。
【0021】
情報表示部124は、困り状態推定部123による推定結果に応じて、出力部161に操作の案内を表示する。なお、後述の実施例では、情報表示部124の具体例を挙げて詳細に説明する。
【0022】
本実施形態によれば、困り状態推定部123が、操作者の感情を推定し、困り状態の推定を行うので、より適切に操作者の状態を把握可能にすることができる。
【0023】
また本実施形態によれば、情報表示部124が、操作者の困り状態に応じて操作の案内を表示するので、より適切な案内表示をすることができる。
【0024】
なお、本発明は、本実施形態で説明したものに限られるものではなく、例えば、
図2に示したECU110の機能構成は、操作装置160やそのほかの装置が備えるものであってもよい。
【実施例0025】
図3は、本発明の実施例1に係るECU110における処理を示すフローチャートである。本実施例は、
図1及び
図2に示した構成の車載システム100で実行される処理の具体例を示す。
【0026】
処理を開始すると、ステップS301において、CPU111は、カメラ150からの撮影信号を入力し、撮影信号による撮影データをメモリ112に保存する。この処理は、他の処理を実行している場合も継続的に実行される。CPU111は、継続的な撮影データを動画データとしてメモリ112に保存してもよいし、撮影データを所定タイミングでサンプリングした画像データをメモリ112に保存してもよい。
【0027】
ステップS302において、CPU111は、操作者検知処理を実行する。ステップS302の操作者検知処理は、操作者認識部121の一例である。ステップS302の操作者検知処理の具体例は、
図4を参照して後述する。
【0028】
ステップS303において、CPU111は、視線検知処理を実行する。ステップS303の視線検知処理は、操作者認識部121の一例である。ステップS303の視線検知処理の具体例は、
図5を参照して後述する。
【0029】
ステップS304において、CPU111は、表情推定処理を実行する。ステップS304の表情推定処理は、困り状態推定部123の一例である。ステップS304の表情推定処理の具体例は、
図6を参照して後述する。
【0030】
ステップS305において、CPU111は、トラブル推定処理を実行する。ステップS305のトラブル推定処理は、困り状態推定部123の一例である。ステップS305のトラブル推定処理の具体例は、
図7を参照して後述する。
【0031】
ステップS306において、CPU111は、案内処理を実行する。ステップS306の案内処理は、情報表示部124の一例である。ステップS306の案内処理の具体例は、
図8を参照して後述する。CPU111は、案内処理を実行した後、処理を終了する。
【0032】
図4は、ステップS302に示した操作者検知処理の具体例を示すフローチャートである。ステップS401において、CPU111は、メモリ112に記憶してある撮影データを読み出し、撮影データに写っている乗員の骨格検知を行う。骨格検知の手法は、既知の如何なる手法を用いてもよい。ステップS401の骨格検知によれば、少なくとも各乗員の手の位置を検知することができる。
【0033】
ステップS402において、CPU111は、撮影データに写っているすべての乗員について骨格検知が済んだかを判定する。すべての乗員について骨格検知が済んでいない場合は、CPU111は、ステップS401の処理を実行する。すべての乗員について骨格検知が済んだ場合は、CPU111は、ステップS403の処理を実行する。
【0034】
ステップS403において、CPU111は、ステップS401で検知した各乗員の骨格から、各乗員の手の位置を確認する。ステップS404において、CPU111は、ステップS403で確認した各乗員の手の位置から、いずれかの乗員の手が操作装置160に近いかを判定する。CPU111は、例えば、手と操作装置160との距離が所定距離(例えば5cm)以内であると手が操作装置160に近いと判定し、手と操作装置160との距離が所定距離(例えば5cm)よりも離れている場合は手が操作装置160に近くないと判定する。
【0035】
CPU111は、ステップS404で、いずれの乗員の手も操作装置160に近くないと判定した場合は、ステップS405の処理を実行する。ステップS405において、CPU111は、現在、操作装置160を操作している操作者はないと設定し、処理を終了する。
【0036】
CPU111は、ステップS404で、いずれかの乗員の手が操作装置160に近いと判定した場合は、ステップS406の処理を実行する。ステップS406において、CPU111は、手が操作装置160に最も近い乗員を選択する。ステップS407において、CPU111は、ステップS406で選択した乗員を、操作装置160を操作している操作者に設定する。
【0037】
ステップS408において、CPU111は、連続した操作時間の合計である総操作時間toprに、今回の操作時間を加算する。その後、CPU111は、処理を終了する。
【0038】
図5は、ステップS303に示した視線検知処理の具体例を示すフローチャートである。ステップS501において、CPU111は、ステップS407で操作者に設定した乗員についての操作者情報を取得する。操作者情報は、その操作者が写っている撮影データを含む。
【0039】
ステップS502において、CPU111は、入力部162への操作の検出結果により、操作者が操作装置160を利用可能な状態であるかを判定する。操作者が利用可能であれば、CPU111は、処理を終了する。操作者が利用可能でなければ、CPU111は、ステップS503の処理を実行する。
【0040】
ステップS503において、CPU111は、総操作時間toprが0より大きいかを判定する。総操作時間toprが0より大きくなければ、CPU111は、処理を終了する。総操作時間toprが0より大きければ、CPU111は、ステップS504の処理を実行する。
【0041】
ステップS504において、CPU111は、撮影データを用いて、操作者の頭部の姿勢の推定、及び操作者の視線の算出を行う。頭部の姿勢の推定及び視線の算出の手法は、既知の如何なる手法を用いてもよい。
【0042】
ステップS505において、CPU111は、ステップS504で推定した操作者の頭部の姿勢、及びステップS504で算出した操作者の視線に基づき、操作者の視線方向を算出する。視線方向の算出の手法は、既知の如何なる手法を用いてもよい。
【0043】
ステップS506において、CPU111は、ステップS505で算出した視線方向が、操作装置160がある方向に向いているかを判定する。視線方向が操作装置160に向いている場合は、CPU111は、処理を終了する。視線方向が操作装置160に向いていない場合は、CPU111は、ステップS506の処理を実行する。
【0044】
ステップS507において、CPU111は、連続した非操作時間の合計である非操作時間tnopに、今回の非操作時間を加算する。ステップS508において、CPU111は、非操作時間tnopが非操作時間のしきい値Thresnopよりも大きいかを判定する。tnopがThresnopよりも大きくない場合は、CPU111は、処理を終了する。tnopがThresnopよりも大きい場合は、CPU111は、ステップS509の処理を実行する。
【0045】
ステップS509において、CPU111は、総操作時間toprをゼロリセットする。その後、CPU111は、処理を終了する。
【0046】
図6は、ステップS304に示した表情推定処理の具体例を示すフローチャートである。ステップS601において、CPU111は、ステップS407で操作者に設定した乗員についての操作者情報を取得する。
【0047】
ステップS602において、CPU111は、入力部162への操作の検出結果により、操作者が操作装置160を利用可能な状態であるかを判定する。操作者が利用可能でなければ、CPU111は、処理を終了する。操作者が利用可能であれば、CPU111は、ステップS603の処理を実行する。
【0048】
ステップS603において、CPU111は、撮影データから、操作者の顔パーツを検出する。顔パーツを検出する手法は、既知の如何なる手法を用いてもよい。
【0049】
ステップS604において、CPU111は、ステップS603で検出した顔パーツを用いて、操作者の感情を推定する。感情推定の手法は、既知の如何なる手法を用いてもよい。
【0050】
ステップS605において、CPU111は、ステップS604で推定した操作者の感情が負の感情であるかを判定する。推定した操作者の感情が負の感情ではない場合、CPU111は、処理を終了する。推定した操作者の感情が負の感情である場合、CPU111は、ステップS606の処理を実行する。
【0051】
ステップS606において、CPU111は、負の感情が継続している時間である負の感情の時間tngtに今回の負の感情の時間を加算する。その後、CPU111は、処理を終了する。
【0052】
図7は、ステップS305に示したトラブル推定処理の具体例を示すフローチャートである。ステップS701において、CPU111は、ステップS407で操作者に設定した乗員についての操作者情報を取得する。
【0053】
ステップS702において、CPU111は、負の感情の時間tngtが負の感情の時間のしきい値Thresngtよりも大きいかを判定する。tngtがThresngtよりも大きくない場合は、CPU111は、処理を終了する。tngtがThresngtよりも大きい場合は、CPU111は、ステップS703の処理を実行する。
【0054】
ステップS703において、CPU111は、総操作時間toprが総操作時間のしきい値Thresoprよりも大きいかを判定する。toprがThresoprよりも大きくない場合は、CPU111は、処理を終了する。toprがThresoprよりも大きい場合は、CPU111は、ステップS704の処理を実行する。
【0055】
ステップS704において、CPU111は、操作者が困り状態であると検出し、その検出結果として、操作者が困り状態である旨の情報をメモリ112に記憶する。その後、CPU111は、処理を終了する。
【0056】
図8は、ステップS306に示した案内処理の具体例を示すフローチャートである。ステップS801において、CPU111は、ステップS407で操作者に設定した乗員についての操作者情報、及びステップS704でメモリ112に記憶した操作者が困り状態である旨の情報を取得する。
【0057】
ステップS802において、CPU111は、ステップS801で取得した操作者が困り状態である旨の情報を参照し、操作者が困り状態であるかを判定する。操作者が困り状態でなければ、CPU111は、処理を終了する。操作者が困り状態であれば、CPU111は、ステップS803の処理を実行する。
【0058】
ステップS803において、CPU111は、ステップS801で取得した操作者情報によって操作者の位置を検出し、操作者が見やすく操作しやすい位置に、操作の助けとなる案内を表示する。具体的には、出力部161がタッチパネルである場合において、タッチパネルの画面のうち、操作者がいる位置に近い側に、ヘルプに関するアイコンを表示する。その後、CPU111は、処理を終了する。
【0059】
本実施例によれば、ステップS304の表情推定処理及びステップS305のトラブル推定処理が、操作者の感情を推定し、困り状態の推定を行うので、より適切に操作者の状態を把握可能にすることができる。
【0060】
また本実施形態によれば、ステップS306の案内処理が、操作者の困り状態に応じて操作の案内を表示するので、より適切な案内表示をすることができる。
CPU111は、ステップS407の処理に続いてステップS1008の処理を実行する。ステップS1008において、CPU111は、連続した操作時間の合計である総操作時間toprに、今回の操作時間を加算する。また、ステップS1008において、CPU111は、操作と操作との間の時間間隔である操作時間間隔tdurに、今回の操作時間間隔を加算する。
ステップS1009において、CPU111は、タイムスタンプを取得する。ステップS1010において、CPU111は、入力部162への操作の検出結果により、操作者によって新たな操作がされたかを判定する。操作者によって新たな操作がされなかった場合は、CPU111は、処理を終了する。操作者によって新たな操作がされた場合は、CPU111は、ステップS1011の処理を実行する。
ステップS1306において、CPU111は、操作者が困り状態であると検出し、その検出結果として、操作者が困り状態である旨の情報をメモリ112に記憶する。その後、CPU111は、処理を終了する。
本実施例によれば、ステップS904の指/目状態検知処理及びステップS905のトラブル推定処理が、操作者の目及び指の動きに基づいて困り状態の推定を行うので、より適切に操作者の状態を把握可能にすることができる。