IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ クラリオン株式会社の特許一覧

<>
  • 特開-データ処理装置及びデータ処理方法 図1
  • 特開-データ処理装置及びデータ処理方法 図2
  • 特開-データ処理装置及びデータ処理方法 図3
  • 特開-データ処理装置及びデータ処理方法 図4
  • 特開-データ処理装置及びデータ処理方法 図5
  • 特開-データ処理装置及びデータ処理方法 図6
  • 特開-データ処理装置及びデータ処理方法 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024018746
(43)【公開日】2024-02-08
(54)【発明の名称】データ処理装置及びデータ処理方法
(51)【国際特許分類】
   G06F 3/01 20060101AFI20240201BHJP
   G01C 21/36 20060101ALN20240201BHJP
【FI】
G06F3/01 570
G01C21/36
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2022122276
(22)【出願日】2022-07-29
(71)【出願人】
【識別番号】000001487
【氏名又は名称】フォルシアクラリオン・エレクトロニクス株式会社
(74)【代理人】
【識別番号】110002365
【氏名又は名称】弁理士法人サンネクスト国際特許事務所
(72)【発明者】
【氏名】古賀 昌史
(72)【発明者】
【氏名】山本 健介
(72)【発明者】
【氏名】中野 睦美
(72)【発明者】
【氏名】大塚 将史
(72)【発明者】
【氏名】中村 淳哉
【テーマコード(参考)】
2F129
5E555
【Fターム(参考)】
2F129AA03
2F129BB01
2F129CC16
2F129EE52
2F129HH01
5E555AA64
5E555BA23
5E555BB23
5E555BC04
5E555CA42
5E555CB66
5E555CC05
5E555DA13
5E555DC35
5E555DD06
5E555DD08
5E555EA22
5E555FA00
(57)【要約】
【課題】車両乗員に対する好適なフィードバックを実現すること。
【解決手段】データ処理装置は、自車両の周囲の状況を取得する周囲状況取得部と、前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部と、前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部と、前記対象認識部によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部と、を備えることを特徴とする。
【選択図】図2
【特許請求の範囲】
【請求項1】
自車両の周囲の状況を取得する周囲状況取得部と、
前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部と、
前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部と、
前記対象認識部によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部と、
を備えることを特徴とするデータ処理装置。
【請求項2】
請求項1に記載のデータ処理装置であって、
前記周囲状況取得部は、前記自車両の周囲を撮像するカメラから画像を取得し、
前記対象認識部は、前記画像から前記自車両が駐車可能な駐車領域を検知し、前記手指が指し示す位置が前記駐車領域に含まれる場合に、当該駐車領域を前記対象として認識し、
前記照射制御部は、前記対象認識部が前記駐車領域を前記対象として認識したか否かによって前記光の表示態様を異ならせることを特徴とするデータ処理装置。
【請求項3】
請求項2に記載のデータ処理装置であって、
前記対象認識部が前記駐車領域を前記対象として認識し、所定の確定操作を受け付けた場合に、前記駐車領域への駐車を支援する駐車支援実行部をさらに備えたことを特徴とするデータ処理装置。
【請求項4】
請求項1に記載のデータ処理装置であって、
前記周囲状況取得部は、前記自車両の周囲の地図データを取得し、
前記対象認識部は、前記地図データに含まれる施設のうち、前記手指が指し示す方向に所在する施設を前記対象として認識し、
前記照射制御部は、前記対象認識部が前記施設を前記対象として認識したか否かによって前記光の表示態様を異ならせることを特徴とするデータ処理装置。
【請求項5】
請求項4に記載のデータ処理装置であって、
前記対象認識部が前記施設を前記対象として認識し、所定の確定操作を受け付けた場合に、前記施設を目的地として設定する目的地設定部をさらに備えたことを特徴とするデータ処理装置。
【請求項6】
請求項1に記載のデータ処理装置であって、
前記対象認識部は、前記手指が指し示した対象が同一のまま所定時間が経過したとき、当該対象について所定の確定操作を受け付けたと認識し、
前記照射制御部は、前記確定操作を受け付けたときに、前記手指に照射する光の態様を変えることを特徴とするデータ処理装置。
【請求項7】
データ処理装置が、
自車両の周囲の状況を取得する周囲状況取得ステップと、
前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識ステップと、
前記周囲状況取得ステップによる取得結果と、前記手指認識ステップによる認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識ステップと、
前記手指が指し示した対象に応じた態様の光を前記手指に対して照射する照射ステップと、
を含むことを特徴とするデータ処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、データ処理装置及びデータ処理方法に関する。
【背景技術】
【0002】
従来、ディスプレイに表示されたオブジェクトを選択する操作には、マウス等のポインティングデバイスやタッチパネルが用いられていた。また、所望の対象を選択する操作を非接触で行う技術も考えられている。
【0003】
例えば、特許文献1には、「視覚フィードバックを与えることにより指示位置を確認しながら指示動作を行なうことができるポインティング装置を提供する。」「手振り認識装置12は、ユーザの手振りを認識し、手振り位置姿勢情報を出力する。3次元位置検出部8は、レーザ発光部2により投影されたスポット光の3次元位置を検出する。3次元モデル生成部10は、当該3次元位置に基づき投影したスポット光を含むシーンの3次元モデルを生成する。支持台制御部14は、当該3次元モデルと手振り位置姿勢情報とに基づき指示対象の位置を検出し、レーザ発光部2を含む支持台16の姿勢を制御する。」との記載がある。
また、特許文献2には、「表示画面上の選択可能対象を選択するためのユーザインタフェース装置、コンピュータプログラム、コンピュータ可読媒体及び方法を提示する。表示画面は1以上の選択可能対象を表示する。追跡したユーザの手の位置及び頭又は目の位置に関する情報を取得する。追跡した手の位置及び頭又は目の位置に基づいて、上記選択可能対象が第1の画面位置にあるかどうかを判定する。ここで、第1の画面位置は、選択可能対象に対するユーザの視界を第1の手が少なくとも部分的に遮るような表示画面上の位置である。そのように位置すると判定された場合には、選択可能対象が選択されたと判定する。」との記載がある。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2000-259337号公報
【特許文献2】特開2017-539035号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
従来の技術によれば、ユーザが指さし等によって指定したディスプレイ上の位置を装置が認識可能であり、認識結果をディスプレイ上の表示態様の変化などによってフィードバックできる。
しかしながら、従来の技術では、車両の乗員であるユーザが車外を指し示した場合、装置が指し示した対象を認識したとしても、その認識結果をフィードバックすることが困難であった。
【0006】
そこで、本発明では、車両の乗員であるユーザに好適なフィードバックを行うデータ処理装置及びデータ処理方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するために、代表的な本発明のデータ処理装置の一つは、自車両の周囲の状況を取得する周囲状況取得部と、前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部と、前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部と、前記対象認識部によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部と、を備えることを特徴とする。
【発明の効果】
【0008】
本発明によれば、車両乗員に対する好適なフィードバックが実現できる。上記した以外の課題、構成及び効果は以下の実施の形態の説明により明らかにされる。
【図面の簡単な説明】
【0009】
図1】実施例1のデータ処理の概要を説明する説明図
図2】実施例1のデータ処理装置の構成図
図3】データ処理装置の処理を示すフローチャート
図4】実施例1の対象認識ステップの詳細な処理を示すフローチャート
図5】実施例2のデータ処理の概要を説明する説明図
図6】実施例2のデータ処理装置の構成図
図7】実施例2の対象認識ステップの詳細な処理を示すフローチャート
【発明を実施するための形態】
【0010】
以下、実施例を図面を用いて説明する。
【実施例0011】
図1は、実施例1のデータ処理の概要を説明する説明図である。図1は、車両に搭乗したユーザが、車外を指さした状態を示す。車両に搭載されたデータ処理装置10は、車内を撮像する車内カメラと、自車両の周囲を撮像する車外カメラとで情報の通信を行う。
【0012】
データ処理装置10は、車内カメラから画像を取得し、画像を分析してユーザの目の位置と手指の位置を識別し、目の位置と指先を結ぶ直線を指さし方向と判定する。ここで、手指とは、手と指の少なくとも一方を含む意味で用いる。
また、データ処理装置10は、車外カメラから画像を取得し、画像を分析して自車両が駐車可能な駐車領域を検知する。
【0013】
データ処理装置10は、指さし方向に駐車領域が所在する場合、すなわち、手指が指し示す位置が駐車領域に含まれる場合に、当該駐車領域を対象として認識する。さらに、指さし方向が駐車領域から外れずに所定時間が経過したとき、データ処理装置10は、当該対象について所定の確定操作を受け付けたと認識し、当該駐車領域への駐車を支援する。
【0014】
ここで、データ処理装置10は、ユーザの手や指に対して光を照射する照射部と通信を行い、ユーザが指し示した対象に応じて照射する光の態様を制御可能である。例えば、図1の状態A1では、ユーザの手H1は駐車領域P1を指し示していない。このとき、照射部は、ユーザの手H1に白色の光を照射する。
その後、状態A2に示すように、ユーザの手H1が駐車領域P1を指し示したならば、照射部は、ユーザの手H1に赤色の光を照射する。そして、ユーザの手H1が駐車領域P1を指し示した状態で所定時間が経過すると、照射部は、ユーザの手H1に黄色の光を照射する。
【0015】
このように、データ処理装置10は、ユーザが指し示した対象についての認識結果を、ユーザの手に照射する光の態様を変えることでフィードバック可能である。このため、ユーザが車外を指し示した場合にも、視認性の良好なフィードバックが実現できる。なお、照射部としては、例えばプロジェクタを用いればよい。また、照射する光の態様としては、色の他、点滅を用いることもできる。また、文字や記号をユーザの手に映し出してもよい。さらに複数の態様の一つとして「光を照射しない状態」が含まれてもよい。
【0016】
図2は、実施例1のデータ処理装置10の構成図である。データ処理装置10は、処理部20を備え、車外カメラ11及び車内カメラ12から情報を取得し、照射部13を用いてユーザの手に光を照射する。車外カメラ11は、車両の周囲を撮像する撮像装置である。車内カメラ12は、車室内を撮像する撮像装置であり、車室内の乗員の状態を取得するセンサとして機能する。照射部13は、乗員の手や指に光を照射するプロジェクタである。
【0017】
車内カメラ12は、乗員の目と手を撮像可能な位置に設置する。例えば、ルームミラー近傍やルームライト近傍などに設置すればよい。照射部13は、乗員の手に対し、乗員から視認可能に光を照射可能な位置に設置する。例えば、ルームライト近傍やヘッドレスト近傍などに設置すればよい。
【0018】
処理部20は、周囲状況取得部21、乗員認識部22、照射制御部23、対象認識部24及び駐車支援実行部25を有する。処理部20をコンピュータで実現する場合には、CPU(Central Processing Unit)がプログラムを実行することで、周囲状況取得部21、乗員認識部22、照射制御部23、対象認識部24及び駐車支援実行部25に対応する機能を実現すればよい。
【0019】
周囲状況取得部21は、自車両の周囲の状況を取得する。具体的には、周囲状況取得部21は、自車両の周囲を撮像する車外カメラ11が撮像した画像を取得し、対象認識部24に出力する。
【0020】
乗員認識部22は、車内カメラ12が撮像した画像を取得し、自車両に搭乗しているユーザが自車両の外部を指し示す手指を認識する手指認識部として動作する。また、乗員認識部22は、ユーザの目を認識する。乗員認識部22は、ユーザの目の位置と手指の位置を対象認識部24に出力する。
【0021】
照射制御部23は、乗員認識部22が認識した手指に対して光を照射するよう照射部13を制御する。具体的には、照射制御部23は、対象認識部24からの出力に応じて照射を制御する。対象認識部24からの出力は、認識結果と手指の位置を含む。照射制御部23は、この手指の位置に合わせて照射部13の照射方向を制御し、認識結果に合わせて照射する光の態様を制御する。認識結果には、「対象無し」、「駐車領域を対象として認識」、「確定操作受付済み」があり、照射制御部23は、これらの認識結果を識別可能となるよう光の表示態様を異ならせる。
【0022】
対象認識部24は、周囲状況取得部21による取得結果と、乗員認識部22による認識結果とに基づいて、手指が指し示した対象を認識する。
【0023】
具体的には、対象認識部24は、周囲状況取得部21が取得した画像から自車両が駐車可能な駐車領域を検知する。駐車領域の検知には、任意の画像処理技術を用いればよい。また、対象認識部24は、ユーザの目の位置と指先とを結ぶ直線を指さし方向と判定する。
対象認識部24は、指さし方向に駐車領域が所在しない場合、認識結果を「対象無し」とする。指さし方向に駐車領域が所在する場合、すなわち、手指が指し示す位置が駐車領域に含まれる場合に、当該駐車領域を対象として認識する。このときの認識結果は「駐車領域を対象として認識」である。さらに、指さし方向が駐車領域から外れずに所定時間が経過したとき、対象認識部24は、当該対象について所定の確定操作を受け付けたと認識する。このときの認識結果は、「確定操作受付済み」である。
【0024】
対象認識部24は、認識結果と手指の位置を随時照射制御部23に出力する。また、認識結果が「確定操作受付済み」となった場合に、駐車支援実行部25に対して駐車領域の位置を示すデータを出力する。
【0025】
駐車支援実行部25は、対象認識部24が駐車領域を対象として認識し、所定の確定操作を受け付けた場合に、駐車領域への駐車を支援する。具体的には、駐車支援実行部25は、対象認識部24が出力した駐車領域の位置を示すデータに基づいて、駆動制御ユニット30に対して動作指示を出力する。この動作指示は、自車両の加減速と操舵を制御する指示であり、この動作指示を受けて駆動制御ユニット30が動作することで、自車両は駐車領域まで自動走行し、停車する。
【0026】
図3は、データ処理装置10の処理を示すフローチャートである。この処理は、例えば、ユーザから自動駐車を要求する操作を受け付けたときに開始し、駐車領域を確定して自動走行に移行したときに終了する。
【0027】
処理を開始すると、周囲状況取得部21は、自車両の周囲の状況を取得する周囲状況取得ステップを実行する(ステップS101)。その後、乗員認識部22が、自車両に搭乗しているユーザが自車両の外部を指し示す手指を認識する手指認識ステップを実行する(ステップS102)。その後、対象認識部24が、周囲状況取得ステップによる取得結果と、手指認識ステップによる認識結果とに基づいて、手指が指し示した対象を認識する対象認識ステップを実行する(ステップS103)。その後、照射制御部23は、手指が指し示した対象に応じた態様の光を手指に対して照射する照射ステップを実行する(ステップS104)。その後、ステップS101からの処理を繰り返す。
【0028】
図4は、実施例1の対象認識ステップの詳細な処理を示すフローチャートである。まず、対象認識部24は、周囲状況取得部21が取得した画像から自車両が駐車可能な駐車領域を検知する(ステップS201)。また、対象認識部24は、ユーザの目の位置と指先とを結ぶ直線を指さし方向と判定する(ステップS202)。
【0029】
対象認識部24は、指さし方向に駐車領域が所在しない場合(ステップS203;No)、認識結果を「対象無し」として(ステップS204)、認識結果を出力し(ステップS208)、対象認識ステップを終了する。
【0030】
指さし方向に駐車領域が所在する場合(ステップS203;Yes)、対象認識部24は、該駐車領域を対象として認識する(ステップS205)。ステップS205の後、対象認識部24は、駐車領域を対象とした状態が所定時間継続しているか否かを判定する。所定時間継続していなければ(ステップS206;No)、認識結果を出力し(ステップS208)、対象認識ステップを終了する。このときの認識結果は「駐車領域を対象として認識」となる。
【0031】
駐車領域を対象とした状態が所定時間継続していれば(ステップS206;Yes)、対象認識部24は、当該対象について所定の確定操作を受け付けたと認識し(ステップS207)、認識結果を出力し(ステップS208)、対象認識ステップを終了する。このときの認識結果は、「確定操作受付済み」である。
【実施例0032】
図5は、実施例2のデータ処理の概要を説明する説明図である。図5は、車両に搭乗したユーザが、車外を指さした状態を示す。実施例1との違いは、ユーザが目的地としての施設を指し示す点、データ処理装置10aが、地図データを用いてユーザが指し示す施設を特定する点、特定した施設をナビゲーションの目的地として設定する点である。
【0033】
データ処理装置10aは、地図データに含まれる施設のうち、手指が指し示す方向に所在する施設を対象として認識する。さらに、指さし方向が施設から外れずに所定時間が経過したとき、データ処理装置10aは、当該対象について所定の確定操作を受け付けたと認識し、当該施設を目的地として設定する。
【0034】
データ処理装置10aは、ユーザの手や指に対して光を照射する照射部を備え、ユーザが指し示した対象に応じて照射する光の態様を制御可能である。例えば、図5の状態B1では、ユーザの手H1はいずれの施設も指し示していない。このとき、照射部は、ユーザの手H1に白色の光を照射する。
その後、状態B2に示すように、ユーザの手H1が施設T1を指し示したならば、照射部は、ユーザの手H1に赤色の光を照射する。そして、ユーザの手H1が施設T1を指し示した状態で所定時間が経過すると、照射部は、ユーザの手H1に黄色の光を照射する。
【0035】
このように、データ処理装置10aは、実施例1と同様に、ユーザが指し示した対象についての認識結果を、ユーザの手に照射する光の態様を変えることでフィードバック可能である。
【0036】
図6は、実施例2のデータ処理装置10aの構成図である。データ処理装置10aは、車外カメラ11を用いず、処理部20aの周囲状況取得部21aがナビゲーションユニット40から地図データと自車両位置データを取得する点が実施例1と異なる。また、駐車支援実行部25に代えて目的地設定部26を備える点が異なる。さらに、対象認識部24aの動作が異なる。その他の構成及び動作については、実施例1と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。
【0037】
周囲状況取得部21aは、自車両の周囲の地図データと、自車両の位置データをナビゲーションユニット40から取得し、対象認識部24aに出力する。
対象認識部24aは、地図データと自車両の位置データとを用い、自車両の周囲の施設の3Dモデルデータを生成する。なお、施設とは、建築物、店舗、公園など、車両の走行の目的地として設定可能なものをいう。
【0038】
対象認識部24aは、3Dモデルデータに含まれる施設のうち、手指が指し示す方向に所在する施設を対象として認識する。
具体的には、対象認識部24は、指さし方向に施設が所在しない場合、認識結果を「対象無し」とする。指さし方向に施設が所在する場合、当該施設を対象として認識する。このときの認識結果は「施設を対象として認識」である。さらに、指さし方向が施設から外れずに所定時間が経過したとき、対象認識部24は、当該対象について所定の確定操作を受け付けたと認識する。このときの認識結果は、「確定操作受付済み」である。
【0039】
対象認識部24aは、認識結果と手指の位置を随時照射制御部23に出力する。また、認識結果が「確定操作受付済み」となった場合に、目的地設定部26に対して対象の施設を示すデータを出力する。
【0040】
目的地設定部26は、対象認識部24が施設を対象として認識し、所定の確定操作を受け付けた場合に、当該施設を目的地としてナビゲーションユニット40に出力する。ナビゲーションユニット40は、出力された目的地に至る経路を探索し、探索した経路を案内する。
【0041】
データ処理装置10aの基本的な処理は、実施例1と同様である。実施例2の処理は、例えば、ユーザから目的地設定を要求する操作を受け付けたときに開始し、目的地を確定して経路探索に移行したときに終了する。
【0042】
図7は、実施例2の対象認識ステップの詳細な処理を示すフローチャートである。まず、対象認識部24aは、周囲状況取得部21が取得した地図データと自車両の位置データとを用い、自車両の周囲の施設の3Dモデルデータを生成する(ステップS301)。また、対象認識部24aは、ユーザの目の位置と指先とを結ぶ直線を指さし方向と判定する(ステップS302)。
【0043】
対象認識部24aは、指さし方向に施設が所在しない場合(ステップS303;No)、認識結果を「対象無し」として(ステップS304)、認識結果を出力し(ステップS308)、対象認識ステップを終了する。
【0044】
指さし方向に施設が所在する場合(ステップS303;Yes)、対象認識部24aは、該施設を対象として認識する(ステップS305)。ステップS205の後、対象認識部24aは、施設を対象とした状態が所定時間継続しているか否かを判定する。所定時間継続していなければ(ステップS306;No)、認識結果を出力し(ステップS308)、対象認識ステップを終了する。このときの認識結果は「施設を対象として認識」となる。
【0045】
施設を対象とした状態が所定時間継続していれば(ステップS306;Yes)、対象認識部24aは、当該対象について所定の確定操作を受け付けたと認識し(ステップS307)、認識結果を出力し(ステップS308)、対象認識ステップを終了する。このときの認識結果は、「確定操作受付済み」である。
【0046】
上述してきたように、開示のデータ処理装置は、自車両の周囲の状況を取得する周囲状況取得部21と、前記自車両に搭乗している搭乗者が前記自車両の外部を指し示す手指を認識する手指認識部として機能する乗員認識部22と、前記周囲状況取得部による取得結果と、前記手指認識部による認識結果とに基づいて、前記手指が指し示した対象を認識する対象認識部24と、前記対象認識部24によって認識した前記手指が指し示した対象に応じて、前記手指に照射する光の態様を制御する照射制御部23と、を備える。
このため、データ処理装置は、車両の乗員であるユーザが車外を指し示した場合であっても、その対象を認識し、認識結果を手指に照射する光の態様でフィードバック可能であり、車両乗員に好適なフィードバックが実現できる。
【0047】
また、開示のデータ処理装置によれば、前記周囲状況取得部21は、前記自車両の周囲を撮像するカメラである車外カメラ11から画像を取得し、前記対象認識部24は、前記画像から前記自車両が駐車可能な駐車領域を検知し、前記手指が指し示す位置が前記駐車領域に含まれる場合に、当該駐車領域を前記対象として認識し、前記照射制御部23は、前記対象認識部24が前記駐車領域を前記対象として認識したか否かによって前記光の表示態様を異ならせる。
そして、データ処理装置は、前記対象認識部24が前記駐車領域を前記対象として認識し、所定の確定操作を受け付けた場合に、前記駐車領域への駐車を支援する駐車支援実行部をさらに備える。
このため、データ処理装置は、ユーザが指し示した駐車領域を認識し、認識結果を通知し、駐車領域への駐車を支援できる。
【0048】
また、開示のデータ処理装置によれば、前記周囲状況取得部21は、前記自車両の周囲の地図データを取得し、前記対象認識部24は、前記地図データに含まれる施設のうち、前記手指が指し示す方向に所在する施設を前記対象として認識し、前記照射制御部23は、前記対象認識部24が前記施設を前記対象として認識したか否かによって前記光の表示態様を異ならせることを特徴とする。
そして、前記対象認識部24が前記施設を前記対象として認識し、所定の確定操作を受け付けた場合に、前記施設を目的地として設定する目的地設定部26をさらに備える。
このため、データ処理装置は、ユーザが指し示した施設を認識し、認識結果を通知し、その施設を目的地に設定できる。
【0049】
また、開示のデータ処理装置によれば、前記対象認識部24は、前記手指が指し示した対象が同一のまま所定時間が経過したとき、当該対象について所定の確定操作を受け付けたと認識し、前記照射制御部は、前記確定操作を受け付けたときに、前記手指に照射する光の態様を変える。
このように、データ処理装置は、指さし等により対象の確定操作を受付可能であり、確定操作の受付をユーザにフィードバックできる。
【0050】
なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、かかる構成の削除に限らず、構成の置き換えや追加も可能である。
【0051】
例えば、運転者以外に他の乗員がいる場合に、他の乗員を対象に本発明を適用してもよい。また、複数の乗員のうち、特定の乗員を指定して本発明の適用対象としてもよい。
【0052】
また、車内カメラ以外の任意のセンサ、例えば、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)や、据え置きされたスマートフォンなどから乗員の状態を取得してもよい。さらに、複数のセンサ、複数種類のセンサの出力を組み合わせて用いることもできる。
【0053】
また、上記実施例では、目と指先の延長線上をユーザが指し示す方向として判定したが、指の2点を認識し、この2点の延長線上をユーザが指し示す方向として判定してもよい。
【符号の説明】
【0054】
10:データ処理装置、11:車外カメラ、12:車内カメラ、13:照射部、20:処理部、21:周囲状況取得部、22:乗員認識部、24:対象認識部、25:駐車支援実行部、26:目的地設定部、30:駆動制御ユニット、40:ナビゲーションユニット
図1
図2
図3
図4
図5
図6
図7