IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ クラリオンライフサイクルソリューションズ株式会社の特許一覧

特開2024-158534シミュレーション装置及びサーバ装置
<>
  • 特開-シミュレーション装置及びサーバ装置 図1
  • 特開-シミュレーション装置及びサーバ装置 図2
  • 特開-シミュレーション装置及びサーバ装置 図3
  • 特開-シミュレーション装置及びサーバ装置 図4
  • 特開-シミュレーション装置及びサーバ装置 図5
  • 特開-シミュレーション装置及びサーバ装置 図6
  • 特開-シミュレーション装置及びサーバ装置 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024158534
(43)【公開日】2024-11-08
(54)【発明の名称】シミュレーション装置及びサーバ装置
(51)【国際特許分類】
   G08G 1/00 20060101AFI20241031BHJP
   G08G 1/16 20060101ALI20241031BHJP
   G09B 9/04 20060101ALI20241031BHJP
   G09B 9/052 20060101ALI20241031BHJP
   G09B 9/05 20060101ALI20241031BHJP
【FI】
G08G1/00 D
G08G1/16 F
G09B9/04 A
G09B9/052
G09B9/05 A
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023073798
(22)【出願日】2023-04-27
(71)【出願人】
【識別番号】523160737
【氏名又は名称】クラリオンライフサイクルソリューションズ株式会社
(74)【代理人】
【識別番号】240000327
【弁護士】
【氏名又は名称】弁護士法人クレオ国際法律特許事務所
(72)【発明者】
【氏名】川村 晋司
(72)【発明者】
【氏名】鶴巣 亨輔
(72)【発明者】
【氏名】吉成 公一
【テーマコード(参考)】
5H181
【Fターム(参考)】
5H181AA01
5H181AA06
5H181AA07
5H181AA14
5H181CC04
5H181FF05
5H181FF10
5H181LL20
5H181MB02
5H181MB08
5H181MC17
5H181MC19
5H181MC27
(57)【要約】
【課題】事業者の負担を軽減しつつ、より適切に運転を評価することが可能なシミュレーション装置を提供する。
【解決手段】シミュレーション装置20は、車載カメラ1が撮影した撮影画像を表示するように画像表示部60を制御する表示制御部34と、撮影画像G1に基づいて、シミュレーションを行う被験者が注視すべき注視領域を画像認識により認識する認識部32と、被験者の視線が撮影画像G注視領域に向いているかどうかに基づいて被験者の運転を評価する評価部36とを備える。
【選択図】図2
【特許請求の範囲】
【請求項1】
車両に搭載されたカメラが撮影した撮影画像を表示するように表示部を制御する表示制御部と、
前記撮影画像に基づいて、シミュレーションを行う被験者が注視すべき注視領域を画像認識により認識する認識部と、
前記被験者の視線が前記撮影画像の前記注視領域に向いているかどうかに基づいて前記被験者の運転を評価する評価部と、
を備えるシミュレーション装置。
【請求項2】
前記表示制御部は、前記車両の周辺を視認するための視認部材を含む撮影画像を表示するように前記表示部を制御する、
請求項1に記載のシミュレーション装置。
【請求項3】
前記認識部は、前記注視領域として、前記撮影画像における前記車両の周辺を視認するための視認部材を画像認識により認識する、
請求項1に記載のシミュレーション装置。
【請求項4】
前記認識部は、前記注視領域として、前記撮影画像における移動体を認識する、
請求項1に記載のシミュレーション装置。
【請求項5】
前記撮影画像において所定のイベントが発生したイベント発生時刻を記憶する記憶部と、
前記被験者による所定の動作に関する動作情報を検出する動作検出部と、を備え、
前記評価部は、前記動作検出部が前記動作情報を検出した動作検出時刻と、前記イベント発生時刻に基づいて、前記被験者の運転を評価する、
請求項1に記載のシミュレーション装置。
【請求項6】
前記評価部は、前記動作検出時刻が、前記イベント発生時刻以降であるとき、前記被験者の運転に関する通知を出力する、
請求項5に記載のシミュレーション装置。
【請求項7】
前記評価部は、前記カメラが備える加速度センサで取得した衝撃情報に基づいて、前記イベント発生時刻を取得し、取得した前記イベント発生時刻、前記動作検出時刻及び前記所定の動作に基づいて、前記被験者の運転を評価する、
ことを特徴とする請求項5に記載のシミュレーション装置。
【請求項8】
車両に搭載されたカメラが撮影した撮影画像をシミュレーション装置へ送信するサーバ装置であって、
前記カメラから前記撮影画像を受信する受信部と、
前記撮影画像に基づいて、シミュレーションを行う被験者が注視すべき注視領域を画像認識により認識する認識部と、
前記撮影画像における前記注視領域を前記シミュレーション装置へ送信する送信部と、
を備えるサーバ装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、シミュレーション装置及びサーバ装置に関するものである。
【背景技術】
【0002】
従来、被験者に運転の疑似体験をさせるシミュレーション装置が知られている(例えば、特許文献1~5参照)。特許文献1には、実路面における実車走行時において撮影及び収集された実映像データ及び実走行データを取り込み、映像発生装置ならびに動揺発生装置において再現させることが開示されている。特許文献2には、走行映像に複数のメッシュを設定して、被験者の視線位置や視線滞留時間を検出し、さらに、このメッシュの上に、左ミラー領域等の区域を単位に集計して、無事故運転者と被検者との値を統計的に比較して点数化し、被験者の運転適性を自動的に評価することが開示されている。
【0003】
特許文献3には、車輌等の移動体の360度の全周囲を撮影した全周映像を用いて、その全周映像を視点方向に平面展開することにより、任意の視点移動の対象となる対象映像を取得・生成することが開示されている。特許文献4には、被験者の頭又は目の動きを検出して記録し、この記録したデータに基づいて、被験者が適切に反応したかどうかを評価することが開示されている。特許文献5には、VRヘッドマウントディスプレイに映像を表示するとともに、実際の車両の振動を再現するために椅子を振動させることが開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2005-316004号公報
【特許文献2】特開2008-139553号公報
【特許文献3】特開2020-8664号公報
【特許文献4】米国特許出願公開第2022/051589号
【特許文献5】韓国公開特許第10-2120553号
【発明の概要】
【発明が解決しようとする課題】
【0005】
例えば、被験者の視線位置を評価するため、シミュレーション装置を提供する事業者が、事前に撮影画像を見ながら、被験者が注視すべき領域を設定していた。被験者が注視すべき領域を設定することに膨大な手間と時間がかかり、事業者にとって多大な負担であった。
【0006】
そこで、本開示は、事業者の負担を軽減しつつ、より適切に運転を評価することが可能なシミュレーション装置を提供することを目的としている。
【課題を解決するための手段】
【0007】
前記目的を達成するために、本開示のシミュレーション装置は、車両に搭載されたカメラが撮影した撮影画像を表示するように表示部を制御する表示制御部と、前記撮影画像に基づいて、シミュレーションを行う被験者が注視すべき注視領域を画像認識により認識する認識部と、前記被験者の視線が前記撮影画像の前記注視領域に向いているかどうかに基づいて前記被験者の運転を評価する評価部と、を備える。
【発明の効果】
【0008】
このように構成された本開示のシミュレーション装置は、認識部が撮影画像から被験者が注視すべき領域を画像認識により認識している。したがって、事業者の負担を軽減しつつ、より適切に運転を評価することが可能となる。
【図面の簡単な説明】
【0009】
図1】第1実施形態に係るシミュレーションシステムにおけるシミュレーション装置の概略構成を示すイメージ図である。
図2】第1実施形態に係るシミュレーションシステムの機能構成を示すブロック図である。
図3】認識部が、被験者が注視すべき注視領域を検知する過程を説明するための図である。
図4】被験者が装着する画像表示部のVR表示部に表示される表示画像の一例を示す図である。
図5】Gセンサで検知した衝撃情報の一例を示すグラフである。
図6】得点表と、衝撃情報のグラフとを示す図である。
図7】第1実施形態に係るシミュレーションシステムのシミュレーション装置における動作の一例を説明するためのフローチャートである。
【発明を実施するための形態】
【0010】
(第1実施形態)
この開示の第1実施形態に係るシミュレーションシステム100は、図面に基づいて以下のように説明される。図1は、第1実施形態に係るシミュレーションシステム100におけるシミュレーション装置20の概略構成を示す図である。図2は、第1実施形態に係るシミュレーションシステム100の機能構成を示すブロック図である。
【0011】
図1図2に示されるように、第1実施形態に係るシミュレーションシステム100は、サーバ装置10と、シミュレーション装置20とを主に備える。
【0012】
サーバ装置10は、図示しない車両に搭載された車載カメラ1が撮影した撮影画像G1(図3参照)等をシミュレーション装置20へ送信する装置である。サーバ装置10は、クラウドサーバ等から構成される。サーバ装置10は、図2に示されるように、複数の車載カメラ1と通信網L1を介して通信可能である。また、サーバ装置10は、インターネット等の通信ネットワーク回線L2を介してシミュレーション装置20と通信可能である。
【0013】
サーバ装置10は、図2に示されるように、受信部11と、送信部12と、イベント情報データベース13とを主に備える。以下、イベント情報データベース13は、単に「イベント情報DB13」と称する。受信部11は、通信網L1を介して、車載カメラ1から撮影画像G1を含むイベント情報を受信する。イベント情報は、事故や事故発生には至らないものの、事故発生の危険性が高い事象が生じたときに、車載カメラ1が取得した情報である。
【0014】
受信部11は、車載カメラ1から受信したイベント情報を、イベント情報DB13に格納する。このとき、受信部11は、イベント情報を、例えば、車種、事故の種類等に応じて適宜分類し、イベント情報DB13に格納してもよい。車種の例は、トラック、タクシー、バス、社用車等である。受信部11は、事故と、事故発生には至らないものの、事故発生の危険性が高い事象を区別して分類し、イベント情報DB13に格納してもよい。
【0015】
送信部12は、シミュレーション装置20からの要求に応じて、イベント情報DB13に格納されている様々なイベント情報の中から、1つ又は複数の撮影画像データをシミュレーション装置20へ送信(出力)する。
【0016】
第1実施形態において、車載カメラ1が搭載される車両は、トラック、タクシー、バス、社用車等の、いわゆる商用車である。しかし、車両は、商用車に限定されず、個人が有する、いわゆる自車両であってもよい。
【0017】
車載カメラ1は、例えば「映像記録型ドライブレコーダー」とすることができる。車載カメラ1は、図2に示されるように、カメラ部2、Gセンサ3、GPS4、通信部5、メモリ6等を主に備える。カメラ部2は、360度カメラから構成され、車両の周囲の360度全方向の画像を撮影可能である。Gセンサ3は、加速度センサとも呼ばれる。例えば、Gセンサ3は車載カメラ1が検知した加速度を3自由度で検知するセンサである。3自由度の例は、車載カメラ1を基準とした前後方向であるX軸方向の加速度、左右方向であるY軸方向の加速度、上下方向であるZ軸方向の加速度である。
【0018】
車載カメラ1は、Gセンサ3が所定の値以上の加速度を検知した前後の所定の期間の時刻、GPS4で取得した位置情報、カメラ部2で撮影した動画像である撮影画像、Gセンサで検知した衝撃情報、ウィンカー操作、ブレーキ操作等の各種データを、イベント情報としてメモリ6に記録する。Gセンサ3で検知した衝撃情報は、例えば、X,Y,Zの3軸方向の加速度である。車載カメラ1の通信部5は、メモリ6に記録したイベント情報を、通信網L1を介してサーバ装置10へ送信する。
【0019】
シミュレーション装置20は、被験者Pに運転の疑似体験をさせる装置であり、「ドライビングシミュレータ」等とも呼ばれる。第1実施形態のシミュレーション装置20は、図2に示されるように、制御部(情報処理部)30と、記憶部40と、振動発生部50と、画像表示部60と、操作部70とを主に備える。
【0020】
制御部30と記憶部40は、例えば、パーソナルコンピュータから構成される。制御部30は、CPU、RAM等により主に構成される。記憶部40は、ROM、HDD等の記憶装置により主に構成されるが、外部に設けられたサーバやデータベースを備えることもできる。
【0021】
記憶部40は、シミュレーション装置20を動作させるための制御プログラム、制御部30における各種動作の際に用いられる各種データやパラメータ、イベント情報に基づき抽出された注視領域の位置情報、イベントに関する期間等を、一時的又は非一時的に格納する。
【0022】
また、記憶部40は、イベント情報記憶部41及び得点表記憶部42を備える。イベント情報記憶部41は、サーバ装置10からのイベント情報を、一時的又は非一時的に格納する。得点表記憶部42は、評価部36が作成した得点表を、一時的又は非一時的に格納する。
【0023】
制御部30は、ROMに格納された所定のプログラムをRAMに展開して実行することにより、シミュレーション装置20全体の動作を制御する。また、制御部30は、図2に示されるように、通信部31、認識部32、座席角情報送信部33、表示制御部34、動作検出部35、評価部36及び運転情報表示加工部37として機能する。
【0024】
通信部31は、サーバ装置10にアクセスして、サーバ装置10からイベント情報を受信し、イベント情報記憶部41に格納する。このとき、通信部31は、イベント情報DB13に格納されたすべてのイベント情報を受信する構成とすることもできるし、ユーザによる車種、事故の種類、事故発生には至らないものの、事故発生の危険性が高い事象の種類の指定に対応する1つ又は複数のイベント情報を受信する構成とすることもできる。
【0025】
認識部32は、イベント情報記憶部41から所定のイベント情報を取得する。認識部32は、イベント情報を解析してイベントに関する期間を特定し、特定した期間を後述の被験者Pの動作期間に分類する。認識部32は、イベント情報に含まれる撮影画像に基づいて、被験者Pが注視すべき領域である注視領域を画像認識により認識する。具体的には、認識部32は、図3に示されるように、1フレームごとに、撮影画像G1を格子状に複数の領域Rに分割し、画像認識により、ミラー、モニタ等が写っている領域R(図3の網掛部分参照)を検出する。ミラー、モニタ等の部材は、撮影画像G1における車両の周辺を視認するための視認部材である。左ミラー、右ミラー、バックミラー、車両の周辺を撮影した画像を表示しているモニタが、車両の周辺を視認するための視認部材に含まれる。これに対して車両の周辺を撮影した画像を表示していないモニタは、車両の周辺を視認するための視認部材に含まれない。次いで、認識部32は、画像認識により、検出した視認部材に他車両、歩行者等の移動体が写っているかどうか判定する。この移動体は、被験者Pが注視すべき物体の一例である。認識部32は、検出した視認部材に移動体が写っていると判定した領域Rを、注視領域Aとする。被験者Pが視認部材を介して間接的に移動体を視認できる領域が注視領域Aである。
【0026】
また、認識部32は、画像認識により、視認部材が写っている領域とは異なる領域に、注視すべき物体、例えば、他車両、歩行者等の移動体、障害物等が写っているかどうか判定する。認識部32は、視認部材が写っている領域とは異なる領域に注視すべき物体が写っていると判定した領域を、注視領域Bとする。被験者Pが視認部材を介さず、直接移動体等を視認できる領域が注視領域Bである。
【0027】
なお、図3に示される撮影画像G1は、360度カメラからなるカメラ部2で撮影した撮影画像G1の一部である。実際には、認識部32は、360度全方向を撮影した撮影画像G1について、1フレームごとに画像認識によって注視領域A又は注視領域Bを検出する。認識部32は、検出した注視領域A又は注視領域Bの位置情報、例えば、注視領域A又は注視領域Bの四隅の点の座標を、撮影時刻と紐づけて記憶部40に格納する。
【0028】
また、認識部32は、イベント情報に含まれるGセンサ3で検知した衝撃情報に基づいて、イベントが発生した時刻を取得する。以下、この時刻を「イベント発生時刻」と称することがある。図5は、Gセンサ3で検知した時間軸に対する衝撃情報の一例を示すグラフである。これらのグラフは、図5の紙面上から順に、X軸方向(車両の前後方向)、Y軸方向(左右方向)、Z軸方向(上下方向)の加速度の変化を示すグラフである。各グラフの横軸は時刻であり、縦軸は加速度(G)である。
【0029】
また、X軸方向のグラフにおいて、プラス値は後方向の加速度、マイナス値は前方向の加速度である。Y軸方向のグラフにおいて、プラス値は左方向の加速度、マイナス値は右方向の加速度である。Z軸方向のグラフにおいて、プラス値は下方向の加速度、マイナス値は上方向の加速度である。なお、本実施形態は、X軸方向を前後方向、Y軸方向を左右方向、Z軸方向を上下方向と定義しているが、これに限定されず、何れの方向をX、Y、Z軸方向としてもよい。
【0030】
この図5に示される衝撃情報の例では、X軸方向(前後方向)において、マイナス方向(前方向)に大きな加速度が検知されている(図5の四角で囲まれた部分参照)。このことから、認識部32は、急ブレーキがかかって他車両等に衝突した、又は衝突しそうになったというイベントが発生したことを認識する。このイベントは、事故又は事故発生には至らないものの、事故発生の危険性が高い事象である。認識部32は、その大きな加速度が発生した時刻を「イベント発生時刻」(T3)として記憶部40に記憶する。また、認識部32は、衝撃情報に基づいて、ドライバがステアリング操作を行った時刻、ブレーキ操作を行った時刻等、動作を行った時刻を特定する。
【0031】
図6は、得点表と、衝撃情報のグラフとを示す図である。この図6に示される衝撃情報のグラフは、図5に示されるX軸方向、Y軸方向及びZ軸方向のグラフを1つのまとめたものである。図6において、Tは注視領域Aの注視、操作部70の操作等、被験者Pが動作を行った時刻である。この時刻は、後述する動作検出部35が、被験者Pが行った動作に関する動作情報を検出した時刻でもあるため、以下、この時刻を、「動作検出時刻」と称することがある。T3は事故又は事故発生には至らないものの、事故発生の危険性が高い事象が発生したイベント発生時刻であるが、得点表では、より適切な評価を行うべく、実際の事故等においてドライバがブレーキ等を操作した時刻よりも前の時刻に設定される。T2は事故直前又は事故発生には至らないものの、事故発生の危険性が高い事象の期間の始点となる時刻である。具体的には、例えば、T2はドライバが急ブレーキをかけ始めた時刻である。T1は事故直前又は事故発生には至らないものの、事故発生の危険性が高い事象が発生するよりも前の所定の時刻である。具体的には、例えば、T1は低速走行から通常速度での走行に切り替わった時刻である。
【0032】
認識部32は、特定した時刻等に基づいて、期間を事象ごとに分類する。図6において、T1未満の期間は車両が低速走行を行っている期間である。T1以上T2未満の期間は他車両が接近している、つまり注視領域A又は注視領域Bに他車両が写っていて、かつ車両は通常速度走行である期間である。T2以上T3未満の期間は事故直前の期間又は事故発生には至らないものの、事故発生の危険性が高い事象が発生している期間である。T3以降の期間は事故が発生した後の期間である。
【0033】
次いで、認識部32は、イベント発生時刻等の時刻情報及び衝撃情報に基づいて、図6に示されるような運転評価に用いる得点表(テーブル)を作成する。認識部32は、作成した得点表を記憶部40の得点表記憶部42に格納する。なお、認識部32は、シミュレーション装置20が起動されて、イベント情報が選択されたときに、当該イベント情報の分類処理を実行し、作成した得点表を得点表記憶部42に格納する構成とすることができる。または、認識部32は、サーバ装置10からイベント情報を受信したとき等に、イベント情報記憶部41に格納されたすべてのイベント情報に対して予め分類処理を実行し、すべてのイベント情報に関する得点表を作成して得点表記憶部42に格納する構成とすることもできる。
【0034】
認識部32は、被験者Pの動作を検出した動作検出時刻Tと、上記期間の分類結果に基づいて、被験者Pに付与する得点を設定する。検出する動作の例は、被験者Pが注視領域又は注視領域Bを注視したこと、被験者Pがステアリングを操作したこと、被験者Pがブレーキを操作したこと、被験者Pがアクセルを操作したこと、である。例えば、図6の得点表によれば、被験者Pが注視領域A又は注視領域Bを注視したという動作を検出した時刻TがT1よりも前の期間(T<T1)で、かつ視線の方向が注視領域A又は注視領域B内であるときは、2点が付与される。なお、視線の先は被験者Pが注視している位置でもあることから、視線の方向を「注視位置」と称することがある。被験者Pがステアリングを操作した時刻TがT<T1で、かつ操作の方向がイベント情報に基づき予め設定した正解のステアリング方向と一致した(match)ときは、2点が付与される。例えば、ブレーキ操作を検出した時刻TがT<T1のときは、2点が付与される。例えば、イベントが「衝突」の場合、「予め設定した正解のステアリング方向」は、衝突した障害物が存在する方向とは逆方向である。
【0035】
被験者Pが注視領域A又は注視領域Bを注視した時刻TがT1以上T2未満の期間(T1≦T<T2)で、かつ視線の方向が注視領域A又は注視領域B内であるときは、他車両を適切に注視したとして、5点が付与される。ブレーキ操作の時刻TがT1≦T<T2のときは、5点が付与され、ステアリング操作の時刻TがT1≦T<T2で、かつステアリング方向が予め設定した正解のステアリング方向と一致したときは、5点が付与される。
【0036】
被験者Pが注視領域A又は注視領域Bを注視した時刻TがT2以上T3未満の期間(T2≦T<T3)で、かつ視線の方向が注視領域A又は注視領域B内であるときは、事故直前又は事故発生には至らないものの、事故発生の危険性が高い事象のときに適切に注視領域A又は注視領域Bを注視したとして、10点が付与される。同様に、ブレーキ操作の時刻TがT2≦T<T3のときは、10点が付与され、ステアリング操作の時刻TがT2≦T<T3で、かつステアリング方向が予め設定した正解のステアリング方向と一致したときは、10点が付与される。一方で、被験者Pが注視領域A又は注視領域Bを注視した時刻、ブレーキ操作の時刻、ステアリング操作の時刻が、T3以上の期間(T3≦T)であるとき、つまり、事故が発生してからこれらの動作を行ったときは、得点対象外であり、得点は付与されない。被験者Pがステアリング操作をしたとしても、被験者Pの視線の方向が注視領域A又は注視領域B外ならば、得点は付与されない。これは、被験者Pが注視すべき領域を見ることなくステアリング操作をしたと考えられるためである。
【0037】
なお、図6に示される例では、認識部32は、視線の方向、ステアリング操作、ブレーキ操作に基づいて得点表を作成しているが、これに限定されない。認識部32は、アクセル操作、走行速度、アクセル操作又はブレーキ操作の操作量等に基づいて得点表を作成することもできる。
【0038】
座席角情報送信部33は、イベント情報に含まれるGセンサ3からの衝撃情報に基づいて、X軸方向、Y軸方向及びZ軸方向の加速度を、座席角情報として取得する。座席角情報送信部33は、取得した座席角情報を振動発生部50の座席角再現部53に送信する。座席角再現部53は、受信した座席角情報に基づき、座席駆動部52を駆動制御して、座席本体51をX,Y,Z軸方向と、各方向の回転角度を合わせた6自由度で動かす。被験者Pは実際に車両を運転しているときのような振動を体験することができる。
【0039】
表示制御部34は、画像表示部60の画像再現部63を制御して、VR表示部61に表示画像G3を表示させる。より具体的には、表示制御部34は、イベント情報に含まれる、車載カメラ1のカメラ部2で撮影した撮影画像G1と、後述する運転情報表示加工部37で生成された評価結果画像G2を画像再現部63に送信する。そして、表示制御部34は、画像再現部63を制御して、撮影画像G1及び評価結果画像G2を含む表示画像G3を、被験者Pの視線の方向に基づいて表示(再生)させる。このとき、表示制御部34は、カメラ部2がミラー等の車両の周辺を視認するための視認部材を含む撮影画像G1を表示するように画像再現部63を制御することが望ましい。
【0040】
動作検出部35は、被験者Pによる操作部70に対する操作、頭部の移動等の動作に関する動作情報を取得する。例えば、動作検出部35は、操作部70のステアリング部71に設けられた操舵角検知部71aから検知結果を取得し、被験者Pのステアリング部71の操作状態をステアリング操作情報として検出する。ステアリング部71での操作状態には、操作の有無、被験者Pによる操作を検知した時刻及びステアリング角度(操舵角)に基づくステアリング方向等が含まれる。動作検出部35は、アクセル部72に設けられたアクセル検知部72aから検知結果を取得し、被験者Pのアクセル部72の操作状態をアクセル操作情報として検出する。アクセル部72の操作状態には、操作の有無、被験者Pによる操作を検知した時刻、操作量等が含まれる。動作検出部は35、ブレーキ部73に設けられたブレーキ検知部73aから検知結果を取得し、被験者Pのブレーキ部73の操作状態をブレーキ操作情報として検出する。ブレーキ部73の操作状態には、操作の有無、被験者Pによる操作を検知した時刻、操作量等が含まれる。また、動作検出部35は、画像表示部60に設けられた視線検知部62での視線の検知結果に基づいて、被験者Pの視線の方向を視線情報として検出する。動作検出部35は、検出したステアリング操作情報、アクセル操作情報、ブレーキ操作情報、及び視線情報を、被験者Pの動作情報として評価部36へ送信する。なお、動作検出部35は装置が被験者Pによる操作を検出したタイミングを被験者Pが操作した時刻と見なしてよい。
【0041】
評価部36は、動作検出部35で検出した動作情報及び得点表記憶部42の得点表に基づき、被験者Pの運転を評価する。例えば、評価部36は、被験者の動作情報のうち視線情報に基づいて、被験者Pの視線の方向が画像の注視領域A又は注視領域Bに向いているかどうか、被験者Pの視線の方向が画像の注視領域A又は注視領域Bに向いた時刻Tが適切かどうかに基づいて被験者Pの運転を評価し、得点を付与する。評価部36は、注視領域Aと注視領域Bのうち、先に障害物等の注視すべき物体が写った方の領域に、後に障害物等が映った方の領域よりも多くの得点を付与するよう重み付けをしてもよい。評価部36は、ステアリング操作情報に基づいて、被験者Pがステアリング部71を操作した時刻Tが適切かどうかに基づいて被験者Pの運転を評価し、得点を付与する。評価部36は、ブレーキ操作情報に基づいて、被験者Pがブレーキ部73を操作した時刻Tが適切かどうかに基づいて被験者Pの運転を評価し、得点を付与する。評価部36は、評価結果を運転情報表示加工部37へ送信する。また、評価部36は、動作検出部35が被験者Pの動作を検出した動作検出時刻T、例えば、ブレーキ操作を検出した時刻Tがイベント発生時刻T3以降であると評価したとき、被験者Pに通知するべく、警告情報として、例えば警告フラグをオンにして、運転情報表示加工部37へ送信する。
【0042】
運転情報表示加工部37は、評価部36から受信した評価結果と撮影画像に基づいて、評価結果画像G2を生成する。評価結果画像G2は、得点、ステアリング操作の状態、ステアリング角度、ブレーキ操作の状態等の評価結果が文字、数字等で表される。また、運転情報表示加工部37は、評価部36から警告情報を受信したとき、評価部36が評価した被験者Pの運転に関する通知を、評価結果画像G2に含める。運転情報表示加工部37は、生成した評価結果画像G2を表示制御部34へ送信する。
【0043】
振動発生部50は、画像表示部60での表示画像G3の表示に合わせて、カメラ部2で車両の周囲が撮影されたときのGセンサ3の検知結果に基づいて振動を発生させ、実際の車両の運転時と同様の振動を被験者Pに付与する。振動発生部50は、座席本体51と、座席駆動部52と、座席角再現部53とを主に備える。
【0044】
座席本体51は、被験者Pが座る部材である。座席駆動部52は、座席角再現部53によって制御される。座席駆動部52は、座席本体51をX軸方向(前後方向)、Y軸方向(左右方向)及びZ軸方向(上下方向)、各軸方向の回転の6自由度で駆動できる。座席駆動部52は、例えば、ステッピングモータ、シリンダ等の電動アクチュエータから構成される。座席角再現部53は、座席角情報送信部33から座席角情報を受信し、座席角情報に基づいて座席駆動部52を駆動制御する。
【0045】
画像表示部60は、表示制御部34の制御に基づいて、カメラ部2で撮影された撮影画像G1及びを含む表示画像G3を被験者Pに提示する画像表示装置である。画像表示部60は、ヘッドマウントディスプレイから構成され、被験者Pの頭部に装着されるが、これに限定されない。画像表示部60は、VR表示部61と、視線検知部62と、画像再現部63とを主に備える。また、画像表示部60は、バックライト等の光学系、投影光学系等、一般的な画像表示装置が有する部材を備えている。
【0046】
VR表示部61は、画像表示部60を頭部に装着した被験者Pの眼の前方に配置され、その表示面61aに表示画像G3が表示(再生)される。VR表示部61は、液晶ディスプレイ、有機ELディスプレイ等から構成される。VR表示部61は、被験者Pが表示画像G3を視認できればよい。例えば、被験者Pは表示画像とともに外部の現実環境を視認可能な透過型でもよく、これ以外の非透過型でもよい。視線検知部62は、加速度センサ等から構成され、被験者Pの頭部の動きに基づいて、視線の方向を検知する。視線の方向である注視位置は、本実施形態では、被験者Pの視線の延長線とVR表示部61の表示面61aに表示された表示画像G3とが交差した位置、つまり表示画像G3における3次元座標で表される。視線検知部62は、検知した視線の方向である注視位置の位置情報を、画像再現部63に送信する。
【0047】
なお、視線検知部62は、加速度センサに限定されず、他の例として被験者Pの画像を撮影する撮像装置とすることもできる。このような視線検知部62は、撮影した被験者Pの画像から、画像認識により目を検出し、視線の方向を検知する。
【0048】
画像再現部63は、表示制御部34から受信した撮影画像G1及び評価結果画像G2を含む表示画像G3生成し、生成した表示画像G3をVR表示部61の表示面61aに表示させる(図4参照)。このとき、画像再現部63は、図1に示されるように、被験者Pの周囲360度の方向に球面状の投影面Vを設定して、視線検知部62が検知した視線の方向を中心とした所定範囲の領域Wの撮影画像G1を、視線の方向の変化に対応させて領域を移動させつつVR表示部61に表示させる。これにより、被験者Pは、自身の視線の方向に対応する撮影画像G1と、評価結果画像G2を含む表示画像G3を視認することができる。
【0049】
すなわち、被験者Pが正面又は後方を向けば、VR表示部61には、車両の前方の画像又は後方の画像がそれぞれ表示される。また、被験者Pが左方向、右方向、上方向又は下方向を向けば、VR表示部61には、車両の左方、右方、上方又は下方の画像がそれぞれ表示される。また、画像再現部63は、視線の方向を動作検出部35に送信する。この視線の方向は、動作検出部35から評価部36に送信され、運転の評価に用いられる。
【0050】
また、図4に示されるように、画像再現部63は、VR表示部61の表示面61aの運転評価表示領域61bに、運転評価の評価結果や被験者Pの運転に関する通知(例えば、警告メッセージ、警告画像等)を含む評価結果画像G2を表示する。また、画像表示部60は、スピーカを備えてもよく、被験者Pの運転に関する通知を、音声で(例えば、警告音、警告メッセージ等)で出力してもよい。
【0051】
操作部70は、被験者Pの各種操作(動作)を受け付ける部材である。操作部70は、ステアリング部71と、アクセル部72と、ブレーキ部73とを主に備える。また、操作部70は、クラッチ部、ウィンカー部等を備えていてもよい。
【0052】
ステアリング部71は、車両のステアリングを模した部材であり、被験者Pのステアリング操作の入力を受け付ける。ステアリング部71は、操舵角検知部71aを備え、被験者Pのステアリング部71の操作に基づき、ステアリング操作がされた時刻、ステアリング操作時のステアリング角度(操舵角)等を検知し、検知結果を動作検出部35に送信する。
【0053】
アクセル部72は、車両のアクセルペダルを模した部材であり、被験者Pのアクセル操作を受け付ける。アクセル部72は、アクセル検知部72aを備える。アクセル検知部72aは、被験者Pのアクセル部72の操作に基づき、アクセル操作の有無、アクセル操作がされた時刻、操作量等を検知し、検知結果を動作検出部35に送信する。ブレーキ部73は、車両のブレーキペダルを模した部材であり、被験者Pのブレーキ操作を受け付ける。ブレーキ部73は、ブレーキ検知部73aを備える。ブレーキ検知部73aは、被験者Pのブレーキ部73の操作に基づき、ブレーキ操作の有無、ブレーキ操作がされた時刻、操作量等を検知し、検知結果を動作検出部35に送信する。
【0054】
上述のような構成の第1実施形態に係るシミュレーションシステム100の動作の一例は、図7のフローチャートを参照して以下のように説明される。図7は、シミュレーション装置20での動作の一例を示しているが、シミュレーション装置20の動作は、この図7の動作に限定されない。また、図7のフローチャートの各ステップ(工程)は、図7に示す順番で必ず実行されるものでもなく、適宜順番を入れ替えて実行することや、複数のステップを同時に実行することもできる。
【0055】
この図7に示される動作は、シミュレーションシステム100を操作する操作者等により、シミュレーション装置20の電源が投入され、シミュレーションシステム100が起動したときに開始される。また、サーバ装置10は、様々なイベント情報をイベント情報DB13に格納しているものとする。また、ステップS1~S3は、被験者Pがシミュレーションを体験する前に実行される。すなわち、ステップS1~S3での処理は、事前処理である。ステップS4以降は、被験者Pがシミュレーション装置20の座席本体51に座り、被験者P又は操作者が、図示しないスタートボタン等を押したときに実行される。
【0056】
まず、図7の紙面左図に示されるフローチャートのステップS1で、シミュレーション装置20の通信部31は、サーバ装置10にアクセスして、サーバ装置10からイベント情報を受信し、イベント情報記憶部41に格納する。次のステップS2で、認識部32は、イベント情報の分類処理を実行する。具体的には、認識部32は、イベント情報記憶部41から所望のイベント情報を取得し、イベント情報に含まれる衝撃情報に基づき、事故、事故発生には至らないものの、事故発生の危険性が高い事象等のイベント発生時刻T3を取得する。また、認識部32は、撮影画像G1に基づいて、視認部材及び移動体を画像認識により検出し、この検出結果及び衝撃情報に基づいて、例えば、図6に示されるT1,T2のようなイベント発生時刻T3以外の時刻を特定し、特定した時刻に基づいて期間を被験者Pの動作期間に分類する。
【0057】
次のステップS3で、認識部32は、特定した時刻T1~T3、期間の分類結果に基づいて、図5に示す得点表を作成し、得点表記憶部42に格納する。ステップS3の工程が終了すると、プログラムは待ち状態となる。そして、シミュレーション装置20が被験者P又は操作者によるスタートボタン等の操作入力を受信すると、プログラムはステップS4へと進む。
【0058】
ステップS4で、制御部30は、イベント情報から経過時刻を取得する。経過時刻は、撮影画像G1の撮影開始時刻から撮影終了時刻までの期間において、イベントが撮影開始時刻を起点として何分何秒経過した時刻で検知されたかを示す時刻である。次のステップS5では、ステップS4で取得した経過時刻に応じて、表示制御部34は、イベント情報から1フレーム分の撮影画像G1を取得する。
【0059】
次のステップS6で、座席角情報送信部33は、イベント情報から取得した経過時刻に対応する座席角情報としてX,Y,Z軸方向の加速度を、1フレーム分取得する。次のステップS7で、座席角情報送信部33は、座席角情報を座席角再現部53へ送信する。この座席角情報に基づいて、座席角再現部53は、座席駆動部52を駆動制御し、座席本体51をX,Y,Z軸方向と、各方向の回転角度を合わせた6自由度で動かし、被験者Pに振動を与える。
【0060】
次のステップS8で、動作検出部35は、動作情報を取得する。すなわち、動作検出部35は、操舵角検知部71a、アクセル検知部72a及びブレーキ検知部73aからの検知結果に基づき、各々ステアリング操作情報、アクセル操作情報及びブレーキ操作情報を検出する。また、動作検出部35は、視線検知部62からの検知結果に基づき、視線情報を検出する。動作検出部35は、検出したこれらの動作情報を評価部36へ送信する。
【0061】
次のステップS9で、評価部36は、ステップS8で検出した動作情報及びステップS3で作成されて得点表記憶部42に格納された得点表に基づき、被験者Pの運転を評価する。ステップS9の処理の詳細は、図7の紙面右図に示されるフローチャートに基づき、以下のように説明される。
【0062】
運転評価処理が開始されると、まず、ステップS901で、評価部36は、視線情報に基づく被験者Pの注視位置が、上記ステップS4で取得した経過時刻時点の注視領域A又は注視領域B内かどうかを判定する。次のステップS902で、評価部36が、注視位置が注視領域A又は注視領域B内であると判定したとき(YES)、プログラムはステップS903へ進む。一方、評価部36が、注視位置が注視領域A又は注視領域B外であると判定したとき(NO)、プログラムは、ステップS903をスキップしてステップS904へ進む。
【0063】
ステップS903で、評価部36は、被験者Pが注視領域A又は注視領域Bを注視した時刻Tに基づいて得点表から得点を取得し、得点を加算する。具体的には注視位置が注視領域A又は注視領域B内を示したという動作を検出した時刻TがT<T1、T1≦T<T2、T2≦T<T3かに応じて、得点表から取得した得点を加算する。その後、プログラムはステップS904へ進む。
【0064】
ステップS904で、評価部36は、被験者Pのブレーキ操作があった場合は、ブレーキ操作をした時刻Tが、得点表に予め設定した期間内かどうか判定する。次のステップS905で、評価部36が、被験者Pがブレーキ操作をした時刻Tが、予め設定した期間内である(T<T1、T1≦T<T2又はT2≦T<T3)と判定したとき(YES)、プログラムはステップS906へと進む。一方、評価部36が、被験者Pがブレーキ操作をした時刻Tが、予め設定した期間外である(T3≦T)と判定したとき(NO)、プログラムは、ステップS906をスキップしてステップS907へ進む。
【0065】
ステップS906で、評価部36は、ブレーキ操作を検出した時刻Tに基づいて得点表から得点を取得し、得点を加算する。具体的にはブレーキ操作を検出した時刻TがT<T1、T1≦T<T2、T2≦T<T3かに応じて、得点表から取得した得点を加算する。ここで、評価部36は、ブレーキの操作量を数値化し、得点に加味する構成とすることもできる。その後、プログラムはステップS907へ進む。
【0066】
ステップS907で、評価部36は、被験者Pのステアリング操作があった場合は、そのステアリング方向と、上記ステップS4で取得した経過時刻時点(T<T1、T1≦T<T2又はT2≦T<T3)の正解のステアリング方向と一致するかどうか判定する。
【0067】
次のステップS908で、評価部36が、被験者Pのステアリング方向が、予め設定した正解のステアリング方向と一致したと判定したとき(YES)、プログラムは、ステップS909へ進む。一方、評価部36が、これらが一致しないと判定したとき(NO)、プログラムは、ステップS909をスキップしてステップS910へ進む。
【0068】
ステップS909で、評価部36は、ステアリング操作のタイミングに基づいて得点表から得点を取得し、得点を加算する。具体的にはステアリング操作を検出した時刻TがT<T1、T1≦T<T2、T2≦T<T3かに応じて、得点表から取得した得点を加算する。その後、プログラムはステップS910へ進む。
【0069】
ステップS910で、評価部36は、算出した得点を含む評価結果を運転情報表示加工部37へ送信する。また、評価部36は、注視、ブレーキ操作、又はステアリング操作をした時刻Tが得点対象外(T3≦T)であるとき、動作に応じて、その時刻Tがイベント発生時刻T3以降であることを示す警告情報を含む評価結果を運転情報表示加工部37に送信する。その後、プログラムは、終了へと進み運転評価の工程が終了する。
【0070】
運転評価処理が終了すると、プログラムは、図7の紙面左図のフローチャートへ戻り、ステップS10へ進む。このステップS10で、運転情報表示加工部37は、ステップS910で評価部36から受信した評価結果に基づいて、評価結果画像G2を生成する。運転情報表示加工部37は、生成した評価結果画像G2を、表示制御部34へ送信する。
【0071】
次のステップS11で、表示制御部34は、運転情報表示加工部37から受信した評価結果画像G2と、撮影画像G1を画像再現部63へ送信し、表示画像G3を生成してVR表示部61に表示するように画像再現部63を制御する。画像再現部63は、例えば図4に示されるように、被験者Pの視線の方向に応じた所定範囲の撮影画像G1と、評価結果画像G2を含む表示画像G3を生成してVR表示部61の表示面61aに表示する。評価結果画像G2は、運転評価表示領域61bに表示される。このため、被験者Pは、表示画像G3中で再現された車載カメラ1の撮影画像G1を視認しつつ、評価結果画像G2により自身の運転に対する得点、ステアリング角度、警告等を確認することができる。
【0072】
次のステップS12で、評価部36は、1フレーム分の表示時間を、経過時刻に加算する。次のステップS13で、評価部36は、画像再現部63で再現する撮影画像G1が終了したかどうかを判定する。評価部36が、撮影画像G1が終了していない(次のフレームがある)と判定したとき(NO)、プログラムはステップS4へ戻り、次のフレームについてステップS4~S12の工程を繰り返す。
【0073】
一方、評価部36が、撮影画像G1が終了した、つまり次のフレームがないと判定したとき(YES)、プログラムは終了へと進み、当該被験者Pのシミュレーションが終了する。その後、当該被験者Pが、他のイベントのシミュレーションを実行する場合、又は他の被験者がシミュレーションを実行する場合は、シミュレーション装置20は、ステップS1~S13の工程を繰り返す。また、シミュレーション装置20は、自動で又は操作者の電源断の操作を受けて、所定の終了処理を実行した後、電源オフとなる。これにより、シミュレーションシステム100によるシミュレーション処理が終了する。
【0074】
(第2実施形態)
この開示の第2実施形態に係るシミュレーションシステム100は、シミュレーション装置20の認識部32に代えて、サーバ装置10が認識部(図2に破線で示されるサーバ側認識部14)を備えている。第2実施形態に係るシミュレーションシステム100は、サーバ装置10がサーバ側認識部14を備え、シミュレーション装置20が認識部32を備えていないこと以外は、図1図2等に示される第1実施形態のシミュレーションシステム100と同様の基本構成を備えている。
【0075】
サーバ側認識部14は、第1実施形態の認識部32とほぼ同様の機能を備える。より具体的には、サーバ側認識部14は、イベント情報DB13からイベント情報を取得し、図7のステップS2の分類処理と同様の分類処理を実行する。このとき、サーバ側認識部14は、イベント情報DB13に格納されたすべてのイベント情報について分類処理を実行し、分類結果をイベント情報DB13等に格納する構成とすることができる。そして、送信部12が、イベント情報DB13から、シミュレーション装置20により指定されたイベント情報及びその分類結果を、シミュレーション装置20に送信する構成とすることができる。または、サーバ側認識部14は、シミュレーション装置20から指定された一つのイベント情報をイベント情報DB13から取得し、当該イベント情報について分類処理を実行し、送信部12が当該イベント情報及び分類結果をシミュレーション装置20に送信する構成とすることもできる。
【0076】
以上説明したように、上記第1実施形態のシミュレーション装置20は、車両に搭載されたカメラ(車載カメラ1)が撮影した撮影画像G1を表示するように表示部(画像表示部60)を制御する表示制御部34と、撮影画像G1から、画像認識によりシミュレーションを行う被験者Pが注視すべき注視領域A又は注視領域Bを認識する認識部32と、被験者Pの視線が撮影画像G1の注視領域A又は注視領域Bに向いているかどうかに基づいて被験者Pの運転を評価する評価部36と、を備える。また、第2実施形態のシミュレーションシステム100は、サーバ装置10が認識部(サーバ側認識部14)を備える。
【0077】
このように、認識部32が自動で被験者Pが注視すべき注視領域A又は注視領域Bを認識するため、事業者等が撮影画像G1を視認しながら注視領域A又は注視領域Bを認識する必要がない。したがって、上記第1実施形態のシミュレーション装置20及びシミュレーションシステム100並びに第実施形態のシミュレーションシステム100は、認識部32が自動で事業者の負担を軽減しつつ、より適切に運転を評価することが可能となる。この結果、シミュレーションを行う被験者Pは、車載カメラ1で撮影された撮影画像G1を、仮想空間においてよりリアルに視認しつつ、自身の運転の評価をリアルタイムで適切に把握することができる。
【0078】
ところで、近年、車両に搭載されているドライバ監視システム(DMS)は、実際の運転中のリアルタイムの撮影画像に基づいてドライバの動作を監視している。このため、DMSでは事故や事故発生には至らないものの、事故発生の危険性が高い事象が発生するよりも前にドライバが注視領域A又は注視領域Bを注視すべき時刻や、ブレーキ操作、ステアリング操作等をすべき時刻を把握することはできない。これに対して、上記各実施形態のシミュレーション装置20は、すでに撮影された撮影画像G1に基づいて、事故等のイベント発生時点前の過去の期間を状況に応じて複数の期間に分類し、期間ごとに被験者Pが注視領域A又は注視領域Bを注視した時刻、ブレーキ操作を検出した時刻、ステアリング操作を検出した時刻が適切かどうか評価するための点数を設定している。そして、シミュレーション装置20は、撮影画像G1及び車両の振動を再現しつつ、予め作成した点数表に基づいて被験者Pの運転を段階的に評価している。このため、上記各実施形態のシミュレーション装置20及びシミュレーションシステム100は、イベント発生時だけでなく、発生前の被験者Pの動作までも、より詳細かつ、より適切に評価することができる。
【0079】
また、上記各実施形態の表示制御部34は、車両の周辺を視認するための視認部材(例えば、ミラー、モニタ等)を含む撮影画像G1を表示するように画像表示部60(VR表示部61)を制御することができる。この構成とすれば、シミュレーション装置20及びシミュレーションシステム100は、被験者Pが視認すべき視認部材の画像が提示されることから、被験者Pに、より高い臨場感を与えることができる。また、被験者Pは、視認すべき視認部材を適切に視認することができる。
【0080】
また、上記各実施形態の認識部(認識部32、サーバ側認識部14)は、注視領域Aとして、撮影画像G1における車両の周辺を視認するための視認部材(例えば、ミラー、モニタ等)を画像認識により認識する。この構成により、シミュレーション装置20及びシミュレーションシステム100は、被験者Pが視認部材を注視したかどうかによって、被験者Pの運転を、より適切に評価することができる。
【0081】
また、上記各実施形態の認識部(認識部32、サーバ側認識部14)は、注視領域Bとして、撮影画像G1における移動体(例えば、他車両、歩行者等)を認識する。この構成により、シミュレーション装置20及びシミュレーションシステム100は、被験者Pが、移動体を適切に視認したかどうか、移動体を回避するために、適切にブレーキ操作やステアリング操作を行ったかどうかに基づいて、より適切に運転を評価することができる。
【0082】
また、上記各実施形態のシミュレーション装置20は、撮影画像G1において所定のイベントが発生したイベント発生時刻T3を記憶する記憶部40と、被験者Pによる所定の動作に関する動作情報を検出する動作検出部35と、を備える。そして、評価部36は、動作検出部35が動作情報を検出した動作検出時刻Tと、イベント発生時刻T3に基づいて、被験者Pの運転を評価する。この構成により、シミュレーション装置20及びシミュレーションシステム100は、被験者Pによる動作の入力が適切かどうかの判断を、より正確に行うことができる。
【0083】
また、上記各実施形態の評価部36は、動作検出時刻Tが、イベント発生時刻T3以降であるとき、被験者Pの運転に関する通知を出力する。この構成により、上記各実施形態のシミュレーション装置20及びシミュレーションシステム100は、被験者Pによる動作の入力が適切でないことを通知することができる。
【0084】
また、上記各実施形態の評価部36は、車載カメラ1が備える加速度センサで取得した衝撃情報に基づいて、イベント発生時刻T3を取得し、取得したイベント発生時刻T3、動作検出時刻T及び所定の動作に基づいて、被験者Pの運転を評価する。この構成により、上記各実施形態のシミュレーション装置20及びシミュレーションシステム100は、イベント発生時刻、イベントの種類、イベント情報が記録された期間を状況に応じて複数の期間に分類したときの各期間における被験者Pがすべき動作等、イベントに関する情報をより詳細に認識することができ、より適切に運転を評価することができる。
【0085】
また、上記各実施形態の評価部36は、動作検出時刻Tが、イベント発生時刻T3よりも前であるとき、被験者Pの運転を肯定的に評価するとともに、動作検出時刻Tからイベント発生時刻T3までの期間に応じて、前記被験者Pの運転を段階的に評価する。この構成により、シミュレーション装置20及びシミュレーションシステム100は、被験者Pの運転を、より詳細に評価することができる。
【0086】
また、上記各実施形態のシミュレーション装置20は、車両の周囲の360度全方向の画像を撮影する車載カメラ1を備え、被験者Pの視線の方向に応じて所定範囲の撮影画像G1をVR表示部61に表示している。この構成により、被験者Pは、視線又は頭部を移動させるだけで、車両の周囲の360度全方向における所望の方向を視認することができ、特に後方を視認することができる。このため、被験者Pは、より臨場感の高いシミュレーションを体験することができる。
【0087】
また、上記各実施形態のシミュレーション装置20は、座席本体51と、座席駆動部52と、座席角再現部53とを有し、車載カメラ1が備えるGセンサ3で取得された振動情報に基づいて振動を発生させる振動発生部50を備える。この構成により、被験者Pは、VR表示部61により再現された撮影画像G1を視認しつつ、実際の車両の運転時と同様の振動を体感して、より臨場感の高いシミュレーションを体験することができる。車載カメラ1が備えるGセンサ3が取得した振動情報に基づいて、シミュレーション装置20の振動発生部50を制御するため、車載カメラ1を車両のジャイロセンサなどに接続する必要がない。シミュレーション装置20は、車両に車載カメラ1を搭載するという簡易な構成でシミュレーションに必要な情報を収集できる。
【0088】
さらに、上記各実施形態のシミュレーション装置20は、360度全方向の撮影画像G1を再現しつつ、撮影画像G1に対応して座席本体51を振動させている。このため、被験者Pは、より臨場感の高いシミュレーションを体験できる。
【0089】
また、上記第2実施形態のサーバ装置10は、車両に搭載された車載カメラ1が撮影した撮影画像G1をシミュレーション装置20へ送信する。第2実施形態のサーバ装置10は、車載カメラ1から撮影画像G1を受信する受信部11と、撮影画像G1に基づいて、によりシミュレーションを行う被験者Pが注視すべき注視領域A又は注視領域Bを画像認識により認識する認識部(サーバ側認識部14)と、撮影画像G1における注視領域A又は注視領域Bをシミュレーション装置20へ送信する送信部12と、を備える。この構成により、第2実施形態のシミュレーションシステム100では、サーバ装置10で予め注視領域A又は注視領域Bを認識しているため、シミュレーション装置20で画像処理を実行して注視領域A又は注視領域Bを認識する必要がない。このため、第2実施形態のシミュレーションシステム100は、シミュレーション装置20で実行する処理を、より簡素化し、より高速化することができる。
【0090】
以上、図面を参照して本開示の実施形態を詳述してきたが、具体的な構成は、これらの実施形態に限らず、本開示の要旨を逸脱しない程度の設計的変更は、本開示に含まれる。
【0091】
変形例として、シミュレーション装置20は、操作者が操作する情報端末(コントローラ)を備えていてもよい。情報端末は、例えば、タッチパネル等の操作部と、液晶ディスプレイ等の表示部を備えたタブレット端末、スマートフォン、ノートパソコン等が好適に挙げられる。操作者が情報端末に表示されるメニュー画面から、所望のイベントを選択することができる。この選択を受け付けたシミュレーション装置20は、サーバ装置10から対応するイベント情報を取得し、シミュレーション処理を実行することができる。さらに、シミュレーション装置20は、VR表示部61に表示された撮影画像G1及び評価結果画像G2を含む表示画像G3を、情報端末の表示部に表示させることで、操作者が被験者Pの運転状態、評価結果を把握することができる。
【符号の説明】
【0092】
1 :車載カメラ(カメラ) 10 :サーバ装置
11 :受信部 12 :送信部
14 :サーバ側認識部(認識部) 20 :シミュレーション装置
32 :認識部 34 :表示制御部
35 :動作検出部 36 :評価部
40 :記憶部 60 :画像表示部(表示部)
A :注視領域 B :注視領域
G1 :撮影画像 P :被験者
T :動作検出時刻 T3 :イベント発生時刻
図1
図2
図3
図4
図5
図6
図7