(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023031692
(43)【公開日】2023-03-09
(54)【発明の名称】運転支援システム、及び運転支援プログラム
(51)【国際特許分類】
G08G 1/16 20060101AFI20230302BHJP
G09B 19/00 20060101ALI20230302BHJP
G06Q 10/08 20230101ALI20230302BHJP
B66F 9/24 20060101ALI20230302BHJP
【FI】
G08G1/16 F
G09B19/00 Z
G06Q10/08
B66F9/24 Z
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2021137338
(22)【出願日】2021-08-25
(71)【出願人】
【識別番号】000003218
【氏名又は名称】株式会社豊田自動織機
(71)【出願人】
【識別番号】301021533
【氏名又は名称】国立研究開発法人産業技術総合研究所
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100124062
【弁理士】
【氏名又は名称】三上 敬史
(74)【代理人】
【識別番号】100148013
【弁理士】
【氏名又は名称】中山 浩光
(74)【代理人】
【識別番号】100162640
【弁理士】
【氏名又は名称】柳 康樹
(72)【発明者】
【氏名】チュウ ジョウヨン
(72)【発明者】
【氏名】河本 満
(72)【発明者】
【氏名】大隈 隆史
(72)【発明者】
【氏名】吉田 英一
(72)【発明者】
【氏名】加藤 紀彦
(72)【発明者】
【氏名】小出 幸和
(72)【発明者】
【氏名】岡本 浩伸
【テーマコード(参考)】
3F333
5H181
5L049
【Fターム(参考)】
3F333AA02
3F333DB10
5H181AA01
5H181AA27
5H181BB04
5H181CC04
5H181LL01
5H181LL02
5H181LL20
5L049AA16
(57)【要約】
【課題】産業車両を操作するオペレータの運転支援を適切に行うことができる運転支援システム、及び運転支援プログラムを提供する。
【解決手段】生体情報及び操作情報は、オペレータが操作対象(遠隔操作装置2の操作部16)を操作している場合に取得されたものであるため、オペレータが操作中にどのような反応をしているかを客観的に把握することが可能な情報である。従って、解析部23は、操作時におけるオペレータの状態を客観的に解析することができる。支援部26は、オペレータの状態が客観的に解析された解析結果を用いることで、対象のオペレータ個人にとって、どのような支援を行うことが適切であるかを把握することができる。そのため、支援部26は、解析部23からの解析結果に基づいて、適切な態様にてオペレータに適合させた支援情報を作成することができる。
【選択図】
図2
【特許請求の範囲】
【請求項1】
産業車両の運転のための運転支援システムであって、
オペレータが操作対象を操作している場合における、生体情報を取得する生体情報取得部と、
前記オペレータの前記操作対象を操作している場合における、操作情報を取得する操作情報取得部と、
前記生体情報取得部からの前記生体情報、及び前記操作情報取得部からの前記操作情報を解析することにより、前記オペレータを解析する解析部と、
前記解析部からの解析結果に基づいて、前記オペレータに適合させた支援情報を作成する支援部と、を備える、運転支援システム。
【請求項2】
前記オペレータが前記操作対象を操作しているときの客観的反応を用いて、前記オペレータの主観的反応を推定する主観情報推定部、を更に備え、
前記支援部は、前記解析部の解析結果に基づく客観的反応、及び前記主観情報推定部による作業負荷の推定結果に基づいて、前記支援情報を前記オペレータに適合させる、請求項1に記載の運転支援システム。
【請求項3】
前記生体情報取得部は、前記生体情報として、表示部の画面に対する前記オペレータの視線の動きを示す視線情報を取得し、
前記解析部は、
前記視線の動きの結果を、静止エントロピー、及び遷移エントロピーに基づいて分類し、
前記静止エントロピー及び前記遷移エントロピーの変化量に基づいて前記解析を行う、請求項1または2に記載の運転支援システム。
【請求項4】
表示部には、複数の撮影範囲のうち、特定のものを大きく表示する大画面部、及び複数のものを小さく表示する小画面部が形成され、
前記支援部は、前記表示部に関連する前記視線情報を踏まえつつ前記産業車両の作業状態を考慮した前記生体情報を、前記支援情報に反映させる、請求項3に記載の運転支援システム。
【請求項5】
前記支援部は、前記解析部での解析結果と、前記オペレータの主観的回答結果との相関関係を確認して、前記支援情報を前記オペレータに適合させる、請求項1~4の何れか一項に記載の運転支援システム。
【請求項6】
産業車両の運転のための運転支援プログラムであって、
オペレータが操作対象を操作している場合における、生体情報を取得する生体情報取得ステップと、
前記オペレータの前記操作対象を操作している場合における、操作情報を取得する操作情報取得ステップと、
前記生体情報取得ステップで取得された前記生体情報、及び前記操作情報取得ステップで取得された前記操作情報を解析することにより、前記オペレータを解析する解析ステップと、
前記解析ステップでの解析結果に基づいて、前記オペレータに適合させた支援情報を作成する支援ステップと、をコンピュータシステムに実行させる、運転支援プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、運転支援システム、及び運転支援プログラムに関するものである。
【背景技術】
【0002】
作業支援装置として、例えば特許文献1に記載されているものが知られている。特許文献1に記載の作業支援装置は、オペレータが、フォークリフトなどの産業車両の遠隔操作を行う場合に、オペレータの作業支援を行うものである。作業支援装置は、産業車両に設けられた撮影部の映像をオペレータに出力することで、オペレータがフォークリフトの周辺の様子を把握しながら操作できるようにしている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】欧州特許出願公開第2184254号明細書
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、産業車両は、車両を走行させることや、荷の取り出し作業、荷降ろし作業といった作業状態に応じて、様々な動作を行う。それに伴い、産業車両の周辺において、オペレータが注目するべき箇所が、作業状態に応じて変化する。また、システムが、オペレータに周囲の情報を提供する場合など、オペレータによって適切な情報提供態様が異なる。従って、適切な支援態様にて作業支援を行うことが求められる。
【0005】
本発明の目的は、産業車両を操作するオペレータの運転支援を適切に行うことができる運転支援システム、及び運転支援プログラムを提供することである。
【課題を解決するための手段】
【0006】
本発明の一側面に係る運転支援システムは、産業車両の運転のための運転支援システムであって、オペレータが操作対象を操作している場合における、生体情報を取得する生体情報取得部と、オペレータの操作対象を操作している場合における、操作情報を取得する操作情報取得部と、生体情報取得部からの生体情報、及び操作情報取得部からの操作情報を解析することにより、オペレータを解析する解析部と、解析部からの解析結果に基づいて、オペレータに適合させた支援情報を作成する支援部と、を備える。
【0007】
運転支援システムにおいて、解析部は、生体情報取得部からの生体情報、及び操作情報取得部からの操作情報を解析することにより、オペレータを解析する。生体情報及び操作情報は、オペレータが操作対象を操作している場合に取得されたものであるため、オペレータが操作中にどのような反応をしているかを客観的に把握することが可能な情報である。従って、解析部は、操作時におけるオペレータの状態を客観的に解析することができる。支援部は、オペレータの状態が客観的に解析された解析結果を用いることで、対象のオペレータ個人にとって、どのような支援を行うことが適切であるかを把握することができる。そのため、支援部は、解析部からの解析結果に基づいて、適切な態様にてオペレータに適合させた支援情報を作成することができる。以上より、産業車両を操作するオペレータの運転支援を適切に行うことができる。
【0008】
運転支援システムは、オペレータが操作対象を操作しているときの客観的反応を用いて、オペレータの主観的反応を推定する主観情報推定部、を更に備え、支援部は、解析部の解析結果に基づく客観的反応、及び主観情報推定部による作業負荷の推定結果に基づいて、支援情報をオペレータに適合させてよい。支援部は、客観的反応のみならず、主観的反応に基づく作業負荷の推定結果に基づくことで、より適切に支援情報をオペレータに適合させることができる。ここで、主観情報推定部は、単にオペレータの主観的反応のみに基づいて作業負荷を推定するのではなく、客観的反応を用いることで、主観的反応を補完することができる。その結果、オペレータが感じている作業負荷により近い推定を行うことができる。
【0009】
生体情報取得部は、生体情報として、表示部の画面に対するオペレータの視線の動きを示す視線情報を取得し、解析部は、視線の動きの結果を、静止エントロピー、及び遷移エントロピーに基づいて分類し、静止エントロピー及び遷移エントロピーの変化量に基づいて解析を行ってよい。静止エントロピーは視点の均一性を表し、遷移エントロピーは視線のランダム性を表す。これにより、解析部は、均一性、及びランダム性の二つの観点に分類することで、オペレータの視線の動きを正確に解析することができる。
【0010】
表示部には、複数の撮影範囲のうち、特定のものを大きく表示する大画面部、及び複数のものを小さく表示する小画面部が形成され、支援部は、表示部に関連する視線情報を踏まえつつ、産業車両の作業状態を考慮した生体情報を、支援情報に反映させてよい。この場合、オペレータが大画面部に反応するべきか、小画面部に反応するべきかは、作業状態に応じて変化する。そのため、支援部は、作業状態に応じた大画面部及び小画面部に対するオペレータの生体情報から、当該オペレータの特徴を把握し易くなる。そのため、支援部は、作業状態を考慮した生体情報を支援情報に反映させることで、適切な態様にてオペレータに適合させた支援情報を作成することができる。
【0011】
支援部は、解析部での解析結果と、オペレータの主観的回答結果との相関関係を確認して、支援情報をオペレータに適合させてよい。この場合、支援部は、単にオペレータの主観的回答結果のみに基づく作業負荷の推定結果より、解析結果との相関関係を確認することで、オペレータが感じている作業負荷により適合した支援情報を作成できる。
【0012】
本発明の一側面に係る運転支援プログラムは、産業車両の運転のための運転支援プログラムであって、オペレータが操作対象を操作している場合における、生体情報を取得する生体情報取得ステップと、オペレータの操作対象を操作している場合における、操作情報を取得する操作情報取得ステップと、生体情報取得ステップで取得された生体情報、及び操作情報取得ステップで取得された操作情報を解析することにより、オペレータを解析する解析ステップと、解析ステップでの解析結果に基づいて、オペレータに適合させた支援情報を作成する支援ステップと、をコンピュータシステムに実行させる。
【0013】
この運転支援プログラムによれば、上述の運転支援システムと同趣旨の作用・効果を得ることができる。
【発明の効果】
【0014】
本発明によれば、産業車両を操作するオペレータの運転支援を適切に行うことができる運転支援システム、及び運転支援プログラムを提供することができる。
【図面の簡単な説明】
【0015】
【
図1】本発明の実施形態に係る運転支援システムを示すブロック図である。
【
図2】(a)はフォークリフトに対する撮影部の取り付け態様を示す斜視図であり、(b)は撮影部の角度を説明するための模式図である。
【
図3】フォークリフトの作業状態を説明するための図である。
【
図7】「Model1」、「Model2」、式(14)、及び式(15)の関係を示す表である。
【
図8】「Model1」、「Model2」の評価結果を示す表である。
【
図9】「Model1」、「Model2」の評価結果を示すグラフである。
【
図10】「Model1」、「Model2」の評価結果を示すグラフである。
【
図11】データベース作成装置によって実行される処理内容を示すフローチャートである。
【発明を実施するための形態】
【0016】
以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。なお、図面において、同一または同等の要素には同じ符号を付し、重複する説明を省略する。
【0017】
図1は、本発明の実施形態に係る運転支援システム100を示すブロック図である。
図1に示すように、運転支援システム100は、フォークリフト1(産業車両)と、遠隔操作装置2と、を備える。
【0018】
フォークリフト1は、運転制御部11と、複数の撮影部12と、を備える。運転制御部11は、遠隔操作装置2からの指令信号を受信し、当該指令信号に基づいて運転制御、及び操舵制御を行う。複数の撮影部12は、フォークリフト1の各部位に設けられ、フォークリフト1の周辺環境を撮影する。撮影部12は、作業支援に用いられる支援情報として、撮影した映像を取得して、後述の表示制御部22へ送信する。複数の撮影部12の取り付け位置の例を、
図2(a)に示す。撮影部12は、フォークリフト1の車体の前端、幅方向の端部、天井などに設けられる。なお、
図2(b)に示すようにXYZ座標を設定した場合、各箇所における撮影部12は、X軸、Y軸、Z軸の各軸まわりに傾いた状態で設置されてよい。
図2(b)では、八箇所に撮影部12が設けられ、それぞれ異なる箇所の映像を取得する。
【0019】
遠隔操作装置2は、記憶部15と、操作部16と、表示部17と、生体情報取得部18と、操作情報取得部19と、演算部20と、を備える。記憶部15は、各種情報を記憶する装置である。操作部16は、オペレータがフォークリフト1を遠隔操作するため操作を入力するためのユーザーインターフェースである。表示部17は、映像を出力するためのユーザーインターフェースである。表示部17は、互いに異なる映像を出力することができる第1領域D1、第2領域D2、及び第3領域D3を有している。
【0020】
生体情報取得部18は、オペレータが操作対象(ここでは操作部16)を操作している場合における、生体情報を取得するユニットである。生体情報取得部18は、生体情報として、表示部17の画面に対するオペレータの視線の動きを示す視線情報を取得する。例えば、生体情報取得部18は、視線情報として、
図4に示すような、表示部17の映像に対する視線パターンGPを取得することができる。生体情報取得部18は、視線情報を取得するための機器として、例えば、視線計測機能が設けられたHMD(Head Mounted Display)を備えてもよく、設置型視線計測装置を備えてもよい。ただし、生体情報取得部18は、様々な生理状態を測定してもよく、例えば、脳波(EEG)、心電図(ECG)、皮膚伝導度、筋電図(EMG)、呼吸などを取得してもよい。
【0021】
操作情報取得部19は、オペレータの操作対象(ここでは操作部16)を操作している場合における、操作情報を取得する。操作情報取得部19は、例えば、操作部16の操作レバーに設けられたセンサ、または操作部16の操作内容を示す信号に基づいて操作内容を検知する手段などによって構成される。
【0022】
演算部20は、遠隔操作装置2全体を制御する制御部である。演算部20は、遠隔操作装置2を統括的に管理するECU[ElectronicControl Unit]を備えている。ECUは、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]、CAN[Controller Area Network]、通信回路等を有する電子制御ユニットである。ECUでは、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。演算部20は、運転指令部21と、表示制御部22と、解析部23と、主観情報推定部24と、支援部26と、を備える。
【0023】
運転指令部21は、操作部16で入力された操作に基づく指令信号を生成して、運転制御部11へ送信するユニットである。また、運転指令部21は、入力された操作内容を示す操作情報を表示制御部22へ送信する。
【0024】
表示制御部22は、表示部17の表示内容を制御するユニットである。表示制御部22は、オペレータの遠隔操作の作業を支援するための情報を表示部17に表示させる。表示制御部22は、記憶部15のデータベースの情報を用いて表示部17の第1領域D1、第2領域D2、及び第3領域D3の表示内容を制御する。
【0025】
表示制御部22は、運転指令部21からの操作情報に基づいてフォークリフト1の運転の作業状況を推定する。表示制御部22は、推定した作業状態に応じて、複数の撮影部12の中から、最適な撮影部12の映像を選択する。ここで、記憶部15は、フォークリフト1の作業状態と、オペレータの視線に基づく視線情報とが紐付けられたデータベースを有する。従って、表示制御部22は、フォークリフト1の作業状態とデータベースとを照合することで、作業状態に対応する視線情報を取得する。そして、表示制御部22は、取得された視線情報に基づいて、表示部17に表示させる映像を選択する。第1領域D1及び第2領域D2は、特定の映像を大きく表示する大画面部であり、表示制御部22が選択した撮影部12の映像が表示される(
図4も参照)。第3領域D3は、複数の映像を小さく表示させる小画面部に該当し、フォークリフト1上の全ての撮影部12からの映像を、運転安全のための環境情報として表示する(
図4も参照)。
【0026】
例えば、
図3(a)は、フォークリフト8の作業状態を定義した表である。ここでは、「停止(Stop)」、「前進(Move fwd)」、「棚への接近(Approach)」、「調整(Adjust heading)」、「荷役(Load/Unload)」、「退避(Retreat)」、「後進(Move reverse)」というフォークリフト3の走行や、荷物の取り出し/荷降ろし作業に関する七つの状態について、荷物ありの状態(Load)と、荷物無しの状態(NoLoad)とで分けることで、合計14個の作業状態を定義している。
図3(b)は、フォークリフト1が棚SFからの荷物の取り出し及び荷降ろしを行う際の、各作業状態を示した模式図である。記憶部15のデータベースでは、各作業状態と、作業状態において確認すべき箇所を映すことができる撮影部12とが紐付けられている。従って、表示制御部22は、オペレータが操作しているフォークリフト1の作業状態に合わせて、第1領域D1及び第2領域D2に、特に確認すべき箇所の映像を大画面で映すことができる。なお、運転支援のために表示制御部22の制御によって表示部17に表示された映像を「運転支援映像」と称する場合がある。
【0027】
ここで、オペレータが、表示制御部22で制御された表示部17の運転支援映像をどのように目視するかは、個人によって個体差が発生する。例えば、拡大された領域D1,D2を全く見ないオペレータ、適切でない場面でも領域D1,D2ばかりを見るオペレータ、適切なタイミングで領域D1,D2を確認できるオペレータなどが存在する。例えば、
図4(a)(b)に描かれた線は、オペレータが表示部17の画面を見ているときの視線パターンGP(視線の動きの結果)を示している。
図4(a)の視線パターンGPは、主に領域D1,D2を注視していることを示している。このようなオペレータは、運転支援映像を適切に活用できていると言える。一方、
図4(b)の視線パターンGPは、安定しておらず、しばしば領域D3も確認しており、運転支援映像を適切に活用できていないと言える。
【0028】
上述のように、運転支援映像の利用態様に関して、オペレータによって個体差が存在する。当該事情に鑑みて、解析部23、主観情報推定部24、及び支援部26は、運転支援映像をオペレータ個人に適合/パーソナライズするための処理を行う。
【0029】
解析部23は、生体情報取得部18からの生体情報、及び操作情報取得部19からの操作情報を解析することにより、オペレータを解析する。これにより、解析部23は、オペレータの客観的反応を解析することができる。解析部23は、対象となるオペレータから得られた視線パターンに基づいて、視線メトリクスを演算する。解析部23は、視線パターン(視線の動きの結果)を、静止エントロピー、及び遷移エントロピーに基づいて分類し、静止エントロピー及び遷移エントロピーの変化量に基づいて解析を行う。解析部23は、解析結果を主観情報推定部24、及び支援部26に送信する。
【0030】
主観情報推定部24は、オペレータの主観的反応を推定する。主観情報推定部24は、操作中のオペレータの主観的な事項に基づく作業負荷を推定することで、オペレータの主観も考慮した運転支援を行うことを可能とする。ここで、記憶部15は、予め多数のオペレータに行ったインタビュー結果(主観的回答結果)に基づく主観情報を格納している。主観情報推定部24は、記憶部15の中から、対象となるオペレータの主観情報を読み出す。主観情報推定部24は、オペレータが操作対象を操作しているときの客観的反応を用いて、オペレータの主観的反応を推定する。主観情報推定部24は、推定結果を支援部26に送信する。
【0031】
支援部26は、解析部23からの解析結果に基づいて、オペレータに適合させた支援情報を作成する。支援部26は、解析部23の解析結果に基づく客観的反応、及び主観情報推定部24による作業負荷の推定結果に基づいて、支援情報をオペレータに適合させる。例えば、支援部26は、客観的反応、及び作業負荷の推定結果に基づいて、オペレータが安全性を無視したタイプであることを把握することができる。この場合、支援部26は、当該タイプのオペレータに適合するように、表示部17に安全性を高めるような注意喚起メッセージを行うことができる。あるいは、支援部26は、領域D1,D2に表示させる映像が適切でないと判断した場合、領域D1,D2の映像を差し替えることができる。支援部26は、支援情報を表示制御部22に送信する。表示制御部22は、支援情報に基づいた内容を表示部17に表示させる。
【0032】
支援部26は、解析部23での解析結果と、オペレータの主観的回答結果との相関関係を確認して、支援情報をオペレータに適合させる。例えば、支援部26は、オペレータから予め得ておいたインタビュー結果を、視線メトリクスの演算結果によって補完することができる。また、視線パターンに基づいて演算される視線メトリクスは、フォークリフト1の所定の作業状態のときに、オペレータの視線がどのように動いたかを示すことができる。そのため、支援部26は、表示部17に関連する視線情報を踏まえつつ、フォークリフト1の作業状態を考慮した視線パターンなどの生体情報を、支援情報に反映させることができる。
【0033】
次に、解析部23、主観情報推定部24、及び支援部26の処理の具体例について説明する。
【0034】
[主観的反応]
複数のオペレータが、事前にフォークリフト1を遠隔操作する試験を行う。これらのオペレータは、試験後にNASA-TLXの質問票の回答を行った。当該回答結果は、主観的回答結果として、記憶部15に記憶される。NASA-TLXとは、あるタスクに対し、負荷仕事量(workload)を示すための手法やツールを意味する。NASA-TLXでは、タスクの仕事量を示すために,基本となる複数の評価尺度が用意されている。各評価尺度に重みをつけることで、最終的なタスクに対する負荷仕事量を数値として出すことができる。遠隔操作における運転支援映像の使い易さは、オペレータに知覚される作業負荷によって主観的に評価される。作業負荷指数は、6つの要因、すなわち、精神的、身体的、時間的圧力、パフォーマンス、努力、及びフラストレーションによって表される。各係数は、0から100の間でスコア付けされる。重み付けされたNASA-TLXの場合、6つの要因の15組の対比較を行った。ここでは、重み付けバージョンを用いるものとする。記憶部15は、主観情報推定部24において、あるオペレータの主観的反応の演算が行われるとき、主観情報推定部24へ対象のオペレータの主観的回答結果(作業負荷指数)を送信する。なお、主観的回答結果は、NASA-TLXに限定されず、オペレータの主観を確認することができる回答結果であれば特に限定されない。
【0035】
[視線メトリクス]
解析部23は、生体情報取得部18からの視線パターンに基づいて、視線メトリクスを演算する。視線メトリクスは、視線シーケンスを表す一次マルコフ連鎖の遷移行列(
図5参照)によって導出される。視線メトリクスは、異なるオペレータ間の定量的比較、及び統計的検定が可能となり、視線パターンの差の有意性を判定することを可能とする。ここで、
図6に示すように表示部17の領域D1,D2の映像、及び第3領域D3の映像に対し、「A0、A1、B0~B10」のラベルが付けられる。ラベルが付けられた一つ当たりの映像を、以降の説明では「UI要素」と称する。Xnは、n番目の時間ステップでオペレータによって凝視されるUI要素であるものとする。具体的に、
図6に示す例では、「X1=A0」「X1=A0」「X2=B6」「X3=B2」「X4=A1」となる。このとき、状態iから状態jへの遷移は式(1)で表される。ここで、
図5に示すように、p
ijはマルコフ遷移行列の要素である。状態iから状態jへの遷移回数はn
ijで表される。このときp
ijは式(2)で表される。n
iはすべてのj要素に対するn
ijの和である。i番目のUI要素に対する注視の割合は、式(3)で表される。
【数1】
【0036】
遷移行列の固有値ベクトルは、λと、式(4)~(9)からの視線メトリクスによって計算される。なお、「定数α=1×10
-6」であり、MはUI要素の総数である。UI要素間の最長注視時間はDで定義され、注視時間が長いほどDは小さくなる。ここでは、UI要素間の視線遷移のタイプを示すdenも小さくなる。視線メトリクスは、それぞれ静止エントロピーH
s、及び遷移エントロピーH
tを定義する。静止エントロピーH
sは視線の均一性を表し、遷移エントロピーH
tはUI要素間の視線のランダム性(視線が動いている度合)を表す。静止エントロピーH
sが小さいほど視線が不均一に分布していることを示し、遷移エントロピーH
tが小さいほど操作中に起こる視線遷移が少ないことを示す。値H
tw及び値H
swは、所望のUI要素によって重み付けがなされる。これらの値は、目的のUI要素が操作中に使用されていることを示す。これは、一般に均一性及び遷移を考慮する静止エントロピーH
s及び遷移エントロピーH
tとは異なる。経験則として、安定した焦点の合った視線パターンは、より小さな視線指標となり、その逆も同様である。このような仮定に基づけば、適応されるUI要素が他のUI要素よりも適切である場合、視線メトリクスは比較的小さくなると予想される。
【数2】
【0037】
[効率]
解析部23は、作業がどの程度良好に実行されたかについての検証を行うために、効率Eを計算する。具体的に、効率Eは、式(10)で表される。この効率Eは、作業の動作時間および有効性の関数となる。各カテゴリの最大動作時間t
maxは、各カテゴリのオペレータについての効率Eを計算するために使用される。オペレータのカテゴリは、例えば、熟練度に応じて「エキスパート」「ビギナー」に分けられる。遠隔操作における運転支援映像を評価するために、式(11)は、例えば、オペレータのタイプI、及びタイプIIの2つのタイプの挙動によって定義される有効性の値を計算することができる。
図6は、オペレータが安全に実施したかどうかを示す「タイプI」、及びオペレータが運転支援映像を十分に理解して作業を行ったかどうかを示す「タイプII」を表している。
【数3】
【0038】
図6を参照して、領域D1,D2を常に見ている「タイプI」のオペレータの行動と、第3領域D3を常に見ている「タイプII」のオペレータの行動について説明する。タイプIは、安全性を無視した行動と言える。例えば、領域D1,D2がフォークリフト1の背面の映像を示していなかったにも関わらず、後進時に常に領域D1,D2を見る行動がタイプIに該当する。タイプIIは、運転支援映像に対する慣れや理解度を示す行動と言える。例えば、同じ情報が拡大されて領域D1,D2に表示されているにも関わらず、常に第3領域D3を見る行動がタイプIIに該当する。
【0039】
適切な動作が実行されないときに、タイプIの挙動は、視線メトリクスを誤って小さくし、タイプIIの挙動は、視線メトリクスを誤って大きくする。それらは、それぞれ式(12)及び式(13)で計算される。その他の変数は以下のように定義される。解析部23は、式(1)~(13)の計算を行ったら、計算結果を主観情報推定部24、及び支援部26に送信する。
「N
xcheck:フォークリフトの後退時にオペレータがバックビューを確認しなかった回数」
「N
back:オペレータがフォークリフトを後退させた場合の回数」
「N
foc=amb:A0/A1が周囲の領域で被験者が見ていたものと同様の情報を表示した場合の回数」
「N
ambient:オペレータが周囲領域を確認した場合の回数」
【数4】
【0040】
[主観的反応と客観的反応の相関]
主観情報推定部24は、記憶部15から取得した主観的回答結果の作業負荷指数を、解析部23からの解析結果で補完する。これにより、主観情報推定部24は、NASA-TLXのインタビュー結果のみに基づいた主観的反応を、視線パラメータに基づく客観的反応を用いて補完することができる。主観情報推定部24は、操作したオペレータが感じている作業負荷に、より近い作業負荷指数を計算することができる。主観情報推定部24は、作業負荷指数を補完するためのモデルとして、例えば、「Model1」及び「Model2」の二つのモデルを用いることができる。主観情報推定部24は、「Model1」を用いて補完する場合、式(14)を用いる。主観情報推定部24は、「Model2」を用いて補完する場合、式(15)を用いる。「Model1」、「Model2」、式(14)、及び式(15)の関係を
図7に示す。なお、主観情報推定部24が用いることができる相関モデルは、「Model1」、「Model2」に限定されず、データベースが拡張された場合のディープラーニングなど、様々なモデルを使用することが可能である。
【数5】
【0041】
なお、
図7に示す表のうち、項目1~5を含む「Attributes」、及び項目13の「NASA of first test」に対する値は、記憶部15に記憶されたものが用いられる。その他の項目については、解析部23で演算された値が用いられる。例えば、「Model1」の項目8には、式(7)で演算されたdenの値が代入される。なお、
図7の表のうち、「Model1」、「Model2」の欄には、式(14)、式(15)で用いられる項目に「1」が示され、用いられない項目に「0」が示される。なお、項目1に対応するx1には、対象のオペレータがエキスパートである場合は「1」が代入され、ビギナーである場合は「2」が代入される。
【0042】
図7は、段階的線形回帰の予測因子のリストを示す。i番目の予測子と係数はそれぞれxi及びaiで定義される。相互作用項の係数は、予測因子の数を超えて番号付けされている。式(14)の「Model1」は、提案された視線計量のみを考慮するモデルである。式(15)の「Model2」は、オペレータの初めての試験時におけるの試験のNASA-TLXの応答も考慮するモデルである。「Model1」及び「Model2」は、k-分割交差検証(k=3)を使用した段階的線形回帰から取得される。式(14)の「Model1」のフィッティングパラメータは、R2=0.281、且つp値=4.89×10
-7である。式(15)の「Model2」のフィッティングパラメータは、R2=0.517、且つp値=9.38×10
-14である。
【0043】
[評価]
「Model1」、「Model2」の評価結果を
図8及び
図9に示す。なお、これらの評価は、実際にオペレータがフォークリフト1の操作を行うときに、主観情報推定部24が行う処理ではない。
図9(a)(b)の凡例において、「NASA」はグラウンドトゥルースであり、「NASA_Model1」及び「NASA_Model2」は、それぞれ「Model1」、「Model2」の推定値である。Trainデータ及びTestデータは、k-分割交差検証(k=3)に基づいてデータセットの2/3及び1/3を参照する。データセットは、29人のオペレータによって実行された163回のテストで構成されている。
図9は、テストデータのみをプロットしたものである。
図9の横軸はデータセットの数を示す。
図8の各項目は以下の通りである。
「Train RMSE:「NASA」と推定値の二乗平均平方根誤差(2/3データセット)」
「Train correlation:「NASA」と推定値のピアソン相関(2/3データセット)」
「Test RMSE:「NASA」と推定値の間の二乗平均平方根誤差(1/3データセット)」
「Test correlation:「NASA」と推定値のピアソン相関(1/3データセット)」
「Rsquared:決定係数(R-squared)は、線形回帰モデルの独立変数Xによって説明される応答変数yの変動の比例量を示す。決定係数が大きいほど、線形回帰モデルによって説明される変動性が大きくなる。」
【0044】
「Model2」は、「Model1」よりも優れたパフォーマンスを発揮していることが示されている。「Model1」のk-分割交差検証の平均検証RMSEは24.5である。平均検証RMSEは小さくないが、実際のNASA-TLXと推定NASA-TLXとの間の応答パターンは0.28で相関した。このことは、オペレータごとにベースラインが異なることによって、逸脱が生じた可能性があることを意味する。「Model2」は予測因子の一つとして初期のNASA-TLXのテストスコアを含む。平均RMSE及び相関は、この予測因子を含めることにより改善された。
【0045】
初期のNASA-TLXのテストスコアの予測因子は、各オペレータのベースラインを調整する上で重要な役割を果たしている可能性が高く、背景や作業経験などの複数の因子の影響を受ける可能性がある。「Model1」、「Model2」の平均推定NASA-TLXは類似しており(
図10参照)、すなわち、UI3については最小のNASA-TLXとなり、次いでUI1、及びUI2の順で小さくなる。Wilcoxonの符号順位検定を用いた従属標本検定では、「Model2」のUI間の差は、オペレータの実際のNASA-TLX応答と同様に統計的に有意であることが示された。しかし、「Model1」では、反応パターンは類似しているものの、統計的に有意ではない。これは、オペレータのベースラインのばらつきによるものと考えられる。さらに重要なことに、提案されたモデル、特に「Model2」は、異なるタイプのUIに対する好みを区別することができ、その好みは、NASA-TLXの実際の応答と一致している。
【0046】
[運転支援]
支援部26の処理について説明する。支援部26は、解析部23の解析結果、及び主観情報推定部24の推定結果に基づいて、オペレータに適合/パーソナライズするための視覚な支援情報を作成する。
図6に示す、安全性を無視したタイプIのオペレータに対する支援情報について例示する。支援部26は、解析部23の解析結果が「式(11)>50」である場合、「しばしば安全性を無視した(後進時に背面側の映像をチェックしなかった)」ことを把握する。支援部26は、解析部23の解析結果が「式(8)<1.0 且つ 式(9)<0.05」である場合、「視線パターンは安定しており、焦点が合っていた」ことを把握する。支援部26は、主観情報推定部24によって演算された推定値が「推定値<50」である場合、「作業負荷は低負荷」であることを把握する。これらの条件が満たされる場合、支援部26は、オペレータが安全対策を講じることに積極的でないと判断する。従って、支援部26は、フォークリフト1の進行方向を変更する前に、周囲の環境を確認する旨のアラートメッセージを表示部17に表示するような、支援情報を作成する。
【0047】
その他、
図6に示す、運転支援映像に慣れていないタイプIIのオペレータに対する支援情報について例示する。支援部26は、解析部23の解析結果が「式(12)>20」である場合、「A0/A1の視覚情報を使用しないことが多く、第3領域D3をしばしば検索している」ことを把握する。支援部26は、解析部23の解析結果が「式(8)>1.0 且つ 式(9)>0.05」である場合、「頻繁な視点遷移、及び分散視線パターンである」ことを把握する。支援部26は、主観情報推定部24によって演算された推定値が「推定値>50」である場合、「作業負荷は高負荷」であることを把握する。これらの条件が満たされる場合、支援部26は、オペレータが目的の視覚情報を見つけることが難しいと判断する。従って、支援部26は、例えば、A0,A1、B0…B10のうち、必要な箇所のフレームを強調表示するなど、ビジョアルガイドを表示部17にて行うような、支援情報を作成する。なお、支援部26がどのような条件のときにどのような支援を行うかは特に限定されない。
【0048】
次に、
図11を参照して、演算部20による運転支援方法を示す処理内容の一例について説明する。
図11に示す処理は、表示部17に運転支援映像が表示されており、且つ、オペレータが遠隔操作でフォークリフト1を操作しているときに行われる。
図11に示すように、解析部23は、生体情報取得部18から生体情報を受信すると共に、操作情報取得部19から操作情報を受信する(ステップS10)。このとき、解析部23は、オペレータの表示部17に対する視線パターンを取得する。次に、解析部23は、ステップS10で取得した生体情報及び操作情報に基づいて、オペレータの解析を行い、解析結果を主観情報推定部24及び支援部26へ送信する(ステップS20)。解析部23は、式(1)~(13)を演算して、演算結果を主観情報推定部24及び支援部26へ送信する。
【0049】
次に、主観情報推定部24は、オペレータの主観的反応を推定する(ステップS30)。このとき、主観情報推定部24は、対象となるオペレータの主観的回答結果を記憶部15から読み出すと共に、解析部23の解析結果を用いて、主観的回答結果の相関性を確認して、補完する。主観情報推定部24は、推定結果を支援部26へ送信する。次に、支援部26は、解析部23の解析結果、及び主観情報推定部24からの推定結果に基づいて、オペレータに適合させた支援情報を作成する(ステップS40)。支援部26は、作成した支援情報を表示制御部22へ送信する。これにより、表示制御部22は、オペレータに適合した支援情報を表示部17に表示する。以上により、
図11に示す制御処理が終了する。
【0050】
次に、本実施形態に係る運転支援システム100、運転支援プログラムの作用・効果について説明する。
【0051】
運転支援システム100において、解析部23は、生体情報取得部18からの生体情報、及び操作情報取得部19からの操作情報を解析することにより、オペレータを解析する。生体情報及び操作情報は、オペレータが操作対象(遠隔操作装置2の操作部16)を操作している場合に取得されたものであるため、オペレータが操作中にどのような反応をしているかを客観的に把握することが可能な情報である。従って、解析部23は、操作時におけるオペレータの状態を客観的に解析することができる。支援部26は、オペレータの状態が客観的に解析された解析結果を用いることで、対象のオペレータ個人にとって、どのような支援を行うことが適切であるかを把握することができる。そのため、支援部26は、解析部23からの解析結果に基づいて、適切な態様にてオペレータに適合させた支援情報を作成することができる。以上より、産業車両を操作するオペレータの運転支援を適切に行うことができる。
【0052】
運転支援システム100は、オペレータが操作対象を操作しているときの客観的反応を用いて、オペレータの主観的反応を推定する主観情報推定部24、を更に備え、支援部26は、解析部23の解析結果に基づく客観的反応、及び主観情報推定部24による作業負荷の推定結果に基づいて、支援情報をオペレータに適合させてよい。支援部26は、客観的反応のみならず、主観的反応に基づく作業負荷の推定結果に基づくことで、より適切に支援情報をオペレータに適合させることができる。ここで、主観情報推定部24は、単にオペレータの主観的反応のみに基づいて作業負荷を推定するのではなく、客観的反応を用いることで、主観的反応を補完することができる。その結果、オペレータが感じている作業負荷により近い推定を行うことができる。
【0053】
生体情報取得部18は、生体情報として、表示部17の画面に対するオペレータの視線の動きを示す視線情報を取得し、解析部23は、視線の動きの結果を、静止エントロピー、及び遷移エントロピーに基づいて分類し、静止エントロピー及び遷移エントロピーの変化量に基づいて解析を行ってよい。静止エントロピーは視点の均一性を表し、遷移エントロピーは視線のランダム性を表す。これにより、解析部23は、均一性、及びランダム性の二つの観点に分類することで、オペレータの視線の動きを正確に解析することができる。
【0054】
表示部17には、複数の撮影範囲のうち、特定のものを大きく表示する大画面部(第3領域D3)、及び複数のものを小さく表示する小画面部(第1領域D1、第2領域D2)が形成され、支援部26は、表示部17に関連する視線情報を踏まえつつ、産業車両の作業状態を考慮した生体情報を、支援情報に反映させてよい。これは、生体情報自体に、表示部17を見る視線情報と産業車両の操作情報の両方が反映されていることである。この場合、オペレータが大画面部に反応するべきか、小画面部に反応するべきかは、作業状態に応じて変化する。そのため、支援部26は、作業状態に応じた大画面部及び小画面部に対するオペレータの生体情報から、当該オペレータの特徴を把握し易くなる。例えば、産業車両の作業状態が前進から後進に切り替わったにも関わらず、オペレータが大画面部で周囲の状況を確認していない場合、支援部26は、オペレータの安全性に対する注意度を把握し易くなる。そのため、支援部26は、作業状態を考慮した生体情報を支援情報に反映させることで、適切な態様にてオペレータに適合させた支援情報を作成することができる。
【0055】
支援部26は、解析部23での解析結果と、オペレータの主観的回答結果との相関関係を確認して、支援情報をオペレータに適合させてよい。この場合、支援部26は、単にオペレータの主観的回答結果のみに基づく作業負荷の推定結果より、解析結果との相関関係を確認することで、オペレータが感じている作業負荷により適合した支援情報を作成できる。例えば、主観情報推定部24は、単にNASA-TLXの結果のみに基づいて作業負荷を推定するより、NASA-TLXを式(14)又は式(15)を用いて「Model1」または「Model2」を用いて補完することで、より正確に作業負荷を推定することができる。
【0056】
本実施形態に係る運転支援プログラムは、産業車両の運転のための運転支援プログラムであって、オペレータが操作対象を操作している場合における、生体情報を取得する生体情報取得ステップと、オペレータの操作対象を操作している場合における、操作情報を取得する操作情報取得ステップと、生体情報取得ステップで取得された生体情報、及び操作情報取得ステップで取得された操作情報を解析することにより、オペレータを解析する解析ステップと、解析ステップでの解析結果に基づいて、オペレータに適合させた支援情報を作成する支援ステップと、をコンピュータシステムに実行させる。
【0057】
この運転支援プログラムによれば、上述の運転支援システム100と同趣旨の作用・効果を得ることができる。
【0058】
以上、本発明の好適な実施形態について幾つか説明してきたが、本発明は、上記実施形態に限定されるものではない。
【0059】
上述の実施形態では、運転支援システムは、遠隔操作時のオペレータの作業を支援していたが、産業車両を有人操作するときに支援を行ってもよい。また、オペレータが産業車両のシミュレーション運転を行うときの支援を行ってもよい。
【0060】
上述の実施形態では、各方向における映像を取得できるように、多数の撮影部が産業車両に設けられ、表示制御部は、表示すべき撮影部を選択していた。これに代えて、広範囲を撮影できるカメラを採用し、表示制御部は、広範囲の映像の中から、表示すべき部分を抜き出して、領域D1,D2に表示してもよい。
【0061】
産業車両は、フォークリフトに限定されず、トーイングトラクター、スキッドステアローダーなどが採用されてもよい。
【符号の説明】
【0062】
1…フォークリフト、16…操作部、17…表示部、18…生体情報取得部、19…操作情報取得部、23…解析部、24…主観情報推定部、26…支援部、100…運転支援システム。