(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024036889
(43)【公開日】2024-03-18
(54)【発明の名称】車外飛び出し判定装置及び産業車両
(51)【国際特許分類】
G06T 7/00 20170101AFI20240311BHJP
G06V 20/59 20220101ALI20240311BHJP
G06V 10/70 20220101ALI20240311BHJP
B66F 9/24 20060101ALI20240311BHJP
【FI】
G06T7/00 660B
G06T7/00 350B
G06T7/00 650Z
G06V20/59
G06V10/70
B66F9/24 Z
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2022141429
(22)【出願日】2022-09-06
(71)【出願人】
【識別番号】000003218
【氏名又は名称】株式会社豊田自動織機
(74)【代理人】
【識別番号】100105957
【弁理士】
【氏名又は名称】恩田 誠
(74)【代理人】
【識別番号】100068755
【弁理士】
【氏名又は名称】恩田 博宣
(72)【発明者】
【氏名】岡山 健
【テーマコード(参考)】
3F333
5L096
【Fターム(参考)】
3F333AA02
3F333AB13
3F333AE02
3F333CA19
3F333CA25
3F333CA30
3F333FA08
3F333FA17
3F333FA36
3F333FE05
3F333FE09
5L096BA04
5L096CA02
5L096CA24
5L096DA03
5L096EA02
5L096FA02
5L096FA69
5L096GA34
5L096KA04
(57)【要約】
【課題】車両の搭乗者が車外に飛び出しているか否かを判定できる車外飛び出し判定装置及び産業車両を提供する。
【解決手段】車外飛び出し判定装置は、フォークリフトに取り付けられたカメラと、カメラによる撮像画像Iに基づいてフォークリフトの搭乗者である運転者Dが車外に飛び出しているか否かを判定する判定装置とを備えている。判定装置は、設定部と、検出部と、判定部とを有している。設定部は、撮像画像Iに対して運転者Dが車外に飛び出しているか否かを判定するための車外判定領域Ajを設定する。検出部は、撮像画像Iにおける運転者Dの位置を検出する。判定部は、検出部によって検出された運転者Dの位置が車外判定領域Ajに含まれている場合、運転者Dが車外に飛び出していると判定する。
【選択図】
図7
【特許請求の範囲】
【請求項1】
車両に取り付けられた撮像装置と、
前記撮像装置による撮像画像に基づいて前記車両の搭乗者が車外に飛び出しているか否かを判定する判定装置と、
を備え、
前記判定装置は、
前記撮像画像に対して前記搭乗者が車外に飛び出しているか否かを判定するための車外判定領域を設定する設定部と、
前記撮像画像における前記搭乗者の位置を検出する検出部と、
前記検出部によって検出された前記搭乗者の位置が前記車外判定領域に含まれている場合、前記搭乗者が車外に飛び出していると判定する判定部と、
を有することを特徴とする車外飛び出し判定装置。
【請求項2】
前記設定部は、前記判定装置に対して入力された前記撮像画像における指定領域を前記撮像画像における前記車外判定領域として設定する請求項1に記載の車外飛び出し判定装置。
【請求項3】
前記判定装置は、画像が入力されると、当該画像における人体を構成する部位の位置を出力するように機械学習された第1学習済みモデルを記憶しており、
前記検出部は、前記第1学習済みモデルを用いて前記撮像画像における前記搭乗者の位置を検出する請求項1に記載の車外飛び出し判定装置。
【請求項4】
前記検出部は、前記第1学習済みモデルを用いて前記撮像画像における前記搭乗者の体の部位の位置を検出し、
前記判定部は、前記撮像画像において、前記検出部によって検出された前記搭乗者の体の部位のうち、予め選択された特定の部位が前記車外判定領域に含まれている場合、前記搭乗者が車外に飛び出していると判定する請求項3に記載の車外飛び出し判定装置。
【請求項5】
前記第1学習済みモデルは、前記撮像装置による前記撮像画像を用いて機械学習されたモデルである請求項3又は請求項4に記載の車外飛び出し判定装置。
【請求項6】
前記判定装置は、画像が入力されると、当該画像を構成するピクセルのラベルを出力するように機械学習された第2学習済みモデルを記憶しており、
前記設定部は、
前記第2学習済みモデルを用いて前記撮像画像における前記搭乗者が搭乗する前記車両を示す領域である自車両領域を検出し、
前記撮像画像における前記自車両領域外の領域を前記車外判定領域として設定する請求項1に記載の車外飛び出し判定装置。
【請求項7】
前記判定装置は、前記撮像画像における前記自車両領域を膨張させる画像処理部を有し、
前記設定部は、前記撮像画像における前記画像処理部によって膨張された前記自車両領域外の領域を前記車外判定領域として設定する請求項6に記載の車外飛び出し判定装置。
【請求項8】
前記判定装置は、画像が入力されると、当該画像を構成するピクセルのラベルを出力するように機械学習された第2学習済みモデルを記憶しており、
前記検出部は、前記第2学習済みモデルを用いて前記撮像画像における前記搭乗者を示す領域である搭乗者領域を検出することによって、前記撮像画像における前記搭乗者の位置を検出する請求項1に記載の車外飛び出し判定装置。
【請求項9】
前記第2学習済みモデルは、前記撮像装置による前記撮像画像を用いて機械学習されたモデルである請求項6~8の何れか一項に記載の車外飛び出し判定装置。
【請求項10】
請求項1に記載の車外飛び出し判定装置が搭載された産業車両。
【請求項11】
報知部と、
前記報知部を制御する制御部と、
を備え、
前記制御部は、前記車外飛び出し判定装置による判定結果に基づいて、前記報知部を制御する請求項10に記載の産業車両。
【請求項12】
前記産業車両の操作を行うための操作部を備え、
前記制御部は、前記車外飛び出し判定装置による判定結果に加えて、前記操作部に対する操作又は前記産業車両の動作に基づいて、前記報知部を制御する請求項11に記載の産業車両。
【請求項13】
前記産業車両を駆動する駆動部と、
前記駆動部を制御する制御部と、
を備え、
前記制御部は、前記車外飛び出し判定装置による判定結果に基づいて、前記駆動部を制御する請求項10に記載の産業車両。
【請求項14】
前記産業車両の操作を行うための操作部を備え、
前記制御部は、前記車外飛び出し判定装置による判定結果に加えて、前記操作部に対する操作又は前記産業車両の動作に基づいて、前記駆動部を制御する請求項13に記載の産業車両。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車外飛び出し判定装置及び産業車両に関する。
【背景技術】
【0002】
特許文献1には、車両を運転する運転者が安全運転を行える状態にあるか、及び運転者が指差呼称等の動作を行っているかを判定する安全運転判定装置が開示されている。安全運転判定装置は、撮像部と判定部とを有している。撮像部は、車両に搭載されている。撮像部は、運転者の画像データを取得する。判定部は、画像データに基づいて、運転者が安全運転を行える状態にあるか、及び運転者が指差呼称等の動作を行っているかを判定する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、運転者が安全運転を行える状態にあるか、及び運転者が指差呼称等の動作を行っているかだけでなく、車両の搭乗者が不安全な行動をしていないかを判定することも望まれている。車両の搭乗者の不安全な行動としては、例えば、車両の搭乗者の体の一部が車外に飛び出していることが考えられる。車両の搭乗者の体の一部が車外に飛び出していると、例えば、車両が横転した際に搭乗者の体の一部が車体と床面や地面との間に挟まれたり、車両の走行中に搭乗者の体の一部が車体と車両の周囲に存在する障害物との間に挟まれたりするおそれがある。また、車両がフォークリフトである場合には、車両の搭乗者の体の一部がマストのような可動部に挟まれるおそれもある。したがって、車両の搭乗者が車外に飛び出しているか否かを判定することが望まれている。しかしながら、特許文献1には、車両の搭乗者が車外に飛び出しているか否かを判定する方法については開示されていない。
【課題を解決するための手段】
【0005】
上記問題点を解決するための車外飛び出し判定装置は、車両に取り付けられた撮像装置と、前記撮像装置による撮像画像に基づいて前記車両の搭乗者が車外に飛び出しているか否かを判定する判定装置と、を備え、前記判定装置は、前記撮像画像に対して前記搭乗者が車外に飛び出しているか否かを判定するための車外判定領域を設定する設定部と、前記撮像画像における前記搭乗者の位置を検出する検出部と、前記検出部によって検出された前記搭乗者の位置が前記車外判定領域に含まれている場合、前記搭乗者が車外に飛び出していると判定する判定部と、を有することを要旨とする。
【0006】
上記構成によれば、撮像装置による撮像画像を用いて、車両の搭乗者が車外に飛び出しているか否かを判定できる。
上記車外飛び出し判定装置において、前記設定部は、前記判定装置に対して入力された前記撮像画像における指定領域を前記撮像画像における前記車外判定領域として設定してもよい。
【0007】
上記構成によれば、設定部は、撮像画像において車外を示す領域である車外領域を把握しなくても、撮像画像に対して車外判定領域を設定することができる。したがって、設定部が行う処理を簡素化できる。
【0008】
上記車外飛び出し判定装置において、前記判定装置は、画像が入力されると、当該画像における人体を構成する部位の位置を出力するように機械学習された第1学習済みモデルを記憶しており、前記検出部は、前記第1学習済みモデルを用いて前記撮像画像における前記搭乗者の位置を検出してもよい。
【0009】
上記車外飛び出し判定装置において、前記検出部は、前記第1学習済みモデルを用いて前記撮像画像における前記搭乗者の体の部位の位置を検出し、前記判定部は、前記撮像画像において、前記検出部によって検出された前記搭乗者の体の部位のうち、予め選択された特定の部位が前記車外判定領域に含まれている場合、前記搭乗者が車外に飛び出していると判定してもよい。
【0010】
上記構成によれば、車両の搭乗者の体の特定の部位が車外に飛び出しているか否かを判定できる。
上記車外飛び出し判定装置において、前記第1学習済みモデルは、前記撮像装置による前記撮像画像を用いて機械学習されたモデルであってもよい。
【0011】
上記構成によれば、第1学習済みモデルは、撮像装置による撮像画像以外の画像を用いて機械学習されている場合よりも、画像における人体を構成する部位の位置を精度良く検出することができる。
【0012】
上記車外飛び出し判定装置において、前記判定装置は、画像が入力されると、当該画像を構成するピクセルのラベルを出力するように機械学習された第2学習済みモデルを記憶しており、前記設定部は、前記第2学習済みモデルを用いて前記撮像画像における前記搭乗者が搭乗する前記車両を示す領域である自車両領域を検出し、前記撮像画像における前記自車両領域外の領域を前記車外判定領域として設定してもよい。
【0013】
上記構成では、設定部によって、撮像画像に対して車外判定領域を自動的に設定できる。したがって、車外飛び出し判定装置が搭載される車両の変更や、車両に対する撮像装置の取り付け位置の変更などに対して対応しやすい。
【0014】
上記車外飛び出し判定装置において、前記判定装置は、前記撮像画像における前記自車両領域を膨張させる画像処理部を有し、前記設定部は、前記撮像画像における前記画像処理部によって膨張された前記自車両領域外の領域を前記車外判定領域として設定してもよい。
【0015】
上記構成によれば、例えば、車両の搭乗者である運転者が後方確認のために車体の一部を掴むといった状況において、運転者が車外に飛び出していると判定されることを回避することができる。つまり、車両の搭乗者が車外に飛び出しているか否かの判定においてマージンを持たせることができる。
【0016】
上記車外飛び出し判定装置において、前記判定装置は、画像が入力されると、当該画像を構成するピクセルのラベルを出力するように機械学習された第2学習済みモデルを記憶しており、前記検出部は、前記第2学習済みモデルを用いて前記撮像画像における前記搭乗者を示す領域である搭乗者領域を検出することによって、前記撮像画像における前記搭乗者の位置を検出してもよい。
【0017】
上記構成によれば、検出部は、撮像画像における搭乗者のエッジを検出することができる。よって、車外飛び出し判定装置は、車両の搭乗者が車外に飛び出しているか否かをより精度良く判定できる。
【0018】
上記車外飛び出し判定装置において、前記第2学習済みモデルは、前記撮像装置による前記撮像画像を用いて機械学習されたモデルであってもよい。
上記構成によれば、第2学習済みモデルは、撮像装置による撮像画像以外の画像を用いて機械学習されている場合よりも、画像を構成するピクセルのラベル付けを精度良く行うことができる。
【0019】
上記問題点を解決するための産業車両は、上記車外飛び出し判定装置が搭載されていることを要旨とする。
上記構成によれば、撮像装置による撮像画像を用いて、産業車両の搭乗者が車外に飛び出しているか否かを判定できる。
【0020】
上記産業車両において、報知部と、前記報知部を制御する制御部と、を備え、前記制御部は、前記車外飛び出し判定装置による判定結果に基づいて、前記報知部を制御してもよい。
【0021】
例えば、産業車両の搭乗者が車外に飛び出していると車外飛び出し判定装置が判定した場合、制御部は、報知部を作動させることによって、搭乗者が車外に飛び出していることを搭乗者に知らせることができる。
【0022】
上記産業車両において、前記産業車両の操作を行うための操作部を備え、前記制御部は、前記車外飛び出し判定装置による判定結果に加えて、前記操作部に対する操作又は前記産業車両の動作に基づいて、前記報知部を制御してもよい。
【0023】
例えば、制御部は、操作部に対して後進操作が行われたときや産業車両の後進中に、搭乗者が車外後方に飛び出していると車外飛び出し判定装置が判定した場合、報知部を作動させる。これにより、産業車両の運転者は産業車両の後進を停止させたり、体が車外に飛び出していた搭乗者は体を車内に戻したりする。したがって、車両の搭乗者が車体と産業車両の後方にある障害物との間に挟まれるといった状況を回避できる。
【0024】
上記産業車両において、前記産業車両を駆動する駆動部と、前記駆動部を制御する制御部と、を備え、前記制御部は、前記車外飛び出し判定装置による判定結果に基づいて、前記駆動部を制御してもよい。
【0025】
例えば、産業車両の搭乗者が車外に飛び出していると車外飛び出し判定装置が判定した場合、制御部は、駆動部を制御することによって、産業車両の動作を制限することができる。
【0026】
上記産業車両において、前記産業車両の操作を行うための操作部を備え、前記制御部は、前記車外飛び出し判定装置による判定結果に加えて、前記操作部に対する操作又は前記産業車両の動作に基づいて、前記駆動部を制御してもよい。
【0027】
例えば、制御部は、操作部に対して後進操作が行われたときや産業車両の後進中に、搭乗者が車外後方に飛び出していると車外飛び出し判定装置が判定した場合、産業車両の後進が制限されるように駆動部を制御する。これにより、車両の搭乗者が車体と産業車両の後方にある障害物との間に挟まれるといった状況を回避できる。
【発明の効果】
【0028】
本発明によれば、車両の搭乗者が車外に飛び出しているか否かを判定できる。
【図面の簡単な説明】
【0029】
【
図2】第1実施形態における車外飛び出し判定装置の構成を示すブロック図である。
【
図3】第1カメラによる前方撮像画像の一例を示す図である。
【
図4】第2カメラによる後方撮像画像の一例を示す図である。
【
図5】車外飛び出し判定処理を示すフローチャートである。
【
図6】車外前方判定領域及び人体キーポイント検出結果を示す図である。
【
図7】車外後方判定領域及び人体キーポイント検出結果を示す図である。
【
図8】第2実施形態における車外飛び出し判定装置の構成を示すブロック図である。
【
図10】設定用画像に対するセマンティックセグメンテーションの結果を示す図である。
【
図11】設定用画像における自車両領域を示す図である。
【
図12】設定用画像における膨張処理後の自車両領域を示す図である。
【
図15】後方撮像画像に対するセマンティックセグメンテーションの結果を示す図である。
【
図16】車外後方判定領域及び運転者領域を示す図である。
【発明を実施するための形態】
【0030】
[第1実施形態]
以下、車外飛び出し判定装置及び産業車両を具体化した第1実施形態を
図1~
図7にしたがって説明する。本実施形態の車外飛び出し判定装置は、産業車両としてのフォークリフトに搭載されている。なお、以下の説明において、「前」、「後」、「左」、「右」、「上」、「下」とは、フォークリフトの運転者が車両前方(前進方向)を向いた状態を基準とした場合の「前」、「後」、「左」、「右」、「上」、「下」のことをいう。
【0031】
<フォークリフト>
図1に示すように、フォークリフト10は、車体11と、2つの駆動輪12aと、2つの操舵輪12bと、運転室13と、荷役装置14と、操作部15とを備えている。
【0032】
2つの駆動輪12aは、車体11の前下部に設けられている。2つの操舵輪12bは、車体11の後下部に設けられている。
車体11は、ヘッドガード11aと、2つのフロントピラー11bと、2つのリアピラー11cとを有している。リアピラー11cは、フロントピラー11bよりも後方に設けられている。ヘッドガード11aは、2つのフロントピラー11b及び2つのリアピラー11cに支持されている。
【0033】
運転室13は、ヘッドガード11a、2つのフロントピラー11b、及び2つのリアピラー11cによって囲まれた空間である。運転室13には、運転席13aが設けられている。フォークリフト10の運転者は、運転席13aに搭乗する。
【0034】
荷役装置14は、車体11の前方に設けられている。荷役装置14は、マスト14aとフォーク14bとを有している。マスト14aは、アウタマストとインナマストとを有している。インナマストは、アウタマストに対して昇降可能に設けられている。フォーク14bは、図示しないリフトブラケットを介してインナマストに取り付けられている。フォーク14bは、インナマストとともに昇降可能である。
【0035】
操作部15は、フォークリフト10の操作を行うための部分である。操作部15は、フォークリフト10の運転者によって操作される。操作部15は、フォークリフト10の走行動作に関する操作を行うための走行動作用操作部と、荷役装置14による荷役動作に関する操作を行うための荷役動作用操作部とを有している。走行動作用操作部は、例えば、アクセルペダルやハンドルである。荷役動作用操作部は、例えば、リフトレバーやティルトレバー、リーチレバーである。
【0036】
図2に示すように、フォークリフト10は、駆動部16と、報知部17と、制御部18とを備えている。駆動部16は、フォークリフト10を走行動作させたり、荷役装置14に荷役動作をさせたりする。報知部17は、例えば、ブザーや警報ランプである。制御部18は、駆動部16及び報知部17を制御する。制御部18は、操作部15と接続されている。制御部18は、運転者による操作部15に対する操作に基づいて、駆動部16を制御する。
【0037】
本実施形態のフォークリフト10は、工場や倉庫などの屋内において用いられる。フォークリフト10の周囲には、パレットや三角コーンなどの障害物が存在する場合がある。なお、フォークリフト10は、屋外で用いられてもよい。
【0038】
<車外飛び出し判定装置>
車外飛び出し判定装置20は、フォークリフト10に搭載されている。車外飛び出し判定装置20は、フォークリフト10の搭乗者が運転室13の外部、すなわち車外に飛び出しているか否かを判定する。本実施形態では、フォークリフト10の搭乗者として、フォークリフト10の運転者を想定している。車外飛び出し判定装置20は、制御部18と接続されている。詳細については後述するが、本実施形態の制御部18は、車外飛び出し判定装置20の判定結果に基づいて、報知部17を制御する。
【0039】
車外飛び出し判定装置20は、撮像装置としてのカメラ21と、判定装置22とを有している。本実施形態では、車外飛び出し判定装置20は、2つのカメラ21を有している。2つのカメラ21のうち、一方のカメラ21を第1カメラ21aとし、他方のカメラ21を第2カメラ21bとする。第1カメラ21a及び第2カメラ21bはそれぞれ、判定装置22と接続されている。判定装置22は、カメラ21による撮像画像に基づいて、フォークリフト10の運転者が車外に飛び出しているか否かを判定する。本実施形態では、判定装置22は、運転者が車外前方に飛び出しているか否かを判定するとともに、運転者が車外後方に飛び出しているか否かを判定する。
【0040】
カメラ21は、デジタルカメラである。カメラ21は、レンズと撮像素子とを有している。本実施形態のレンズは魚眼レンズである。したがって、本実施形態のカメラ21は、魚眼カメラである。撮像素子は、例えば、CCDイメージセンサ(Charge Coupled Device image sensor)やCMOSイメージセンサ(Complementary Metal Oxide Semiconductor image sensor)である。撮像素子は、複数のピクセル(画素)によって構成されている。
【0041】
図1に示すように、第1カメラ21aは、ヘッドガード11aの前部に取り付けられている。第1カメラ21aは、下方を撮像するように取り付けられている。第1カメラ21aは、フォークリフト10の左右方向の中央に位置している。
【0042】
図3は、第1カメラ21aによる撮像画像Iを示す。第1カメラ21aは、フォークリフト10の前部を撮像する。第1カメラ21aは、運転室13と荷役装置14とを撮像する。運転者Dがフォークリフト10に搭乗しているときには、第1カメラ21aは、運転者Dを上方かつ前方から撮像する。第1カメラ21aは、床面や障害物も撮像する。以下では、第1カメラ21aによる撮像画像Iを前方撮像画像Ifともいう。
【0043】
図1に示すように、第2カメラ21bは、ヘッドガード11aの後部に取り付けられている。第2カメラ21bは、下方を撮像するように取り付けられている。第2カメラ21bは、フォークリフト10の左右方向の中央に位置している。
【0044】
図4は、第2カメラ21bによる撮像画像Iを示す。第2カメラ21bは、フォークリフト10の後部を撮像する。第2カメラ21bは、運転室13とフォークリフト10の後方とを撮像する。運転者Dがフォークリフト10に搭乗しているときには、第2カメラ21bは、運転者Dを上方かつ後方から撮像する。第2カメラ21bは、床面や障害物も撮像する。以下では、第2カメラ21bによる撮像画像Iを後方撮像画像Irともいう。
【0045】
第1カメラ21aは、第1撮像周期で撮像を行う。第2カメラ21bは、第2撮像周期で撮像を行う。本実施形態では、第1撮像周期と第2撮像周期は同じ周期である。また、第1カメラ21aが撮像を行うタイミングと、第2カメラ21bが撮像を行うタイミングは、一致している。撮像画像Iには、タイムスタンプ機能によって撮像時刻の情報が付与されている。
【0046】
図2に示すように、判定装置22は、処理部23と、記憶部24とを有している。処理部23としては、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又はDSP(Digital Signal Processor)が用いられる。記憶部24は、RAM(Random Access Memory)及びROM(Read Only Memory)を含む。記憶部24には、車外飛び出し判定装置20を動作させるためのプログラムが記憶されている。記憶部24は、処理を処理部23に実行させるように構成されたプログラムコードまたは指令を格納しているといえる。記憶部24、すなわちコンピュータ可読媒体は、汎用または専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。判定装置22は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェア回路によって構成されていてもよい。処理回路である判定装置22は、コンピュータプログラムに従って動作する1つ以上のプロセッサ、ASICやFPGA等の1つ以上のハードウェア回路、或いは、それらの組み合わせを含み得る。
【0047】
本実施形態の処理部23は、設定部23aと、検出部23bと、判定部23cとを有している。設定部23aは、撮像画像Iに対して、運転者Dが車外に飛び出しているか否かを判定するための車外判定領域を設定する。検出部23bは、撮像画像Iにおける運転者Dの位置を検出する。判定部23cは、設定部23aが撮像画像Iに対して設定した車外判定領域と、検出部23bが検出した撮像画像Iにおける運転者Dの位置とに基づいて、運転者Dが車外に飛び出しているか否かを判定する。
【0048】
第1実施形態の記憶部24は、第1学習済みモデルM1を記憶している。第1学習済みモデルM1は、人体キーポイント検出を行うように生成されたモデルである。すなわち、第1学習済みモデルM1は、画像が入力されると、入力された画像における人体を構成する部位の位置を出力する。本実施形態の第1学習済みモデルM1は、人体を構成する部位として、頭部、首、右肩、右肘、右手、左肩、左肘、左手、及び腰部を検出可能である。
【0049】
第1学習済みモデルM1は、教師有り学習によって機械学習されている。教師データは、複数のデータセットを有している。各データセットは、学習用画像と、正解データとを有している。学習用画像には、カメラ21による撮像画像Iが用いられている。学習用画像には、フォークリフト10の運転者Dの画像が含まれている。正解データは、学習用画像における人体を構成する部位の位置の正解情報を含んでいる。したがって、第1学習済みモデルM1は、カメラ21による撮像画像Iを用いて機械学習されたモデルである。
【0050】
<車外飛び出し判定処理>
車外飛び出し判定装置20が行う車外飛び出し判定処理について説明する。
図5に示すように、ステップS11において、設定部23aは、撮像画像Iに対して運転者Dが車外に飛び出しているか否かを判定するための車外判定領域Ajを設定する。
【0051】
本実施形態では、設定部23aは、まず、カメラ21から撮像画像Iを取得する。撮像画像Iには、運転者Dの画像が含まれていてもよいし、運転者Dの画像が含まれていなくてもよい。次に、フォークリフト10の管理者は、図示しない表示部に表示された撮像画像Iに対して車外判定領域Ajとして設定したい領域を指定する。管理者は、図示しない入力部によって、指定した領域を判定装置22に入力する。なお、フォークリフト10の管理者は、フォークリフト10の運転者Dであってもよいし、フォークリフト10の運転者Dとは別の人であってもよい。設定部23aは、判定装置22に対して入力された撮像画像Iにおける指定領域を撮像画像Iにおける車外判定領域Ajとして設定する。
【0052】
本実施形態では、設定部23aは、前方撮像画像Ifに対して、運転者Dが車外前方に飛び出しているか否かを判定するための車外前方判定領域Ajfを設定する。
図6に示すように、前方撮像画像Ifにおいて一点鎖線によって囲まれた領域が車外前方判定領域Ajfである。車外前方判定領域Ajfは、例えば、前方撮像画像Ifにおける荷役装置14を示す領域に設定されている。
【0053】
また、設定部23aは、後方撮像画像Irに対して、運転者Dが車外後方に飛び出しているか否かを判定するための車外後方判定領域Ajrを設定する。
図7に示すように、後方撮像画像Irにおいて一点鎖線によって囲まれた領域が車外後方判定領域Ajrである。車外後方判定領域Ajrは、例えば、後方撮像画像Irにおける床面を示す領域であって、フォークリフト10よりも後方に位置する領域に設定されている。
【0054】
また、本実施形態では、フォークリフト10の管理者は、運転者Dの体のどの部位が車外に飛び出したら、運転者Dが車外に飛び出していると判定するかを設定可能である。具体的には、フォークリフト10の管理者は、第1学習済みモデルM1によって人体キーポイント検出可能な複数の部位から、運転者Dが車外に飛び出していると判定するために用いる部位を選択する。そして、フォークリフト10の管理者は、入力部によって、選択した特定の部位を判定装置22に対して入力する。
【0055】
図5に示すように、ステップS12において、検出部23bは、カメラ21から撮像画像Iを取得する。ステップS12において検出部23bが取得する撮像画像Iには、運転者Dの画像が含まれている。
【0056】
本実施形態では、検出部23bは、第1カメラ21aから複数枚の前方撮像画像Ifを取得する。また、検出部23bは、第2カメラ21bから複数枚の後方撮像画像Irを取得する。検出部23bが第1カメラ21aから取得した前方撮像画像Ifの撮像時刻は、前方撮像画像If毎に異なっている。検出部23bが第2カメラ21bから取得した後方撮像画像Irの撮像時刻は、後方撮像画像Ir毎に異なっている。
【0057】
ステップS13において、検出部23bは、撮像画像Iにおける運転者Dの位置を検出する。
本実施形態では、検出部23bは、第1学習済みモデルM1を用いて撮像画像Iにおける運転者Dの位置を検出する。詳しくは、検出部23bは、撮像画像Iを第1学習済みモデルM1に入力する。第1学習済みモデルM1は、入力された撮像画像Iについて人体キーポイント検出を行う。すなわち、第1学習済みモデルM1は、撮像画像Iにおける人体を構成する部位の位置を出力する。検出部23bは、第1学習済みモデルM1の出力結果により撮像画像Iにおける運転者Dの体の部位の位置を検出することによって、撮像画像Iにおける運転者Dの位置を検出する。
【0058】
本実施形態では、設定部23aは、第1学習済みモデルM1を用いて前方撮像画像Ifにおける運転者Dの位置を検出する。
例えば、
図6に示す前方撮像画像Ifでは、運転者Dの頭部Ph、首Pn、右肩Prs、右肘Pre、右手Prh、左肩Pls、左肘Ple、左手Plh、及び腰部Pwが検出される。
【0059】
また、設定部23aは、第1学習済みモデルM1を用いて後方撮像画像Irにおける運転者Dの位置を検出する。
例えば、
図7に示す後方撮像画像Irでは、運転者Dの頭部Ph、首Pn、右肩Prs、右肘Pre、右手Prh、左肩Pls、及び腰部Pwが検出される。
【0060】
図5に示すように、ステップS14において、判定部23cは、検出部23bによって検出された運転者Dの位置が車外判定領域Ajに含まれているか否かを判定する。例えば、
図6に示す前方撮像画像Ifにおいて、運転者Dは車外判定領域Ajに含まれていない。一方、
図7に示す後方撮像画像Irにおいて、運転者D、より詳しくは運転者Dの右手Prhは、車外判定領域Ajに含まれている。
【0061】
判定部23cは、検出部23bによって検出された運転者Dの位置が車外判定領域Ajに含まれている場合(ステップS14でYES)、運転者Dが車外に飛び出していると判定する。判定部23cは、検出部23bによって検出された運転者Dの位置が車外判定領域Ajに含まれていない場合(ステップS14でNO)、運転者Dが車外に飛び出していないと判定する。
【0062】
本実施形態では、判定部23cは、検出部23bによって検出された運転者Dの体の部位のうち、管理者によって予め選択された特定の部位が車外判定領域Ajに含まれており、特定の部位が車外判定領域Ajに含まれている時間Tが所定の時間Tth以上である場合、運転者Dが車外判定領域Ajに含まれていると判定する。
【0063】
例えば、時刻t1における撮像画像Iにおいて特定の部位が車外判定領域Ajに含まれているとする。また、時刻t1よりも後の時刻t2における撮像画像Iにおいて特定の部位が車外判定領域Ajに含まれているとする。この場合、時刻t1から時刻t2までの時間T=t2-t1の間、特定の部位が車外判定領域Ajに含まれていると考えられる。したがって、判定部23cは、時間T=t2-t1が所定の時間Tth以上である場合には、運転者Dが車外判定領域Ajに含まれていると判定する。なお、所定の時間Tthは、適宜設定可能である。
【0064】
一方、判定部23cは、各撮像画像Iにおいて特定の部位が車外判定領域Ajに含まれていない場合、運転者Dが車外判定領域Ajに含まれていないと判定する。また、判定部23cは、撮像画像Iにおいて特定の部位が車外判定領域Ajに含まれているものの、特定の部位が車外判定領域Ajに含まれている時間Tが所定の時間Tth未満である場合にも、運転者Dが車外判定領域Ajに含まれていないと判定する。
【0065】
本実施形態では、判定部23cは、前方撮像画像Ifにおいて運転者Dが車外前方判定領域Ajfに含まれている場合、運転者Dが車外前方に飛び出していると判定する。また、判定部23cは、後方撮像画像Irにおいて運転者Dが車外後方判定領域Ajrに含まれている場合、運転者Dが車外後方に飛び出していると判定する。
【0066】
判定部23cは、運転者Dが車外に飛び出していると判定すると、ステップS15において、運転者Dが車外に飛び出している旨の信号を制御部18に送信する。上述したように、制御部18は、車外飛び出し判定装置20による判定結果に基づいて、報知部17を制御する。本実施形態では、制御部18は、判定部23cから運転者Dが車外に飛び出している旨の信号を受信すると、報知部17を作動させる。具体的には、報知部17は、ブザーを鳴らしたり、警告ランプを点灯させたりする。
【0067】
一方、運転者Dが車外に飛び出していないと判定部23cが判定すると、ステップS12に戻る。なお、2回目以降のステップS12において検出部23bが取得する撮像画像Iは、前回のステップS12において検出部23bが取得した撮像画像Iよりも後の撮像時刻の画像である。
【0068】
[本実施形態の効果]
本実施形態の効果を説明する。
(1-1)車外飛び出し判定装置20は、フォークリフト10に取り付けられたカメラ21と、カメラ21による撮像画像Iに基づいてフォークリフト10の運転者Dが車外に飛び出しているか否かを判定する判定装置22とを備えている。判定装置22は、設定部23aと、検出部23bと、判定部23cとを有している。設定部23aは、撮像画像Iに対して運転者Dが車外に飛び出しているか否かを判定するための車外判定領域Ajを設定する。検出部23bは、撮像画像Iにおける運転者Dの位置を検出する。判定部23cは、検出部23bによって検出された運転者Dの位置が車外判定領域Ajに含まれている場合、運転者Dが車外に飛び出していると判定する。これにより、車外飛び出し判定装置20は、運転者Dが車外に飛び出しているか否かを判定できる。
【0069】
この構成では、車外飛び出し判定装置20は、カメラ21による撮像画像Iを用いて、運転者Dが車外に飛び出しているか否かを判定する。したがって、例えば、ドライブレコーダ等としてカメラ21がフォークリフト10に予め取り付けられていた場合には、当該カメラ21を利用することができる。よって、車外飛び出し判定装置20にかかるコストを削減できる。
【0070】
(1-2)設定部23aは、判定装置22に対して入力された撮像画像Iにおける指定領域を撮像画像Iにおける車外判定領域Ajとして設定する。このため、設定部23aは、撮像画像Iにおいて車外を示す領域である車外領域を把握しなくても、撮像画像Iに対して車外判定領域Ajを設定することができる。したがって、設定部23aが行う処理を簡素化できる。
【0071】
(1-3)判定装置22は、画像が入力されると、当該画像における人体を構成する部位の位置を出力するように機械学習された第1学習済みモデルM1を記憶している。検出部23bは、第1学習済みモデルM1を用いて撮像画像Iにおける運転者Dの体の部位の位置を検出することにより、撮像画像Iにおける運転者Dの位置を検出する。判定部23cは、撮像画像Iにおいて、検出部23bによって検出された運転者Dの体の部位のうち、フォークリフト10の管理者によって予め選択された特定の部位が車外判定領域Ajに含まれている場合、運転者Dが車外に飛び出していると判定する。これにより、運転者Dの体の特定の部位が車外に飛び出しているか否かを判定できる。
【0072】
(1-4)一般に、人体キーポイント検出の教師データには、人を真横から撮像した画像が用いられる。これに対し、本実施形態では、カメラ21は、下方を撮像するようにフォークリフト10に取り付けられている。カメラ21は、運転者Dを上方から撮像する。このため、例えば、第1学習済みモデルM1が人を真横から撮像した画像を利用して機械学習されたモデルである場合、カメラ21による撮像画像Iに対しては、人体キーポイント検出の検出精度が低下するおそれがある。これに対し、本実施形態の第1学習済みモデルM1は、カメラ21による撮像画像Iを用いて機械学習されたモデルである。したがって、カメラ21による撮像画像Iに対する人体キーポイント検出の検出精度を向上できる。
【0073】
(1-5)フォークリフト10は、報知部17と、報知部17を制御する制御部18とを備えている。制御部18は、車外飛び出し判定装置20による判定結果に基づいて、報知部17を制御する。本実施形態では、運転者Dが車外に飛び出していると車外飛び出し判定装置20が判定した場合、制御部18は、報知部17を作動させる。これにより、運転者Dの体の一部が車外に飛び出していることを運転者Dに対して知らせることができる。
【0074】
(1-6)本実施形態の車外飛び出し判定装置20は、運転者Dが車外前方に飛び出しているか否かを判定する。この場合、車外飛び出し判定装置20による判定結果を、例えば、運転者Dの体の一部がマスト14aなどの荷役装置14の可動部に挟まれることを回避するために用いることができる。
【0075】
(1-7)本実施形態の車外飛び出し判定装置20は、運転者Dが車外後方に飛び出しているか否かを判定する。この場合、車外飛び出し判定装置20による判定結果を、例えば、運転者Dの体の一部が車体11とフォークリフト10の後方に存在する障害物との間に挟まれることを回避するために用いることができる。
【0076】
(1-8)カメラ21は、魚眼カメラである。魚眼カメラは画角が広いため、広範囲を撮像することができる。
[第2実施形態]
以下、車外飛び出し判定装置及び産業車両を具体化した第2実施形態を
図8~
図16にしたがって説明する。なお、第1実施形態と同じ構成及び処理については説明を省略する。
【0077】
<車外飛び出し判定装置>
図8に示すように、第2実施形態の処理部23は、設定部23a、検出部23b、及び判定部23cに加えて、画像処理を行う画像処理部23dを有している。
【0078】
第2実施形態の記憶部24は、第1実施形態における第1学習済みモデルM1の代わりに第2学習済みモデルM2を有している。
第2学習済みモデルM2は、セマンティックセグメンテーションを行うように生成されたモデルである。すなわち、第2学習済みモデルM2は、画像が入力されると、入力された画像を構成する各ピクセルのラベルを出力する。本実施形態の第2学習済みモデルM2は、画像を構成する各ピクセルについて、自車両を表示するピクセル、床面を表示するピクセル、障害物を表示するピクセル、又は運転者を表示するピクセルの何れかにラベル付けする。なお、自車両とは、運転者Dが搭乗しているフォークリフト10のことを指す。
【0079】
第2学習済みモデルM2は、教師有り学習によって機械学習されている。教師データは、複数のデータセットを有している。各データセットは、学習用画像と、正解データとを有している。学習用画像には、カメラ21による撮像画像Iが用いられている。正解データは、学習用画像を構成する各ピクセルが、自車両を表示するピクセル、床面を表示するピクセル、障害物を表示するピクセル、又は運転者を表示するピクセルであるかの正解情報を含んでいる。したがって、第2学習済みモデルM2は、カメラ21による撮像画像Iを用いて機械学習されたモデルである。
【0080】
<車外飛び出し判定処理>
車外飛び出し判定装置20が行う車外飛び出し判定処理について説明する。
設定部23aは、ステップS11において、撮像画像Iに対して車外判定領域Ajを設定する。前方撮像画像Ifに対する車外前方判定領域Ajfの設定は、第1実施形態と同様に行われる。後方撮像画像Irに対する車外後方判定領域Ajrの設定は、次のように行われる。
【0081】
図9に示すように、設定部23aは、まず、カメラ21から設定用画像Isを取得する。設定用画像Isは、第2カメラ21bによる後方撮像画像Irである。設定用画像Isは、運転者Dがフォークリフト10に搭乗していない状態で撮像された画像である。したがって、設定用画像Isには、運転者Dの画像が含まれていない。
【0082】
設定部23aは、次に、第2学習済みモデルM2に設定用画像Isを入力する。第2学習済みモデルM2は、設定用画像Isに対してセマンティックセグメンテーションを行う。
【0083】
図10に示すように、設定用画像Isを構成する各ピクセルは、自車両を表示するピクセル、床面を表示するピクセル、又は障害物を表示するピクセルの何れかにラベル付けされる。
【0084】
図11に示すように、設定部23aは、第2学習済みモデルM2による出力結果を用いて設定用画像Isにおいて自車両を示す領域である自車両領域Afを検出する。具体的には、設定部23aは、設定用画像Isを構成するピクセルのうち、第2学習済みモデルM2によって自車両を表示するピクセルであるとラベル付けされたピクセルからなる領域を自車両領域Afとする。また、設定部23aは、設定用画像Isにおける自車両領域Af外の領域を車外領域Aoutとする。車外領域Aoutは、設定用画像Isを構成するピクセルのうち、第2学習済みモデルM2によって床面又は障害物を表示するピクセルであるとラベル付けされたピクセルからなる領域である。
【0085】
図12に示すように、画像処理部23dは、設定用画像Isにおける自車両領域Afを膨張させる膨張処理を行う。例えば、画像処理部23dは、自車両領域Afをモルフォロジー変換等によって膨張させる。なお、自車両領域Afの膨張量は、カーネルサイズやイテレーションパラメータによって調整可能である。設定用画像Isにおける車外領域Aoutは、自車両領域Afを膨張させた分だけ減少する。
【0086】
設定部23aは、設定用画像Isにおける自車両領域Af外の領域を、後方撮像画像Irにおける車外後方判定領域Ajrとして設定する。本実施形態では、設定部23aは、設定用画像Isにおける画像処理部23dによる膨張処理後の自車両領域Af外の領域を、後方撮像画像Irにおける車外判定領域Ajとして設定する。具体的には、設定部23aは、車外領域Aoutであって、膨張処理後の自車両領域Afよりも後方の領域を車外後方判定領域Ajrとして設定する。
【0087】
図13に示すように、設定用画像Isにおいて一点鎖線によって囲まれた領域が車外後方判定領域Ajrである。車外後方判定領域Ajrは、設定用画像Isにおける床面又は障害物を示す領域であって、フォークリフト10よりも後方に位置する領域に設定されている。
【0088】
検出部23bは、ステップS12において、カメラ21から撮像画像Iを取得する。なお、ステップS12については、第1実施形態と同じであるため、詳細な説明は省略する。
【0089】
図14に示すように、ステップS12において検出部23bが取得する後方撮像画像Irは、運転者Dがフォークリフト10に搭乗した状態で撮像された画像である。したがって、検出部23bが取得する後方撮像画像Irには、運転者Dの画像が含まれている。
【0090】
なお、以下では、後方撮像画像Irに基づいて運転者Dが車外後方に飛び出しているか否かを判定する処理について説明する。前方撮像画像Ifに基づいて運転者Dが車外前方に飛び出しているか否かを判定する処理については、同様の処理であるため、説明を省略する。
【0091】
検出部23bは、ステップS13において、後方撮像画像Irにおける運転者Dの位置を検出する。本実施形態では、検出部23bは、第2学習済みモデルM2を用いて後方撮像画像Irにおける運転者Dの位置を検出する。
【0092】
詳しくは、検出部23bは、第2学習済みモデルM2に後方撮像画像Irを入力する。第2学習済みモデルM2は、入力された後方撮像画像Irに対してセマンティックセグメンテーションを行う。
【0093】
図15に示すように、後方撮像画像Irを構成する各ピクセルは、自車両を表示するピクセル、床面を表示するピクセル、障害物を表示するピクセル、又は運転者を表示するピクセルの何れかにラベル付けされる。
【0094】
図16に示すように、設定部23aは、第2学習済みモデルM2による出力結果を用いて後方撮像画像Irにおいて搭乗者を示す領域である搭乗者領域としての運転者領域Adを検出する。具体的には、設定部23aは、後方撮像画像Irを構成するピクセルのうち、第2学習済みモデルM2によって運転者を表示するピクセルであるとラベル付けされたピクセルからなる領域を運転者領域Adとする。このように、設定部23aは、第2学習済みモデルM2を用いて後方撮像画像Irにおける運転者領域Adを検出することによって、後方撮像画像Irにおける運転者Dの位置を検出する。
【0095】
判定部23cは、ステップS14において、検出部23bによって検出された運転者Dの位置が車外後方判定領域Ajrに含まれているか否かを判定する。判定部23cは、検出部23bによって検出された運転者Dの位置が車外後方判定領域Ajrに含まれている場合、運転者Dが車外後方に飛び出していると判定する。判定部23cは、検出部23bによって検出された運転者Dの位置が車外後方判定領域Ajrに含まれていない場合、運転者Dが車外後方に飛び出していないと判定する。
【0096】
本実施形態では、判定部23cは、まず、後方撮像画像Irにおいて運転者領域Adと車外後方判定領域Ajrとが重なっているか否かを判定する。例えば、
図16に示す後方撮像画像Irでは、運転者領域Adと車外後方判定領域Ajrとは重なっている。なお、
図16に示す車外後方判定領域Ajrは、上述したように、運転者Dがフォークリフト10に搭乗していない状態で撮像された後方撮像画像Irを用いて設定されている。判定部23cは、後方撮像画像Irにおいて運転者領域Adと車外後方判定領域Ajrとが重なっている場合、運転者領域Adと車外後方判定領域Ajrとが重なる面積(以下、「重合面積S」という。)を算出する。判定部23cは、重合面積Sが所定の面積Sth以上であり、かつ重合面積Sが所定の面積Sth以上である時間Tが所定の時間Tth以上である場合、運転者Dが車外後方判定領域Ajrに含まれていると判定する。
【0097】
例えば、時刻t1における後方撮像画像Irにおいて重合面積Sが所定の面積Sth以上であるとする。また、時刻t1よりも後の時刻t2における後方撮像画像Irにおいて重合面積Sが所定の面積Sth以上であるとする。この場合、時刻t1から時刻t2までの時間T=t2-t1の間、重合面積Sが所定の面積Sth以上であると考えられる。したがって、判定部23cは、時間T=t2-t1が所定の時間Tth以上である場合には、運転者Dが車外後方判定領域Ajrに含まれていると判定する。なお、所定の面積Sth及び所定の時間Tthはそれぞれ、適宜設定可能である。
【0098】
一方、判定部23cは、後方撮像画像Irにおいて運転者領域Adと車外後方判定領域Ajrとが重なっていない場合、運転者Dが車外後方判定領域Ajrに含まれていないと判定する。また、判定部23cは、後方撮像画像Irにおいて運転者領域Adと車外後方判定領域Ajrとが重なっているものの、重合面積Sが所定の面積Sth未満である場合にも、運転者Dが車外後方判定領域Ajrに含まれていないと判定する。さらに、判定部23cは、重合面積Sが所定の面積Sth以上であるものの、重合面積Sが所定の面積Sth以上である時間Tが所定の時間Tth未満である場合にも、運転者Dが車外後方判定領域Ajrに含まれていないと判定する。
【0099】
[本実施形態の効果]
第2実施形態では、第1実施形態の効果(1-1),(1-5)~(1-8)と同様の効果に加えて、以下の効果を得ることができる。
【0100】
(2-1)判定装置22は、画像が入力されると、当該画像を構成するピクセルのラベルを出力するように機械学習された第2学習済みモデルM2を記憶している。設定部23aは、第2学習済みモデルM2を用いて撮像画像Iにおける自車両領域Afを検出する。設定部23aは、撮像画像Iにおける自車両領域Af外の領域を車外判定領域Ajとして設定する。このため、設定部23aによって、撮像画像Iに対して車外判定領域Ajを自動的に設定できる。したがって、車外飛び出し判定装置20が搭載されるフォークリフト10の変更や、フォークリフト10に対するカメラ21の取り付け位置の変更などに対して対応しやすい。
【0101】
(2-2)判定装置22は、撮像画像Iにおける自車両領域Afを膨張させる画像処理部23dを有している。設定部23aは、撮像画像Iにおける画像処理部23dによって膨張された自車両領域Af外の領域を車外判定領域Ajとして設定する。これにより、例えば、運転者Dが後方確認のためにリアピラー11cを掴むといった状況において、運転者Dが車外に飛び出していると判定されることを回避することができる。つまり、運転者Dが車外に飛び出しているか否かの判定においてマージンを持たせることができる。
【0102】
(2-3)検出部23bは、第2学習済みモデルM2を用いて撮像画像Iにおける運転者領域Adを検出することによって、撮像画像Iにおける運転者Dの位置を検出する。この場合、検出部23bは、撮像画像Iにおける運転者Dのエッジを検出することができる。したがって、車外飛び出し判定装置20は、運転者Dが車外に飛び出しているか否かをより精度良く判定できる。
【0103】
(2-4)第1学習済みモデルM1は、カメラ21による撮像画像Iを用いて機械学習されたモデルである。したがって、第1学習済みモデルM1がカメラ21による撮像画像I以外の画像を用いて機械学習されている場合と比較して、セマンティックセグメンテーションの精度を向上できる。
【0104】
(2-5)設定部23aは、第2学習済みモデルM2を用いて撮像画像Iに対して車外判定領域Ajを設定する。また、検出部23bは、第2学習済みモデルM2を用いて撮像画像Iにおける運転者Dの位置を検出する。つまり、第2学習済みモデルM2は、設定処理及び検出処理の2つの処理に用いられている。したがって、例えば、設定部23aが第2学習済みモデルM2を用いて撮像画像Iに対して車外判定領域Ajを設定し、かつ検出部23bが第1学習済みモデルM1を用いて撮像画像Iにおける運転者Dの位置を検出する場合と比較して、車外飛び出し判定装置20の構成を簡素化できる。
【0105】
[変更例]
なお、上記実施形態は、以下のように変更して実施できる。上記実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施できる。
【0106】
○ 上記実施形態では、制御部18は、車外飛び出し判定装置20による判定結果に加えて、操作部15に対する操作又はフォークリフト10の動作に基づいて報知部17を制御させてもよい。
【0107】
例えば、制御部18は、操作部15に対して荷役操作が行われたときや荷役装置14の荷役動作中に、運転者Dが車外前方に飛び出していると判定された場合、報知部17を作動させてもよい。報知部17の作動によって、運転者Dは、荷役装置14の荷役動作を停止させたり、車外に飛び出していた体の一部を車内に戻したりする。したがって、運転者Dがマスト14aなどの荷役装置14の可動部に挟まれることを回避できる。
【0108】
例えば、制御部18は、操作部15に対して後進操作が行われたときやフォークリフト10の後進中に、運転者Dが車外後方に飛び出していると判定された場合、報知部17を作動させてもよい。報知部17の作動によって、運転者Dは、フォークリフト10の後進を停止させたり、車外に飛び出していた体の一部を車内に戻したりする。したがって、運転者Dが車体11とフォークリフト10の後方にある障害物との間に挟まれるといった状況を回避できる。
【0109】
なお、制御部18は、報知部17を作動させるだけでなく、例えば、報知部17のブザー音を変更したりブザー音量を上げたりするようなしてもよい。
○ 制御部18は、車外飛び出し判定装置20の判定結果に基づいて、駆動部16を制御してもよい。また、制御部18は、車外飛び出し判定装置20による判定結果に加えて、操作部15に対する操作又はフォークリフト10の動作に基づいて、駆動部16を制御してもよい。
【0110】
例えば、制御部18は、操作部15に対して荷役操作が行われたときや荷役装置14の荷役動作中に、運転者Dが車外前方に飛び出していると判定された場合、マスト14aの動作が制限されるように駆動部16を制御してもよい。これにより、運転者Dがマスト14aなどの荷役装置14の可動部に挟まれることを回避できる。
【0111】
例えば、制御部18は、操作部15に対して後進操作が行われたときやフォークリフト10の後進中に、運転者Dが車外後方に飛び出していると判定された場合、フォークリフト10の後進が制限されるように駆動部16を制御してもよい。これにより、運転者Dが車体11とフォークリフト10の後方にある障害物との間に挟まれるといった状況を回避できる。
【0112】
○ 第2実施形態において、検出部23bは、撮像画像Iに対するセマンティックセグメンテーションの結果を用いて、フォークリフト10に対する障害物の位置を検出してもよい。具体的には、検出部23bは、撮像画像Iを構成するピクセルのうち、障害物を表示するピクセルであるとラベル付けされたピクセルからなる領域を、撮像画像Iにおいて障害物を示す領域である障害物領域とする。また、検出部23bは、撮像画像Iを構成するピクセルのうち、自車両を表示するピクセルであるとラベル付けされたピクセルからなる領域を、撮像画像Iにおける自車両領域Afとする。検出部23bは、撮像画像Iにおける障害物領域と自車両領域Afとの位置関係から、フォークリフト10に対する障害物の位置を検出する。検出部23bは、検出したフォークリフト10に対する障害物の位置を制御部18に送信してもよい。
【0113】
制御部18は、車外飛び出し判定装置20による判定結果と、操作部15に対する操作又はフォークリフト10の動作とに加えて、検出部23bによる障害物の検出結果に基づいて、報知部17を制御してもよい。
【0114】
例えば、制御部18は、操作部15に対して後進操作が行われたときやフォークリフト10の後進中に、フォークリフト10の後方に障害物があると検出され、かつ運転者Dが車外後方に飛び出していると判定された場合、報知部17を作動させてもよい。
【0115】
同様に、制御部18は、車外飛び出し判定装置20による判定結果と、操作部15に対する操作又はフォークリフト10の動作とに加えて、検出部23bによる障害物の検出結果に基づいて、駆動部16を制御してもよい。
【0116】
例えば、制御部18は、操作部15に対して後進操作が行われたときやフォークリフト10の後進中に、フォークリフト10の後方に障害物があると検出され、かつ運転者Dが車外後方に飛び出していると判定された場合、フォークリフト10の後進が制限されるように駆動部16を制御してもよい。
【0117】
○ 撮像装置は、カメラ21に限定されない。撮像装置は、ビデオカメラでもよい。この場合、判定装置22は、ビデオカメラが撮像した映像における任意の時刻の画像を撮像画像Iとして用いる。
【0118】
○ カメラ21の数は、2つに限定されない。カメラ21の数は、カメラ21の画角及び車両の搭乗者が車外に飛び出しているか否かを判定したい範囲に応じて適宜設定される。
【0119】
○ カメラ21は、魚眼カメラに限定されない。
○ フォークリフト10に対するカメラ21の取り付け位置は、ヘッドガード11aに限定されない。
【0120】
○ 第1カメラ21aによる第1撮像周期と第2カメラ21bによる第2撮像周期は、異なっていてもよい。また、第1カメラ21aが撮像を行うタイミングと第2カメラ21bが撮像を行うタイミングは、異なっていてもよい。
【0121】
○ 車外飛び出し判定装置20は、車両の搭乗者が車外前方に飛び出しているか否かのみを判定してもよい。この場合、第2カメラ21bは省略されてもよい。
○ 車外飛び出し判定装置20は、車両の搭乗者が車外後方に飛び出しているか否かのみを判定してもよい。この場合、第1カメラ21aは省略されてもよい。
【0122】
○ 車外飛び出し判定装置20は、搭乗者が車外前方に飛び出しているか否かを判定する前方用判定装置と、搭乗者が車外後方に飛び出しているか否かを判定する後方用判定装置とを個別に有していてもよい。
【0123】
○ 車外飛び出し判定装置20は、搭乗者が車外左方に飛び出しているか否かを判定してもよい。この場合、撮像画像Iにおけるフォークリフト10よりも左方の領域が車外判定領域Ajとして設定される。
【0124】
○ 車外飛び出し判定装置20は、搭乗者が車外右方に飛び出しているか否かを判定してもよい。この場合、撮像画像Iにおけるフォークリフト10よりも右方の領域が車外判定領域Ajとして設定される。
【0125】
○ 第1実施形態において、搭乗者の体の部位のうち、腰部より足元側の部位が車外に飛び出すことが想定される場合には、第1学習済みモデルM1は、画像における腰部より足元側の部位の位置も検出可能に学習されているのが好ましい。
【0126】
○ 第2実施形態において、第2学習済みモデルM2は、セマンティックセグメンテーションの代わりにインスタンスセグメンテーションを行うように機械学習された学習済みモデルであってもよい。
【0127】
○ 第1実施形態において、判定部23cは、運転者Dの体の特定の部位が車外判定領域Ajに含まれている撮像画像Iの枚数に基づいて、運転者Dが車外判定領域Ajに含まれているか否かを判定してもよい。
【0128】
例えば、特定の部位が車外判定領域Ajに含まれている撮像画像Iが所定の枚数以上であり、かつ連続した画像である場合、判定部23cは、運転者Dが車外判定領域Ajに含まれていると判定する。一方、特定の部位が車外判定領域Ajに含まれている撮像画像Iが所定の枚数未満である場合、判定部23cは、運転者Dが車外判定領域Ajに含まれていないと判定する。また、所定の枚数以上の撮像画像Iにおいて特定の部位が車外判定領域Ajに含まれているものの、当該撮像画像Iが連続した画像でない場合には、判定部23cは、運転者Dが車外判定領域Ajに含まれていないと判定する。なお、所定の枚数は、適宜変更可能である。
【0129】
第2実施形態についても同様に、判定部23cは、重合面積Sが所定の面積Sth以上である撮像画像Iの枚数に基づいて、運転者Dが車外判定領域Ajに含まれているか否かを判定してもよい。
【0130】
○ 第1実施形態において、記憶部24は、第1学習済みモデルM1に加えて第2学習済みモデルM2も記憶していてもよい。この場合、設定部23aは、第2実施形態のように第2学習済みモデルM2を用いて後方撮像画像Irに対して車外後方判定領域Ajrを設定してもよい。
【0131】
○ 第1実施形態において、フォークリフト10の管理者は、運転者Dが車外に飛び出していると判定するために用いる体の部位を選択しなくてもよい。
○ 第2実施形態において、設定部23aは、第1実施形態のように判定装置22に入力された撮像画像Iにおける指定領域を撮像画像Iにおける車外判定領域Ajとして設定してもよい。
【0132】
○ 第2実施形態において、判定装置22は、画像処理部23dを有していなくてもよい。この場合、設定部23aは、設定用画像Isにおいて膨張処理が行われていない自車両領域Af外の領域を車外後方判定領域Ajrとして設定する。
【0133】
○ 車外飛び出し判定装置20は、例えば、トーイングトラクタなどのフォークリフト10以外の産業車両に適用されてもよい。
○ 車両の搭乗者は、車両の運転者の1人に限定されない。複数人が搭乗する車両の場合、車両の搭乗者としては、運転者だけでなく、同乗者も想定される。この場合、記憶部24は、インスタンスセグメンテーションを行うように機械学習された学習済みモデルを記憶しているのが好ましい。インスタンスセグメンテーションでは、搭乗者を区別してラベル付けを行う。したがって、車外飛び出し判定装置20は、複数人の搭乗者のうち、どの搭乗者が車外に飛び出しているかを判定することができる。
【0134】
[付記]
上記各実施形態及び変更例から把握できる技術的思想を以下に記載する。
[1]車両に取り付けられた撮像装置と、前記撮像装置による撮像画像に基づいて前記車両の搭乗者が車外に飛び出しているか否かを判定する判定装置と、を備え、前記判定装置は、前記撮像画像に対して前記搭乗者が車外に飛び出しているか否かを判定するための車外判定領域を設定する設定部と、前記撮像画像における前記搭乗者の位置を検出する検出部と、前記検出部によって検出された前記搭乗者の位置が前記車外判定領域に含まれている場合、前記搭乗者が車外に飛び出していると判定する判定部と、を有することを特徴とする車外飛び出し判定装置。
【0135】
[2]前記設定部は、前記判定装置に対して入力された前記撮像画像における指定領域を前記撮像画像における前記車外判定領域として設定する[1]に記載の車外飛び出し判定装置。
【0136】
[3]前記判定装置は、画像が入力されると、当該画像における人体を構成する部位の位置を出力するように機械学習された第1学習済みモデルを記憶しており、前記検出部は、前記第1学習済みモデルを用いて前記撮像画像における前記搭乗者の位置を検出する[1]又は[2]に記載の車外飛び出し判定装置。
【0137】
[4]前記検出部は、前記第1学習済みモデルを用いて前記撮像画像における前記搭乗者の体の部位の位置を検出し、前記判定部は、前記撮像画像において、前記検出部によって検出された前記搭乗者の体の部位のうち、予め選択された特定の部位が前記車外判定領域に含まれている場合、前記搭乗者が車外に飛び出していると判定する[3]に記載の車外飛び出し判定装置。
【0138】
[5]前記第1学習済みモデルは、前記撮像装置による前記撮像画像を用いて機械学習されたモデルである[3]又は[4]に記載の車外飛び出し判定装置。
[6]前記判定装置は、画像が入力されると、当該画像を構成するピクセルのラベルを出力するように機械学習された第2学習済みモデルを記憶しており、前記設定部は、前記第2学習済みモデルを用いて前記撮像画像における前記搭乗者が搭乗する前記車両を示す領域である自車両領域を検出し、前記撮像画像における前記自車両領域外の領域を前記車外判定領域として設定する[1]に記載の車外飛び出し判定装置。
【0139】
[7]前記判定装置は、前記撮像画像における前記自車両領域を膨張させる画像処理部を有し、前記設定部は、前記撮像画像における前記画像処理部によって膨張された前記自車両領域外の領域を前記車外判定領域として設定する[6]に記載の車外飛び出し判定装置。
【0140】
[8]前記判定装置は、画像が入力されると、当該画像を構成するピクセルのラベルを出力するように機械学習された第2学習済みモデルを記憶しており、前記検出部は、前記第2学習済みモデルを用いて前記撮像画像における前記搭乗者を示す領域である搭乗者領域を検出することによって、前記撮像画像における前記搭乗者の位置を検出する[1]、[2]、[6]、及び[7]の何れか1つに記載の車外飛び出し判定装置。
【0141】
[9]前記第2学習済みモデルは、前記撮像装置による前記撮像画像を用いて機械学習されたモデルである[6]~[8]の何れか1つに記載の車外飛び出し判定装置。
[10][1]~[9]の何れか1つに記載の車外飛び出し判定装置が搭載された産業車両。
【0142】
[11]報知部と、前記報知部を制御する制御部と、を備え、前記制御部は、前記車外飛び出し判定装置による判定結果に基づいて、前記報知部を制御する[10]に記載の産業車両。
【0143】
[12]前記産業車両の操作を行うための操作部を備え、前記制御部は、前記車外飛び出し判定装置による判定結果に加えて、前記操作部に対する操作又は前記産業車両の動作に基づいて、前記報知部を制御する[11]に記載の産業車両。
【0144】
[13]前記産業車両を駆動する駆動部と、前記駆動部を制御する制御部と、を備え、前記制御部は、前記車外飛び出し判定装置による判定結果に基づいて、前記駆動部を制御する[10]~[12]の何れか1つに記載の産業車両。
【0145】
[14]前記産業車両の操作を行うための操作部を備え、前記制御部は、前記車外飛び出し判定装置による判定結果に加えて、前記操作部に対する操作又は前記産業車両に基づいて、前記駆動部を制御する[13]に記載の産業車両。
【符号の説明】
【0146】
10…産業車両としてのフォークリフト、15…操作部、16…駆動部、17…報知部、18…制御部、20…車外飛び出し判定装置、21…撮像装置としてのカメラ、22…判定装置、23a…設定部、23b…検出部、23c…判定部、23d…画像処理部、Ad…搭乗者領域としての運転者領域、Af…自車両領域、Aj…車外判定領域、D…搭乗者としての運転者、I…撮像画像、M1…第1学習済みモデル、M2…第2学習済みモデル。