(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-02-16
(45)【発行日】2023-02-27
(54)【発明の名称】車両の複合現実の条件付き利用可能性
(51)【国際特許分類】
G08G 1/09 20060101AFI20230217BHJP
G08G 1/16 20060101ALI20230217BHJP
G06T 1/00 20060101ALI20230217BHJP
【FI】
G08G1/09 H
G08G1/16 A
G06T1/00 330Z
(21)【出願番号】P 2021510946
(86)(22)【出願日】2019-08-06
(86)【国際出願番号】 EP2019071060
(87)【国際公開番号】W WO2020043436
(87)【国際公開日】2020-03-05
【審査請求日】2021-04-19
(32)【優先日】2018-08-30
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】516000549
【氏名又は名称】ヴァレオ、コンフォート、アンド、ドライビング、アシスタンス
【氏名又は名称原語表記】VALEO COMFORT AND DRIVING ASSISTANCE
(74)【代理人】
【識別番号】100091487
【氏名又は名称】中村 行孝
(74)【代理人】
【識別番号】100120031
【氏名又は名称】宮嶋 学
(74)【代理人】
【識別番号】100127465
【氏名又は名称】堀田 幸裕
(74)【代理人】
【識別番号】100130719
【氏名又は名称】村越 卓
(72)【発明者】
【氏名】クリストファー、スティーブン、ノバコフスキー
(72)【発明者】
【氏名】シエフ-クオン、クオック
(72)【発明者】
【氏名】アレクサンドル、ジャック、ガルノー
(72)【発明者】
【氏名】モハメド、アムル、モハメド、ナダール、アブエルフォウトゥ
【審査官】久保田 創
(56)【参考文献】
【文献】特開2018-147035(JP,A)
【文献】特開2008-044612(JP,A)
【文献】特開2004-351977(JP,A)
【文献】特開2014-206888(JP,A)
【文献】特開2016-051920(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/09
G08G 1/16
G06T 1/00
(57)【特許請求の範囲】
【請求項1】
先行車両及び後続車両を伴う複合現実シーンを提供する方法であって、
コンピュータの1以上のプロセッサによって前記後続車両のドライバーに対して一連の複合現実画像を提示することであって、前記一連の複合現実画像における少なくとも1つの画像が、(a)前記先行車両に搭載されるカメラによってキャプチャされる画像と、(b)前記後続車両に搭載されるカメラによってキャプチャされる画像とをマージして統合画像を生成することから生じること、を含み、
マージすることは、前記後続車両に搭載されるカメラによってキャプチャされる前記画像の遮蔽部分であって前記先行車両による遮蔽に対応する遮蔽部分を目立たせないようにすることと、前記先行車両に搭載されるカメラによってキャプチャされる前記画像の遮蔽されていない部分を強調することと、を含み、
1以上の検知される状態に応じて、
コンピュータの1以上のプロセッサによって前記後続車両の前記ドライバーに提示される前記一連の複合現実画像の複合現実コンテンツを中止又は低減し、前記1以上の検知される状態は:
前記先行車両と前記後続車両との間のオブジェクトの検知を含み、前記統合画像において、前記オブジェクトのビューは、前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を目立たせなくすること及び前記先行車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽されていない部分を強調することの結果として、潜在的にマスクされる、
方法。
【請求項2】
前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を目立たせなくすること及び前記先行車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽されていない部分を強調することは、
前記後続車両に搭載される前記カメラによってキャプチャされる前記画像と前記先行車両に搭載される前記カメラによってキャプチャされる前記画像とを融合することを含む、請求項1に記載の方法。
【請求項3】
前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を目立たせなくすること及び前記先行車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽されていない部分を強調することは、
前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を、前記先行車両によってキャプチャされる前記画像の前記遮蔽されていない部分に置き換えることを含む、請求項1に記載の方法。
【請求項4】
前記一連の複合現実画像の前記複合現実コンテンツの低減は、前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を強調することと、前記先行車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽されていない部分を目立たせないようにすることとを含む、請求項1に記載の方法。
【請求項5】
前記1以上の検知される状態は、前記先行車両に関連付けられるブレーキ状態の検知を更に含む、請求項1に記載の方法。
【請求項6】
前記1以上の検知される状態は、前記後続車両によって行われる少なくとも1つの関連操作の検知を更に含み、
前記少なくとも1つの関連操作は、追い越し操作、右折、中間ブロック横断歩道イベント、又は予期されない先行車両停止から選ばれる、
請求項1に記載の方法。
【請求項7】
前記1以上の検知される状態は、前記先行車両に搭載される前記カメラ及び前記後続車両に搭載される前記カメラに関連付けられる不適切なカメラアラインメントの検知を更に含む、請求項1に記載の方法。
【請求項8】
前記1以上の検知される状態は、候補先行車両が前記後続車両の前方に位置しないことの検出を更に含む、請求項1に記載の方法。
【請求項9】
前記一連の複合現実画像の複合現実コンテンツの中止又は低減は、
前記統合画像において、前記先行車両と前記後続車両との間の前記オブジェクトの描写を提示することを含む、請求項1に記載の方法。
【請求項10】
前記先行車両と前記後続車両との間の前記オブジェクトの前記描写は、
前記先行車両と前記後続車両との間の前記オブジェクトを含む前記統合画像における領域を定めることと、
前記定められる領域において、前記先行車両によってキャプチャされる画像の前記遮蔽されていない部分の代わりに、前記先行車両と前記後続車両との間の前記オブジェクトの前記描写を提示することと、
によって提示される、請求項9に記載の方法。
【請求項11】
先行車両及び後続車両を伴う複合現実シーンを提供する装置であって、
電子制御ユニッ
トと、
ディスプレイと、を備え、
前記
電子制御ユニットは、前記後続車両のドライバーに対する提示のための一連の複合現実画像を生成するように構成され、前記
電子制御ユニットは、(a)前記先行車両に搭載されるカメラによってキャプチャされる画像及び(b)前記後続車両に搭載されるカメラによってキャプチャされる画像をマージして統合画像を生成することによって、前記一連の複合現実画像結果における少なくとも1つの画像を生成するように構成され、
マージすることは、前記後続車両に搭載されるカメラによってキャプチャされる前記画像の遮蔽部分であって前記先行車両による遮蔽に対応する遮蔽部分を目立たせないようにすることと、前記先行車両に搭載されるカメラによってキャプチャされる前記画像の遮蔽されていない部分を強調することと、を含み、
1以上の検知される状態に応じて、前記後続車両の前記ドライバーに提示される前記一連の複合現実画像の複合現実コンテンツを中止又は低減し、前記1以上の検知される状態は、
前記先行車両と前記後続車両との間のオブジェクトの検知を含み、前記統合画像において、前記オブジェクトのビューは、前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を目立たせなくすること及び前記先行車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽されていない部分を強調することの結果として、潜在的にマスクされ、
前記ディスプレイは、前記後続車両の前記ドライバーに対して前記一連の複合現実画像を提示するように構成される、装置。
【請求項12】
前記
電子制御ユニットは、
前記後続車両に搭載される前記カメラによってキャプチャされる前記画像と前記先行車両に搭載される前記カメラによってキャプチャされる前記画像とを融合することによって、
前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を目立たせなくするように及び前記先行車両によってキャプチャされる前記画像の前記遮蔽されていない部分を強調するように構成される、請求項11に記載の装置。
【請求項13】
前記
電子制御ユニットは、
前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を、前記先行車両によってキャプチャされる前記画像の前記遮蔽されていない部分に置き換えることによって、
前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を目立たせなくするように及び前記先行車両によってキャプチャされる前記画像の前記遮蔽されていない部分を強調するように構成される、請求項11に記載の装置。
【請求項14】
前記
電子制御ユニットは、前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を強調し、前記先行車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽されていない部分を目立たせないようにすることによって、前記一連の複合現実画像の前記複合現実コンテンツを低減するように構成される、請求項11に記載の装置。
【請求項15】
前記1以上の検知される状態は、前記先行車両に関連付けられるブレーキ状態の検知を更に含む、請求項11に記載の装置。
【請求項16】
前記1以上の検知される状態は、前記後続車両によって行われる少なくとも1つの関連操作の検知を更に含む、請求項11に記載の装置。
【請求項17】
前記1以上の検知される状態は、前記先行車両に搭載される前記カメラ及び前記後続車両に搭載される前記カメラに関連付けられる不適切なカメラアラインメントの検知を更に含む、請求項11に記載の装置。
【請求項18】
前記
電子制御ユニットは、
前記統合画像において、前記先行車両と前記後続車両との間の前記オブジェクトの描写を提示することによって、
前記一連の複合現実画像の複合現実コンテンツを中止又は低減するように構成される、請求項11に記載の装置。
【請求項19】
前記先行車両と前記後続車両との間の前記オブジェクトの前記描写は、
前記先行車両と前記後続車両との間の前記オブジェクトを含む前記統合画像における領域を定めることと、
前記定められる領域において、前記先行車両によってキャプチャされる画像の前記遮蔽されていない部分の代わりに、前記先行車両と前記後続車両との間の前記オブジェクトの前記描写を提示することと、
によって提示される、請求項11に記載の装置。
【請求項20】
インストラクションを含むコンピュータ読み取り可能記憶媒体であって、当該インストラクションがコンピュータの1以上のプロセッサによって実行される場合に、前記1以上のプロセッサに以下のことをさせる:
後続車両のドライバーに対して一連の複合現実画像が提示され、前記一連の複合現実画像における少なくとも1つの画像が、(a
)先行車両に搭載されるカメラによってキャプチャされる画像及び(b)前記後続車両に搭載されるカメラによってキャプチャされる画像をマージして統合画像を生成することから生じ、
マージすることは、前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の遮蔽部分であって前記先行車両による遮蔽に対応する遮蔽部分を目立たせないようにすることと、前記先行車両に搭載されるカメラによってキャプチャされる前記画像の遮蔽されていない部分を強調することと、を含み、
1以上の検知される状態に応じて、前記後続車両の前記ドライバーに提示される前記一連の複合現実画像の複合現実コンテンツを中止又は低減し、前記1以上の検知される状態は、
前記先行車両と前記後続車両との間のオブジェクトの検知を含み、前記統合画像において、前記オブジェクトのビューは、前記後続車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽部分を目立たせなくすること及び前記先行車両に搭載される前記カメラによってキャプチャされる前記画像の前記遮蔽されていない部分を強調することの結果として、潜在的にマスクされる、
コンピュータ読み取り可能記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
開示の態様は、複合現実に関連し、より具体的には、車両のドライバーに「シースルー」機能を提供することに関連する。先行車両が後続車両の前にある場合には、先行車両が後続車両のドライバーの視界を遮ることがよくある。これは安全ではない状態につながる可能性がある。複合現実は、先行車両を透視して先行車両に遮られたオブジェクトを見えるようにする能力をシミュレートする眺望を後続車両のドライバーに提供することにより、そのような問題に対処するための効果的な解決策として提案されている。ただし、そのようなシースルー機能を安全かつ効果的に提供するには、多くの課題が生じる。
【発明の概要】
【0002】
先行車両と後続車両とを伴う複合現実シーンを提供するためのある実施形態が説明される。一実施形態において、システムは、一連の複合現実画像を後続車両のドライバーに提示してもよく、それにおいて一連の複合現実画像の少なくとも1つの画像は、(a)先行車両に搭載されるカメラによってキャプチャされた画像と、(b)後続車両に搭載されるカメラによってキャプチャされた画像と、をマージして、統合画像を生じさせることによってもたらされる。そのマージは、後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分であって、先行車両による遮蔽に対応する遮蔽部分を目立たせないようにすることと、先行車両に搭載されたカメラによってキャプチャされた画像の非遮蔽部分を強調することとを含んでもよい。1又は複数の検出される状態に応答して、システムは、後続車両のドライバーに提示される一連の複合現実画像の複合現実コンテンツを中止又は低減することができる。特に、1又は複数の検出される状態は、先行車両と後続車両との間のオブジェクトの検出を含んでもよく、統合画像において、後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分を目立たせないようにすること及び先行車両に搭載されたカメラによってキャプチャされた画像の非遮蔽部分を強調することの結果として、オブジェクトのビューが潜在的にマスクされる。
【0003】
一実施形態において、後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分の目立たせないようにすることと、先行車両によってキャプチャされた画像の非遮蔽部分の強調とは、後続車両に搭載されたカメラによってキャプチャされた画像と、先行車両に搭載されたカメラによってキャプチャされた画像とをブレンドすることを含んでもよい。
【0004】
別の実施形態において、後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分の目立たせないようにすることと、先行車両によってキャプチャされた画像の非遮蔽部分の強調とは、後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分を先行車両によってキャプチャされた画像の非遮蔽部分に置き換えることを含んでもよい。
【0005】
一連の複合現実画像の複合現実コンテンツの減少は、後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分を強調することと、先行車両に搭載されたカメラによってキャプチャされた画像の非遮蔽部分を目立たせないようにすることとを含んでいてもよい。
【0006】
更に、1又は複数の検出される状態は、先行車両に関連するブレーキ状態の検出を更に含んでいてもよい。1又は複数の検出される状態は、後続車両によって実行される少なくとも1つの関連する操作の検出を更に含んでいてもよい。その少なくとも1つの関連する操作は、追い越し操作、右折、中間ブロック横断歩道イベント、又は予期しない先行車両の停止から選択されてもよい。その1又は複数の検出される状態は、先行車両に搭載されたカメラ及び後続車両に搭載されたカメラに関連する不適切なカメラアラインメントの検知を更に含んでいてもよい。その1又は複数の検出される状態は、候補先行車両が後続車両の前に配置されていないことの決定を更に含んでいてもよい。最後に、その1又は複数の検出される状態は、シースルー機能をサポートするためのカメラを備えた車両が近くに見つからないことの決定を更に含んでいてもよい。
【0007】
様々な実施形態によれば、統合画像において、一連の複合現実画像の複合現実コンテンツを中止又は減少させることは、先行車両と後続車両との間のオブジェクトの表現を提示することを含む。先行車両と後続車両との間のオブジェクトの表現は、(1)先行車両と後続車両との間のオブジェクトを含む統合画像における領域を定めること及び(2)定められた領域において、先行車両によってキャプチャされた画像の非遮蔽部分の代わりに、先行車両と後続車両との間のオブジェクトの表現を提示すること、によって提示されてもよい。一実施形態において、先行車両と後続車両との間のオブジェクトを含む統合画像におけるその領域は、先行車両と後続車両との間のオブジェクトの輪郭に従うように定められる。別の実施形態において、先行車両と後続車両との間のオブジェクトを含む統合画像におけるその領域は、バウンディングボックスとして定められる。例えば、バウンディングボックスは長方形の形状を有してもよい。
【図面の簡単な説明】
【0008】
開示の態様が例として示される。添付の図において、同様の参照番号は同様の要素を示す。
【
図1】
図1は、先行車両を透視する能力をシミュレートする、後続車両のドライバーに提示される複合現実画像を示す。
【
図2】
図2は、発明の一実施形態による、先行車両及び後続車両を伴うシースルー複合現実を実行するために使用されるハードウェアコンポーネントの概要を提示する。
【
図3】
図3は、発明の一実施形態による、先行車両と後続車両とを伴うシースルー複合現実を生成するための全体的なプロセスにおけるステップを示すフローチャートである。
【
図4A】
図4Aは、先行車両を透視するための複合現実ビューで使用される悪いカメラアラインメントが物理的世界を誤って表現しうるシナリオを示す。
【
図4B】
図4Bは、
図4Aに示される複合現実シーンがキャプチャされて提示された後の現実世界の道路シーン瞬間の画像である。
【
図5】
図5は、物理世界の別の不実表現において、先行車両と後続車両との間に物理的に位置するオブジェクトが、先行車両を透視するための複合現実ビューでマスクされうるシナリオを示す。
【
図6】
図6は、一実施形態による、後続車両のドライバーに表示するためのシースルー複合現実機能を自動的に有効化及び無効化するためのプロセスを示すフローチャートである。
【
図7A】
図7A、7B及び7Cは、ある実施形態による、シースルー機能をサポートするための良好及び悪いカメラアラインメントの様々なシナリオを示す。
【
図7B】
図7A、7B及び7Cは、ある実施形態による、シースルー機能をサポートするための良好及び悪いカメラアラインメントの様々なシナリオを示す。
【
図7C】
図7A、7B及び7Cは、ある実施形態による、シースルー機能をサポートするための良好及び悪いカメラアラインメントの様々なシナリオを示す。
【
図8A】
図8A、8B、8C及び8Dは、開示の実施形態による、先行車両と後続車両との間に位置するオブジェクトの、先行車両を透視する複合現実ビューにおいてそのようなオブジェクトを可視化するような提示を示す。
【
図8B】
図8A、8B、8C及び8Dは、開示の実施形態による、先行車両と後続車両との間に位置するオブジェクトの、先行車両を透視する複合現実ビューにおいてそのようなオブジェクトを可視化するような提示を示す。
【
図8C】
図8A、8B、8C及び8Dは、開示の実施形態による、先行車両と後続車両との間に位置するオブジェクトの、先行車両を透視する複合現実ビューにおいてそのようなオブジェクトを可視化するような提示を示す。
【
図8D】
図8A、8B、8C及び8Dは、開示の実施形態による、先行車両と後続車両との間に位置するオブジェクトの、先行車両を透視する複合現実ビューにおいてそのようなオブジェクトを可視化するような提示を示す。
【
図9】
図9は、一実施形態によって実施されうる電子制御ユニット(ECU)の一例の内部構成要素のブロック図である。
【発明を実施するための形態】
【0009】
ここで、いくつかの例示的な実施形態が、これの一部を成す添付図面を参照して、説明される。開示の1又は複数の態様が実施される特定の実施形態が以下に説明される一方で、他の実施形態が使用されてもよく、開示の範囲又は添付の特許請求の範囲の精神から逸脱することなく様々な修正が行われてもよい。
【0010】
図1は、先行車両を透視する能力をシミュレートする、後続車両のドライバーに提示される複合現実画像を示す。ここで、先行車両102は横断歩道で停車されている。
図1は、後続車両(図示せず)のドライバーの視点からの図を示し、当該後続車両は、先行車両102の真後ろに位置し、同じ方向を向いている。歩行者104が横断歩道を渡っている。しかしながら、あるシナリオでは、後続車両のドライバーは歩行者104を見ることができず、それはそれらが先行車両102によって遮蔽される、すなわち視界から遮られるためである。これは、潜在的に安全ではない運転状態を示す。例えば、後続車両のドライバーが、歩行者104が横断歩道を横断していることに気づかず、待ちきれなくなった場合、後続車両のドライバーは、先行車両の周りに進もうと試みるかもしれず、そのことは歩行者104に衝突する可能性がある状況につながりうる。
図1は、歩行者が視界から遮られつつ、他の車両、動物、又は他の移動オブジェクト又は静止オブジェクトも先行車両のために視界から遮られるうる状況を示す。先行車両が後続車両の視界を遮ることによって引き起こされる安全ではない状況は、必ずしも横断歩道に限定されるものではなく、駐車場、交差点、道路などの他の場所で発生する可能性がある。
【0011】
このシナリオ及び同様のシナリオに対処するために、複合現実画像106を、先行車両を「透視」するように後続車両のドライバーに提示することができる。複合現実画像106は、後続車両のフロントガラスに統合され、後続車両の「ヘッドアップ」ディスプレイ等として実装される、後続車両のダッシュボードに取り付けられるディスプレイに、提示されることができる。例えば、ディスプレイは、液晶ディスプレイ(LDC)、ヘッドマウントディスプレイ(HUD)、又は他の拡張現実(AR)ディスプレイであってもよい。複合現実画像106は、後続車両のドライバーに提示されるビデオストリームを構成する一連の複合現実画像の一部として又は単一の画像、例えば静止フレーム、として、提示されることができる。様々な実施形態において、複合現実画像の生成及び提示は、最小のタイムラグに関連付けられ、その結果、ビデオストリームは、ライブビデオストリームと見なされてもよく、後続車両のドライバーによって、運転中の効果的な視覚補助として使用されてもよい。
【0012】
複合現実画像106は、先行車両に搭載されたカメラからキャプチャされた画像を、後続車両に搭載されたカメラからキャプチャされた画像とマージして、統合画像を形成することによって生成されることができる。様々な実施形態において、複合現実画像106は、シースルー領域108を含んでいてもよい。シースルー領域108の外側で、複合現実画像106は、単純に、後続車両に搭載されたカメラによってキャプチャされた画像と同じであってもよい。シースルー領域108の内側で、複合現実画像106は、後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分を強調し、先行車両によってキャプチャされた画像の非遮蔽部分を目立たせないようにすることによって、形成されてもよい。後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分は、先行車両による遮蔽に対応する画像の一部であってもよい。例えば、遮蔽部分は、先行車両によって占められる画像における領域(又はそのような領域の一部)として定められてもよい。
【0013】
目立たせないようにすること及び強調することは、異なる方法で実施されてもよい。
図1に示す実施形態では、目立たせないようにすること及び強調することは、後続車両に搭載されたカメラによってキャプチャされた画像と、先行車両に搭載されたカメラによってキャプチャされた画像とをブレンドすることによって、達成される。そのような画像ブレンドは、様々なデジタル合成技術を使用して実行されてもよい。ほんの一例として、アルファブレンドを使用したデジタル合成が実行されてもよい。画像の異なる部分は、異なる重みを使用して組み合わせられてもよい。また、その組み合わせのために勾配が使用されてもよい。例えば、
図1において、画像の中央領域は第1ブレンド係数(例えば、「アルファ_1」と呼ばれる定数)に関連付けられてもよく、画像の外側ボーダーでの領域は第2ブレンド係数(例えば、「alpha_2」と呼ばれる定数)に関連付けられてもよい。ほんの一例として、ブレンド係数は、画像の外側境界での領域と中央の領域との間で、alpha_1からalpha_2に直線的に増加してもよい。別の実施形態において、目立たせないようにすること及び強調することは、後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分を、先行車両に搭載されたカメラによってキャプチャされた画像の非遮蔽部分と単に置き換えて、統合画像のシースルー領域108を形成することによって達成される。
【0014】
図2は、発明の一実施形態による、先行車両及び後続車両を伴うシースルー複合現実を実行するために使用される様々なハードウェアコンポーネントの概要を提示する。ここで、先行車両202と後続車両222が示される。先行車両202は、1又は複数のカメラ204、ビデオ電子制御ユニット(ECU)206、及びテレマティクス及び全地球測位システム(GPS)ECU208を含む様々なデバイスであって、車両データバス210に全てが結合される様々なデバイスを装備してもよい。後続車両222は、1又は複数のカメラ224、光検出及び測距(LIDAR)及び/又は無線検出及び測距(RADAR)検出器226、ディスプレイ228、ビデオECU230、及びテレマティクス及びGPS ECU232を含む様々なデバイスであって、車両データバス234に全てが結合される様々なデバイスを装備してもよい。ビデオECU206又はテレマティクス及びGPS ECU208などのECUは、ここに記載される特定のタスクを実行するためのプログラムされたインストラクションを実行するためのコードを実行する1又は複数のプロセッサを含んでいてもよい。またECUは、様々な機能をサポートするために、ビデオコンポーネント、通信コンポーネント、位置決めコンポーネント(例えばGPS)などのハードウェアコンポーネントを組み込んでもよい。例示的なECUに関する更なる詳細は、
図8に示され、本開示の後のセクションで議論される。
【0015】
先行車両202及び後続車両222に搭載されたこれらのコンポーネントは、データを通信して、複合現実シーン、例えば「シースルー」ビデオストリーム、を構築するように一緒に働いてもよく、当該複合現実シーンは後続車両のドライバーに提示される。先行車両202に搭載されたカメラ204は、後続車両222のドライバーに「シースルー」ビューを提供することができ、その結果、そうでなければ視界から遮られるであろう車両の前方のオブジェクトが見えるようになる。先行車両202に搭載される、カメラ204からのロー画像は、車両データバス210を介してビデオECU206に転送されてもよい。ここで、ビデオECU206は、適切なカメラビューを選択するか、いくつかのカメラ204のビューをつなぎ合わせて、先行車両202によって提供される画像を形成してもよい。示されるように、ビデオECU206は、車両データバス210上に別個のデバイスとして実装される。しかしながら、代替の実施形態では、ビデオECU206は、1又は複数のカメラ204の一部であってもよいし、或いは、テレマティクス及びGSP ECU208に統合されてもよい。また他の代替の実装も、
図2に示されるコンポーネントにとって可能である。
【0016】
先行車両202と後続車両222との間の接続は、先行車両202に搭載されたテレマティクス及びGPS ECU208と、後続車両222に搭載されたテレマティクス及びGPS ECU232によって提供されてもよい。例えば、先行車両202によって提供される画像は、テレマティクスとGPU ECU208及び232との間に確立された車両間(V2V)通信リンクを介して転送されてもよい。WLAN V2V(DSRC)、セルラーV2V、Li-Fiなど、さまざまなタイプのV2Vリンクが確立されうる。また、先行車両202と後続車両222との間の接続は、必ずしもV2V通信に制限されない。代替的に又は追加的に、2つの車両間の接続は、車両-ネットワーク間(V2N)通信を使用して確立されてもよく、例えば、中間ノードを介してデータを転送してもよい。
【0017】
後続車両222において、同様のコンポーネント(例えば、1つ以上のカメラ224、ビデオECU230、テレマティクス及びGPS ECU232など)、及び、LIDAR及び/又はRADAR検出器226及びディスプレイ228を含む追加のコンポーネントが、配備されてもよい。後続車両222に搭載されたLIDAR及び/又はRADAR検出器226は、後続車両222に対する相対的な先行車両202の位置の正確な決定を容易にする。相対位置の決定は、いくつかの点で役立ちうる。例えば、先行車両202の正確な相対位置が使用されて、先行車両がV2V通信を確立するための正しいパートナーであることを確認してもよい。適切な状況下で「シースルー」機能を有効又は無効にするため、及び、シースルービデオストリームを形成するように2台の車両からの画像を重ね合わせる方法を制御するため、先行車両202の正確な相対位置が使用されてもよい。後続車両222に搭載されたビデオECU230は、先行車両202からの画像と後続車両222からの画像とのマージを実行して、シースルービデオストリームを生成してもよい。最後に、シースルービデオストリームが、ディスプレイ228上で後続車両のドライバーに提示される。
【0018】
図3は、発明の実施形態による、先行車両と後続車両とを伴うシースルー複合現実を生成するための全体的なプロセスにおけるステップを示すフローチャートである。ここで、プロセス300は、ステップ302~310を含む。ステップ302において、先行車両は、カメラ利用可能性ブロードキャスト(camera availability broadcast)を実行する。これは、先行車両が「シースルー」機能をサポートするために利用可能なカメラを所有していることをアナウンスするブロードキャストであってもよい。ブロードキャストメッセージの内容は:時間、GPS位置、速度、進行方向、車両物理的寸法(例えば長さ、幅、高さ)、カメラ情報(例えばX、Y、X取り付け位置、方向、視野情報)など、を含んでもよい。そのブロードキャストは、WLAN(DSRC)、セルラー、Li-Fi、又は他のV2V通信チャネルなどの1つ以上のリンクを使用して、ブロードキャスト通信の範囲内の他の車両に送信される。代替的に又は追加的に、先行車両は、上記にリストアップされるようなデータを含むそのカメラ利用可能性を、4G又は5Gセルラーネットワーク接続などの無線リンクを使用して、レジストリに、例えばクラウドサーバーに、登録してもよい。レジストリは、車両位置とカメラ利用可能性情報を集めて、直接V2V通信範囲にいない車両などの他の車両によってデータが検索されることを可能にする。ステップ302は、先行車両に搭載されたECUによって、例えばビデオECU及び/又はテレマティクス及びGPS ECUによって、実行されてもよい。
【0019】
ステップ304で、後続車両は、先行車両カメラ利用可能性を検出してもよい。例えば、後続車両は、「シースルー」機能をサポートするために利用可能なすべての近くの車両カメラシステムに関して、利用可能なデータソースを、例えばレジストリを、獲得してもよい。これは、後続車両の現在のGPS座標に基づいてクラウドから受信したリストとしうるものであり、又は、それは、近くの車両であって当該近くの車両のブロードキャストが後続車両によって受信されるような近くの車両の、集められたリストとしうるものである。前述のように、そのようなブロードキャストは、DSRC、セルラー、Li-Fi、又はその他のV2V通信チャネルなどのリンクを介して、受信されてもよい。次に、後続車両は、それ自身のGPS位置及び方向を、カメラの利用可能性を示している近くの車両のGPS位置及び方向と比較してもよい。コンパス方向、相対方位、距離などの測定値の差を計算することにより、利用可能なカメラを備えた近くの車両のリストが、後続車両の前にいる可能性のあるカメラを備えた候補車両のより制限されたリストに絞り込まれることができる。次に、後続車両に搭載されるLIDAR及び/又はRADAR検出器からの読み取り内容が使用されて、先行車両であると仮定された車両が実際に後続車両の真正面にあることを選択及び確認してもよい。例えば、利用可能なカメラを備えた候補車両が100メートル離れて、20mphで走行しているが、後続車両のLIDAR及び/又はRADAR検出器が、後続車両の前の車両が実際には50メートル離れて30mphで走行していることを示す場合、候補車両は潜在的な先行車両として拒否されうる。別の実施形態において、候補車両のナンバープレート番号が、後続車両の前にいる車両のナンバープレートと比較されて、選択を検証してもよい。ステップ304は、後続車両に搭載されたECUによって、例えばビデオECU及び/又はテレマティクス及びGPS ECUによって、実行されてもよい。
【0020】
ステップ306において、後続車両は、先行車両のビデオストリームの送信を要求してもよく、先行車両は、要求されたビデオストリームを送信してもよい。後続車両が、それが利用可能なカメラを備えた先行車両を実際に追跡していることを検出した場合、後続車両は、先行車両のビデオストリームの要求を送信してもよい。一実施形態において、後続車両は、V2Vベースのビデオ要求を先行車両に直接送信する。これは、後続車両のテレマティクス及びGPS ECUから先行車両のテレマティクス及びGPS ECUに送信された要求であってもよい。別の実施形態において、後続車両は、クラウドベースのビデオ要求をレジストリに、例えばサーバーに、送信する。IPアドレスなどのビデオストリームを要求する方法についてのデータは、先行車両のGPSレコードとともにクラウドに保存されてもよい。次に、後続車両は、先行車両に、追従距離、方向、所望のカメラビュー、好ましい通信プロトコル、信号強度に基づく交渉されたビデオ品質、などのビデオ要求のためのコンテキスト情報を提供してもよい。それに応じて、先行車両は、要求されたビデオストリームを後続車両に送信してもよい。先行車両は、後続車両によって提供されるコンテキスト情報に基づいてそれを行い、後続車両に送信されるビデオストリームをカスタマイズしてもよい。先行車両は、利用可能な通信帯域幅や信号強度などのファクターに基づいて、伝送のためのビデオ品質と圧縮率を調整してもよい。更に、先行車両は、後続車両の後続距離などの情報に基づいて、後続車両のニーズによりよく一致するようにビデオストリームの視野を(例えば複数のカメラを使用して)拡大し又はトリミングしてもよい。例えば、後続車両が非常に接近している場合、死角をなくすように先行車両はより広い視野を必要とするかもしれない。したがって、先行車両は、複数の前方及び側面カメラからのビューを組み合わせて、後続車両用にカスタマイズされたビデオストリームを作成することを決定してもよい。別の例として、後続車両が比較的遠くにあり、それによって関心領域が前方方向に狭い視野のみである場合、先行車両は、後続車両のニーズに応えるように、より高い解像度又はビットレートでより狭い視野のビデオストリームを提供することによって応答してもよい。このようにして、先行車両は、後続車両に関する適切なビデオストリームを提供することによって要求に応答してもよい。後続車両は、先行車両のビデオストリームを受信してもよい。先行車両ビデオストリームに関する要求を行うこと及びビデオストリームを受信することなどのステップ306のある部分は、後続車両に搭載されたECU、例えばビデオECU及び/又はテレマティクス及びGPS ECU、によって実行されうる。要求に応答すること、先行車両ビデオストリームを生成すること、及び先行車両ビデオストリームを送信することなどのステップ306の他の部分は、先行車両に搭載されたECU、例えばビデオECU及び/又はテレマティクス及びGPS ECU、によって実行されうる。
【0021】
ステップ308において、先行車両及び後続車両ビデオストリームは、「シースルー」ビデオストリームを形成するようにマージされる。先行車両及び後続車両によって見られる現実をミックスする「シースルー」ビデオストリームを形成する一連の統合画像を生成するように、先行車両ビデオストリームにおける各画像は、後続車両のビデオストリームからの対応の画像上にオーバーレイされてもよい。前述のように、デジタル合成などの画像を融合するための技術もまた、ある実施形態において使用されうる。先行車両からの第1画像と後続車両からの第2画像とを一緒にマージすること又はつなぎ合わせることは、特徴が適切に整列されうるように、第1画像及び第2画像を適切にシフトすること、サイジングすること、及び/又は歪ませることを含んでいてもよい。このプロセスは、既知の先行車両及び後続車両カメラ情報、両車両に関する既知のGPS情報、及び先行車両の位置に関する後続車両のLIDAR及び/又はRADAR情報などの、車両及びカメラ位置及び向き情報を考慮してもよい。ステップ308は、後続車両に搭載されたECU、例えばビデオECU及び/又はテレマティクス及びGPS ECU、によって実行されうる。
【0022】
ステップ310において、「シースルー」ビデオストリームは、後続車両のドライバーに対して表示される。結果として得られる複合現実ビデオストリームは、後続車両のドライバーの視点と一致するビューを提供する。マージされたビデオストリームは、LCD、HUD、又はその他の拡張現実(AR)ディスプレイなどのユーザーインターフェイス上で、後続車両のドライバーに対して表示されてもよい。複合現実ビューの描写は、様々な方法で実行されることができる。一例において、先行車両は、後続車両のドライバーに提示される複合現実シーンから完全に「消失」しうる。別の例では、先行車両は、後続車両のドライバーに提示される複合現実シーンにおいて部分的に透明なオブジェクトとして現れうる。別の例では、先行車両は、後続車両のドライバーに提示される複合現実シーンにおいての輪郭としてのみ現れうる。更に別の例では、視点が後続車両のものから先行車両のものに移ったという印象を観察者(後続車両のドライバー)に与えるように、動的ビデオ視点遷移を使用して、複合現実シーンが先行車両に「ズームイン」するか或いは先行車両を「フライスルー」するように見えてもよい。ステップ310は、後続車両に搭載されたECU、例えばビデオECU及び/又はテレマティクス及びGPS ECU、によって実行されうる。
【0023】
図4Aは、先行車両を透かして見るための複合現実ビューで使用される悪いカメラアラインメントが物理的世界を誤って表現しうるシナリオを示す。
図4Aは、後続車両の視点から見た複合現実シーンを提示する。このシーンにおいて、先行車両402は交差点で左折している。2人の歩行者が、交差点の角の第1の場所404で、先行車両402の前に、立っている。先行車両402の旋回操作により、先行車両に搭載されたカメラと後続車両に搭載されたカメラとの位置がズレすぎている。そのため、先行車両のカメラから撮影された画像は、後続車両のカメラからの対応の画像と一緒に、適切にマージされること又はつなぎ合わせられることができない。先行車両及び後続車両に搭載されたカメラからの画像の強制的なマージは、複合現実シーン内の場所406における同じ歩行者のコピー、つまり「二重画像」、を表す統合画像をもたらしうる。その統合画像は、現実の世界に実際に存在する(つまり2人の歩行者)よりも多くの歩行者(つまり4人の歩行者)を示しているため、これは現実の不実表示である。
【0024】
別の例として、同じずれの問題は、
図4Aの統合画像をもたらし、現実世界道路シーンでの関連する車両を分かりにくくして関連する車両の場所を間違えて、後続ドライバーにとって潜在的な安全上の危険を作り出す。ここで、シルバー車両のゴースト画像が統合画像における場所408に現れうる。シルバー車両は実際には、場所408ではなく、現実の世界に存在する。代わりに、シルバー車両は実際には先行車両の前に位置するが、
図4Aにおいて先行車両によってビューからブロックされている。実際、シルバー車両は先行車両に面しており、左折しようとしている。ただし、先行車両に搭載されたカメラと後続車両に搭載されたカメラとの間の位置ずれのため、「シースルー」複合現実シーンの統合画像は、場所408におけるシルバー車両のゴースト画像を生成する。まず、ゴースト画像は、カメラの位置ずれの重大度が、マージに先立つ2つのカメラからの画像を適切にシフトすることを不可能にするので、誤った場所、すなわち場所408、にシルバー車両を提示する。適切な位置合わせがない強制されたマージは、シーン内において間違った位置に現れるシルバー車両のゴーストイメージを、結果としてもたらす。第2に、マージアルゴリズムが、シルバー車両を含む先行車両によってキャプチャされた画像の部分を目立たせないため、ゴースト画像はかすかに現れ、これは、それが「シースルー」領域の外側にあるからであり、このケースにおいて当該「シースルー」領域が先行車両によって占められる画像の部分である。したがって、シルバー車両のかすかな、誤って配置されたゴースト画像が、場所408に現れる。これは、後続車両のドライバーに対して提示されるべきではない現実の不実表示である。
【0025】
図4Bは、
図4Aに示される複合現実シーンがキャプチャされて提示された後の現実世界道路シーン瞬間の画像である。
図4Bに見られるように、シルバー車両は実際に先行車両に面しており、左折しようとしている。
図4Bは、シルバー車両が現実世界において場所410にあることを示す。これは、
図4Aに示される複合現実シーンがシルバー車両の存在及び位置の両方を誤って伝えることを明確に示し-実際、
図4Aによって描かれたシーンにおいて場所408には車が存在しない。したがって、後続車両のドライバーへの
図4Aに示される複合現実シーンの提示は、避けられるべき危険な不実表示を作り出す。
【0026】
図5は、現実世界の別の不実表示において、先行車両を透かして見るための複合現実ビューにて、先行車両と後続車両との間に物理的に位置するオブジェクトがマスクされることができるシナリオを示す。
図5は、後続車両の視点から見た複合現実シーンを示す。そのシーンにおいて、先行車両502は、目に見える輪郭(緑)によって表される。ただし、シースルー機能が有効になっているため、先行車両はシーンから「消えて」おり、先行車両の前にトロリーカー504などのオブジェクトを示す。トロリーカー504の画像は、先行車両502に搭載されたカメラによってキャプチャされ、後続車両によってキャプチャされた画像とマージされる。ここで、歩行者506は、先行車両502と後続車両との間に物理的に位置する。しかしながら、
図5に示されるように、後続車両のドライバーに提示された統合画像は、先行車両502を「消滅」させる過程で、歩行者506も効果的に「消滅」させる。これはマージプロセスの結果として生じ、当該マージプロセスにおいて(1)後続車両のカメラによってキャプチャされた画像の一部を目立たせない、(2)先行車両502のカメラによってキャプチャされた画像の対応の部分が強調され、及び(3)画像の2つの部分がオーバーレイされる。
図5に示される統合画像に頼って、後続車両のドライバーは、先行車両502と後続車両との間に何もないと誤って結論付けるかもしれない。停止する理由がないので、後続車両のドライバーは前進して歩行者506とぶつかるかもしれない。したがって、統合画像は、現実の更に別の危険な不実表示を作り出す。
【0027】
図6は、一実施形態による、後続車両のドライバーに対する表示のため「シースルー」複合現実機能を自動的に有効化及び無効化するためのプロセス600を示すフローチャートである。前に示したように、シースルー機能が後続車両のドライバーの安全性を高めるのに役立ちうるある状況がある。ただし、「シースルー」機能が現実を誤って表現して実際に危険になる状況もある。したがって、プロセス600で提示されるもののような技術は、ある状態の検出に基づいて、自動的に、それが後続車両のドライバーにとって有益であるであろう場合にはシースルー機能を有効にし、それが有益でない場合にはその機能を無効にしてもよい。
【0028】
ステップ602で、「シースルー」機能の提供をサポートするために近くのカメラが利用可能であるかどうかを決定するように、チェックが実行される。前述のように、これは様々な方法で後続車両によって行われてもよく、当該様々な方法は、(1)シースルー機能をサポートするために利用可能なカメラを持つことを通知する先行車両から直接的にブロードキャストメッセージを受信すること、及び/又は、(2)そのような機能をサポートするカメラを備えた近くの車両のレジストリから、例えばクラウドサーバーから、レコードのリストを受信すること、を含む。カメラ利用可能性メッセージ又は記録は、候補先行車両が後続車両にとって適切な先行車両であることを確認するのに有用なデータと、そうでなければシースルー機能が有効にされるべきか無効にされるべきかを決定するのに有用なデータと、を含んでもよい。そのようなデータは、例えば、次のものを含んでもよい:
・時間、
・GPS位置(緯度、経度)
・速度、加速、ブレーキフラグ
・向かう方向/進行方向
・車両サイズ情報(長さ、幅、高さ)
・カメラ取り付け情報(X、Y、Z、取り付け位置)
・カメラ方向及び視野情報
シースルー機能をサポートするカメラを備えた車両が近くに見つからない場合、プロセス600は、自動的に機能を無効にするステップ614に進む。それ以外の場合、プロセス600は次のチェックステップに進む。
【0029】
ステップ604において、候補先行車両の位置及び向きが、それが実際に後続車両の直前の車両であることを示しているかどうかを決定するように、チェックが実行される。単なる一例として、許容範囲限度内で候補先行車両が後続車両の前にあることの信頼のレベルを達成するため、そのチェックは、(例えばGPS読み取り値からの)後続車両から候補先行車両への相対方位が(例えばまたGPS読み取り値からの)後続車両の進行方向と一致するかどうかを評価すること、を含んでもよい。別の例として、そのチェックは、候補先行車両が後続車両に搭載された前方センサ(例えばLIDAR、RADAR及び/又はカメラ)によって検知されるかどうか、を決定することを含んでいてもよい。別の例として、そのチェックは、GPS位置から計算された候補先行車両と後続車両との間の距離を、後続車両に搭載される前方センサ(例えば、LIDAR、RADAR、及び/又は1又は複数のカメラ)から計算されるような候補先行車両と後続車両との間の距離と、比較することを含んでいてもよい。その比較は、そのような距離間の差が許容可能な許容限度内にあるかどうかを評価しうる。別の例として、そのチェックは、候補先行車両によって報告される速度を、後続車両に搭載された前方センサを使用して検知されるような候補先行車両の速度と比較することを含んでもよく、その比較は、そのような速度間の差が許容可能な許容限度内であるかどうかを評価してもよい。更に別の例として、そのチェックは、経時的なGPSトレースに基づいて決定されるように、候補先行車両及び後続車両が道路の同じ車線を走行しているかどうかを評価することを含んでいてもよい。ステップ604の結果として、候補先行車両の位置及び向きが、それが後続車両の直前の車両ではないことを示す場合、プロセス600はステップ614に進み、シースルー機能を自動的に無効にする。それ以外の場合、プロセス600は次のチェックステップに進む。
【0030】
ステップ606で、先行車両に搭載されたカメラと後続車両に搭載されたカメラとが整列しているかどうかを決定するように、チェックが実行される。ここで、適切な整列は、カメラが正確に同じ方向を向いていること又は2つの車両が完全に整列されていることを、必ずしも必要とはしなくてもよい。むしろ、整列されているということは、カメラが、それらの位置、角度、及び視野の観点から相対的な向きの許容範囲内にあることを意味しうる。これに関してカメラの適切な整列は、後述される
図7A、7B、及び7Cに関してより詳細に説明される。例えば、ステップ606において、シースルー機能をサポートするように先行車両カメラ及び後続車両カメラが整列されているかどうかを、それらの車両の位置及びそれらのカメラのそれぞれの視野のオーバーラップを考慮して、決定するために、後続車両は、(1)(例えばGPS読み取り値からの)車両の向き及び相対的な方位、(2)(例えばLIDAR及び/又はRADARなどの前方センサによって測定されるような)先行車両距離、及び(3)(例えば先行車両からの又はクラウドベースサーバーなどのレジストリからのV2Vブロードキャストによって提供されるような)カメラ情報、などの情報を使ってもよい。更に、先行車両及び後続車両のそれぞれのカメラが整列から外れようとしているのかどうかをより迅速に予測するために、後続車両も先行車両のステアリング角度にアクセスしてもよい。これは、システムがシースルー機能をより迅速に有効又は無効にすることを可能にしうる。ステップ606の結果として、カメラの位置合わせが不適切であるか又は不適切になりそうな場合には、プロセス600はステップ614に進んで、シースルー機能を自動的に無効にする。それ以外の場合、プロセス600は次のチェックステップに進む。
【0031】
ステップ608で、様々な関連する車両操作が検知される。シースルー機能は、これらの特定の車両操作で役立ちうる。したがって、以下に提供される非網羅的なリストで識別された関連操作のいずれかが検出された場合、システムは、シースルー機能を有効にするためにプロセスが進行することを可能にしうる:
・ 追い越し-後続車両は、例えば車線道路において、より遅い先行車両の後ろにおり、通過状況が適切である。
・ 右折-後続車両は先行車両の後ろにあり、(例えば、後続車両に伝えられうる右折信号によって示されているように)当該先行車両は右折することが意図されている。ここでは、交通や横断歩道が原因で先行車両が停止されてもよい。シースルー機能は、後続車両が先行車両の前方を横断する交通や歩行者を見ることを可能にする。これは、後続車両のドライバーが、先行車両が停止される理由を理解することを助けることができ、それによってドライバーの側における焦りを和らげ、安全でないドライバーの反応(例えば先行車両を追い越すことの試み)を潜在的に防ぐ。
・中間ブロック横断歩道-道路における歩行者やその他の障害物のため、先行車両がブロックの中央(すなわち交差点ではない)で停止するようになる。シースルー機能は、後続車両のドライバーが歩行者や障害物を見て、先行車両が停止される理由を理解するのを助けるに役立ちうるものであり、それによってドライバーの焦りを和らげ、安全でないドライバーの反応を潜在的に防ぐ。
・あらゆる予期しない先行車両の停止後-予期しないあらゆる先行車両の停止は、シースルー機能が役立ちうる状況でありうる。例えば、後続車両が安全に停止した後、後続車両のドライバーが先行車両の前方のものを確認してその停止の理由を理解するのを助けるように、シースルービューが表示されてもよい。
・自動化された車両隊-後続車両は自動化された車両隊の一部である。隊における複数車両は、非常に近い距離で互いに追従していてもよい。シースルー機能は、後続車両のドライバーが隊の前方まで先行する車両を透視することを可能にしうる。
【0032】
様々な関連する車両操作は、ECUなどの機器、及び、カメラ、LIDAR及び/又はRADARなどのセンサを使用して、後続車両によって検出されてもよい。コンピュータービジョン/機械学習技術も採用されうる。別の実施形態において、車両は、ドライバーから、操縦(例えば追い越しなど)を実行する彼/彼女の意図についての入力を受けてもよい。ステップ608の結果として、関連する車両操作のいずれも検出されない場合、プロセス600はステップ614に進み、シースルー機能を自動的に無効にする。それ以外の場合、プロセス600は次のチェックステップに進む。
【0033】
ステップ610において、オブジェクトが先行車両と後続車両との間に来ているかもしれないかどうかを決定するように、チェックが実行される。そのようなオブジェクトは、シースルー機能によって潜在的にマスクされうるものであり、それによって
図5に関して前に説明され述べられたように(及び
図8A~8Dに関して説明したように)、危険な状態を作り出す。シースルー機能は、先行車両と後続車両との間に位置する例えば歩行者などのオブジェクトを「消失」させることにより、そのような状況において現実を誤って表現するかもしれない。したがって、後続車両は、例えば1又は複数のカメラ、LIDAR及び/又はRADAR検出器などのセンサを使用することによって、先行車両と後続車両との間の空間を監視ししうる。オブジェクトが検出された場合又は新しいオブジェクトが車両間のスペース内に移動した場合、プロセスはステップ614に進み、シースルー機能を自動的に無効にして安全性を向上させる。それ以外の場合、プロセス600は次のチェックステップに進む。
【0034】
ステップ612で、先行車両がブレーキをかけられているかどうかを決定するように、チェックが実行される。
図5に関して前述したように、シースルー機能はまた、先行車両の前方のシーンのビューを提供するために、先行車両を「消失」させうる。ただし、先行車両がブレーキをかけている場合は、そうすることが安全ではないかもしれない。そのようなシナリオにおいて、後続車両のドライバーは、先行車両がブレーキをかけていることに注意喚起される必要がある。先行車両を「消失させること」は、安全ではないかもしれない。シースルー複合現実画像(例えば
図5)に頼って、後続車両のドライバーは、先行車両のブレーキライトが作動していること又は先行車両の画像が近接してすぐに近くになることなど、先行車両がブレーキをかけていることを示す視覚的合図を奪われうる。したがって、先行車両がブレーキをかけている場合、シースルー機能を無効にすることがより安全かもしれない。様々な実施形態によれば、先行車両が急にブレーキをかけているかどうかを決定する様々な方法がありえ、それらは個別に又は組み合わせて使用されうる:
・ 先行車両V2V速度データ-前述のように、先行車両は、現在の速度、加速度、ブレーキフラグなどのそのステータス情報を、送信してもよい。これは、例えば、V2V通信リンクを介して行われてもよい。後続車両は、そのようなステータス情報を受信してもよく、それを使用して、先行車両ブレーキが例えば減速閾値などの閾値を超えたかどうかを決定してもよい。
・ 後続車両前方センサデータ-前方センサを使用して、後続車両は先行車両の速度、距離、及び加速度を監視してもよい。そのような情報は、先行車両ブレーキがしきい値を超えているかどうかを決めるように使用されることができる。
・ ビデオベースのブレーキライト又は迫り来る距離測定-後続車両に搭載された1又は複数のカメラは画像をキャプチャするように使用されてもよく、ブレーキライトアクティブ化や素早く接近する又は迫り来るオブジェクトなどの先行車両ブレーキの兆候を監視するように、当該画像は、コンピュータービジョン技術/機械学習技術を使用して処理されることができる。そのような視覚ベースの技術は、先行車両ブレーキがしきい値を超えているかどうかを決めるように、使用されることもできる。
【0035】
ステップ612の結果として、先行車両がブレーキをかけていることが検出される場合、プロセスはステップ614に進み、シースルー機能を自動的に無効にする。それ以外の場合、プロセス600はステップ616に進み、シースルー機能を自動的に有効にする。
【0036】
図6に明示的に示されていないが、プロセス600は、リストされた条件が自動的にシースルー機能を有効又は無効にすることを繰り返しチェックするように、ループで動作されてもよい。例えば、既存のステップ614において、プロセス600は、ステップ602に戻って、条件をチェックするための様々なステップを繰り返してもよい。同様に、既存のステップ616において、プロセス600は、ステップ602に戻って、条件をチェックするための様々なステップを繰り返してもよい。プロセス600は、このやり方でループで繰り返し実行されうる。プロセス600において上記のステップは、少なくとも1つの実施形態によれば、後続車両に搭載された機器によって実行されうる。例えば、ステップ602~ステップ616は、後続車両に搭載されたECUによって、例えばビデオECU及び/又はテレマティクス及びGPS ECUによって、実行されてもよい。
【0037】
「有効」及び「無効」という用語は、ここでは広い意味で使用される。例えば、シースルー機能を無効にすることは、先行車両と後続車両によってキャプチャされた画像のマージを中止して、後続車両によってキャプチャされた画像のみを提示することを含みうる。あるいは、シースルー機能を無効にすることは、提示される画像の複合現実コンテンツを減らすことを含みうる。提示された画像は、先行車両によってキャプチャされた画像による寄与をあまり強調せずに、引き続きマージされてもよい。例えば、先行車両のカメラからの画像の一部が強調されてもよく、後続車両のカメラからの画像の一部が強調されてもよく、その2つの画像部分が統合画像を作り出すように融合されてもよい。そのような1又は複数の統合画像の提示は、先行車両の前方のビューが強調されていないため、シースルー機能を「無効」にすることを構成してもよい。同様に、シースルー機能を有効にすることは、後続車両によって見られるようなビューの一部が先行車両によって見られるようなビューの一部によって完全に置換される統合画像を、提示することを含んでいてもよい。あるいは、シースルー機能を有効にすることは、先行車両によってキャプチャされる画像の寄与を強調するように提示される画像の複合現実コンテンツを増大することを含んでいてもよい。例えば、先行車両のカメラからの画像の一部が強調されてもよく、後続車両のカメラからの画像の一部を目立たせないようにしてもよく、その2つの画像部分が融合されて統合画像を作り出してもよい。そのような1又は複数の統合画像の提示は、先行車両の前方のビューが強調されているため、シースルー機能を「有効にすること」を構成しうる。
【0038】
図7A、7B、及び7Cは、ある実施形態による、シースルー機能をサポートするための良好な及び悪いカメラアラインメントの様々なシナリオを示す。前に説明したように、先行車両に搭載されたカメラ及び後続車両に搭載されたカメラの適切なアラインメントは、シースルー機能を有効にする際又は無効にする際に用いられる条件となりうる。適切なアラインメントは、カメラがまったく同じ方向を向くことを必ずしも必要とはしないかもしれない。むしろ、整列されているということは、カメラが、それらの位置、角度、及び視野の観点から相対的な向きの許容範囲内にあることを意味しうる。少なくとも1つの実施形態によれば、適切なカメラアラインメントは、後続車両の視点から、先行車両の存在によって定められる遮蔽の画角が先行車両のカメラの画角と完全にオーバーラップされる場合に、達成されうる。そのような状態は、完全なマージ領域が統合画像において形成されることを可能にする。例としてのさらなる説明が以下に提供される。
【0039】
図7Aは、一実施形態による、良好なカメラアラインメントの例を示す。後続車両の視点から、遮蔽の画角702は、先行車両によって遮蔽される角度範囲として定められる。先行車両に搭載されたカメラの画角704及び後続車両に搭載されたカメラの画角706も示される。ここで、遮蔽の画角702は、先行車両のカメラの画角704と完全に重なっている。したがって、複合現実画像は、完全にマージされた領域で構築されることができる。換言すれば、後続車両のカメラによってキャプチャされた画像の遮蔽部分は、先行車両のカメラによってキャプチャされた画像の非遮蔽部分によって、完全にオーバーラップされうる(そして潜在的に置き換えられうる)。したがって、本実施形態によれば、シースルー機能をサポートするように適切なカメラアラインメントが達成される。
【0040】
図7Bは、一実施形態による、良好なカメラアラインメントの別の例を示す。ここで、
図7Aにおけるのとは異なり、先行車両は、後続車両の真正面にいない。代わりに、先行車両は後続車両に対してわずかにオフセットされている。それにもかかわらず、このオフセット位置にもかかわらず、遮蔽の画角702は、先行車両のカメラの画角704によって完全にオーバーラップされる。複合現実画像は、完全にマージされた領域によって構築されることができる。したがって、本実施形態によれば、シースルー機能をサポートするように適切なカメラアラインメントが達成される。
【0041】
図7Bは、一実施形態による、悪いカメラアラインメントの例を示す。ここで、先行車両は重要な旋回操作を実行し、それによって遮蔽の画角702が、先行車両のカメラの画角704によってもはや完全にはオーバーラップされない。複合現実画像が構築されるとすると、それは不完全なマージ領域を有することになるであろう。換言すれば、後続車両のカメラによってキャプチャされた画像の遮蔽部分は、先行車両のカメラによってキャプチャされた画像の非遮蔽部分によって完全にはオーバーラップされない(したがって完全には置き換えることができない)かもしれない。したがって、そのカメラアラインメントは、本実施形態によるシースルー機能をサポートすることができない。
【0042】
図8A、8B、8C、及び8Dは、開示の実施形態による、先行車両と後続車両との間に位置するオブジェクトの提示を示し、先行車両を透かして見る複合現実ビューにおいて、そのようなオブジェクトを可視化する。
図8Aは、いかなる複合現実ビューが提示される前の現実世界の道路シーンの画像を示す。その画像は、後続車両に搭載されたカメラによって撮影されうる。
図8Aには、先行車両802が示される。更に、先行車両802と後続車両との間に位置する1又は複数のオブジェクト804も示される。例えば、1又は複数のオブジェクト804は、先行車両802と後続車両との間を歩いた大人及び子供などの歩行者であってもよい。
図8Aにおいて、1又は複数のオブジェクト804は、描写として、例えば単色形状として、示される。あるいは、1又は複数のオブジェクト804はまた、1又は複数のオブジェクト804の実際の画像として示されてもよい。すなわち、1又は複数のオブジェクト802の画像は、後続車両に搭載されたカメラによってキャプチャされるような1又は複数のオブジェクト804の視覚的な詳細を示してもよい。
【0043】
図8Bは、先行車両802と後続車両との間に位置するオブジェクト804のビューを目立たせないようにしうる複合現実画像を示し、その複合現実画像は、
図8Aに示される現実世界の画像に基づく。ここで、複合現実画像は、「シースルー」機能を提供することを意図されており、後続車両のドライバーが先行車両802を透かして見ることを可能にする。前述のように、これは、後続車両によってキャプチャされた画像を先行車両802によってキャプチャされた画像とマージすることによって、達成されることができる。より具体的には、後続車両に搭載されたカメラによってキャプチャされた画像の遮蔽部分は、先行車両802に搭載されたカメラによってキャプチャされた画像の遮蔽されていない部分とマージされる。一実施形態において、これは、第1のバウンディングボックス806を使用して達成される。バウンディングボックス806内に、先行車両によってキャプチャされた画像の一部が示され、そうでなければ後続車両の視点から先行車両802によって遮られていたであろう先行車両802の前方のシーンを明らかにする。バウンディングボックス806の外側には、後続車両によってキャプチャされた画像の部分が示される。
【0044】
図8Bに示される結果として得られた複合現実画像がシースルー機能を提供する一方で、1又は複数のオブジェクト804は「消失」されることができ、そのことは安全ではない状態を作り出しうる。
図8Bに示されるように、複合現実画像は、部分的に1又は複数のオブジェクト804を「消失させた」。しかしながら、バウンディングボックス806及び1又は複数のオブジェクト804の画像に現れる際のサイズに応じて、複合現実画像が1又複数のオブジェクト804を完全に「消失」させることが可能である。後続車両のドライバーが、提示されている複合現実画像に頼って、1又は複数のオブジェクト804が存在しないものと、すなわち後続車両と先行車両802との間に何もないものと、誤って思い込むかもしれないので、この「消失」効果は安全ではないかもしれない。その結果、後続車両のドライバーは、安全な距離を保つことができず、場合によっては、後続車両が1又は複数のオブジェクト804(例えば先行車両802と後続車両との間に位置する歩行者)に衝突することさえも許容するかもしれない。
【0045】
図8Cは、「シースルー」機能を提供する複合現実画像ならびに後続車両と先行車両802との間に位置する1又は複数のオブジェクト804の描写を示す。前述のように、統合画像は、先行車両802によってキャプチャされた画像の非遮蔽部分が提示される第1のバウンディングボックス806を含み、それによって先行車両802を透かして見る能力を提供する。更に、1又は複数のオブジェクト804も検知されて、それらの描写が提示される。1又は複数のオブジェクト804の検知は、様々な方法で実施されうる。前述のように、後続車両は、LIDAR及びRADARセンサ(例えば
図2におけるLIDAR及びRADARセンサ226)及び1又は複数のカメラ(例えば
図2における複数のカメラ224)などの様々なセンサを装備しうる。そのようなセンサ及びカメラは、後続車両と先行車両802との間に位置する1又は複数のオブジェクト804の存在を検知するために使用されうる。後続車両に搭載された演算リソース(例えば
図2のビデオECU230、後述の
図9の処理ユニット910など)が利用されて、1又は複数のオブジェクト804を検知するようにセンサ情報及び画像情報を処理してもよい。様々な実施形態において、オブジェクト検知は、センサデータ、画像データ、及び/又はセンサデータ及び画像データの組み合わせを使用して実行される。
【0046】
そして、1又は複数のオブジェクト804の描写が、複合現実画像において提示される。これは、後続車両と先行車両802との間の1又は複数のオブジェクト804を含む統合画像において領域を定めることによって達成されうる。その定められた領域において、先行車両802によってキャプチャされた画像の遮蔽部分の代わりに、オブジェクト804の描写が提示される。
図8Cに示される実施形態において、定められた領域は、1又は複数のオブジェクト804の輪郭に従う。また、この実施形態では、1又は複数のオブジェクト804の輪郭に従う単色形状が、1又は複数のオブジェクト804の描写として使用される。しかしながら、前述のように、1又は複数のオブジェクト804の実際の画像も描写として使用されうる。
【0047】
一実装において、1又は複数のオブジェクト804の描写の提示をもたらすためのロジックは、以下の通りであってもよい。後続車両と先行車両802との間の1又は複数のオブジェクト804が検知されると、1又は複数のオブジェクト804を含む定められた領域は、第1のバウンディングボックス806と比較される。定められた領域と第1のバウンディングボックス806との間にオーバーラップがある場合、オーバーラップ領域に関してシースルー機能はオフに切り替えられる。そのプロセスは、1又は複数のオブジェクト804を含む定められた領域を回避するために、シースルーウィンドウの形状を単に変更することとしても想定されうる。言い換えれば、先行車両802のビューが提示されるシースルーウィンドウの形状は、1又は複数のオブジェクト804を含む定められた領域を含まない第1のバウンディングボックス806の部分として定められうる。したがって、複合現実画像は、(1)シースルー機能、例えば、先行車両802の前方のシーンのビューを提示する第1のバウンディングボックス806、及び、(2)後続車両と先行車両802との間に位置する1又は複数のオブジェクト804の描写、の両方を提供する。
【0048】
図8Dはまた、「シースルー」機能と、後続車両と先行車両802との間に位置する1又は複数のオブジェクト804の描写との両方を提供するが、より単純な実行を有する複合現実画像を示す。再度、後続車両と先行車両802との間の1又は複数のオブジェクト804を含む領域が定められる。しかしながら、この場合、定められた領域は、オブジェクト804の輪郭に従わない。代わりに、定められた領域は、実行がより簡単な1又は複数の第2のバウンディングボックス808として実行される。
図8Dに示される特定の実施形態では、第2のバウンディングボックス808の各々は、長方形形状を有する。1又は複数のオブジェクト804の描写は、第2のバウンディングボックス808内に提示される。したがって、シースルーウィンドウは、第1のバウンディングウィンドウ806から第2のバウンディングウィンドウ808を引いたものとして形作られうる。少なくとも1つの実施形態によれば、このシースルーウィンドウ内で、統合画像は、先行車両802によってキャプチャされた画像の一部を提示する。このシースルーウィンドウの外側では、統合画像は、後続車両によってキャプチャされた画像の一部を提示する。
【0049】
図9は、一実施形態に従って実装されうる電子制御ユニット(ECU)の例の内部構成要素のブロック図である。例えば、ECU 900は、前述のテレマティクス及びGPS ECU又はビデオECUの実行を表しうる。
図9は、様々な構成要素の一般化された説明を提供することのみを意図されており、当該様々な構成要素のいずれか又はすべてが適切に使用されうることに留意されるべきである。いくつかの例において、
図9に示される構成要素は、単一の物理的デバイスに特定されることができること、及び/又は、様々な物理的な位置に配置されうる様々なネットワークで結ばれたデバイス間に分散されることができること、に留意されうる。
【0050】
ECU900は、バス905を介して電気的に結合されることができる(又はそうでなければ必要に応じて通信されうる)複数のハードウェア要素を含むことが示される。そのハードウェア要素は1又は複数の処理ユニット910を含んでもよく、当該1又は複数の処理ユニット910は、制限なく、1又は複数の汎用プロセッサ、(デジタル信号処理(DSP)チップ、グラフィックスアクセラレーションプロセッサ、特定用途向け集積回路(ASICs)、及び/又は同類のもの)1又は複数の専用プロセッサ、及び/又は他の処理構造又は手段を含むことができる。
図8に示されるように、いくつかの実施形態は、所望の機能に応じて、別個のDSP920を有してもよい。デバイス900はまた、1又は複数の入力デバイスコントローラ970であって、車載のタッチスクリーン、タッチパッド、マイクロフォン、1又は複数のボタン、1又は複数のダイヤル、1又は複数のスイッチ、及び/又は同類のものを、制限なく、制御することができる当該1又は複数の入力デバイスコントローラ970と;ディスプレイ、発光ダイオード(LED)、スピーカー、及び/又は同類のものを制限なく制御することができる1又は複数の出力デバイスコントローラ915と、を含むことができる。
【0051】
ECU900はまた無線通信インターフェース930を含んでもよく、当該無線通信インターフェース930は、モデム、ネットワークカード、赤外線通信デバイス、無線通信デバイス、及び/又はチップセット(Bluetoothデバイス、IEEE 802.11デバイス、IEEE 802.16.4デバイス、WiFiデバイス、WiMaxデバイス、4G、5Gなどを含むセルラー通信設備)などを、制限なく含みうる。無線通信インターフェース930は、ネットワーク、無線アクセスポイント、他のコンピュータシステム、及び/又はここに記載されている他の任意の電子デバイスと、データが交換されることを可能にしてもよい。通信は、無線信号934を送信する及び/又は受信する1又は複数の無線通信アンテナ932を介して実行されることができる。
【0052】
所望の機能に応じて、無線通信インターフェース930は、ベーストランシーバーステーション(例えばセルラーネットワークの基地局)及び/又は1又は複数のアクセスポイントと通信する別個のトランシーバを含むことができる。これらの異なるデータネットワークは、様々なネットワークタイプを含むことができる。更に、ワイヤレスワイドエリアネットワーク(WWAN)は、符号分割多元接続(CDMA)ネットワーク、時分割多重アクセス(TDMA)ネットワーク、周波数分割多元接続(FDMA)ネットワーク、直交周波数分割多元接続(OFDMA)ネットワーク、WiMax(IEEE 802.16)などであってもよい。CDMAネットワークは、cdma2000、広帯域CDMA(W-CDMA)などのような1又は複数の無線アクセス技術(RATs)を実行してもよい。Cdma2000は、IS-95、IS-2000及び/又はIS-856規格を含む。TDMAネットワークは、グローバルシステムフォーモバイルコミュニケーションズ(GSM)、デジタルアドバンストモバイルフォンシステム(D-AMPS)、又はその他のRATを実行してもよい。OFDMAネットワークは、4Gテクノロジー及び5Gテクノロジーを含むLTE、LTE Advancedなどを採用してもよい。
【0053】
ECU900は、1又は複数のセンサコントローラ940を更に含むことができる。そのようなコントローラーは、1又は複数の加速度計、1又は複数のジャイロスコープ、1又は複数のカメラ、1又は複数の磁力計、1又は複数の高度計、1又は複数のマイクロフォン、1又は複数の近接センサ、1又は複数の光センサ、及び同類のものを、制限なく、制御できる。
【0054】
ECU900の実施形態はまた、SPSアンテナ982を使用して1又は複数のSPS衛星から信号984を受信することができる衛星測位システム(SPS)受信機980を含んでいてもよい。SPS受信機980は、従来の技術を使用して、全地球航法衛星システム(GNSS)(例えば、全地球測位システム(GPS))、ガリレオ、グロナス、コンパス、日本の準天頂衛星システム(QZSS)、インドのインド地域航法衛星システム(IRNSS)、中国の北斗、及び/又は同類のものなどのSPSシステムの衛星から、デバイスの位置を抽出することができる。更に、SPS受信機1780は、1又は複数のグローバル及び/又は地域ナビゲーション衛星システムに関連付けられるかそうでなければ使用が可能とされうる様々な補強システム(例えば、衛星ベース補強システム(SBAS))を、使用することができる。限定ではないが例として、SBASは、例えば、広域補強システム(WAAS)、欧州静止ナビゲーションオーバーレイサービス(EGNOS)、多機能衛星補強システム(MSAS)、GPS支援GEO補強ナビゲーション又はGPS及びジオ補強ナビゲーションシステム(GAGAN)、及び/又は同類のものなどの、完全性情報、差分補正など、を提供する1又は複数の補強システムを含んでいてもよい。したがって、ここで使用される場合、SPSは、1又は複数のグローバル及び/又は地域ナビゲーション衛星システム及び/又は補強システムの任意の組み合わせを含みうるものであり、SPS信号は、SPS、SPSのようなもの、及び/又はそのような1又は複数のSPSに関連する他の信号を含みうる。
【0055】
ECU900は、メモリ960を更に含んでもよく、及び/又は、メモリ960と通信してもよい。メモリ960は、プログラム可能、フラッシュ更新可能、及び/又は同類のことが可能な、ローカル及び/又はネットワークアクセス可能なストレージ、ディスクドライブ、ドライブアレイ、光ストレージデバイス、ランダムアクセスメモリ(「RAM」)などのソリッドステートストレージデバイス、及び/又は読み取り専用メモリ(「ROM」)を、制限なく、含むことができる。そのような記憶装置は、様々なファイルシステム、データベース構造、及び/又は同類のものを制限なく含む任意の適切なデータ保存を実行するように、構成されうる。
【0056】
デバイス900のメモリ960はまた、オペレーティングシステム、デバイスドライバ、実行可能ライブラリ、及び/又は1又は複数のアプリケーションプログラムなどのコンピュータ読み取り可能媒体に埋め込まれた他のコードを含むソフトウェア要素(図示せず)を、含むことができ、それは、多様な実施形態によって提供されるコンピュータプログラムを含んでいてもよいし、及び/又は、ここで説明されるような、他の実施形態によって提供されるシステムを構成してもよい。そして、一態様において、そのようなコード及び/又はインストラクションは、説明された方法に従って1又は複数の操作を実行するように汎用コンピュータ(又は他のデバイス)を構成するように及び/又は適応させるように使用されうる。
【0057】
特定の要件に従って実質的な変更が行われうることは当業者には明らかであろう。例えば、カスタマイズされたハードウェアが使用されてもよく、及び/又は、特定の要素がハードウェア、ソフトウェア(アプレットなどのポータブルソフトウェアを含む)、又はその両方において実行されてもよい。更に、ネットワーク入力/出力デバイスなどの他の計算装置への接続が採用されてもよい。
【0058】
添付の図を参照すると、メモリを含むことができる構成要素は、非一時的な機械読み取り可能媒体を含むことができる。ここで使用されるような「機械読み取り可能媒体」及び「コンピュータ読み取り可能媒体」という用語は、機械を特定のやり方で動作させるデータの提供に関与する任意の記憶媒体を指す。上記で提供された実施形態では、様々な機械読み取り可能媒体が、実行のために処理ユニット及び/又は他のデバイスにインストラクション/コードを提供することに関与してもよい。追加的又は代替的に、機械読み取り可能媒体は、そのようなインストラクション/コードを格納及び/又は運ぶために、使用されてもよい。多くの実行において、コンピュータ読み取り可能媒体は、物理的及び/又は有形の記憶媒体である。そのような媒体は、非揮発性媒体、揮発性媒体及び伝送媒体を含むがこれらに限定されない多くの形態をとることができる。コンピュータ読み取り可能媒体の一般的な形態は、例えば、磁気及び/又は光学媒体、パンチカード、ペーパーテープ、穴のパターンを有する他の任意の物理媒体、RAM、PROM、EPROM、FLASH-EPROM、他の任意のメモリチップ又はカートリッジ、以下に説明するキャリア波、又はコンピュータがインストラクション及び/又はコードを読み取ることができる他の任意の媒体を含む。
【0059】
ここで論じられる方法、システム、及びデバイスは例である。様々な実施形態は、必要に応じて、様々な手順又は構成要素を省略、置換、又は追加することができる。例えば、ある実施形態に関して説明される特徴は、様々な他の実施形態において組み合わせられてもよい。実施形態の様々な態様及び要素は、同様のやり方で組み合わせられてもよい。ここで提供される図の様々な構成要素は、ハードウェア及び/又はソフトウェアで具体化されることができる。また、技術は進化しており、したがって、要素の多くは、開示の範囲をそれらの特定の例に限定しない例である。
【0060】
いくつかの実施形態を説明したが、本開示の精神から逸脱することなく、様々な修正、代替構造、及び同等物が使用されてもよい。例えば、上記の要素は、より大きなシステムの構成要素にすぎないかもしれず、他のルールが発明の適用よりも優先されてもよいし、そうでなければ発明の適用を修正してもよい。また、上記の要素が考慮される前、最中、又は後に、いくつかのステップが実行されてもよい。したがって、上記の説明は、開示の範囲を限定しない。