IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ クアルコム,インコーポレイテッドの特許一覧

特表2024-537978車両乗員支援のための車両およびモバイルデバイスインターフェース
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-10-18
(54)【発明の名称】車両乗員支援のための車両およびモバイルデバイスインターフェース
(51)【国際特許分類】
   A61B 5/18 20060101AFI20241010BHJP
   G08G 1/16 20060101ALI20241010BHJP
   B60W 40/08 20120101ALI20241010BHJP
【FI】
A61B5/18
G08G1/16 F
B60W40/08
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024518703
(86)(22)【出願日】2022-10-03
(85)【翻訳文提出日】2024-03-25
(86)【国際出願番号】 US2022077486
(87)【国際公開番号】W WO2023060049
(87)【国際公開日】2023-04-13
(31)【優先権主張番号】17/495,748
(32)【優先日】2021-10-06
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】507364838
【氏名又は名称】クアルコム,インコーポレイテッド
(74)【代理人】
【識別番号】100108453
【弁理士】
【氏名又は名称】村山 靖彦
(74)【代理人】
【識別番号】100163522
【弁理士】
【氏名又は名称】黒田 晋平
(72)【発明者】
【氏名】ジアド・アスガル
(72)【発明者】
【氏名】ウェスリー・ジェームズ・ホランド
(72)【発明者】
【氏名】セイフラー・ハリト・オグズ
(72)【発明者】
【氏名】バラ・ラマサミー
(72)【発明者】
【氏名】レオニード・シェインブラット
【テーマコード(参考)】
3D241
4C038
5H181
【Fターム(参考)】
3D241DD01Z
4C038PP03
4C038PP05
4C038PQ03
5H181AA01
5H181BB04
5H181BB05
5H181BB20
5H181CC03
5H181CC04
5H181CC11
5H181CC12
5H181CC14
5H181FF05
5H181LL01
5H181LL09
5H181LL20
(57)【要約】
システム、方法、および非一時的媒体が、車両乗員支援のための車両およびモバイルデバイスインターフェースのために提供される。例示的な方法は、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することと、車両の乗員の状態を判定することと、乗員の状態および車両の座標系に対するモバイルデバイスの姿勢を示すデータを車両に送信することと、を含むことができる。
【特許請求の範囲】
【請求項1】
装置であって、
メモリと、
前記メモリに結合された1つまたは複数のプロセッサであって、
車両の内部の1つまたは複数の画像に基づいて、前記車両の座標系に対する前記装置の姿勢を判定し、
前記車両の乗員の状態を判定し、
前記乗員の前記状態および前記車両の前記座標系に対する前記装置の前記姿勢を示すデータを前記車両に送信する
ように構成される、装置。
【請求項2】
前記乗員の前記状態が、前記車両を操作することに関する前記乗員の障害を含む、請求項1に記載の装置。
【請求項3】
前記障害が、前記車両の動作および前記車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、前記車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含む、請求項2に記載の装置。
【請求項4】
前記乗員の前記状態を判定するために、前記1つまたは複数のプロセッサが、
前記車両から、前記車両の1つまたは複数のセンサに関連付けられたデータを受信し、
前記車両の前記1つまたは複数のセンサに関連付けられた前記データおよび前記装置の前記姿勢に基づいて、前記乗員の前記状態を判定する
ように構成される、請求項2に記載の装置。
【請求項5】
前記車両の前記1つまたは複数のセンサに関連付けられた前記データが、前記車両の状態および前記車両に関連付けられたイベントのうちの少なくとも1つを示す、請求項4に記載の装置。
【請求項6】
前記車両に関連付けられた前記イベントが、前記車両の経路内のオブジェクトの存在または前記車両の前記経路への閾値近接度、前記車両の前記経路に関連付けられた交通規制、ならびに前記車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったことのうちの少なくとも1つを含む、請求項5に記載の装置。
【請求項7】
前記車両の前記経路内の前記オブジェクトまたは前記車両の前記経路に対する前記閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含む、請求項6に記載の装置。
【請求項8】
前記1つまたは複数のプロセッサが、
前記車両の前記乗員の視線を判定するように構成され、前記乗員の前記状態が前記乗員の前記視線を含み、前記乗員が前記装置に関連付けられる、請求項1に記載の装置。
【請求項9】
前記乗員の前記状態を判定するために、前記1つまたは複数のプロセッサが、
前記装置および前記乗員によって装着されるウェアラブルデバイスのうちの少なくとも1つに関連付けられた1つまたは複数のセンサから前記乗員に関連付けられた1つまたは複数の健康測定値を受信し、
前記1つまたは複数の健康測定値に基づいて前記乗員の前記状態を判定する
ように構成される、請求項1に記載の装置。
【請求項10】
前記1つまたは複数の健康測定値が、心拍数、血圧、体温、ガルバニック皮膚反応、前記乗員の心臓からの電気信号の測定値、前記乗員の脳の電気活動の測定値、目の赤みの量、および瞳孔サイズのうちの少なくとも1つを含む、請求項9に記載の装置。
【請求項11】
前記乗員の前記状態を判定するために、前記1つまたは複数のプロセッサが、
前記乗員の視線が、一定期間にわたって前記車両の前方の道路から離れて集中していることを判定し、
前記乗員の前記視線が、前記一定期間にわたって前記車両の前方の前記道路から離れて集中していることと、前記一定期間が閾値期間を超えるという判定とに基づいて、前記乗員の障害状態を判定する
ように構成される、請求項1に記載の装置。
【請求項12】
前記乗員の前記視線が前記一定期間にわたって前記車両の前方の前記道路から離れて集中していると判定するために、前記1つまたは複数のプロセッサが、
前記乗員の前記視線が前記一定期間の少なくとも一部にわたって、前記装置によってレンダリングされた仮想コンテンツに集中していると判定するように構成される、請求項11に記載の装置。
【請求項13】
前記乗員の前記視線が前記一定期間にわたって前記車両の前方の前記道路から離れて集中していると判定するために、前記1つまたは複数のプロセッサが、
前記乗員の前記視線が前記車両の経路内の障害物の方向または前記車両の前記経路に対する閾値近接度とは異なる方向に集中していると判定するように構成される、請求項11に記載の装置。
【請求項14】
前記1つまたは複数のプロセッサが、
前記乗員の前記状態の指標を、第2の車両、車両インフラストラクチャシステム、前記第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信するように構成される、請求項1に記載の装置。
【請求項15】
前記乗員の前記状態を判定するために、前記1つまたは複数のプロセッサが、
前記装置を装着している前記乗員の視線を判定し、
前記装置の前記姿勢および前記乗員の前記視線に基づいて、前記乗員の前記状態を判定する
ように構成される、請求項1に記載の装置。
【請求項16】
前記装置の前記姿勢を判定するために、前記1つまたは複数のプロセッサが、
前記車両から、前記車両に関連付けられた1つまたは複数のマーカを含む車両テンプレートを受信し、
前記1つまたは複数の画像および前記車両テンプレートに基づいて、前記車両の前記座標系に対する前記装置の前記姿勢を判定する
ように構成される、請求項1に記載の装置。
【請求項17】
前記1つまたは複数のマーカが、前記車両の前記内部内のエリアおよび前記車両の前記内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、前記車両の前記内部の要素、前記車両の前記内部内の表面、ならびに前記車両の内側の照明されたオブジェクトのうちの少なくとも1つを含む、請求項16に記載の装置。
【請求項18】
前記1つまたは複数の画像が前記1つまたは複数のマーカを描写し、前記装置の前記姿勢を判定するために、前記1つまたは複数のプロセッサが、
前記1つまたは複数の画像内の前記1つまたは複数のマーカを検出し、
前記検出された1つまたは複数のマーカおよび前記車両テンプレートに基づいて、前記車両の前記座標系に対する前記装置の前記姿勢を判定する
ように構成される、請求項16に記載の装置。
【請求項19】
前記1つまたは複数のプロセッサが、
前記装置の1つまたは複数の画像センサを使用して、前記車両の前記内部の画像のセットを取得することであって、前記画像のセットが、前記車両に関連付けられた1つまたは複数の視覚ランドマークを描写する、ことと、
前記画像のセットに基づいて、車両テンプレートを生成することであって、前記車両テンプレートが、前記1つまたは複数の視覚ランドマークを含む、ことと
を行うように構成される、請求項1に記載の装置。
【請求項20】
前記装置の前記姿勢を判定するために、前記1つまたは複数のプロセッサが、
前記装置に関連付けられた慣性センサデータを取得し、
前記1つまたは複数の画像および前記慣性センサデータに基づいて、前記装置の前記姿勢を判定する
ように構成される、請求項1に記載の装置。
【請求項21】
前記装置が、ヘッドマウントディスプレイを備える、請求項1に記載の装置。
【請求項22】
方法であって、
車両の内部の1つまたは複数の画像に基づいて、前記車両の座標系に対するモバイルデバイスの姿勢を判定するステップと、
前記車両の乗員の状態を判定するステップと、
前記乗員の前記状態および前記車両の前記座標系に対する前記モバイルモバイルデバイスの前記姿勢を示すデータを前記車両に送信するステップと
を含む、方法。
【請求項23】
前記乗員の前記状態が、前記車両を操作することに関する前記乗員の障害を含む、請求項22に記載の方法。
【請求項24】
前記障害が、前記車両の動作および前記車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、前記車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含む、請求項23に記載の方法。
【請求項25】
前記乗員の前記状態を判定するステップが、
前記車両から、前記車両の1つまたは複数のセンサに関連付けられたデータを受信するステップと、
前記車両の前記1つまたは複数のセンサに関連付けられた前記データおよび前記モバイルデバイスの前記姿勢に基づいて、前記乗員の前記状態を判定するステップと
を含む、請求項23に記載の方法。
【請求項26】
前記車両の前記1つまたは複数のセンサに関連付けられた前記データが、前記車両の状態および前記車両に関連付けられたイベントのうちの少なくとも1つを示す、請求項25に記載の方法。
【請求項27】
前記車両に関連付けられた前記イベントが、前記車両の経路内のオブジェクトの存在または前記車両の前記経路への閾値近接度、前記車両の前記経路に関連付けられた交通規制、ならびに前記車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったステップのうちの少なくとも1つを含む、請求項26に記載の方法。
【請求項28】
前記車両の前記経路内の前記オブジェクトまたは前記車両の前記経路に対する前記閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含む、請求項27に記載の方法。
【請求項29】
前記車両の前記乗員の視線を判定するステップをさらに含み、前記乗員の前記状態が前記乗員の前記視線を含み、前記乗員が前記モバイルデバイスに関連付けられる、請求項22に記載の方法。
【請求項30】
前記乗員の前記状態を判定するステップが、
前記モバイルデバイスおよび前記乗員によって装着されるウェアラブルデバイスのうちの少なくとも1つに関連付けられた1つまたは複数のセンサから、前記乗員に関連付けられた1つまたは複数の健康測定値を受信するステップと、
前記1つまたは複数の健康測定値に基づいて前記乗員の前記状態を判定するステップと
を含む、請求項22に記載の方法。
【請求項31】
前記1つまたは複数の健康測定値が、心拍数、血圧、体温、ガルバニック皮膚反応、前記乗員の心臓からの電気信号の測定値、前記乗員の脳の電気活動の測定値、目の赤みの量、および瞳孔サイズのうちの少なくとも1つを含む、請求項30に記載の方法。
【請求項32】
前記乗員の前記状態を判定するステップが、
前記乗員の視線が、一定期間にわたって前記車両の前方の道路から離れて集中しているステップを判定するステップと、
前記乗員の前記視線が、前記一定期間にわたって前記車両の前方の前記道路から離れて集中しているステップと、前記一定期間が閾値期間を超えるという判定とに基づいて、前記乗員の障害状態を判定するステップと
を含む、請求項22に記載の方法。
【請求項33】
前記乗員の前記視線が前記一定期間にわたって前記車両の前方の前記道路から離れて集中していると判定するステップが、
前記乗員の前記視線が前記一定期間の少なくとも一部にわたって、前記モバイルデバイスによってレンダリングされた仮想コンテンツに集中していると判定するステップと
を含む、請求項32に記載の方法。
【請求項34】
前記乗員の前記視線が前記一定期間にわたって前記車両の前方の前記道路から離れて集中していると判定するステップが、
前記乗員の前記視線が前記車両の経路内の障害物の方向または前記車両の前記経路に対する閾値近接度とは異なる方向に集中していると判定するステップを含む、請求項32に記載の方法。
【請求項35】
前記乗員の前記状態の指標を、第2の車両、車両インフラストラクチャシステム、前記第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信するステップをさらに含む、請求項22に記載の方法。
【請求項36】
前記乗員の前記状態を判定するステップが、
前記モバイルデバイスを装着している前記乗員の視線を判定するステップと、
前記モバイルデバイスの前記姿勢および前記乗員の前記視線に基づいて前記乗員の前記状態を判定するステップと、
を含む、請求項22に記載の方法。
【請求項37】
前記モバイルデバイスの前記姿勢を判定するステップが、
前記車両から、前記車両に関連付けられた1つまたは複数のマーカを含む車両テンプレートを受信するステップと、
前記1つまたは複数の画像および前記車両テンプレートに基づいて、前記車両の前記座標系に対する前記モバイルデバイスの前記姿勢を判定するステップと、
を含む、請求項22に記載の方法。
【請求項38】
前記1つまたは複数のマーカが、前記車両の前記内部内のエリアおよび前記車両の前記内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、前記車両の前記内部の要素、前記車両の前記内部内の表面、ならびに前記車両の内側の照明されたオブジェクトのうちの少なくとも1つを含む、請求項37に記載の方法。
【請求項39】
前記1つまたは複数の画像が前記1つまたは複数のマーカを描写し、前記モバイルデバイスの前記姿勢を判定するステップが、
前記1つまたは複数の画像内の前記1つまたは複数のマーカを検出するステップと、
前記検出された1つまたは複数のマーカおよび前記車両テンプレートに基づいて、前記車両の前記座標系に対する前記モバイルデバイスの前記姿勢を判定するステップと、
を含む、請求項37に記載の方法。
【請求項40】
前記モバイルデバイスの1つまたは複数の画像センサを使用して、前記車両の前記内部の画像のセットを取得するステップであって、前記画像のセットが、前記車両に関連付けられた1つまたは複数の視覚ランドマークを描写する、ステップと、
前記画像のセットに基づいて、車両テンプレートを生成するステップであって、前記車両テンプレートが、前記1つまたは複数の視覚ランドマークを含む、ステップと
をさらに含む、請求項22に記載の方法。
【請求項41】
前記モバイルデバイスの前記姿勢を判定するステップが、
前記モバイルデバイスに関連付けられた慣性センサデータを取得するステップと、
前記1つまたは複数の画像および前記慣性センサデータに基づいて前記モバイルデバイスの前記姿勢を判定するステップと
を含む、請求項22に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、概して、車両乗員支援のためのエクステンデッドリアリティに関する。例えば、本開示の態様は、車両におけるエクステンデッドリアリティのためのビークルトゥデバイスインターフェースに関する。
【背景技術】
【0002】
多くのデバイスおよびシステムは、シーンの画像(またはフレーム)および/またはビデオデータ(複数のフレームを含む)を生成することによって、シーンの取り込みを可能にする。例えば、カメラを有するデバイスは、シーンのフレームのシーケンス(例えば、シーンのビデオ)をキャプチャすることができる。場合によっては、フレームのシーケンスは、他の用途の中でも特に、1つまたは複数の機能のために処理され、表示のために出力され、他のデバイスによる処理および/または消費のために出力され得る。車両は、1つまたは複数のカメラを含み得るデバイスの一例である。例えば、車両は、車両の内部および/または車両の外部のエリアのフレームをキャプチャすることができるカメラを含むことができる。フレームは、他の目的の中でも特に、道路条件を判定または認識すること、車両に近接する他の車両、オブジェクト、歩行者、および/または障害物を識別することなどの様々な目的のために処理することができる。
【0003】
エクステンデッドリアリティ(XR)デバイスは、1つまたは複数のカメラを含むことができるデバイスの別の例である。XRデバイスは、拡張現実(AR)デバイス、仮想現実(VR)デバイス、複合現実(MR)デバイスなどを含むことができる。例えば、ARデバイスの例は、スマートグラスおよびヘッドマウントディスプレイ(HMD)を含む。一般に、ARデバイスは、カメラおよび様々なセンサを実装して、物理環境内のARデバイスおよび他のオブジェクトの位置を追跡することができる。ARデバイスは、追跡情報を使用して、ARデバイスのユーザに現実的なAR体験を提供することができる。例えば、ARデバイスは、ユーザが没入型仮想環境若しくはコンテンツを体験することまたはそれらと対話することを可能にすることができる。現実的なAR体験を提供するために、AR技術は、概して、仮想コンテンツを物理世界と統合することを目的とする。いくつかの例では、AR技術は、オブジェクトおよびデバイスの相対的な姿勢および動きを一致させることができる。例えば、ARデバイスは、追跡情報を使用して、デバイス、オブジェクト、および/または実世界環境のマップの相対姿勢を計算し、デバイス、オブジェクト、および/または実世界環境の相対位置と動きとを一致させることができる。1つまたは複数のデバイス、オブジェクト、および/または実世界環境の姿勢および動きを使用して、ARデバイスは、コンテンツを実世界環境に納得のいく様式で固定することができる。相対姿勢情報は、仮想コンテンツを、ユーザの知覚された動作、ならびにデバイス、オブジェクト、および実世界環境の時空間状態と一致させるために使用され得る。
【発明の概要】
【0004】
拡張現実(AR)デバイスなどのモバイルデバイスを車両の動作と統合するためのシステムおよび技術が、本明細書で説明される。少なくとも1つの例によれば、車両乗員支援のための拡張現実のための方法が提供される。本方法は、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することと、車両の乗員の状態を判定することと、乗員の状態および車両の座標系に対するモバイルの姿勢を示すデータを車両に送信することと、を含むことができる。
【0005】
少なくとも1つの例によれば、車両乗員支援のための拡張現実のための非一時的コンピュータ可読媒体が提供される。非一時的コンピュータ可読媒体は、記憶された命令を含むことができ、命令は、1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイス(例えば、装置)の姿勢を判定させ、車両の乗員の状態を判定させ、乗員の状態および車両の座標系に対するモバイルデバイスの姿勢を示すデータを車両に送信させる。
【0006】
少なくとも1つの例によれば、車両乗員支援のための拡張現実のための装置が提供される。本装置は、メモリと、メモリに結合された1つまたは複数のプロセッサとを含むことができ、1つまたは複数のプロセッサは、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイス(例えば、装置)の姿勢を判定し、車両の乗員の状態を判定し、乗員の状態および車両の座標系に対するモバイルデバイスの姿勢を示すデータを車両に送信する、ように構成される。
【0007】
少なくとも1つの例によれば、車両乗員支援のための拡張現実のための別の装置が提供される。本装置は、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定するための手段と、車両の乗員の状態を判定するための手段と、乗員の状態および車両の座標系に対するモバイルの姿勢を示すデータを車両に送信するための手段と、を含むことができる。
【0008】
いくつかの態様では、上記で説明した方法、非一時的コンピュータ可読媒体、および装置は、1つまたは複数のセンサに関連するデータに基づいて、車両のコンテキストを判定することができる。いくつかの例では、コンテキストは、車両に関連するイベントを含むことができる。
【0009】
いくつかの態様では、上記で説明した方法、非一時的コンピュータ可読媒体、および装置は、車両の乗員の視線を判定することができる。いくつかの例では、乗員の状態は、乗員の視線を含み、乗員は、モバイルデバイス(例えば、乗員はモバイルデバイスを装着している)に関連付けられる。
【0010】
いくつかの例では、乗員の状態は、車両を操作することに関する乗員の障害を含むことができる。場合によっては、障害は、車両の動作および車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含むことができる。
【0011】
場合によっては、乗員の状態を判定することは、車両から、車両の1つまたは複数のセンサに関連付けられたデータを受信することと、車両の1つまたは複数のセンサに関連付けられたデータおよびモバイルデバイスの姿勢に基づいて、乗員の状態を判定することとを含むことができる。いくつかの例では、車両の1つまたは複数のセンサに関連付けられたデータは、車両の状態および車両に関連付けられたイベントのうちの少なくとも1つを示す。
【0012】
いくつかの例では、車両に関連付けられたイベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含むことができる。場合によっては、車両の経路内のオブジェクトまたは車両の経路に対する閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含み得る。
【0013】
場合によっては、乗員の状態を判定することは、モバイルデバイスおよび乗員によって装着されるウェアラブルデバイスのうちの少なくとも1つに関連付けられた1つまたは複数のセンサから、乗員に関連付けられた1つまたは複数の健康測定値を受信することと、1つまたは複数の健康測定値に基づいて乗員の状態を判定することとを含むことができる。いくつかの例では、1つまたは複数の健康測定値は、心拍数、血圧、体温、ガルバニック皮膚反応、乗員の心臓からの電気信号の測定値、乗員の脳の電気活動の測定値、目の赤みの量、および瞳孔サイズのうちの少なくとも1つを含むことができる。
【0014】
いくつかの態様では、乗員の状態を判定することは、乗員の視線が、一定期間にわたって車両の前方の道路から離れて集中していることを判定することと、乗員の視線が、一定期間にわたって車両の前方の道路から離れて集中していることと、期間が閾値期間を超えるという判定とに基づいて、乗員の障害状態を判定することとを含むことができる。
【0015】
場合によっては、乗員の視線が一定期間にわたって車両の前方の道路から離れて集中していると判定することは、乗員の視線が一定期間の少なくとも一部にわたってモバイルデバイスによってレンダリングされた仮想コンテンツに集中していると判定することを含むことができる。
【0016】
いくつかの例では、乗員の視線が一定期間車両の前方の道路から離れて集中していると判定することは、乗員の視線が車両の経路内の障害物の方向または車両の経路に対する閾値近接度とは異なる方向に集中していると判定することを含むことができる。
【0017】
いくつかの態様では、上記で説明した方法、非一時的コンピュータ可読媒体、および装置は、乗員の状態の指標を、第2の車両、車両インフラストラクチャシステム、第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信することができる。
【0018】
場合によっては、乗員の状態を判定することは、モバイルデバイスを装着している乗員の視線を判定することと、モバイルデバイスの姿勢および乗員の視線に基づいて乗員の状態を判定することと、を含むことができる。
【0019】
いくつかの例では、モバイルデバイスの姿勢を判定することは、車両から、車両に関連付けられた1つまたは複数のマーカを含む車両テンプレートを受信することと、1つまたは複数の画像および車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することとを含むことができる。
【0020】
いくつかの例では、1つまたは複数のマーカは、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含むことができる。
【0021】
いくつかの例では、1つまたは複数の画像が1つまたは複数のマーカを描写し、モバイルデバイスの姿勢を判定することは、1つまたは複数の画像内の1つまたは複数のマーカを検出することと、検出された1つまたは複数のマーカおよび車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することと、を含むことができる。
【0022】
いくつかの態様では、上記で説明した方法、非一時的コンピュータ可読媒体、および装置は、モバイルデバイスの1つまたは複数の画像センサを使用して、車両の内部の画像のセットを取得し、画像のセットが、車両に関連付けられた1つまたは複数の視覚ランドマークを描写し、画像のセットに基づいて、車両テンプレートを生成することができる。いくつかの例では、車両テンプレートは、1つまたは複数の視覚ランドマークを含むことができる。
【0023】
場合によっては、モバイルデバイスの姿勢を判定することは、モバイルデバイスに関連付けられた慣性センサデータを取得することと、1つまたは複数の画像および慣性センサデータに基づいてモバイルデバイスの姿勢を判定することとを含むことができる。
【0024】
いくつかの態様では、上述した装置の各々は、モバイルデバイス、ウェアラブルデバイス、カメラシステム、パーソナルコンピューティングデバイスおよび/またはエクステンデッドリアリティ(extended reality、XR)デバイス(例えば、仮想現実(virtual reality、VR)デバイス、拡張現実(augmented reality、AR)デバイス、または複合現実(mixed reality、MR)デバイス)である、それらの一部であってもよい、またはそれらを含むことができる。いくつかの例では、装置は、車両、モバイルデバイス(例えば、携帯電話またはいわゆる「スマートフォン」または他のモバイルデバイス)、ウェアラブルデバイス、パーソナルコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、サーバコンピュータ、ロボティクスデバイスまたはシステム、航空システム、あるいは他のデバイスを含むか、またはそれらの一部であるおよび/またはそれらとインターフェースすることができる。いくつかの態様では、装置は、1つまたは複数の画像をキャプチャするための画像センサ(例えば、カメラ)または複数の画像センサ(例えば、複数のカメラ)を含む。いくつかの態様では、装置は、1つまたは複数の画像、通知、および/または他の表示可能なデータを表示するための1つまたは複数のディスプレイを含む。いくつかの態様では、装置は、1つまたは複数のスピーカ、1つまたは複数の発光デバイス、および/または1つまたは複数のマイクロフォンを含む。いくつかの態様では、上記で説明した装置は、1つまたは複数のセンサを含んでもよい。場合によっては、1つまたは複数のセンサは、装置の姿勢、装置の状態(例えば、追跡状態、動作状態、温度、湿度レベル、および/または他の状態)を判定するために、かつ/または他の目的のために使用することができる。本明細書で使用される場合、姿勢という用語は、座標系に対する装置、センサ、または他の実世界のデバイス若しくは構造の位置および向きを指す。
【0025】
本概要は、特許請求される主題の主要なまたは必須の特徴を特定することは意図されず、特許請求される主題の範囲を決定するために独立して使用されることも意図されない。本主題は、この特許の明細書全体、いずれかまたはすべての図面、および各請求項の適切な部分を参照することによって理解されるはずである。
【0026】
上記のことは、他の特徴および実施形態とともに、以下の明細書、特許請求の範囲、および添付図面を参照すると、より明らかになろう。
【0027】
本出願の説明のための例について、以下の図を参照しながら以下で詳細に説明する。
【図面の簡単な説明】
【0028】
図1】本開示のいくつかの例による、モバイルデバイスのコンピューティングシステムの一例を示す図である。
図2】本開示のいくつかの例による、車両のコンピューティングシステムの一例を示すブロック図である。
図3】本開示のいくつかの例による、車両内位置特定のための例示的なシステムプロセスを示す図である。
図4A】本開示のいくつかの例による、車両乗員支援のための拡張現実のための例示的なシステムプロセスを示す図である。
図4B】本開示のいくつかの例による、車両乗員支援のための拡張現実のための例示的なシステムプロセスを示す図である。
図5】本開示のいくつかの例による、車両の乗員のためにレンダリングされる仮想コンテンツを調整するための例示的なユースケースを示す図である。
図6A】本開示のいくつかの例による、仮想コンテンツを調整するための例示的なユースケースを示す図である。
図6B】本開示のいくつかの例による、仮想コンテンツを調整するための例示的なユースケースを示す図である。
図6C】本開示のいくつかの例による、仮想コンテンツを調整するための例示的なユースケースを示す図である。
図6D】本開示のいくつかの例による、仮想コンテンツを調整するための例示的なユースケースを示す図である。
図6E】本開示のいくつかの例による、仮想コンテンツを調整するための例示的なユースケースを示す図である。
図7A】本開示のいくつかの例による、車両を運転する乗員の異なる例示的な状態を示す図である。
図7B】本開示のいくつかの例による、車両を運転する乗員の異なる例示的な状態を示す図である。
図7C】本開示のいくつかの例による、車両を運転する乗員の異なる例示的な状態を示す図である。
図7D】本開示のいくつかの例による、車両を運転する乗員の異なる例示的な状態を示す図である。
図7E】本開示のいくつかの例による、車両を運転する乗員の異なる例示的な状態を示す図である。
図7F】本開示のいくつかの例による、車両を運転する乗員の異なる例示的な状態を示す図である。
図7G】本開示のいくつかの例による、車両を運転する乗員の異なる例示的な状態を示す図である。
図7H】本開示のいくつかの例による、車両を運転する乗員の異なる例示的な状態を示す図である。
図7I】本開示のいくつかの例による、車両を運転する乗員の異なる例示的な状態を示す図である。
図8】本開示のいくつかの例による、乗員監視イベントを含むビークルトゥエブリシング通信の例を示す図である。
図9】本開示のいくつかの例による、車両を運転する乗員によって装着されたモバイルデバイスによって判定された乗員状態に基づく例示的な車両緩和イベントを示す図である。
図10】本開示のいくつかの例による、車両を運転する乗員によって装着されたモバイルデバイスによって判定された乗員状態に基づく例示的な車両緩和イベントを示す図である。
図11】本開示のいくつかの例による、車両の動作中に仮想コンテンツの提示を制御するための例示的プロセスを示すフローチャートである。
図12】本開示のいくつかの例による、車両の乗員を監視するための例示的なプロセスを示すフローチャートである。
図13】本開示のいくつかの例による、車両の動作を制御するための例示的なプロセスを示すフローチャートである。
図14】本開示のいくつかの例による、車両を、車両の乗員に関連付けられたモバイルデバイスとインターフェースするための例示的なプロセスを示すフローチャートである。
図15】本開示のいくつかの例による、コンピューティングデバイスアーキテクチャの一例を示す図である。
【発明を実施するための形態】
【0029】
本開示のいくつかの態様および実施形態が、以下で提供される。当業者に明らかになるように、これらの態様および実施形態のうちのいくつかが独立して適用されてよく、それらのうちのいくつかは組み合わせて適用されてもよい。以下の説明では、説明の目的のために、本出願の実施形態の完全な理解をもたらすために具体的な詳細が記載される。しかしながら、様々な実施形態がこれらの具体的な詳細なしに実践され得ることが明らかとなろう。図および説明は限定的であることが意図されていない。
【0030】
以下の説明は、例示的な実施形態を提供するにすぎず、本開示の範囲、適用可能性、または構成を限定することを意図しない。むしろ、例示的な実施形態の以下の説明は、例示的な実施形態を実装することを可能にする説明を当業者に提供する。添付の特許請求の範囲に記載されるような本出願の範囲から逸脱することなく、要素の機能および構成において様々な変更が加えられてもよいことを理解されたい。
【0031】
エクステンデッドリアリティ(XR)システムまたはデバイスは、XR体験をユーザに提供するために、ユーザに仮想コンテンツを提供することができ、および/あるいは実世界または物理環境と(仮想コンテンツからなる)仮想環境とを組み合わせることができる。実世界環境は、本、人、車両、建物、テーブル、椅子、および/または他の実世界若しくは物理オブジェクトなどの実世界オブジェクト(物理オブジェクトとも呼ばれる)を含むことができる。XRシステムまたはデバイスは、異なるタイプのXR環境との対話を容易にすることができる(例えば、ユーザは、XRシステムまたはデバイスを使用して、XR環境と対話することができる)。XRシステムは、仮想現実(VR)環境との対話を容易にするVRシステム、拡張現実(AR)環境との対話を容易にするARシステム、複合現実(MR)環境との対話を容易にするMRシステム、および/または他のXRシステムを含むことができる。本明細書で使用される場合、XRシステムおよびXRデバイスという用語は互換的に使用される。XRシステムまたはデバイスの例は、特に、ヘッドマウントディスプレイ(HMD)、スマートグラスを含む。場合によっては、XRシステムは、ユーザが仮想コンテンツのアイテムと対話することを可能にするために、ユーザの部分(例えば、ユーザの手および/または指先)を追跡することができる。
【0032】
ARは、仮想コンテンツまたはコンピュータ生成コンテンツ(ARコンテンツと称される)を、物理的な実世界のシーンまたは環境のユーザの視界にわたって提供する技術である。ARコンテンツは、ビデオ、画像、グラフィックコンテンツ、ロケーションデータ(例えば、全地球測位システム(GPS)データまたは他のロケーションデータ)、音、それらの任意の組み合わせ、および/または他の拡張コンテンツ等の仮想コンテンツを含むことができる。ARシステムまたはデバイスは、現実の人の現在の知覚を置換するのではなく、強化(または拡張)するように設計される。例えば、ユーザは、ARデバイスディスプレイを通して、実際の静止または移動する物理オブジェクトを見ることができるが、物理オブジェクトのユーザの視覚認知は、そのオブジェクトの仮想画像(例えば、DeLoreanの仮想画像によって置換される実世界の車)によって、物理オブジェクトに追加されるARコンテンツ(例えば、生きている動物に追加される仮想翼)によって、物理オブジェクトに対して表示されるARコンテンツ(例えば、建物上の標識の近傍に表示される情報仮想コンテンツ、1つまたは複数の画像内の実世界のテーブルに仮想的に係留される(例えば、その上に配置される)仮想コーヒーカップ等)によって、および/または他のタイプのARコンテンツを表示することによって、拡張または強化されてもよい。様々なタイプのARシステムが、ゲーム、娯楽、および/または他のアプリケーションのために使用され得る。
【0033】
場合によっては、ARコンテンツを提供するために使用することができる2つのタイプのARシステムは、ビデオシースルー(ビデオパススルーとも呼ばれる)ディスプレイおよび光学シースルーディスプレイを含む。ビデオシースルーおよび光学シースルーディスプレイは、実世界または物理オブジェクトのユーザの視覚認知を強化させるために使用されることができる。ビデオシースルーシステムでは、実世界のシナリオのライブビデオが表示される(例えば、ライブビデオ上で拡張または強化された1つまたは複数のオブジェクトを含む)。ビデオシースルーシステムは、モバイルデバイス(例えば、携帯電話ディスプレイ上のビデオ)、HMD、またはビデオおよびコンピュータ生成オブジェクトをビデオの上に表示することができる他の適切なデバイスを使用して実装することができる。
【0034】
AR特徴を伴う光学シースルーシステムは、ARコンテンツを実世界場面のビュー上に直接表示することができる(例えば、実世界シーンのビデオコンテンツを表示することなく)。例えば、ユーザは、ディスプレイ(例えば、眼鏡またはレンズ)を通して実世界シーン内の物理オブジェクトを視認してもよく、ARシステムは、1つまたは複数の実世界オブジェクトの強化された視覚認知をユーザに提供するために、ディスプレイ上にARコンテンツを表示する(例えば、投影または別様に表示される)ことができる。光学シースルーARシステムまたはデバイスの実施例は、ARメガネ、HMD、別のARヘッドセット、またはユーザが物理オブジェクトを伴う実世界シーンを直接見ることを可能にするために、各目の正面のレンズ若しくはガラス(または両眼の上の単一レンズ若しくはガラス)を含むことができる他の類似デバイスであり、また、そのオブジェクトの拡張画像または追加ARコンテンツがディスプレイ上に投影され、ユーザの実世界シーンの視覚認知を強化することを可能にする。
【0035】
VRは、3次元コンピュータ生成VR環境または実世界環境の仮想バージョンを描写するビデオにおける完全な没入型体験を提供する。VR環境は、一見したところ現実的または物理的な方法で相互作用できる。VR環境を体験しているユーザが現実世界において移動するにつれて、仮想環境においてレンダリングされる画像も変化し、ユーザがVR環境内で移動しているという知覚をユーザに与える。例えば、ユーザは、左または右を向き、見上げるかまたは見下ろし、および/あるいは前方または後方に移動し、したがって、VR環境のユーザの視点を変更することができる。ユーザに提示されるVRコンテンツはそれに従って変化することができるので、ユーザの体験は現実世界と同じくらいシームレスである。VRコンテンツは、いくつかの場合には、VRビデオを含むことができ、VRビデオは、極めて高い品質でキャプチャおよびレンダリングされ、真に没入型の仮想現実エクスペリエンスを潜在的に提供することができる。仮想現実の用途例は、特にゲーミング、訓練、教育、スポーツビデオ、オンラインショッピングを含むことができる。VRコンテンツは、VR体験中にユーザの目を完全に覆うVR HMDまたは他のVRヘッドセットなど、VRシステムまたはデバイスを使用してレンダリングおよび表示され得る。
【0036】
MR技術は、VRおよびARの態様を組み合わせて、ユーザに没入型体験を提供することができる。例えば、MR環境では、実世界およびコンピュータ生成オブジェクトは、相互作用することができる(例えば、現実の人物は、仮想人物が現実の人物であるかのように仮想人物と相互作用することができる)。
【0037】
XRデバイス(例えば、拡張現実(AR)または複合現実(MR)デバイス、仮想現実(VR)デバイスなど)、ネットワーキング/通信能力を有するウェアラブルデバイス、スマートフォン、パーソナルコンピューティングデバイスなどの車両およびモバイル(ポータブルおよび/またはウェアラブル)デバイスからのデータ、機能、アクション、および/またはデバイス能力を統合するためのシステム、装置、方法(プロセスとも呼ばれる)、およびコンピュータ可読媒体(本明細書では集合的に「システムおよび技術」と呼ばれる)が本明細書で説明される。いくつかの例では、本明細書に記載されるシステムおよび技術は、XRデバイス(例えば、ARデバイス、MRデバイスなど)および/または車両からのデータおよび/または機能性を使用して車両の乗員に支援を提供することができる。例えば、場合によっては、本明細書で説明されるシステムおよび技術は、拡張現実支援のためのビークルトゥデバイス(例えば、車両・モバイルコンピューティングデバイス間)インターフェースを車両の乗員に提供することができる。
【0038】
いくつかの例では、車両は、車両の内部および/または車両の外部のエリア(例えば、車両周囲)のフレームをキャプチャすることができるカメラを含むことができる。フレームは、とりわけ、道路条件を判定または認識すること、車両内の人(単数または複数)のアイデンティティを認識することと、車両に近接する他の車両、オブジェクト、歩行者、および/または障害物を識別することなどの様々な目的のために処理することができる。車両に関連付けられた環境(例えば、車両の外部の環境、車両の内側の環境など)における活動および/またはイベントを判定および/または認識することなどの様々な目的のために処理することができる。車両はまた、様々な条件を測定および/または判定するための他のタイプのセンサシステムを含むおよび/または実装することができる。例えば、場合によっては、車両は、1つまたは複数の無線検出および測距(RADAR)システム、慣性測定ユニット(IMU)、光検出および測距(LIDAR)システム、超音波センサ、無線周波数(RF)センサ、音響航法および測距(SONAR)システム、電磁検出および測距(EmDAR)システム、音響検出および測距(SODAR)システム、全地球航法衛星システム(GNSS)受信機システム(例えば、1つまたは複数の全地球測位システム(GPS)受信機システム)、加速度計、ジャイロスコープ、速度センサ、赤外線センサシステム、レーザ測距システム、超音波センサシステム、超低周波センサシステム、マイクロフォン、それらの任意の組み合わせ、および/または他のセンサシステムを含む、および/または実装することができる。
【0039】
XRデバイス(例えば、ヘッドマウントディスプレイARデバイス、ARスマートグラス、または他のXRデバイス)などのモバイルデバイスは、画像および/またはビデオをキャプチャすることができる1つまたは複数のカメラを含むこともできる。例えば、ARデバイスは、カメラおよび様々なセンサを実装して、物理環境内のARデバイスおよび他のオブジェクトの位置を判定および/または追跡することができる。ARデバイスは、追跡情報を使用して、ARデバイスのユーザに現実的なAR体験を提供することができる。例えば、ARデバイスは、ユーザが没入型仮想環境若しくはコンテンツを体験することまたはそれらと対話することを可能にすることができる。上述したように、現実的なAR体験を提供するために、AR技術は、概して、仮想コンテンツを物理世界と統合することを目的とする。いくつかの例では、ARデバイスは、1つまたは複数のセンサからの追跡情報を使用して、デバイス、オブジェクト、および/または実世界環境のマップの相対姿勢を計算し、デバイス、オブジェクト、および/または実世界環境の相対位置と動きとを一致させることができる。1つまたは複数のデバイス、オブジェクト、および/または実世界環境の姿勢および動きを使用して、ARデバイスは、コンテンツを実世界環境に納得のいく様式で固定することができる。相対姿勢情報は、仮想コンテンツを、ユーザの知覚された動作、ならびにデバイス、オブジェクト、および実世界環境の時空間状態と一致させるために使用され得る。
【0040】
XRデバイス(例えば、ARデバイス)のユーザは、ユーザが車両内にいる間(例えば、ユーザが車両を運転している間、または車両内の乗客として)、XRデバイスを装着することがある。例えば、場合によっては、ユーザは、車両を操作(例えば、運転)している間にARデバイスを装着し得る。場合によっては、ARデバイスを装着し、車両を操作するユーザ(例えば、運転者)は、例えば、注意散漫等の1つまたは複数の条件によって損なわれ得る。換言すれば、車両を操作するユーザの能力は、そのような条件によって損なわれる可能性がある。注意散漫は、ユーザの外部の原因などの様々なものによって引き起こされ得る。例えば、ユーザは、ARデバイスによってレンダリングされる仮想コンテンツ(例えば、電子メール通知、ワールドロックされた仮想広告板または標識、アプリケーションコンテンツ、ビデオおよび/または画像コンテンツ、インターフェースコンテンツ等)、車両の外部の環境内で発生するオブジェクトおよび/または活動、車両の内側で発生するオブジェクトおよび/またはイベント、車両の他の乗員、思考および/または不注意(例えば、空想等)、音または雑音(例えば、車両の内側および/または外側)、ユーザデバイス等によって注意を逸らされ得る。
【0041】
そのような注意散漫がなくても、車両の乗員(例えば、運転者)は、一般に、他の障害に悩まされる可能性がある。他の障害は、例えば、知覚の制限、注意の制限、実世界のイベントおよび条件、睡眠妨害、中毒、健康状態などの特定の身体的および/または個人的な制限および/または条件を含むことができ、および/またはそれらから生じることができる。例えば、ARデバイスを装着している車両の乗員(例えば、運転者)は、乗員の視点または視野から車両の周囲の特定のエリア/ビュー(例えば、車両の後ろのエリア、車両の下のエリア、車両の外部に近いエリア、1つまたは複数のオブジェクトおよび/または状態(例えば、照明不足など)によって遮られたエリア、車両の上のエリア、車両から特定の距離だけ離れたエリアなど)を見ることが困難な場合がある。さらに、溜まり水、氷、車両の1つまたは複数のライト(例えば、ヘッドライト、フォグランプ、オフロードライト、非常灯、信号灯、日中走行灯、後退灯、テールライト、ブレーキライトなど)の届かない障害物など、特定の道路条件が車両の乗員に見えないか、または見えにくい可能性がある。車両の乗員はまた、通過車両、歩行者、周囲の活動/イベント、ナビゲーション警報などの特定のイベントおよびオブジェクトによって注意を逸らされる可能性がある。場合によっては、そのような障害は、車両を安全に操作するか、または運転条件に対応する運転者の能力を妨げる可能性がある。
【0042】
いくつかの態様では、本明細書で説明されるシステムおよび技術は、車両およびXRデバイス(例えば、ARデバイス)からのデータ、機能、アクション、および/またはデバイス能力を共有/統合するためなど、車両およびXRデバイスが互いにインターフェースすることを可能にすることができる。互いにインターフェースし、データを共有/統合することにより、車両およびXRデバイス(例えば、ARデバイス)は、例えば、車両の運転者/操作者、車両の乗客などの車両の乗員に支援を提供することができる。いくつかの例では、XRデバイス(例えば、ARデバイス)は、車両および/またはXRデバイス上の1つまたは複数のセンサからのデータを使用して、車両内(例えば、車両キャビンなどの車両の内部内)でそれ自体の位置を特定する(その位置および/または向き、一般にその姿勢を判定する)ことができる。場合によっては、XRデバイスは、車両内ランドマーク/マーカ(例えば、車両内のクイックレスポンス(QR)コード(登録商標)、車両内のライト、車両内のオブジェクト(例えば、ドア、窓、座席、ヘッドレスト、ダッシュボード構成要素、車両制御システム(例えば、ハンドル、ホーン、信号伝達システムなど)、車両内のパターン、車両内の形状など)の画像ベース(例えば、視覚ベース)および/またはオーディオベース(例えば、オーディオビームフォーミングを介して)の位置特定を実行することができる位置特定プロセスを実装することができる。位置特定プロセスは、そのような車両内ランドマーク/マーカを使用して、車両内のXRデバイスの位置を特定することができる。例えば、位置特定プロセスは、車両内ランドマーク/マーカを使用して、XRデバイスおよび/または車両の座標系に対するXRデバイスの姿勢を判定することができる。
【0043】
場合によっては、位置特定プロセスは、1つまたは複数のカメラ、無線インターフェース、超音波センサ、レーダなど、XRデバイス(例えば、ARデバイス)上の1つまたは複数のデバイス(例えば、センサ、エミッタ、トランシーバ、撮像デバイスなど)からのデータに基づいて、車両内ランドマークを検出することができる。例えば、1つまたは複数のIMUからの補助センサデータを使用して、XRデバイスの姿勢を追跡することができる。場合によっては、位置特定プロセスは、車両テンプレートを使用して、車両テンプレート内で指定され、上述のように検出された1つまたは複数の車両内ランドマークに対するXRデバイスの位置を判定することができる。例えば、位置特定プロセスは、車両テンプレートを使用して、位置特定のために使用することができる1つまたは複数の車両内ランドマークを識別することができる。場合によっては、車両テンプレートは、1つまたは複数の車両内ランドマークの位置および/または向き情報などの座標を指定することができ、位置特定プロセスは、それを使用して、XRデバイス(例えば、ARデバイス)および/または車両の座標系に対してそれ自体を位置特定することができる。例えば、位置特定プロセスは、上述したような1つまたは複数のデバイス(例えば、センサ、エミッタ、トランシーバなど)からのデータを使用して、車両テンプレートにおいて識別された1つまたは複数の車両内ランドマークを検出することができる。車両テンプレートは、1つまたは複数の車両内ランドマークの座標を指定することができ、これは、車両の座標系に対する1つまたは複数の車両内ランドマークの位置および/または向きを定義することができる。車両テンプレートは、車両固有であってもよいし、車両モデル、仕様、シリーズ、クラス、またはそれらの組み合わせに固有であってもよい。位置特定プロセスは、車両テンプレートにおいて指定された座標を使用して、XRデバイス(例えば、ARデバイス)によって検出された1つまたは複数の車両内ランドマークの、車両の座標系に対する位置および/または向きを判定することができる。位置特定プロセスは、車両の座標系に対する1つまたは複数の車両内ランドマークのロケーションおよび/または向きを、XRデバイスの座標系に対するロケーションおよび/または向きに変換、平行移動、および/または相関させることができる。XRデバイス(例えば、ARデバイス)は、1つまたは複数の車両内ランドマークに関連付けられたロケーション情報および/または向き情報を使用して、車両内の、XRデバイスの座標系および/または車両の座標系に対するXRデバイスの姿勢を理解、判定、および/または追跡することができる。
【0044】
いくつかの態様では、XRデバイスは、車両の状況、乗員の位置/向き、XRデバイスによってレンダリングされる仮想コンテンツ、XRデバイス上の1つまたは複数のカメラを使用する目追跡、慣性センサデータ、オーディオセンサデータ、レーダデータ、無線信号などに基づいて、障害についてユーザを監視することができる運転者監視プロセスなどの乗員監視プロセスを実施することができる。いくつかの例では、XRデバイスは、車両および乗員監視プロセスからの状況に基づいて、仮想コンテンツが乗員(例えば、運転者または乗客)に提示されるのをフィルタリングまたはブロックすることができる仮想コンテンツフィルタリングプロセスを含むことができる。車両ユーザインターフェースプロセスは、例えば、車両および乗員監視プロセスからの状況に基づいて、ユーザインターフェース要素をレンダリングすることができる。
【0045】
場合によっては、車両は、車両、車両の乗員、および/または車両の周囲に関連する状況および/またはイベントを認識および監視することができる車両監視プロセスを実施することができる。車両監視プロセスは、そのような条件/イベントに関するデータを、車両とワイヤレス通信している、例えばペアリングされるXRデバイス(例えば、ARデバイス)に(例えば、ワイヤレス無線リンクを介して)送信することができる。XRデバイスは、乗員監視プロセス、仮想コンテンツフィルタリングプロセス、車両ユーザインターフェースプロセスなどのためにそのようなデータを使用することができる。いくつかの例では、車両は、XRデバイスによって検出された乗員条件および/または活動など、XRデバイスによって生成された乗員(例えば、運転者)監視イベントに基づいて、車両動作および/または自律運転ポリシーを変更することができるイベント緩和プロセスを実施することができる。
【0046】
前述したように、場合によっては、XRデバイス(例えば、ARデバイス)の車両内位置特定プロセスは、XRデバイスが車両内のXRデバイスの姿勢を理解することを可能にすることができる。XRデバイスは、位置特定プロセスを使用して、車両の座標系に対する、および/または車両の座標系内のその姿勢を判定することができる。例えば、車両ベースのセンサおよび/または命令からのデータおよび/またはイベントをレンダリングするために、XRデバイスは、位置特定プロセスを使用して、車両の座標系に対するXRデバイスの姿勢の共通の理解を得ることができる。場合によっては、位置特定プロセスは、車両の座標系からXRの座標系への変換を実行することができる。場合によっては、XRデバイスが車両内で自己位置を特定し、かつ/または車両の内部を3次元(3D)空間にマッピングするのを助けるために、車両は、車両テンプレートをXRデバイスに提供することができる。車両テンプレートは、例えば、限定はしないが、1つまたは複数の車両内ランドマークの視覚記述子、IR記述子、および/またはRF記述子を含むことができる。車両内ランドマークの非限定的な例としては、とりわけ、車両の内部(例えば、キャビン)内のオブジェクトまたはエリア(例えば、キャビン内のオブジェクト/エリア、フロントガラス上のエリア、ダッシュボード上のオブジェクト/エリア、ドア上のオブジェクト/エリア、座席上のオブジェクト/エリアなど)に取り付けられた視覚パターン(例えば、QRコード(登録商標)、チェッカー盤パターンなどの較正パターン、刻印/彫刻、パターン化材料、ラベルなど)、車両の内部内のオブジェクトおよび/またはエリアに取り付けられた能動照明(例えば、発光ダイオード(LED)など)、車両の内部の不動要素(例えば、インストルメントクラスタ、ダッシュボードのコーナー(単数または複数)、窓(単数または複数)および/またはフロントガラスのコーナー(単数または複数)、車両のルーフ、車両のセンターコンソールなど)、車両の本体から既知の位置/オフセットを有する車両の内部の可動要素(例えば、乗客席(単数または複数)、ハンドルなど)を挙げることができる。いくつかの例では、車両テンプレートは、車両の座標系に対する車両内ランドマークのロケーションおよび/または向きを含む/指定することができる。
【0047】
XRデバイス(例えば、ARデバイス)の位置特定プロセスは、車両内ランドマーク/マーカ、視覚記述子、IR記述子、および/またはRF記述子、ならびにロケーション情報および/または向き情報を使用して、車両内ランドマークおよび車両の座標系に対してそれ自体を位置特定することができる。例えば、XRデバイスの1つまたは複数のカメラを使用して、XRデバイスは、位置特定プロセスを実施して、車両テンプレート内で指定された車両内ランドマークを(連続的に)検索し、車両内ランドマークおよび(ひいては)車両に対してそれ自体を位置特定することができる。場合によっては、XRデバイスは、例えば、WiFiデバイス、Bluetoothデバイス、超音波デバイス、IMUなどの他のセンサ/デバイスを使用して、位置特定を支援することもできる。
【0048】
車両監視プロセスは、XRデバイス(例えば、ARデバイス)、車両、および/または1つまたは複数の周囲などの状況を監視することができる。車両監視プロセスは、車両およびその周囲、運転条件、道路条件、車両条件などに関連するイベントを認識することができる。車両監視プロセスは、これらのイベントに関するデータをXRデバイスに送信することができ、XRデバイスは、このデータを、乗員監視プロセス、仮想コンテンツフィルタリングプロセス、車両ユーザインターフェースプロセスなどのために使用することができる。車両監視プロセスによってXRデバイスに提供されるデータの非限定的な例は、計装読み取り値、センサデータ(例えば、カメラデータ、RADARデータ、SONARデータ、SODARデータ、EmDARデータ、GNSSデータ、LIDARデータ、IMUデータ、GPSデータ等)、車両の経路内の条件(例えば、気象条件、交通条件、道路条件等)を示すインターネットデータ、ナビゲーション情報等、を含むことができる。いくつかの例では、センサデータは、XRデバイスに提供される前に、例えば、画像処理、センサ融合、オブジェクト/対象検出等を適用することによって、車両によって前処理されてもよい。いくつかの例では、少なくともいくつかのセンサデータは、XRデバイスに未処理で提供され得る。
【0049】
いくつかの例では、センサデータは、車両の動作状況、車両の運動状態、自律運転ポリシー、車両関連のイベント、例えば、車両部品の誤動作またはセンサトリガ警報、およびそれらの組み合わせ、車両の経路内または車両の経路に近づいてくるオブジェクトまたは障害物の存在(例えば、場合によっては、肯定的および否定的な例で訓練された機械学習分類器を介して判定される)、車両の経路内または車両の経路に近づいてくる歩行者の存在(例えば、場合によっては、肯定的および否定的な例で訓練された機械学習分類器を介して判定される)、車両の経路内の何か(例えば、窪み、事故、動物、道路のでこぼこの部分、車線区分線など)の存在(例えば、場合によっては、肯定的および否定的な例で訓練された機械学習分類器を介して判定される)、車両の経路の後ろまたは近くのオブジェクト(例えば、緊急車両など)の存在(例えば、場合によっては、肯定的および否定的な例で訓練された機械学習分類器を介して判定される)などの車両の状態または状況を示すことができる。場合によっては、センサデータは、車両が車線区分線に違反していること(例えば、場合によっては、正および負の例で訓練された機械学習分類器を介して判定される)、車両が制限速度を超えていること(例えば、場合によっては、車両の速度計および速度制限ゾーンのデータベースに基づいて判定される)などの、車両の経路(例えば、場合によっては、正および負の例で訓練された機械学習分類器を介して判定される)に沿った交通規制(例えば、停止標識、停止灯など)を示すことができる。
【0050】
場合によっては、車両監視プロセスは、XRデバイス(例えば、ARデバイス)ビークルトゥエブリシング(V2X)(例えば、ビークルトゥビークル(V2V)、ビークルトゥインフラストラクチャ(V2I)など)データおよび/またはイベントを提供することができる。車両監視プロセスがXRデバイスに提供することができるV2Xデータの非限定的な例は、車両の経路内の障害物の存在を示すV2Xデータ、車両の経路内または車両に近づいてくる歩行者の存在を示すV2Xデータ、車両の経路内の何か(例えば、窪み、動物、オブジェクトなど)の存在を示すV2Xデータ、車両の経路の後ろまたは近くの緊急車両の存在を示すV2Xデータ、車両の経路に沿った交通規制(例えば、停止標識、停止灯など)の存在を示すV2Xデータ、車両が車線区分線に違反していることを示すV2Xデータ、車両が速度制限を超えていることを示すV2Xデータ、車両の経路内の特定の条件(例えば、気象条件、道路条件、交通条件、事故など)の存在を示すV2Xデータなどを含む。
【0051】
いくつかの例では、乗員監視プロセスは、車両からのイベントデータおよび/または状況情報、XRデバイス(例えば、ARデバイス)によってレンダリングされる仮想コンテンツ、乗員の位置/向き、ユーザ活動(例えば、ジェスチャ、動きなど)、目追跡、慣性センサデータ、オーディオデータ(例えば、発話データ、音響データ、音波など)、ユーザ頭部姿勢などに基づいて、障害についてユーザ/乗員を監視することができる。場合によっては、乗員(例えば、運転者、乗客など)の障害は、XRデバイスによってレンダリングされた仮想コンテンツおよび/または車両状況とは無関係に検出され得る。例えば、場合によっては、乗員障害は、例えば、目追跡、慣性感知、心拍数情報、温度データ等のセンサデータおよび/またはセンサデータ処理を使用して検出されることができる。場合によっては、目追跡、慣性感知、心拍数情報、温度データなどは、眠気、中毒、健康緊急事態(例えば、発作、心臓発作、意識喪失など)、ストレスまたは高まった感情状態、一般的な不注意/注意散漫などを示すことができる(例えば、場合によっては、正例および負例で訓練された機械学習分類器を介して判定される)。場合によっては、障害は、仮想コンテンツ、車両状況情報、および/またはセンサデータの組み合わせを使用して検出することができる。例えば、場合によっては、乗員障害は、乗員の視線が特定の(設定可能な)期間にわたって仮想コンテンツに集中していることを示す目追跡データ、車両イベントモニタが切迫したイベントまたはオブジェクト(例えば、障害物、歩行者、窪み、動物など)を検出したときに乗員の視線が他の場所に集中していることを示す目追跡データ、乗員の視線の光線追跡、車両テンプレート、報告された車両イベントにおけるロケーション情報、乗員の位置および/または動きを示すセンサデータなどに基づいて検出することができる。
【0052】
場合によっては、XRデバイスは、XRデバイスによって乗員に提示される仮想コンテンツを(例えば、仮想コンテンツフィルタリングプロセスおよび/またはユーザインターフェースプロセスを介して)調整/修正することができる。例えば、XRデバイスは、乗員監視プロセスによる乗員が損なわれているという判定、車両監視プロセスからの車両イベントが差し迫っているまたは発生しているという報告、乗員によって要求された仮想コンテンツが、乗員を特定の運転および/または関連イベントから逸らす可能性があるという判定などに応答して、仮想コンテンツを調整することができる。いくつかの例では、XRデバイスは、必要に応じてマークされた仮想コンテンツ(例えば、ヘッドアップディスプレイ(HUD)コンテンツ、車両計装コンテンツなど)のサブセットを除くすべての仮想コンテンツ、乗員が集中している仮想コンテンツの任意の部分(例えば、場合によっては、乗員の視線の光線追跡および/または乗員の視線をキャプチャする画像データに基づいて判定される)、車両イベントを不明瞭にしている任意の仮想コンテンツ(例えば、場合によっては、XRデバイスから車両イベントのロケーションまでの光線追跡、車両テンプレート、および/または報告された車両イベント内の情報に基づいて判定される)などを無効にし、減光し、または透明度を上げることによって、仮想コンテンツを調整することができる。
【0053】
場合によっては、気を逸らす仮想コンテンツを無効にすることに加えて、ARデバイスは、他の仮想コンテンツをレンダリングして、障害のある乗員を目覚めさせ、かつ/または切迫した若しくは発生している車両イベントを強調することができる。いくつかの例では、XRデバイスは、乗員の視野(FOV)のエッジをパルス化し、表示された画像/ビデオ内の車両イベントのロケーションを丸で囲むまたは強調表示し、ヘッドロックされた矢印をレンダリングし、乗員の視界の周囲をパルス化し、他の方向インジケータを使用して乗員の頭部および/または視線を車両イベントの方向に向け、車両カメラフィード(例えば、バックアップカメラ、サイドビューカメラなど)を車両イベントのロケーションの近くにストリーミングし、車両状況(例えば、計装など)をヘッドロックされたHUDまたはワールドロックされたユーザインターフェース(UI)要素としてストリーミングし、車両が透明または半透明に見え、車両イベントが見えるように、車両のエリア(例えば、車両壁など)にロックされた歪みを受けたおよび/またはパースペクティブ補正された外部ビューをレンダリングし、気を逸らす実世界コンテンツ(例えば、広告板、事故など)に取って代わる仮想コンテンツをレンダリングすることができる。場合によっては、そのような仮想コンテンツは、画像のデータベースから合成または「ディープフェイクされた」仮想コンテンツを生成するように訓練されたディープニューラルネットワークを使用してレンダリングされ、拡張現実デバイスおよび/または車両によって観察されるスタイルでレンダリングされ得る。
【0054】
車両監視プロセスは、先に説明したように、車両イベントをXRデバイス(例えば、ARデバイス)に送信することができる。同様に、XRデバイスの乗員監視プロセスは、乗員監視イベント(例えば、障害など)を車両に送信することができる。いくつかの例では、車両は、XRデバイスによって生成された乗員監視イベントの知識から利益を得ることができる何らかの自律または半自律運転機能を有することができる。車両は、自律運転ポリシーまたは能力の一部としてそのようなイベントを使用することができる。例えば、乗員(例えば、運転者)の障害を示す乗員監視イベントを受信すると、車両は、自律機能を作動させて、乗員に警告し、および/または障害のある運転に関連する特定のイベントまたはリスクを防止し、既に作動している自律機能のレベルまたは信頼度を高めることができる。いくつかの例では、健康緊急事態を示す乗員監視イベントを受信すると、車両は、車両を安全に停止させるか、または支援のために特定のロケーション(例えば、病院、診療所など)に進むための自律機能に関与することができる。場合によっては、車両は、オンラインまたは強化学習アルゴリズムを使用して、どの車両および/または世界イベントが特定の運転者状態(例えば、特定の障害など)とより高い相関を有するかを経時的に学習し、その情報を使用してそのような状況を処理および/または回避することができる。例えば、乗員がしばしば広告板によって注意を逸らされる場合、車両は、速度を低下させるか、または広告板を有する環境においてより積極的に緊急制動を可能にし得る。
【0055】
場合によっては、XRデバイスは、乗員監視プロセスを支援するために、乗員の1つまたは複数のウェアラブルデバイスからのデータを使用することができる。ウェアラブルデバイスは、乗員監視を支援することができる追加のおよび/または冗長なセンサモダリティを有することができる。ウェアラブルデバイスは、そのようなデータ(または関連イベントのダイジェスト)をXRデバイスに送信して、その乗員監視プロセスを支援することができる。いくつかの例では、ウェアラブルデバイスは、例えば、慣性センサデータ、心拍数測定値、血圧測定値、ガルバニック皮膚反応測定値、ECG/EKG/EEGデータ、温度データ、酸素レベル、運動情報、睡眠追跡情報などのセンサデータをXRデバイスに送信することができる。場合によっては、ウェアラブルデバイスからのデータは、眠気、中毒、健康緊急事態、ストレス、高まった感情状態、意識喪失などの障害を示すことができ、かつ/または(例えば、正例および負例で訓練された機械学習分類器を介して)障害を判定するために使用することができる。
【0056】
場合によっては、XRデバイスは、車両から乗員監視情報を取得することができる。例えば、場合によっては、車両は、それ自体の乗員監視能力/機能を組み込むことができる。場合によっては、XRデバイスは、(例えば、車両で処理された乗員監視イベントを送信することに加えて、またはその代わりに)車両の乗員監視システムとの融合処理のために、XRデバイスの乗員監視プロセスからの生の乗員監視データを車両に送信することができる。
【0057】
場合によっては、車両は、運転者イベントの緩和を可能にするために、乗員監視イベントをインフラストラクチャおよび/または他の車両に送信することができる。例えば、車両は、他の車両にその運転者が障害を有していることを報告することができるので、他の車両が予防措置を取る、自律運転ポリシーを変更する(例えば、減速する、障害のある運転者に十分な距離を与えるなど)、運転者のXRデバイス(例えば、場合によっては、近くの車両が障害のある運転者を有することを仮想コンテンツで強調表示するまたは示すことができる)に通知するなどできる。場合によっては、運転者が障害を有していることを、インフラストラクチャを横断している歩行者(例えば、それにより、横断信号は、障害のある運転者を有する車両の前を歩行者が横断することを防止できるなど)、法執行機関(例えば、支援および/または保護のため)、歩行者のXRデバイスに報告することができる(例えば、それにより、歩行者のXRデバイスは、障害のある運転者を信号伝達する仮想コンテンツをレンダリングできるなど)。場合によっては、車両は、XRデバイスに関して本明細書で説明される仮想コンテンツのいずれかをレンダリングすることができる。例えば、車両は、XRおよび/またはモバイルデバイスに関して本明細書で説明したのと同じコンテンツおよび/またはコンテンツのタイプをレンダリングすることができる。車両は、XRデバイスによる任意のコンテンツレンダリングに加えて、またはその代わりに、そのようなコンテンツをレンダリングすることができる。
【0058】
適用例の様々な態様が、図に関して説明される。
【0059】
図1は、モバイルデバイス150のコンピューティングシステム100の一例を示す図である。モバイルデバイス150は、エンドユーザが使用できるコンピューティングデバイスの一例である。例えば、モバイルデバイス150は、ポータブルデバイス、携帯電話、XRデバイス(例えば、HMD、スマートグラスなど)、タブレットコンピュータ、ラップトップコンピュータ、ウェアラブルデバイス(例えば、スマートウォッチなど)、コネクテッドデバイス若しくはモノのインターネット(IoT)デバイス、および/またはワイヤレス通信ネットワークを介して通信するためにユーザによって使用される任意の他のデバイスを含むことができる。コンピューティングシステム100は、バスなどの通信システム134を介して電気的にまたは通信可能に結合されてもよい(または適宜別様に通信していてもよい)ソフトウェア構成要素およびハードウェア構成要素を含む。
【0060】
コンピューティングシステム100は、1つまたは複数のセンサシステム102、計算構成要素110、1つまたは複数の入力デバイス120(例えば、マウス、キーボード、タッチスクリーン、タッチパッド、キーパッド、マイクロフォン、コントローラなど)、1つまたは複数の出力デバイス122(例えば、1つまたは複数のディスプレイ、スピーカ、発光デバイス、プリンタ、プロジェクタなど)、1つまたは複数のモデム126、1つまたは複数のワイヤレストランシーバ128、1つまたは複数のアンテナ130、および/または1つまたは複数のメモリデバイス132を含むことができる。場合によっては、コンピューティングシステム100は、任意選択的に、1つまたは複数のSIM124を含むことができる。コンピューティングシステム100は、コンピューティングシステム100の構成要素間でデータを転送することができる通信システム134(例えば、バス)を含むことができる。いくつかの例では、1つまたは複数の出力デバイス122は、HMD、スマートグラスなど、モバイルデバイス150の左ディスプレイおよび右ディスプレイを含むことができる。いくつかの例では、1つまたは複数の出力デバイス122は、スマートフォン、スマートウォッチなど、モバイルデバイス150の背面ディスプレイおよび/または前面ディスプレイを含むことができる。場合によっては、1つまたは複数の出力デバイス122は、1つまたは複数のプロジェクタなどの1つまたは複数の光学デバイスを含むことができる。
【0061】
いくつかの例では、通信システム134は、1つまたは複数のセンサシステム102、計算構成要素110、1つまたは複数の入力デバイス120、1つまたは複数の出力デバイス122、1つまたは複数のモデム126、1つまたは複数のワイヤレストランシーバ128、1つまたは複数のアンテナ130、および/または1つまたは複数のメモリデバイス132を相互接続することができる。例えば、場合によっては、計算構成要素110は、通信システム134を使用して、処理プロセッサ/コア間で、および/または、例えば、1つまたは複数のセンサシステム102、1つまたは複数の入力デバイス120、1つまたは複数の出力デバイス122、1つまたは複数のSIM124、1つまたは複数のモデム126、1つまたは複数のワイヤレストランシーバ128、1つまたは複数のアンテナ130、および/または1つまたは複数のメモリデバイス132などのコンピューティングシステム100の任意のデバイス/構成要素と通信することができる。
【0062】
計算構成要素110は、例えば、1つまたは複数の中央処理ユニット(CPU)112、グラフィックス処理ユニット(GPU)114、デジタル信号プロセッサ(DSP)116、および/または画像信号プロセッサ(ISP)118を含むことができる。場合によっては、計算構成要素110は、追加または代替として、例えば、限定はしないが、1つまたは複数の特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、アプリケーションプロセッサ(AP)、ビジョン処理ユニット(VPU)、ニューラルネットワーク信号プロセッサ(NSP)、マイクロコントローラ、コンピュータビジョン(CV)プロセッサ、専用ハードウェア、それらの任意の組み合わせ、および/または他の処理デバイス若しくはシステムなどの、図1に示されていない1つまたは複数の他の処理構成要素を含むことができる。場合によっては、1つまたは複数の計算構成要素110は、本明細書で説明する様々な動作のいずれかを実行するための、他の電子回路若しくはハードウェア、コンピュータソフトウェア、ファームウェア、またはそれらの任意の組み合わせを含むことができる。いくつかの例では、1つまたは複数の計算構成要素110は、図1に示す計算構成要素よりも多いまたは少ない計算構成要素を含むことができる。さらに、CPU112、GPU114、DSP116、およびISP118は、説明目的のために提供された計算構成要素の単なる例示的な例である。
【0063】
コンピューティングシステム100は、1つまたは複数の計算構成要素110を使用して、例えば、エクステンデッドリアリティ動作(例えば、追跡、位置特定、オブジェクト検出、分類、姿勢推定、マッピング、コンテンツアンカリング、コンテンツレンダリングなど)、デバイス制御動作、画像/ビデオ処理、グラフィックスレンダリング、イベントマッピング、機械学習、データ処理、モデリング、計算、コンピュータビジョン、イベント監視、本明細書に記載の任意の動作、および/または任意の他の動作などの様々なコンピューティング動作を実行することができる。例えば、場合によっては、1つまたは複数の計算構成要素110は、センサシステム102、1つまたは複数の入力デバイス120、1つまたは複数のSIM124、1つまたは複数のモデム126、1つまたは複数のワイヤレストランシーバ128、1つまたは複数のアンテナ130、1つまたは複数のメモリデバイス132、図2に示す車両コンピューティングシステム210、および/または任意の他のデバイスからのデータを使用して、画像/ビデオ処理、イベントマッピング、XR処理、デバイス管理/制御、および/または本明細書に記載の他の動作を実行することができる。
【0064】
例示すると、いくつかの例では、1つまたは複数の計算構成要素110は、ユーザコンピューティングシステム100、車両コンピューティングシステム210、および/または任意の他のシステム若しくは構成要素の構成要素のうちの1つまたは複数からのデータに基づいて、監視(例えば、デバイス監視、ユーザ監視、車両監視、イベント監視、活動監視、オブジェクト監視など)、デバイス制御/管理、追跡(例えば、デバイス追跡、オブジェクト追跡、手追跡、視線追跡など)、位置特定、オブジェクト検出および/または認識、オブジェクト分類、姿勢推定、形状推定、シーンマッピング、シーン検出および/またはシーン認識、顔検出および/または認識、感情検出および/または認識、コンテンツアンカリング、コンテンツレンダリング、コンテンツフィルタリング、画像処理、モデリング、コンテンツ生成、ジェスチャ検出および/または認識、ユーザインターフェース生成、電力管理、イベント検出および/または認識、および/または他の動作を実行することができる。
【0065】
いくつかの例では、1つまたは複数の計算構成要素110は、例えば、特徴抽出器(例えば、スケール不変特徴変換(SIFT)、高速化ロバスト特徴(SURF)、指向FASTおよび回転BRIEF(ORB)など)、機械学習モデル、コンピュータビジョンアルゴリズム、ニューラルネットワーク、追跡アルゴリズム、位置特定アルゴリズム、オブジェクト検出アルゴリズム、認識アルゴリズム、マッピングアルゴリズム、アプリケーション(例えば、XRアプリケーション、メッセージングアプリケーション、ソーシャルメディアネットワークアプリケーション、ウェブブラウザアプリケーション、生産性アプリケーション、ゲームアプリケーション、エンターテインメントアプリケーション、マルチメディアアプリケーション、認証アプリケーション、写真アプリケーション、スキャンアプリケーション、メディア再生アプリケーション、セキュリティアプリケーション、電子商取引アプリケーション、コンテンツ管理アプリケーション、インターフェースおよび/またはウィンドウアプリケーション、アシスタントアプリケーション、オートメーションアプリケーション、電子メールアプリケーション、音声アプリケーション、カメラアプリケーション、ナビゲーションアプリケーション、車両アプリケーションなど)、コンピュータビジョンアルゴリズム、画像処理アルゴリズム、コンテンツフィルタリングアルゴリズム、ならびに/あるいは任意の他のアルゴリズムおよび/または構成要素などの1つまたは複数のソフトウェアエンジンおよび/またはアルゴリズムを実装することができる。
【0066】
画像センサ104Aおよび画像センサ104Nは、デジタルカメラセンサ、ビデオカメラセンサ、スマートフォンカメラセンサ、テレビまたはコンピュータなどの電子装置上の画像/ビデオキャプチャデバイス、カメラなどの任意の画像および/若しくはビデオセンサまたはキャプチャデバイスを含むことができる。場合によっては、画像センサ104Aおよび画像センサ104Nは、デジタルカメラ、ビデオカメラ、IPカメラ、スマートフォン、スマートテレビ、ゲームシステムなどのカメラまたはコンピューティングデバイスの一部であってもよい。さらに、場合によっては、画像センサ104Aおよび画像センサ104Nは、後方および前方センサデバイスなどのデュアル(または複数の)画像センサシステムまたはセットアップを含むおよび/または実装することができる。いくつかの例では、画像センサ104Aおよび画像センサ104Nは、デュアルカメラまたは他のマルチカメラアセンブリ(例えば、2つのカメラ、3つのカメラ、4つのカメラ、若しくは他の数のカメラを含む)の一部であってもよい。場合によっては、画像センサ104Aおよび/または画像センサ104Nは、環境のRFおよび/またはIR撮像を実行するように構成されたレーダセンサ、LIDARセンサおよび/またはIRセンサなどのRFセンサを含むことができる。
【0067】
いくつかの例では、画像センサ104Aおよび104Nの各々は、画像データをキャプチャし、画像データに基づいてフレームを生成し、ならびに/または画像データ若しくはフレームを、処理するために1つまたは複数の計算構成要素110に提供することができる。フレームは、ビデオシーケンスのビデオフレームまたは静止画像を含むことができる。フレームは、シーンを表すピクセルアレイを含むことができる。例えば、フレームは、ピクセルごとに赤、緑、および青の色成分を有する赤-緑-青(RGB)フレーム、ピクセルごとに1つの輝度成分および2つの色差(色)成分(赤の色差および青の色差)を有する、輝度、赤の色差、青の色差(YCbCr)フレーム、または任意の他の適切なタイプのカラーまたはモノクロ画像、であり得る。
【0068】
1つまたは複数のワイヤレストランシーバ128は、他のユーザデバイス、車両(例えば、図2に示す車両202)、ネットワークデバイス(例えば、eNBおよび/またはgNBなどの基地局、WiFiデバイス(例えば、ルータ、アクセスポイントなど)、サーバ、スイッチ、ルータ、ゲートウェイ、ファイアウォールなど)、クラウドネットワーク、プライベートネットワーク、パブリックネットワーク、データセンタ、インターネット、衛星、コネクテッドデバイス若しくはIoTデバイス、インフラストラクチャデバイス/構成要素など、1つまたは複数の他のデバイスおよび/またはネットワークから、1つまたは複数のアンテナ130を介して、ワイヤレス信号(例えば、信号140)を受信することができる。いくつかの例では、コンピューティングシステム100は、複数のアンテナを含むことができる。ワイヤレス信号140は、ワイヤレスネットワークを介して送信されてもよい。ワイヤレスネットワークは、セルラー若しくは電気通信ネットワーク(例えば、3G、4G、5Gなど)、ワイヤレスローカルエリアネットワーク(例えば、WiFiネットワーク)、Bluetooth(商標)ネットワーク、および/または任意の他のワイヤレスネットワークなどの、任意のワイヤレスネットワークであってもよい。いくつかの例では、1つまたは複数のワイヤレストランシーバ128は、無線周波数(RF)フロントエンドを含み得る。RFフロントエンドは、構成要素の中でもとりわけ、1つまたは複数の増幅器、信号ダウンコンバージョンのためのミキサ(信号乗算器とも呼ばれる)、信号を1つまたは複数のミキサに提供する周波数シンセサイザ(発振器とも呼ばれる)、ベースバンドフィルタ、アナログデジタル変換器(ADC)、電力増幅器、RFポート(例えば、送信(Tx)および/または受信(Rx)ポート)、移相器、IQ利得および位相補償器、アップサンプラ、利得制御装置、デジタルアナログ変換器(DAC)、ビームフォーマ、ローパスフィルタ、時間遅延フィルタ等の1つまたは複数の構成要素を含むことができる。いくつかの例では、RFフロントエンドは一般に、ワイヤレス信号140の選択およびベースバンド周波数または中間周波数への変換を扱うことができ、RF信号をデジタル領域に変換することができる。
【0069】
場合によっては、コンピューティングシステム100は、1つまたは複数のワイヤレストランシーバ128を使用して送信および/または受信されるデータを符号化および/または復号するように構成されるコード化-復号デバイス(またはコーデック)を含むことができる。場合によっては、コンピューティングシステム100は、1つまたは複数のワイヤレストランシーバ128によって送信および/または受信されるデータを(例えば、高度暗号化規格(AES)、データ暗号化規格(DES)および/または任意の他の規格に従って)暗号化および/または解読するように構成される暗号化-解読デバイスまたは構成要素を含むことができる。
【0070】
SIMは、特定の加入者またはユーザの国際移動体加入者識別(IMSI)番号および関連する鍵(例えば、暗号-復号鍵)をセキュアに記憶することができるデバイス(例えば、集積回路)である。IMSIおよび鍵は、特定のUEで加入者を識別して認証するために使用され得る。図1において、1つまたは複数のSIM124の各々は、モバイルデバイス150のユーザに割り当てられたIMSI番号および関連キーを安全に記憶することができる。IMSIおよびキーを使用して、1つまたは複数のSIM124と関連付けられたネットワークサービスプロバイダまたはオペレータによって提供されるネットワークにアクセスするときに、加入者を識別および認証することができる。
【0071】
モデムは、1つまたは複数の搬送波信号を変調して送信のためにデジタル情報を符号化し、かつ信号を復調して送信される情報を復号する、デバイスである。1つまたは複数のモデム126は、1つまたは複数のワイヤレストランシーバ128を使用して情報を送信のために符号化するように1つまたは複数の信号を変調することができる。1つまたは複数のモデム126は、送信された情報を復号するために、1つまたは複数のワイヤレストランシーバ128によって受信される信号を復調することもできる。いくつかの例において、1つまたは複数のモデム126は、4G(またはLTE)モデム、5G(または新無線(NR))モデム、ビークルトゥエブリシング(V2X)通信のために構成されるモデム、および/または他のタイプのモデムを含むことができる。1つまたは複数のモデム126および1つまたは複数のワイヤレストランシーバ128は、1つまたは複数のSIM124のためのデータを通信するために使用することができる。
【0072】
上述したように、コンピューティングシステム100は、1つまたは複数のセンサシステム102を含むことができる。いくつかの例では、1つまたは複数のセンサシステム102は、画像センサ104Aおよび104Nなどの1つまたは複数の画像センサ(以下、集合的に「画像センサ104」)、ロケーションセンサ106(例えば、超音波センサ、超低周波センサ、SONARセンサ、RFベースのセンサシステム(例えば、WiFi、Bluetoothなど)、マイクロフォンなど)、慣性測定ユニット(IMU)108、および/または1つまたは複数の他のセンサを含むことができる。場合によっては、コンピューティングシステム100は、任意選択的に、例えば、限定はしないが、RADARセンサシステム、LIDARセンサシステム、電磁検出および測距(EmDAR)センサシステム、赤外線センサシステム、レーザ測距システム、音響検出および測距(SODAR)システム、タッチセンサ、圧力センサ(例えば、気圧センサおよび/または任意の他の圧力センサ)、ジャイロスコープ、加速度計、磁力計、および/または任意の他のセンサなどの、1つまたは複数の他の/追加のセンサまたはセンサシステムを含むことができる。いくつかの例では、コンピューティングシステム100は、例えば発光ダイオード(LED)デバイス、キャッシュ、ワイヤレスネットワークインターフェースなどの追加の構成要素を含むことができる。コンピューティングシステム100によって実装され得る例示的なアーキテクチャおよび例示的なハードウェア構成要素は、図15に関して以下でさらに説明される。
【0073】
コンピューティングシステム100は、1つまたは複数の非一時的機械可読記憶媒体または記憶デバイス(例えば、1つまたは複数のメモリデバイス132)も含むことができ(かつ/またはそれと通信していてもよく)、これは、例えば、限定はされないが、(例えば、プログラム可能、および/またはフラッシュ更新可能などであり得る)ローカルストレージおよび/またはネットワークアクセス可能ストレージ、ディスクドライブ、ドライブアレイ、光記憶デバイス、RAMおよび/またはROMなどのソリッドステート記憶デバイスを含むことができる。そのような記憶デバイスは、限定はしないが、様々なファイルシステム、データベース構造などを含む、任意の適切なデータ記憶装置を実装するように構成されてもよい。
【0074】
いくつかの例では、機能は、1つまたは複数のコンピュータプログラム製品(例えば、命令またはコード)としてメモリデバイス(単数または複数)132内に記憶され、計算構成要素110によって実行され得る。コンピューティングシステム100はまた、例えば、オペレーティングシステム、デバイスドライバ、実行可能ライブラリ、および/または1つまたは複数のアプリケーションプログラムなどの他のコードを含む、ソフトウェア要素(例えば、1つまたは複数のメモリデバイス132内に位置する)も含むことができ、1つまたは複数のアプリケーションプログラムは、様々な実施形態によって提供される機能を実施するコンピュータプログラムを備え得、かつ/または本明細書で説明する方法を実装すること、および/若しくは本明細書で説明するシステムを構成することを行うように設計されてもよい。
【0075】
いくつかの実装形態では、ユーザ機器(UE)はDual SIM Dual Active(DSDA)機能のために構成され得る。例えば、モバイルデバイス150、図2に示す車両202、および/または他のUEは、DSDA機能を装備することができる。DSDA機能のあるUEは、少なくとも2つのSIMを装備することができる。1つの説明のための例では、DSDA機能のある車両(例えば、図2に示す車両202)およびユーザデバイス(例えば、モバイルデバイス150)は、車両および車両の乗員(例えば、運転者、乗客など)およびユーザデバイスが、独立したネットワーク事業者(または提供者)の契約を選ぶことを可能にでき、各事業者の契約は特定のSIMと関連付けられる。例えば、車両は、ワイヤレス通信アクセスのために第1の事業者を使用することができ、ユーザデバイスは、ワイヤレス通信アクセスのために第2の事業者を使用することができる。
【0076】
場合によっては、DSDA機能は、ある車両について、図2の車両コンピューティングシステム210に関して以下に説明するものなどの、OEM SIMおよびユーザSIMを含む少なくとも2つの有効なSIMをサポートすることができる。以下に述べるように、OEM SIMおよび/またはユーザSIMは、1つまたは複数のモデム(例えば、図2に示す通信システム222の図2に示すモデム228および/または他のモデム)とともに使用され得る。いくつかの実装形態では、OEM SIM、ユーザSIM、および車両のモデム(単数または複数)は、車両のテレマティック制御ユニット(TCU)の一部とすることができるか、またはTCU(例えば、図2の通信システム222の一部として)のネットワークアクセスデバイス(NAD)(場合によっては、ネットワーク制御ユニットまたはNCUとも呼ばれる)の一部とすることができる。以下に説明するように、OEM SIMは、車両ベースの動作のために(例えば、動作の中でもとりわけ、eCall機能のために、ソフトウェア更新などのために車両製造業者と通信するために)ワイヤレス通信を実行するためのアクセスを提供する情報を記憶することができる。OEM SIMは、緊急通報を行うためのeCallを含む、車両のための様々なサービスをサポートする。ユーザSIMは、とりわけ、通話、メッセージング、インフォテインメント関連サービスを支援することなどの、ユーザデータ接続をサポートするために、ユーザのUEのためのワイヤレスネットワークアクセスを実行するために使用され得る。
【0077】
DSDAは、SIMおよび/またはUEのモデムの代わりに、ユーザSIMおよび車両のモデムがワイヤレスネットワークアクセスのために(例えば、セルラー接続のために)使用されることを可能にできる。例えば、車両の通信範囲内に来ると、ユーザデバイス(例えば、モバイルデバイス)は、インターフェースを介して(例えば、Bluetooth(商標)、WiFi(商標)、USBポート、lightningポート、および/または他のワイヤレス若しくは有線インターフェースを介して)車両と接続することができる。接続されると、ユーザデバイスの通信ユニットは、ユーザデバイスから車両の通信ユニットにワイヤレスネットワークアクセス機能を移行することができる。車両の通信ユニットは、動作の中でもとりわけ、通話を支援すること、データ(例えば、メッセージング、ビデオ、オーディオなど)を送信および/または受信することなどの、1つまたは複数のワイヤレス通信動作を実行するために、基地局との対話を開始することができる。上で述べられたように、デバイス(例えば、車両、ユーザデバイス、他のUE、路側ユニット(RSU)など)の「通信ユニット」は、TCU、NAD、モデム、SIM、トランシーバ(または個々のレシーバおよび/またはトランスミッタ)、これらの任意の組み合わせ、および/または、ワイヤレス通信動作を実行するように構成される他のシステム、デバイス、若しくは構成要素であり得る。1つの説明のための例では、ユーザデバイス(例えば、モバイルデバイス)のユーザSIM(例えば、SIMに記憶される情報および/または実際のSIMカード)を車両のTCU NADに移行することができ、その後、車両のモデムは、ユーザSIM情報を使用してユーザのためにワイヤレスネットワーク事業者と通信することができる。
【0078】
図2は、車両202の車両コンピューティングシステム210の例を示すブロック図である。車両202は、ネットワーク(例えば、eNB、gNB、測位ビーコン、ロケーション測定ユニット、および/または他のネットワークエンティティ)とおよび/または他のUE(例えば、モバイルデバイス150)と通信することができ、(例えば、PC5インターフェースまたは他のデバイス間直接インターフェース)を介したV2X通信を使用して通信することができる、UEの例である。示されるように、車両コンピューティングシステム210は、少なくとも、電力管理システム212、制御システム214、インフォテインメントシステム216、高度道路交通システム(ITS)218、1つまたは複数のセンサシステム220、および通信システム222を含むことができる。場合によっては、車両コンピューティングシステム210は、1つまたは複数のCPU、DSP、GPU、ISP、ASIC、FPGA、アプリケーションプロセッサ(AP)、ビジョン処理ユニット(VPU)、ニューラル処理ユニット(NPU)、制御電圧プロセッサ(CVP)、マイクロコントローラ、専用ハードウェア、これらの任意の組み合わせ、および/または他の処理デバイス若しくはシステムなどの、任意のタイプの処理デバイス若しくはシステムを含むことができ、あるいはそれを使用して実装され得る。
【0079】
制御システム214は、車両202、電力管理システム212、コンピューティングシステム210、インフォテインメントシステム216、ITS218、および/または車両202の1つまたは複数の他のシステム(例えば、制動システム、操舵システム、ITS218以外の安全システム、キャビンシステム、および/または他のシステム)の1つまたは複数の動作を制御するように構成され得る。いくつかの例では、制御システム214は1つまたは複数の電子制御ユニット(ECU)を含むことができる。ECUは、車両の中の電子システムまたはサブシステムの1つまたは複数を制御することができる。制御システム214の一部として含まれ得る具体的なECUの例は、とりわけ、エンジン制御モジュール(ECM)、パワートレイン制御モジュール(PCM)、送信制御モジュール(TCM)、ブレーキ制御モジュール(BCM)、中央制御モジュール(CCM)、中央タイミングモジュール(CTM)を含む。場合によっては、制御システム214は、1つまたは複数のセンサシステム220からセンサ信号を受信することができ、車両202を動作させるために車両コンピューティングシステム210の他のシステムと通信することができる。
【0080】
車両コンピューティングシステム210は、電力管理システム212も含む。いくつかの実装形態では、電力管理システム212は、電力管理集積回路(PMIC)、スタンバイバッテリー、および/または他の構成要素を含むことができる。場合によっては、車両コンピューティングシステム210の他のシステムは、1つまたは複数のPMIC、バッテリー、および/または他の構成要素を含むことができる。電力管理システム212は、コンピューティングシステム210および/または車両の他の部分のための電源を管理することなどの、車両202のための電力管理機能を実行することができる。例えば、電力管理システム212は、車両のエンジンの始動などに基づいて、電力変動を考慮して安定した電源を提供することができる。別の例では、電力管理システム212は、周辺温度および/またはトランジスタ接合温度を確認することなどによって、熱監視動作を実行することができる。別の例では、電力管理システム212は、機能の中でもとりわけ、冷却システム(例えば、1つまたは複数のファン、空調システムなど)に車両コンピューティングシステム210のいくつかの構成要素(例えば、1つまたは複数のECUなどの制御システム214)を冷却させること、車両コンピューティングシステム210のいくつかの機能を停止すること(例えば、1つまたは複数のディスプレイを消すこと、ワイヤレスネットワークから切断することなどによって、インフォテインメントシステム216を制限すること)などの、何らかの機能をある温度レベルを検出したことに基づいて実行することができる。
【0081】
車両コンピューティングシステム210は、通信システム222を含むことができる。通信システム222は、ネットワーク(例えば、gNBまたは他のネットワークエンティティ)に信号を送信し、かつそれから信号を受信するための、および/または、他のUEから(例えば、PC5インターフェース、WiFiインターフェース、Bluetooth(商標)インターフェース、ならびに/または他のワイヤレスインターフェースおよび/若しくは有線インターフェースを介して別の車両またはUEに)信号を送信するための、ソフトウェア構成要素およびハードウェア構成要素を含むことができる。例えば、通信システム222は、任意の適切なワイヤレスネットワーク(例えば、3Gネットワーク、4Gネットワーク、5Gネットワーク、WiFiネットワーク、Bluetooth(商標)ネットワーク、および/または他のネットワーク)を介して、情報をワイヤレスに送信および受信するように構成され得る。通信システム222は、相手先商標製造業者(OEM)加入者識別モジュール(SIMまたはSIMカードと呼ばれる)224、ユーザSIM226、およびモデム228を含む、ワイヤレス通信機能を実行するために使用される、様々な構成要素またはデバイスを含む。車両コンピューティングシステム210が2つのSIMおよび1つのモデムを有するものとして示されるが、いくつかの実装形態では、コンピューティングシステム210は、任意の数のSIM(例えば、1つのSIMまたは2つ以上のSIM)および任意の数のモデム(例えば、1つのモデム、2つのモデム、または2つより多くのモデム)を有することができる。
【0082】
前述したように、SIMは、特定の加入者またはユーザの国際移動体加入者識別(IMSI)番号および関連する鍵(例えば、暗号-復号鍵)をセキュアに記憶することができるデバイス(例えば、集積回路)である。IMSIおよび鍵は、特定のUEで加入者を識別して認証するために使用され得る。OEM SIM224は、動作の中でもとりわけ、緊急通報(eCall)機能を行うこと、(例えば、ソフトウェア更新などのために)車両製造業者の通信システムと通信することなどのために、車両ベースの動作のためのワイヤレス接続を確立するために、通信システム222によって使用され得る。OEM SIM224は、自動車事故または他の緊急事態のイベントの際に緊急通報を行うためのeCallなどの緊急サービスをOEM SIMがサポートする通信システムのために重要であり得る。例えば、eCallは、車両事故のイベントの際に緊急通報番号(例えば、米国では「9-1-1」、欧州では「1-1-2」など)に自動的に電話をかけて、警察署、消防署などの緊急サービスに車両のロケーションを伝えるサービスを含むことができる。
【0083】
ユーザSIM226は、(例えば、とりわけ、通話、メッセージング、インフォテインメント関連のサービスを行うための)ユーザデータ接続をサポートするために、ワイヤレスネットワークアクセス機能を実行するための通信システム222によって使用され得る。場合によっては、ユーザのユーザデバイスは、インターフェース(例えば、PC5、Bluetooth(商標)、WiFi(商標)、ユニバーサルシリアルバス(USB)ポート、および/または他のワイヤレスインターフェース若しくは有線インターフェース)を介して、車両コンピューティングシステム210と接続することができる。接続されると、ユーザデバイスは、ユーザデバイスから車両の通信システム222にワイヤレスネットワークアクセス機能を移行することができ、その場合、ユーザデバイスは、ワイヤレスネットワークアクセス機能の実行を(例えば、通信システム222がワイヤレスアクセス機能を実行している間)止めることができる。通信システム222は、動作の中でもとりわけ、通話を支援すること、データ(例えば、メッセージング、ビデオ、オーディオなど)を送信および/または受信することなどの、1つまたは複数のワイヤレス通信動作を実行するために、基地局との対話を開始することができる。そのような場合、車両コンピューティングシステム210の他の構成要素は、通信システム222によって受信されるデータを出力するために使用され得る。例えば、インフォテインメントシステム216(以下で説明される)は、通信システム222によって受信されるビデオを1つまたは複数のディスプレイに表示することができ、かつ/または、1つまたは複数のスピーカを使用して通信システム222によって受信されるオーディオを出力することができる。
【0084】
モデム228(および/または通信システム222の1つまたは複数の他のモデム)は、OEM SIM224および/またはユーザSIM226のためのデータの通信のために使用され得る。いくつかの例では、モデム228は4G(またはLTE)モデムを含むことができ、通信システム222の別のモデム(図示せず)は5G(またはNR)モデムを含むことができる。いくつかの例では、通信システム222は、1つまたは複数のBluetooth(商標)モデム(例えば、Bluetooth(商標)Low Energy(BLE)または他のタイプのBluetooth通信のための)、1つまたは複数のWiFi(商標)モデム(例えば、専用狭域通信(DSRC)および/または他のWiFi通信のための)、ワイドバンドモデム(例えば、ウルトラワイドバンド(UWB)モデム)、これらの任意の組み合わせ、および/または他のタイプのモデムを含むことができる。
【0085】
場合によっては、モデム228(および/または通信システム222の1つまたは複数の他のモデム)は、V2X通信(例えば、ビークルトゥビークル(V2V)通信では車両との、デバイストゥデバイス(D2D)通信では他のデバイスとの、ビークルトゥインフラストラクチャ(V2I)通信ではインフラストラクチャシステムとの、ビークルトゥペデストリアン(V2P)通信では歩行者UEとの、など)を実行するために使用され得る。いくつかの例では、通信システム222は、V2X通信(例えば、PC5インターフェースを介したサイドリンク通信)を実行するために使用されるV2Xモデムを含むことができ、その場合、V2Xモデムは、ワイヤレスネットワークアクセス機能のために(例えば、ネットワークまたはエアインターフェース(例えば、ユニバーサル移動体通信システム(UMTS)インターフェースまたは「Uuインターフェース」などを介したネットワーク通信)および/またはV2X通信以外のサイドリンク通信のために)使用される1つまたは複数のモデムとは別であり得る。
【0086】
いくつかの例では、通信システム222は、テレマティクス制御ユニット(TCU)であってもよく、またはそれを含んでもよい。いくつかの実装形態では、TCUは、ネットワークアクセスデバイス(NAD)(場合によってはネットワーク制御ユニットまたはNCUとも呼ばれる)を含むことができる。場合によっては、NADは、モデム228、図2に示されない任意の他のモデム、OEM SIM224、ユーザSIM226、および/またはワイヤレス通信のために使用される他の構成要素を含むことができる。いくつかの例では、通信システム222は、全地球航法衛星システム(GNSS)を含むことができる。場合によっては、以下で説明されるように、GNSSは1つまたは複数のセンサシステム220の一部であり得る。GNSSは、1つまたは複数の位置サービス、ナビゲーションサービス、および/またはGNSS機能を利用できる他のサービスを実行するための能力を、車両コンピューティングシステム210に提供することができる。
【0087】
場合によっては、通信システム222は、ワイヤレス通信を送信および受信するための1つまたは複数のワイヤレスインターフェース(例えば、各ワイヤレスインターフェースのための1つまたは複数のトランシーバおよび1つまたは複数のベースバンドプロセッサを含む)、1つまたは複数の有線接続を介して通信を実行するための1つまたは複数の有線インターフェース(例えば、ユニバーサルシリアルバス(USB)入力、lighteningコネクタ、および/または他の有線インターフェースなどのシリアルインターフェース)、ならびに/または、車両202がネットワークおよび/若しくは他のUEと通信することを可能にできる他の構成要素を含むことができる。
【0088】
車両コンピューティングシステム210はまた、コンテンツを制御できるインフォテインメントシステム216、およびコンテンツを出力するために使用され得る車両202の1つまたは複数の出力デバイスを含むことができる。インフォテインメントシステム216はまた、車両内インフォテインメント(IVI)システムまたは車内エンターテインメント(ICE)システムとも呼ばれ得る。コンテンツは、コンテンツの中でもとりわけ、ナビゲーションコンテンツ、メディアコンテンツ(例えば、ビデオコンテンツ、音楽若しくは他のオーディオコンテンツ、および/または他のメディアコンテンツ)を含むことができる。1つまたは複数の出力デバイスは、1つまたは複数のグラフィカルユーザインターフェース、1つまたは複数のディスプレイ、1つまたは複数のスピーカ、1つまたは複数のエクステンデッドリアリティデバイス(例えば、VR、AR、および/またはMRヘッドセット)、1つまたは複数のハプティックフィードバックデバイス(例えば、座席、ハンドル、および/または車両202の他の部分を振動させるように構成される1つまたは複数のデバイス)、および/または他の出力デバイスを含むことができる。
【0089】
いくつかの例では、コンピューティングシステム210は、高度道路交通システム(ITS)218を含むことができる。いくつかの例では、ITS218はV2X通信を実装するために使用され得る。例えば、ITS218のITSスタックは、ITSのアプリケーション層からの情報に基づいてV2Xメッセージを生成することができる。場合によっては、アプリケーション層は、ITS218が使用するためのメッセージを生成するための、ならびに/または、他の車両(例えば、V2V通信の場合)、歩行者UE(例えば、V2P通信の場合)、および/若しくはインフラストラクチャシステム(例えば、V2I通信の場合)に送信されることになるメッセージを生成するための、何らかの条件が満たされるかどうかを判定することができる。場合によっては、通信システム222および/またはITS218は、カーアクセスネットワーク(CAN)情報を(例えば、CANバスを介して車両の他の構成要素から)取得することができる。いくつかの例では、通信システム222(例えば、TCU NAD)は、CANバスを介してCAN情報を取得することができ、CAN情報をITSスタックに送信することができる。CAN情報は、情報の中でもとりわけ、車両の向き、車両の速さ、制動情報などの、車両関連情報を含むことができる。CAN情報は、ITS218に継続的または定期的に(例えば、1ミリ秒(ms)ごと、10msごとなど)提供され得る。
【0090】
メッセージを生成するかどうかを決定するために使用される条件は、道路の安全、交通の効率、インフォテインメント、ビジネスに関する用途、および/または他の用途を含む、安全関連の用途および/または他の用途に基づいて、CAN情報を使用して決定され得る。1つの説明のための例では、ITS218は車線変更の支援または調整を実行することができる。例えば、CAN情報を使用して、ITS218は、車両202または車両202の運転者が現在の車線から隣の車線などの別の車線に車線を変更しようとしていることを、(例えば、方向指示器が作動していること、ユーザが隣の車線へと方向を変えるまたは操舵することなどに基づいて)判定することができる。車両202が車線を変更しようとしているとの判定に基づいて、ITS218は、その車両の近くにある隣の車線の他の車両に送信されるべきメッセージに関連する車線変更条件が満たされると判定することができる。ITS218は、他の車両に送信するための1つまたは複数のメッセージをITSスタックに生成させることができ、これは、他の車両と車線変更を調整するために使用され得る。応用の他の例には、とりわけ、前方衝突警告、自動緊急ブレーキ、車線逸脱警告、歩行者回避または保護(例えば、ユーザのUEのV2P通信などに基づいて、歩行者が車両202の近くで検出されるとき)、交通標識認識がある。
【0091】
ITS218は、任意の適切なプロトコルを使用してメッセージ(例えば、V2Xメッセージ)を生成することができる。ITS218によって使用され得るプロトコルの例は、Society of Automotive Engineering(SAE)J2735、SAE J2945、SAE J3161などの、1つまたは複数のSAE規格、および/または他の規格を含む。
【0092】
ITS218のセキュリティ層は、他の車両、歩行者UE、および/またはインフラストラクチャシステムなどの、V2X通信のために構成される他のUEに送信され、それらによって検証されるITSスタックからのメッセージに、セキュアに署名するために使用され得る。セキュリティ層は、そのような他のUEから受信されたメッセージを検証することもできる。いくつかの実装形態では、署名および検証プロセスは、車両202のセキュリティコンテキストに基づき得る。いくつかの例では、セキュリティコンテキストは、1つまたは複数の暗号化-復号アルゴリズム、暗号化-復号アルゴリズムを使用して署名を生成するために使用される公開鍵および/若しくは秘密鍵、ならびに/または他の情報を含んでもよい。例えば、ITSスタックによって生成される各ITSメッセージは、セキュリティ層によって署名され得る。署名は、公開鍵および暗号化-復号アルゴリズムを使用して導出され得る。署名されたメッセージを受信する車両、歩行者UE、および/またはインフラストラクチャシステムは、メッセージが承認された車両からのものであることを確実にするために、署名を検証することができる。いくつかの例では、1つまたは複数の暗号化-復号アルゴリズムは、1つまたは複数の対称暗号化アルゴリズム(例えば、高度暗号化標準(AES)、データ暗号化標準(DES)、および/または他の対称暗号化アルゴリズム)、公開鍵および秘密鍵を使用する1つまたは複数の非対称暗号化アルゴリズム(例えば、Rivest-Shamir-Adleman(RSA)および/または他の非対称暗号化アルゴリズム)、および/または他の暗号化-復号アルゴリズムを含むことができる。
【0093】
いくつかの例では、ITS218は、モバイルデバイス150などの他のUEから受信されたメッセージに基づいて実行すべきいくつかの動作(例えば、V2Xベースの動作)を判定することができる。動作は、例えば、限定はしないが、安全関連動作、ナビゲーション動作、運転動作、ならびに/または道路安全、交通効率、ナビゲーション、インフォテインメント、ビジネス、運転動作、および/若しくは他の用途のための動作などの他の動作を含むことができる。いくつかの例では、動作は、車両202(例えば、制御システム214)に、自動機能の中でもとりわけ、自動ブレーキ、自動操舵(例えば、特定の車線において向きを維持するための)、他の車両との自動車線変更調整、自動加速および/または減速などの、自動機能を実行させることを含むことができる。例示的な一例では、メッセージは、通信システム222によって、別の車両(例えば、PC5インターフェースを介して)またはモバイルデバイスなどの別のUEから受信され得る。メッセージは、他の車両が停止しつつあることを示すことができる。メッセージの受信に応答して、ITS 218は、メッセージまたは命令を生成し、そのメッセージまたは命令を制御システム214に送信することができる。メッセージまたは命令は、制御システム214に、他の車両と衝突する前に(例えば、他の車両に衝突する前に)、車両202を自動的に制動させて車両202を停止させる(または車両202の速度を低下させる)ことができる。
【0094】
他の例示的な実施例では、動作は、とりわけ、別の車両が車両202の隣の車線にあることなどの車両関連のイベントを車両202の乗員(例えば、運転者)に警告するメッセージ、車両202を停止するよう乗員(例えば、運転者)に警告するメッセージ、歩行者が近づいてくる横断歩道(例えば、車両202の閾値近接度内の横断歩道、および/または特定の期間内に車両202に近づいていると推定される横断歩道など)にいることを乗員(例えば、運転者)に警告するメッセージ、料金所が車両202の特定の距離内(例えば、1マイルまたは任意の測定単位による任意の他の距離内)にあることを乗員(例えば、運転者)に警告するメッセージの提示/表示をトリガすることを含むことができる。
【0095】
コンピューティングシステム210は、1つまたは複数のセンサシステム220(例えば、第1のセンサシステムから第Nのセンサシステム、ここでNは2以上の値である)を含み得る。いくつかの例では、センサシステム220は、車両202に、またはその様々な部分に配置され得る、様々なタイプのセンサシステムを含むことができる。いくつかの例では、センサシステム220は、1つまたは複数のカメラセンサシステム、LIDARセンサシステム、RADARセンサシステム、EmDARセンサシステム、SONARセンサシステム、SODARセンサシステム、GNSS受信機システム(例えば、1つまたは複数のGPS受信機システム)、加速度計、速度センサ、ジャイロスコープ、磁力計、圧力センサシステム、IMU、赤外線センサシステム、無線周波数(RF)センサシステム、レーザ測距システム、超音波センサシステム、超低周波センサシステム、マイクロフォン、重量センサ、それらの任意の組み合わせ、および/または他のセンサシステムを含むことができる。任意の数のセンサまたはセンサシステムが、車両202のコンピューティングシステム210の一部として含まれ得ることを理解されたい。
【0096】
車両コンピューティングシステム210はいくつかの構成要素および/またはシステムを含むものとして示されるが、車両コンピューティングシステム210は図2に示されるものより多数または少数の構成要素を含むことができることを当業者は理解するだろう。例えば、車両コンピューティングシステム210は、1つまたは複数の入力デバイスおよび1つまたは複数の出力デバイス(図示せず)も含むことができる。いくつかの実装形態では、車両コンピューティングシステム210は、(例えば、制御システム214、インフォテインメントシステム216、通信システム222、および/若しくはセンサシステム220の一部として、またはそれらとは別に)少なくとも1つのプロセッサおよび少なくとも1つのプロセッサによって実行されるコンピュータ実行可能命令を有する少なくとも1つのメモリも含むことができる。少なくとも1つのプロセッサは、少なくとも1つのメモリと通信しており、かつ/またはそれに電気的に接続される(「結合される」または「通信可能に結合される」と呼ばれる)。少なくとも1つのプロセッサは、例えば、1つまたは複数のマイクロコントローラ、1つまたは複数のCPU、1つまたは複数のFPGA、1つまたは複数のASIC、1つまたは複数のGPU、1つまたは複数のNPU、1つまたは複数のDSP、1つまたは複数のISP、1つまたは複数のVPU、1つまたは複数のアプリケーションプロセッサ(Aps)(例えば、1つまたは複数のソフトウェアアプリケーションを走らせ、または実行するための)、および/または他のプロセッサを含むことができる。少なくとも1つのメモリは、例えば、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)(例えば、スタティックRAM(SRAM))、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、フラッシュメモリ、1つ若しくは複数のバッファ、1つ若しくは複数のデータベース、および/または他のメモリを含むことができる。少なくともメモリの中に、または少なくともメモリ上に記憶されるコンピュータ実行可能命令は、本明細書において説明される機能または動作の1つまたは複数を実施するために実行され得る。
【0097】
図3は、車両内位置特定のための例示的なシステムプロセス300を示す図である。この例では、モバイルデバイス150は、車両202の内部に位置する。モバイルデバイス150は、車両202の運転者など、車両202の乗員によって装着されるARデバイスを含むことができる。モバイルデバイス150は、システムプロセス300を使用して、それ自体を車両202内で位置特定することができる。
【0098】
モバイルデバイス150は、車両内位置特定を使用して、車両202に対するその姿勢を理解し、車両202の乗員を監視して、乗員の任意の乗員障害(例えば、注意散漫、中毒、眠気、健康緊急事態/条件、ストレスおよび/または高まった感情状態、不注意など)を検出し、乗員活動/イベントを監視し、車両イベント/活動を監視/検出し、車両イベントを緩和し、および/または車両202の動作を制御し、乗員に対してどの(もしあれば)コンテンツ(例えば、仮想コンテンツ、イベント、データ、ユーザインターフェースなど)をレンダリング(および/またはフィルタリング)すべきかなどを判定することができる。場合によっては、モバイルデバイス150によってレンダリング/フィルタリングされるコンテンツは、センサ測定値、検出されたイベントなど、車両202および/またはモバイルデバイス150上のセンサシステム102からのデータを含む(またはそれらからのデータに基づく)ことができる。
【0099】
場合によっては、車両202は、乗員のためにコンテンツをレンダリング/フィルタリングすることもできる。例えば、車両202は、車両202上/におけるスクリーン、車両202上/におけるヘッドアップディスプレイ、車両202のダッシュボード上のディスプレイ、車両202上/におけるプロジェクタデバイス、および/または任意の他のディスプレイデバイスを使用してコンテンツをレンダリングすることができる。いくつかの例では、車両202によってレンダリングされるコンテンツは、車両202からのデータ、センサシステム102からのデータ、および/またはウェアラブルデバイス、別の車両のコンピューティングシステムなどの1つまたは複数の他のデバイスからのデータを含むことができる。場合によっては、車両202は、車両202の座標系に対するモバイルデバイス150の姿勢を受信し、姿勢情報を使用して、どのコンテンツをレンダリングおよび/若しくはフィルタリングするかを判定し、ならびに/またはそのようなコンテンツをどこでおよび/若しくはいつレンダリング/フィルタリングするかを判定することができる。
【0100】
示されるように、車両コンピューティングシステム210上の車両アプリケーション302は、車両テンプレート304をモバイルデバイス150に送信することができる。モバイルデバイス150は、本明細書でさらに説明するように、車両テンプレート304を使用して、それ自体を車両202内で位置特定することができる。車両テンプレート304は、車両202の内部のランドマーク/マーカ306を指定および/または記述することができる。車両テンプレート304は、車両202の座標系に対するランドマーク/マーカ306の座標を指定することもできる。ランドマーク/マーカ306の座標は、車両202の座標系に対するランドマーク/マーカ306の位置および/または向きを含み得る。ランドマーク/マーカ306は、モバイルデバイス150上の1つまたは複数の画像センサ(例えば、画像センサ104)を使用して撮像および検出され得る任意の視覚ランドマーク/マーカを含み得る。例えば、ランドマーク/マーカ306は、車両202内部の1つまたは複数の視覚パターン、車両202内部の能動照明、車両202内部の要素またはオブジェクト(可動および/または不動要素)、デバイス、車両202内部の一部、および/または任意の他の視覚ランドマーク/マーカを含み得る。いくつかの実施例では、画像センサのうちの1つまたは複数は、RFおよび/またはIR撮像を行うように構成されることができる。これらの例では、ランドマーク/マーカ306は、RFおよび/またはIRで感知され得る車両202の内部のオブジェクトおよび/またはパターンを含み得る。
【0101】
いくつかの例では、ランドマーク/マーカ306は、車両202の内部(および/または内部のオブジェクト)に配置および/または固定された1つまたは複数のパターンまたはコード(例えば、クイックレスポンス(QR)コード(登録商標)、バーコード、チェッカー盤パターン、形状、シンボルなどのパターン化デザイン)、車両202の内部(および/または内部のオブジェクト)に配置および/または固定されたライト(例えば、発光ダイオード(LED)、電球など)、車両202の内部のオブジェクト(例えば、ドア、窓、座席、ヘッドレスト、車両202のダッシュボード/パネルおよび/またはセンターコンソールの構成要素(例えば、計装、ラジオ/メディアシステム(および/またはその構成要素))、ハンドル、ホーン、信号伝達システム、シフトレバー、カップホルダ、制御装置など)、車両202の内部の可動および/または不動要素(例えば、車両202の(例えば、フロントガラス、窓、ダッシュ、ドア、サイドパネル、リアウィンドウなどの)内部のコーナーなどの部分、カーシート、ハンドルなど)を含み得る。
【0102】
モバイルデバイス150は、ランドマーク/マーカ306を撮像するために1つまたは複数の画像センサ104を使用することができる。例えば、モバイルデバイス150は、1つまたは複数の画像センサ104を使用して、車両202内のランドマーク/マーカ306を示す1つまたは複数の画像をキャプチャすることができる。モバイルデバイス150の位置特定エンジン312は、1つまたは複数の画像センサ104からの1つまたは複数の画像および車両テンプレート304を使用して、車両202内でそれ自体を位置特定することができる。例えば、モバイルデバイス150は、1つまたは複数の画像センサ104によってキャプチャされた1つまたは複数の画像中に示されたランドマーク/マーカ306を検出することができる。位置特定エンジン312は、車両テンプレート304を使用して、車両202の座標系に対するランドマーク/マーカ306の座標(および向き)を判定することができる。位置特定エンジン312は、車両202の座標系に対するランドマーク306の座標を、モバイルデバイス150の座標系に対する関連付けられた座標に変換するために、変換などのアルゴリズムを実装することができる。位置特定エンジン312は、車両202に対するランドマーク/マーカ306の座標、およびモバイルデバイス150に対するランドマーク/マーカ306の座標を使用して、車両202内のモバイルデバイス150の姿勢(例えば、車両202の座標系に対する)を判定し得る。
【0103】
いくつかの例では、位置特定エンジン312は、モバイルデバイス150の座標系に対するモバイルデバイス150の追跡されたロケーション(例えば、モバイルデバイス150上の1つまたは複数のセンサからのセンサデータに基づく)を使用して、ランドマーク/マーカ306のロケーションおよび/または向きに対するモバイルデバイス150の姿勢を判定することができる。位置特定エンジン312は、車両202の座標系に対するモバイルデバイス150の姿勢を判定するために、ランドマーク/マーカ306のロケーションおよび/または向きに対するモバイルデバイス150の姿勢を使用することができる。
【0104】
場合によっては、位置特定エンジン312は、他のセンサ(例えば、ロケーションセンサ106、IMU108など)からのデータを使用して、車両202内のモバイルデバイス150の姿勢を判定するのを支援することができる。例えば、ロケーションセンサ(単数または複数)106は、センサデータ/信号(例えば、WiFiまたはBluetoothなどのRF信号、超音波信号など)を使用して、車両202内の1つまたは複数のオブジェクトに対するモバイルデバイス150の姿勢を判定することができる。ロケーションセンサ(単数または複数)106は、モバイルデバイス150の判定された姿勢を位置特定エンジン312に与えることができる。位置特定エンジン312は、車両202内のモバイルデバイス150を位置特定するために、前述したように、そのような姿勢情報ならびにランドマーク/マーカ306に基づいて判定されたロケーションおよび/または向き情報を使用することができる。
【0105】
車両内位置特定に基づいて、位置特定エンジン312は、車両202の座標系に対するモバイルデバイス150の姿勢を示す位置特定データ314を生成することができる。位置特定エンジン312は、位置特定データ314をモバイルデバイス150上のARアプリケーション310に提供することができる。いくつかの例では、ARアプリケーション310は、位置特定データ314を使用して、車両202の乗員のための(例えば、モバイルデバイス150のユーザのための)ユーザインターフェースをレンダリングし、乗員のために(もしあれば)どのコンテンツをレンダリングすべきかを判定し、(もしあれば)どのコンテンツをフィルタリングすべきかを判定し、乗員を(例えば、障害、活動/イベントなどについて)監視し、イベントを緩和し、ならびに/または本明細書で説明されるような任意の他の出力および/若しくは判定を行うことができる。場合によっては、位置特定エンジン312および/またはモバイルデバイス150は、位置特定データ314を車両コンピューティングシステム210に提供することができ、車両コンピューティングシステム210上の車両アプリケーション302は、位置特定データ314を使用して、ユーザインターフェースおよび/または本明細書に説明される任意の他のデータをレンダリングすることができる。場合によっては、車両アプリケーション302は、追加または代替として、イベントデータ、乗員の状態に関するデータ(例えば、乗員の障害を示すデータ)、車両計装データ、および/または任意の他のデータを使用して、ユーザインターフェースおよび/または乗員のための任意の他の仮想コンテンツをレンダリングすることができる。
【0106】
場合によっては、モバイルデバイス150は、1つまたは複数の画像を使用して、任意の他のデータおよび/またはモダリティを用いてまたは用いずに、モバイルデバイス150の姿勢を判定することができる。例えば、モバイルデバイス150は、車両202の座標系に対するモバイルデバイス150の姿勢を判定するために、車両202の内部の1つまたは複数の画像を使用することができる。1つまたは複数の画像は、車両202の内部における1つまたは複数のランドマーク/マーカを描写することができる。モバイルデバイス150は、1つまたは複数の画像を使用して、それ自体に対する1つまたは複数のランドマーク/マーカの位置を識別することができ、モバイルデバイス150は、それを使用して、車両202内のモバイルデバイス150の姿勢(例えば、1つまたは複数のランドマーク/マーカに対する、および/または車両202の座標系に対する)を判定することができる。
【0107】
図4Aは、車両乗員支援のための拡張現実の例示的なシステムプロセス400を示す図である。この例では、車両202は、前述のようにランドマーク306を含み得る。車両コンピューティングシステム210は、車両202上のセンサシステム220からセンサデータ406を取得することができる。センサデータ406は、本明細書でさらに説明するように、モバイルデバイス150に提供される車両データ408の少なくとも一部を生成するために使用され得る。いくつかの例では、センサデータ406はまた、車両アプリケーション302の車両監視エンジン402によって、車両202および/または車両202の動作を監視するために、および/または車両アプリケーション302のイベント緩和エンジン404によって、イベント緩和を実行する(例えば、運転者を支援する、運転者によって開始/トリガされたエラーおよび/または動作を訂正するなど)ために使用され得る。例えば、車両監視エンジン402は、センサデータ406を使用して、車両202およびその周囲に関連する状況イベントおよび/または他のイベント(例えば、切迫したイベントおよび/または発生しているイベント)を認識および/または監視することができる。別の例として、イベント緩和エンジン404は、センサデータ406を使用して、例えば、限定はしないが、1つまたは複数の車両機能、動作、および/またはアクションを防止および/または実施することと、運転者に対する警告/警報を生成することと、運転者によって開始/トリガされたエラーおよび/または動作を訂正することと、セーフガードを実施することと、1つまたは複数の自律運転能力を作動させることなどの、運転者イベント緩和アクションを実行することができる。いくつかの例では、イベント緩和エンジン404は、本明細書で説明するように、モバイルデバイス150からの1つまたは複数の運転者監視イベントの受信に応答して、運転者イベント緩和アクションを実行することができる。
【0108】
センサデータ406は、車両202の状況/状態、車両周囲の状況、ナビゲーション情報、運転/動作イベント、安全イベントなどに関する情報を提供することができる。例えば、センサデータ406は、車両202の動作(例えば、速度、進行方向/方向、加速度/減速度など)、車両202のロケーション、車両202に関連付けられた運転/動作統計、車両202に関連付けられた検出された活動/イベントに関連付けられたタイムスタンプ、任意の条件(例えば、オブジェクト、車線区分線、交通信号、歩行者、他の車両、動物、道路条件、交通、天候、インフラストラクチャ条件、照明、付近の障害物など)および/または車両202の外部の活動/イベント(例えば、車両202の経路に沿って、車両202の外部で発生、車両202の周囲、車両202の外部の環境、車両202の近傍など)、ナビゲーション情報などを示すデータを含むことができる。
【0109】
別の例として、センサデータ406は(追加または代替として)、車両202の任意の条件および/または状態(例えば、バッテリー充電状態、燃料残量、警告および/またはエラー、故障または誤動作など)、車両202の1つまたは複数の構成要素の任意の条件および/または状態(例えば、タイヤ、ブレーキ、車両センサ、エンジン、ドアロック、無線および/または音響システム、制御および/または信号伝達システム、車両コンピューティングシステム210、死角情報システム、運転者監視システム、ブレーキシステム、自律運転構成要素、駐車センサ、運転者支援システム、ナビゲーションシステム、自動車ヘッドアップディスプレイ、光センサ、車両ライト、車両通信システム(例えば、V2V、V2I、V2X)など)、車両202によって実装されるまたは実装される任意の機能/アクション(例えば、オートパイロット、トラクション制御、クルーズ制御、衝突回避、車線逸脱、車線中心化、安定性制御、ブレーキ支援、交通警報、車線維持、高速道路支援、駐車、交通標識認識、死角監視、運転者監視、交差点支援、車線変更支援、インテリジェント速度適応、タイヤ圧力監視、旋回、加速/減速、信号伝達など)、任意の車両安全関連イベント(例えば、切迫した衝突、動作エラー、1つまたは複数の規制の違反(例えば、速度制限、シートベルト規制、車線変更規制、道路安全規則など)、衝突および/または衝撃イベントなどを含み得る。
【0110】
場合によっては、センサデータ406は、車両202の乗員に関連付けられた測定値を含むことができる。例えば、センサデータ406は、車両202の1つまたは複数の座席上の1つまたは複数の重量センサからの測定値を含むことができる。1つまたは複数の重量センサからの測定値は、乗員が車両202の特定の座席にいることを示すことができる。いくつかの例では、1つまたは複数の重量センサの測定値は、本明細書でさらに説明するように、乗員および/またはモバイルデバイス150の位置を判定するのを助けるために使用され得る。例えば、測定値は、乗員が車両202の特定の座席にいることを示し得る。モバイルデバイス150は、本明細書でさらに説明するように、1つまたは複数のセンサを使用して乗員のロケーション/位置を確認することができる。
【0111】
車両202は、前述したようにランドマーク306を含み得る。車両コンピューティングシステム210は、車両データ408をモバイルデバイス150に提供することができる。車両データ408は、車両テンプレート(例えば、車両テンプレート304)を含むことができる。いくつかの例では、車両データ408はまた、センサデータ406および/またはセンサデータ406に基づいて生成されたデータのいずれかを含むことができる。場合によっては、センサデータ406に基づいて生成されるデータは、例えば、限定するものではないが、センサデータ406内の情報の記述(例えば、センサ測定値および/または車両計装の記述)、センサデータ406から生成される1つまたは複数の判定および/または予測(例えば、車両202の環境内で発生し、かつ/または車両202の動作(および/または関連する安全リスク)に影響を及ぼすと推定される、判定および/または予測されるイベントなど)、センサデータ406から生成される1つまたは複数の出力および/または推論、センサデータ406に関連する統計および/またはメトリック、センサデータ406によって識別および/または記述されるイベント、車両202に関連する状況情報(例えば、車両202の状況/状態)、センサデータ406の1つまたは複数の属性などを含むことができる。
【0112】
例えば、場合によっては、車両データ408は、車両テンプレートと、センサデータ406に含まれるおよび/若しくはセンサデータ406から生成されるイベントデータ、ならびに/またはセンサデータ406に含まれるおよび/若しくはセンサデータ406から生成される車両状況情報のうちの少なくとも1つとを含むことができる。場合によっては、イベントデータは、1つまたは複数のオブジェクトおよび/または対象(例えば、歩行者、動物、インフラストラクチャオブジェクト、建物、デバイス、自転車、バイク、交通、ゲート、標識など)、障害物(例えば、窪み、縁石、コーン、木、道路工事、事故、道路ブロック、電気ケーブル、路側のゴミまたは物体、デブリ、水分、氷、雪など)、事件(例えば、衝突、接近または切迫した遭遇、別の車両による操縦、路側活動、緊急または緊急車両など)、別の車両など、車両202を取り囲むおよび/または関連付けられた環境におけるイベント(例えば、進入/接近イベント、退出イベント、静止イベント、移動イベント、予測イベントなど)の指標を含むことができる。
【0113】
場合によっては、イベントは、1つまたは複数のイベントおよび/または車両のロケーション/軌道、および/または車両202の動作/ナビゲーションに対する関連性に基づく1つまたは複数のイベントを含むことができる。例えば、イベントは、車両202の経路内で/経路に沿って検出されたイベント、および/または車両202による閾値期間若しくは閾値移動距離内で車両202の経路内に/経路に沿って存在すると予測されるイベント、車両202および/または車両202の経路に対する閾値近接度/距離内のイベント、車両202による操縦(例えば、加速、減速、旋回、制動、車線中心化、衝突回避、停止、信号伝達等)および/または車両202の動作(例えば、ポリシー)の変更(例えば、経路変更、自律運転機能の変更または実施、1つまたは複数の運転パラメータおよび/または閾値の変更等)をトリガ/促すと推定されるイベント等を含み得る。
【0114】
車両データ408内の車両テンプレートは、車両202内のランドマーク306の指標と、車両202の座標系に対する(例えば、車両202上の車両コンピューティングシステム210の座標系に対する)ランドマーク/マーカ306の座標および/または向きとを含み得る。例えば、車両テンプレートは、車両202内のランドマーク/マーカの記述と、車両202の座標系に対するランドマーク/マーカの座標および/または向きとを含み得る。モバイルデバイス150は、前述のように、車両データ408(および車両データ408の任意の他の部分)内の車両テンプレートを使用して、それ自体を車両202内で位置特定することができる。いくつかの例では、モバイルデバイス150はまた、車両データ408を使用して、例えば、本明細書で説明されるAR、監視、レンダリング、制御、通信、運転者支援、および/または緩和機能のいずれかなど、本明細書で説明される機能のいずれかを実行することができる。
【0115】
位置特定エンジン312は、車両202内のモバイルデバイス150を位置特定する位置特定データ314を生成することができる。位置特定エンジン312は、本明細書でさらに説明されるように、監視エンジン410、コンテンツフィルタリングエンジン412、および/または車両ユーザインターフェース414による使用のために、位置特定データ314をARアプリケーション310に提供することができる。位置特定データ314は、車両202の座標系に対するモバイルデバイス150の姿勢を含むことができる。いくつかの例では、位置特定エンジン312は、車両データ408に基づいて(例えば、車両データ408内の車両テンプレートに基づいて)、およびモバイルデバイス150の1つまたは複数の画像センサ104からの画像データに基づいて、位置特定データ314を生成することができる。
【0116】
例えば、位置特定エンジン312は、1つまたは複数の画像センサ104から、ランドマーク/マーカ306の1つまたは複数の画像を取得することができる。1つまたは複数の画像は、ランドマーク/マーカ306のうちの1つまたは複数を描写することができる。位置特定エンジン312は、1つまたは複数の画像内に描写されるランドマーク/マーカ306を検出することができる。位置特定エンジン312は、車両テンプレートを使用して、車両テンプレートにおいて参照/記述された任意の検出されたランドマーク/マーカの座標および/または向きを判定することができる。車両テンプレート内の座標および/または向きに基づいて、位置特定エンジン312は、車両202の座標系に対する検出されたランドマーク/マーカの位置および/または向きを判定することができる。
【0117】
場合によっては、位置特定エンジン312はまた、追跡エンジン420からの追跡データ422を使用して、モバイルデバイス150の姿勢を判定することができる。いくつかの例では、追跡データ422は、以下でさらに説明するように、物理空間におけるモバイルデバイス150の姿勢を含むことができる。場合によっては、位置特定エンジン312は、車両202の座標系に対するモバイルデバイス150の姿勢を判定するために、検出されたランドマークに対するモバイルデバイス150の姿勢を判定することができる。例えば、位置特定エンジン312は、モバイルデバイス150の座標系に対するランドマーク/マーカ306の位置および/または向きを判定するために、ランドマーク/マーカ306を示す1つまたは複数の画像を使用することができる。位置特定エンジン312は、ランドマーク/マーカ306の位置および/または向きと、追跡エンジン420からの追跡データ422に示されるモバイルデバイス150の姿勢とを使用して、ランドマーク/マーカ306に対するモバイルデバイス150の姿勢を判定することができる。位置特定エンジン312は、モバイルデバイス150とランドマーク/マーカ306との相対姿勢を使用して、車両202の座標系に対するモバイルデバイス150の姿勢を判定することができる。
【0118】
いくつかの例では、車両202の座標系に対するモバイルデバイス150の姿勢を判定するために、位置特定エンジン312は、車両202の座標系に対する検出されたランドマークの座標を、モバイルデバイス150の座標系に対する対応する座標に変換(例えば、転換(convert)、平行移動(translate)等)し得る。例えば、場合によっては、位置特定エンジン312は、車両202の座標系に対する検出されたランドマーク/マーカの座標に対応する、モバイルデバイス150の座標系に対する座標を判定することができる。位置特定エンジン312は、車両202の座標系に対する検出されたランドマーク/マーカのロケーション(例えば、座標)、およびモバイルデバイス150の座標系に対する検出されたランドマーク/マーカのロケーション(例えば、座標)に対するモバイルデバイス150の座標系に対するモバイルデバイス150のロケーション(例えば、座標)を使用して、車両202の座標系に対するモバイルデバイス150の姿勢を判定することができる。
【0119】
場合によっては、位置特定エンジン312はまた、前述のように、ロケーションセンサ106からのデータを使用して、位置特定データ314の生成を支援することができる。例えば、場合によっては、ロケーションセンサ106は、例えば、RFベースの位置特定/測位、超音波ベースの位置特定/測位など、1つまたは複数の位置特定信号/アルゴリズムを使用して、モバイルデバイス150の姿勢および/またはランドマーク/マーカ306のうちの1つまたは複数を判定することができる。
【0120】
場合によっては、センサデータ406は、車両202の1つまたは複数の座席上の1つまたは複数の重量センサからの測定値を含むことができる。1つまたは複数の重量センサからの測定値は、モバイルデバイス150を保持または装着している乗員が車両202の特定の座席にいることを示すことができる。この情報は、前に説明したように、モバイルデバイス150によって判定されたモバイルデバイス150のロケーション/位置を確認するために使用され得る。
【0121】
追跡エンジン420は、センサデータを取得し、追跡動作を実行するためにセンサデータを使用することができる。追跡動作は、モバイルデバイス150、車両202の乗員(および/または乗員の1つまたは複数の身体部分、例えば、手、目、指、頭部姿勢など)などの姿勢(例えば、ロケーション、向きなど)を追跡することができる。センサデータは、1つまたは複数の画像センサ104からの画像データ、IMU108からの位置情報(例えば、角速度、線加速度、向き、および/またはピッチ、ロール、およびヨーの変化)、および/またはモバイルデバイス150および/または車両202のロケーションセンサ106などの1つまたは複数の他のセンサからのデータを含むことができる。いくつかの例では、追跡エンジン420は、モバイルデバイス150の姿勢を判定するために、モバイルデバイス150の位置追跡(例えば、6自由度(6DOF)位置追跡など)を実行するために、1つまたは複数の画像センサ104、IMU108、および/またはロケーションセンサ106からのデータを使用することができる。追跡エンジン420は、追跡データ422を生成し、監視エンジン410、コンテンツフィルタリングエンジン412、および/または車両ユーザインターフェース414による使用のために、追跡データ422をARアプリケーション310に提供することができる。いくつかの例では、追跡データ422は、モバイルデバイス150の座標系に対するモバイルデバイス150の姿勢を含むことができる。
【0122】
追跡エンジン420は、カルマンフィルタ、手追跡アルゴリズム、機械学習アルゴリズム、光線追跡アルゴリズム、視線および/または目追跡アルゴリズム、コンピュータビジョンアルゴリズム、位置追跡アルゴリズムなどの1つまたは複数の追跡アルゴリズムを使用して、モバイルデバイス150および/または車両202の乗員の1つまたは複数の身体部分(例えば、目、手、指、頭など)を追跡することができる。乗員は、車両202の運転者または乗客を含むことができる。追跡エンジン420は、追跡データ422をARアプリケーション310に提供することができる。追跡データ422は、本明細書でさらに説明されるように、位置および/または向き情報を含むことができる。
【0123】
場合によっては、追跡エンジン420は、複数の追跡動作を実行することができる。例えば、追跡エンジン420は、モバイルデバイス150と、車両202の乗員の1つまたは複数の身体部分(例えば、手、目、頭、指、姿勢など)とを追跡することができる。いくつかの例では、追跡エンジン420は、車両202の乗員の手(単数または複数)を追跡することができる。いくつかの例では、追跡エンジン420は、車両202の乗員の目および/または視線を追跡することができる。
【0124】
例示のために、図4Bを参照すると、追跡エンジン420は、デバイス追跡エンジン430、手追跡エンジン432、および/または目追跡エンジン434を含むことができる。デバイス追跡エンジン430は、先に説明したように、モバイルデバイス150の位置および/または向きを追跡することができる。デバイス追跡エンジン430は、ARアプリケーション310のためのデバイス追跡データ440を生成することができる。場合によっては、デバイス追跡データ440は、図4Aに示される追跡データ422の少なくとも一部を含むか、または表すことができる。
【0125】
デバイス追跡エンジン430は、モバイルデバイス150の姿勢を追跡するために、1つまたは複数の画像センサ104からの1つまたは複数の画像および/またはIMU108からの慣性センサデータを使用することができる。場合によっては、デバイス追跡エンジン430は、(追加または代替として)ロケーションセンサ106などの1つまたは複数の追加のセンサからのデータを使用して、モバイルデバイス150の姿勢を追跡することができる。例えば、ロケーションセンサ106は、1つまたは複数のRF信号を取得し、1つまたは複数のRF信号に関連付けられたラウンドトリップ時間(RTT)、1つまたは複数のRF信号に関連付けられた到着時間(TOA)、1つまたは複数のRF信号に関連付けられた受信信号強度インジケータ(RSSI)などに基づいて、モバイルデバイス150に関連付けられた姿勢情報を生成することができる。デバイス追跡エンジン430は、モバイルデバイス150の姿勢を追跡するためにロケーションセンサ106からの姿勢情報を使用することができる。
【0126】
手追跡エンジン432は、モバイルデバイス150に関連付けられた乗員の1つまたは複数の手を追跡することができる。手追跡エンジン432は、ARアプリケーション310のための手追跡データ442を生成することができる。場合によっては、手追跡データ442は、図4Aに示される追跡データ422の少なくとも一部を含むか、または表すことができる。手追跡エンジン432は、1つまたは複数の画像センサ104からの画像データを使用して、乗員の1つまたは複数の手を追跡することができる。画像データは、乗員の1つまたは複数の手の1つまたは複数の画像を含むことができる。手追跡エンジン432は、1つまたは複数の画像内の1つまたは複数の手を検出し、1つまたは複数の手を示す1つまたは複数の画像に基づいて物理空間内の1つまたは複数の手の姿勢を判定することができる。場合によっては、手追跡エンジン432は、(追加または代替として)ロケーションセンサ106などの1つまたは複数の追加のセンサからのデータを使用して、1つまたは複数の手の姿勢を追跡することができる。例えば、ロケーションセンサ106は、1つまたは複数のRF信号を取得し、1つまたは複数のRF信号に関連付けられたRTT、1つまたは複数のRF信号に関連付けられたTOA、1つまたは複数のRF信号に関連付けられたRSSIなどに基づいて、1つまたは複数の手に関連付けられた姿勢情報を生成することができる。手追跡エンジン432は、ロケーションセンサ106からの姿勢情報を使用して、1つまたは複数の手を追跡することができる。
【0127】
手追跡エンジン432は、手追跡アルゴリズム、機械学習アルゴリズム、光線追跡アルゴリズム、コンピュータビジョンアルゴリズムなどの1つまたは複数の追跡アルゴリズムを使用して、1つまたは複数の手を追跡することができる。手追跡エンジン432は、手追跡データ442をARアプリケーション310に提供することができる。手追跡データ442は、物理空間における1つまたは複数の手の姿勢を含むことができる。
【0128】
目追跡エンジン434は、1つまたは複数の画像センサ104からの画像データを使用して、乗員の目および/または視線を追跡することができる。目追跡エンジン434は、ARアプリケーション310のための目追跡データ444を生成することができる。目追跡データ444は、1つまたは複数の時間または期間において判定された乗員の視線を含むことができる。場合によっては、目追跡データ444は、図4Aに示される追跡データ422の少なくとも一部を含むか、または表すことができる。
【0129】
画像データは、乗員の目を描写する1つまたは複数の画像を含むことができる。目追跡エンジン434は、1つまたは複数の画像内の目を検出し、1つまたは複数の画像内の検出された目に基づいて乗員の視線を判定することができる。いくつかの例では、目追跡エンジン434は、1つまたは複数の画像と、光線追跡アルゴリズム、機械学習アルゴリズム、コンピュータビジョンアルゴリズムなどの1つまたは複数のアルゴリズムとを使用して、乗員の視線を検出することができる。目追跡エンジン434は、前述のように、目追跡データ444をARアプリケーション310に提供することができる。
【0130】
ARアプリケーション310は、位置特定データ(例えば、位置特定データ314)および追跡データ(例えば、追跡データ422、デバイス追跡データ440、手追跡データ442、および/または目追跡データ444)を使用して、例えば、乗員監視(例えば、監視エンジン410を介して)、仮想コンテンツフィルタリング(例えば、コンテンツフィルタリングエンジン412を介して)、コンテンツレンダリング(例えば、車両ユーザインターフェース414を介して)、それらの組み合わせ、および/または本明細書に説明されるような他の機能等の種々の機能を行うことができる。例えば、場合によっては、ARアプリケーション310は、車両202に関連付けられたイベントおよび/またはモバイルデバイス150に関連付けられた乗員を監視するように構成された監視エンジン410を実装することができる。
【0131】
ARアプリケーション310は、追加または代替として、位置特定データ(例えば、位置特定データ314)、追跡データ(例えば、追跡データ422、デバイス追跡データ440、手追跡データ442、および/または目追跡データ444)、監視エンジン402からの乗員データ、車両アプリケーション302上の車両データ408および/または監視エンジン410からの車両状態データおよび/またはイベントデータ、センサデータ、および/または任意の他のデータを使用して、仮想コンテンツが乗員のためにレンダリングされるのをフィルタリング/ブロックし、かつ/または仮想コンテンツレンダリングからライブカメラフィードなどのライブコンテンツに切り替えるように構成されたコンテンツフィルタリングエンジン412を実装することができる。
【0132】
ARアプリケーション310は、追加または代替として、仮想コンテンツ、ライブコンテンツ(例えば、カメラフィード等)、および/またはユーザインターフェース要素等のデータをレンダリングするように構成される、車両ユーザインターフェース414を実装することができる。車両ユーザインターフェース414は、位置特定データ(例えば、位置特定データ314)、追跡データ(例えば、追跡データ422、デバイス追跡データ440、手追跡データ442、および/または目追跡データ444)、監視エンジン410からの乗員データ、車両アプリケーション302上の車両データ408および/または監視エンジン402からの車両および/またはイベントデータ、センサデータ、および/または任意の他のデータに基づいて、データをレンダリングすることができる。
【0133】
監視エンジン410は、モバイルデバイス150に関連付けられた乗員を監視し、乗員の状態を検出することができる。いくつかの例では、乗員の状態は、乗員の視線、乗員の姿勢、乗員の活動、乗員の任意の障害、および/または乗員に関する任意の他の情報を含むことができる。乗員の障害は、車両202を安全に操作(例えば、運転、制御、管理等)する乗員の能力にインパクト/影響を与え得る任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件(例えば、認知的、感情的または心理的、生理学的、視覚的、オーディオ、および/または状況的イベント、条件、属性、活動、挙動、注意散漫、および/または状態)を含むことができる。例えば、障害は、車両202を操作し(例えば、運転する、制御する、管理する等)、車両202の動作中に車両202が遭遇する任意のイベント/条件を検出/認識し、車両202の動作中に車両202が遭遇するイベント/条件を回避および/または反応し、車両202を操作することに対する注意/集中の閾値量(および/または車両202に関連する任意のイベント/条件、車両202の動作、車両202の環境/周囲等)を維持する(および/または閾値期間にわたって注意/集中を維持する)などのための、乗員の能力(および/または関連する応答/反応時間)にネガティブにインパクト/影響を与え得るものを含み得る。
【0134】
いくつかの例では、障害は、(例えば、車両202および/または関連する車両および/または関連するイベントの動作からの)注意散漫、眠気の状態、中毒の状態、健康緊急事態(例えば、卒中、心臓発作、発作、緊張病状態、意識喪失など)、感情的または心理的ストレスの状態、高まった感情状態、意識喪失、無能力化、生理学的状態、乗員コンテキスト(例えば、乗員の位置/姿勢、乗員挙動、乗員の動き、乗員活動、乗員の車両202および/または乗員の環境との関わり、乗員の運動の自由度または柔軟性を抑制/制限し、かつ/または乗員の反応時間を短縮する衣服などの乗員衣服、処方眼鏡またはシートベルトなどの医療または安全デバイスを着用しなかったこと、乗員の視界が悪い条件でのサングラスなどの乗員の視界を低下させるアイテム、または乗員の視界を遮断または部分的に遮断し得る衣服など)、安全性リスクを増加させ、かつ/または乗員が車両202を制御し、かつ/または運転および/または車両関連イベントに応答する能力を低下させ得るもの、乗員の認知状態、車両202内の高雑音レベル(例えば、乗員が関連する音に集中し、かつ/または聞く能力を制限し得る)などを含み得る。
【0135】
場合によっては、障害は、車両202の動作および/または車両202に関連付けられたイベントに対する乗員の注意散漫状態、乗員の中毒状態、乗員の健康状態、乗員の覚醒状態、乗員の検出された感情状態、車両202を制御するための(乗員の)障害位置(例えば、運転中に屈む、車両202の1つまたは複数の制御装置から離れる、車両202の動作/挙動を制御するための運転制御装置以外の1つまたは複数のオブジェクトで占有された1つまたは複数の手など)、障害視界(例えば、道路および/または環境の視界/可視性の障害物、光および/または可視性条件の障害または低下など)、および/または任意の他の障害を含み得る。
【0136】
いくつかの例では、監視エンジン410は、位置特定データ(例えば、位置特定データ314)、追跡データ(例えば、追跡データ422、デバイス追跡データ440、手追跡データ442、および/若しくは目追跡データ444)、ならびに/または車両データ408(若しくはその一部)などの任意の他のイベント、状態、および/若しくはセンサデータを使用して、乗員(例えば、運転者、乗客など)を監視し、乗員の任意の障害を検出することができる。例えば、監視エンジン410は、(例えば、車両データ408および/またはセンサデータ406から判定される)車両202の(車両を安全に操作する乗員の能力、例えば、状態/状況、動作、車両イベントなどに関連する、特徴付ける、および/または影響を及ぼす)コンテキスト、(例えば、位置特定データ(例えば、位置特定データ314)、追跡データ(例えば、追跡データ422、デバイス追跡データ440、手追跡データ442、および/または目追跡データ444)、および/または1つまたは複数の画像センサ104、IMU108、ロケーションセンサ106、および/または任意の他のセンサおよび/またはデータから判定される)乗員の姿勢、乗員に対してモバイルデバイス150によってレンダリングされた任意の仮想コンテンツ、および/またはレンダリングされた仮想コンテンツとの任意の検出されたユーザ相互作用(例えば、乗員相互作用)(例えば、入力、視線および/または集中、ジェスチャなど)、目追跡データ、慣性センサデータ、運転統計、他のセンサデータ、それらの任意の組み合わせ、および/または任意の他のデータに基づいて乗員の任意の障害を判定することができる。
【0137】
例えば、車両202のコンテキストは、特定のイベント(例えば、車両の安全な動作に影響を及ぼす)が発生した、または発生することが予想されることを示し得る。監視エンジン410は、特定のイベントに応答して車両202を制御し、かつ/または特定のイベントに関連付けられた安全性の問題および/またはリスクを回避するために、乗員がイベント(および/またはイベントに関連付けられた特定のエリア/方向)に集中し、かつ/または注意を払うべきであり、仮想コンテンツ(または他のコンテンツ)によって注意を逸らされるべきではなく、特定の方法で移動すべきではなく、特定の仮想コンテンツに関与すべきではなく、車両202の操作に注意を払うべきであり、車両202の特定の操作に関連しない特定の活動に関与すべきではなく、特定の方向に向いているべきであり、乗員が特定のイベント(および/または車両202の動作)に応答することを可能にするために特定の方法で位置決めされるべきである等を判定してもよい。あるいは、監視エンジン410は、車両202の状態/状況および/または乗員の位置、注意/集中、視線、向き、動き、コンテンツの関与、活動などに基づいて、乗員が障害状態であると判定し得る。
【0138】
場合によっては、車両202のコンテキストは、車両202の状態/状況、車両イベントなどを含むことができる。いくつかの例では、車両202に関連付けられたイベント(例えば、車両イベント)は、車両202の経路内の障害物、車両202の経路への閾値近接度内の障害物、車両202の経路内の異なる車両(例えば、車、バス、バイク、オフロード車両、自転車、列車、トラック等)、車両202の経路への閾値近接度内の異なる車両、(例えば、車両202の経路内/経路に沿って、車両202の経路に近接してなど)車両202の経路に関連付けられた交通規制(例えば、交通標識、案内標識、可変メッセージ標識、交通コーン、矢印ボード、建設用バレル、バリケード、交通マーカ、一時的な隆起した安全地帯、交通信号機等)、制限速度内に車両202が留まることができないこと、車線または車線区分線内に車両202が留まらなかったこと、道路内に車両202が留まらなかったこと、交通イベント(例えば、事故、交通ルート変更、停止、交通増加、道路閉鎖等)等を含み得る。いくつかの例では、障害物は、歩行者、動物、物体、別の車両、道路条件、木、障害物などを含むことができる。
【0139】
場合によっては、車両202の状態は、例えば、限定するものではないが、加速、減速、信号伝達(例えば、方向指示灯など)、選択された/アクティブなギア、警告(例えば、エンジン警告、バッテリー警告、燃料警告、タイヤ警告、ライト警告など)、操縦(例えば、方向転換、出口/退出、入口/進入、Uターン、停止/制動など)、車両および/または車両部品の条件/状況(例えば、エンジン、バッテリー、1つまたは複数の車両ライト(例えば、ヘッドライト、テールライト、日中走行灯、後退灯、非常灯、フォグライト、オフロードライト、信号灯、ブレーキライトなどの条件/状況)、タイヤ(例えば、タイヤ空気圧、タイヤ警告、パンク条件など)、1つまたは複数のブレーキまたはブレーキシステムの条件/状況、燃料状況および/または燃料読み取り値などの状態/状況)、1つまたは複数の車両構成要素/機能の故障または特定の動作、運転状態、自律状態、車両機能状態などの車両202の動作および/または状況を含むことができる。
【0140】
場合によっては、監視エンジン410は、乗員の状態(例えば、乗員の障害)を、様々なキュー(例えば、視覚キューおよび/またはオーディオキュー)および/または乗員に関する情報、例えば、乗員の条件、特性、および/または状態乗員の任意の活動/動き、乗員の挙動、乗員の視線などに基づいて判定することができる。例えば、監視エンジン410は、乗員の視線または目の動きのパターン(例えば、不規則な目の動き、刺激に対する応答性の低下、長期の目の視線、不規則な目の視線、特定のロケーションまたは方向への集中など)、目の特性(例えば、赤み、瞳孔サイズ、生気のない目など)、1つまたは複数のイベントに対する乗員による反応時間および/または特性(例えば、誇張された反応、反応時間の低下など)、乗員の顔の表情、乗員の頭の姿勢および/または頭の動き(例えば、ジャーキング、頭部回転、傾斜またはぐったりした頭部)、乗員の姿勢(例えば、ぐったりした、うずくまる、体が傾く、不規則な姿勢など)、乗員の動き(例えば、痙攣、運動機能、大げさな動きなど)、乗員による手のジェスチャ、乗員の運転姿勢(例えば、車両202の現在の状態/状況/動作を考慮して、および/または一般的に)、乗員の運転パターン(例えば、加速/減速のパターン、車線変更のパターン、制動のパターン、信号伝達のパターン(またはその欠如)、車両操縦のパターン、旋回のパターンなど)に基づいて障害を判定することができる。
【0141】
場合によっては、監視エンジン410は、(視覚キューに加えて、または視覚キューの代わりに)オーディオキューに基づいて乗員の障害を判定することができる。例えば、場合によっては、監視エンジン410は、モバイルデバイス150および/または車両202のマイクロフォンなどの1つまたは複数のセンサからオーディオデータを取得し、オーディオデータに基づいて障害を判定することができる。例示のために、監視エンジン410は、1つまたは複数の発話特性(例えば、不明瞭な発話、速い発話など)、乗員の声(例えば、声の大きさまたは柔らかさなど)、乗員の認識された発話の内容などに基づいて障害を判定することができる。
【0142】
場合によっては、監視エンジン410は、車両202の状態/状況および/またはモバイルデバイス150によってレンダリングされたコンテンツに基づいて、障害を判定することができる。例えば、車両202の状態が、車両が高速で移動していること、視界が悪い環境で移動していること、困難な条件(例えば、濡れたまたは氷のような条件、厳しい気象条件、急旋回、激しく通過したエリア、大量の歩行者および/または他の交通など)で移動していること、操縦を行っていることなどを示す場合、監視エンジン410は、乗員がモバイルデバイス150によってレンダリングされた仮想コンテンツに閾値期間にわたって集中しているか、または閾値期間にわたって特定のエリア/ロケーション(例えば、道路、車両イベントのロケーションなど)から離れて集中していると判定された場合、(例えば、車両202の操作または安全な操作(例えば、運転)に関係なく)乗員が他の活動に関わっていると判定された場合、乗員が特定の車両制御装置から離れて位置していると判定された場合、乗員が運転安全性を低下させるまたは運転リスクを増加させると判定された特定の姿勢/位置を有すると判定された場合(例えば、前かがみ、曲げ、回転など)、乗員がシートベルトを着用していない場合、視界が悪い条件(例えば、夜間、荒れ模様の気象条件中、濃霧中など)において、乗員が車両灯(例えば、ヘッドライト、フォグライト、テールライト、ブレーキライトなど)なしで車両202を操作しているなどの場合、乗員の障害を判定できる。監視エンジン410は、前述のように乗員に関する任意のキュー(視覚的および/またはオーディオ)に加えて、またはそのようなキューなしで、車両202の状態/状況および/またはモバイルデバイス150によってレンダリングされた内容に基づいて、障害を判定することができる。
【0143】
場合によっては、車両アプリケーション302の車両監視エンジン402は、同様に、乗員の任意の障害を判定することができる。車両監視エンジン402は、ARアプリケーション310の監視エンジン410によって判定された任意の障害情報に加えて、またはその代わりに、任意の障害を判定することができる。例えば、場合によっては、車両監視エンジン402は、ARアプリケーション310の監視エンジン410によって判定された障害情報と組み合わせて障害情報を判定することができる。別の例として、場合によっては、車両監視エンジン402は、ARアプリケーション310の監視エンジン410によって判定されるいかなる障害情報とも別個に、および/またはそれを伴わずに、障害情報を判定することができる。さらに、車両監視エンジン402は、以下でさらに説明するように、車両202のコンテキストを示すデータなどの任意の車両データに加えて、任意の障害を判定することができる。
【0144】
いくつかの例では、コンテンツフィルタリングエンジン412は、位置特定データ(例えば、位置特定データ314)、追跡データ(例えば、追跡データ422、デバイス追跡データ440、手追跡データ442、および/または目追跡データ444)、監視エンジン410(および/または車両監視エンジン402)からの障害情報、ならびに/あるいは車両データ408(またはその一部)などの任意の他のイベント、状態、および/またはセンサデータを使用して、乗員のためにフィルタリング/ブロックおよび/またはレンダリングするコンテンツを判定/選択することができる。例えば、コンテンツフィルタリングエンジン412は、(例えば、車両コンピューティングシステム210の)車両202の座標系に対するモバイルデバイス150の姿勢と、車両202のコンテキスト(例えば、車両202の状態/状況、車両イベント/動作等)を示す車両データとを使用して、車両202の動作および/または車両イベントから乗員の注意を逸らし得る、車両イベントおよび/またはおよび/またはコンテンツフィルタリングエンジン412が乗員に見えるままであるべきと判定する車両202の外部の特定の領域に対する乗員の視界を妨げ得る特定のコンテンツをフィルタリング/ブロックすることができる。場合によっては、コンテンツをフィルタリング/ブロックする代わりに、またはそれに加えて、コンテンツフィルタリングエンジン412は、モバイルデバイス150によってレンダリングされた仮想コンテンツを、車両イベントまたは車両202の外部の環境に対する乗員の視界を妨げない可能性があるライブコンテンツ(例えば、ライブカメラフィード)に置き換えることができる。別の例として、コンテンツフィルタリングエンジン412は、モバイルデバイス150の姿勢および車両202の状態に関する情報を使用して、特定のイベントの方向/ロケーションなどの、特定の方向および/または特定のロケーションに乗員の注意を引く仮想コンテンツをレンダリングすることができる。
【0145】
場合によっては、コンテンツフィルタリングエンジン412は、車両202の座標系に対するモバイルデバイス150の姿勢を使用して、車両202からの情報および/または車両202に関連付けられた情報をモバイルデバイス150の姿勢と相関させることができる。例えば、車両202の状態/状況は、車両コンピューティングシステム210によって報告された車両イベントのロケーションを示し得る。車両イベントのロケーションは、車両の座標系に対するものであってもよい。したがって、モバイルデバイス150の姿勢は、車両の座標系に対して両方とも知られるので、車両イベントのロケーションに相関され得る。コンテンツフィルタリングエンジン412は、車両202の座標系に対するモバイルデバイス150の姿勢を使用して、乗員のためにレンダリングされた任意の仮想コンテンツが、車両202の座標系に対する車両202によって報告されたイベントに対する乗員の視界を遮るかどうかを判定することができる。コンテンツフィルタリングエンジン412が、車両202の座標系に対する特定のロケーションでコンテンツを遮ることを判定した場合、コンテンツフィルタリングエンジン412は、車両202の座標系に対するモバイルデバイス150の姿勢を使用して、特定のロケーションでレンダリングされることから任意のコンテンツをフィルタリング/ブロックすることができる。
【0146】
いくつかの例では、コンテンツフィルタリングエンジン412は、乗員の気を逸らしている、または乗員の気を逸らすと判定された任意の仮想コンテンツをフィルタリングすることができる。例えば、コンテンツフィルタリングエンジン412は、ビデオゲームコンテンツ(または任意の他のコンテンツ)が乗員の気を逸らす可能性があると判定し、任意のビデオゲームコンテンツをフィルタリングして、車両202を操作している間にそのようなコンテンツが乗員に対してレンダリングされることを防止することができる。他の例では、コンテンツフィルタリングエンジン412は、車両202の経路に沿った(または経路の近傍内の)障害物、交通イベント、または本明細書に記載の任意の車両イベントなどの特定のイベントに対する乗員の視界/可視性を遮断/妨害すると判定された任意の仮想コンテンツをフィルタリングすることができる。例えば、コンテンツフィルタリングエンジン412は、車両202の座標系に対するモバイルデバイス150の姿勢と、車両202の座標系に対する車両イベントのロケーション(例えば、車両データ408において示すことができる)とに基づいて、車両データ408において識別された車両イベントに対する乗員の視界が仮想コンテンツによって遮られると判定することができる。次いで、コンテンツフィルタリングエンジン412は、そのような仮想コンテンツをフィルタリング/ブロックして、車両イベントに対する乗員の視界が遮られるのを防止することができ、かつ/または仮想コンテンツのレンダリングからライブフィードの提供に切り替えることができる。いくつかの例では、ライブフィードは、車両イベントを描写してもよく、または車両イベントを妨害しないことがある。
【0147】
車両ユーザインターフェース414は、乗員のためのコンテンツおよび/またはユーザインターフェース要素をレンダリングすることができる。いくつかの例では、車両ユーザインターフェース414は、車両202の状態/状況に基づいてコンテンツおよび/またはユーザインターフェース要素をレンダリングまたは生成することができる。いくつかの例では、車両ユーザインターフェース414は、障害情報を使用して、コンテンツをレンダリングするかどうか、および/またはどのコンテンツを乗員のためにレンダリングするかを判定することができる。例えば、監視エンジン410からの障害情報が、乗員が注意を逸らされることを示す場合、車両ユーザインターフェース414は、そのような情報を使用して、乗員の注意を逸らし得る(若しくは逸らし続ける)コンテンツのレンダリングを停止するか、または乗員の注意を特定のロケーションおよび/若しくはアクション/動作に引き付ける(かつ乗員の注意を逸らす異なるロケーションおよび/若しくはアクション/動作から離れるように)ように構成されたコンテンツをレンダリングすることができる。
【0148】
車両ユーザインターフェース414は、車両202の座標系に対するモバイルデバイス150の姿勢を使用して、乗員のためにコンテンツをどこにレンダリングするか(またはレンダリングするかどうか)を判定することができる。例えば、車両202の座標系に対する何かに乗員の注意を引くために特定のロケーションでコンテンツをレンダリングするために、車両ユーザインターフェース414は、車両202の座標系に対するモバイルデバイス150の姿勢を使用して、その特定のロケーションでコンテンツをレンダリングすることができる。別の例として、車両コンピューティングシステム210が、車両202の座標系に対する特定のロケーションに関連付けられたあるデータを報告する場合、車両ユーザインターフェース414は、車両の座標系に対するモバイルデバイス150の姿勢を使用して、車両202の座標系に対するその特定のロケーションにデータをレンダリングするか、または車両202の座標系に対するその特定のロケーションに対して判定された異なるロケーションにデータをレンダリングすることができる。
【0149】
いくつかの例では、車両ユーザインターフェース414は、車両202の座標系に対するモバイルデバイス150の姿勢を使用して、乗員のためにコンテンツをどこにレンダリングするかを判定することができる。例えば、車両ユーザインターフェース414は、車両イベントに関連付けられた特定のロケーションに仮想コンテンツ(例えば、矢印、境界ボックス、画像、パルス光など)をレンダリングして、乗員の注意を車両イベントに引き付けることができる。別の例として、車両ユーザインターフェース414は、車両イベントのロケーションとは異なるロケーションに仮想コンテンツをレンダリングして、仮想コンテンツが車両イベントに対する乗員の視界を妨げることを防止することができる。いくつかの例では、車両ユーザインターフェース414は、乗員の状態および/または車両202のコンテキストに基づいて、乗員のためにレンダリングする特定のコンテンツを選択することができる。例えば、特定のイベントに対する乗員の視界を妨げることを回避するために、車両ユーザインターフェース414は、仮想コンテンツではなくライブコンテンツ(例えば、ライブカメラフィード)をレンダリングしてもよい。別の例として、乗員の気を逸らすことを回避するために、車両ユーザインターフェース414は、ライブコンテンツではなく仮想コンテンツをレンダリングすることができる。例示すると、車両202のコンテキストが、別の車両が道路脇で故障したこと、または警察によって引っ張られたことを示す場合、車両ユーザインターフェース414は、乗員がむやみに見ることを防止するために、ライブコンテンツではなく仮想コンテンツ(またはコンテンツなし)をレンダリングすることができる。代替として、コンテンツフィルタリングエンジン412は、むやみに見ることを防止するためにライブコンテンツをフィルタリングしてもよく、車両ユーザインターフェース414は、代わりに、仮想コンテンツをレンダリングしてもよく、またはコンテンツを全くレンダリングしなくてもよい。場合によっては、ライブコンテンツは、モバイルデバイス150上の1つまたは複数の画像センサ104および/または車両202の1つまたは複数の画像センサからのライブフィードを含むことができる。
【0150】
場合によっては、ARアプリケーション310は、イベントデータ424を生成することができる。ARアプリケーション310はまた、イベントデータ424を車両コンピューティングシステム210に送信することができる。場合によっては、ARアプリケーション310は、位置特定データ(例えば、位置特定データ314)、追跡データ(例えば、追跡データ422、デバイス追跡データ440、手追跡データ442、および/または目追跡データ444)監視エンジン410、コンテンツフィルタリングエンジン412、および/または車両ユーザインターフェース414からの任意の出力および/またはデータ、モバイルデバイス150の任意のセンサ(例えば、画像センサ104、ロケーションセンサ106、IMU108など)からのデータ、アプリケーションデータ、ユーザ入力、および/または任意の他のデータに基づいてイベントデータ424を生成することができる。場合によっては、イベントデータ424は、位置特定データ(例えば、位置特定データ314)を含むことができる。追跡データ(例えば、追跡データ422、デバイス追跡データ440、手追跡データ442、および/または目追跡データ444)監視エンジン410、コンテンツフィルタリングエンジン412、および/または車両ユーザインターフェース414からの任意の出力および/またはデータ、モバイルデバイス150の任意のセンサ(例えば、画像センサ104、ロケーションセンサ106、IMU108など)からのデータ、アプリケーションデータ、ユーザ入力、および/または任意の他のデータに基づいてイベントデータ424を生成することができる。場合によっては、イベントデータ424は、追加または代替として、位置特定データ(例えば、位置特定データ314)から生成されたイベント、および/または位置特定データの記述を含むことができる。追跡データ(例えば、追跡データ422、デバイス追跡データ440、手追跡データ442、および/または目追跡データ444)監視エンジン410、コンテンツフィルタリングエンジン412、および/または車両ユーザインターフェース414からの任意の出力および/またはデータ、モバイルデバイス150の任意のセンサ(例えば、画像センサ104、ロケーションセンサ106、IMU108など)からのデータ、アプリケーションデータ、ユーザ入力、および/または任意の他のデータに基づいてイベントデータ424を生成することができる。
【0151】
いくつかの例では、イベントデータ424は、上記で説明したように監視エンジン410によって判定された乗員の状態、ARアプリケーション310からのコンテンツ、それらの任意の組み合わせ、ならびに/または任意の他の乗員および/若しくはデバイス情報を含む、示す、および/または記述することができる。いくつかの例では、乗員の状態は、監視エンジン410によって判定された乗員の障害を含むことができる。場合によっては、乗員の状態は、追加または代替として、乗員の姿勢(例えば、ロケーション、向き、姿勢等)、乗員の任意の動き、乗員による任意の活動、乗員の視線、乗員の頭部姿勢、乗員に関する任意の情報、および/または乗員の注意/集中を示す任意の他の情報、乗員の活動、乗員の動き、乗員の可視性または視野(FOV)、乗員の挙動、乗員の位置(例えば、ロケーション、向き、姿勢等)、乗員のリーチ(例えば、1つまたは複数の車両制御装置へのリーチ)、乗員の関与、および/または乗員が車両202の動作を制御するおよび/または車両202に関連付けられたイベントに反応する能力(および/または可能性)を含むことができる。
【0152】
前述したように、ARアプリケーション310は、イベントデータ424を車両202に送信することができる。例えば、ARアプリケーション310は、イベントデータ424を車両コンピューティングシステム210に送信することができる。場合によっては、車両コンピューティングシステム210は、イベントデータ424を受信し、処理/分析のために車両アプリケーション302にイベントデータ424を提供することができる。場合によっては、車両アプリケーション302は、イベントデータ424および/またはセンサデータ406に基づいて、車両202の挙動、動作、機能、および/または状態を制御することができる。
【0153】
例えば、場合によっては、車両アプリケーション302のイベント緩和エンジン404は、イベントデータ424および/またはセンサデータ406に基づいて、車両202の挙動、動作、機能、および/または状態を制御(例えば、修正、実装、有効化、無効化、管理等)することができる。いくつかの例では、イベント緩和エンジン404は、1つまたは複数の車両機能、車両システム、自律能力などを制御および/または関与させることができる。例えば、イベント緩和エンジン404は、オートパイロット機能、トラクション制御機能、クルーズコントロール機能、衝突回避機能、車線逸脱機能、車線中心化機能、ブレーキ支援機能、車線維持機能、高速道路支援機能、車線変更支援機能、速度適応機能、信号機能、交差点支援機能、死角監視システム、運転者監視システム(例えば、監視エンジン402および/または任意の運転者監視システム)、ブレーキシステム、自律運転制御システム、運転者支援システム、ナビゲーションシステム、ステアリング制御システム、車両通信システム、自動車ヘッドアップディスプレイ、および/または任意の他の車両システム、機能、および/または能力を制御および/または関与させることができる。
【0154】
場合によっては、イベント緩和エンジン404は、イベントデータ424に基づいて車両202を制御して、乗員の状態および/またはイベントデータ424に含まれる乗員に関する他の情報から生じる任意のイベントおよび/またはリスクを緩和することができる。いくつかの例では、イベント緩和エンジン404は、イベントデータ424に基づいて、車両の1つまたは複数の先進運転者支援システム(ADAS)によって実行される機能などの1つまたは複数の運転者支援機能をアクティブ化すること、および/または車両の自律運転のポリシー/レベルを高めることができる。例示のために、イベントデータ424が、車両202の乗員が障害を受けている(例えば、注意を逸らしている、中毒であるなど)ことを示す場合、イベント緩和エンジン404は、乗員が障害を受けている間に車両202の動作の少なくとも部分的な制御を行うように、車両202の自律能力に関与し、および/または車両202の自律運転ポリシー/レベルを修正することができる。別の例として、イベントデータ424が、車両202の乗員がセンサデータ406において識別された近くの障害物に注意を払っていない、または近くの障害物を見ることができない(例えば、乗員の視線が異なる方向にあるため、乗員の視界が遮られるため、視界状態が悪いためなど)ことを示す場合、イベント緩和エンジン404は、少なくとも障害物が回避されるか、または潜在的な問題がなくなるまで、車両202の自律能力に関与し、および/または車両202の自律運転ポリシー/レベルを修正して、車両202の動作の少なくとも部分的な制御を行うことができる。
【0155】
いくつかの例では、イベント緩和エンジン404は、乗員の任意の検出された障害を他の外部デバイスに通知/警告することができる。例えば、イベント緩和エンジン404は、他の車両、他のユーザ(例えば、歩行者、別の車両の乗員、交通ガード/コントローラなど)に関連付けられた1つまたは複数のリモートコンピューティングデバイス、車両インフラストラクチャ(例えば、信号機、交通カメラ、街灯、サイネージ、パーキングメータ、車線マーカなど)、1つまたは複数の緊急応答システムおよび/または人員などに通知することができる。
【0156】
車両アプリケーション302の監視エンジン402は、センサデータ406を使用して、車両202のコンテキスト(車両を(安全に)動作させる乗員の能力に関連する、特徴付ける、および/または影響を及ぼす)を監視および/または検出することができる。先に説明したように、いくつかの例では、車両202のコンテキストは、車両202の状態(例えば、状況、動作、挙動、軌道、条件、構成、動作メトリック、環境、車両パラメータ、機能など)、車両イベントなどを含むことができる。例えば、車両202のコンテキストは、特定の車両イベント(車両の安全動作に影響を及ぼす、例えば、特定の活動、条件、事件、環境、動作など)が発生したか、または発生することが予想されることを示すことができる。別の例として、車両202のコンテキストは、車両202の動作、挙動、および/または状況を示すことができる。いくつかの例では、監視エンジン402は、センサデータ406を使用して、例えば、車両202の状態、車両イベントなど、車両202のコンテキストの任意の態様を判定することができる。
【0157】
例えば、監視エンジン402は、センサデータ406内の1つまたは複数の画像(例えば、センサシステム220の1つまたは複数の画像センサによってキャプチャされる車両202の外部のシーンおよび/または環境の一部の1つまたは複数の画像)上に示される1つまたは複数のアイテム(例えば、オブジェクト、イベント、人、動物、道路、車両、シーン、活動、交通規制、構造、障害物、デバイス、ジェスチャなど)を検出、認識、および/または位置特定し、1つまたは複数の動き測定値(例えば、速度、角速度、向き、進行方向、加速度、減速度など)を含むセンサデータ406から慣性センサデータを判定し、センサデータ406内の(例えば、全地球測位システム(GPS)受信機または全地球航法衛星システム(GNSS)受信機などの1つまたは複数のロケーションデバイスからの)ロケーション情報を判定し、車両202に対する1つまたは複数のアイテムのロケーション/位置および/または車両202に対する1つまたは複数のアイテム(例えば、オブジェクト、イベント、人、動物、道路、木、車両、シーン、交通規制、活動、ジェスチャ、デバイス、構造、障害物など)の近接度/距離を示す/記述するセンサデータ406内の(例えば、RADAR、LIDAR、画像センサ、RFベースの測位システムなどの1つまたは複数のセンサからの)追加のロケーション情報を判定することなどによって、車両202のコンテキストを判定することができる。
【0158】
場合によっては、監視エンジン402はまた、モバイルデバイス150のARアプリケーション310からのイベントデータ424を使用して、車両202のコンテキストを監視および/または検出することができる。例えば、監視エンジン402は、車両202のコンテキストを判定するときに、イベントデータ424に示される乗員の状態(例えば、障害、視線、位置、活動など)を考慮することができる。
【0159】
図5は、車両(例えば、車両202)の乗員502のためにレンダリングされる仮想コンテンツを調整するための例示的なユースケース500を示す図である。前に説明したように、ARアプリケーション310は、モバイルデバイス150によってレンダリングされる仮想コンテンツを(例えば、コンテンツフィルタリングエンジン412および/または車両ユーザインターフェース414を介して)調整/修正することができる。ARアプリケーション310は、ARアプリケーション310の監視エンジン410によって判定された乗員の状態、ならびに/または車両データ408において識別された、および/若しくは車両アプリケーション302の監視エンジン402によって判定された車両202のコンテキストに基づいて、仮想コンテンツを(例えば、コンテンツフィルタリングエンジン412および/または車両ユーザインターフェース414を介して)調整することができる。
【0160】
いくつかの例では、ARアプリケーション310は、仮想コンテンツの特性(例えば、サイズ、輝度、透明度、ロケーション、向き等)を無効にする、減光する、または調整することによって、仮想コンテンツを調整することができる。場合によっては、ARアプリケーション310は、ある期間にわたるすべての仮想コンテンツ、車両202の特定のコンテキスト中のすべての仮想コンテンツ、乗員の状態中のすべての仮想コンテンツ、除外または必要とされるものとしてマークされた仮想コンテンツのサブセットを除くすべての仮想コンテンツ(例えば、HUDコンテンツ、車両計装コンテンツ、ナビゲーションコンテンツ、緊急警報など)、乗員が集中している仮想コンテンツの任意の部分、車両イベントを不明瞭にしている任意の仮想コンテンツなどを調整することができる。
【0161】
例えば、ARアプリケーション310は、モバイルデバイス150によってレンダリングされた1つまたは複数の仮想コンテンツアイテム(またはすべての仮想コンテンツ)を(例えば、コンテンツフィルタリングエンジン412を介して)フィルタリング/ブロックすることによって、仮想コンテンツを調整することができる。別の例として、ARアプリケーション310は、どの仮想コンテンツが提示されるか、いつ仮想コンテンツが提示されるか、どこに仮想コンテンツが提示されるか、提示される仮想コンテンツの1つまたは複数の特性(例えば、透明度、サイズ、輝度、ロケーション、向きなど)などを(例えば、車両ユーザインターフェース414を介して)制御することによって、仮想コンテンツを調整することができる。いくつかの例では、ARアプリケーション310は、ARアプリケーション310の監視エンジン410によって判定された乗員の状態、ならびに/または車両データ408において識別された、および/若しくは車両アプリケーション302の監視エンジン402によって判定された車両202のコンテキストに基づいて、仮想コンテンツを(例えば、コンテンツフィルタリングエンジン412を介して)フィルタリング/ブロックすることができる。いくつかの例では、ARアプリケーション310は、監視エンジン402によって判定された乗員の状態、ならびに/または車両データ408において識別されたおよび/若しくは監視エンジン410によって判定された車両202のコンテキストに基づいて、モバイルデバイス150によって提示される仮想コンテンツを(例えば、車両ユーザインターフェース414を介して)調整することができる。
【0162】
図5に示される例示的なユースケース500では、車両202の乗員502は、車両202を運転するために車両202のハンドル505を使用しながら、HMDまたはスマートグラスなどのモバイルデバイス150を装着している。時間Tにおいて、モバイルデバイス150は、乗員502が車両202を運転している間に仮想コンテンツ510をレンダリングしている。次いで、モバイルデバイス150は、(例えば、車両データ408または車両アプリケーション302の監視エンジン402からの通知に基づいて)乗員502の注意および/または相互作用を必要とするイベント512が発生しているまたは切迫している(例えば、閾値期間内および/または車両202による移動距離の閾値量内に発生する)と判定する。場合によっては、モバイルデバイス150は、(例えば、車両データ408または車両アプリケーション302の監視エンジン402からの通知に基づいて)イベント512のロケーションを判定することができる。この例では、イベント512のロケーションは車両202の外部のロケーションであり、イベント512は車両202の経路を横切るベビーカーである。ここでのイベント512は、説明のために提供される1つの例示的な例にすぎない。したがって、他の例は、他のイベントおよび/またはイベントのタイプを含んでもよい。いくつかの例では、イベントは、車両アプリケーション302の監視エンジン402および/または車両ユーザインターフェース414によって、例えば、正例および負例に対して訓練された機械学習分類器を介して、乗員502の注意および/または対話を必要とするものとして分類され得る。
【0163】
モバイルデバイス150の座標系に対する仮想コンテンツ510のロケーションは、車両202の座標系に対するイベント512のロケーションに関連付けられる。本例では、仮想コンテンツ510は、モバイルデバイス150のロケーションからイベント512のロケーションまでの視線内に/視線に沿って位置する。したがって、モバイルデバイス150からの視線および/またはモバイルデバイス150からのイベント512のビュー/可視性は、レンダリングされる仮想コンテンツ510によってブロック/妨害される。
【0164】
仮想コンテンツ510が、乗員502がイベント512を見る能力を妨害/遮断することを防止するために、モバイルデバイス150は、仮想コンテンツ510の1つまたは複数の特性を調整することができる。この例では、時間Tにおいて、モバイルデバイス150は、仮想コンテンツ510の透明度を増加させて、仮想コンテンツ510を通したイベント512の可視性を可能にする。示されるように、時間Tにおいて、イベント512は、その透明度が増加された後、仮想コンテンツ510を通して見ることができる。これは、乗員502がイベント512を見て(および監視/追跡して)、乗員502がイベント512に基づいて必要と考える車両202の動作に対する任意の調整を行うことを可能にする。例えば、乗員502は、車両202を停止させて、イベント512に関連付けられたベビーカーが通過できるようにすることができる。乗員502は、ベビーカーが通過した後に、運転して離れることができる。別の例として、乗員502は、車両202を加速/減速させることができ、および/または車両202がイベント512に関連付けられたベビーカーを回避することを可能にし得る任意の操縦を実施することができる。
【0165】
一方、仮想コンテンツ510が、乗員502がイベント512を見ることを可能にするために上述のように調整されなかった場合、乗員502は、イベント512を見逃す/見落とす可能性がある。イベント512を見ることなく(または反応に間に合うようにイベント512を見ることなく)、乗員502は、イベント512に関連付けられたベビーカーを回避することができなかった可能性があるか、または急におよび/またはより近い距離から反応した可能性があり、これは危険を生み出した可能性があるか、またはベビーカーを回避するのに十分なタイミングでなかった可能性がある。
【0166】
図6A図6Eは、仮想コンテンツを調整するための例示的なユースケースを示す図である。図6Aを参照すると、この例におけるモバイルデバイス150は、車両202の乗員602が注意を逸らしており、乗員602の視野(FOV)610内でイベントが発生すると判定している。本開示では、乗員602のFOV610は、モバイルデバイス150によって修正または定義され得る。より具体的には、FOV610は、モバイルデバイス150のそれぞれの表示エリア上で、またはそれを通して見える視野によって定義され得る。例として、スマートグラスを着用している乗員602のFOV610は、乗員の裸眼のFOVと比較して一般的に縮小されるスマートグラスを通したFOVによって定義され得る。別の例では、乗員の生理学的/解剖学的FOVは、HMDのディスプレイ上により大きなFOVを表示することによって拡大され得る。いくつかの例では、FOV610は、モバイルデバイス150が仮想コンテンツをレンダリングすることができるFOVであり得る。FOV610内のイベントを強調し、かつ/またはFOV610内のイベントに対する乗員602の注意を引くために、モバイルデバイス150は、FOV610内にイベント関連仮想コンテンツ612をレンダリングすることができる。この例では、仮想コンテンツ612は、FOV610のエッジ(または輪郭)のパルス化を含む。エッジのパルス化は、パルス化されたエッジ内のエリアを強調し、そのエリアに乗員602の注意を引くことができる。
【0167】
図6Bでは、モバイルデバイス150は、例えば、車両データ408に基づいて、歩行者620が木615の後ろから現れ、車両202の経路に向かって(または経路内に)移動している車両イベント625を検出している。歩行者620は、以前は木615によって遮られており、歩行者620が木615を通過して車両202の経路に向かって(または経路内に)移動するまで、乗員602またはモバイルデバイス150または車両202には見えなかった。乗員602の注意を車両イベント625(歩行者620を含む)に引き付けるために、および/または車両イベント625(歩行者620を含む)のロケーションを強調するために、モバイルデバイス150は、車両イベント625のロケーションの周囲に、より具体的には、車両イベント625に関連付けられた歩行者620のロケーションの周囲に強調表示622をレンダリングしている。
【0168】
いくつかの例では、モバイルデバイス150は、車両イベント625および/または歩行者620などのその一部の周りに境界ボックス(または任意の他の形状/幾何学的形状)をレンダリングすることができる。場合によっては、モバイルデバイス150は、乗員602の注意を引く(またはさらに引く)ように意図された1つまたは複数の特性に従って強調表示622をレンダリングすることができる。例えば、モバイルデバイス150は、特定のサイズ、色、パターン、形状、透明度、輝度、厚さ、アニメーション、および/または乗員602の注意をよりよく引くために強調表示622をレンダリングするための任意の他の特性に従って、強調表示622をレンダリングすることができる。
【0169】
図6Cは、車両イベント625(歩行者620を含む)に乗員602の注意を引くためのコンテンツをレンダリングし、かつ/または車両イベント625(歩行者620を含む)を強調するための別の例を示す。この例では、モバイルデバイス150は、乗員602のFOV610内に方向インジケータ630をレンダリングしている。方向インジケータ630は、乗員602の頭部および視線を、歩行者620を含む車両イベント625の方向に向ける。方向インジケータ630は、この例では、ヘッドロックされた矢印として示される。しかしながら、他の例は、方向インジケータの他のタイプおよび/または構成を含むことができる。
【0170】
場合によっては、モバイルデバイス150は、乗員602の注意を引く/捉える(またはさらに引く/捉える)ように意図された1つまたは複数の特性に従って、方向インジケータ630をレンダリングすることができる。例えば、モバイルデバイス150は、特定のサイズ、色、パターン、形状、透明度、輝度、厚さ、アニメーション、および/または任意の他の特性に従って方向インジケータ630をレンダリングすることができる。場合によっては、モバイルデバイス150は、乗員602の視覚/視界の周辺をパルス化して、乗員602の注意をさらに引く/捉えることができる。
【0171】
図6Dは、車両202の乗員602のためにモバイルデバイス150によって提示される車両イベントに対応するライブコンテンツの例を示す。この例における車両イベントは、前述のように、歩行者620が木615の後ろから横断/通過することを含む。しかしながら、この場合、乗員602のための仮想コンテンツをレンダリングする代わりに、モバイルデバイス150は、車両202の車両カメラ(例えば、バックアップカメラ、サイドビューカメラ、フロントカメラなど)からモバイルデバイス150によって取得されたカメラフィード640を提示している。カメラフィード640は、歩行者620を含む車両イベントを描写することができ、したがって、乗員602が車両イベントを観察することを可能にし得る。
【0172】
例えば、車両カメラは、そのフィードをモバイルデバイス150にストリーミングすることができる。次いで、モバイルデバイス150は、乗員602による消費のために、車両カメラからのカメラフィード640を提示することができる。カメラフィード640は、歩行者620を含む車両イベントを示すことができる。したがって、モバイルデバイス150によって提示されるカメラフィード640は、乗員602が、モバイルデバイス150によって提示されるカメラフィード640から車両イベント(歩行者620を含む)を見ることを可能にすることができる。
【0173】
図6Eは、モバイルデバイス150によってレンダリングされた車両イベント625の外部ビュー650を示す。この例における外部ビュー650は、車両壁641にロックされる(および/または投影される)。いくつかの例では、車両壁641は、本明細書で前述した車両テンプレートに基づくことができる。車両壁641は、車両202の乗客側の内壁として示される。しかしながら、外部ビュー650は、車両内部の任意の壁、側面、または部分にレンダリングおよび/またはロックすることができる。
【0174】
外部ビュー650は、歩行者620を含む車両イベント625を示すことができる。いくつかの例では、外部ビュー650は、車両イベント625の仮想コンテンツレンダリングを含むことができる。他の例では、外部ビュー650は、車両イベント625のライブコンテンツレンダリング(例えば、カメラフィード)を含むことができる。外部ビュー650は、車両壁641が乗員602にとって透明または半透明に見え、車両イベント625が乗員602にとって可視に見えるように(例えば、外部ビュー650によってレンダリングされるように)レンダリングすることができる。場合によっては、外部ビュー650は、車両の座標系に対するモバイルデバイス150(したがって、モバイルデバイス150を装着している乗員602)の位置および/または車両の座標系に対する車両イベント625の位置に基づいて、歪みを受けるおよび/またはパースペクティブ補正され得る。
【0175】
場合によっては、モバイルデバイス150によってレンダリングされるコンテンツは、車両データ(例えば、車両データ408)または車両データの一部を含むことができる。例えば、図6A図6Eに示される例のいずれかにおいてレンダリングされるコンテンツは、例えば、車両状況情報、車両計装データ、車両情報、車両202の1つまたは複数のセンサからのデータなどの車両データまたは車両データの一部を含むことができる。説明すると、モバイルデバイス150によってレンダリングされるコンテンツは、車両202の速度の指標、車両202の方向、車両202のルート、車両202のバッテリー状況、車両202の燃料状態、車両202のオイル状態、車両202に関連付けられた走行距離、車両202に関連付けられたナビゲーションデータ、車両202の1つまたは複数のタイヤに関連付けられたタイヤ圧力(および/またはタイヤ状態/状況)、車両202においてアクティブ/オン/有効である制御信号の指標、車両ブレーキに関する情報、車両警告、車両エラー、1つまたは複数の車両ライト(例えば、ヘッドライト、テールライト、後退灯、日中走行灯、フォグライト、オフロードライト、信号灯、ブレーキライト、緊急ライトなど)に関する情報(例えば、状態/状況、警告など)、ステアリングシステムに関する情報、1つまたは複数の車両システムおよび/または自律機能に関する情報、クルーズ制御状況情報、シートベルト情報、および/または任意の他の車両情報および/または計装を含むことができる。
【0176】
場合によっては、モバイルデバイス150は、車両202からストリーミングされた車両情報(例えば、車両状況情報、計装、ナビゲーション情報など)をレンダリングすることができる。いくつかの例では、モバイルデバイス150は、ヘッドロックされたHUDまたはワールドロックされたユーザインターフェース(UI)要素として車両情報を提示することができる。場合によっては、モバイルデバイス150は、実世界のコンテンツおよび/または広告板、事故などの乗員の注意を逸らし得るイベントを置き換えるために仮想コンテンツをレンダリングすることができる。いくつかの態様では、モバイルデバイス150は、画像のデータベースから「ディープフェイクされた」(例えば、合成)仮想コンテンツを生成するように訓練されたディープニューラルネットワークを使用して、本明細書で説明される仮想コンテンツのいずれかをレンダリングすることができる。場合によっては、「ディープフェイクされた」仮想コンテンツは、モバイルデバイス150および/または車両202によって観察されるスタイルでレンダリングすることができる。
【0177】
前述のように、モバイルデバイス150のARアプリケーション310の監視エンジン410は、車両202の1人以上の乗員の状態を監視し、理解することができる。場合によっては、車両コンピューティングシステム210の車両アプリケーション302の監視エンジン402は、代替または追加として(例えば、ARアプリケーション310の監視エンジン410と組み合わせて、または別個に)、車両202の1人以上の乗員の状態を監視および理解することができる。いくつかの例では、乗員の状態は、例えば、検出された障害、視線、ロケーション、乗員の姿勢(例えば、向き、ロケーションなど)、乗員の頭部姿勢、ジェスチャ、顔の表情、手のジェスチャ、活動、感情、動き、アクションを実行する意図、および/または乗員の他の特性など、乗員の1つまたは複数の特性を含むことができる。
【0178】
例えば、監視エンジン410および/または監視エンジン402は(単独で、または監視エンジン410などのモバイルデバイス150からのデータと組み合わせて)、車両の乗員の様々な状態を検出および/または認識することができる。図7A図7Iは、モバイルデバイス150のARアプリケーション310の監視エンジン410および/または車両202の監視エンジン402によって検出される、車両202を運転している乗員750の異なる例示的な状態を示す図である。図7A図7Iに示される例における乗員750は、モバイルデバイス150を装着している車両202の運転者である。
【0179】
図7Aに示す例では、乗員750は、スマートグラスなどのモバイルデバイス150を装着しており、通常の運転活動702を行っている。監視エンジン410は、乗員750が通常の運転活動702を行っていると判定することができる。図示のように、この例における通常の運転活動702は、乗員750が両手でハンドルを握って車両202のフロントガラスの外を直接見ることを含む。さらに、通常の運転活動702の間、乗員750は損なわれていない(例えば、注意散漫など)。
【0180】
図7Bは、車両202を運転している間の乗員750の例示的な状態704を示す。この例では、状態704は、車両202を運転している間に携帯電話752を耳に保持することによって携帯電話752を使用する乗員750を含む。場合によっては、監視エンジン410は、乗員750が携帯電話752を使用していると判定し、携帯電話752の使用が乗員750を害する(例えば、気を逸らす)可能性があると判定することができる。したがって、いくつかの例では、監視エンジン410は、携帯電話752の使用に基づいて乗員750の障害を判定することができる。この例における障害は、注意散漫を含む。監視エンジン410はまた、乗員750が、ハンドルおよび/または任意の他の車両制御を制御するために、携帯電話752を保持する手を使用する必要がある場合、手が占有されることにより、ハンドルおよび/または任意の他の車両制御を制御する乗員の能力を遅延させ(したがって、損なわせ)、したがって、事故のリスクを増加させる可能性があると判定することができる。一般に、監視エンジン410は、乗員の一方または両方の手のロケーションおよび/または活動に基づいて、例えば、少なくとも一方の手がハンドル上にないと判定することに基づいて、障害の状態を検出することができる。いくつかの例では、監視エンジン410は、乗員が携帯電話を操作することに基づいて、障害の状態を検出することができる。
【0181】
図7Cは、車両202を運転している乗員750の別の例示的な状態706を示す。この例では、乗員750の状態706は、乗員750が飲料を飲むことを含む。監視エンジン410は、図7Cに示すように、乗員750が飲料を飲んでいることを判定することができる。場合によっては、監視エンジン410は、飲料を飲むことが乗員750を害する(例えば、車両202を運転する乗員750の能力を害する、車両イベントに対する乗員750の反応および/または反応時間を害する、車両202を運転することの困難さを増大させる、事故のリスクを増大させるなど)と判定することができる。例えば、監視エンジン410は、飲料を飲むことが乗員750の気を逸らし、および/または乗員750の手のうちの少なくとも1つを占有し、したがって乗員750がその手を使用して車両202を操作し、および/または車両イベントに応答することを妨げることを判定することができる。監視エンジン410はまた、乗員750が、ハンドルおよび/または任意の他の車両制御を制御するために、その手を使用する必要がある場合、手が占有されることにより、ハンドルおよび/または任意の他の車両制御を制御する乗員の能力を遅延させ(したがって、損なわせ)、したがって、事故のリスクを増加させる可能性があると判定することができる。一般に、監視エンジン410は、乗員の一方または両方の手のロケーションおよび/または活動に基づいて、例えば、少なくとも一方の手がハンドル上にないと判定することに基づいて、障害の状態を検出することができる。
【0182】
図7Dは、車両202を運転している乗員750の別の例示的な状態708を示す。この例では、状態708は、乗員750が自身の髪を調整することを含む。図示のように、乗員750は、髪を調整している間、車両202のハンドルから両手を離している。監視エンジン410は、乗員750が髪を調整しており、両手がハンドルから離れていると判定することができる。場合によっては、監視エンジン410は、ハンドルから両手を離すことが乗員750を害する(例えば、車両202を運転する乗員750の能力を害する、車両イベントに対する乗員750の反応および/または反応時間を害する、車両202を運転することの困難さを増大させる、事故のリスクを増大させるなど)と判定することができる。例えば、監視エンジン410は、髪を調整することが乗員750の気を逸らすこと、および/または両手をハンドルから離すことが、乗員750が車両202を操作するためおよび/またはイベントに応答するために手を使用することを妨げることを判定することができる。監視エンジン410はまた、乗員750がハンドル(および/または任意の他の車両制御)の制御を行う必要がある場合、自身の髪を調整するために自身の手をハンドルから離すことは、ハンドル(および/または任意の他の車両制御)の制御を行う能力を遅延させ(したがって低下させ)、したがって事故のリスクを増加させる可能性があると判定することができる。一般に、監視エンジン410は、乗員の一方または両方の手のロケーションおよび/または活動に基づいて、例えば、少なくとも一方の手がハンドル上にないと判定することに基づいて、障害の状態を検出することができる。
【0183】
図7Eは、車両202を運転している乗員750の別の例示的な状態710を示す。この例では、状態710は、車両202の運転者側窓から腕756を伸ばすことを含む。図示のように、乗員750は、腕756を運転者側窓の外側に延ばし、腕756の手をハンドルおよび他の車両制御装置から離しておく。監視エンジン410は、乗員750が、腕756を運転者側窓の外側に延ばし、その腕756の手をハンドルおよび任意の他の車両制御から離していることを判定することができる。場合によっては、監視エンジン410は、腕756を運転者側窓から出し、その腕756の手をハンドルおよび任意の他の車両制御から離すことが、乗員750を害する(例えば、車両202を運転する乗員750の能力を害する、車両イベントに対する乗員750の反応および/または反応時間を害する、車両202を運転する困難さを増大させる、事故のリスクを増大させるなど)と判定することができる。例えば、監視エンジン410は、腕756を運転者側窓から出し、その腕756の手をハンドルおよび任意の他の車両制御から離すことが、乗員750が車両202を操作し、および/またはイベントに応答するためにその手を迅速に使用することを妨げると判定することができる。いくつかの例では、監視エンジン410は、乗員750がハンドルおよび/または任意の他の車両制御を制御するために腕756の手を使用する必要がある場合、腕756およびその腕756の手を一時的に利用不可能にする(例えば、運転者側窓の外側に延在させる)ことは、ハンドルおよび/または任意の他の車両制御を制御する乗員の能力を遅延させる(したがって、損なう)可能性があり、したがって、事故のリスクを増加させることを判定することができる。一般に、監視エンジン410は、乗員の一方または両方の手のロケーションおよび/または活動に基づいて、例えば、少なくとも一方の手がハンドル上にないと判定することに基づいて、障害の状態を検出することができる。
【0184】
図7Fは、車両202を運転している乗員750の別の例示的な状態712を示す。この例では、状態712は、車両202の運転中のあくびを含む。監視エンジン410は、乗員750が車両202の運転中にあくびをしていると判定することができる。場合によっては、監視エンジン410は、あくびが乗員750の障害を示していると判定することができる。例えば、監視エンジン410は、あくびが、車両202を運転するおよび/または車両イベントに応答する乗員750の能力に悪影響を及ぼし得る、眠い状態および/または限られた集中/注意を示すことを判定することができる。一般に、監視エンジン410は、あくび、閉じた/垂れ下がった目/瞼などの顔の表情、および/または限定された/低減された集中/注意を有する乗員の状態を示す乗員の身体の姿勢に基づいて、障害の状態を検出することができる。
【0185】
図7Gは、車両202を運転している乗員750の別の例示的な状態714を示す。この例では、状態714は、車両202を運転している間に乗員750が乗員750の膝に向かって見下ろすことを含む。監視エンジン410は、車両202を運転している間に乗員750が乗員750の膝に向かって見下ろしていると判定することができる。場合によっては、監視エンジン410は、運転中に乗員750の膝の方を見下ろすことが、乗員750が車両202を操作し、かつ/または車両イベントに応答する能力を損なうこと判定することができる。例えば、監視エンジン410は、乗員750の膝に向かって見下ろすことが乗員750の気を逸らし、乗員750が道路および外部環境を見て、車両202の運転に関連付けられた車両イベントを迅速に検出して応答すること妨げると判定することができる。一般に、監視エンジン410は、あくび、閉じた/垂れ下がった目/瞼などの顔の表情、および/または限定された/低減された集中/注意を有する乗員の状態を示す乗員の身体の姿勢に基づいて、障害の状態を検出することができる。
【0186】
図7Hは、車両202を運転している乗員750の別の例示的な状態716を示す。この例では、状態716は、車両202を運転している間に、乗員750が車両202の運転者側窓の左側および外側を見ていることを含む。監視エンジン410は、車両202を運転している間に、乗員750が車両202の運転者側窓の左側および外側を見ていると判定することができる。場合によっては、車両202のコンテキストに応じて、監視エンジン410は、運転中に車両202の運転者側窓の左側および外側を見ることが、乗員750が車両202を操作するおよび/または車両イベントに応答する能力を損なうと判定することができる。例えば、車両202のコンテキストに応じて、監視エンジン410は、車両202の運転者側窓の左側および外側を見ることが乗員750の気を逸らし、乗員750が前方の道路および/または車両202の前方経路に沿った何かを見ることを妨げ、乗員750が車両202の前方経路に沿った車両イベントを検出して応答する能力を損なうと判定することができる。一般に、監視エンジン410は、前方の道路から離れた方向を見ている/集中しているなど、乗員の視線に基づいて障害の状態を検出することができる。
【0187】
他の場合には、車両202のコンテキストに応じて、監視エンジン410は、運転中に車両202の運転者側窓の左側および外側を見ることが、乗員750が車両202を操作するおよび/または車両イベントに応答する能力を損なわないと判定することができる。例えば、車両イベントが運転者側窓の外部で発生したことを車両202のコンテキストが示し、乗員750が車両イベントを認識し、かつ/または車両イベントに応答すべきである場合、監視エンジン410は、車両202の運転者側窓の左側および外側を見ることによって、乗員750が車両イベントを見て、車両イベントにどのように応答すべきか(または応答すべきかどうか)を判断することができると判定することができる。したがって、監視エンジン410は、この例示的なコンテキストでは、運転中に車両202の運転者側窓の左側および外側を見ている乗員750が適切であり、障害として分類または処理されるべきではないと判定し得る。
【0188】
図7Iは、車両202を運転している乗員750の別の例示的な状態718を示す。この例において、状態718は、車両202を運転している間にシートベルトが締められていない乗員750を含む。監視エンジン410は、車両202の運転中に乗員750がシートベルトを着用していないと判定することができる。場合によっては、監視エンジン410は、車両202の運転中にシートベルトが締められていないことが、乗員750および他者(例えば、車両202の任意の他の乗客、および他の車両の乗員、歩行者などの車両202の環境内の任意の他の人々)の安全に対するリスクを増加させる場合、障害であると判定することができる。他の場合には、監視エンジン410は、車両202を運転している間にシートベルトが締められていないことが、乗員750が車両202を運転する能力または車両イベントに応答する能力を損なわない場合、障害ではないと判定することができる。
【0189】
図8は、乗員監視イベントを含むV2X通信800の例を示す図である。この例では、モバイルデバイス150は、車両202の乗員によって装着されるHMDまたはARメガネなどのウェアラブル拡張現実(AR)デバイスである。車両202の乗員はまた、スマートまたはコネクテッドウォッチ、ヘルストラッカ/モニタデバイス、スマートまたはコネクテッドブレスレットデバイス、ウェアラブル医療デバイス、または任意の他のウェアラブルデバイスなどのウェアラブルデバイス802を装着している。
【0190】
モバイルデバイス150および車両コンピューティングシステム210は、車両データ(例えば、車両コンテキスト情報、車両テンプレート、車両センサデータなど)、イベントデータ、および/または乗員データ(例えば、乗員状態情報、乗員センサ測定値、乗員健康測定値など)など、前述のようにデータを交換することができる。ウェアラブルデバイス802は、健康メトリクス、バイオメトリクス等の乗員に関する情報を追跡/測定することができるウェアラブルアプリケーション804を含むことができる。ウェアラブルデバイス802は、例えば、限定ではないが、酸素濃度計、皮膚センサ、光学心臓センサ、フォトプレチスモグラフィセンサ、電気心臓センサ、加速度計、ジャイロスコープ、心電図センサ、温度センサ、血圧センサ、ガルバニック皮膚反応センサ、脳波センサ、および/または任意の他のセンサ等の健康および他のセンサを含むことができる。
【0191】
いくつかの例では、ウェアラブルデバイス802は、乗員監視を支援することができる(例えば、モバイルデバイス150のセンサモダリティに対して)追加のおよび/または冗長なセンサモダリティを有することができる。ウェアラブルデバイス802は、そのようなデータ(または関連イベントのダイジェスト)をモバイルデバイス150に送信して、その乗員監視プロセスを支援することができる。いくつかの例では、ウェアラブルデバイス802は、例えば、慣性センサデータ、心拍数測定値、血圧測定値、ガルバニック皮膚反応測定値、ECG/EKG/EEGデータ、温度データ、酸素レベル、運動情報、睡眠追跡情報などのセンサデータをモバイルデバイス150に送信することができる。場合によっては、ウェアラブルデバイス802からのデータは、眠気、中毒、健康緊急事態、ストレス、高まった感情状態、意識喪失などの障害を示すことができ、かつ/または(例えば、正例および負例で訓練された機械学習分類器を介して)障害を判定するために使用することができる。
【0192】
ウェアラブルデバイス802のウェアラブルアプリケーション804は、ウェアラブルデバイス802上の1つまたは複数のセンサから健康測定値および任意の他の測定値を取得することができる。ウェアラブルデバイス802は、任意の健康測定値をモバイルデバイス150に送信することができる。モバイルデバイス150は、健康測定値を使用して、乗員の状態を監視することができる。モバイルデバイス150は、健康測定値を単独で、または監視エンジン410に関して前に説明した任意の測定値など、モバイルデバイス150からの他の測定値と組み合わせて使用することができる。いくつかの例では、モバイルデバイス150は、センサデータ融合を実行し、ウェアラブルデバイス802からの健康測定値と、モバイルデバイス150からの任意の乗員監視測定値および/またはデータとの組み合わせを使用して、乗員の状態を判定することができる。モバイルデバイス150は、前述のように、監視エンジン410を使用して、乗員の状態を判定することができる。監視エンジン410は、モバイルデバイス150および/またはウェアラブルデバイス802からのデータのいずれかを使用して、乗員の状態を判定することができる。
【0193】
場合によっては、モバイルデバイス150は、判定された乗員の状態を車両コンピューティングシステム210に送信することができる。モバイルデバイス150は、追加または代替として、前述のように、任意のイベントデータを車両コンピューティングシステム210に送信することができる。場合によっては、モバイルデバイス150は、判定された乗員の状態を、例えば、車両810(例えば、車両コンピューティングシステム812)、インフラストラクチャ820、および/または任意の他のデバイスなどの他のデバイスに送信することができる。インフラストラクチャ820は、例えば、限定するものではないが、信号機、交通カメラ、街灯、サイネージ、パーキングメータ、車線マーカ、1つまたは複数の緊急応答システム、それらの組み合わせ、および/または任意の他のインフラストラクチャシステム、デバイス、および/または構成要素など、任意のインフラストラクチャシステム、デバイス、および/または構成要素を含むことができる。場合によっては、車両コンピューティングシステム210は、判定された乗員の状態を、例えば、車両810(例えば、車両コンピューティングシステム812)、インフラストラクチャ820、および/または任意の他のデバイスなどの他のデバイスに送信/転送することができる。
【0194】
場合によっては、車両コンピューティングシステム210はまた、1つまたは複数の画像センサ、慣性センサ、重量センサ、圧力センサ、オーディオセンサなどの車両202の1つまたは複数のセンサからのデータ、および/またはモバイルデバイス150からのイベントデータ424を使用して、乗員の状態を(例えば、監視エンジン402を介して)判定することができる。例えば、場合によっては、車両コンピューティングシステム210は、モバイルデバイス150によって行われた乗員の状態の判定に加えて、乗員の状態を判定することができる。いくつかの例では、車両コンピューティングシステム210は、モバイルデバイス150、ウェアラブルデバイス802、および/または車両202の1つまたは複数のセンサからのセンサデータを使用して、乗員の状態を判定することができる。例えば、車両コンピューティングシステム210は、モバイルデバイス150、ウェアラブルデバイス802、および/または車両202の1つまたは複数のセンサからのセンサデータを融合して、乗員の状態を判定することができる。場合によっては、車両コンピューティングシステム210は、モバイルデバイス150から受信された乗員の状態を使用して、乗員の状態のそれ自体の判定を支援することができる。他の場合には、車両コンピューティングシステム210は、モバイルデバイス150および/またはモバイルデバイス150からのセンサデータによって判定される乗員の状態なしに、乗員の状態を別個に判定することができる。
【0195】
車両810の車両コンピューティングシステム210は、任意の車両データおよび/または乗員データを、例えば車両202および/またはインフラストラクチャ820などの他のデバイスに通信することができる。例えば、車両コンピューティングシステム210は、乗員の判定された状態を車両810および/またはインフラストラクチャ820に送信することができる(例えば、モバイルデバイス150が乗員の状態を車両810および/またはインフラストラクチャ820に送信することに加えて、またはその代わりに)。車両810および/またはインフラストラクチャ820は、モバイルデバイス150および/または車両202から受信された乗員の任意の状態情報を使用して、状態情報が乗員の障害を示す場合に乗員に対する支援を求め、かつ/または障害がある間に乗員によって操作される車両202との任意の事故または衝突を防止するための任意のアクションを実行することができる。
【0196】
例えば、車両202の車両コンピューティングシステム812の車両アプリケーション814は、車両810および/またはモバイルデバイス150からのデータを使用して、車両202の動作/挙動を調整し、車両810との任意の事故または衝突を回避することができる。場合によっては、車両202の車両コンピューティングシステム812の車両アプリケーション814は、車両810および/またはモバイルデバイス150からのデータを使用して、車両202を回避し、かつ/または車両810から少なくとも特定の距離を維持するように車両202の経路を変更することができる。車両コンピューティングシステム812は、図2と組み合わせて前述した車両コンピューティングシステム210と同一または類似の構成要素を含むように構成することができる。
【0197】
別の例として、インフラストラクチャ820のインフラストラクチャアプリケーション822は、車両202および/またはモバイルデバイス150からのデータを使用して、インフラストラクチャ820の動作/挙動を調整することができる。例示すると、インフラストラクチャ820のインフラストラクチャアプリケーション822は、車両202および/またはモバイルデバイス150からのデータを使用して、車両202の乗員の障害に基づいてインフラストラクチャ820に関連付けられた交通規制/信号を調整し、および/または車両202の乗員の障害を、法執行機関および/または他の緊急若しくは支援要員および/またはシステムに報告することができる。
【0198】
いくつかの例では、車両コンピューティングシステム210はまた、他の情報を車両810および/またはインフラストラクチャ820に送信することができる。例えば、車両コンピューティングシステム210は、車両202からのセンサデータおよび/または車両202の判定されたコンテキストを車両810および/またはインフラストラクチャ820に送信することができる。場合によっては、車両コンピューティングシステム210は、車両202の乗員に関する任意の状態情報に加えて、そのような情報を送信することができる。
【0199】
図9は、車両202を運転する乗員によって装着されたモバイルデバイス150によって判定された乗員状態に基づく例示的な車両緩和イベントを示す図である。この例では、モバイルデバイス150は、車両202を運転している乗員が健康緊急事態によって損なわれていることを示す乗員状態910を(例えば、監視エンジン410を介して、場合によってはウェアラブルデバイス802からのデータに基づいて)判定している。モバイルデバイス150は、乗員状態910を車両202の車両コンピュータシステム(例えば、車両コンピューティングシステム210)に送信して、乗員が健康緊急事態によって損なわれていることを車両202に通知することができる。
【0200】
車両202の車両コンピュータシステム(例えば、車両コンピューティングシステム210)は、車両202の動きの状態などの車両202の状態を記述する車両コンテキスト912を判定する。この例では、車両コンテキスト912は、車両202が時速10マイル(mph)で西に移動しており、前方で車両イベントに遭遇したことを示す。この例における車両イベントは、車両202の経路に沿った障害物902である。
【0201】
モバイルデバイス150から取得された乗員状態910および車両コンテキスト912に基づいて、車両202の車両コンピューティングシステムは(例えば、イベント緩和エンジン404などのイベント緩和エンジンを介して)アクション916をトリガすることができる。この例では、アクション916は、乗員が健康緊急事態によって損なわれている間に、車両202を制御するために車両202の自律車両を制御することを含む。いくつかの例では、車両202は、自律機能を使用して、乗員を目的地経路まで運転することができる。他の例では、車両202は、自律能力を使用して、車両202の経路を変更し、乗員を病院/診療所または乗員が健康緊急事態のための治療を得ることができるロケーションに運転することができる。場合によっては、車両202はまた、乗員が健康の緊急事態を経験していることを示す、および/または健康緊急事態に対する支援を要求するメッセージ/通知を、健康緊急システムなどの遠隔システムに送信することができる。
【0202】
アクション916はまた、障害物902を回避するために操縦904を実行することを含む。車両202は、自律能力を使用して、障害物902を回避するために操縦904を実行することができる。この例では、操縦904は、障害物902の前の道路上で左折することを含む。
【0203】
図9に示される障害物902、操縦904、乗員状態910、車両コンテキスト912、およびアクション916は、説明のために提供される単なる例示的な例である。他の例は、同じまたは異なるおよび/または追加の障害物、操縦、乗員状態、車両コンテキスト、アクションなどを含むことができる。
【0204】
いくつかの例では、車両コンテキストは、車両の動作/運転に関する情報を含むことができる。イベントまたは車両イベントは、車両安全性、車両安全性イベント/条件などに関連する情報を含むことができる。乗員の状態は、乗員の一時的な注意散漫または健康状態を含み得る、および/または乗員の注意散漫または健康状態に関連し得る。場合によっては、注意散漫または健康状態は、乗員の一時的な注意散漫または健康状態を含むことができる。
【0205】
図10は、車両202を運転する乗員によって装着されたモバイルデバイス150によって判定された乗員状態に基づく別の例示的な車両緩和イベントを示す図である。この例では、モバイルデバイス150は、車両202を運転している乗員が注意を逸らしていることを示す乗員状態1002を(例えば、監視エンジン410を介して)判定している。モバイルデバイス150は、乗員が注意を逸らしていることを車両202に通知するために、車両202の車両コンピュータシステム(例えば、車両コンピューティングシステム210)に乗員状態1002を送信することができる。
【0206】
車両202は、(例えば、監視エンジン402などの監視エンジンを介して)車両202が、車両202が走行している道路1010の中央車線1012または車線分割部を横断していることを検出することができる。乗員が注意を逸らしていることを示す乗員状態1002と、車両202が道路1010の中央車線1012を横断しているという判定とに基づいて、時間Tにおいて、車両202は、注意を逸らしている乗員を支援するためのアクション1004を(例えば、イベント緩和エンジン404などのイベント緩和エンジンを介して)トリガすることができる。この例では、アクション1004は、車両202の車線維持支援機能を作動させて、車両202をその車線1020内に維持し、車両202が別の車線1022に交差するのを回避するための是正措置を行うことを含む。
【0207】
時間Tにおいて、車両202が車線維持支援機能に関与し、是正措置を取った後、車両202は、ここでその車線1020内を走行している。図10に示されるように、乗員状態1006はまた、時間Tにおいて車両の乗員が正常な状態にある(例えば、障害がない)ことを示す。車両202は、乗員が自律支援ありまたはなしで車両202を運転することを可能にすることができ、1つまたは複数の自律運転動作を実施し続けることができ、または車両202を手動で(完全にまたは部分的に)制御するかどうかを選択するオプションを乗員に提供して、車両202が自律的に動作することを可能にすることなどができる。
【0208】
図11は、車両の動作中に仮想コンテンツの提示を制御するための例示的プロセス1100を示すフローチャートである。ブロック1102において、プロセス1100は、車両(例えば、車両202)の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイス(例えば、モバイルデバイス150)の姿勢を判定することを含むことができる。
【0209】
ブロック1104において、プロセス1100は、車両から、車両の1つまたは複数のセンサに関連付けられたデータを受信することを含むことができる。
【0210】
ブロック1106において、プロセス1100は、モバイルデバイスのディスプレイデバイスを使用して、1つまたは複数のセンサに関連付けられたデータと、車両の座標系に対するモバイルデバイスの姿勢とに基づいて仮想コンテンツを表示することを含むことができる。
【0211】
いくつかの態様では、プロセス1100は、1つまたは複数のセンサに関連付けられたデータに基づいて車両のコンテキストを判定することを含むことができる。いくつかの例では、コンテキストは、車両に関連するイベントを含むことができる。
【0212】
いくつかの態様では、プロセス1100は、モバイルデバイスの座標系に対する仮想コンテンツのロケーションを、車両の座標系に対するイベントのロケーションに関連付けることと、モバイルデバイスの座標系に対する仮想コンテンツのロケーションと車両の座標系に対するイベントのロケーションとの関連付けに基づいて、モバイルデバイスの1つまたは複数の視覚画像センサからのライブコンテンツフィードを表示することと、を含むことができる。
【0213】
いくつかの例では、ライブコンテンツフィードを表示することは、車両の座標系に対するモバイルデバイスの姿勢と、イベントに対する車両の姿勢とに基づいて、イベントに対するモバイルデバイスの姿勢を判定することと、イベントに対するモバイルデバイスの姿勢と、モバイルデバイスの座標系に対する仮想コンテンツのロケーションと車両の座標系に対するイベントのロケーションとの関連付けとに基づいて、仮想コンテンツが、車両の乗員の視野内でイベントを少なくとも部分的に遮蔽することを判定することと、を含むことができる。
【0214】
いくつかの態様では、プロセス1100は、モバイルデバイスの座標系に対する仮想コンテンツアイテムのロケーションを、車両の座標系に対するイベントのロケーションに関連付けることと、モバイルデバイスの座標系に対する仮想コンテンツのロケーションと車両の座標系に対するイベントのロケーションとの関連付けに基づいて、仮想コンテンツアイテムをフィルタリングまたは修正することとを含むことができる。
【0215】
いくつかの例では、仮想コンテンツアイテムをフィルタリングまたは修正することは、仮想コンテンツアイテムの1つまたは複数の特性を修正することを含むことができる。場合によっては、1つまたは複数の特性は、透明度、サイズ、仮想コンテンツアイテムのロケーション、および仮想コンテンツアイテムの輝度レベルのうちの少なくとも1つを含むことができる。
【0216】
いくつかの例では、仮想コンテンツアイテムをフィルタリングまたは修正することは、車両の乗員の視線を判定することであって、乗員はモバイルデバイスに関連付けられる、ことと、乗員の視線およびイベントのロケーションに基づいて、乗員に対するイベントの可視性を判定することと、乗員に対するイベントの可視性にさらに基づいて、仮想コンテンツアイテムをフィルタリングまたは修正することとを含むことができる。
【0217】
いくつかの例では、イベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含むことができる。場合によっては、車両の経路内のオブジェクトまたは車両の経路に対する閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含む。
【0218】
いくつかの態様では、プロセス1100は、車両の乗員の視線を判定することであって、乗員はモバイルデバイスに関連付けられる、ことと、車両の乗員の視線の方向内に仮想コンテンツをレンダリングすることと、を含むことができる。
【0219】
場合によっては、乗員の視線の方向内に仮想コンテンツをレンダリングすることは、イベント、イベントのロケーション、およびイベントの方向のうちの少なくとも1つの仮想インジケータを備える仮想コンテンツオーバーレイをレンダリングすることを含むことができる。
【0220】
場合によっては、乗員の視線の方向内に仮想コンテンツをレンダリングすることは、仮想コンテンツの1つまたは複数の特性を修正することを含むことができる。場合によっては、1つまたは複数の特性は、透明度、サイズ、仮想コンテンツのロケーション、および輝度レベルのうちの少なくとも1つを含むことができる。
【0221】
いくつかの態様では、プロセス1100は、車両のコンテキストおよびモバイルデバイスの姿勢に基づいて、仮想コンテンツの少なくとも一部をフィルタリングすることを含むことができる。
【0222】
場合によっては、仮想コンテンツの少なくとも一部をフィルタリングすることは、仮想コンテンツのサブセットの提示を可能にすることを含むことができる。いくつかの例では、仮想コンテンツのサブセットは、車両の状況の指標および車両計装情報のうちの少なくとも1つを含むことができる。
【0223】
いくつかの態様では、仮想コンテンツを表示することは、車両に関連付けられた仮想コンテンツアイテムをレンダリングすることを含み得、仮想コンテンツアイテムは、車両の表面に対してレンダリングされる。
【0224】
場合によっては、レンダリングされた仮想コンテンツアイテムは、1つまたは複数のセンサに関連付けられたデータにおいて識別されたイベントの第1の指標、車両のコンテキストの第2の指標、および車両のコンテキストに関連付けられた警報のうちの少なくとも1つを含むことができる。
【0225】
いくつかの態様では、仮想コンテンツアイテムをレンダリングすることは、車両のカメラデバイスからカメラフィードを受信することと、カメラフィードの少なくとも一部をモバイルデバイスの表示領域内に表示することとを含むことができる。
【0226】
場合によっては、モバイルデバイスの姿勢を判定することは、1つまたは複数の無線周波数(RF)信号を取得することと、1つまたは複数の画像と、1つまたは複数のRF信号に関連付けられたラウンドトリップ時間、1つまたは複数のRF信号に関連付けられた到着時間、および1つまたは複数のRF信号に関連付けられた受信信号強度インジケータ(RSSI)のうちの少なくとも1つとに基づいて、モバイルデバイスの姿勢を判定することと、を含むことができる。
【0227】
場合によっては、モバイルデバイスの姿勢を判定することは、車両から、車両に関連付けられた1つまたは複数のマーカを含む車両テンプレートを受信することと、1つまたは複数の画像および車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することとを含むことができる。
【0228】
いくつかの例では、1つまたは複数のマーカは、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含むことができる。
【0229】
場合によっては、モバイルデバイスの姿勢を判定することは、1つまたは複数の画像内の1つまたは複数のマーカを検出することと、検出された1つまたは複数のマーカおよび車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することと、を含むことができる。
【0230】
いくつかの態様では、プロセス1100は、モバイルデバイスの1つまたは複数の画像センサを使用して、車両の内部の画像のセットを取得することであって、画像のセットが、車両に関連付けられた1つまたは複数のマーカを描写する、ことと、画像のセットに基づいて、1つまたは複数のマーカを含む車両テンプレートを生成することと、を含むことができる。
【0231】
図12は、車両の乗員を監視するための例示的なプロセス1200を示すフローチャートである。ブロック1202において、プロセス1200は、本方法は、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することを含むことができる。場合によっては、障害は、車両の動作および車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含むことができる。
【0232】
ブロック1204において、プロセス1200は、車両の乗員の状態を判定することを含むことができる。いくつかの例では、乗員の状態は、車両を操作することに関する乗員の障害を含むことができる。
【0233】
ブロック1206において、プロセス1200は、乗員の状態および車両の座標系に対するモバイルの姿勢を示すデータを車両に送信することを含むことができる。
【0234】
いくつかの例では、乗員の状態を判定することは、車両から、車両の1つまたは複数のセンサに関連付けられたデータを受信することと、車両の1つまたは複数のセンサに関連付けられたデータおよびモバイルデバイスの姿勢に基づいて、乗員の状態を判定することとを含むことができる。
【0235】
場合によっては、車両の1つまたは複数のセンサに関連付けられたデータは、車両の状態および車両に関連付けられたイベントのうちの少なくとも1つを示す。
【0236】
場合によっては、車両に関連付けられたイベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含むことができる。
【0237】
いくつかの例では、車両の経路内のオブジェクトまたは車両の経路に対する閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含み得る。
【0238】
場合によっては、乗員の障害は、車両を安全に操作する乗員の能力に悪影響を与える任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件を含む。
【0239】
いくつかの態様では、プロセス1200は、車両の乗員の視線を判定することを含むことができる。場合によっては、乗員の状態は、乗員の視線を含むことができ、乗員は、モバイルデバイスに関連付けられ得る。例えば、乗員は、モバイルデバイスを装着しているユーザであり得る。
【0240】
場合によっては、乗員の状態を判定することは、モバイルデバイスおよび乗員によって装着されるウェアラブルデバイスのうちの少なくとも1つに関連付けられた1つまたは複数のセンサから、乗員に関連付けられた1つまたは複数の健康測定値を受信することと、1つまたは複数の健康測定値に基づいて乗員の状態を判定することと、を含むことができる。
【0241】
いくつかの例では、1つまたは複数の健康測定値は、心拍数、血圧、体温、ガルバニック皮膚反応、乗員の心臓からの電気信号の測定値、乗員の脳の電気活動の測定値、目の赤みの量、および瞳孔サイズのうちの少なくとも1つを含むことができる。
【0242】
場合によっては、乗員の状態を判定することは、乗員の視線が、ある期間にわたって車両の前方の道路から離れて集中していることを判定することと、乗員の視線が、ある期間にわたって車両の前方の道路から離れて集中していることと、期間が閾値期間を超えるという判定とに基づいて、乗員の障害状態を判定することとを含むことができる。
【0243】
いくつかの例では、乗員の視線が一定期間にわたって車両の前方の道路から離れて集中していると判定することは、乗員の視線が一定期間の少なくとも一部にわたってモバイルデバイスによってレンダリングされた仮想コンテンツに集中していると判定することを含むことができる。
【0244】
場合によっては、乗員の視線が一定期間車両の前方の道路から離れて集中していると判定することは、乗員の視線が車両の経路内の障害物の方向または車両の経路に対する閾値近接度とは異なる方向に集中していると判定することを含むことができる。
【0245】
いくつかの態様では、プロセス1200は、乗員の状態の指標を、第2の車両、車両インフラストラクチャシステム、第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信することを含むことができる。
【0246】
場合によっては、乗員の状態を判定することは、モバイルデバイスを装着している乗員の視線を判定することと、モバイルデバイスの姿勢および乗員の視線に基づいて乗員の状態を判定することとを含むことができる。
【0247】
場合によっては、モバイルデバイスの姿勢を判定することは、車両から、車両に関連付けられた1つまたは複数のマーカを含む車両テンプレートを受信することと、1つまたは複数の画像および車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することとを含むことができる。
【0248】
場合によっては、1つまたは複数のマーカは、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含むことができる。
【0249】
場合によっては、1つまたは複数の画像が1つまたは複数のマーカを描写し、モバイルデバイスの姿勢を判定することは、1つまたは複数の画像内の1つまたは複数のマーカを検出することと、検出された1つまたは複数のマーカおよび車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することと、を含むことができる。
【0250】
いくつかの態様では、プロセス1200は、モバイルデバイスの1つまたは複数の画像センサを使用して、車両の内部の画像のセットを取得することであって、画像のセットが、車両に関連付けられた1つまたは複数の視覚ランドマークを描写する、ことと、画像のセットに基づいて、車両テンプレートを生成することであって、車両テンプレートが、1つまたは複数のマーカを含むことと、をさらに含むことができる。
【0251】
場合によっては、モバイルデバイスの姿勢を判定することは、モバイルデバイスに関連付けられた慣性センサデータを取得することと、1つまたは複数の画像および慣性センサデータに基づいてモバイルデバイスの姿勢を判定することとを含むことができる。
【0252】
図13は、車両の動作を制御する例示的なプロセス1300を示すフローチャートである。ブロック1302において、プロセス1300は、車両の乗員に関連付けられたモバイルデバイスから、車両の座標系に対する乗員の姿勢を受信することを含むことができる。ブロック1304において、プロセス1300は、車両の座標系に対する乗員の姿勢に基づいて、車両の1つまたは複数の機能を制御することを含むことができる。
【0253】
いくつかの例では、車両の1つまたは複数の機能を制御することは、車両の1つまたは複数の車両機能に関与することを含むことができる。いくつかの例では、1つまたは複数の車両機能は、オートパイロット機能、トラクション制御機能、クルーズコントロール機能、衝突回避機能、車線逸脱機能、車線中心化機能、ブレーキ支援機能、車線維持機能、高速道路支援機能、車線変更支援機能、速度適応機能、および交差点支援機能のうちの少なくとも1つを含むことができる。
【0254】
いくつかの例では、車両の1つまたは複数の機能を制御することは、車両の1つまたは複数の自律車両システムを制御または係合することを含むことができる。いくつかの例では、1つまたは複数の自律車両システムは、死角監視システム、運転者監視システム、制動システム、自律運転制御システム、運転者支援システム、ナビゲーションシステム、ステアリング制御システム、車両通信システム、および自動車ヘッドアップディスプレイのうちの少なくとも1つを含むことができる。
【0255】
いくつかの態様では、プロセス1300は、車両の1つまたは複数のセンサに関連付けられたデータを、モバイルデバイス、第2の車両、車両インフラストラクチャシステム、第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信することを含み得る。
【0256】
いくつかの態様では、プロセス1300は、乗員の状態を示すデータを、第2の車両、車両インフラストラクチャシステム、第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信することを含むことができる。
【0257】
いくつかの態様では、プロセス1300は、車両の座標系に対する乗員の姿勢を判定するための車両テンプレートをモバイルデバイスに送信することを含むことができ、車両テンプレートは、車両に関連付けられた1つまたは複数のマーカを含む。
【0258】
いくつかの例では、1つまたは複数のマーカは、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含むことができる。
【0259】
いくつかの態様では、プロセス1300は、車両の座標系に対する乗員の姿勢に少なくとも部分的に基づいて出力を生成することを含むことができる。いくつかの例では、出力は、モバイルデバイスへの通信、車両の1つまたは複数の機能を修正する命令、および乗員の状態の指標のうちの少なくとも1つを含むことができる。
【0260】
場合によっては、モバイルデバイスへの通信は、仮想コンテンツアイテムおよび仮想コンテンツアイテムを表示する要求のうちの少なくとも1つを含むことができる。
【0261】
いくつかの態様では、プロセス1300は、モバイルデバイスから、車両の乗員の状態を示すデータを受信することを含むことができる。場合によっては、データは、モバイルデバイスの1つまたは複数のセンサからのセンサデータと、モバイルデバイスの1つまたは複数のセンサからのセンサデータに基づいて生成された処理されたデータとのうちの少なくとも1つを含むことができる。
【0262】
場合によっては、処理されたデータは、乗員の状態の記述および乗員の状態を識別する分類出力のうちの少なくとも1つを含むことができる。
【0263】
いくつかの態様では、プロセス1300は、モバイルデバイスから、車両の乗員の状態を示すデータを受信することを含むことができる。場合によっては、データは、乗員の視線の指標、車両の座標系に対する方法の姿勢、および乗員に関連付けられた1つまたは複数の健康測定値のうちの少なくとも1つを含むことができる。
【0264】
場合によっては、1つまたは複数の健康測定値は、心拍数、血圧、体温、ガルバニック皮膚反応、乗員の心臓からの電気信号の測定値、乗員の脳の電気活動の測定値、目の赤みの量、および瞳孔サイズのうちの少なくとも1つを含むことができる。
【0265】
いくつかの態様では、プロセス1300は、車両の1つまたは複数のセンサから、車両の動作に関連するイベントの指標、乗員によって少なくとも部分的に制御される車両の1つまたは複数の動作中の1つまたは複数の運転パターンの指標、および車両計装データのうちの少なくとも1つを含むセンサデータを取得することを含むことができる。場合によっては、プロセス1300は、センサデータにさらに基づいて車両の1つまたは複数の機能を制御することを含むことができる。
【0266】
いくつかの態様では、プロセス1300は、乗員の状態を判定することを含むことができる。場合によっては、乗員の状態を判定することは、モバイルデバイスおよびウェアラブルデバイスのうちの少なくとも1つに関連付けられた1つまたは複数の健康センサから、乗員に関連付けられた1つまたは複数の健康測定値を受信することと、乗員に関連付けられた1つまたは複数の健康測定値に基づいて乗員の状態を判定することとを含むことができる。
【0267】
いくつかの態様では、プロセス1300は、乗員の状態を取得することを含むことができる。いくつかの例では、乗員の状態は、車両を操作することに関する乗員の障害を含むことができる。いくつかの例では、乗員の障害は、乗員の一時的な障害を含むことができる。場合によっては、障害は、車両の動作および車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含むことができる。場合によっては、乗員の障害は、車両を安全に操作する乗員の能力に悪影響を与える任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件を含む。
【0268】
いくつかの例では、イベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含むことができる。いくつかの例では、オブジェクトは、歩行者、動物、および別の車両のうちの少なくとも1つを含むことができる。
【0269】
いくつかの態様では、プロセス1300は、車両の内部の1つまたは複数の画像を取得することであって、1つまたは複数の画像が、車両に関連付けられた1つまたは複数の視覚ランドマークを示す、ことと、1つまたは複数の画像に基づいて車両テンプレートを生成することであって、車両テンプレートが、1つまたは複数の視覚ランドマークを記述する、こととを含むことができる。
【0270】
いくつかの態様では、プロセス1300は、車両テンプレートをモバイルデバイスに送信することと、モバイルデバイスから、車両テンプレートにおいて定義された1つまたは複数の座標に対する乗員の姿勢を受信することとを含むことができる。いくつかの例では、1つまたは複数の座標は、1つまたは複数の視覚ランドマークに対するものであり、車両の座標系に対応する。
【0271】
いくつかの態様では、プロセス1300は、モバイルデバイスから、乗員の状態を示すデータを受信することを含むことができる。場合によっては、車両の1つまたは複数の機能を制御することは、乗員の姿勢および乗員の状態を示すデータに基づいて車両の1つまたは複数の機能を制御することを含むことができる。
【0272】
いくつかの態様では、プロセス1300は、車両の座標系に対する乗員の姿勢に少なくとも部分的に基づいて出力を生成することを含むことができる。いくつかの例では、出力は、車両の1つまたは複数の機能を修正するための命令および乗員の更新された状態のうちの少なくとも1つを含むことができる。
【0273】
いくつかの例では、車両の1つまたは複数の機能は、車両の1つまたは複数の機能および車両の1つまたは複数の自律車両システムのうちの少なくとも1つを制御するように構成された車両のコンピュータシステムを介して制御され得る。
【0274】
図14は、車両を車両の乗員に関連付けられたモバイルデバイスとインターフェースするための例示的なプロセス1300を示すフローチャートである。ブロック1402において、プロセス1400は、車両のコンピュータシステムに接続された拡張現実(AR)デバイスから要求を受信することを含むことができる。いくつかの実施例では、要求は、例えば、車両の1つまたは複数のセンサからのデータ等、車両によって生成および/または取得されたデータを要求することができる。
【0275】
ブロック1404において、プロセス1400は、要求に応答して、車両の1つまたは複数のセンサに関連付けられたデータをARデバイスに送信することを含むことができる。いくつかの例では、データは、車両のコンテキストを示す車両データを含むことができる。いくつかの例では、車両のコンテキストは、車両の状態、および車両が遭遇した、または車両の1つまたは複数の動作中に発生すると判定された1つまたは複数のイベントのうちの少なくとも1つを含むことができる。
【0276】
いくつかの例では、1つまたは複数のイベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含むことができる。場合によっては、車両の経路内のオブジェクトまたは車両の経路に対する閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含み得る。
【0277】
いくつかの態様では、プロセス1400は、ARデバイスに、車両の座標系に対するARデバイスの姿勢および1つまたは複数のイベントのそれぞれのロケーションのうちの少なくとも1つに対するロケーションにおける提示のための表示データを送ることを含むことができる。いくつかの例では、表示データは、車両データの少なくとも一部を含むことができる。
【0278】
いくつかの態様では、プロセス1400は、ARデバイスに、1つまたは複数のイベントのそれぞれのロケーションの指標を送ることを含むことができる。いくつかの態様では、プロセス1400は、車両の座標系に対するARデバイスの姿勢を判定するための車両テンプレートをARデバイスに送信することを含むことができる。いくつかの例では、車両テンプレートは、車両の内部における1つまたは複数のマーカを記述することができる。
【0279】
いくつかの例では、1つまたは複数のマーカは、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含むことができる。
【0280】
いくつかの態様では、プロセス1400は、ARデバイスから、車両の座標系に対するARデバイスの姿勢を受信することを含むことができる。
【0281】
いくつかの態様では、プロセス1400は、1つまたは複数のセンサに関連付けられたデータおよび車両の座標系に対するARデバイスの姿勢のうちの少なくとも1つに基づいて、車両に関連付けられた仮想コンテンツのコンピュータシステムによる提示を制御することを含むことができる。場合によっては、仮想コンテンツの提示を制御することは、車両の座標系に対するARデバイスの姿勢に基づいて、車両の1つまたは複数の画像センサからのライブコンテンツフィードをARデバイスに提供することを含むことができる。
【0282】
場合によっては、ライブコンテンツフィードを提供することは、車両の座標系に対するARデバイスの姿勢および車両イベントに対する車両の位置に基づいて、車両イベントに対するARデバイスの姿勢を判定することと、車両イベントに対するARデバイスの姿勢に基づいて、コンピュータシステムおよびARデバイスのうちの少なくとも1つに関連付けられた仮想コンテンツが、ARデバイスの視野内で車両イベントを少なくとも部分的に遮ることを判定することとを含むことができる。
【0283】
いくつかの例では、仮想コンテンツの提示を制御することは、コンピュータシステムによってレンダリングされた仮想コンテンツアイテムのロケーションを車両の座標系に対する車両イベントのロケーションに関連付けることと、車両の座標系に対する仮想コンテンツのロケーションと車両イベントのロケーションとの関連付けに基づいて仮想コンテンツアイテムをフィルタリングまたは修正することとを含むことができる。
【0284】
場合によっては、仮想コンテンツアイテムをフィルタリングまたは修正することは、仮想コンテンツアイテムの1つまたは複数の特性を修正することを含むことができる。いくつかの例では、1つまたは複数の特性は、透明度、サイズ、仮想コンテンツアイテムのロケーション、および輝度レベルのうちの少なくとも1つを含むことができる。
【0285】
いくつかの例では、仮想コンテンツアイテムをフィルタリングまたは修正することは、車両の乗員の視線を受信することと、乗員の視線および車両イベントのロケーションに基づいて、乗員に対する車両イベントの可視性を判定することと、乗員に対する車両イベントの可視性にさらに基づいて、仮想コンテンツアイテムをフィルタリングまたは修正することと、を含むことができる。
【0286】
場合によっては、仮想コンテンツの提示を制御することは、車両の乗員の視線を受信することと、車両の乗員の視線の方向内に仮想コンテンツをレンダリングすることとを含むことができる。
【0287】
いくつかの例では、仮想コンテンツをレンダリングすることは、車両イベント、車両イベントのロケーション、および車両イベントの方向のうちの少なくとも1つの仮想インジケータを備える仮想コンテンツオーバーレイをレンダリングすることを含むことができる。
【0288】
場合によっては、仮想コンテンツをレンダリングすることは、仮想コンテンツの1つまたは複数の特性を修正することを含むことができる。いくつかの例では、1つまたは複数の特性は、透明度、サイズ、仮想コンテンツのロケーション、および輝度レベルのうちの少なくとも1つを含むことができる。
【0289】
いくつかの態様では、プロセス1400は、1つまたは複数のディスプレイデバイスに、車両の動作に関する情報を提供する仮想コンテンツアイテムを表示する命令を送信することを含むことができる。場合によっては、命令は、乗員の視野内にある車両内のロケーションに対する仮想コンテンツアイテムの配置を示すことができる。
【0290】
いくつかの例では、仮想コンテンツアイテムは、コンピュータシステムによって検出された車両イベントの第1の指標、車両のコンテキストの第2の指標、および車両のコンテキストに関連付けられた警報のうちの少なくとも1つを含むことができる。
【0291】
いくつかの態様では、プロセス1400は、車両上のカメラデバイスからカメラフィードを受信することと、表示のためにカメラフィードの少なくとも一部をARデバイスに送信することとを含むことができる。
【0292】
いくつかの態様では、プロセス1400は、乗員の状態の指標をARデバイスに送信することを含むことができる。いくつかの例では、乗員の状態は、車両を操作することに関する乗員の障害を含むことができる。いくつかの例では、障害は、一時的な障害を含むことができる。場合によっては、障害は、車両の動作および車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含むことができる。
【0293】
いくつかの態様では、プロセス1400は、乗員の障害に基づいて車両の動作を制御することを含むことができる。いくつかの例では、乗員の障害は、車両を安全に操作する乗員の能力に悪影響を与える任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件を含む。
【0294】
いくつかの態様では、プロセス1400は、乗員の障害に基づいて表示データを生成することを含むことができる。いくつかの例では、表示データは、車両イベントおよび車両計装データのうちの少なくとも1つを含むことができる。
【0295】
いくつかの態様では、プロセス1400は、乗員の障害に基づいて、表示データをARデバイスに送信することを含むことができる。いくつかの例では、表示データは、車両イベントおよび車両計装データのうちの少なくとも1つを含むことができる。
【0296】
いくつかの例では、コンピュータシステムは、車両の1つまたは複数の自律機能および車両の1つまたは複数の自律車両システムのうちの少なくとも1つを制御するように構成される。
【0297】
いくつかの例では、ARデバイスは、ヘッドマウントディスプレイを含むことができる。いくつかの例では、ARデバイスはウェアラブルARデバイスを含むことができる。
【0298】
いくつかの例では、プロセス1100、1200、1300、および/または1400のいずれかは、1つまたは複数のコンピューティングデバイスまたは装置によって実行されてもよい。例示的な一実施例では、プロセス1100、1200、1300、および/または1400のいずれも、図1に示されるモバイルデバイス150および/または図2に示される車両202(および/または車両コンピューティングシステム210)によって実行することができる。いくつかの例では、プロセス1100、1200、1300、および/または1400のいずれかは、図15に示すコンピューティングデバイスアーキテクチャ1500を有する1つまたは複数のコンピューティングデバイスによって実行することができる。場合によっては、そのようなコンピューティングデバイスまたは装置は、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはプロセス1100、1200、1300、および/または1400のうちのいずれかのステップを実行するように構成されたデバイスの他の構成要素を含んでもよい。いくつかの例では、そのようなコンピューティングデバイスまたは装置は、画像データおよび/または他のセンサ測定値を捕捉するように構成された1つまたは複数のセンサを含み得る。例えば、コンピューティングデバイスは、スマートフォン、ヘッドマウントディスプレイ、モバイルデバイス、または他の好適なデバイスを含むことができる。いくつかの例では、そのようなコンピューティングデバイスまたは装置は、1つまたは複数の画像またはビデオを捕捉するように構成されたカメラを含んでもよい。場合によっては、そのようなコンピューティングデバイスは、画像を表示するためのディスプレイを含んでもよい。いくつかの例では、1つまたは複数のセンサおよび/またはカメラは、コンピューティングデバイスから分離され、その場合、コンピューティングデバイスは感知されたデータを受信する。そのようなコンピューティングデバイスは、データを通信するように構成されたネットワークインターフェースをさらに含んでもよい。
【0299】
コンピューティングデバイスの構成要素は、回路構成の中に実装され得る。例えば、構成要素は、1つまたは複数のプログラマブル電子回路(例えば、マイクロプロセッサ、グラフィックス処理ユニット(GPU)、デジタル信号プロセッサ(DSP)、中央処理ユニット(CPU)、および/または他の好適な電子回路)を含み得る、電子回路若しくは他の電子ハードウェアを含むことができ、かつ/またはそれらを使用して実装されることが可能であり、かつ/あるいは本明細書で説明する様々な動作を実行するために、コンピュータソフトウェア、ファームウェア、若しくはそれらの任意の組み合わせを含むことができ、かつ/またはそれらを使用して実装されることが可能である。コンピューティングデバイスは、ディスプレイ(出力デバイスの一例としてまたは出力デバイスに加えて)、データを通信および/若しくは受信するように構成されたネットワークインターフェース、任意のそれらの組み合わせ、ならびに/または他の構成要素をさらに含んでもよい。ネットワークインターフェースは、インターネットプロトコル(IP)ベースのデータまたは他のタイプのデータを通信および/または受信するように構成され得る。
【0300】
プロセス1100、1200、1300、および1400は、論理フロー図として示され、それらの動作は、ハードウェア、コンピュータ命令、またはそれらの組み合わせにおいて実施することができる動作のシーケンスを表す。コンピュータ命令のコンテキストでは、動作は、1つまたは複数のプロセッサによって実行されたとき、記載された動作を実行する、1つまたは複数のコンピュータ可読記憶媒体上に記憶されたコンピュータ実行可能命令を表す。概して、コンピュータ実行可能命令は、特定の機能を実行するかまたは特定のデータタイプを実装するルーチン、プログラム、オブジェクト、構成要素、データ構造などを含む。動作が説明される順序は、限定として解釈されることを意図せず、任意の数の説明する動作は、プロセスを実施するために任意の順序で、かつ/または並列に組み合わせられ得る。
【0301】
さらに、プロセス1100、1200、1300、および/または1400のいずれかは、実行可能命令で構成された1つまたは複数のコンピュータシステムの制御下で実施され得、まとめて1つまたは複数のプロセッサ上で、ハードウェアによって、またはそれらの組み合わせで実行するコード(例えば、実行可能命令、1つまたは複数のコンピュータプログラム、または1つまたは複数のアプリケーション)として実装され得る。上述のように、コードは、例えば、1つまたは複数のプロセッサによって実行可能な複数の命令を備えるコンピュータプログラムの形態で、コンピュータ可読記憶媒体または機械可読記憶媒体上に記憶されてよい。コンピュータ可読記憶媒体または機械可読記憶媒体は、非一時的であってよい。
【0302】
図15は、本明細書で説明する様々な技術を実装することができる、例示的なコンピューティングデバイスの例示的なコンピューティングデバイスアーキテクチャ1500を示す。例えば、コンピューティングデバイスアーキテクチャ1500は、図1に示したコンピューティングシステム100または図2に示したコンピューティングシステム210の少なくともいくつかの部分を実装することができる。コンピューティングデバイスアーキテクチャ1500の構成要素は、バスなどの接続部1505を使用して、互いに電気通信するように示される。例示的なコンピューティングデバイスアーキテクチャ1500は、処理ユニット(CPUまたはプロセッサ)1510と、リードオンリーメモリ(ROM)1520およびランダムアクセスメモリ(RAM)1525などのコンピューティングデバイスメモリ1515を含む様々なコンピューティングデバイス構成要素をプロセッサ1510に結合するコンピューティングデバイス接続部1505と、を含む。
【0303】
コンピューティングデバイスアーキテクチャ1500は、プロセッサ1510に直接接続される、プロセッサ1510の近くにある、またはプロセッサ1510の一部として統合される高速メモリのキャッシュを含むことができる。コンピューティングデバイスアーキテクチャ1500は、プロセッサ1510による高速アクセスのために、メモリ1515および/または記憶デバイス1530からデータをキャッシュ1512にコピーすることができる。このようにして、キャッシュは、データを待機する間のプロセッサ1510の遅延を回避する、パフォーマンスブーストを提供することができる。これらおよび他のモジュールは、様々なアクションを実行するようにプロセッサ1510を制御することができる、またはそれを制御するように構成され得る。他のコンピューティングデバイスメモリ1515も、使用可能であり得る。メモリ1515は、異なる性能特性を有する複数の異なるタイプのメモリを含むことができる。プロセッサ1510は、任意の汎用プロセッサ、および記憶デバイス1530に記憶されプロセッサ1510を制御するように構成されたハードウェアまたはソフトウェアサービス、ならびにソフトウェア命令がプロセッサ設計に組み込まれた専用プロセッサを含むことができる。プロセッサ1510は、複数のコアまたはプロセッサ、バス、メモリコントローラ、キャッシュなどを含む、自己完結型のシステムであってもよい。マルチコアプロセッサは、対称でも非対称であってもよい。
【0304】
コンピューティングデバイスアーキテクチャ1500とのユーザの対話を可能にするために、入力デバイス1545は、発話のためのマイクロフォン、ジェスチャまたはグラフィカル入力のためのタッチ感知スクリーン、キーボード、マウス、動作入力、スピーチなどの、任意の数の入力機構を表すことができる。出力デバイス1535はまた、ディスプレイ、プロジェクタ、テレビ、スピーカデバイスなどの、当業者に知られるいくつかの出力機構のうちの1つまたは複数であってもよい。場合によっては、マルチモーダルコンピューティングデバイスにより、コンピューティングデバイスアーキテクチャ1500と通信するためにユーザが複数のタイプの入力を提供することを可能にし得る。通信インターフェース1540は、一般に、ユーザ入力およびコンピューティングデバイス出力を支配して管理することができる。いかなる特定のハードウェア構成上で動作することに対しても制約はなく、したがって、改善されたハードウェアまたはファームウェア構成が開発されるにつれて、ここでの基本的機能がそれらと容易に置き換えられ得る。
【0305】
記憶デバイス1530は、不揮発性メモリであり、ハードディスク、または磁気カセット、フラッシュメモリカード、ソリッドステートメモリデバイス、デジタル多用途ディスク、カートリッジ、ランダムアクセスメモリ(RAM)1525、リードオンリーメモリ(ROM)1520、およびそれらのハイブリッドなどの、コンピュータによってアクセス可能なデータを記憶できる他のタイプのコンピュータ可読媒体であり得る。記憶デバイス1530は、プロセッサ1510を制御するためのソフトウェア、コード、ファームウェアなどを含むことができる。他のハードウェアまたはソフトウェアモジュールが企図される。記憶デバイス1530は、コンピューティングデバイス接続部1505に接続され得る。1つの態様では、特定の機能を実行するハードウェアモジュールは、機能を実行するために、プロセッサ1510、接続部1505、出力デバイス1535などの必要なハードウェア構成要素と接続している、コンピュータ可読媒体に記憶されるソフトウェア構成要素を含むことができる。
【0306】
「コンピュータ可読媒体」という用語は、限定はしないが、ポータブルまたは非ポータブルの記憶デバイス、光記憶デバイス、ならびに命令(複数可)および/またはデータを記憶、格納、または搬送できる様々な他の媒体を含む。コンピュータ可読媒体は、データがそこに記憶され得るとともに、ワイヤレスにまたは有線接続を介して伝搬する搬送波および/または一時的な電子信号を含まない、非一時的媒体を含んでもよい。非一時的媒体の例は、限定はしないが、磁気ディスク若しくはテープ、コンパクトディスク(CD)若しくはデジタル多用途ディスク(DVD)などの光記憶媒体、フラッシュメモリ、メモリ、またはメモリデバイスを含んでもよい。コンピュータ可読媒体は、プロシージャ、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラス、または命令、データ構造、若しくはプログラムステートメントの任意の組み合わせを表し得る、その上に記憶されたコードおよび/または機械実行可能命令を有してもよい。コードセグメントは、情報、データ、引数、パラメータ、またはメモリ内容を渡すことおよび/または受けることによって、別のコードセグメントまたはハードウェア回路に結合されてもよい。情報、引数、パラメータ、データなどは、メモリ共有、メッセージパッシング、トークンパッシング、ネットワーク送信などを含む、任意の好適な手段を介して渡され、転送され、または送信されてもよい。
【0307】
いくつかの実施形態では、コンピュータ可読記憶デバイス、媒体、およびメモリは、ビットストリームなどを含むケーブルまたはワイヤレス信号を含み得る。しかしながら、述べられるとき、非一時的コンピュータ可読記憶媒体は、エネルギー、キャリア信号、電磁波、および信号自体などの媒体を明確に除外する。
【0308】
本明細書で提供する実施形態および例の完全な理解を与えるために、上記の説明において具体的な詳細が提供される。しかしながら、実施形態がこれらの具体的な詳細なしに実践され得ることが当業者によって理解されよう。説明を明快にするために、いくつかの事例では、本技術は、デバイスと、デバイス構成要素と、ソフトウェア、またはハードウェアとソフトウェアの組み合わせにおいて具現化された方法におけるステップまたはルーチンと、を備える個々の機能ブロックを含むものとして提示されてもよい。図の中に示されかつ/または本明細書で説明されるもの以外の、追加の構成要素が使用されてよい。例えば、不必要な詳細で実施形態を不明瞭にしないように、回路、システム、ネットワーク、プロセス、および他の構成要素がブロック図の形態で構成要素として示されることがある。他の事例では、実施形態を不明瞭にすることを避けるために、よく知られる回路、プロセス、アルゴリズム、構造、および技法は、不必要な詳細なしに示されることがある。
【0309】
個々の実施形態が、フローチャート、フロー図、データフロー図、構造図、またはブロック図として示されるプロセスまたは方法として上記で説明されることがある。フローチャートは、動作を逐次プロセスとして説明することがあるが、動作の多くは並列にまたは同時に実行することができる。加えて、工程の順番は並べ替えられてもよい。プロセスは、その動作が完了するときに終了するが、図に含まれない追加のステップを有することができる。プロセスは、メソッド、関数、プロシージャ、サブルーチン、サブプログラムなどに対応してもよい。プロセスが関数に対応するとき、その終了は、その関数が呼出し関数またはメイン関数に戻ることに対応することができる。
【0310】
上記で説明した例によるプロセスおよび方法は、記憶されるか、またはそうでなければコンピュータ可読媒体から入手可能なコンピュータ実行可能命令を使用して実装され得る。そのような命令は、例えば、汎用コンピュータ、専用コンピュータ、または処理デバイスが、ある機能または機能のグループを実施することを引き起こすか、あるいはさもなければそれらを実施するように構成する、命令とデータとを含むことができる。使用されるコンピュータリソースの部分は、ネットワークを介してアクセス可能であることができる。コンピュータ実行可能命令は、例えば、アセンブリ言語、ファームウェア、ソースコードなどのバイナリ、中間フォーマット命令であってもよい。命令、使用される情報、および/または記載した例による方法中に作成される情報を記憶するのに使用され得るコンピュータ可読媒体の例は、磁気または光ディスク、フラッシュメモリ、不揮発性メモリが設けられたUSBデバイス、ネットワーク接続された記憶デバイスなどを含む。
【0311】
これらの開示に従ってプロセスおよび方法を実施するデバイスは、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはそれらの任意の組み合わせを含むことができ、様々なフォームファクタのうちのいずれかをとることができる。ソフトウェア、ファームウェア、ミドルウェア、またはマイクロコードにおいて実装されるとき、必要なタスクを実行するためのプログラムコードまたはコードセグメント(例えば、コンピュータプログラム製品)は、コンピュータ可読媒体または機械可読媒体に記憶されてもよい。プロセッサ(単数または複数)は必要なタスクを実行してよい。フォームファクタの典型的な例は、ラップトップ、スマートフォン、携帯電話、タブレットデバイスまたは他の小型フォームファクタパーソナルコンピュータ、携帯情報端末、ラックマウントデバイス、スタンドアロンデバイスなどを含む。本明細書で説明した機能性はまた、周辺装置またはアドインカードの中で具現され得る。そのような機能性はまた、更なる例として、異なるチップのうちの回路基板上、または単一のデバイスの中で実行する異なるプロセス上で実施され得る。
【0312】
命令、そのような命令を伝えるための媒体、命令を実行するためのコンピューティングリソース、およびそのようなコンピューティングリソースをサポートするための他の構造は、本開示で説明した機能を提供するための例示的な手段である。
【0313】
上記の説明では、本出願の態様はそれらの特定の実施形態を参照しながら説明されるが、本出願がそれらに限定されないことを当業者は認識されよう。したがって、本出願の例示的な実施形態が本明細書で詳細に説明されるが、本発明の概念が別のやり方で様々に具現および採用され得ること、ならびに従来技術によって限定される場合を除き、添付の特許請求の範囲がそのような変形を含むものと解釈されることが意図されることを理解されたい。上記で説明した本出願の様々な特徴および態様は、個別にまたは共同で使用され得る。さらに、実施形態は、本明細書のより広い範囲から逸脱することなく、本明細書に記載したもの以外の任意の数の環境および適用例において利用することができる。したがって、本明細書および図面は限定的ではなく例示的と見なされるべきである。例示の目的のために、方法は特定の順序で説明された。代替実施形態では、方法は説明された順序とは異なる順序で実行されてもよいことを諒解されたい。
【0314】
本明細書で使用される、よりも小さい(「<」)およびよりも大きい(「>」)という記号または専門用語は、本明細書の範囲から逸脱することなく、以下(「≦」)および以上(「≧」)という記号それぞれと置き換えることができることを、当業者は理解されよう。
【0315】
構成要素がいくつかの動作を実行する「ように構成される」ものとして説明される場合、そのような構成は、例えば、動作を実行するように電子回路若しくは他のハードウェアを設計することによって、動作を実行するようにプログラマブル電子回路(例えば、マイクロプロセッサ、または他の適切な電子回路)をプログラムすることによって、またはそれらの任意の組み合わせで達成され得る。
【0316】
「に結合される」という句は、直接若しくは間接的のいずれかで別の構成要素に物理的に接続される任意の構成要素、および/または直接若しくは間接的のいずれかで別の構成要素と通信している(例えば、有線接続若しくはワイヤレス接続および/または他の好適な通信インターフェースを介して他の構成要素に接続される)任意の構成要素を指す。
【0317】
集合「のうちの少なくとも1つ」、および/または集合のうちの「1つまたは複数」を記載する請求項の文言または本開示における他の文言は、集合のうちの1つのメンバーまたは(任意の組み合わせにおける)集合のうちの複数のメンバーが請求項を満足することを示す。例えば、「AおよびBのうちの少なくとも1つ」または「AまたはBのうちの少なくとも1つ」を記載する請求項の文言は、A、B、またはAおよびBを意味する。別の例では、「A、B、およびCのうちの少なくとも1つ」または「A、B、またはCのうちの少なくとも1つ」を記載する請求項の文言は、A、B、C、またはAおよびB、またはAおよびC、またはBおよびC、またはAおよびBおよびCを意味する。集合「のうちの少なくとも1つ」および/または集合のうちの「1つまたは複数」という文言は、集合の中で列挙される項目にその集合を限定しない。例えば、「AおよびBのうちの少なくとも1つ」または「AまたはBのうちの少なくとも1つ」と記載する請求項の文言は、A、B、またはAおよびBを意味することができ、追加として、AおよびBの集合の中で列挙されない項目を含むことができる。
【0318】
本明細書で開示した例に関して説明した様々な例示的な論理ブロック、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、ファームウェア、またはそれらの組み合わせとして実装されてもよい。ハードウェアとソフトウェアのこの互換性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップについて、それらの機能に関して概略的に上記で説明した。そのような機能がハードウェアとして実装されるのかまたはソフトウェアとして実装されるのかは、具体的な適用例および全体的なシステムに課される設計制約に依存する。当業者は、説明した機能性を特定の適用例ごとに様々な方法で実施し得るが、そのような実装決定は、本出願の範囲からの逸脱を引き起こすものと解釈されるべきではない。
【0319】
本明細書で説明する技法はまた、電子ハードウェア、コンピュータソフトウェア、ファームウェア、またはそれらの任意の組み合わせにおいて実装され得る。そのような技法は、汎用コンピュータ、無線通信デバイスハンドセット、または無線通信デバイスハンドセットおよび他のデバイスにおける適用例を含む複数の用途を有する集積回路デバイスなどの、様々なデバイスのうちのいずれかにおいて実装されてもよい。モジュールまたは構成要素として説明した任意の特徴は、集積論理デバイスの中で一緒に、または個別であるが相互動作可能な論理デバイスとして別々に実装され得る。ソフトウェアで実装される場合、技術は、命令を含むプログラムコードを含むコンピュータ可読データ記憶媒体によって少なくとも部分的に実現されてもよく、命令が、実行されたときに、上記で説明した方法、アルゴリズム、および/または動作のうちの1つまたは複数を実行する。コンピュータ可読データ記憶媒体は、コンピュータプログラム製品の一部を形成してもよく、これはパッケージング材料を含んでもよい。コンピュータ可読媒体は、同期ダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、FLASHメモリ、磁気または光データ記憶媒体などの、メモリまたはデータ記憶媒体を備えてもよい。技法は、追加または代替として、伝搬される信号または波などの、命令またはデータ構造の形態でのプログラムコードを搬送または通信するとともに、コンピュータによってアクセスされ、読み取られ、かつ/または実行され得る、コンピュータ可読通信媒体によって少なくとも部分的に実現されてよい。
【0320】
プログラムコードは、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の均等な集積論理回路構成若しくは個別論理回路構成などの1つまたは複数のプロセッサを含み得る、プロセッサによって実行されてよい。そのようなプロセッサは、本開示に記載された技法のいずれかを実施するように構成されてもよい。汎用プロセッサは、マイクロプロセッサであってもよいが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンでもあってもよい。プロセッサはまた、コンピューティングデバイスの組み合わせ、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと連携した1つまたは複数のマイクロプロセッサ、または任意の他のそのような構成として実装されてよい。したがって、本明細書で使用する「プロセッサ」という用語は、上記の構造、上記の構造の任意の組み合わせ、または本明細書で説明した技法の実装に適した任意の他の構造若しくは装置のうちのいずれかを指すことがある。
【0321】
本開示の例示的な例は、以下を含む。
【0322】
態様1.装置であって、メモリと、メモリに結合された1つまたは複数のプロセッサと、を備え、1つまたは複数のプロセッサが、車両の座標系に対する装置の姿勢を判定し、車両から、車両の1つまたは複数のセンサに関連付けられたデータを受信し、装置のディスプレイデバイスを使用して、1つまたは複数のセンサに関連付けられたデータと、車両の座標系に対する装置の姿勢とに基づいて、仮想コンテンツを表示する、ように構成される、装置。
【0323】
態様2.装置の姿勢を判定するために、1つまたは複数のプロセッサは、車両の内部の1つまたは複数の画像に基づいて、装置の姿勢を判定するように構成される、態様1に記載の装置。
【0324】
態様3.1つまたは複数のプロセッサが、1つまたは複数のセンサに関連付けられたデータに基づいて、車両のコンテキストを判定するように構成され、コンテキストが、車両に関連するイベントを含む、態様1または2に記載の装置。
【0325】
態様4.1つまたは複数のプロセッサは、車両の乗員の注意を車両の動作または車両イベントから逸らす、または車両イベントまたはカバー不可能と判定された車両の外部の領域に対する乗員の視界を遮る仮想コンテンツアイテムをフィルタリングまたは修正するようにさらに構成される、態様3に記載の装置。
【0326】
態様5.1つまたは複数のプロセッサが、装置の座標系に対する仮想コンテンツのロケーションを、車両の座標系に対するイベントのロケーションに関連付け、装置の座標系に対する仮想コンテンツのロケーションと車両の座標系に対するイベントのロケーションとの関連付けに基づいて、装置の1つまたは複数の視覚画像センサからのライブコンテンツフィードを表示するように構成される、態様3または4に記載の装置。
【0327】
態様6.ライブコンテンツフィードを表示するために、1つまたは複数のプロセッサが、車両の座標系に対する装置の姿勢と、イベントに対する車両の姿勢とに基づいて、イベントに対する装置の姿勢を判定し、イベントに対する装置の姿勢と、装置の座標系に対する仮想コンテンツのロケーションと車両の座標系に対するイベントのロケーションとの関連付けとに基づいて、仮想コンテンツが、車両の乗員の視野内でイベントを少なくとも部分的に遮蔽することを判定するように構成される、態様5に記載の装置。
【0328】
態様7.1つまたは複数のプロセッサが、仮想コンテンツが、イベントに対する1つまたは複数の画像センサの視界を少なくとも部分的に遮るという判定にさらに基づいて、ライブコンテンツを表示するように構成される、態様5に記載の装置。
【0329】
態様8.1つまたは複数のプロセッサが、装置の座標系に対する仮想コンテンツのロケーションを、車両の座標系に対するイベントのロケーションに関連付け、装置の座標系に対する仮想コンテンツアイテムのロケーションと車両の座標系に対するイベントのロケーションとの関連付けに基づいて、仮想コンテンツアイテムをフィルタリングまたは修正するように構成される、態様3から7のいずれかに記載の装置。
【0330】
態様9.仮想コンテンツアイテムをフィルタリングまたは修正するために、1つまたは複数のプロセッサは、仮想コンテンツアイテムの1つまたは複数の特性を修正し、1つまたは複数の特性が、透明度、サイズ、仮想コンテンツアイテムのロケーション、および仮想コンテンツアイテムの輝度レベルのうちの少なくとも1つを含む、ように構成される、態様8に記載の装置。
【0331】
態様10.仮想コンテンツアイテムをフィルタリングまたは修正するために、1つまたは複数のプロセッサは、車両の乗員の視線を判定し、乗員は装置に関連付けられており、乗員の視線およびイベントのロケーションに基づいて、乗員に対するイベントの可視性を判定し、乗員に対するイベントの可視性にさらに基づいて、仮想コンテンツアイテムをフィルタリングまたは修正する、ように構成される、態様8または9に記載の装置。
【0332】
態様11.イベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含む、態様3に記載の装置。
【0333】
態様12.車両の経路内のオブジェクトまたは車両の経路に対する閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含む、態様11に記載の装置。
【0334】
態様13.1つまたは複数のプロセッサが、車両の乗員の視線を判定し、乗員は装置に関連付けられており、車両の乗員の視線の方向内に仮想コンテンツをレンダリングする、ように構成される、態様3に記載の装置。
【0335】
態様14.乗員の視線の方向内に仮想コンテンツをレンダリングするために、1つまたは複数のプロセッサが、イベント、イベントのロケーション、およびイベントの方向のうちの少なくとも1つの仮想インジケータを備える仮想コンテンツオーバーレイをレンダリングするように構成される、態様13に記載の装置。
【0336】
態様15.乗員の視線の方向内に仮想コンテンツをレンダリングするために、仮想コンテンツをフィルタリングまたは修正するために、1つまたは複数のプロセッサは、仮想コンテンツの1つまたは複数の特性を修正し、1つまたは複数の特性が、透明度、サイズ、仮想コンテンツのロケーション、および仮想コンテンツの輝度レベルのうちの少なくとも1つを含む、ように構成される、態様13または14に記載の装置。
【0337】
態様16.1つまたは複数のプロセッサが、車両のコンテキストおよび装置の姿勢に基づいて、仮想コンテンツの少なくとも一部をフィルタリングするように構成される、態様1から15のいずれかに記載の装置。
【0338】
態様17.仮想コンテンツの少なくとも一部をフィルタリングするために、1つまたは複数のプロセッサが、仮想コンテンツのサブセットの提示を可能にするように構成され、仮想コンテンツのサブセットが、車両の状況の指標および車両計装情報のうちの少なくとも1つを含む、態様16に記載の装置。
【0339】
態様18.仮想コンテンツを表示するために、1つまたは複数のプロセッサが、車両に関連付けられた仮想コンテンツアイテムをレンダリングするように構成され、仮想コンテンツアイテムが、車両の表面に対してレンダリングされる、態様1から17のいずれか記載の装置。
【0340】
態様19.レンダリングされた仮想コンテンツアイテムが、1つまたは複数のセンサに関連付けられたデータにおいて識別されたイベントの第1の指標、車両のコンテキストの第2の指標、および車両のコンテキストに関連付けられた警報のうちの少なくとも1つを含む、態様18に記載の装置。
【0341】
態様20.仮想コンテンツアイテムをレンダリングするために、1つまたは複数のプロセッサが、車両のカメラデバイスからカメラフィードを受信し、カメラフィードの少なくとも一部を装置の表示領域内に表示する、ように構成される、態様18または19に記載の装置。
【0342】
態様21.装置の姿勢を判定するために、1つまたは複数のプロセッサが、1つまたは複数の無線周波数(RF)信号を取得し、車両の内部の1つまたは複数の画像と、1つまたは複数のRF信号に関連付けられたラウンドトリップ時間、1つまたは複数のRF信号に関連付けられた到着時間、および1つまたは複数のRF信号に関連付けられた受信信号強度インジケータ(RSSI)のうちの少なくとも1つとに基づいて、装置の姿勢を判定する、ように構成される、態様1から20のいずれかに記載の装置。
【0343】
態様22.装置の姿勢を判定するために、1つまたは複数のプロセッサは、車両から、車両に関連付けられた1つまたは複数のマーカを含む車両テンプレートを受信し、車両の内部の1つまたは複数の画像および車両テンプレートに基づいて、車両の座標系に対する装置の姿勢を判定する、ように構成される、態様1から21のいずれかに記載の装置。
【0344】
態様23.1つまたは複数のマーカが、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含む、態様22に記載の装置。
【0345】
態様24.装置の姿勢を判定するために、1つまたは複数のプロセッサが、1つまたは複数の画像内の1つまたは複数のマーカを検出し、検出された1つまたは複数のマーカおよび車両テンプレートに基づいて、車両の座標系に対する装置の姿勢を判定する、ように構成される、態様22または23に記載の装置。
【0346】
態様25.1つまたは複数のプロセッサは、装置の1つまたは複数の画像センサを使用して、車両の内部の画像のセットを取得し、画像のセットが、車両に関連付けられた1つまたは複数のマーカを描写し、画像のセットに基づいて、1つまたは複数のマーカを含む車両テンプレートを生成する、ように構成される、態様1から24のいずれかに記載の装置。
【0347】
態様26.ヘッドマウントディスプレイを備える、態様1から25のいずれかに記載の装置。
【0348】
態様27.1つまたは複数の画像センサをさらに備える、態様1から26のいずれかに記載の装置。
【0349】
態様28.方法は、車両の座標系に対するモバイルデバイスの姿勢を判定することと、車両から、車両の1つまたは複数のセンサに関連付けられたデータを受信することと、モバイルデバイスのディスプレイデバイスを使用して、1つまたは複数のセンサに関連付けられたデータと、車両の座標系に対するモバイルデバイスの姿勢とに基づいて、仮想コンテンツを表示することと、を含む、方法。
【0350】
態様29.モバイルデバイスの姿勢を判定することは、車両の内部の1つまたは複数の画像に基づいて、モバイルデバイスの姿勢を判定することを含む、態様28に記載の方法。
【0351】
態様30.1つまたは複数のセンサに関連付けられたデータに基づいて、車両のコンテキストを判定することをさらに含み、コンテキストが、車両に関連するイベントを含む、態様28または29に記載の方法。
【0352】
態様31.車両の乗員の注意を車両の動作または車両イベントから逸らす、または車両イベントまたはカバー不可能と判定された車両の外部の領域に対する乗員の視界を遮る仮想コンテンツアイテムをフィルタリングまたは修正することをさらに含む、態様30に記載の方法。
【0353】
態様32.モバイルデバイスの座標系に対する仮想コンテンツのロケーションを、車両の座標系に対するイベントのロケーションに関連付けることと、モバイルデバイスの座標系に対する仮想コンテンツのロケーションと車両の座標系に対するイベントのロケーションとの関連付けに基づいて、モバイルデバイスの1つまたは複数の視覚画像センサからのライブコンテンツフィードを表示することと、をさらに含む、態様30または31に記載の方法。
【0354】
態様33.ライブコンテンツフィードを表示することは、車両の座標系に対するモバイルデバイスの姿勢と、イベントに対する車両の姿勢とに基づいて、イベントに対するモバイルデバイスの姿勢を判定することと、イベントに対するモバイルデバイスの姿勢と、モバイルデバイスの座標系に対する仮想コンテンツのロケーションと車両の座標系に対するイベントのロケーションとの関連付けとに基づいて、仮想コンテンツが、車両の乗員の視野内でイベントを少なくとも部分的に遮蔽することを判定することと、を含む、態様32に記載の方法。
【0355】
態様34.仮想コンテンツが、イベントに対するモバイルデバイスの1つまたは複数の画像センサの視界を少なくとも部分的に遮るという判定にさらに基づいて、ライブコンテンツを表示することをさらに含む、態様32または33に記載の方法。
【0356】
態様35.モバイルデバイスの座標系に対する仮想コンテンツアイテムのロケーションを、車両の座標系に対するイベントのロケーションに関連付けることと、モバイルデバイスの座標系に対する仮想コンテンツのロケーションと車両の座標系に対するイベントのロケーションとの関連付けに基づいて、仮想コンテンツアイテムをフィルタリングまたは修正することとをさらに含む、態様30に記載の方法。
【0357】
態様36.仮想コンテンツアイテムをフィルタリングまたは修正するために、1つまたは複数のプロセッサは、仮想コンテンツアイテムの1つまたは複数の特性を修正し、1つまたは複数の特性が、透明度、サイズ、仮想コンテンツアイテムのロケーション、および仮想コンテンツアイテムの輝度レベルのうちの少なくとも1つを含む、ように構成される、態様35に記載の方法。
【0358】
態様37.仮想コンテンツアイテムをフィルタリングまたは修正するために、1つまたは複数のプロセッサは、車両の乗員の視線を判定し、乗員はモバイルデバイスに関連付けられており、乗員の視線およびイベントのロケーションに基づいて、乗員に対するイベントの可視性を判定し、乗員に対するイベントの可視性にさらに基づいて、仮想コンテンツアイテムをフィルタリングまたは修正するように構成される、態様35または36に記載の方法。
【0359】
態様38.イベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含む、態様30に記載の方法。
【0360】
態様39.車両の経路内のオブジェクトまたは車両の経路に対する閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含む、態様38に記載の方法。
【0361】
態様40.車両の乗員の視線を判定することであって、乗員はモバイルデバイスに関連付けられる、ことと、車両の乗員の視線の方向内に仮想コンテンツをレンダリングすることと、をさらに含む、態様30に記載の方法。
【0362】
態様41.乗員の視線の方向内に仮想コンテンツをレンダリングすることは、イベント、イベントのロケーション、およびイベントの方向のうちの少なくとも1つの仮想インジケータを備える仮想コンテンツオーバーレイをレンダリングすることを含む、態様40に記載の方法。
【0363】
態様42.乗員の視線の方向内に仮想コンテンツをレンダリングするために、仮想コンテンツをフィルタリングまたは修正するために、1つまたは複数のプロセッサは、仮想コンテンツの1つまたは複数の特性を修正し、1つまたは複数の特性が、透明度、サイズ、仮想コンテンツのロケーション、および仮想コンテンツの輝度レベルのうちの少なくとも1つを含む、ように構成される、態様40または41に記載の方法。
【0364】
態様43.車両のコンテキストおよびモバイルデバイスの姿勢に基づいて、仮想コンテンツの少なくとも一部をフィルタリングすることをさらに含む、態様28から42のいずれかに記載の方法。
【0365】
態様44.仮想コンテンツの少なくとも一部をフィルタリングすることが、仮想コンテンツのサブセットの提示を可能にすることを含み、仮想コンテンツのサブセットが、車両の状況の指標および車両計装情報のうちの少なくとも1つを含む、態様43に記載の方法。
【0366】
態様45.仮想コンテンツを表示することが、車両に関連付けられた仮想コンテンツアイテムをレンダリングすることを含み、仮想コンテンツアイテムが、車両の表面に対してレンダリングされる、態様28から44のいずれかに記載の方法。
【0367】
態様46.レンダリングされた仮想コンテンツアイテムが、1つまたは複数のセンサに関連付けられたデータにおいて識別されたイベントの第1の指標、車両のコンテキストの第2の指標、および車両のコンテキストに関連付けられた警報のうちの少なくとも1つを含む、態様45に記載の方法。
【0368】
態様47.仮想コンテンツアイテムをレンダリングすることは、車両のカメラデバイスからカメラフィードを受信することと、カメラフィードの少なくとも一部をモバイルデバイスの表示領域内に表示することを含む、態様45または46に記載の方法。
【0369】
態様48.モバイルデバイスの姿勢を判定することは、1つまたは複数の無線周波数(RF)信号を取得することと、車両の内部の1つまたは複数の画像と、1つまたは複数のRF信号に関連付けられたラウンドトリップ時間、1つまたは複数のRF信号に関連付けられた到着時間、および1つまたは複数のRF信号に関連付けられた受信信号強度インジケータ(RSSI)のうちの少なくとも1つとに基づいて、モバイルデバイスの姿勢を判定することと、を含む、態様28から47のいずれかに記載の方法。
【0370】
態様49.モバイルデバイスの姿勢を判定することは、車両から、車両に関連付けられた1つまたは複数のマーカを含む車両テンプレートを受信することと、車両の内部の1つまたは複数の画像および車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することとを含む、態様28から48のいずれかに記載の方法。
【0371】
態様50.1つまたは複数のマーカが、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含む、態様49に記載の方法。
【0372】
態様51.モバイルデバイスの姿勢を判定することは、1つまたは複数の画像内の1つまたは複数のマーカを検出することと、検出された1つまたは複数のマーカおよび車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することと、を含む、態様49または50に記載の方法。
【0373】
態様52.モバイルデバイスの1つまたは複数の画像センサを使用して、車両の内部の画像のセットを取得することであって、画像のセットが、車両に関連付けられた1つまたは複数のマーカを描写する、ことと、画像のセットに基づいて、1つまたは複数のマーカを含む車両テンプレートを生成することと、をさらに含む、態様28から51のいずれかに記載の方法。
【0374】
態様53.1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに態様28から52のいずれかに記載の方法を実施させる命令を記憶した非一時的コンピュータ可読媒体。
【0375】
態様54.態様28から52のいずれかに記載の方法を実行する手段を備える装置。
【0376】
態様55.装置であって、メモリと、メモリに結合された1つまたは複数のプロセッサと、を備え、1つまたは複数のプロセッサが、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対する装置の姿勢を判定し、車両の乗員の状態を判定し、乗員の状態および車両の座標系に対する装置の姿勢を示すデータを車両に送信する、ように構成される、装置。
【0377】
態様56.乗員の状態は、車両を操作することに関する乗員の障害を含む、態様55に記載の装置。
【0378】
態様57.乗員の障害は、車両を安全に操作する乗員の能力に悪影響を与える任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件を含む、態様56に記載の装置。
【0379】
態様58.障害は、車両の動作および車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含む、態様56または57に記載の装置。
【0380】
態様59.乗員の状態を判定するために、1つまたは複数のプロセッサは、車両から、車両の1つまたは複数のセンサに関連付けられたデータを受信し、車両の1つまたは複数のセンサに関連付けられたデータおよび装置の姿勢に基づいて、乗員の状態を判定するように構成される、態様56から58のいずれかに記載の装置。
【0381】
態様60.車両の1つまたは複数のセンサに関連付けられたデータは、車両の状態および車両に関連付けられたイベントのうちの少なくとも1つを示す、態様59に記載の装置。
【0382】
態様61.車両に関連付けられたイベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含む、態様60に記載の装置。
【0383】
態様62.車両の経路内のオブジェクトまたは車両の経路に対する閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含む、態様61に記載の装置。
【0384】
態様63.乗員の障害は、車両を安全に操作する乗員の能力に悪影響を与える任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件を含む、態様56から62のいずれかに記載の装置。
【0385】
態様64.1つまたは複数のプロセッサが、車両の乗員の視線を判定するように構成され、乗員の状態は乗員の視線を含み、乗員は装置に関連付けられる、態様55から63のいずれかに記載の装置。
【0386】
態様65.乗員の状態を判定するために、1つまたは複数のプロセッサは、装置および乗員によって装着されるウェアラブルデバイスのうちの少なくとも1つに関連付けられた1つまたは複数のセンサから、乗員に関連付けられた1つまたは複数の健康測定値を受信し、1つまたは複数の健康測定値に基づいて乗員の状態を判定するように構成される、態様55から64のいずれかに記載の装置。
【0387】
態様66.1つまたは複数の健康測定値は、心拍数、血圧、体温、ガルバニック皮膚反応、乗員の心臓からの電気信号の測定値、乗員の脳の電気活動の測定値、目の赤みの量、および瞳孔サイズのうちの少なくとも1つを含む、態様65に記載の装置。
【0388】
態様67.乗員の状態を判定するために、1つまたは複数のプロセッサは、乗員の視線が、ある期間にわたって車両の前方の道路から離れて集中していると判定し、乗員の視線が、ある期間にわたって車両の前方の道路から離れて集中していること、および期間が閾値期間を超えるという判定に基づいて、乗員の障害状態を判定するように構成される、態様55から66のいずれかに記載の装置。
【0389】
態様68.乗員の視線が一定期間にわたって車両の前方の道路から離れて集中していると判定するために、1つまたは複数のプロセッサは、乗員の視線が一定期間の少なくとも一部にわたって、装置によってレンダリングされた仮想コンテンツに集中していると判定するように構成される、態様67に記載の装置。
【0390】
態様69.乗員の視線が一定期間にわたって車両の前方の道路から離れて集中していると判定するために、1つまたは複数のプロセッサは、乗員の視線が車両の経路内の障害物の方向または車両の経路に対する閾値近接度とは異なる方向に集中していると判定するように構成される、態様67または68に記載の装置。
【0391】
態様70.1つまたは複数のプロセッサは、乗員の状態の指標を、第2の車両、車両インフラストラクチャシステム、第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信するように構成される、態様55から69のいずれかに記載の装置。
【0392】
態様71.乗員の状態を判定するために、1つまたは複数のプロセッサは、装置を装着している乗員の視線を判定し、装置の姿勢および乗員の視線に基づいて、乗員の状態を判定する、ように構成される、態様55から70のいずれかに記載の装置。
【0393】
態様72.置の姿勢を判定するために、1つまたは複数のプロセッサは、車両から、車両に関連付けられた1つまたは複数のマーカを含む車両テンプレートを受信し、1つまたは複数の画像および車両テンプレートに基づいて、車両の座標系に対する装置の姿勢を判定する、ように構成される、態様55から71のいずれかに記載の装置。
【0394】
態様73.1つまたは複数のマーカが、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含む、態様72に記載の装置。
【0395】
態様74.1つまたは複数の画像が1つまたは複数のマーカを描写し、装置の姿勢を判定するために、1つまたは複数のプロセッサが、1つまたは複数の画像内の1つまたは複数のマーカを検出し、検出された1つまたは複数のマーカおよび車両テンプレートに基づいて、車両の座標系に対する装置の姿勢を判定する、ように構成される、態様72に記載の装置。
【0396】
態様75.1つまたは複数のプロセッサは、装置の1つまたは複数の画像センサを使用して、車両の内部の画像のセットを取得し、画像のセットが、車両に関連付けられた1つまたは複数の視覚ランドマークを描写し、画像のセットに基づいて、車両テンプレートを生成し、車両テンプレートが、1つまたは複数の視覚ランドマークを含む、ように構成される、態様55から74のいずれかに記載の装置。
【0397】
態様76.装置の姿勢を判定するために、1つまたは複数のプロセッサは、装置に関連付けられた慣性センサデータを取得し、1つまたは複数の画像および慣性センサデータに基づいて、装置の姿勢を判定するように構成される、態様55から75のいずれかに記載の装置。
【0398】
態様77.ヘッドマウントディスプレイを備える、態様55から76のいずれかに記載の装置。
【0399】
態様78.方法であって、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することと、車両の乗員の状態を判定することと、乗員の状態および車両の座標系に対するモバイルの姿勢を示すデータを車両に送信することと、を含む、方法。
【0400】
態様79.乗員の状態は、車両を操作することに関する乗員の障害を含む、態様78に記載の方法。
【0401】
態様80.乗員の障害は、車両を安全に操作する乗員の能力に悪影響を与える任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件を含む、態様78または79のいずれかに記載の方法。
【0402】
態様81.障害は、車両の動作および車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含む、態様78から80のいずれかに記載の方法。
【0403】
態様82.いくつかの例では、乗員の状態を判定することは、車両から、車両の1つまたは複数のセンサに関連付けられたデータを受信することと、車両の1つまたは複数のセンサに関連付けられたデータおよびモバイルデバイスの姿勢に基づいて、乗員の状態を判定することとを含む、態様78から81のいずれかに記載の方法。
【0404】
態様83.車両の1つまたは複数のセンサに関連付けられたデータは、車両の状態および車両に関連付けられたイベントのうちの少なくとも1つを示す、態様82に記載の方法。
【0405】
態様84.車両に関連付けられたイベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含む、態様83に記載の方法。
【0406】
態様85.車両の経路内のオブジェクトまたは車両の経路に対する閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含む、態様84に記載の方法。
【0407】
態様86.車両の乗員の視線を判定することをさらに含み、乗員の状態が乗員の視線を含み、乗員がモバイルデバイスに関連付けられる、態様78から85のいずれかに記載の方法。
【0408】
態様87.乗員の状態を判定することは、モバイルデバイスおよび乗員によって装着されるウェアラブルデバイスのうちの少なくとも1つに関連付けられた1つまたは複数のセンサから、乗員に関連付けられた1つまたは複数の健康測定値を受信することと、1つまたは複数の健康測定値に基づいて乗員の状態を判定することとを含む、態様78から86のいずれかに記載の方法。
【0409】
態様88.1つまたは複数の健康測定値は、心拍数、血圧、体温、ガルバニック皮膚反応、乗員の心臓からの電気信号の測定値、乗員の脳の電気活動の測定値、目の赤みの量、および瞳孔サイズのうちの少なくとも1つを含む、態様87に記載の方法。
【0410】
態様89.乗員の状態を判定することは、乗員の視線が、ある期間にわたって車両の前方の道路から離れて集中していることを判定することと、乗員の視線が、ある期間にわたって車両の前方の道路から離れて集中していることと、期間が閾値期間を超えるという判定とに基づいて、乗員の障害状態を判定することとを含む、態様78から87のいずれかに記載の方法。
【0411】
態様90.乗員の視線が一定期間にわたって車両の前方の道路から離れて集中していると判定することは、乗員の視線が一定期間の少なくとも一部にわたってモバイルデバイスによってレンダリングされた仮想コンテンツに集中していると判定することを含む、態様89に記載の方法。
【0412】
態様91.乗員の視線が一定期間車両の前方の道路から離れて集中していると判定することは、乗員の視線が車両の経路内の障害物の方向または車両の経路に対する閾値近接度とは異なる方向に集中していると判定することを含む、態様89に記載の方法。
【0413】
態様92.乗員の状態の指標を、第2の車両、車両インフラストラクチャシステム、第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信することをさらに含む、態様78から91のいずれかに記載の方法。
【0414】
態様93.乗員の状態を判定することは、モバイルデバイスを装着している乗員の視線を判定することと、モバイルデバイスの姿勢および乗員の視線に基づいて乗員の状態を判定することとを含む、態様78から92のいずれかに記載の方法。
【0415】
態様94.モバイルデバイスの姿勢を判定することは、車両から、車両に関連付けられた1つまたは複数のマーカを含む車両テンプレートを受信することと、1つまたは複数の画像および車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することとを含む、態様78から93のいずれかに記載の方法。
【0416】
態様95.1つまたは複数のマーカが、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含む、態様94に記載の方法。
【0417】
態様96.1つまたは複数の画像が1つまたは複数のマーカを描写し、モバイルデバイスの姿勢を判定することは、1つまたは複数の画像内の1つまたは複数のマーカを検出することと、検出された1つまたは複数のマーカおよび車両テンプレートに基づいて、車両の座標系に対するモバイルデバイスの姿勢を判定することと、を含む、態様94に記載の方法。
【0418】
態様97.モバイルデバイスの1つまたは複数の画像センサを使用して、車両の内部の画像のセットを取得することであって、画像のセットが、車両に関連付けられた1つまたは複数の視覚ランドマークを描写する、ことと、画像のセットに基づいて、車両テンプレートを生成することであって、車両テンプレートが、1つまたは複数の視覚ランドマークを含むことと、をさらに含む、態様78から96のいずれかに記載の方法。
【0419】
態様98.モバイルデバイスの姿勢を判定することは、モバイルデバイスに関連付けられた慣性センサデータを取得することと、1つまたは複数の画像および慣性センサデータに基づいてモバイルデバイスの姿勢を判定することとを含む、態様78から97のいずれかに記載の方法。
【0420】
態様99.乗員の障害は、車両を安全に操作する乗員の能力に悪影響を与える任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件を含む、態様78または98のいずれかに記載の方法。
【0421】
態様100.1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに態様78から99のいずれかに記載の方法を実施させる命令を記憶した非一時的コンピュータ可読媒体。
【0422】
態様101.態様78から99のいずれかに記載の方法を実行する手段を備える装置。
【0423】
態様102.車両の1つまたは複数の動作を制御するための方法であって、車両の乗員に関連付けられたモバイルデバイスから、車両の座標系に対する乗員の姿勢を受信することと、車両の座標系に対する乗員の姿勢に基づいて、車両の1つまたは複数の機能を制御することとを含む、方法。
【0424】
態様103.車両の1つまたは複数の機能を制御することは、車両の1つまたは複数の車両機能に関与することを含む、態様102に記載の方法。
【0425】
態様104.1つまたは複数の車両機能は、オートパイロット機能、トラクション制御機能、クルーズコントロール機能、衝突回避機能、車線逸脱機能、車線中心化機能、ブレーキ支援機能、車線維持機能、高速道路支援機能、車線変更支援機能、速度適応機能、および交差点支援機能のうちの少なくとも1つを含む、態様103に記載の方法。
【0426】
態様105.車両の動作を制御することは、車両の1つまたは複数の自律車両システムを制御または係合することを含む、態様102から104のいずれかに記載の方法。
【0427】
態様106.1つまたは複数の自律車両システムは、死角監視システム、運転者監視システム、制動システム、自律運転制御システム、運転者支援システム、ナビゲーションシステム、ステアリング制御システム、車両通信システム、および自動車ヘッドアップディスプレイのうちの少なくとも1つを含む、態様105に記載の方法。
【0428】
態様107.車両の1つまたは複数のセンサに関連付けられたデータを、モバイルデバイス、第2の車両、車両インフラストラクチャシステム、第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信することをさらに含む、態様102から106のいずれかに記載の方法。
【0429】
態様108.乗員の状態を示すデータを、第2の車両、車両インフラストラクチャシステム、第2の車両の第2の乗員に関連付けられた第1のリモートデバイス、および歩行者に関連付けられた第2のリモートデバイスのうちの少なくとも1つに送信することをさらに含む、態様102から107のいずれかに記載の方法。
【0430】
態様109.車両の座標系に対する乗員の姿勢を判定するための車両テンプレートをモバイルデバイスに送信することをさらに含み、車両テンプレートは、車両に関連付けられた1つまたは複数のマーカを含む、態様102から108のいずれかに記載の方法。
【0431】
態様110.1つまたは複数のマーカが、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含む、態様109に記載の方法。
【0432】
態様111.車両の座標系に対する乗員の姿勢に少なくとも部分的に基づいて、出力を生成することであって、出力が、モバイルデバイスへの通信、車両の1つまたは複数の機能を修正する命令、および乗員の状態の指標のうちの少なくとも1つをさらに含む、態様109に記載の方法。
【0433】
態様112.モバイルデバイスへの通信は、仮想コンテンツアイテムおよび仮想コンテンツアイテムを表示する要求のうちの少なくとも1つを含む、態様111に記載の方法。
【0434】
態様113.モバイルデバイスから、車両の乗員の状態を示すデータを受信することをさらに含み、データは、モバイルデバイスの1つまたは複数のセンサからのセンサデータ、およびモバイルデバイスの1つまたは複数のセンサからのセンサデータに基づいて生成された処理されたデータのうちの少なくとも1つを含む、態様102から112のいずれかに記載の方法。
【0435】
態様114.処理されたデータは、乗員の状態の記述および乗員の状態を識別する分類出力のうちの少なくとも1つを含む、態様113に記載の方法。
【0436】
態様115.モバイルデバイスから、車両の乗員の状態を示すデータを受信することをさらに含み、データは、乗員の視線の指標、車両の座標系に対するモバイルデバイスの姿勢、および乗員に関連付けられた1つまたは複数の健康測定値のうちの少なくとも1つを含む、態様102から114のいずれかに記載の方法。
【0437】
態様116.1つまたは複数の健康測定値は、心拍数、血圧、体温、ガルバニック皮膚反応、乗員の心臓からの電気信号の測定値、乗員の脳の電気活動の測定値、目の赤みの量、および瞳孔サイズのうちの少なくとも1つを含む、態様115に記載の方法。
【0438】
態様117.車両の1つまたは複数のセンサから、車両の動作に関連するイベントの指標、乗員によって少なくとも部分的に制御される車両の1つまたは複数の動作中の1つまたは複数の運転パターンの指標、および車両計装データのうちの少なくとも1つを含むセンサデータを取得することと、センサデータにさらに基づいて、1つまたは複数の機能を制御することと、をさらに含む、態様102から116のいずれかに記載の方法。
【0439】
態様118.乗員の状態を判定することをさらに含み、乗員の状態を判定することが、モバイルデバイスおよびウェアラブルデバイスのうちの少なくとも1つに関連付けられた1つまたは複数の健康センサから、乗員に関連付けられた1つまたは複数の健康測定値を受信することと、乗員に関連付けられた1つまたは複数の健康測定値に基づいて乗員の状態を判定することとを含む、態様117に記載の方法。
【0440】
態様119.乗員の状態を取得することをさらに含み、乗員の状態は、車両を操作することに関する乗員の障害を含む、態様102から118のいずれかに記載の方法。
【0441】
態様120.乗員の障害が乗員の障害を含む、態様119に記載の方法。いくつかの例では、障害は、一時的な障害を含むことができる。
【0442】
態様121.障害は、車両の動作および車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含む、態様119に記載の方法。
【0443】
態様122.イベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含む、態様121に記載の方法。
【0444】
態様123.オブジェクトが、歩行者、動物、および別の車両のうちの少なくとも1つを含む、態様122に記載の方法。
【0445】
態様124.車両の内部の1つまたは複数の画像を取得することであって、1つまたは複数の画像が、車両に関連付けられた1つまたは複数の視覚ランドマークを描写する、ことと、1つまたは複数の画像に基づいて車両テンプレートを生成することであって、車両テンプレートが、1つまたは複数の視覚ランドマークを記述する、こととをさらに含む、態様102から123のいずれかに記載の方法。
【0446】
態様125.車両テンプレートをモバイルデバイスに送信することと、モバイルデバイスから、車両テンプレートにおいて定義された1つまたは複数の座標に対する乗員の姿勢を受信することとをさらに含み、1つまたは複数の座標は、1つまたは複数の視覚ランドマークに対するものであり、車両の座標系に対応する、態様124に記載の方法。
【0447】
態様126.モバイルデバイスから、乗員の状態を示すデータを受信することをさらに含み、車両の1つまたは複数の機能を制御することが、乗員の姿勢および乗員の状態を示すデータに基づいて車両の1つまたは複数の機能を制御することを含む、態様125に記載の方法。
【0448】
態様127.車両の座標系に対する乗員の姿勢に少なくとも部分的に基づいて、出力を生成することであって、出力が、車両の1つまたは複数の機能を修正する命令、および乗員の更新された状態のうちの少なくとも1つを含む、態様126に記載の方法。
【0449】
態様128.車両の1つまたは複数の機能は、車両の1つまたは複数の機能および車両の1つまたは複数の自律車両システムのうちの少なくとも1つを制御するように構成された車両のコンピュータシステムを介して制御される、態様102から128のいずれかに記載の方法。
【0450】
態様129.モバイルデバイスがウェアラブル拡張現実デバイスを含む、態様102から128のいずれかに記載の方法。
【0451】
態様130.モバイルデバイスがヘッドマウントディスプレイを備える、態様102から129のいずれかに記載の方法。
【0452】
態様131.乗員の障害は、車両を安全に操作する乗員の能力に悪影響を与える任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件を含む、態様119から121のいずれかに記載の方法。
【0453】
態様132.装置であって、メモリと、メモリに結合された1つまたは複数のプロセッサと、を備え、1つまたは複数のプロセッサが、態様102から131のいずれかに記載の方法を実行するように構成される、装置。
【0454】
態様133.態様102から131のいずれかに記載の方法を実行する手段を備える装置。
【0455】
態様134.1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに態様102から131のいずれかに記載の方法を実施させる命令を記憶した非一時的コンピュータ可読媒体。
【0456】
態様135.車両の乗員に関連付けられたデバイスに車両データを提供するための方法であって、方法が、車両のコンピュータシステムに接続された拡張現実(AR)デバイスから要求を受信することと、要求に応答して、車両の1つまたは複数のセンサに関連付けられたデータをARデバイスに送信することとを含む方法。
【0457】
態様136.データは、車両のコンテキストを示す車両データを含み、車両のコンテキストは、車両の状態、および車両が遭遇した、または車両の1つまたは複数の動作中に発生すると判定された1つまたは複数のイベントのうちの少なくとも1つを含む、態様135に記載の方法。
【0458】
態様137.1つまたは複数のイベントが、車両の経路内のオブジェクトの存在または車両の経路への閾値近接度、車両の経路に関連付けられた交通規制、ならびに車両が速度制限および車線区分線のうちの少なくとも1つ内に留まらなかったこと、のうちの少なくとも1つを含む、態様136に記載の方法。
【0459】
態様138.車両の経路内のオブジェクトまたは車両の経路に対する閾値近接度が、歩行者、動物、および別の車両のうちの少なくとも1つを含む、態様137に記載の方法。
【0460】
態様139.ARデバイスに、車両の座標系に対するARデバイスの姿勢および1つまたは複数のイベントのそれぞれのロケーションのうちの少なくとも1つに対するロケーションにおける提示のための表示データを送信することをさらに含み、ディスプレイデータが車両データの少なくとも一部を含む、態様136に記載の方法。
【0461】
態様140.ARデバイスに、1つまたは複数のイベントのそれぞれのロケーションの指標を送信することをさらに含む、態様139に記載の方法。
【0462】
態様141.車両の座標系に対するARデバイスの姿勢を判定するための車両テンプレートをARデバイスに送信することをさらに含み、車両テンプレートが車両の内部の1つまたは複数のマーカを記述する、態様135から140のいずれかに記載の方法。
【0463】
態様142.1つまたは複数のマーカが、車両の内部内のエリアおよび車両の内部に取り付けられたオブジェクトのうちの少なくとも一方の視覚パターン、車両の内部の要素、車両の内部内の表面、ならびに車両の内側の照明されたオブジェクトのうちの少なくとも1つを含む、態様141に記載の方法。
【0464】
態様143.ARデバイスから、車両の座標系に対するARデバイスの姿勢を受信するステップをさらに含む、態様141に記載の方法。
【0465】
態様144.1つまたは複数のセンサに関連付けられたデータおよび車両の座標系に対するARデバイスの姿勢のうちの少なくとも1つに基づいて、車両に関連付けられた仮想コンテンツのコンピュータシステムによる提示を制御することをさらに含む、態様143に記載の方法。
【0466】
態様145.仮想コンテンツの提示を制御することは、車両の座標系に対するARデバイスの姿勢に基づいて、車両の1つまたは複数の画像センサからのライブコンテンツフィードをARデバイスに提供することを含む、態様144に記載の方法。
【0467】
態様146.ライブコンテンツフィードを提供することは、車両の座標系に対するARデバイスの姿勢および車両イベントに対する車両の位置に基づいて、車両イベントに対するARデバイスの姿勢を判定することと、車両イベントに対するARデバイスの姿勢に基づいて、コンピュータシステムおよびARデバイスのうちの少なくとも1つに関連付けられた仮想コンテンツが、ARデバイスの視野内で車両イベントを少なくとも部分的に遮ることを判定することとを含む、態様145に記載の方法。
【0468】
態様147.仮想コンテンツの提示を制御することは、コンピュータシステムによってレンダリングされた仮想コンテンツアイテムのロケーションを車両の座標系に対する車両イベントのロケーションに関連付けることと、車両の座標系に対する仮想コンテンツのロケーションと車両イベントのロケーションとの関連付けに基づいて仮想コンテンツアイテムをフィルタリングまたは修正することとを含む、態様144に記載の方法。
【0469】
態様148.仮想コンテンツアイテムをフィルタリングまたは修正することが、仮想コンテンツアイテムの1つまたは複数の特性を修正することであって、1つまたは複数の特性が、透明度、サイズ、仮想コンテンツアイテムのロケーション、および輝度レベルのうちの少なくとも1つを含む、ことを含む、態様147に記載の方法。
【0470】
態様149.仮想コンテンツアイテムをフィルタリングまたは修正することが、車両の乗員の視線を受信することと、乗員の視線および車両イベントのロケーションに基づいて、乗員に対する車両イベントの可視性を判定することと、乗員に対する車両イベントの可視性にさらに基づいて、仮想コンテンツアイテムをフィルタリングまたは修正することとを含む、態様147に記載の方法。
【0471】
態様150.仮想コンテンツの提示を制御することは、車両の乗員の視線を受信することと、車両の乗員の視線の方向内に仮想コンテンツをレンダリングすることとを含む、態様144に記載の方法。
【0472】
態様151.仮想コンテンツをレンダリングすることは、車両イベント、車両イベントのロケーション、および車両イベントの方向のうちの少なくとも1つの仮想インジケータを備える仮想コンテンツオーバーレイをレンダリングすることを含む、態様150に記載の方法。
【0473】
態様152.仮想コンテンツをレンダリングすることが、仮想コンテンツの1つまたは複数の特性を修正することであって、1つまたは複数の特性が、透明度、サイズ、仮想コンテンツのロケーション、および輝度レベルのうちの少なくとも1つを含む、ことを含む、態様151に記載の方法。
【0474】
態様153.1つまたは複数のディスプレイデバイスに、車両の動作に関する情報を提供する仮想コンテンツアイテムを表示する命令を送信することをさらに含み、命令が、乗員の視野内にある車両内のロケーションに対する仮想コンテンツアイテムの配置を示す、態様135から152のいずれかに記載の方法。
【0475】
態様154.仮想コンテンツアイテムは、コンピュータシステムによって検出された車両イベントの第1の指標、車両のコンテキストの第2の指標、および車両のコンテキストに関連付けられた警報のうちの少なくとも1つを含む、態様153に記載の方法。
【0476】
態様155.車両上のカメラデバイスからカメラフィードを受信することと、表示のためにカメラフィードの少なくとも一部をARデバイスに送信することとをさらに含む、態様135から154のいずれかに記載の方法。
【0477】
態様156.乗員の状態の指標をARデバイスに送信することをさらに含む、態様135から155のいずれかに記載の方法。
【0478】
態様157.乗員の状態が、車両を操作することに関する乗員の障害を含む、態様156に記載の方法。
【0479】
態様158.障害は、車両の動作および車両に関連付けられたイベントのうちの少なくとも1つに関する注意散漫状態、中毒状態、健康状態、覚醒状態、検出された感情状態、車両を制御するための障害位置、および障害視界のうちの少なくとも1つを含む、態様157に記載の方法。
【0480】
態様159.乗員の障害に基づいて車両の動作を制御することをさらに含む、態様157に記載の方法。
【0481】
態様160.乗員の障害に基づいて表示データを生成することをさらに含み、表示データは、車両イベントおよび車両計装データのうちの少なくとも1つを含む、態様157に記載の方法。
【0482】
態様161.乗員の障害に基づいて表示データをARデバイスに送信することをさらに含み、表示データは、車両イベントおよび車両計装データのうちの少なくとも1つを含む、態様157に記載の方法。
【0483】
態様162.コンピュータシステムは、車両の1つまたは複数の自律機能および車両の1つまたは複数の自律車両システムのうちの少なくとも1つを制御するように構成される、態様135から161のいずれかに記載の方法。
【0484】
態様163.ARデバイスがヘッドマウントディスプレイを備える、態様135から162のいずれかに記載の方法。
【0485】
態様164.ARデバイスがウェアラブルARデバイスを備える、態様135から163のいずれかに記載の方法。
【0486】
態様165.乗員の障害は、車両を安全に操作する乗員の能力に悪影響を与える任意のイベント、活動、注意散漫、状態、属性、挙動、および/または条件を含む、態様157または158のいずれかに記載の方法。
【0487】
態様166.装置であって、メモリと、メモリに結合された1つまたは複数のプロセッサと、を備え、1つまたは複数のプロセッサが、態様135から165のいずれかに記載の方法を実行するように構成される、装置。
【0488】
態様167.態様135から165のいずれかに記載の方法を実行する手段を備える装置。
【0489】
態様168.1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに態様135から165のいずれかに記載の方法を実施させる命令を記憶した非一時的コンピュータ可読媒体。
【0490】
態様169.
方法であって、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイスの位置を判定することを含む、方法。方法は、車両から、車両の1つまたは複数のセンサに関連付けられたデータを受信することと、装置のディスプレイデバイスを使用して、1つまたは複数のセンサに関連付けられたデータと、車両の座標系に対する装置の位置とに基づいて、仮想コンテンツを表示することとをさらに含むことができる。追加または代替として、方法は、車両の乗員の状態を判定することと、乗員の状態および車両の座標系に対するモバイルデバイスの位置を示すデータを車両に送信することと、をさらに含むことができる。
【0491】
態様170.態様28から52および/または態様78から99のいずれかに記載の方法をさらに含む、態様169に記載の方法。
【0492】
態様171.装置であって、メモリと、メモリに結合された1つまたは複数のプロセッサと、を備え、1つまたは複数のプロセッサが、態様169または170に記載の方法を実行するように構成される、装置。
【0493】
態様172.態様169または170に記載の方法を実行する手段を備える装置。
【0494】
態様173.1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに態様169または170に記載の方法を実施させる命令を記憶した非一時的コンピュータ可読媒体。
【0495】
態様174.方法であって、車両の内部の1つまたは複数の画像に基づいて、車両の座標系に対するモバイルデバイスの位置を判定することを含む、方法。方法は、車両の乗員の状態を判定することと、乗員の状態および車両の座標系に対するモバイルデバイスの位置を示すデータを車両に送信することと、をさらに含むことができる。追加または代替として、方法は、車両から、車両の1つまたは複数のセンサに関連付けられたデータを受信することと、装置のディスプレイデバイスを使用して、1つまたは複数のセンサに関連付けられたデータと、車両の座標系に対する装置の位置とに基づいて、仮想コンテンツを表示することとをさらに含むことができる。
【0496】
態様175.態様28から52および/または態様78から99のいずれかに記載の方法をさらに含む、態様174に記載の方法。
【0497】
態様176.装置であって、メモリと、メモリに結合された1つまたは複数のプロセッサと、を備え、1つまたは複数のプロセッサが、態様174または175に記載の方法を実行するように構成される、装置。
【0498】
態様177.態様174または175に記載の方法を実行する手段を備える装置。
【0499】
態様180.1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに態様174または175に記載の方法を実施させる命令を記憶した非一時的コンピュータ可読媒体。
【0500】
態様181.方法であって、車両の乗員に関連付けられたモバイルデバイスから、車両の座標系に対する乗員の姿勢を受信することと、車両の座標系に対する乗員の姿勢に基づいて、車両の1つまたは複数の機能を制御することとを含む、方法。追加または代替として、方法は、車両のコンピュータシステムに接続された拡張現実(AR)デバイスから要求を受信することと、要求に応答して、車両の1つまたは複数のセンサに関連付けられたデータをARデバイスに送信することとをさらに含むことができる。
【0501】
態様182.態様102から131のいずれか、および/または態様135から165のいずれかに記載の方法をさらに含む、態様181に記載の方法。
【0502】
態様183.装置であって、メモリと、メモリに結合された1つまたは複数のプロセッサと、を備え、1つまたは複数のプロセッサが、態様181または182に記載の方法を実行するように構成される、装置。
【0503】
態様184.態様181または182に記載の方法を実行する手段を備える装置。
【0504】
態様185.1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに態様181または182に記載の方法を実施させる命令を記憶した非一時的コンピュータ可読媒体。
【0505】
態様186.方法であって、車両のコンピュータシステムに接続された拡張現実(AR)デバイスから要求を受信することと、要求に応答して、車両の1つまたは複数のセンサに関連付けられたデータをARデバイスに送信することとを含む、方法。追加または代替として、方法は、車両の乗員に関連付けられたモバイルデバイスから、車両の座標系に対する乗員の姿勢を受信することと、車両の座標系に対する乗員の姿勢に基づいて、車両の1つまたは複数の機能を制御することとをさらに含むことができる。
【0506】
態様187.態様102から131のいずれか、および/または態様135から165のいずれかに記載の方法をさらに含む、態様186に記載の方法。
【0507】
態様183.装置であって、メモリと、メモリに結合された1つまたは複数のプロセッサと、を備え、1つまたは複数のプロセッサが、態様186または187に記載の方法を実行するように構成される、装置。
【0508】
態様184.態様186または187に記載の方法を実行する手段を備える装置。
【0509】
態様185.1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに態様186または187に記載の方法を実施させる命令を記憶した非一時的コンピュータ可読媒体。
図1
図2
図3
図4A
図4B
図5
図6A
図6B
図6C
図6D
図6E
図7A
図7B
図7C
図7D
図7E
図7F
図7G
図7H
図7I
図8
図9
図10
図11
図12
図13
図14
図15
【国際調査報告】