(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-01-24
(45)【発行日】2024-02-01
(54)【発明の名称】自動運転車インタラクションシステム
(51)【国際特許分類】
B60Q 1/50 20060101AFI20240125BHJP
G08G 1/16 20060101ALI20240125BHJP
B60Q 1/26 20060101ALI20240125BHJP
G06V 10/22 20220101ALI20240125BHJP
G06V 20/52 20220101ALI20240125BHJP
G06V 40/20 20220101ALI20240125BHJP
【FI】
B60Q1/50 Z
G08G1/16 C
B60Q1/26 Z
G06V10/22
G06V20/52
G06V40/20
(21)【出願番号】P 2022504134
(86)(22)【出願日】2019-08-09
(86)【国際出願番号】 US2019046045
(87)【国際公開番号】W WO2021029860
(87)【国際公開日】2021-02-18
【審査請求日】2022-07-22
(73)【特許権者】
【識別番号】592051453
【氏名又は名称】ハーマン インターナショナル インダストリーズ インコーポレイテッド
(74)【代理人】
【識別番号】100078282
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【氏名又は名称】森下 夏樹
(72)【発明者】
【氏名】クラッツ, スヴェン
(72)【発明者】
【氏名】ヴァーベック, ジョセフ
(72)【発明者】
【氏名】マルティ, ステファン
【審査官】塩治 雅也
(56)【参考文献】
【文献】米国特許出願公開第2019/0164344(US,A1)
【文献】米国特許出願公開第2017/0153714(US,A1)
【文献】米国特許出願公開第2016/0167648(US,A1)
【文献】米国特許出願公開第2014/0043173(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
B60Q 1/00-1/56
G08G 1/16
G06V 10/22
G06V 20/52
G06V 40/20
(57)【特許請求の範囲】
【請求項1】
自動運転車とのインタラクションを容易にするためのシステムであって、
前記システムは、
前記自動運転車に含まれ、投影ヘイリングエリアに対応するセンサデータを生成するように構成されたセンサと、
前記自動運転車に含まれ、前記自動運転車に近接する表面に前記投影ヘイリングエリアを生成するように構成された投影システム
であって、前記投影ヘイリングエリアは、乗車を要求するために人が入らなければならないエリアを示す、投影システムと、
前記自動運転車に含まれるプロセッサであって、前記プロセッサは、
前記投影システムが前記投影ヘイリングエリアを投影した後に、
前記センサデータを分析して、前記投影ヘイリングエリア内の人を検出すること
、及び、
前記投影ヘイリングエリア内の前記人を検出したことに応じて、確認応答インジケータを出力させること
を行うための命令を実行するように構成されている、プロセッサと
を備える、システム。
【請求項2】
前記プロセッサは、前記投影システムに、前記自動運転車に近接する前記表面上に前記投影ヘイリングエリアを生成させるための命令を実行するようにさらに構成されている、請求項1に記載のシステム。
【請求項3】
前記プロセッサは、前記投影システムに、前記自動運転車が指定された場所の近くに位置していることを検出したことに応じて、前記自動運転車に近接する前記表面上に前記投影ヘイリングエリアを生成させるための命令を実行するようにさらに構成されている、請求項2に記載のシステム。
【請求項4】
前記プロセッサは、前記投影システムに、前記自動運転車が前記人に対して移動している間に、前記表面の静止部分に前記投影ヘイリングエリアを生成させるための命令を実行するようにさらに構成されている、請求項2に記載のシステム。
【請求項5】
前記プロセッサは、前記指定された場所で特定の乗り手をピックアップするための命令を受信したことに応じて、前記自動運転車に前記指定された場所まで運転させるための命令を実行するようにさらに構成されている、請求項3に記載のシステム。
【請求項6】
前記プロセッサは、乗車要求が前記投影ヘイリングエリア内の前記人によって実行されることを判定するための命令を実行するようにさらに構成されている、請求項1に記載のシステム。
【請求項7】
前記乗車要求は、前記投影ヘイリングエリア内の前記人によって実行される身体的ジェスチャを含む、請求項6に記載のシステム。
【請求項8】
前記プロセッサは、前記センサからの画像データに基づいて前記乗車要求を判定するための前記命令を実行するように構成されている、請求項7に記載のシステム。
【請求項9】
前記乗車要求は、前記投影ヘイリングエリア内の前記人による口頭の発話を含む、請求項6に記載のシステム。
【請求項10】
前記プロセッサは、前記センサに含まれる少なくとも1つのマイクロフォンからの音声データに基づいて前記乗車要求を判定するための前記命令を実行するように構成されている、請求項9に記載のシステム。
【請求項11】
自動運転車とのインタラクションを容易にするためのシステムであって、前記システムは、
前記自動運転車に近接する表面に投影ヘイリングエリアを生成するように構成された投影システムであって、前記投影ヘイリングエリアは、乗車を要求するために人が入らなければならないエリアを示す、投影システムと、
前記投影ヘイリングエリアに対応するセンサデータを生成するように構成されたセンサと、
プロセッサであって、前記プロセッサは、
前記投影システムが前記投影ヘイリングエリアを投影した後に、
前記センサからセンサ入力を受信すること
、
前記センサ入力に基づいて、前記
投影ヘイリングエリア内の人を検出すること
、及び、
前記
投影ヘイリングエリア内の人を検出したことに応じて、自動運転車を前記
投影ヘイリングエリアに接近させる乗車要求信号を生成して確認応答インジケータを出力させるこ
と
を行うための命令を実行するように構成されている、プロセッサと
を備える、システム。
【請求項12】
前記プロセッサと前記センサとが前記自動運転車の外部の固定構造に含まれている、請求項11に記載のシステム。
【請求項13】
前記
投影ヘイリングエリア内の前記人を検出することは、乗車要求が前記
投影ヘイリングエリア内の前記人によって実行されることを判定することを含む、請求項12に記載のシステム。
【請求項14】
前記乗車要求は、前記
投影ヘイリングエリア内の前記人によって実行される身体的ジェスチャと、前記
投影ヘイリングエリア内の前記人によって発音される口頭の発話とのうちの1つを含む、請求項13に記載のシステム。
【請求項15】
前記乗車要求信号を生成することは、前記自動運転車が前記人に乗車を提供することを前記
投影ヘイリングエリア内の前記人が要求したと判定することを含む、請求項11に記載のシステム。
【請求項16】
自動運転車とのインタラクションを容易にするための方法であって、前記方法は、
前記自動運転車に近接する表面上にヘイリングエリアを投影すること
であって、前記ヘイリングエリアは、乗車を要求するために人が入らなければならないエリアを示す、ことと、
前記ヘイリングエリアを投影した後に、
1つまたは複数のセンサを介して、前記ヘイリングエリア内に配置された人を検出すること
、
乗車要求が前記人によって実行されたと判定すること
、及び、
自動運転車が前記ヘイリングエリアに接近して確認応答インジケータを前記人に出力するようにさせる乗車要求信号を生成すること
を行うことと
を含む、方法。
【請求項17】
前記乗車要求信号を生成することは、前記乗車要求信号を前記自動運転車に送信することと、前記乗車要求信号を前記自動運転車の外部にある管理エンティティに送信することとのうちの1つを含む、請求項16に記載の方法。
【請求項18】
前記ヘイリングエリア内の前記人を検出したことに応じて、前記1つまたは複数のセンサを調整して前記ヘイリングエリアに焦点を合わせることをさらに含む、請求項16に記載の方法。
【請求項19】
前記確認応答インジケータを前記人に出力することは、前記ヘイリングエリア内の前記人に見える確認応答インジケータを生成することと、前記ヘイリングエリア内の前記人に聞こえる確認応答インジケータを生成することと、前記ヘイリングエリア内の前記人が感じ取ることができる確認応答インジケータを生成することとのうちの少なくとも1つを含む、請求項16に記載の方法。
【請求項20】
前記ヘイリングエリア内の前記人に見える前記確認応答インジケータを生成することは、前記ヘイリングエリアの視覚的特徴を修正することを含む、請求項19に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の実施形態は、概して自動運転車に関し、より具体的には、自動運転車インタラクションシステムに関する。
【背景技術】
【0002】
周囲を感知し、人の入力をほとんど、またはまったく必要とせずに移動できる自動運転車は、走行をより安全かつ容易にすることを目的として開発されている。例えば、自動走行車のフリートは、近いうちに自動ライドヘイリングサービスとして採用される可能性がある。
【0003】
自動走行車は通常、様々なセンサを使用して、適切なナビゲーション経路、潜在的な障害物、及び関連する標識を識別する。例えば、自動走行車に一般的に組み込まれている技術には、レーダー、ライダー、ソナー、全地球測位システム(GPS)ベースのナビゲーション、走行距離測定、慣性計測などがある。このように装備されていることで、自動運転車は、道路やその他のナビゲーション経路内またはその近くにいる歩行者やその他の人を検出して回避するのに適している。
【0004】
しかしながら、ドライバーがいないので、自動走行車が要求された場所または特に目標となる場所に到着すると、自動走行車と外部の乗客または歩行者とのインタラクションが問題になる可能性がある。例えば、要求している乗り手が、到着した自動走行車と通信するように特別に設計されたデバイスを持っていなければ、自動走行車は、要求している乗り手を近くの他の人と区別することはできない。
【0005】
上記に照らして、自動走行車や他の自動運転車とインタラクトするためのより効果的な技術が有用となろう。
【発明の概要】
【課題を解決するための手段】
【0006】
様々な実施形態は、自動運転車とインタラクトするためのシステムを示している。システムには、自動運転車に含まれ、投影ヘイリングエリアに対応するセンサデータを生成するように構成されたセンサと、自動運転車に含まれ、自動運転車に近接する表面に投影ヘイリングエリアを生成するように構成された投影システムと、自動運転車に含まれ、センサデータを分析して、投影ヘイリングエリア内の人を検出し、投影ヘイリングエリア内の人を検出したことに応じて、確認応答インジケータを出力させるための命令を実行するように構成されたプロセッサと、が含まれている。
【0007】
開示された実施形態の少なくとも1つの利点は、自動運転車にサービスを要求する乗り手が、自動運転車とインタラクトするために自動運転車を待つ場所を、容易に識別できることである。別の利点は、その場所にいるときに、乗り手または他のユーザが、例えばジェスチャまたは口頭の発話によって、簡単に、直感的に、そして特別な通信機器なしで、自動運転車と直接通信できることである。さらなる利点は、自動運転車が乗り手/ユーザを検出したとき、及び/または乗り手/ユーザからの通信を受けたときに、乗り手または他のユーザが、自動運転車からの視覚及び/または聴覚確認応答を受け取ることができることである。
【0008】
1つまたは複数の実施形態の上記に列挙した特徴を詳細に理解できるようにするために、上記で簡潔にまとめた1つまたは複数の実施形態のより具体的な説明を、ある特定の実施形態を参照して行い得、その一部を添付図面に示している。しかしながら、添付図面が典型的な実施形態のみを示しており、したがって、いかなる方法でもその範囲を限定するものと解釈されるべきではなく、その理由は、様々な実施形態の範囲には他の実施形態も包含されるためである、ということに留意されたい。
本発明は、例えば、以下を提供する。
(項目1)
自動運転車とのインタラクションを容易にするためのシステムであって、
前記自動運転車に含まれ、投影ヘイリングエリアに対応するセンサデータを生成するように構成されたセンサと、
前記自動運転車に含まれ、前記自動運転車に近接する表面に前記投影ヘイリングエリアを生成するように構成された投影システムと、
前記自動運転車に含まれ、
前記センサデータを分析して、前記投影ヘイリングエリア内の人を検出し、
前記投影ヘイリングエリア内の前記人を検出したことに応じて、確認応答インジケータを出力させるための命令を実行するように構成されたプロセッサと、
を含む、前記システム。
(項目2)
前記プロセッサは、前記投影システムに、前記自動運転車に近接する表面上に前記投影ヘイリングエリアを生成させるための命令を実行するようにさらに構成されている、項目1に記載のシステム。
(項目3)
前記プロセッサは、前記投影システムに、前記自動運転車が指定された場所の近くに位置していることを検出したことに応じて、前記自動運転車に近接する前記表面上に前記投影ヘイリングエリアを生成させるための命令を実行するようにさらに構成されている、項目2に記載のシステム。
(項目4)
前記プロセッサは、前記投影システムに、前記自動運転車が前記人に対して移動している間に、前記表面の静止部分に前記投影ヘイリングエリアを生成させるための命令を実行するようにさらに構成されている、項目2に記載のシステム。
(項目5)
前記プロセッサは、前記指定された場所で特定の乗り手をピックアップするための命令を受信したことに応じて、前記自動運転車に前記指定された場所まで運転させるための命令を実行するようにさらに構成されている、項目2に記載のシステム。
(項目6)
前記プロセッサは、乗車要求が前記投影ヘイリングエリア内の前記人によって実行されることを判定するための命令を実行するようにさらに構成されている、項目1に記載のシステム。
(項目7)
前記乗車要求は、前記投影ヘイリングエリア内の前記人によって実行される身体的ジェスチャを含む、項目6に記載のシステム。
(項目8)
前記プロセッサは、前記センサからの画像データに基づいて前記乗車要求を判定するための前記命令を実行するように構成されている、項目7に記載のシステム。
(項目9)
前記乗車要求は、前記投影ヘイリングエリア内の前記人による口頭の発話を含む、項目6に記載のシステム。
(項目10)
前記プロセッサは、前記センサに含まれる少なくとも1つのマイクロフォンからの音声データに基づいて前記乗車要求を判定するための前記命令を実行するように構成されている、項目9に記載のシステム。
(項目11)
自動運転車とのインタラクションを容易にするためのシステムであって、
ヘイリングエリアに対応するセンサデータを生成するように構成されたセンサと、
プロセッサであって、
前記センサからセンサ入力を受信し、
前記センサ入力に基づいて、前記ヘイリングエリア内の人を検出し、
前記ヘイリングエリア内の前記人を検出したことに応じて、自動運転車を前記ヘイリングエリアに接近させる乗車要求信号を生成して確認応答インジケータを出力させるための命令を実行するように構成された、前記プロセッサと、
を含む、前記システム。
(項目12)
前記プロセッサと前記センサとが前記自動運転車の外部の固定構造に含まれている、項目11に記載のシステム。
(項目13)
前記ヘイリングエリア内の前記人を検出することは、乗車要求が前記投影ヘイリングエリア内の前記人によって実行されることを判定することを含む、項目12に記載のシステム。
(項目14)
前記乗車要求は、前記投影ヘイリングエリア内の前記人によって実行される身体的ジェスチャと、前記投影ヘイリングエリア内の前記人によって発音される口頭の発話とのうちの1つを含む、項目13に記載のシステム。
(項目15)
前記乗り手要求信号を生成することは、前記自動運転車が前記人に乗車を提供することを前記ヘイリングエリア内の前記人が要求したと判定することを含む、項目11に記載のシステム。
(項目16)
自動運転車とのインタラクションを容易にするための方法であって、
前記自動運転車に近接する表面上にヘイリングエリアを投影することと、
1つまたは複数のセンサを介して、前記ヘイリングエリア内に配置された人を検出することと、
乗車要求が前記人によって実行されたと判定することと、
自動運転車が前記ヘイリングエリアに接近して確認応答インジケータを前記人に出力するようにさせる乗車要求信号を生成することと、
を含む、前記方法。
(項目17)
前記乗車要求信号を生成することは、前記乗車要求信号を前記自動運転車に送信することと、前記乗車要求信号を前記自動運転車の外部にある管理エンティティに送信することと、のうちの1つを含む、項目16に記載の方法。
(項目18)
前記ヘイリングエリア内の前記人を検出したことに応じて、前記センサを調整して前記ヘイリングエリアに焦点を合わせることをさらに含む、項目16に記載の方法。
(項目19)
前記確認応答インジケータを前記人に出力することは、前記ヘイリングエリア内の前記人に見える確認応答インジケータを生成することと、前記ヘイリングエリア内の前記人に聞こえる確認応答インジケータを生成することと、前記ヘイリングエリア内の前記人が感じ取ることができる確認応答インジケータを生成することと、のうちの少なくとも1つを含む、項目16に記載のシステム。
(項目20)
前記ヘイリングエリア内の前記人に見える前記確認応答インジケータを生成することは、前記ヘイリングエリアの視覚的特徴を修正することを含む、項目19に記載のシステム。
【図面の簡単な説明】
【0009】
【
図1】様々な実施形態による、本開示の1つまたは複数の態様を実装するように構成された自動運転車(AV)インタラクションシステムを示す概略図である。
【
図2】本開示の1つまたは複数の実施形態による、
図1のAVインタラクションシステムにおけるAVの概略図である。
【
図3】本開示の一実施形態による、
図1のAVインタラクションシステムにおけるコンピューティングデバイスの概念的なブロック図である。
【
図4】A~Cは、本開示の一実施形態による、AV搭載投影システムによって生成されたヘイリングエリアを概略的に示す。
【
図5】本開示の一実施形態による、1つまたは複数のAVと固定構造との間に分散されているAVインタラクションシステムを概略的に示す。
【
図6】本開示の様々な実施形態による、自動運転車とのインタラクションを容易にするための方法ステップのフローチャートである。
【発明を実施するための形態】
【0010】
明確にするために、該当する場合、図面間で共通の同一の要素を指定するために、同一の参照番号を使用している。ある実施形態の特徴は、さらなる詳述なしに、他の実施形態に組み込まれ得ることが企図される。
【0011】
図1は、様々な実施形態による、本開示の1つまたは複数の態様を実装するように構成された自動運転車(AV)インタラクションシステム100を示す概略図である。AVインタラクションシステム100は、乗り手102がいかなる種類の特殊な通信装置も装備する必要なしに、自動運転車101と乗り手102または乗車見込み客との間のインタラクションを可能にする。そのようなインタラクションは、限定するものではないが、AV101が乗り手102を検出すること、乗り手102を乗り手102の近くにいる他の人から区別すること、乗り手102によって乗車要求が実行されていると判定すること、乗り手102から乗車要求情報を受信すること、及び/または、乗り手102に聞こえる、及び/または見える確認応答インジケータを生成すること、を含むことができる。AVインタラクションシステム100によって可能にされるさらなるインタラクションには、限定するものではないが、乗り手102が身体的ジェスチャ及び/または口頭の発話を介して乗車要求を生成することと、乗り手102がAV101から確認応答インジケータを受信することとが含まれる。確認応答インジケータは、AV101が、乗車要求は乗り手102によって生成されたと判定したときに、及び/またはAV101が乗り手102を検出したときに、AV101によって生成することができる。
【0012】
動作中、AVインタラクションシステム100は、ヘイリングエリア150を適切な表面に投影させ、乗り手102がヘイリングエリア150の境界内に存在する場合、乗り手検出システムに、乗り手102がいつ乗車要求を生成するかを判定させる。様々な実施形態によれば、ヘイリングエリア150は、乗り手からAVへの、及び/またはAVから乗り手へのインタラクションのために明示的に指定された領域である。したがって、人がヘイリングエリア150によって示される一時的な「ホットスポット」に足を踏み入れると、適切に構成されたAVは、その人を検出し、例えば、音声コマンドを聞くために、及び/または手や腕のジェスチャを見守るために、光学または音声センサの焦点をその人に合わせることができる。AVインタラクションシステム100は、限定するものではないが、コンピューティングデバイス120、1つまたは複数のセンサ130、及びいくつかの実施形態では、視覚投影システム140を含む。
【0013】
AV101は、自動運転車または自動走行車、トラック、船舶、垂直離着陸(VTOL)タクシー、ドローンなど、任意のコンピュータ操作車両とすることができる。
図1に示される実施形態では、AV101は、AV制御システム103を含む、自動運転タクシーなどの自動走行車である。AV101は、車道上及び車道に隣接する周囲の環境を感知し、環境を通る適切なナビゲーション経路を決定し、人の入力をほとんどまたはまったく必要とせずに移動することができる。本明細書で使用される場合、ナビゲーション経路は、任意の道路、車道、私道、駐車場の自動車通路、またはAV101による移動に適した他の経路を含むことができるが、これらに限定されない。AV101の一実施形態は、
図2と併せて以下に説明される。
【0014】
図2は、本開示の1つまたは複数の実施形態による、AV101の概略図である。AV101は、限定するものではないが、AVセンサ230、AV制御システム103、及びコンピューティングデバイス120を含む。いくつかの実施形態では、AV101は、視覚投影システム140、及び/または確認応答出力システム210をさらに含む。
【0015】
確認応答出力システム210は、特定の乗り手102に情報を提供して、ヘイリングエリア150内の乗り手102の検出及び/または乗り手102からの乗車要求の受信など、1つまたは複数の特定の条件を確認するように構成されている。確認応答出力システム210は、そのような確認応答を生成するための1つまたは複数の出力デバイスを含むことができるが、これに限定されない。例えば、確認応答出力システム210は、乗り手102へのテキストベース及び/またはアイコンベースのメッセージを表示するためのビデオ画面または他の表示デバイスや、例えば、「使用中」、「利用可能」、「ルート上」、「今停止中」など、AV101の特定の状態を示すための色分けされた照明システムなどを含むことができる。代替的または追加的に、確認応答出力システム210は、乗り手102への聴覚確認応答を生成する指向性スピーカーなどの音声出力デバイスを含むことができる。例えば、AV制御システム103がヘイリングエリア150で乗り手102を検出したとき、特定の音または聞こえる単語(複数可)を乗り手102に向けることができ、AV制御システム103が乗り手102から乗車要求を受け取ったとき、異なる音または聞こえる単語(複数可)を乗り手102に向けることができる。代替的または追加的に、確認応答出力システム210は、乗り手102に触覚確認応答を生成する超音波トランスデューサなどの触覚出力デバイスを含むことができる。例えば、超音波トランスデューサは、触覚振動または圧力として復調される超音波信号を乗り手102の表面に向けることができる。したがって、一実施形態では、超音波トランスデューサは、身体の触覚タップなどの確認応答インジケータとして、乗り手102に特定の触覚によって引き起こされた圧力または感覚を経験させることができる。あるいは、いくつかの実施形態では、触覚出力デバイスは、乗り手102に触覚タップを体験させるように構成されたエアパフジェネレータを含むことができる。
【0016】
AVセンサ230は、AV101が現在占有している道路またはナビゲーション経路、及び/またはそのような道路またはナビゲーション経路に隣接するエリアを含むがこれらに限定されない、AV101を取り巻く環境に関連する様々な特性を測定するように構成された、異なるセンサのアレイを含むことができるが、これらに限定されない。AVセンサ230には、光学センサ(可視光または赤外線)、音響センサ(超音波センサ、アクティブソナーなど)、レーダーセンサ、ライダーセンサ、深度センサ、立体画像センサ、地形マッピングセンサ、テレマティックセンサ、受信機、衛星ベースのナビゲーションシステムなどが含まれ得るが、これらに限定されない。AVセンサ230は、AV101を取り巻く360°パノラマからセンサデータを受信し、処理のためにセンサデータをAV制御システム103に送信するように構成される。
【0017】
AV制御システム103は、AV101の全体的な操作及びナビゲーションを管理するように構成されたコンピュータベースのシステムである。AV制御システム103は、コンピュータシステムの任意の技術的に可能なタイプを含むことができるが、いくつかの実施形態では、AV制御システム103は、
図3に関連して以下でより詳細に説明されているコンピューティングデバイス120と同様のコンピューティングデバイスを含むことができる。動作時に、AV制御システム103は、AVセンサ230からセンサデータを受信し、そのデータを処理してAV101の現在の運転アクションとナビゲーション経路を識別するように構成されている。本開示の文脈において、「運転アクション」は、方向転換、合流、往来中の運転、速度及び車線位置の維持、他の車両とのキャラバン、指定された場所へのナビゲート及び/または車両の操作に関連するその他のアクションを含み得る。AV制御システム103はまた、AVセンサ230からのセンサデータを処理して、現在進行中の運転アクションに関連する潜在的に危険な運転状態を識別するように構成することができる。通常、このような運転条件には、道路上であろうと道路に近い歩道であろうと、車両、自転車、スクーター、セグウェイ、または歩行者などの他の道路利用者の存在、位置、及び速度が含まれる。あるいは、いくつかの実施形態では、歩行者、車両、及び他の潜在的に危険な運転状態の存在の検出は、AVセンサ230によって実行され得る。あるいは、いくつかの実施形態では、そのような機能は、AVセンサ230及びAV制御システム103によって共有されるか、またはそれらの間で分割され得る。
【0018】
図1に戻ると、センサ130は、AV101と乗り手102の間のインタラクションを可能にし、限定するものではないが、ヘイリングエリア150及び/またはヘイリングエリア150内に配置された1人または複数の人に関連付けられた画像、ビデオ、及び/または音声データを生成することができる1つまたは複数のカメラまたはマイクロフォンを含む。代替的または追加的に、いくつかの実施形態では、センサ130は、ヘイリングエリア150に向けられた近接センサを含む。いくつかの実施形態では、センサ130は、指向性センサ及び/または可動カメラや指向性マイクロフォンなどの向きが変化するセンサを含む。そのような実施形態では、AV101が1人または複数の潜在的な乗り手102を含むエリアに近づくにつれて、センサ130の向きを変更することができ、その結果、センサ130によって生成された画像、ビデオ、及び/または音声データは、ヘイリングエリア150内の1人または複数の人に対するものであり、ヘイリングエリア150外の1人または複数の人の画像、ビデオ、及び/または音声データはわずかであるかまたは含まれない。
【0019】
AVインタラクションシステム100の少なくとも一部分がAV101に組み込まれている実施形態では、センサ130はまた、AV101に含まれ、例えば、AV101に組み込まれる、AV101の外面に結合される、などである。さらに、そのような実施形態では、センサ130は、AVセンサ230を含み得るか、またはそれに結合され得る。したがって、そのような実施形態では、センサ130によって生成された画像、ビデオ、及び/または音声データは、AVセンサ230によってすでに生成されたデータを含むことができる。
【0020】
AVインタラクションシステム100の一部分がAV101の外部にある実施形態では、センサ130のいくつかは、AV101の外部にある固定構造(
図1には示されていない)に含めることができる。例えば、固定構造は、ヘイリングエリア150を含む、自動運転車の乗り手のための指定されたピックアップエリアであり得る。そのような実施形態では、センサ103に含まれるビデオカメラ及び/またはマイクロフォンを固定構造に含めることができ、それにより、必ずしもヘイリングエリア150の近くにあるとは限らない1つまたは複数のAV101に通信される乗り手102からの乗車要求を可能にする。
【0021】
視覚投影システム140は、AV101に近接する歩道の一部分などの適切な表面に光を向け、したがって、ヘイリングエリア150を生成するように構成された、光学投影システムである。例えば、いくつかの実施形態では、視覚投影システム140は、1つまたは複数の画像、幾何学的パターンまたは形状、及び/または、一連のライン及び/またはカーブを、歩道の一部分に投影してヘイリングエリア150を生成するように構成されている。そのような実施形態では、ヘイリングエリア150は、光の投射によって生成される。その結果、ヘイリングエリア150を形成する幾何学パターン及び/または形状は、AV101に対して位置を変更でき、及び/または外観が変更され得る。例えば、そのような実施形態では、ヘイリングエリア150の一部またはすべての部分は、特定の状況で乗り手102に見える確認応答インジケータの一部として、点滅し、色を変化させ、またはアニメーション部分を含むことができる。いくつかの実施形態では、AV制御システム103は、例えば、乗り手102からの乗車の受け入れを求めるために、ヘイリングエリア150を積極的に生成させる。そのような実施形態では、そのような積極的な乗り手の獲得は、見込まれる乗り手150の周りのヘイリングエリア150の生成、及び提案された乗車の受け入れまたは拒否を示す特定の口頭の発話または身体的ジェスチャを検出する試みを含むことができる。
【0022】
視覚投影システム140は、レーザー投影システム、液晶ディスプレイ(LCD)プロジェクタ、3次元(3D)対応プロジェクタ、ビデオプロジェクタ、または歩道の一部分などの表面に画像を投影することができる他の技術的に実現可能なシステムを含むがこれらに限定されない。いくつかの実施形態では、視覚投影システム140は、投影マッピングを使用してそのような表面に画像を投影するように構成され、画像を投影するエリアを感知するための1つまたは複数の深度センサを含む。さらに、そのような実施形態では、視覚投影システム140は、投影面の検出された不規則性を補償する画像を投影するように構成されている。したがって、そのような実施形態では、補正された画像は、投影面の不規則な形状(湾曲、傾斜など)を、及び/または投影面上の障害物やその他の物体(ベンチ、ゴミ箱、岩など)の存在を補償する、視覚投影システム140によって投影面に投影される。このようにして、例えば水平方向の正方形の投影が修正され、その結果、乗り手102は、表面の不規則な形状または障害物の存在にもかかわらず、投影される元の画像に近似する補正された画像を提示される。
【0023】
コンピューティングデバイス120は、本明細書で説明されるように、AVインタラクションシステム100、インタラクションセンサ130、及び視覚投影システム140の動作のための命令を実行するように構成された任意の計算プラットフォームであり得る。コンピューティングデバイス120の一実施形態は、
図3と併せて以下に説明される。
【0024】
図3は、本開示の一実施形態に係る、コンピューティングデバイス120の概念的ブロック図である。コンピューティングデバイス120は、本明細書に記載の本開示の少なくとも1つの態様を実装するように構成されている。コンピューティングデバイス120は、乗り手インタラクションアプリケーション321、センサモジュール322、投影システムモジュール323、ジェスチャ認識モジュール324及び/または音声認識モジュール325に関連する命令を含むがこれらに限定されない、アプリケーションプログラムを実行することができる任意のタイプのデバイスであり得る。例えば、限定はしないが、コンピューティングデバイス120は、電子タブレット、スマートフォン、ラップトップコンピュータなどであり得る。あるいは、コンピューティングデバイス120は、マイクロプロセッサなどのスタンドアロンチップとして、または特定用途向け集積回路(ASIC)、システムオンチップ(SoC)などとして実装されるより包括的なソリューションの一部として実装され得る。概して、コンピューティングデバイス120は、AVインタラクションシステム100の動作全体を連動させるように構成される。示されるように、コンピューティングデバイス120は、限定するものではないが、処理ユニット310、入出力(I/O)デバイス320、及びメモリデバイス330を含む。
【0025】
処理ユニット310は、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、ASIC、フィールドプログラマブルゲートアレイ(FPGA)、任意の他のタイプの処理ユニット、または異なる処理ユニットの組み合わせとして実装され得る。一般に、処理ユニット310は、本明細書に記載の
図1のAVインタラクションシステム100の動作を容易にするためにデータを処理及び/またはソフトウェアアプリケーションを実行することが可能な任意の技術的に実現可能なハードウェアユニットであり得る。処理ユニット310は、コンピューティングデバイス120に物理的に埋め込まれてもよく、クラウドベースのコンピューティング環境の一部であってもよく、及び/またはモバイルコンピューティングデバイスもしくはウェアラブルコンピューティングデバイスなど、AVインタラクションシステム100の外部のコンピューティングデバイスの一部であってもよい。いくつかの実施形態では、処理ユニット310は、AV101に含まれる車載インフォテインメントシステムの要素であるか、またはAV制御システム103の要素である。とりわけ、限定するものではないが、処理ユニット310は、乗り手インタラクションアプリケーション321、センサモジュール322、投影システムモジュール323、ジェスチャ認識モジュール324及び/または音声認識モジュール325に関連する命令を実行するように構成され得る。
【0026】
乗り手インタラクションアプリケーション321は、AVインタラクションシステム100の動作を管理するように構成される。いくつかの実施形態では、乗り手インタラクションアプリケーション321はセンサ130から画像及び/または音声データを受信し、そのようなデータを解釈し、乗り手102が乗車要求を実行したかどうかを判定する。例えば、そのような実施形態では、乗り手インタラクションアプリケーション321は、センサ130から画像データを受信し、ジェスチャ認識モジュール324を介して、乗り手102がAV101からの乗車の要求を示すジェスチャを実行したかどうかを判定することができる。代替的または追加的に、そのような実施形態では、乗り手インタラクションアプリケーション321は、センサ130から音声データを受信し、音声認識モジュール325を介して、乗り手102がAV101からの乗車の要求を示す口頭発話を発音したかどうかを判定することができる。そのような実施形態では、センサ130に含まれる1つまたは複数の指向性マイクロフォンは、ヘイリングエリア150の外の人によって発音される口頭の発話を実質的に低減し、及び/または排除する、選択的音声データを提供することができる。
【0027】
さらに、いくつかの実施形態では、乗り手インタラクションアプリケーション321は、センサ130から画像データを受信し、そのようなデータを解釈し、乗り手102がヘイリングエリア150内に位置するかどうかを判定する。したがって、そのような実施形態では、乗り手インタラクションアプリケーション321は、乗り手102がヘイリングエリア150内に配置されていることに基づいて、乗り手102を乗り手102の近くにいる他の人から区別する。代替的または追加的に、いくつかの実施形態では、乗り手インタラクションアプリケーション321は、乗り手102に聞こえる、及び/または見える確認応答インジケータを生成する。そのような実施形態では、確認応答インジケータは、確認応答出力システム210によって生成された視覚、聴覚、及び/または触覚確認応答であり得る。代替的または追加的に、ヘイリングエリア150が視覚投影システム140によって生成された投影ヘイリングエリアである実施形態では、確認応答インジケータは、ヘイリングエリア150の色の変化、特定の部分の点滅またはアニメーションなど、ヘイリングエリア150の外観の変化を含むことができる。触覚確認応答の場合、確認応答出力システム210に含まれる超音波トランスデューサは、乗り手102に触覚タップまたは他の触覚確認応答を体験させる。
【0028】
いくつかの実施形態では、乗り手インタラクションアプリケーション321は、コンピューティングデバイス120、AV制御システム103、及び/またはAV101及びAVインタラクションシステム100の外部にあるライドヘイリング管理エンティティの間の通信を容易にするように構成されたアプリケーションプログラミングインタフェース(API)を含む。例えば、APIは、乗り手インタラクションアプリケーション321によって受信された乗車要求情報が、ヘイリングエリア150の近くにある他のAVにさらに配信するために、ライドヘイリング管理エンティティに通信されることを可能にすることができる。
【0029】
センサモジュール322は、画像及び/または音声データの受信を含む、センサ130の動作を制御するように構成される。センサ130が可動カメラまたは指向性マイクロフォンなどの1つまたは複数の指向性センサを含む実施形態では、センサモジュール322はまた、そのような指向性センサの現在の向きを制御するように構成され得る。投影システムモジュール323は、視覚投影システム140の動作を制御するように構成されており、これには、ヘイリングエリア150に適した表面への配向が含まれる。ジェスチャ認識モジュール324は、センサ130から画像データを受信し、そのような画像データに基づいて、乗り手102が、乗車要求に対応する身体的な手、腕、頭、または他のジェスチャを実行したかどうかを判定するように構成される。認識可能なジェスチャの例には、乗り手102が乗車を望んでいることを示すヘイリングジェスチャ、及び乗り手102が乗車を望まないことを示すウェーブオフジェスチャが含まれるが、これらに限定されない。ウェーブオフジェスチャは、例えば、AV制御システム103がヘイリングエリア150を積極的に生成させるときなど、AV制御システム103が乗り手102を暗黙的または明示的に要請した状況で認識され得る。ウェーブオフジェスチャは、乗車を望まないにもかかわらず、不用意にヘイリングエリア150に立っている人の状況でも認識され得る。ジェスチャ認識モジュール324は、そのようなジェスチャが検出されたときに乗り手インタラクションアプリケーション321に通知するようにさらに構成される。音声認識モジュール325は、センサ130から音声データを受信し、そのような画像音声データに基づいて、乗り手102が「ダウンタウンへの乗車を希望します」または「乗車が必要です」などの乗車要求に対応する口頭発話を発声したかどうかを判定するように構成される。音声認識モジュール325は、そのような口頭の発話が検出されたときに乗り手インタラクションアプリケーション321に通知するようにさらに構成され、いくつかの実施形態では、目的地情報などの追加情報が乗車要求に含まれる。
【0030】
メモリ330は、ランダムアクセスメモリ(RAM)モジュール、フラッシュメモリユニット、または任意の他の種類のメモリユニット、あるいはこれらの組み合わせを含むことができ、そして単一のメモリモジュールまたはメモリモジュールの集合を含むことができる。示されるように、いくつかの実施形態では、乗り手インタラクションアプリケーション321、センサモジュール322、投影システムモジュール323、ジェスチャ認識モジュール324、及び/または音声認識モジュール325のいくつかまたは全ては、動作中にメモリ330に常駐することができる。
【0031】
I/Oデバイス320は、キーボード、マウス、タッチ感知画面、マイクロフォンなど、入力を受け取ることが可能なデバイス、ならびに、表示画面、ラウドスピーカー(ヘッドフォンベースのシステムに関連したラウドスピーカーを含む)など、出力を提供することが可能な少なくとも1つのデバイスを含む。表示画面は、AVインタラクションシステム100に組み込まれてもよく、コンピュータモニタ、ビデオ表示画面、別個のハンドヘルドデバイスに組み込まれた表示装置、または他の任意の技術的に実現可能な表示画面などの、AVインタラクションシステム100の外部のものでもよい。いくつかの実施形態では、I/Oデバイス320は、センサ130のうち1つまたは複数、及び/またはAVセンサ230のうち1つまたは複数を含む。
【0032】
図3に示される実施形態では、コンピューティングデバイス120は、単一の統合されたデバイスとして示されている。他の実施形態では、本明細書に記載のコンピューティングデバイス120の機能の一部またはすべては、センサ130に統合されたコンピューティングデバイス、AV制御システム103に統合されたコンピューティングデバイス、及び/または視覚投影システム140に統合されたコンピューティングデバイスなどの、複数のコンピューティングデバイスとして実装することができる。
【0033】
いくつかの実施形態では、ヘイリングエリア150は、AV101が動いている間、投影面上の固定位置に投影される。そのような実施形態では、ヘイリングエリア150は、AV101がそれに対して移動する間、静止したままであり得る。そのような実施形態の1つを
図4A~4Cに示す。
【0034】
図4A~4Cは、本開示の一実施形態による、AV搭載投影システムによって生成されたヘイリングエリア450を概略的に示す。例えば、いくつかの実施形態では、ヘイリングエリア450は、屋根に取り付けられた投影システムによって、及び/または適切に構成されたヘッドライトに組み込まれた投影システムによって、適切な表面に投影することができる。そのような各投影システム140の実施例を
図2に示す。示されているように、ヘイリングエリア450がAV搭載投影システムによって投影されると、AV101が動いている間でも、ヘイリングエリア450は静止したままであるようにヘイリングエリア450を生成できる。すなわち、AV101が道路402または他のナビゲーション経路に沿って、道路402に隣接して配置された特定の位置401を通過するとき、ヘイリングエリア450は、位置401がヘイリングエリア450内に配置されるように、AV101から投影される。そのような実施形態では、視覚投影システム140の投影マッピング機能は、静止したヘイリングエリア450の投影を可能にする。
【0035】
例えば、AV101が複数の潜在的な乗り手が立っているエリアをゆっくりと通り過ぎるとき、ヘイリングエリア450は、潜在的な乗り手に対して実質的に静止したままであるように投影され、したがって、AV101に対して動いている。ヘイリングエリア450は位置401に対して静止しているため、位置401の近くにいる潜在的な乗り手は誰でもすぐにヘイリングエリア450を見ることができる。さらに、潜在的な乗り手がAV101を呼びたいとき、潜在的な乗り手は、AV101が通り過ぎる間、ヘイリングエリア450が静止しているので、ヘイリングエリア450に容易に足を踏み入れることができる。通常、AV101は、位置401の近くにあるとき、比較的低速で移動しており、その結果、潜在的な乗り手には、AV101が乗り手ピックアップのために別の場所に移動する前に、ヘイリングエリア450に足を踏み入れる十分な時間がある。
【0036】
いくつかの実施形態では、位置401は、1つまたは複数の要因に基づいて、AVインタラクションシステム100によって選択される。例えば、いくつかの実施形態では、AVインタラクションシステム100は、位置401に近接した1人または複数の潜在的な乗り手102を検出したことに応じて、位置401を選択する。したがって、そのような一実施形態では、AVインタラクションシステム100は、道路402に近接する歩行者の検出に応じて位置401を選択し、乗り手102を積極的に獲得しようとする。別のそのような実施形態では、位置401は、バス停または空港タクシーゾーンなどの特定の場所または場所のカテゴリであり、AVインタラクションシステム100は、そのような特定の場所に存在する乗り手102に応じて位置401を選択する。代替的または追加的に、いくつかの実施形態では、AVインタラクションシステム100は、位置401が一時的な駐車、停止、及び/または荷物の積み下ろしが許可されている道路402の一部に対応するということを検出したのに応じて、位置401を選択する。代替的にまたは追加的に、いくつかの実施形態では、AVインタラクションシステム100は、AV101が、例えば、AV101とAVインタラクションシステム100の外部にあるライドヘイリング管理エンティティから位置401に進むことを指定する命令を受信することに応じて、位置401を選択する。代替的または追加的に、いくつかの実施形態では、AVインタラクションシステム100は、特定の乗り手から位置401またはその近くで会うための要求を受信したことに応じて、位置401を選択する。
【0037】
いくつかの実施形態では、AVインタラクションシステムの一部は、AV101の外部にある固定構造に組み込まれている。例えば、いくつかの実施形態では、
図1の1つまたは複数のセンサ130、及び/または
図1の投影システム140は、AVライドヘイリング位置などの固定構造に組み込まれている。このような一実施形態は、
図5と併せて以下に説明される。
【0038】
図5は、本開示の一実施形態による、1つまたは複数のAV501と固定構造510との間に分散されているAVインタラクションシステム500を概略的に示す。AV501は、AVインタラクションシステム100の1つまたは複数のコンポーネントがAV501に含まれず、代わりに固定構造510に組み込まれることを除いて、
図1のAV101と実質的に類似している。
図5に示される実施形態では、AV501は、センサ530、確認応答出力システム210、AV制御システム103、及びコンピューティングデバイス120を含む。固定構造510は、センサ531と、視覚投影システム540と、通信モジュール525を含むか、または通信モジュール525に通信可能に結合されたコンピューティングデバイス520とを含む。固定構造510は、空港または鉄道駅の歩道側の近くなど、任意の適切な道路またはナビゲーション経路の近くに配置することができる。
【0039】
AV501のセンサ530は、乗り手502によるジェスチャの検出など、AV501とヘイリングエリア550内に位置する乗り手502との間のインタラクションを可能にするように構成される。このように、センサ530は、ナビゲーション及び操作のためにAV501によって用いられるセンサの一部または全部、ならびに
図1のセンサ130に関して上述したセンサの一部またはすべてを含むことができる。例えば、一実施形態では、AV501は、画像データを生成するためのナビゲーションのためにAV501と共に使用するようにすでに構成された光学センサを採用し、さらに、乗り手502からの聴覚入力を音声データとして受信するための1つまたは複数のマイクロフォンを含む。
【0040】
センサ530とは対照的に、センサ531は、乗り手502と、固定構造510に含まれるAVインタラクションシステム500の部分との間のインタラクションを可能にするように構成される。センサ531は、ヘイリングエリア550、及び/またはヘイリングエリア550内に配置された1人または複数の人、すなわち乗り手502に関連付けられた画像、ビデオ、及び/または音声データを生成することができる、1つまたは複数のカメラまたはマイクロフォンを含むことができる。したがって、センサ531は、ヘイリングエリア550の境界内に足を踏み入れ、指定された身体的ジェスチャ(例えば、手または腕の合図)を実行するか、または指定された口頭の発話(例えば、「乗車が必要です」)を発音することによって、人がAVインタラクションシステム500と対話することを可能にする。このようにして、乗り手502は、固定構造510の視線内にあるか、または固定構造510の近くに位置するAVがない場合でも、AV501から、及び/またはAVのフリートから乗車を要求できる。
【0041】
コンピューティングデバイス520は、AVインタラクションシステム500の特定の機能を実行するように構成される。そのような機能には、限定するものではないが、ヘイリングエリア550内の人の検出、ヘイリングエリア550内の人によって乗車要求が実行されたという判定、自動運転車をヘイリングエリア550に接近させる乗車要求信号の生成、及び/または、ヘイリングエリア550内の人に対する、聴覚及び/または視覚確認応答インジケータなどのインジケータ出力の指示が含まれ得る。いくつかの実施形態では、コンピューティングデバイス520は、センサ531によって生成された画像データからジェスチャを検出することに基づいて、及び/またはセンサ531によって生成された音声データから特定の口頭の発話を検出することに基づいて、人が乗車要求を実行したことを判定するように構成される。ヘイリングエリア550内の人のための聴覚及び/または視覚確認応答インジケータは、ヘイリングエリア550の外観の変化、または乗り手502に対する特定の音または聞こえる単語の方向の変化を含むことができるが、これらに限定されない。例えば、ヘイリングエリア550の一部またはすべての部分は、点滅するか、色を変えるか、または乗り手502に見える確認応答インジケータの一部としてアニメーション化された部分を含めることができる。
【0042】
通信モジュール525は、技術的に実現可能な任意の無線通信システムを介して、コンピューティングデバイス520とコンピューティングデバイス120との間の通信を可能にするように構成される。例えば、いくつかの実施形態では、通信モジュール525は、電波を介したコンピューティングデバイス520とコンピューティングデバイス120との間の直接通信を可能にするように構成される。代替的または追加的に、いくつかの実施形態では、通信モジュール525は、セルラー通信を介してコンピューティングデバイス520とコンピューティングデバイス120との間の無線通信を可能にするように構成される。代替的または追加的に、いくつかの実施形態では、通信モジュール525は、AVインタラクションシステム500の外部にあるライドヘイリング管理エンティティ560を介して、コンピューティングデバイス520とコンピューティングデバイス120との間の通信を可能にするように構成される。
【0043】
図5に示される実施形態において、コンピューティングデバイス120はまた、AVインタラクションシステム500の特定の機能を実行するように構成されているが、全般に
図1に関連して上述したすべての機能ではない。例えば
図5に示されている実施形態では、コンピューティングデバイス120は、投影システムにヘイリングエリア550を生成させるように構成されていない。追加的または代替的に、コンピューティングデバイス120は、ヘイリングエリア550をピックアップ場所として示す乗車要求信号を受信するように構成することができる。そのような実施形態では、乗車要求信号は、無線通信を介して通信モジュール525から直接、またはAVの1つまたは複数のフリートに関連付けられた通信システムなどのライドヘイリング管理エンティティ560から受信することができる。さらに、いくつかの実施形態では、コンピューティングデバイス120は、例えばジェスチャ検出及び/または顔認識を介して、ヘイリングエリア550に接近するときに乗り手502を検出するように構成される。そのような実施形態では、コンピューティングデバイス120は、確認応答として出力システム210を介して特定の乗り手502に情報を提供し、及び/または特定の乗り手502にAV501がその特定の乗り手502のために指定されていることを通知するように構成することができる。
【0044】
いくつかの実施形態では、例えば、乗り手が固定構造510の特定の距離内にあるとき、ヘイリングエリア550が一時的に投影される。あるいは、ヘイリングエリア550は、ヘイリングエリア550の境界を示すマーキング、適切な標識、及び/または投影システム540からの継続的投影などの恒久的なインジケータを介して示される。いくつかの実施形態では、コンピューティングデバイス520は、乗り手502がヘイリングエリア550内で最初に検出されたときに第1の確認応答インジケータを生成し、乗り手502による乗車要求が検出されたときに第2の確認応答インジケータを生成するようにさらに構成される。そのような実施形態では、第1及び第2の確認応答インジケータは、
図1と併せて上記で説明したような聴覚及び/または視覚インジケータであり得る。
【0045】
図6は、本開示の様々な実施形態による、自動運転車とのインタラクションを容易にするための方法ステップのフローチャートである。方法ステップは
図1~
図5のシステムに関して説明しているが、方法ステップを任意の順序で実行するように構成されるあらゆるシステムが、様々な実施形態の範囲内にあることを当業者は理解するであろう。
【0046】
示されるように、方法600は、ステップ601で始まり、そこでは、AVインタラクションシステム、例えば、AVインタラクションシステム100またはAVインタラクションシステム500が、ヘイリングエリアを生成する。AV101が視覚投影システム140を含む実施形態では、視覚投影システム140は、光を適切な表面、例えば、AV101に近接する歩道の一部分に向けて、ヘイリングエリア150を生成する。そのような実施形態では、AVインタラクションシステムは、AV101が指定された場所に到着したときなど、特定の状況下でヘイリングエリア150を生成することができる。AVインタラクションシステムが視覚投影システム540を備えた固定構造510を含む実施形態では、AVインタラクションシステムは、連続的に、または人が固定構造510の近くにいることが検出されたときに、ヘイリングエリア550を生成し得る。
【0047】
ステップ602において、AVインタラクションシステムは、ヘイリングエリア内の人を検出する。いくつかの実施形態では、AV101に含まれるコンピューティングデバイス120は、AV101から投影されるヘイリングエリア150内の乗り手102を検出する。そのような実施形態では、コンピューティングデバイス120は、センサ130からの画像及び/または他のセンサデータに基づいてそのような判定を行う。他の実施形態では、コンピューティングデバイス520は、固定構造510の近くに配置されているヘイリングエリア550内の乗り手502を検出する。そのような実施形態では、コンピューティングデバイス520は、センサ530からの画像及び/または他のセンサデータに基づいてそのような判定を行う。
【0048】
ステップ603において、AVインタラクションシステムは、ヘイリングエリア150の乗り手102またはヘイリングエリア550の乗り手502に見える、及び/または聞こえる確認応答インジケータなどの第1の確認応答インジケータを生成する。AVインタラクションシステムは、ヘイリングエリア内の人を検出したことに応じて、第1の確認応答インジケータを生成する。したがって、人は、AVインタラクションシステムが、人が乗車要求を実行したかどうかを判定するために、ヘイリングエリアを監視していることを認識する。
【0049】
ステップ604において、AVインタラクションシステムは、乗車要求がヘイリングエリア内の人によって実行されたと判定する。ヘイリングエリア外のすべての人は、AVインタラクションシステムによって無視される。したがって、ヘイリングエリア内の人だけのジェスチャ及び/または口頭の発話が分析されるので、乗車要求が実行されたと判定することは、計算上、大幅に簡素化される。AVインタラクションシステムがAV101に組み込まれている実施形態では、コンピューティングデバイス120は、センサ130からの画像及び/またはセンサ音声データに基づいて乗車要求が実行されたことを判定する。あるいは、AVインタラクションシステム500が1つまたは複数のAV501と固定構造510との間に分散されている実施形態では、コンピューティングデバイス520は、センサ530からの画像及び/または音声データに基づいて乗車要求が実行されたことを判定する。
【0050】
いくつかの実施形態では、AVインタラクションシステムは、特定のモデルまたはスタイルのAVに対する乗り手要求、最短時間で到着できるAV、最も低い料金で乗車を提供できるAV、AVの特定のフリートに属するAVなどの、追加の乗車要求情報を受信する。例えば、いくつかの実施形態では、AVインタラクションシステムは、聞こえるコマンドを介して乗り手から、乗り手に関連付けられたモバイルコンピューティングデバイスから、乗り手に関連付けられたマトリックスバーコードまたはその他の機械可読光学ラベルからなど、追加の乗車要求を受信する。
【0051】
ステップ605において、AVインタラクションシステムは、乗車要求がステップ604で実行されたとの判定に応じて、乗車要求信号を生成する。AVインタラクションシステムがAV101に組み込まれている実施形態では、コンピューティングデバイス120は、乗車要求信号を生成してAV制御システム103に送信し、AV101はそれに従って応答する。例えば、AV101は乗り手102に安全に接近する。あるいは、AVインタラクションシステム500が1つまたは複数のAV501と固定構造510との間に分散される実施形態では、コンピューティングデバイス520は、直接またはライドヘイリング管理エンティティ560を介して、乗車要求を1つまたは複数のAV501に送信する。いずれの場合も、少なくとも1つのAV501がそれに従って応答し、固定構造510にナビゲートする。
【0052】
ステップ606において、AVインタラクションシステムは、出力をヘイリングエリア内の人に向ける。したがって、潜在的な乗り手は、乗車要求がAVインタラクションシステムによって受信されたことを容易に判断することができる。例えば、AVインタラクションシステムは、ヘイリングエリアの人からの乗車要求が受信されたことの視覚または聴覚確認応答などの第2の確認応答インジケータを生成させる。AVインタラクションシステムがAV101に組み込まれている実施形態では、コンピューティングデバイス120は、第2の確認応答インジケータを確認応答出力システム210によって生成させる。あるいは、AVインタラクションシステム500が1つまたは複数のAV501と固定構造510との間に分散されている実施形態では、コンピューティングデバイス520は、視覚投影システム540、固定構造510に関連付けられたラウドスピーカーなどによって第2の確認応答インジケータを生成させる。
【0053】
要約すると、様々な実施形態は、自動運転車とインタラクトするためのシステム及び技術を記載している。実施形態では、特定のヘイリングエリアは、適切なセンサによって人の存在について監視され、ヘイリングエリア内で人が検出されるとき、センサは、乗車要求を実行している人の検出を可能にする。さらに、人がヘイリングエリア内で最初に検出されたときに、及び/または乗車要求が検出されたときに、視覚及び/または聴覚確認応答はヘイリングエリア内の人に向けられる。ヘイリングエリアは、事前に指定されたエリアにすることも、自動運転車に含まれる投影システムによって生成することもできる。
【0054】
開示された実施形態の少なくとも1つの技術的改善は、自動運転車にサービスを要求する乗り手が、自動運転車とインタラクトするためにどの場所で自動運転車を待つかを、容易に識別できることである。別の利点は、その場所にいるときに、サービスを要求している乗り手が、例えばジェスチャまたは口頭の発話によって、簡単に、直感的に、そして特別な通信機器なしで、自動運転車と直接通信できることである。さらなる利点は、自動運転車が乗り手を検出したとき、及び/または乗り手からの通信を受けたときに、乗り手が、自動運転車から視覚及び/または聴覚確認応答を受け取ることができることである。
【0055】
1.いくつかの実施形態では、自動運転車とインタラクトするためのシステムは、前記自動運転車に含まれ、投影ヘイリングエリアに対応するセンサデータを生成するように構成されたセンサと、前記自動運転車に含まれ、前記自動運転車に近接する表面に前記投影ヘイリングエリアを生成するように構成された投影システムと、前記自動運転車に含まれ、前記センサデータを分析して、前記投影ヘイリングエリア内の人を検出し、前記投影ヘイリングエリア内の前記人を検出したことに応じて、確認応答インジケータを出力させるための命令を実行するように構成されたプロセッサと、を含む。
【0056】
2.前記プロセッサは、前記投影システムに、前記自動運転車に近接する表面上に前記投影ヘイリングエリアを生成させるための命令を実行するようにさらに構成されている、条項1に記載のシステム。
【0057】
3.前記プロセッサは、前記投影システムに、前記自動運転車が指定された場所の近くに位置していることを検出したことに応じて、前記自動運転車に近接する前記表面上に前記投影ヘイリングエリアを生成させるための命令を実行するようにさらに構成されている、条項1または2に記載のシステム。
【0058】
4.前記プロセッサは、前記投影システムに、前記自動運転車が前記人に対して移動している間に、前記表面の静止部分に前記投影ヘイリングエリアを生成させるための命令を実行するようにさらに構成されている、条項1~3のいずれかに記載のシステム。
【0059】
5.前記プロセッサは、前記指定された場所で特定の乗り手をピックアップするための命令を受信したことに応じて、前記自動運転車に前記指定された場所まで運転させるための命令を実行するようにさらに構成されている、条項1~4のいずれかに記載のシステム。
【0060】
6.前記プロセッサは、乗車要求が前記投影ヘイリングエリア内の前記人によって実行されることを判定するための命令を実行するようにさらに構成されている、条項1~5のいずれかに記載のシステム。
【0061】
7.前記乗車要求は、前記投影ヘイリングエリア内の前記人によって実行される身体的ジェスチャを含む、条項1~6のいずれかに記載のシステム。
【0062】
8.前記プロセッサは、前記センサからの画像データに基づいて前記乗車要求を判定するための前記命令を実行するように構成されている、条項1~7のいずれかに記載のシステム。
【0063】
9.前記乗車要求は、前記投影ヘイリングエリア内の前記人による口頭の発話を含む、条項1~8のいずれかに記載のシステム。
【0064】
10.前記プロセッサは、前記センサに含まれる少なくとも1つのマイクロフォンからの音声データに基づいて前記乗車要求を判定するための前記命令を実行するように構成されている、条項1~9のいずれかに記載のシステム。
【0065】
11.いくつかの実施形態では、自動運転車とのインタラクションを容易にするためのシステムは、ヘイリングエリアに対応するセンサデータを生成するように構成されたセンサと、前記センサからセンサ入力を受信し、前記センサ入力に基づいて、前記ヘイリングエリア内の人を検出し、前記ヘイリングエリア内の前記人を検出したことに応じて、自動運転車を前記ヘイリングエリアに接近させる乗車要求信号を生成して確認応答インジケータを出力させるための命令を実行するように構成されたプロセッサと、を含む。
【0066】
12.前記プロセッサと前記センサとが前記自動運転車の外部の固定構造に含まれている、条項11に記載のシステム。
【0067】
13.前記ヘイリングエリア内の前記人を検出することは、乗車要求が前記投影ヘイリングエリア内の前記人によって実行されることを判定することを含む、条項11または12に記載のシステム。
【0068】
14.前記乗車要求は、前記投影ヘイリングエリア内の前記人によって実行される身体的ジェスチャと、前記投影ヘイリングエリア内の前記人によって発音される口頭の発話とのうちの1つを含む、条項1~13のいずれかに記載のシステム。
【0069】
15.前記乗り手要求信号を生成することは、前記自動運転車が前記人に乗車を提供することを前記ヘイリングエリア内の前記人が要求したと判定することを含む、条項1~14のいずれかに記載のシステム。
【0070】
16.自動運転車とのインタラクションを容易にするための方法であって、前記自動運転車に近接する表面上にヘイリングエリアを投影することと、1つまたは複数のセンサを介して、前記ヘイリングエリア内に配置された人を検出することと、乗車要求が前記人によって実行されたと判定することと、自動運転車が前記ヘイリングエリアに接近して確認応答インジケータを前記人に出力するようにさせる乗車要求信号を生成することと、を含む、前記方法。
【0071】
17.前記乗車要求信号を生成することは、前記乗車要求信号を前記自動運転車に送信することと、前記乗車要求信号を前記自動運転車の外部にある管理エンティティに送信することと、のうちの1つを含む、条項16に記載の方法。
【0072】
18.前記ヘイリングエリア内の前記人を検出したことに応じて、前記センサを調整して前記ヘイリングエリアに焦点を合わせることをさらに含む、条項16または17に記載の方法。
【0073】
19.前記確認応答インジケータを前記人に出力することは、前記ヘイリングエリア内の前記人に見える確認応答インジケータを生成することと、前記ヘイリングエリア内の前記人に聞こえる確認応答インジケータを生成することと、前記ヘイリングエリア内の前記人が感じ取ることができる確認応答インジケータを生成することと、のうちの少なくとも1つを含む、条項16~18のいずれかに記載のシステム。
【0074】
20.前記ヘイリングエリア内の前記人に見える前記確認応答インジケータを生成することは、前記ヘイリングエリアの視覚的特徴を修正することを含む、条項16~19のいずれかに記載のシステム。
【0075】
任意の請求項に列挙した任意の請求項要素、及び/または本出願に記載した任意の要素の、任意の方法での任意の組み合わせ及びすべての組み合わせは、本発明及び保護の企図した範囲内に入る。
【0076】
様々な実施形態の説明は、例示の目的で提示しているが、網羅的であることも、開示した実施形態に限定されることも意図していない。多くの修正例及び変形例は、説明した実施形態の範囲及び主旨から逸脱することなく当業者には明白であろう。
【0077】
本実施形態の態様は、システム、方法、またはコンピュータプログラム製品として具現化され得る。したがって、本開示の態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、またはすべて一般的に「モジュール」もしくは「システム」と本明細書では称し得るソフトウェア態様及びハードウェア態様を組み合わせた実施形態の形を取り得る。さらに、本開示に記載の任意のハードウェア及び/またはソフトウェア技術、プロセス、機能、コンポーネント、エンジン、モジュール、あるいはシステムは、回路または回路のセットとして実装され得る。さらに、本開示の態様は、少なくとも1つのコンピュータ可読媒体であって、コンピュータ可読プログラムコードがそこに具現化された、該少なくとも1つのコンピュータ可読媒体に具現化されたコンピュータプログラム製品の形態を取り得る。
【0078】
少なくとも1つのコンピュータ可読媒体の任意の組み合わせが利用され得る。コンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体であり得る。コンピュータ可読記憶媒体は、例えば、限定はしないが、電子、磁気、光学、電磁気、赤外線、もしくは半導体のシステム、装置、もしくはデバイス、または前述の任意の好適な組み合わせであり得る。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)には、少なくとも1つの電線を有する電気的接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラム可能読み取り専用メモリ(EPROMもしくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、または前述の任意の好適な組み合わせが含まれるであろう。本文書の文脈において、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスによる使用または併用のためにプログラムを含むまたは記憶することができる任意の有形媒体であり得る。
【0079】
本開示の態様は、本開示の実施形態による方法、装置(システム)、及びコンピュータプログラム製品のフローチャート図及び/またはブロック図を参照して上記に説明している。フローチャート図及び/またはブロック図の各ブロック、ならびにフローチャート図及び/またはブロック図のブロックの組み合わせは、コンピュータプログラム命令によって実装できることは理解されよう。これらのコンピュータプログラム命令を、汎用コンピュータ、専用コンピュータ、または他のプログラム可能データ処理装置のプロセッサに提供することにより、それらの命令が、そのコンピュータまたは他のプログラム可能データ処理装置のプロセッサを介して実行された場合に、フローチャート及び/またはブロック図の1つまたは複数のブロックに規定された機能/行為を実装することが可能になるマシンが生成され得る。そのようなプロセッサは、限定はしないが、汎用プロセッサ、専用プロセッサ、特定用途向けプロセッサ、またはフィールドプログラマブルプロセッサもしくはゲートアレイであり得る。
【0080】
図中のフローチャート及びブロック図は、本開示の様々な実施形態によるシステム、方法、及びコンピュータプログラム製品の可能な実施態様のアーキテクチャ、機能性、及び動作を示している。この点で、フローチャートまたはブロック図の各ブロックは、規定された論理的な機能(複数可)を実装するための少なくとも1つの実行可能命令を含むモジュール、セグメント、またはコードの一部を表し得る。また、一部の代替的な実施態様では、ブロックに記載した機能は、図に記載した順序とは異なる順序で起こり得ることに留意されたい。例えば、連続して示される2つのブロックは、実際には、ほぼ同時に実行されてもよく、または関与する機能に応じて、ブロックは時に逆の順序で実行されてもよい。ブロック図及び/またはフローチャート図の各ブロック、ならびにブロック図及び/またはフローチャート図のブロックの組み合わせは、特定の機能もしくは動作を実行する専用ハードウェアベースシステム、または専用ハードウェア及びコンピュータ命令の組み合わせにより、実施され得ることにも留意されたい。
【0081】
上記は本開示の実施形態を対象としているが、本開示の他の実施形態及びさらなる実施形態は、その基本的な範囲から逸脱することなく考案され得、その範囲は、添付の特許請求の範囲によって決定される。