(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0009】
以下、本発明に係る情報処理システムの一実施の形態を図面に基づいて説明する。
図1は、本発明の一実施の形態に係る情報処理システムを示すブロック図であり、本実施形態のシステムは、頭部装着デバイス10と、携帯端末20と、サーバ30と、車両40と、電気通信回線網を構成するネットワーク50とを含む。
【0010】
本実施形態のシステムは、カーシェアリング又はタクシー配車など、ユーザが希望する利用条件に基づいて、利用条件に適合する車両を選択して、選択された車両40を所定の出発地に配車する。車両40は、乗務員が運転する車両に限らず、自動運転機能を備えた無人タクシー(ロボットタクシー)のような車両でもよい。サーバ30は、ユーザから利用条件を取得すると、利用条件に適した車両40を選択し、選択された車両40に対して配車スケジュールを生成する。そして、サーバ30は配車計画を含む情報を車両40に出力する。車両40は、配車スケジュールに沿って走行する。このとき、車両40が、無人タクシーである場合には、配車スケジュールに沿った走行計画で走行するように、ステアリングなどの駆動系が自動で制御される。
【0011】
サーバ30は、配車スケジュールに関する情報、及び、選択された車両に関する情報を携帯端末20に出力する。ユーザは、携帯端末20を用いて、配車スケジュールに関する情報を確認することで、車両40の出発地、出発時刻などを確認できる。携帯端末20は、ユーザが持ち運びできる程度の大きさのモバイル端末であり、少なくともサーバ30と通信可能であればよい。
【0012】
ところで、例えば、ユーザが、配車された車両40に乗車するために、サーバ30で指定された場所(車両40との待ち合わせ場所)で車両40の到着を待っている場合に、配車された車両が、どのような車両であるか、どの方角から近づいているのか、待ち合わせ場所から車両40までどのぐらい離れているのか等、把握することが難しいことがある。例えば、車両との待ち合わせ場所が、タクシー乗り場など、特定車両に限った乗り場に設定された場合には、配車車両と同じような車両が多く、ユーザは多数の車両の中から配車車両を特定することは難しい。
【0013】
また、例えば、車両との待ち合わせ場所が、一般道路で安全に停車できる場所に設定された場合には、配車車両がどの方向から近づいているのか、現在、車両40は待ち合わせ場所からどのぐらい離れているのか等を把握することが難しい。特に、車両との待ち合わせ場所が、一般道路沿いに設定された場合には、車両の駐車時間はできるだけ短い方がよいため、ユーザには時間をかけずに配車車両に乗り込むことが求められる。そのためには、配車車両がどれか容易に特定できるようなシステムが求められる。
【0014】
本実施形態では、以下に説明する構成及び制御処理により、ユーザが乗車すべき車両(配車車両)を容易に特定できるようなシステムを実現している。
【0015】
図1を参照しつつ、システムの具体的な構成を説明する。頭部装着デバイス10は、ヒアラブルデバイスなど、各種センサや通信機を備えたデバイスである。頭部装着デバイス10は、イヤホンやヘッドフォンなどのユーザの頭部に装着できるデバイスである。頭部装着デバイスは、スマートフォンや携帯電話など、ユーザが手にとって操作するデバイスとは異なり、頭部に装着されるよう構成されているため、頭部の向き、すなわちユーザの視線の向きを検出できる。例えば、ユーザの体が北を向いている状態で、顔が東の方向を向いた場合には、スマートフォンなどの後述する携帯端末20は北を向いていることは検知できるが、顔が東向きを向いていることは検知するのは難しい。一方、頭部装着デバイス10は、ユーザの顔が東を向いていることを検知できる。
【0016】
頭部装着デバイス10は、GPS11、磁気センサ12、加速度センサ13、接触センサ14、音出力部15、通信機16、及びコントローラ17を備えている。GPS11は、頭部装着デバイス10の位置を測定するシステムである。なお、頭部装着デバイス10はユーザの頭部に装着されるため、GPS11により検出される位置は、ユーザの位置に相当する。磁気センサ12及び加速度センサ13は、頭部装着デバイス10の方向、すなわち、ユーザが向いている方向、及び/又は、頭の向きを検出する。接触センサ14は、頭部装着デバイス10が頭部に装着されたことを検出するためのセンサである。音出力部15は、ユーザの耳に音を直接出力するためのデバイスであり、振動板、コイル等により構成されている。通信機16は、携帯端末20を通信するためのデバイスである。通信機16は、携帯端末20に含まれる通信機21との間で、近距離無線通信規格の下、通信を行う。コントローラ17は、GPS11、磁気センサ12、加速度センサ13、接触センサ14、音出力部15、及び通信機16を制御する。コントローラ17は、ハードウェア及びソフトウェアを備えており、プログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されている。コントローラ17は、GPS11に測定されたユーザの検出位置の情報を、通信機16を用いて携帯端末20に出力する。コントローラ17は、磁気センサ12及び加速度センサ13の検出値に基づき、ユーザの向きを演算し、演算された、ユーザの向きを示す方向情報を、通信機16を用いて携帯端末20に出力する。またコントローラ17は、通信機16を介して、携帯端末20から音声データを取得し、音データで示される音声を音出力部15から出力する。なお、頭部装着デバイス10に含まれる構成は、上記のGPS11に限らず、例えばON/OFFを切り替えるスイッチなど他の構成部品を有している。
【0017】
携帯端末20は、通信機21及びコントローラ22を有している。携帯端末20は、スマートフォンなど、ユーザが持ち運びできる端末である。携帯端末20は、ユーザからの入力操作に基づき、通話、インターネット接続など、各種のアプリケーションを実行する。通信機21は、近距離無線通信規格の下、頭部装着デバイス10に含まれる通信機16と通信を行う。また、通信機21は、電気通信回線網(ネットワーク)50を介して、サーバ30及び車両40をと通信を行う。コントローラ22は、ユーザから入力される情報を、通信機21を介してサーバに出力する。本実施形態において、携帯端末20には、車両40の利用申し込みを行うための配車アプリケーションが設けられている。ユーザは、タッチパネルなどの入力部を操作して、配車アプリケーションを起動させて、車両の利用申し込みに必要な情報を入力する。利用申し込み情報は、少なくとも、ユーザが車両を利用する旨の利用情報を含んでおり、利用開始時刻、出発地、目的地、個人情報などの情報を含んでいる。コントローラ22は、入力された利用申し込み情報を、通信機21を介してサーバ30に送信する。サーバ30は、利用申し込み情報に基づき、ユーザに希望に合う車両を割り当てて、配車スケジュールを生成する。コントローラ22は、サーバ30により作成された配車スケジュールをディスプレイに表示する。ディスプレイは、車両40の待ち合わせ場所、待ち合わせ場所から目的地までの走行経路、出発時間、到着予定時刻などを表示する。なお、携帯端末20は、通信機21、コントローラ22、及びディスプレイに限らず、他の構成部品も有している。
【0018】
サーバ30は、通信機31、データベース32、及びコントローラ33を備えている。通信機31は、電気通信回線網(ネットワーク)50を介して、複数の携帯端末20及び複数の車両40と通信を行う。データベース32は、地図情報を記憶する記憶媒体である。地図情報には、ノードやリンクなど道路網を表すための情報や、POI(Point of Interest)等の施設情報等が含まれている。またデータベース32は、車両40を管理するための管理データ、ユーザの登録データなどを記録している。コントローラ33は、ハードウェア及びソフトウェアを備えており、プログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成されている。
【0019】
コントローラ33は、ROMに格納されたプログラムをCPUにより実行することにより、車両を管理する管理機能、車両及び待ち合わせ場所を案内する案内機能を実現する。
以下において、コントローラ33が備える各機能について説明する。なお、コントローラ33は、以下に説明する機能の他に、例えばデータベース32に記録された地図データを管理及び更新する機能など、他の機能も有している。
【0020】
コントローラ33は、車両管理機能により、配車スケジュールを作成し、配車スケジュールに沿って走行するように車両40を管理する。配車スケジュールは、携帯端末20から入力された、ユーザの利用申し込み情報に基づき、ユーザの希望に沿う車両を割り当てる。例えば、ユーザが即座に配車を受けた場合には、コントローラ33は、利用申し込み情報から、ユーザの位置を特定し、ユーザの位置から最も近い車両40で、現在、利用申し込みが入っていない車両40を特定する。コントローラ33は、特定された車両40を配車車両に設定する。コントローラ33は、配車車両の現在の位置と、ユーザの現在の位置から、待ち合わせ地点を設定する。待ち合わせ地点は、ユーザと車両40が待ち合わせる場所であって、車両40の駐車に適した場所である。コントローラ33は、車両の現在位置から待ち合わせ地点までの走行経路と、待ち合わせ場所への車両の到着時刻を演算する。そして、コントローラ33は、待ち合わせ場所及び到着予定時刻を配車スケジュールの情報に含めて、通信機31を介して携帯端末20に送信する。また、コントローラ33は、待ち合わせ地点の情報を、通信機31を介して車両40に送信する。
【0021】
コントローラ33は、案内機能により、ユーザが車両を特定するための音声データを生成し、通信機31を介して音声データを携帯端末20に出力する。また、コントローラ33は、案内機能により、ユーザが待ち合わせ地点を特定するための音声データを生成し、通信機31を介して音声データを携帯端末20に出力する。ユーザが車両を特定するための音声データ及びユーザが待ち合わせ地点を特定するための音声データには、車両及び/又は場所を特定するための案内情報が含まれており、案内情報はコントローラ22及び/又はコントローラ33により生成される。なお、案内機能の具体的な処理は、後述する。
【0022】
車両40は、GPS41、センサ42、通信機43、車外用表示機44、及びコントローラ45を備えている。GPS41は、車両の現在の位置を測定するシステムである。センサ42は、カメラ、レーダなど、車両の周囲の状況を検出するためのセンサである。またセンサ42は、車速センサなど、車両の走行状態を検出するためのセンサも含まれている。通信機43は、電気通信回線網(ネットワーク)50を介して、携帯端末20及びサーバ30と通信を行う。車外用表示機44は、車外の人に情報提示するための装置であって、車両40の外部に光を出力する装置である。コントローラ45は、ハードウェア及びソフトウェアを備えており、プログラムを格納したROMと、このROMに格納されたプログラムを実行するCPUと、アクセス可能な記憶装置として機能するRAMとから構成されている。コントローラ45は、車両全体を制御するユニットである。なお、車両40は、GPS41などに限らず、例えば、スモールランプやウインカー、ヘッドランプやテールランプなどのライト類を有しており、その他、エンジン及び/又はモータなど、車両の走行に必要な構成を有している。
【0023】
次に、本実施形態の情報処理システムに含まれる、頭部装着デバイス10、携帯端末20、サーバ30、及び車両40の各制御処理を説明する。
図2A〜
図2Cは、サーバ30の制御処理を示すフローチャートである。
図3は、車両40の制御処理を示すフローチャートである。なお、
図2に示す制御フローは、サーバ30は、ユーザから、車両を利用する旨の利用情報を含む利用申し込み情報を取得し、配車スケジュールの確定後であり、ユーザが待ち合わせ場所への移動を開始してから、ユーザが配車車両を特定するまでの制御フローを示している。また、以下の制御フローは、ユーザによる車両の利用開始時刻よりも前に実行される。
【0024】
ステップS101にて、携帯端末20のコントローラ22は、待ち合わせが開始されたか否かを判定する。例えば、現在時刻が、車両が待ち合わせ地点に到着する時刻より所定時間前の時刻になった場合に、又は、ユーザによる携帯端末20の操作に基づき、待ち合わせ地点に向かうために、ユーザからの要求がある場合には、コントローラ22は、待ち合わせが開始されたと判定する。待ち合わせが開始されない場合には、コントローラ22の
制御処理は、ステップS101で待機する。
【0025】
待ち合わせが開始された場合には、ステップS102にて、コントローラ22は、通信機21を用いて、サーバ30から待ち合わせ地点の情報を取得する。待ち合わせ地点の情報は、少なくとも待ち合わせ地点の位置情報が含まれている。なお、待ち合わせ地点の情報が携帯端末20のメモリに記憶されている場合には、コントローラ22はメモリから待ち合わせ地点の情報を取得してもよい。
【0026】
ステップS103にて、コントローラ22は、通信機21を用いて頭部装着デバイス10と通信を行い、頭部装着デバイス10から、ユーザの現在の位置を示す位置情報、及び、ユーザの頭部の向きを示す方向情報を取得する。ステップS104にて、コントローラ22は、ユーザの現在位置と待ち合わせ地点の位置との間の距離を測定し、測定された距離に基づき、ユーザの現在位置が待ち合わせ地点まで遠方であるか否かを判定する。遠方であるか否かを判定するための距離閾値が予め設定されており、コントローラ22は、測定された距離が距離閾値より長い場合に、待ち合わせ地点まで遠方であると判定する。ユーザの現在位置が、待ち合わせ地点まで遠方ではないと判定した場合には、制御フローはステップS108に進む。
【0027】
待ち合わせ地点まで遠方であると判定した場合には、ステップS105にて、携帯端末20のコントローラ22は、ユーザの現在位置から待ち合わせ地点までの経路を案内するための案内情報を生成し、頭部装着デバイス10に出力する。経路を案内するための案内情報により、ユーザの現在位置に応じてユーザが向かうべき方角や通行すべき道路情報などが音声によりユーザに対して案内される。案内情報は、頭部装着デバイス10のコントローラ17の制御により、音出力部
15から音声として出力される。
【0028】
ステップ106にて、携帯端末20のコントローラ22は、顔認証機能を利用して、ユーザが携帯端末20のディスプレイを見ているか否かを判定する。なお、コントローラ22は、頭部装着デバイス10から、ユーザの頭部の向きを示す方向情報を取得し、取得した方向情報に基づいて、ユーザが携帯端末20のディスプレイを見ているか否かを判定してもよい。ユーザが携帯端末20を見ていない場合には、制御フローはステップS103に進む。
【0029】
ユーザが携帯端末20を見ている場合には、ステップS107にて、コントローラ22は、ユーザの現在位置から待ち合わせ地点までの経路を示した地図をディスプレイに表示する地図表示の後、制御フローはステップS103に進む。
【0030】
ステップS104の制御フローで待ち合わせ地点まで遠方ではないと判定した場合には、ステップS108にて、コントローラ22は、ユーザの現在位置と待ち合わせ地点の位置との間の距離に基づき、ユーザが待ち合わせ地点を目視で確認できるか否かを判定する。ユーザの有視界距離が予め設定されており、コントローラ22は、ユーザの現在位置から待ち合わせ地点までの距離が有視界距離以下である場合には、ユーザが待ち合わせ地点を目視で確認できると判定する。ユーザが待ち合わせ地点を目視で確認できると判定した場合には、制御フローはステップS115に進む。
【0031】
ユーザが待ち合わせ地点を目視で確認できないと判定した場合には、ステップS109にて、携帯端末20のコントローラ22は、ユーザの現在位置から待ち合わせ地点までの経路を案内するための案内情報を生成し、頭部装着デバイス10に出力する。なお、ステップS109の制御フローはステップS105の制御フローと同様である。
【0032】
ステップ110にて、携帯端末20のコントローラ22は、ユーザが携帯端末20のディスプレイを見ているか否かを判定する。ステップS110の制御フローはステップS106の制御フローと同様である。ユーザが携帯端末20を見ていない場合には、制御フローはステップS103に進む。
【0033】
ユーザが携帯端末20を見ている場合には、ステップS111にて、コントローラ22は、車両40から、車両の現在位置の位置情報を取得し、車両40が待ち合わせ地点に到着しているか否かを判定する。なお、携帯端末20のコントローラ22が、車両40から情報を取得する場合、及び、携帯端末20のコントローラ22が、車両40に対して情報を出力する場合には、携帯端末20のコントローラ22は、サーバ30を介して車両40を通信してもよく、あるいは、車両40と直接通信してもよい。
【0034】
車両が待ち合わせ地点に到着していない場合には、携帯端末20のコントローラ22は、待ち合わせ地点の目印となるような対象物を含む案内画像を生成する。コントローラ22は、例えば、携帯端末20の地図案内アプリケーションを利用して、案内画像を生成する。なお、コントローラ22は、サーバ30から、案内画像の情報を取得することで、表示用の案内画像を生成してもよい。コントローラ22は、ユーザの現在位置から待ち合わせ地点までの経路を示した地図と、案内画像をディスプレイに表示する。この時点で、ユーザは、待ち合わせ地点を目視できる場所にいるため、案内画像を頼りに、待ち合わせ地点を容易に特定できる。その後、制御フローはステップS103に進む。
【0035】
車両が待ち合わせ地点に到着している場合には、ステップS113にて、携帯端末20のコントローラ22は、車両40の周囲画像を取得するための指令信号を、サーバ30を介して車両40に出力する。車両40のコントローラ45は、指令信号を受信すると、センサ42に含まれるカメラを用いて車両周囲を撮像し、通信機43を用いて撮像画像を含む信号を、サーバ30を介して携帯端末20に出力する。ステップS114にて、コントローラ22は、ユーザの現在位置から待ち合わせ地点までの経路を示した地図と、車両から取得した周囲画像をディスプレイに表示する。この時点で、ユーザは、待ち合わせ地点を目視できる場所にいるため、
周囲画像を頼りに、待ち合わせ地点を容易に特定できる。その後、制御フローはステップS103に進む。
【0036】
図2Bを参照して、以下制御フローを説明する。ステップS115にて、携帯端末20のコントローラ22は、頭部装着デバイス10から、ユーザの頭部の向きを示す方向情報を取得し、取得した方向情報に基づいて、ユーザの視線方向が待ち合わせ地点を向いているか否か(ユーザが待ち合わせ地点の方向を向いているか否か)を判定する。
【0037】
ユーザの視線方向が待ち合わせ地点の方向を向いていない場合には、ステップS116にて、コントローラ22は、ユーザの現在位置に対して、待ち合わせ地点の方向(例えば、方角)と待ち合わせ地点までの距離を含む案内情報を生成し、頭部装着デバイス10に出力する。頭部装着デバイス10のコントローラ17は、案内情報として、例えば「東の方向、10m先の場所が待ち合わせ地点です」のような音声を出力する。S105またはS109においては、ユーザの現在位置から待ち合わせ地点までの距離が長いため、経路を案内するための案内情報が出力されるのに対し、S116においては、ユーザの現在位置から待ち合わせ地点までの距離が短いため、ユーザの現在位置からみた待ち合わせ地点の情報(例えば、方角と距離)が出力されることとなる。ステップS117にて、携帯端末20のコントローラ22は、案内情報を取得した後に、頭部装着デバイス10から、ユーザの頭部の向きを示す方向情報及びユーザの現在位置の位置情報を取得する。制御フローはステップS115に進む。
【0038】
ユーザの視線方向が待ち合わせ地点の方向を向いている場合には、
ステップS118にて、コントローラ22は、サーバ30に対して、車両が待ち合わせ地点に到着しているか否か確認するための確認信号を出力する。サーバ30のコントローラ33は、確認信号に基づき、車両の現在位置の位置情報を車両40から取得し、車両40が待ち合わせ地点に到着しているか否かを判定する。そして、コントローラ33は、判定結果を含む信号を携帯端末20に出力する。車両40が待ち合わせ地点に到着している場合には、制御フローはステップS126に進む。
【0039】
車両40が待ち合わせ地点に到着していない場合には、ステップS119にて、コントローラ22は、頭部装着デバイス10から、ユーザの現在位置の位置情報を取得し、ユーザが待ち合わせ地点に到着しているか否かを判定する。
【0040】
ユーザが待ち合わせ地点に到着していない場合には、ステップS120にて、コントローラ22は、ユーザの現在位置と待ち合わせ地点の位置との間の距離を測定し、測定された距離を含む案内情報を生成し、頭部装着デバイス10に出力する。頭部装着デバイス10は、音出力部15を用いて、待ち合わせ地点までの距離を案内する。頭部装着デバイス10は、例えば「現在の視線方向で、15m先の場所が待ち合わせ地点です」のような音声を出力する。これにより、ユーザは、現在の視線方向の先に待ち合わせ地点があること、及び、待ち合わせ地点までの距離を特定できる。そして、制御フローはステップS118に進む。
【0041】
ユーザが待ち合わせ地点に到着している場合には、ステップS121にて、コントローラ22は、サーバ30から車両の現在位置の位置情報を取得し、車両40がユーザのより視認可能な範囲内にあるか否かを判定する。あるいは、コントローラ22は、ユーザの現在の位置情報をサーバ30に送信し、サーバ30のコントローラ33が、車両40がユーザのより視認可能な範囲内にあるか否かを判定する。例えば、車両の現在位置が、待ち合わせ地点を中心として所定の視認可能範囲(例えば半径100m)内にある場合に、コントローラ22は、車両がユーザにより視認可能な範囲内にあると判定する。
【0042】
車両がユーザにより視認可能な範囲外である場合には、ステップS122にて、コントローラ22は、車両40が待ち合わせ地点に到着する時刻を確認するための確認信号をサーバ30に送信する。サーバ30のコントローラ33は、車両の現在位置、待ち合わせ地点の位置、走行経路、交通情報等を用いて、車両40の到着予定時刻を演算し、演算結果を含む信号を携帯端末20に出力する。そして、携帯端末20のコントローラ22は、演算された到着予定時刻の情報を頭部装着デバイス10に出力する。頭部装着デバイス10は、音出力部15を用いて、車両40の到着予定時刻を案内する。すなわち、ユーザが待ち合わせ地点に到着している場合には、ステップS122の制御フローにより、コントローラ22及び/又はコントローラ33は、車両を特定するための案内情報として、車両40の到着予定時刻の情報を頭部装着デバイス10に出力する。そして、頭部装着デバイス10は、車両40の到着予定時刻を音声で案内することで、ユーザは、どれぐらいの時間で、目視できるようになり、車両が到着するか把握できる。そして、制御フローはステップ118に進む。
【0043】
車両40がユーザにより視認可能な範囲内である場合には、ステップS123にて、携帯端末20のコントローラ22は、頭部装着デバイス10から、ユーザの頭部の向きを示す方向情報を取得し、ユーザの視線方向が車両40を向いているか否か確認するための確認信号をサーバ30に送信する。サーバ30のコントローラ33は、ユーザの現在の位置、ユーザの頭部の向き、車両40の現在位置に基づき、ユーザの視線方向が車両40を向いているか否かを判定し、判定結果を含む信号を携帯端末20に出力する。すなわち、ステップS121とステップS123の制御フローを実行することで、コントローラ22及び/又はコントローラ33は、ユーザの頭部の向きと車両の位置との関係、又は、ユーザの視線の向きと車両の位置との関係に基づき、車両40がユーザにより視認可能な位置にあるか否かを判定している。ユーザの視線方向が車両40を向いていない場合には、ステップS124にて、コントローラ22は、ユーザの現在位置に対して、ユーザから見たときに車両が見える方向を示す案内情報を生成し、頭部装着デバイス10に出力する。頭部装着デバイス10のコントローラ17は、案内情報として、例えば「東の方向から待ち合わせ地点に向かって車両が近づいています。」のような音声を出力する。すなわち、ユーザが待ち合わせ地点に到着しているが、ユーザが車両の方向を向いていない場合には、コントローラ22は、車両を特定するための情報として、ユーザから見たときに車両が見える方向を示す情報を頭部装着デバイス10に出力する。そして、頭部装着デバイス10は、ユーザから見たときに車両が見える方向を音声で案内することで、ユーザは、どちらの方向から車両が近づくか把握できる。そして、制御フローはステップ118に進む。
【0044】
ユーザの視線方向が車両40を向いている場合には、ステップS125にて、コントローラ22は、車両40の現在位置と待ち合わせ地点の位置(ユーザの現在位置)との間の距離を測定し、測定された距離情報を、頭部装着デバイス10に出力する。頭部装着デバイス10は、音出力部15を用いて、例えば「現在車両は、視線方向で10m先を走行しており接近中です」のような音声を出力する。すなわち、ユーザが待ち合わせ地点に到着しており、ユーザが車両の方向を向いている場合には、コントローラ22は、車両を特定するための情報として、ユーザの現在位置から車両までの距離を案内する。そして、頭部装着デバイス10は、ユーザの視線方向の先で、どのぐらい車両が離れているのかを音声で案内することで、ユーザは、何m先に車両がいるのか把握できる。特に、ユーザが乗車すべき車両と同一車両又は似たような車両が複数走行している場合には、ユーザは距離を目安に、配車車両を特定できる。そしてユーザは音声で案内されるため、現在の視線方向を固定すれば、車両を目視できる距離にあることも把握できる。その結果として、ユーザは乗車すべき車両を容易に特定できる。そして、制御フローはステップS118に進む。
【0045】
図2Cを参照して、以下制御フローを説明する。車両40が待ち合わせ地点に到着している場合には、ステップS126にて、携帯端末20のコントローラ22は、車両40の車外用表示機44で光を点滅させるための指令信号を車両40に送信し、点滅のテンポに合わせて音を音出力部15から出力させるための指令信号を頭部装着デバイス10に出力する。頭部装着デバイス10は、指令信号に応じた音を音出力部15から出力することで、ユーザに対して、車両40が特定できるように案内する。
【0046】
ステップS127にて、携帯端末20のコントローラ22は、ユーザが車両40を特定できたか否かを判定する。例えば、コントローラ22は、ユーザによる携帯端末の操作、あるいは、ユーザが車両40のドアノブを操作したことを示す情報を車両40から取得することで、ユーザが車両40を特定できたか否かを判定する。
【0047】
ユーザが車両40を特定できない場合には、ステップS128にて、コントローラ22は、車外用表示機44に表示する内容をユーザに携帯端末20の操作により、変更させて、変更された内容を車外用表示機44に表示するための指令信号を車両40に送信する。ステップS129にて、コントローラ22は、変更後の表示内容に対応する音を音出力部15から出力させるための指令信号を頭部装着デバイス10に出力する。頭部装着デバイス10は、指令信号に応じた音を音出力部15から出力することで、ユーザに対して、車両40が特定できるように案内する。そして、制御フローはステップS127に進む。ステップS127の制御フローにて、携帯端末20のコントローラ22は、ユーザが車両40を特定できたと判定した場合には、
図2Cに示す制御フローを終了する。
【0048】
次に、車両側からユーザを特定する際の制御フローを、
図3を参照しつつ説明する。
【0049】
ステップS201にて、車両40のコントローラ45は携帯端末20と直接通信できるか否かを判定する。コントローラ45は、近距離通信用の固有IDを用い
て、携帯端末20と近距離通信が確立させることで、ユーザと直接通信できるか否かを判定する。携帯端末20と直接通信できた場合には、ステップS202にて、コントローラ45は、車外用表示機44の発光テンポを所定の周期に設定した上で光を出力し、所定の周期と同調して、音が出るように指令信号を、携帯端末20に出力する。頭部装着デバイス10は、指令信号を携帯端末20から受信して、設定された所定の周期で音を出力する。また、頭部装着デバイス10は、車両が接近していることを音声で案内する。そして、制御フローはステップS206に進む。
【0050】
携帯端末20と直接通信できない場合には、ステップS203にて、コントローラ45は、センサ42に含まれるカメラを用いて、
顔認識機能を用いて顔を認識する。そして顔が認識された場合には、コントローラ45は、カメラで撮像し、顔認識した周辺の風景付きの撮像画像を、サーバ30を介して携帯端末20に出力する。ステップS205にて、コントローラ45は、現在のユーザの顔の方向を撮像画像から推定し、顔の向きをどちらに向けてほしいかを示す案内情報を、サーバ30を介して、携帯端末20に出力する。すなわち、案内情報は、ユーザが車両を特定するための方向情報と、車両がユーザを認識していること示す認識情報を含んでいる。頭部装着デバイス10は、案内情報を携帯端末20から受信して、例えば「右方向を見てください。配車車両を確認できます」のような音声を出力する。これにより、ユーザは、車両側は
自身を認識していることを把握でき、また車両方向に顔を向けてもらうことができる。ステップS206にて、車両40のコントローラ45は、ユーザが車両40を特定できたか否かを判定する。この判定は、ステップS127の判定結果を用いればよい。そして、ユーザが車両40を特定できた場合には、
図3に示す制御フローを終了する。
【0051】
以上のとおり本実施形態によれば、コントローラ22及び/又はコントローラ33は、車両40の位置を示す位置情報、及び、モバイル装置(頭部装着デバイス10及び/又は携帯端末20に相当する)の位置を示す位置情報を取得し、車両40の位置と携帯端末20の位置との関係に応じて、車両を特定するための音声データを通信機から携帯端末に出力する。これにより、車両の位置等を案内するときに、ユーザの視線が一点に固定されることを防ぎ、ユーザは乗車すべき車両を容易に特定できる。
【0052】
また本実施形態では、コントローラ22及び/又はコントローラ33は、車両40とモバイル装置の位置との相対的な距離に応じて、モバイル装置に出力する音声データに含まれる案内情報の種別を変更する。これにより、ユーザは乗車すべき車両を容易に特定できる。
【0053】
また本実施形態では、コントローラ22及び/又はコントローラ33は、車両とユーザの待ち合わせ地点とモバイル装置の位置との相対的な距離に応じて、モバイル装置に出力する音声データに含まれる案内情報の種別を変更する。これにより、ユーザは乗車すべき車両を容易に特定できる。
【0054】
また本実施形態では、コントローラ22及び/又はコントローラ33は、ユーザの頭部の向きを示す方向情報又はユーザの視線の向きを示す方向情報を取得し、頭部の向きと車両の位置との関係、又は、視線の向きと車両の位置との関係に応じて、音声データをモバイル装置に出力する。これにより、車両の方位等を案内するときに、ユーザの視線が一点に固定されることを防ぎ、ユーザは乗車すべき車両を容易に特定できる。
【0055】
また本実施形態では、コントローラ22及び/又はコントローラ33は、ユーザの頭部の向きを示す方向情報又はユーザの視線の向きを示す方向情報を取得し、頭部の向きと車両の位置との関係、又は、視線の向きと車両の位置との関係に応じて、ユーザから見たときに車両40が見える方向を示す情報を、音声データに含めてモバイル装置に出力する。これにより、ユーザが、車両40を目視で確認するために、向くべき方向を現在の頭の位置に合わせて案内することができる。
【0056】
また本実施形態では、コントローラ22及び/又はコントローラ33は、ユーザの頭部の向きを示す方向情報又はユーザの視線の向きを示す方向情報を取得し、頭部の向きと車両の位置との関係、又は、視線の向きと車両の位置との関係に基づき、車両がユーザにより視認可能な位置にあるか否かを判定し、判定結果に応じて、音声データをモバイル装置に出力する。これにより、ユーザから車両40を視認可能か否かの判定結果に合った案内を変更することができる。
【0057】
また本実施形態では、コントローラ22及び/又はコントローラ33は、車両40がユーザにより視認可能な位置にあると判定した場合には、ユーザから見たときに車両40が見える方向を示す情報を、音声データに含めてモバイル装置に出力する。これにより、ユーザはどちらの方向から車両が近づいているかを容易に特定できる。
【0058】
また本実施形態では、コントローラ22及び/又はコントローラ33は、車両がユーザを認識したことを示す認識情報を取得し、認識情報を取得した場合には、車両40がユーザを認識していることを示す情報を、音声データに含めてモバイル装置に出力する。これにより、ユーザは、車両40が近くにいることを容易に特定できる。
【0059】
また本実施形態では、コントローラ22及び/又はコントローラ33は、ユーザが車両を利用する旨の利用情報を取得し、利用情報を取得した後に、音声データを出力するための制御処理を実行する。これにより、ユーザは乗車すべき車両を容易に特定できる。
【0060】
また本実施形態では、コントローラ22及び/又はコントローラ33は、ユーザが車両40の利用を開始する利用開始時刻を設定し、利用開始時刻より前に、音声データを出力するための制御処理を実行する。これにより、ユーザは、車両40を利用する前に乗車すべき車両を特定できる。
【0061】
また本実施形態では、コントローラ22及び/又はコントローラ33は、ユーザが待ち合わせ地点に到着した場合に、音声データを出力するための制御処理(
図2Bに示す、ステップS121〜ステップS125までの制御フローに相当)を実行する。これにより、ユーザは待ち合わせ地点にて乗車すべき車両を容易に特定できる。
【0062】
また本実施形態では、モバイル装置は、ユーザの操作に応じた指令信号を車両に対して送信し、車両40は、指令信号を受信した場合に車両40の外部に光を出力する車外用表示機44を有する。これにより、ユーザは乗車すべき車両を容易に特定できる。
【0063】
また本実施形態では、コントローラ22及び/又はコントローラ33は、車両がユーザにより視認可能な位置にあると判定した場合には、車外用表示機44から光を出力するための指令信号を車両40に出力する。これにより、ユーザは乗車すべき車両を容易に特定できる。
【0064】
また本実施形態では、コントローラ22及び/又はコントローラ33は、車両40が走行中である場合には、車外用表示機44から光を出力するための指令信号を車両40に出力することを禁止する。これにより、他の走行車の妨げにならないようにすることができる。
【0065】
なお、本実施形態において、
図2に示す制御フローのうち、コントローラ22が実行する制御フローは、コントローラ33で実行してもよく、このとき携帯端末20は、頭部装着デバイス10とサーバとの間で通信可能な通信機器として動作すればよい。
【0066】
なお、本実施形態において、ユーザの現在地を測定するGPSは、携帯端末20に設けられていてもよい。また、頭部装着デバイス10の通信機16がサーバ30と通信できる場合には、携帯端末20を省略し、頭部装着デバイス10をモバイル装置として機能させてもよい。ただし、携帯端末20を省略する場合には、
図2に示す制御フローのうち、携帯端末20のディスプレイの表示を制御するフローを省いた上で、
図2に示す制御フローのうち、コントローラ22が実行する制御フローは、コントローラ33で実行すればよい。