(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-06-07
(45)【発行日】2023-06-15
(54)【発明の名称】座席案内装置、座席案内方法、及び座席案内システム
(51)【国際特許分類】
B60N 2/90 20180101AFI20230608BHJP
G06Q 50/10 20120101ALI20230608BHJP
【FI】
B60N2/90
G06Q50/10
(21)【出願番号】P 2018233498
(22)【出願日】2018-12-13
【審査請求日】2021-08-02
(73)【特許権者】
【識別番号】000003997
【氏名又は名称】日産自動車株式会社
(73)【特許権者】
【識別番号】507308902
【氏名又は名称】ルノー エス.ア.エス.
【氏名又は名称原語表記】RENAULT S.A.S.
【住所又は居所原語表記】122-122 bis, avenue du General Leclerc, 92100 Boulogne-Billancourt, France
(74)【代理人】
【識別番号】100083806
【氏名又は名称】三好 秀和
(74)【代理人】
【識別番号】100101247
【氏名又は名称】高橋 俊一
(74)【代理人】
【識別番号】100095500
【氏名又は名称】伊藤 正和
(74)【代理人】
【識別番号】100098327
【氏名又は名称】高松 俊雄
(72)【発明者】
【氏名】寺口 剛仁
(72)【発明者】
【氏名】井上 裕史
(72)【発明者】
【氏名】西山 乘
(72)【発明者】
【氏名】大久保 翔太
(72)【発明者】
【氏名】志小田 雄宇
【審査官】瀧本 絢奈
(56)【参考文献】
【文献】特開2006-331290(JP,A)
【文献】特開2018-078398(JP,A)
【文献】米国特許出願公開第2017/0243449(US,A1)
【文献】特開2006-059053(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
B60N 2/00-2/90
G06Q 50/10
(57)【特許請求の範囲】
【請求項1】
複数の座席が設置された空間へ進入するユーザーに対して、前記複数の座席のうちの1つの座席であって、前記ユーザーに割り当てられた前記座席を案内する座席案内装置であって、
前記空間への前記ユーザーの進入を検知する進入検知センサと、
前記空間へ進入した前記ユーザーが保持する通信可能な情報機器であって、音声を出力するスピーカを備える前記情報機器を検知し、前記ユーザーに割り当てられた前記座席を音声で案内する音声情報を前記情報機器に対して送信する制御部とを備え、
前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きの時間変化
から判断した、前記ユーザーの頭部の向きが周期的に変化しているか否かの結果に基づいて、前記音声情報を前記情報機器に対して送信するか否かを判断し、
送信すると判断した場合に、前記音声情報を前記情報機器に対して送信する
ことを特徴とする座席案内装置。
【請求項2】
前記ユーザーの前記座席への着座を検知する着座センサを更に備え、
前記進入を検知してから所定の時間が経過するまでの間に、前記着座センサが前記着座を検知していない場合に、前記制御部は、前記音声情報を前記情報機器に対して送信することを特徴とする請求項1に記載の座席案内装置。
【請求項3】
前記制御部は、
前記ユーザーが保持する通信可能な第1の情報機器及び第2の情報機器であって、前記スピーカを備える第1の情報機器と、画像を表示する表示部を備える第2の情報機器とを検出した場合、
前記第1の情報機器に対して前記音声情報を送信し、
前記スピーカから前記音声情報が出力された後に、前記ユーザーに割り当てられた前記座席を画像で案内する画像情報を前記第2の情報機器に対して送信する
ことを特徴とする請求項1又は2に記載の座席案内装置。
【請求項4】
前記進入検知センサにより前記進入を検知する前に、予め、前記複数の座席のうちの1つの前記座席が前記ユーザーに割り当てられていることを特徴とする請求項1~3の何れか一項に記載の座席案内装置。
【請求項5】
前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きと前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項1~4の何れか一項に記載の座席案内装置。
【請求項6】
前記制御部は、
前記情報機器から送信される、前記
情報機器の位置を示す
位置情報を受信し、
前記
情報機器の位置と前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項1~5の何れか一項に記載の座席案内装置。
【請求項7】
前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、
前記頭部装着部の向きを示す方向情報、及び前記情報機器の位置を示す位置情報を受信し、
前記方向情報及び前記位置情報に基づいて、前記ユーザーに割り当てられた前記座席を中心に音を発する仮想音場による前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項1~6の何れか一項に記載の座席案内装置。
【請求項8】
前記空間への前記ユーザーの進入は、車両への前記ユーザーの乗車であることを特徴とする請求項1~7の何れか一項に記載の座席案内装置。
【請求項9】
複数の座席が設置された空間へ進入するユーザーに対して、前記複数の座席のうちの1つの座席であって、前記ユーザーに割り当てられた前記座席を案内する座席案内方法であって、
前記空間への前記ユーザーの進入を検知し、
前記空間へ進入した前記ユーザーが保持する通信可能な情報機器であって、音声を出力するスピーカを備える前記情報機器を検知し、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きの時間変化から判断した、前記ユーザーの頭部の向きが周期的に変化しているか否かの結果に基づいて、前記ユーザーに割り当てられた前記座席を音声で案内する音声情報を前記情報機器に対して送信するか否かを判断し、
送信すると判断した場合に、前記音声情報を前記情報機器に対して送信する
ことを特徴とする
座席案内
方法。
【請求項10】
座席案内装置及び情報機器を備え、複数の座席が設置された空間へ進入するユーザーに対して、前記複数の座席のうちの1つの座席であって、前記ユーザーに割り当てられた前記座席を案内する座席案内
システムであって、
前記情報機器は、前記ユーザーが保持する通信可能な情報機器であって、音声を出力するスピーカを備え、
前記座席案内装置は、
前記空間への前記ユーザーの進入を検知
する進入検知センサと、
前記空間へ進入した前記ユーザーが保持する
前記情報機器を検知し、
前記ユーザーに割り当てられた前記座席を音声で案内する音声情報を前記情報機器に対して送信する制御部と、を備え、
前記制御部は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備える前記情報機器を検知した場合、
前記情報機器から送信される、前記頭部装着部の向きを示す方向情報を受信し、
前記頭部装着部の向きの時間変化
から判断した、前記ユーザーの頭部の向きが周期的に変化しているか否かの結果に基づいて、
前記音声情報を前記情報機器に対して送信するか否かを判断し、
送信すると判断した場合に、前記音声情報を前記情報機器に対して送信
し、
前記情報機器は、前記音声情報を受信した場合、スピーカから前記座席を案内する音声を出力する
ことを特徴とする座席案内
システム。
【請求項11】
前記情報機器は、加速度センサ、ジャイロセンサ、及び磁気センサを備え、前記加速度センサ、前記ジャイロセンサ、及び前記磁気センサから得られるセンサ情報を前記制御部に対して送信し、
前記制御部は、
前記センサ情報から前記情報機器の移動方向及び移動量を算出することにより、前記情報機器の位置を推定し、
前記情報機器の前記位置と前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする
請求項10記載の座席案内システム。
【請求項12】
前記情報機器は、
前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備え、
前記頭部装着部は、加速度センサ、ジャイロセンサ、及び磁気センサを備え、
前記情報機器は、前記加速度センサ、前記ジャイロセンサ、及び前記磁気センサから得られるセンサ情報を前記制御部に対して送信し、
前記制御部は、
前記センサ情報から
前記頭部装着部の向きを推定し、
前記頭部装着部の向きと前記座席の位置との関係を示す前記音声情報を前記情報機器に対して送信する
ことを特徴とする請求項
10又は11記載の座席案内システム。
【請求項13】
前記情報機器は、前記ユーザーの頭部に装着され、且つ前記スピーカを有する頭部装着部を備え、
前記頭部装着部は、加速度センサ、ジャイロセンサ、及び磁気センサを備え、
前記情報機器は、前記加速度センサ、前記ジャイロセンサ、及び前記磁気センサから得られるセンサ情報を前記制御部に対して送信し、
前記制御部は、
前記センサ情報から前記情報機器の移動方向及び移動量を算出することにより、前記情報機器の位置を推定し、
前記センサ情報から前記頭部装着部の向きを推定し、
前記情報機器の位置及び前記頭部装着部の向きに基づいて、前記ユーザーに割り当てられた前記座席を中心に音を発する仮想音場による前記音声情報を前記情報機器に対して送信
し、
前記情報機器は、前記スピーカから前記仮想音場により音声を出力する
ことを特徴とする請求項
10~12の何れか一項に記載の座席案内システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、座席案内装置、座席案内方法、及び座席案内システムに関する。
【背景技術】
【0002】
従来から、劇場やホールの入場者に対して座席の位置を表示する座席案内装置が知られている(特許文献1参照)。特許文献1では、入場券から座席番号を認識し、劇場の座席の見取図に対して当該座席番号に相当する座席の位置を強調表示して、劇場入口に設置されたCRTに表示することにより、画像を用いて座席を案内している。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、入場者が自席に向かって移動している途中で、入場者の現在位置に対する自席の相対位置をリアルタイムに反映して案内することができない。また、画像による座席案内を苦手とする入場者にとって利用し難い、という課題があった。
【0005】
本発明は、上記課題に鑑みて成されたものであり、その目的は、ユーザーに割り当てられた座席を直感的に案内することである。
【課題を解決するための手段】
【0006】
本発明の一態様に係わる座席案内装置は、複数の座席が設置された空間へ進入するユーザーに対して、ユーザーに割り当てられた座席を案内する座席案内装置であって、空間へのユーザーの進入を検知する進入検知センサと、空間へ進入したユーザーが保持する、スピーカを備える情報機器を検知し、ユーザーに割り当てられた座席を音声で案内する音声情報を情報機器に対して送信する制御部とを備える。
【発明の効果】
【0007】
本発明によれば、ユーザーに割り当てられた座席を直感的に案内することができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、第1実施形態に係る座席案内装置を含む座席案内システムの全体構成を示すブロック図である。
【
図2】
図2は、第1実施形態に係る座席案内方法を示すフローチャートである。
【
図3】
図3は、第2実施形態に係る座席案内方法を示すフローチャートである。
【発明を実施するための形態】
【0009】
図面を参照して、実施形態を説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
【0010】
(第1実施形態)
図1を参照して、第1実施形態に係る座席案内装置を含む座席案内システムの全体構成を説明する。第1実施形態に係る座席案内システムは、複数の座席14が設置された空間10へ進入するユーザーに対して、複数の座席14のうちの1つの座席14aであって、ユーザーに割り当てられた座席14aを案内するシステムである。座席案内システムは、情報機器12と、座席案内装置13とを有する。情報機器12は、座席14aを案内する際のユーザーインターフェースとして使用され、ユーザーが保持する通信可能な情報機器12であり、音声を出力するスピーカ27を備える。座席案内装置13は、情報機器12に対して、ユーザーに割り当てられた座席14aを音声で案内する音声情報を送信する。情報機器12は、音声情報を受信した場合、スピーカ27から座席14aを案内する音声を出力する。このようにして、第1実施形態に係わる座席案内システムは、ユーザーに対して、割り当てられた座席14aを音声で案内することができる。
【0011】
「複数の座席14が設置された空間10」には、複数の座席14が設けられた移動体内の空間、及び複数の座席14が設けられた施設内の空間が含まれる。「移動体」には、タクシー、バス、自家用車を含む自動車と、自動車及び電車を含む車両と、飛行機と、船とが含まれる。「施設」には、映画館、劇場、競技場等の屋外及び屋内の施設である。「空間10」は、移動体又は施設の内部に形成されている場合に限らず、空間10の一部が移動体又は施設の外部に面していても構わない。自動車は、自動運転機能を有していてもよい。例えば、本実施形態の座席案内システムは、無人で走行可能なタクシー(ロボットタクシー車両)の車内の空間10に設けられた座席14aを、ユーザー(乗客)に対して案内する。
【0012】
情報機器12には、ラップトップパソコン、タブレットPC、スマートフォン22、ウェアラブル機器等、ユーザーが保持、携帯、又は装着することができる情報通信端末が含まれる。「ウェアラブル機器」とは、ユーザーが身に付ける、即ち装着することができる電子機器であり、ウェアラブルコンピュータとも呼ばれる。ウェアラブル機器の形状は問わず、例えば、腕時計型、眼鏡型、指輪型、靴型、懐中型などの様々な形状が含まれる。更に、ウェアラブル機器には、ユーザーの頭部に装着され、且つスピーカ27を有する頭部装着部を備える機器(「ヒアラブル機器21」と呼ぶ。)が含まれる。ヒアラブル機器21には、ヘッドマウント型、ヘッドフォン型、イヤフォン型などの様々な形状が含まれる。イヤフォン型には、左右の耳に装着する1対の部材が独立しており、ブルートゥース(Bluetooth)(登録商標)等の無線通信を行う完全ワイヤレスイヤホン型、及び、1対の部材がケーブルで接続されたネックバンド型が含まれる。
【0013】
これらの情報機器12は、ジャイロセンサ24、加速度センサ25、及び磁気センサ26を備える。更に、情報機器12は、音声案内を出力するスピーカ27と、座席案内装置13との間で通信を行う通信部29と、センサ(24、25、26)、スピーカ27、マイク28及び通信部29を制御するコントローラ23とを備える。情報機器12がヒアラブル機器21である場合、頭部装着部には、ジャイロセンサ24、加速度センサ25、磁気センサ26、及びスピーカ27が搭載されている。情報機器12は、ユーザーの音声を電気信号へ変換するマイク28を更に備えていてもよい。
【0014】
図1には、情報機器12として、ヒアラブル機器21の他に、スマートフォン22を示す。即ち、ユーザーがヒアラブル機器21及びスマートフォン22の双方を保持、形態、又は装着している例を示す。スマートフォン22は、ヒアラブル機器21と同様な構成要素(23~29)のみならず、画像を表示する表示部30を更に備える。
【0015】
コントローラ23は、ジャイロセンサ24が測定した角速度を示す角速度データ、加速度センサ25が測定した加速度を示す加速度データ、及び磁気センサ26が測定した磁気を示す磁気データを取得する。コントローラ23は、座席案内装置13からのリクエストに応じて、角速度データ、加速度データ、及び磁気データを座席案内装置13へ送信する。
【0016】
座席案内装置13は、複数の座席14の各々に設けられた着座センサ41、コントローラ42及び通信部43を備える。着座センサ41は、ユーザーの座席へ着座を検知する圧力センサである。コントローラ42は、着座センサ41から受信するセンサ信号に基づいて座席へ着座を判断し、判断結果を示す信号を通信部43へ出力する。通信部43は、判断結果を示す信号を送信する。
【0017】
座席案内装置13は、空間10内に配置されたサーバユニット50を備える。サーバユニット50は、進入検知センサ52と、コントローラ51と、通信部53とを備える。進入検知センサ52は、空間10の入口11近傍に配置され、ユーザーの空間10への進入を検知する光センサである。例えば、入口11を跨いで光を射出する発光部と光を受光する受光部とを配置し、光が一時的に遮られたことによりユーザーの空間10への進入を検知する。
【0018】
コントローラ51は、進入検知センサ52から受信するセンサ信号に基づいてユーザーの空間10への進入を判断する。通信部53は、情報機器12又は座席14の各々との間で様々な信号の送受信を行う。
【0019】
コントローラ51は、情報機器12から送信される角速度データ、加速度データ、及び磁気データ(頭部装着部の向きを示す方向情報の一例)に基づいて、頭部装着部の現在の向きを推定する。
【0020】
コントローラ51は、情報機器12から送信される角速度データ、加速度データ、及び磁気データ(情報機器12の位置を示す方向情報の一例)に基づいて、情報機器12の現在の位置を推定する。
【0021】
具体的に、コントローラ51は、歩行者自律航法(Pedestrian Dead Reckoning)を用いることにより、角速度データ、加速度データ、及び磁気データから、ヒアラブル機器21又はスマートフォン22の移動方向及び移動量を推測する。コントローラ51は、移動方向及び移動量を時間で積算することにより、ヒアラブル機器21又はスマートフォン22の現在の位置及び頭部装着部の現在の向きを推定する。なお、コントローラ51は、建物等の構造物の鉄材から発生する屋内地磁気のパターンに基づいて、屋内における自己位置を求めることも出来る。
【0022】
コントローラ51は、情報機器12から送信される角速度データ、加速度データ、及び磁気データに基づいて、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成する。「座席14aを中心に音を発する仮想音場」とは、頭部装着部の向きや移動方向に関わりなく、任意の位置(座席14a)に音源を固定する「音響定位」を実現した音場である。3次元的な音の方向感や距離感を仮想的に再現する「立体音響技術」と、頭部装着部に内蔵されたジャイロセンサ24、加速度センサ25、及び磁気センサ26から得られるセンサ情報とを活用して、頭部装着部の向きや移動方向に関わりなく、音源を任意の位置に固定する「音響定位技術」を用いて実現される。これにより、ユーザーは、ヒアラブル機器21から聞こえてくる音声の距離感及び方向感から、音源の方向及び位置を知ることができるので、音声を頼りに座席14aを探すことができる。これにより、スマートフォン22の表示部30を見ながらの歩行を抑制することができる。
【0023】
なお、ヒアラブル機器21及びスマートフォン22の各通信部は、座席案内装置13の各通信部(43、53)との間で、無線LAN、ブルートゥース(Bluetooth)(登録商標)の少なくとも1つの近距離無線通信規格に基づく無線通信を行う。更に、ヒアラブル機器21の通信部29とスマートフォン22の通信部の間でも同様にして無線通信を行うことができる。或いは、ヒアラブル機器21の通信部29とスマートフォン22の通信部との間をケーブル(例えば、USBケーブル)で接続して通信を行っても構わない。
【0024】
座席に設けられた通信部43とサーバユニット50の通信部53との間で、近距離無線通信規格に基づく無線通信を行うことができる。或いは、座席に設けられた通信部43とサーバユニット50の通信部53の間をケーブル(例えば、LANケーブル)で接続して通信を行っても構わない。
【0025】
図2を参照して、
図1に示す座席案内システムの動作の一例を説明する。ここでは、ロボットタクシー車両の車内の空間10に設けられた座席14aを、ユーザー(乗客)に対して案内する場合を例に取り、説明する。
【0026】
まずステップS01において、ユーザーによる情報機器12、例えば、スマートフォン22の表示部30のタッチ操作に従い、スマートフォン22は、コントローラ51に対して座席14の予約をリクエストする。なお、ステップS01において、ユーザー及び情報機器12は、空間10の外部に居る。スマートフォン22の通信部は、通信部53に対して、座席14を予約するためのリクエスト信号を送信する。リクエスト信号には、ユーザーの個人情報を他に、希望の乗車地及び目的地を示す情報が含まれる。リクエスト信号を受信した通信部53は、リクエスト信号をコントローラ51へ転送する。コントローラ51は、リクエスト信号に基づき、座席の予約情報を確認した上で、特定の座席14aを情報機器12により識別されたユーザーに対して割り当てる。そして、コントローラ51は、割り当てた座席14aを特定する情報と共に、予約が完了したことを示す予約完了信号を、通信部53を介してスマートフォン22に送信する。予約完了信号をスマートフォン22が受信することにより、ユーザーは、座席14の予約リクエストに対して、座席14aが割り当てられたことを知ることが出来る。このように、ユーザーが配車予約を行うことにより、進入検知センサ52によりユーザーの空間10への進入を検知する前に、予め、複数の座席14のうちの1つの座席14aがユーザーに割り当てられている。
【0027】
その後、ロボットタクシー車両は希望の乗車地まで自動運転により走行し、乗車地にて停車する。ユーザーはロボットタクシー車両に乗車する際に、スマートフォン22を用いて、予約をしたユーザーであることの認証(本人認証)を行っても構わない。本人認証が完了した後に、ドアを解錠して開くように制御することが出来る。ステップS02へ進み、進入検知センサは、ロボットタクシー車両の車内の空間10へのユーザーの進入を検知する。
【0028】
その後、ステップS03へ進み、通信部53がスマートフォン22又はヒアラブル機器21との通信を試みることにより、コントローラ51は、ユーザーが保持、携帯、又は装着するスマートフォン22又はヒアラブル機器21を検知する。なお、コントローラ51は、ステップS01の予約操作で用いたスマートフォン22の識別情報を用いることにより、予約したユーザーが所持するスマートフォン22であることを判断することができる。或いは、後述する耳音響認証技術を用いて求めたユーザーの耳穴の形状から、コントローラ51は、検知したヒアラブル機器21が、予約したユーザーが所持する機器であることを認証してもよい。コントローラ51は、スマートフォン22又はヒアラブル機器21の通信部と通信部53との無線接続が確立することによって、スマートフォン22又はヒアラブル機器21を検知することができる。コントローラ51は、予め頭部装着部を備える情報機器12の識別番号を記憶するデータベースを備えており、検知した情報機器12の識別番号から、検知した情報機器12が、スピーカ27を有する頭部装着部を備えるか否かを判断することができる。
【0029】
ステップS04へ進み、コントローラ51は、ユーザーがスマートフォン22及びヒアラブル機器21の双方を保持、携帯、又は装着するか否かを判断する。具体的には、コントローラ51は、ステップS03でスマートフォン22及びヒアラブル機器21の双方を検知したか否かを判断する。スマートフォン22及びヒアラブル機器21の双方を保持、携帯、又は装着している場合(S04でYES)、ステップS05へ進み、スマートフォン22及びヒアラブル機器21の少なくとも一方を保持、携帯、又は装着していない場合、
図2に示す座席案内の処理は終了する。なお、第1実施形態では、スマートフォン22及びヒアラブル機器21の双方を有する場合の座席案内について説明する。一方、第2実施形態で、スマートフォン22及びヒアラブル機器21のいずれか一方のみを有する場合の座席案内について説明する。
【0030】
ステップS05に進み、コントローラ51は、ユーザーに割り当てられた座席14aを音声で案内する音声情報を生成し、当該音声情報をスマートフォン22及びヒアラブル機器21の少なくとも一方に送信する。スマートフォン22及びヒアラブル機器21は、音声情報を受信した場合、スピーカから座席14aを案内する音声を出力する。スマートフォン22及びヒアラブル機器21の双方から音声を出力してもよい。或いは、スマートフォン22で音声情報を受信し、スマートフォン22が当該音声情報をヒアラブル機器21へ転送し、ヒアラブル機器21がスピーカ27から音声を出力してもよい。又は、コントローラ51は、割り当てられた座席14aの通信部43を介して、当該音声情報をスマートフォン22及びヒアラブル機器21のいずれか一方にのみ送信してもよい。
【0031】
ステップS05で出力する音声案内は、簡易な音声案内である。具体的には、座席14aの位置を客観的に示す情報、例えば、各座席に付された識別番号を音声で表現する。
【0032】
ステップS06へ進み、コントローラ51は、ステップS02でユーザーの進入を検知してから所定の時間が経過するまでの間に、割り当てられた座席14aの着座センサ41が着座を検知したか否かを判断する。着座センサ41が着座を検知していない場合(S06でNO)、ユーザーは未だ着座しておらず、座席14aを探していると判断できるので、ステップS07へ進む。
【0033】
一方、着座センサ41が着座を検知した場合(S06でYES)、ユーザーは自分に割り当てられた座席14aを見つけて既に着座していると判断できる。この場合、音声案内を続ける必要がないため、
図2に示す座席案内の処理は終了する。
【0034】
ステップS07へ進み、コントローラ51は、ステップS03で検知したヒアラブル機器21の頭部装着部がユーザーの頭部に装着されているかを判断する。例えば、コントローラ51は、頭部装着部の一形態であるイヤフォンがユーザーの耳穴に装着されているか否かを判断する。
【0035】
具体的な手法として、耳穴の形状を音で識別可能な生体認証技術(「耳音響認証技術」という)を利用することができる。耳音響認証技術を利用することにより、カナル型のイヤフォン(頭部装着部の一例)を耳に装着するだけで個人認証も行える。耳音響認証技術は、個人毎に異なる耳穴の形状によって反響音が異なるという性質を利用したものである。コントローラ51は、ヒアラブル機器21から耳穴の形状を示す情報が送信された場合、頭部装着部がユーザーの耳に装着されていると判断することができる。なお、耳音響認証技術と上記したスマートフォン22による予約操作とを関連付けることによって、ユーザーの耳穴の形状(人体)、ヒアラブル機器21、及びスマートフォン22の間で互いに関連付けることができる。
【0036】
ユーザーが頭部装着部を頭部に装着していない場合(S07でNO)、ヒアラブル機器21から音声を出力しても、ユーザーに音声を伝えることができない。よって、ステップS13に進み、コントローラ51は、ユーザーに割り当てられた座席14aを画像で案内する画像情報をスマートフォン22に対して送信する。画像情報を受信したスマートフォン22は、表示部30に、ユーザーに割り当てられた座席14aを案内する画像を表示する。例えば、空間10に設置された座席14のレイアウトに対してユーザーに割り当てられた座席14aの位置をハイライトして表示する。その後、ステップS06へ戻る。
【0037】
一方、ユーザーが頭部装着部を頭部に装着している場合(S07でYES)、ステップS08に進み、コントローラ51は、ヒアラブル機器21又はスマートフォン22に対して、頭部装着部の向きを示す方向情報(角速度データ、加速度データ、及び磁気データ)をリクエストする。当該リクエストを受信したヒアラブル機器21又はスマートフォン22は、ジャイロセンサ24、加速度センサ25、及び磁気センサ26から、角速度データ、加速度データ、及び磁気データを含むセンサ情報を取得する。そして、ヒアラブル機器21又はスマートフォン22は、ヒアラブル機器21から直接又はスマートフォン22を介してセンサ情報を送信する。コントローラ51は、センサ情報を受信し、センサ情報から頭部装着部の現在の向きを推測する。センサ情報から頭部装着部の現在の向きを推測する具体的な方法は後述する。
【0038】
ステップS09へ進み、コントローラ51は、頭部装着部の向きの時間変化に基づいて、ユーザーの頭部の向きが周期的に変化しているか否かを判断する。具体的には、頭部装着部の向きの時間変化に基づいて、ユーザーが周期的に頭を左右に振っているか否かを判断する。ユーザーの頭部の向きが周期的に変化している場合(S09でYES)、ユーザーは未だ自分に割り当てられた座席14aを発見できず、周期的に頭を左右に振って座席14aを探していると判断することができる。この場合、ステップS10へ進む。
【0039】
一方、ユーザーの頭部の向きが周期的に変化していない場合(S09でNO)、ユーザーが周期的に頭を左右に振っていないと判断できる。ユーザーは座席14aを発見して移動している途中であると判断することが出来る。この場合、ステップS06に戻り、ユーザーの着座を判断する。
【0040】
ステップS10において、コントローラ51は、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成する。具体的には、まず、ジャイロセンサ24を用いて角速度を計測し、加速度センサ25を用いて加速度を計測し、及び磁気センサ26を用いて磁場を計測する。角速度データ、加速度データ、及び磁気データを含むセンサ情報は、コントローラ51へ送信される。
【0041】
このようにして、コントローラ51は、頭部装着部の向きを示す方向情報及びヒアラブル機器21又はスマートフォン22の位置を示す位置情報(センサ情報)に基づいて、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成する。
【0042】
ステップS11に進み、コントローラ51は、仮想音場による音声情報をヒアラブル機器21又はスマートフォン22へ送信する。仮想音場による音声情報を受信したスマートフォン22は、当該音声情報をヒアラブル機器21へ転送する。仮想音場による音声情報を受信したヒアラブル機器21は、スピーカ27から仮想音場により音声を出力する。
【0043】
ステップS12に進み、コントローラ51は、座席14aを中心に音を発する仮想音場により音声をスピーカ27から出力してから所定時間の間が経過するまでの間に、割り当てられた座席14aの着座センサ41が着座を検知したか否かを判断する。着座センサ41が着座を検知していない場合(S12でNO)、ユーザーは未だ座席14aに着座しておらず、座席14aを探していると判断できるので、ステップS13へ進む。
【0044】
一方、着座センサ41が着座を検知した場合(S12でYES)、ユーザーは自分に割り当てられた座席14aを見つけて既に着座していると判断できる。この場合、音声案内を続ける必要がないため、
図2に示す座席案内の処理は終了する。
【0045】
なお、ステップS11で出力される仮想音場による音声は、文言であってもよいし、文言でなくてもよい。文言である場合、頭部装着部の向きと座席14aの位置との関係を示す音声を出力してもよい。例えば、「右斜め前方に、貴方の座席14aがあります。」「左側を向いて歩いて下さい。」が挙げられる。更に、例えば、
図4に示したように、頭部装着部の位置と座席14aの位置との関係を示す音声を出力してもよい。
【0046】
更に、ステップS11で出力される音声は、仮想音場による音声でなくてもよい。つまり、音響定位技術を用いずに、通常の音声を出力してもよい。この場合、音声は特定の意味を有する文言から成る。特定の意味を有する文言は、頭部装着部の向きと座席14aの位置との関係を示す文言、或いは、頭部装着部の位置と座席14aの位置との関係を示す文言である。
【0047】
以上説明したように、第1実施形態によれば、以下の作用効果が得られる。
【0048】
コントローラ51は、複数の座席14が設置された空間10へのユーザーの進入を検知し、ユーザーが保持する情報機器12を検知し、ユーザーに割り当てられた座席14aを音声で案内する音声情報を情報機器12に対して送信する(S10)。情報機器12からユーザーに音声で座席14aを案内することができる。よって、ユーザーはこの音声を頼りに座席14aを探すことができるので、ユーザーに割り当てられた座席14aを直感的に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。
【0049】
空間10へのユーザーの進入を検知してから所定の時間が経過するまでの間に、着座センサ41がユーザーの着座を検知していない場合に、コントローラ51は、音声情報を情報機器に対して送信する(S10)。ユーザーが車内に進入してしばらくの間、着座していない場合、ユーザーは、座席14aが見つからないため座席14aの案内を求めていると推測できる。この推定されるユーザーの要望に対して、適時に音声で案内することができる。所定の時間内に着座できたユーザーに対して、無用な音声案内を行わない。音声案内が必要なユーザーにだけ音声案内を行うことができる。
【0050】
スピーカ27を備えるヒアラブル機器21(第1の情報機器)と、画像を表示する表示部30を備えるスマートフォン22(第2の情報機器)との両方を検知した場合(S04でYES)、ヒアラブル機器21に対して音声情報を送信し(S05)、スピーカ27から音声情報が出力された後に、ユーザーに割り当てられた座席14aを画像で案内する画像情報をスマートフォン22に対して送信する(S13)。音声と画像とを組み合わせて座席14aを案内することにより、音声案内又は画像案内のいずれか一方を苦手とするユーザーにも対応することができる。音声と画像との組合せにより、より明確に座席14aを案内できる。
【0051】
進入検知センサ52により空間10へのユーザーの進入を検知する前に、予め、複数の座席のうちの1つの座席14aがユーザーに割り当てられている(S01)。すなわち、事前に座席14aを予約したユーザーがロボットタクシー車両に乗車する(S02)。オンライン予約で使用した情報機器(スマートフォン22)とステップS03で検知される情報機器との同一性を判断することにより、容易に、予約したユーザーであることを認証できる。なお、事前に座席14aを予約していないユーザーに対しても、本実施形態に係わる音声案内装置及び方法を適用できる。ただし、
図2のステップS01は不要となる。
【0052】
コントローラ51は、情報機器2から送信される頭部装着部の向きを示す方向情報としてセンサ情報を受信し、頭部装着部の向きの時間変化に基づいて、音声情報を情報機器12に対して送信するか否かを判断する。具体的には、コントローラ51は、頭部装着部の向きの時間変化に基づいて、ユーザーの頭部の向きが周期的に変化しているか否かを判断する。ユーザーの頭部の向きが周期的に変化している場合(S09でYES)、ユーザーは未だ自分に割り当てられた座席14aを発見できず、周期的に頭を左右に振って座席14aを探していると判断することができる。周期的に頭を左右に振って座席14aを探しているユーザーに対して、適時に音声で案内することができる。
【0053】
コントローラ51は、情報機器12から送信される頭部装着部の向きを示す方向情報、及び情報機器12の位置を示す位置情報としてセンサ情報を受信する。そして、コントローラ51は、センサ情報(方向情報及び位置情報)に基づいて、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成し、情報機器12に対して送信する。これより、情報機器12(ヒアラブル機器21)は、スピーカ27から仮想音場により音声を出力することができる。これにより、ユーザーは、ヒアラブル機器21から聞こえてくる音声の距離感及び方向感から、音源の方向及び位置を知ることができるので、音声を頼りに座席14aを探すことができる。これにより、ユーザーに割り当てられた座席14aを直感的に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。更に、空間10内の他のユーザーへの音漏れも軽減される。よって、ヒアラブル機器21を装着する2以上のユーザーに対して、同時に、音声による座席案内を行うことができる。
【0054】
空間10へのユーザーの進入は、車両(ロボットタクシー車両)へのユーザーの乗車である。実施形態では、複数の座席14が設置された空間10の一例として、ロボットタクシー車両の車室内空間を例示した。ロボットタクシー車両に乗車したユーザーに対して、割り当てられた座席14aを直感的に案内することができる。
【0055】
第1実施形態では、座席案内装置13の制御部がコントローラ51である場合を説明した。座席案内装置13の制御部は、座席14aに設けられたコントローラ42であっても構わない。各座席に設けられたコントローラ42が、サーバユニット50及び情報機器12と通信を行い、
図2に示した一連の情報処理を実施してもよい。また、座席案内装置13のコントローラ(51、42)の代わりに、情報機器12が備えるコントローラ23が、座席案内装置13と通信を行い、
図2に示した一連の情報処理を実施してもよい。つまり、座席案内システムにおいて、空間10内に設置された座席案内装置13及び情報機器12の双方にコントローラを備えている場合、いずれのコントローラが、
図2に示した一連の情報処理を実施してもよい。
【0056】
第1実施形態において、コントローラ(23、42、51)は、CPU(中央処理装置)、RAM及びROMなどのメモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、座席案内装置の一部分として機能させるためのコンピュータプログラム(座席案内プログラム)がインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、座席案内装置が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって座席案内装置が備える複数の情報処理回路を実現する例を示す。もちろん、各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。更に、情報処理回路は、ロボットタクシー車両にかかわる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。
【0057】
(第2実施形態)
第2実施形態で、ユーザーが、スマートフォン22及びヒアラブル機器21のいずれか一方のみを保持、携帯、又は装着している場合の座席案内について説明する。スマートフォン22のみを保持などし、ヒアラブル機器21を保持などしていない場合、頭部装着部からのセンサ情報を得ることが出来ない。このため、頭部の向きの周期的な変化を検知することはできない。また、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成することもできない。第2実施形態では、頭部装着部を有する情報機器をユーザーが保持などしていない場合にも適用できる実施形態である。
【0058】
ヒアラブル機器21及びスマートフォン22を含む情報機器12の構成、座席案内装置13の構成は、第1実施形態のそれらと同じであり、説明を省略する。第2実施形態に係わる座席案内システムは、第1実施形態に比べて情報処理動作の手順及び内容に違いがある。
図3を参照して、第2実施形態に係わる座席案内方法を説明する。
【0059】
ステップS01~S03は、
図2のステップS01~S03と同じ処理である。ステップS04において、コントローラ51は、ユーザーがスマートフォン22及びヒアラブル機器21の少なくともいずれか一方を保持、携帯、又は装着しているか否かを判断する。更に、コントローラ51は、ヒアラブル機器21を検知した場合、ヒアラブル機器21の頭部装着部がユーザーの頭部に装着されているかを判断する。例えば、コントローラ51は、頭部装着部の一形態であるイヤフォンがユーザーの耳穴に装着されているか否かを判断する。
【0060】
スマートフォン22及びヒアラブル機器21の少なくともいずれか一方を保持、携帯、又は装着し、且つヒアラブル機器21の頭部装着部がユーザーの頭部に装着されている場合(S04でYES)、ステップS05へ進む。一方、スマートフォン22及びヒアラブル機器21の双方ともに保持、携帯、又は装着していない場合(S04でNO)、
図3に示す座席案内の処理は終了する。第2実施形態では、スマートフォン22だけを保持などしている場合、及びヒアラブル機器21だけを保持などし、且つヒアラブル機器21の頭部装着部がユーザーの頭部に装着されている場合の各々について説明する。第2実施形態において、情報機器12としてヒアラブル機器21だけを保持などはしているが、ヒアラブル機器21の頭部装着部がユーザーの頭部に装着されていない場合、音声で座席を案内することができない。よって、この場合、ステップS04ではNOと判断して、
図3の処理動作は終了する。
【0061】
ステップS05及び06は、
図2のステップS05及びS06と同じ処理である。着座センサ41がユーザーの着座を検知していない場合(S06でNO)、ユーザーは未だ着座しておらず、座席14aを探していると判断できるので、ステップS08へ進む。ステップS08において、コントローラ51は、ヒアラブル機器21に対して、頭部装着部の向き及び位置を示す情報(角速度データ、加速度データ、及び磁気データ)をリクエストする。或いは、コントローラ51は、スマートフォン22に対して、スマートフォン22の向き及び位置を示す情報(角速度データ、加速度データ、及び磁気データ)をリクエストする。
【0062】
当該リクエストを受信したヒアラブル機器21又はスマートフォン22は、ジャイロセンサ24、加速度センサ25、及び磁気センサ26から、角速度データ、加速度データ、及び磁気データを含むセンサ情報を取得する。そして、ヒアラブル機器21又はスマートフォン22は、センサ情報を直接、座席案内装置13へ送信する。コントローラ51は、センサ情報を受信し、センサ情報からヒアラブル機器21の頭部装着部の現在の向き及び位置を推測する。或いは、コントローラ51は、センサ情報を受信し、センサ情報からスマートフォン22の現在の向き及び位置を推測する。
【0063】
ステップS07へ進み、コントローラ51は、ステップS03で検知したヒアラブル機器21の頭部装着部がユーザーの頭部に装着されているかを判断する。具体的には、ユーザーがヒアラブル機器21を保持などし、且つヒアラブル機器21の頭部装着部がユーザーの頭部に装着されている場合(ステップ07でYES)、ステップS09へ進む。ユーザーがスマートフォン22を保持などしている場合(ステップ07でNO)、ステップS14へ進む。このように、第2実施形態におけるステップS07は、ステップS03で検知した情報機器12がヒアラブル機器21であるか、スマートフォン22であるかを判断することに相当する。
【0064】
ステップS09へ進み、コントローラ51は、頭部装着部の向きの時間変化に基づいて、ユーザーの頭部の向きが周期的に変化しているか否かを判断する。具体的には、ステップS08で推測したヒアラブル機器21の頭部装着部の向きの時間変化から、ユーザーが周期的に頭を左右に振っているか否かを判断する。ユーザーの頭部の向きが周期的に変化している場合(S09でYES)、ユーザーは未だ自分に割り当てられた座席14aを発見できず、周期的に頭を左右に振って座席14aを探していると判断することができる。この場合、ステップS10へ進む。一方、ユーザーの頭部の向きが周期的に変化していない場合(S09でNO)、ユーザーが周期的に頭を左右に振っていないと判断できる。ユーザーは座席14aを発見して移動している途中であると判断することが出来る。この場合、ステップS06に戻り、ユーザーの着座を判断する。
【0065】
図3のステップS10~S12は、
図2のステップS10~S12と同じ処理動作である。コントローラ51は、ユーザーに割り当てられた座席14aを中心に音を発する仮想音場による音声情報を生成し、ヒアラブル機器21へ送信する。仮想音場による音声情報を受信したヒアラブル機器21は、スピーカ27から仮想音場により音声を出力する。仮想音場により音声をスピーカ27から出力してから所定時間の間が経過するまでの間に、着座センサ41が着座を検知していない場合(S12でNO)、ユーザーは未だ着座しておらず、座席14aを探していると判断できるので、ステップS05へ戻る。
【0066】
一方、ユーザーがスマートフォン22を保持などしている場合(ステップ07でNO)、ステップS14に進み、コントローラ51は、ステップS08で受信したセンサ情報(スマートフォン22の位置及を示す位置情報)に基づいて、スマートフォン22の位置と座席14aの位置との関係を示す音声情報を生成する。具体的には、コントローラ51は、歩行者自律航法(Pedestrian Dead Reckoning)を用いることにより、センサ情報から空間10の入口11に進入してからのスマートフォン22の移動方向及び移動量を時間で積算することにより、スマートフォン22の現在の位置を推定する。コントローラ51は、屋内地磁気のパターンに基づいて、屋内におけるスマートフォン22の現在の位置を求めることもできる。
【0067】
ステップS14において、コントローラ51は、スマートフォン22の現在の位置と座席14aの位置との関係を示す音声情報を生成し、スマートフォン22へ送信する。例えば、
図4の例1~例4の「音声案内の文言」に示すように、スマートフォン22の現在の位置とユーザーに割り当てられた座席14aの位置との関係を示す音声情報を生成する。
図4の「ユーザーと割り当てられた座席との相対位置」とは、右側の「音声案内の文言」が出力される時のユーザーと座席との位置関係を示している。
【0068】
ステップS13へ進み、音声情報を受信したスマートフォン22は、スピーカから音声を出力する。その後、ステップS06へ戻る。
【0069】
なお、ステップS11で出力される仮想音場による音声は、文言であってもよいし、文言でなくてもよい。文言である場合、頭部装着部の向きと座席14aの位置との関係を示す音声を出力してもよい。例えば、「右斜め前方に、貴方の座席があります。」「左側を向いて歩いて下さい。」が挙げられる。更に、例えば、
図4に示したように、頭部装着部の位置と座席14aの位置との関係を示す音声を出力してもよい。
【0070】
更に、ステップS11で出力される音声は、仮想音場による音声でなくてもよい。つまり、音響定位技術を用いずに、通常の音声を出力してもよい。この場合、音声は文言から成る。文言は、頭部装着部の向きと座席14aの位置との関係を示す文言、或いは、頭部装着部の位置と座席14aの位置との関係を示す文言である。
【0071】
以上説明したように、第2実施形態によれば、以下の作用効果を得られる。
【0072】
ステップ03で、スピーカ27を有する頭部装着部を備える情報機器(ヒアラブル機器21)が検知された場合、ステップS08でセンサ情報(頭部装着部の向きを示す方向情報)を送受信する。コントローラ51は、頭部装着部の向きと座席14aの位置との関係を示す音声情報を情報機器(ヒアラブル機器21)に対して送信する。頭部装着部の向きと座席14aの位置との関係を示す音声情報として、例えば、「右斜め前方に、貴方の座席があります。」「左側を向いて歩いて下さい。」が挙げられる。これにより、ユーザーは、自分の頭部の向きとヒアラブル機器21から聞こえてくる音声とから、割り当てられた座席14aの方向を直感的に把握することができる。これにより、ユーザーに割り当てられた座席14aを直感的に案内することができる。特に、座席14aがユーザーから遠方にある場合に、先ずは、座席14aがある方角をユーザーに適切に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。ユーザーがヒアラブル機器21の頭部装着部を装着しているため(S07でYES)、ステップS11で出力される音声の音漏れが軽減される。よって、ヒアラブル機器21を装着する2以上のユーザーに対して、同時に、音声による座席案内を行うことができる。
【0073】
ステップ03で、ヒアラブル機器21又はスマートフォン22のいずれかの情報機器12が検知された場合、ステップS08でセンサ情報(情報機器12の位置を示す情報)を送受信する。コントローラ51は、情報機器12の位置と座席14aの位置との関係を示す音声情報を、情報機器(ヒアラブル機器21又はスマートフォン22)に対して送信する(S10、S14)。これにより、ヒアラブル機器21又はスマートフォン22は、情報機器12の位置と座席14aの位置との関係を示す音声をスピーカから出力することができる。よって、ユーザーはこの音声を頼りに座席14aを探すことができる。これにより、ユーザーに割り当てられた座席14aを直感的に案内することができる。また、スマートフォン22の表示部30を見ながらの歩行を抑制することもできる。ユーザーがヒアラブル機器21の頭部装着部を装着している場合(S07でYES)、ステップS11で出力される音声の音漏れが軽減される。よって、ヒアラブル機器21を装着する2以上のユーザーに対して、同時に、音声による座席案内を行うことができる。
【0074】
第2実施形態では、座席案内装置13の制御部がコントローラ51である場合を説明した。座席案内装置13の制御部は、座席14aに設けられたコントローラ42であっても構わない。各座席に設けられたコントローラ42が、サーバユニット50及び情報機器12と通信を行い、
図3に示した一連の情報処理を実施してもよい。また、座席案内装置13のコントローラ(51、42)の代わりに、情報機器12が備えるコントローラ23が、座席案内装置13と通信を行い、
図3に示した一連の情報処理を実施してもよい。つまり、座席案内システムにおいて、空間10内に設置された座席案内装置13及び情報機器12の双方にコントローラを備えている場合、いずれのコントローラが、
図3に示した一連の情報処理を実施してもよい。
【0075】
なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは言うまでもない。
【符号の説明】
【0076】
10 空間
12 情報機器
14 複数の座席
14a ユーザーに割り当てられた座席
21 ヒアラブル機器(第1の情報機器)
22 スマートフォン(第2の情報機器)
23、42、51 コントローラ(制御部)
25 加速度センサ
24 ジャイロセンサ
26 磁気センサ
27 スピーカ
30 表示部
41 着座センサ
52 進入検知センサ