【解決手段】地図又はルート案内用画像を使って、観光スポットを案内する拡張現実画面をユーザ端末に表示させる時空間情報AR提示を行うものである。ここで、予め、観光スポットについての特定時期の観光スポット案内画像を蓄積する。そして、ユーザ端末が拡張現実画面を表示する際に、地図又はルート案内用画像に基づいて、ユーザ端末の現在位置からの拡張現実画面を表示する。この拡張現実画面の表示をユーザ端末が行う際に、蓄積された特定時期の観光スポット案内画像を取得して、拡張現実画面に重畳表示するようにした。
前記特定時期は、該当する観光スポットで、特定の景色が見られる時期又は特定のイベントが開催される時期であり、その特定の景色又は特定のイベントを示す画像を、特定時期の観光スポット案内画像とした
請求項1に記載の時空間情報ARシステム。
さらに、前記ユーザ端末の前記カメラが撮影した画像の特徴量から、特定の観光スポットを検出したとき、その検出した観光スポットについての、前記特定時期の観光スポット案内画像を、前記サーバから前記ユーザ端末が取得し、
取得した前記特定時期の観光スポット案内画像を表示する
請求項1〜3のいずれか1項に記載の時空間情報ARシステム。
【発明を実施するための形態】
【0013】
以下、本発明の一実施の形態例(以下、「本例」と称する)を説明する。
[1.システム構成例]
図1は、本例の時空間情報ARシステム全体の構成を示す。本例の時空間情報ARシステムは、ユーザ端末2,3,4を利用しているユーザに対して、AR(拡張現実)を使った時空間情報を提示して、観光コースや観光スポットなどの観光ガイドを行うものである。ここで、本例のシステムで提示するARには、位置情報型ARと物体認識型ARの2種類がある。それぞれのARの具体例については後述する。
【0014】
図1に示す構成について説明すると、本例の時空間情報提示システムは、ネットワーク1に接続されたサーバ10を備える。サーバ10は、ネットワーク1を介してユーザ端末2,3,4からアクセスされる。ユーザ端末2,3,4は、ネットワーク1を介した通信が可能で、地図やテキスト画面などの表示を行う様々な形態の端末が適用可能である。
図1に示す例では、パーソナルコンピュータ装置で構成されるユーザ端末2と、携帯情報端末(スマートフォン,タブレット端末など)で構成されるユーザ端末3と、ウェラブル端末で構成されるユーザ端末4を示す。
【0015】
サーバ10は、コンピュータ装置で構成され、中央制御ユニット(CPU)11、ROM12、RAM13、不揮発性ストレージ14、ネットワークインタフェース15、入力装置16、及び表示装置17を備える。これらのサーバ10の各構成要素は、バスライン18でデータ転送可能に接続される。
【0016】
システム全体の制御部として機能するCPU11は、本例の時空間情報ARシステムが備える各機能を実現するソフトウェアをROM12から読み出して実行する。RAM13には、演算処理の途中に発生した変数やパラメータ等が一時的に書き込まれる。したがって、CPU11とROM12とRAM13とで、ARを利用した時空間情報をユーザに提示するための演算処理部として機能する。
【0017】
不揮発性ストレージ14としては、例えば、HDD(Hard disk drive)、SSD(Solid State Drive)、不揮発性のメモリ等が用いられる。この不揮発性ストレージ14には、OS(Operating System)、各種のパラメータの他に、コンピュータ装置(サーバ10)を時空間情報ARシステムとして機能させるためのプログラムが記録されている。
また、後述するように、不揮発性ストレージ14には、地図データベース20、地理・歴史データベース30、及び地理内画像表示用データベース40が格納されている。
【0018】
ネットワークインタフェース15には、例えば、NIC(Network Interface Card)等が用いられ、ネットワーク1との通信が行われる。
また、入力装置16や表示装置17は、地図データベース20、地理・歴史データベース30、及び地理内画像表示用データベース40を構成するデータの確認などに使用される。
【0019】
以下、地図データベース20、地理・歴史データベース30、及び地理内画像表示用データベース40について順に説明する。
地図データベース20には、予め決められた範囲(観光ガイドを行う範囲)の地図データが記憶される。本例の場合には、現代の地図データが記憶されるが、過去の特定の時代の地図データを記憶してもよい。また、地図データを俯瞰図として表示する際には、現代又は過去の特定の時代の景観を再現する景観再現3Dデータ21や、景観などの視覚化を行うためのデータ22が含まれる。これらの地図データベース20を使って、ユーザに観光ガイドを行う。
【0020】
地理・歴史データベース30には、地理をテキストや画像で案内する地理案内データや、歴史をテキストや画像で案内する歴史案内データが記憶される。また、地理及び歴史についても問題が用意された地理・歴史確認テストのデータ31や、ユーザからのコメント投稿のデータ32や、本例のシステムを利用するユーザの登録情報であるユーザ情報33などが、地理・歴史データベース30に記憶される。
【0021】
地図内画像表示用データベース40には、地図の内部などに配置される映像データ(動画像データ)41や画像データ(静止画像データ)42が記憶される。また、動画像や静止画像を3Dモデルとして表示するための3Dモデルデータ43も記憶される。
映像データ41や画像データ42には、観光スポットなどを示す静止画像や動画像が含まれる。これらの映像データ41や画像データ42は、観光ガイドを実行する事業者が用意する場合と、ユーザから投稿された静止画像や動画像を利用する場合とがある。
なお、地図内画像表示用データベース40が格納する3Dモデルデータ43などの一部のデータは、物体認識型ARで物体認識を行うための比較データとして利用される。
【0022】
[2.ユーザ端末の構成例]
図2は、スマートフォンやタブレット端末で構成されるユーザ端末3の構成を示す。
ユーザ端末3は、中央制御ユニット(CPU)51、ROM52、RAM53、通信部54、表示部55、入力部56、カメラ57、測位部58、および方位センサ59を備える。これらのユーザ端末3の各構成要素は、バスライン60でデータ転送可能に接続される。
【0023】
ユーザ端末全体の制御部として機能するCPU51は、本例の時空間情報ARシステムを実行する上で必要な各機能を実現するソフトウェア(アプリケーションプログラム)をROM52から読み出して実行する処理部である。RAM53には、演算処理の途中に発生した変数やパラメータ等が一時的に書き込まれる。したがって、CPU51とROM52とRAM53とで、ARによる時空間情報を、表示部55に提示するための演算処理部として機能する。
【0024】
通信部54は、ネットワーク1を介してサーバ10等と通信を行い、サーバ10にアクセスして必要な情報のやり取りを行う。
表示部55は、例えば液晶ディスプレイや有機ELディスプレイが適用され、ユーザに提示する様々な情報を表示する。AR技術を使って時空間情報を表示する際にも、この表示部55が使用される。
【0025】
入力部56は、表示部55に配置されたタッチパネルや、端末の筐体に配置された操作キーが使用され、ユーザの操作で各種選択が行われる。
カメラ57は、端末の筐体に配置される。カメラ57は、表示部55が配置された面とは反対側に配置される。したがって、例えばユーザ端末3をユーザが手で持って、表示部55に向き合って、表示された画像を見ている状態のとき、表示部55の反対側に配置されたカメラ57が、ユーザの前方を撮影する。
【0026】
測位部58は、例えばGPS(Global Positioning System)と称される測位システム用の衛星信号を受信して、ユーザ端末3の現在位置を検出する測位処理を行う。測位部58がGPSなどの衛星信号を利用するのは一例であり、例えば無線LANの信号を受信して、衛星信号を受信できない状況で位置の測位を行うようにしてもよい。
方位センサ59は、ユーザ端末3の方位(表示部55やカメラ57が向いている方位)を検出する。
【0027】
このように構成したユーザ端末3では、測位部58が測位した現在位置と、方位センサ59が検出した端末の方位に基づいて、表示部55がARによる時空間情報の提示を行い、観光ガイドを行う。位置や方位を利用するのは、位置情報型ARの場合であり、物体認識型ARの場合には、カメラ57が撮影した画像を利用して、提示する時空間情報が選択される。
ユーザ端末3の表示部55が時空間情報を提示する際には、サーバ10から地図データや画像データをユーザ端末3が取得する。但し、ユーザに提示するデータを全てサーバ10が保存して、必要な情報をユーザ端末3に送信するのは一例であり、観光ガイドに必要な地図データや画像データの一部又は全部を、ユーザ端末2,3,4が予めサーバ10などからダウンロードして保持してもよい。
【0028】
[3.サーバでの画像保存処理例]
図3は、サーバ10での画像保存処理の流れを示すフローチャートである。
先に説明したように、サーバ10の地図内画像表示用データベース40には、観光スポットなどを示す静止画像や動画像が保存される。
図3のフローチャートは、この観光スポットなどを示す画像のサーバ10を使用したシステムの管理者(作業実行者)による保存処理を示す。
【0029】
サーバ10は、ユーザに案内したい観光スポットのそれぞれを、地図中の対応位置にマーカーとして登録してある。ここでは、あるエリア内の観光スポットについての画像保存処理を行うものとする。
そして、サーバ10では、エリア内の画像登録を行うマーカーを1つ選択する(ステップS11)。ここで、選択したマーカーに既に画像の登録があるか否かを判断する(ステップS12)。このステップS12での判断で、既に画像の登録がある場合(ステップS12のYes)、ステップS11の処理に戻り、別のマーカーの選択に移る。
【0030】
また、ステップS12での判断で、画像の登録がない場合(ステップS12のNo)、作業実行者は、そのマーカーに対応した観光スポットについて、ウェブ上での公式サイトなどに、適切な画像があるか否かを判断する(ステップS13)。
また、ステップS13の判断で、適切な画像がないと判断したとき(ステップS13のNo)、作業実行者は、該当するマーカーに対応した観光スポットについての適切なユーザ投稿画像があるか否かを判断する(ステップS14)。ここでのユーザ投稿画像は、システムが備えるサーバ10に直接投稿された画像から検索する他に、他の画像投稿システムから検索してもよい。
【0031】
ステップS13の判断で、適切な画像がある場合(ステップS13のYes)、及びステップS14の判断で、適切なユーザ投稿画像がある場合(ステップS14のYes)、作業実行者は、該当する画像を、マーカーに対応した画像として、地図内画像表示用データベース40に保存する(ステップS15)。なお、保存時には、後述する種別の情報を画像データに付加する。
【0032】
そして、ステップS15で画像を保存した後、及びステップS14で適切なユーザ投稿画像がないと判断したとき(ステップS15のNo)、作業中のエリア内の全てのマーカーについての処理が終了したか否かを判断する(ステップS16)。この判断は、例えばサーバ10のCPU11が行う。
このステップS16の判断で、エリア内の全てのマーカーについての処理が終了したと判断したとき(ステップS16のYes)、サーバ10は画像保存処理を終了する。
また、ステップS16の判断で、未処理のマーカーがあると判断したとき(ステップS16のNo)、サーバ10は、ステップS11のマーカー選択処理に戻る。
【0033】
このようにして、観光ガイドを行うエリア内の観光スポットについて、予め画像を保存しておく。
画像を保存する際に、それぞれの画像に種別を付与する。
【0034】
図4は、サーバ10の地図内画像表示用データベース40が保存する画像に付加される情報の例を示す。
ここでは、マーカー番号として、NO.1,NO.2,NO.3の3つの観光スポットを示す。それぞれのマーカー番号ごとに、対応した観光スポットの座標位置の情報を持つ(不図示)。
そして、
図4に示すように、マーカー番号ごとの画像として、代表画像と、季節毎の画像(春画像、夏画像、秋画像、冬画像)と、イベント時画像とを保存する領域を確保する。この
図4に示す情報では、地図内画像表示用データベース40が保存した画像の識別番号の情報が格納される。
【0035】
代表画像は、その観光スポットをガイドするのに最も適した特定時期の画像とする。例えば、桜などの花の名所の観光スポットの画像のとき、代表画像として、花が咲いている時期の画像を代表画像とする。あるいは、祭りなどのイベントが有名な神社仏閣の場合、代表画像として、そのイベントが開催中の時期の画像を代表画像とする。これらの特定時期の代表画像は、季節毎の画像やイベント時画像と重複してもよい。あるいは、代表画像を、季節毎の画像やイベント時画像とは別に用意してもよい。場合によっては、特定時期の代表画像のみを用意する観光スポットとしてもよい。
【0036】
季節毎の画像については、その観光スポットでの各季節に撮影された画像とする。季節毎の画像は、全ての季節の画像を保存してもよいが、全ての季節の画像を保存する必要はない。
イベント時画像については、その観光スポットで特定日(特定時期)に例年開催されるイベントの様子の画像とする。イベント時画像についても、存在しない場合には保存する必要はない。
【0037】
このように、
図3のフローチャートに従ってマーカーに対応した画像を保存する上で、それぞれの画像に、代表画像、季節毎の画像、イベント時画像などの種別を登録する。
なお、
図4の表では、マーカー毎に登録される画像の種別を示すが、マーカーに対応した観光スポットについての、その他の情報を、各マーカーや画像に登録してもよい。例えば、各画像についての説明文、名称、ユーザコメントなどの情報を登録してもよい。これらの説明文、名称、ユーザコメントなどの情報は、地理・歴史データベース30が格納する。
【0038】
[4.ユーザ端末での表示処理例]
図5のフローチャートは、ARを利用した時空間情報の表示をユーザ端末3が行う際に、時空間情報画像に加えてサーバ10が保存した画像を表示する処理の流れを示す。
ここでは、ユーザ端末3は、サーバ10が観光案内サービスを行うエリア内でのユーザの街歩きに利用されているものとする。
まず、ユーザ端末3のCPU51は、測位部58および方位センサ59から現在のユーザ端末3の位置情報と方位情報を取得する(ステップS21)。そして、ユーザ端末3は、メニュー選択画面を使ったユーザ操作で、観光スポットまでの距離などの案内する条件の選択を行う(ステップS22)。なお、メニュー選択が事前に行われている場合には、このステップS22でのメニュー選択処理を省略する。
【0039】
次に、ユーザ端末3のCPU51は、ステップS22でのメニュー選択で、物体認識型ARが選択されたか否かを判断する(ステップS23)。このステップS23での判断で、物体認識型ARが選択されていない場合、つまり位置情報型ARの場合(ステップS23のNo)、CPU51は、現在位置を中心として、ユーザ端末3の筐体が向いている方位角の方向で、設定された距離以内を対象範囲とし、対象範囲内のマーカーデータをサーバ10から取得する(ステップS24)。ここでのマーカーデータには、そのマーカーデータに紐付けられた画像データや説明のデータが含まれる。但し、画像データについては、
図4に示す各マーカーに対応した画像の内の代表画像のデータのみでよい。メニュー選択で代表画像以外の画像についても表示を行う設定の場合には、マーカーデータに紐付けられたその他の画像(季節毎の画像やイベント時画像)を取得する。
【0040】
そして、ユーザ端末3のCPU51は、ユーザ端末3の現在位置と方位角に応じて、位置情報型ARとして表示部55が行っている画像内に存在するマーカーの箇所に、マーカーを示す文字又はアイコンの表示処理を行う(ステップS25)。ここでの文字又はアイコンの表示例については後述する。
【0041】
その後、ユーザ端末3のCPU51は、ユーザによる画面上の文字又はアイコンのタップがあるか否かを判断する(ステップS26)。このステップS26の判断で、タップがある場合には(ステップS26のYes)、ユーザ端末3のCPU51は、表示部55が表示中のマーカーを示す文字又はアイコンの箇所に、その文字又はアイコンの代わりに、マーカーに付随する画像(代表画像)を表示させる(ステップS27)。
なお、このように画像を表示した状態で、ユーザ端末3の位置や方位角が変化して、画像で示される観光スポットが表示範囲から外れた場合、ユーザ端末3のCPU51は、ステップS21の処理(又はステップS24の処理)に戻る。
【0042】
また、ステップS26の判断で、タップがある場合には(ステップS26のNo)、ユーザ端末3のCPU51は、ステップS24の処理に戻る。
【0043】
そして、ステップS23での判断で、物体認識型ARが選択された場合(ステップS23のYes)、CPU51は、カメラ57が撮影した画像に含まれる物体の認識処理を行う(ステップS31)。そして、CPU51は、ステップS31で認識した物体のデータ(物体の特徴を示すデータ)を、サーバ10に送り、サーバ10側でその物体のデータと一致する画像データが格納されているとき、該当する画像データをサーバ10から取得する(ステップS32)。ここでの認識を行う物体は観光スポットに設置された物体についてのデータであり、その認識に基づいて取得する画像データは、いずれかの観光スポットを示す画像データである。
【0044】
ステップS32で画像データを取得したとき、ユーザ端末3のCPU51は、サーバ10から取得した画像を表示部55に表示させる(ステップS33)。
【0045】
[5.ユーザ端末でのメニュー選択例]
図6は、
図5のフローチャートのステップS22での、ユーザ操作によるメニュー選択時の判断処理の詳細を示す。
まず、ユーザ端末3のCPU51は、物体認識型ARが選択されたか否かを判断する(ステップS221)。ここで、物体認識型ARが選択された場合には(ステップS221のYes)、物体認識型ARの処理を行う動作モードに設定する(ステップS222)。物体認識型ARの処理を行う動作モードでは、
図5のフローチャートのステップS31〜S33での処理が行われる。
【0046】
そして、ステップS221の判断で、物体認識型ARでない選択の場合(つまり位置情報型ARの場合)には(ステップS221のNo)、ユーザ端末3のCPU51は、位置情報型ARでの時空間情報の提示の詳細設定に移り、最初に観光コースが指定されたか否かの判断を行う(ステップS223)。ここでの観光コースは、観光案内を行うエリア内で、予め街歩きを行うコースをサーバ10側で設定したものである。
ステップS223の判断で、観光コースが指定されたとき(ステップS223のYes)、ユーザ端末3のCPU51は、位置情報型ARで、指定されたコースのガイドを開始する(ステップS224)。
【0047】
そして、ステップS223の判断で、観光コースの指定がない場合(ステップS223のNo)と、ステップS224で観光コースのガイドを開始した場合には、続いてユーザ端末3のCPU51は、表示範囲の設定があるか否かを判断する(ステップS225)。
このステップS225での判断で、表示範囲の設定がある場合(ステップS225のYes)、ユーザ端末3のCPU51は、マーカー表示を行う観光スポットを、現在位置から設定された距離以内のマーカーに制限する(ステップS226)。
【0048】
さらに、ステップS225の判断で、表示範囲の設定がない場合(ステップS225のNo)と、ステップS226で距離制限を行った場合には、ユーザ端末3のCPU51は、周辺施設のピクトグラム表示についての設定があるか否かを判断する(ステップS227)。
このステップS227での判断で、ピクトグラム表示についての設定がある場合(ステップS227のYes)、ユーザ端末3のCPU51は、位置情報型ARで画面内に表示するピクトグラムの種類の選択画面(ピクトグラムで表示される周辺施設の種類の選択画面)を表示し、ピクトグラム表示についての選択を実行させる(ステップS228)。
【0049】
さらにまた、ステップS227の判断で、ピクトグラム表示についての設定がないと判断した場合(ステップS227のNo)と、ステップS228でピクトグラム表示種類の設定を行った場合には、ユーザ端末3のCPU51は、マーカーに対応した画像の種類の選択があるか否かを判断する(ステップS229)。
このステップS229での判断で、マーカーに対応した画像の種類の選択がある場合(ステップS229のYes)、ユーザ端末3のCPU51は、表示画像をユーザ操作で選択された種類の画像とするモードに設定する(ステップS230)。
【0050】
そして、このステップS229での判断で、マーカーに対応した画像の種類の選択がない場合(ステップS229のNo)と、ステップS230で画像の種類の設定を行った後、ユーザ端末3のCPU51は、メニュー選択に基づいた処理を終了する。
なお、この
図6のフローチャートに示す処理順序は一例を示したものであり、その他の順序でメニュー選択時の処理を行うようにしてもよい。
【0051】
次に、ユーザが画面上でのタップ操作でメニュー選択を行う具体例について、
図7〜
図10を参照して説明する。
図7は、ユーザ端末3の表示部55が、メニュー画面を最初に表示した例である。
図7の右側の空白の欄は、カメラ57が撮影した画像などの現在実行中の画像が表示される領域である。
図8〜
図10の例の場合も、右側の空白の欄は同様である。
【0052】
図7の左側には、メニューとして、観光コースの選択欄、ピクトグラムの選択欄、表示範囲の指定欄、物体認識型ARの選択欄、アンケートの欄、ログアウトの欄が順に表示される。
それぞれの欄がユーザ操作でタップされることで、それぞれの項目についての設定が行われる。
【0053】
図8は、観光コースの選択欄がタッチされたときに遷移する画面の例を示す。
ここでは、「近藤勇と緑地コース」、「深大寺周辺コース」、「映画のまち調布コース」、「仙川芸術と文化コース」の4つを用意し、画面の左側にそれぞれのコースの選択欄を用意する。ユーザは、この4つのコースの内で、歩いてみたいコースの表示箇所をタップすることで、該当するコースが選択される。
【0054】
図9は、表示範囲の設定時の画面の例である。
ここでは、画面上に距離を選択するスライドバーを画面の左側に表示し、そのスライドバーを動かすタップ操作で、距離を変更する。
図9の例では、距離として1.55Kmとした例を示し、その距離内で、同時に表示可能な最大の観光スポットの数についても、距離の変化に連動して変化する。
なお、距離と、同時に表示可能な最大の観光スポットの数は、それぞれ個別に調整可能としてもよい。
【0055】
図10は、ピクトグラムの選択画面の例を示す。
ここでは、ピクトグラムとして画面中に表示可能な観光スポットや施設の一覧が表示され、ユーザは、タップ操作で、表示したい周辺施設をチェックする。
図10の例では、表示可能な周辺施設の一覧として、駅、コンビニエンスストア、公衆トイレ、宿泊施設、飲食店、駐車場、交番、バスターミナル、及びレンタカー会社を示す。
【0056】
これらの周辺施設の内で、位置情報型ARの提示時に、同時に表示されるピクトグラムがユーザ操作で選択される。例えば
図10の例では、駅にチェックを入れてあり、地図や位置情報型ARでの案内表示時に、表示範囲に存在する駅が、ピクトグラムで表示されるようになる。
【0057】
[6.ユーザ端末でのアプリケーションの実行例]
図11のフローチャートは、ユーザ端末3が、本例の時空間情報ARシステムのアプリケーションプログラムを実行する際の、アプリケーションプログラムでの実行手順の例を示す。
まず、ユーザ端末3のCPU51が、時空間情報ARシステムのアプリケーションプログラムを起動すると(ステップA11)、位置情報のファイルの読み込みに移る(ステップA12)。位置情報のファイルには、表示するマーカーの位置情報が収められている。
【0058】
そして、ユーザ端末3のCPU51が、現在位置と方位で表示された画像(3D表示の地図表示画像やカメラ57が撮影したユーザ端末3の前方の画像)に、観光スポットを案内する画像の配置処理を行い、配置された画像を表示部55に表示させる(ステップA13)。この表示で、そのときのユーザ端末3の位置や方位に応じた、位置情報型ARによる時空間情報の提供が行われる。
【0059】
この表示時には、メニュー選択などのユーザ操作による設定(ステップA14)が行われることで、設定された内容がステップA13での表示に反映される。ステップA14での設定としては、例えば観光コースの切り替え(ステップA141)、ピクトグラムの追加・変更(ステップA142)、表示範囲(距離)の指定(ステップA143)、画像の再読み込み(ステップA144)などが行われる。
【0060】
また、ステップA13での位置情報型ARによる表示が行われた状態で、物体認識型ARへの切り替え操作があった場合には、物体認識型ARの画面に遷移する(ステップA15)。この物体認識型ARの画面では、ユーザ端末3が備えるカメラ57が撮影した画像の表示処理が行われる。そして、撮影画像内の物体の特徴量のファイルの読み込み処理が行われ(ステップA16)、認識対象となった物体の画像の周辺に、物体の特徴量から検出された画像が表示される(ステップA17)。また、認識対象の観光スポットについての説明が表示される(ステップA18)。
【0061】
その後、位置情報型ARへの切り替え操作があると、位置情報型ARの画面に遷移し(ステップA19)、ステップA13でのユーザ端末3の位置や方位に応じた、位置情報型ARによる時空間情報の提供に戻る。
【0062】
図12は、ユーザ端末3での位置情報型ARでの表示中に行われる表示の更新処理の例を示す。
まず、位置情報型ARで表示を行うアプリケーションプログラムが起動し(ステップA21)、そのアプリケーションプログラムの実行で(ステップA20)、表示画面が作成される。
ステップA20での表示画面が作成処理としては、位置情報をまとめたファイルをもとに、その位置に画像を配置する(ステップA22)。ここで配置する画像としては、観光スポットを表すマーカー、周辺施設を表すピクトグラム、観光コースの順路を示す矢印などがある。
【0063】
そして、ユーザ端末3の現在位置や方位の更新により(ステップA24)、ユーザ端末3での表示が更新される(ステップA23)。具体的には、測位部58でのGPS機能による測位で得た現在位置と方位センサ59で得た方位角に応じて、観光コース上に配置したマーカー、ピクトグラム、矢印の画像までの距離が更新される(ステップA31)。また、更新された距離の情報に基づいて、マーカーの画面内の高度の変更、ピクトグラムの距離が短い順での並び替え、矢印表示を行う際の、コースから一定の範囲内にユーザ端末3が入ったことの表示等が行われる(ステップA32)。
【0064】
また、メニュー選択などに基づいて、観光コースの変更と、ピクトグラム表示を行う内容の変更があったとき(ステップA25)、これらの変更に基づいた表示の変更が行われる(ステップA26)。具体的には、観光コースの変更が行われた場合、変更後の観光コースのマーカー表示に切り替わる。また、ピクトグラムの変更が行われた場合、新たに選択されたピクトグラムのみの表示に切り替わる。
【0065】
ここで、位置情報型ARでの表示例を、
図13〜
図15に示す。
図13は、ユーザ端末3のカメラ57が撮影したリアルタイムの画像を、表示部55が表示した上に、その画像で示す現在位置から見た各観光スポットのマーカーを重畳表示して、観光スポットを実画像上でガイドするAR表示を行った例を示す。この
図13に示すように、画像内の左上には、方位センサ59が検出した方位の情報が表示される。
【0066】
観光スポットを示すマーカー表示としては、マーカーを示す四角形の枠内に、文字で観光スポット名を表示すると共に、その観光スポットの説明文を表示する。マーカーを示す四角形の枠は、予め設定された色で表示する。
図13の例では、観光スポット名や説明文は、四角形の枠内に収まるように、先頭の数文字だけを表示する。
【0067】
各マーカーを示す四角形の枠が画像内に配置される位置は、マーカーに対応した観光スポットが存在する方位に対応している。ここで、
図13に示すように、現在位置からの距離が近い程、マーカーを示す四角形の枠が配置される画面内の高さを低い位置とし、枠のサイズについても大きくする。したがって、マーカーを示す四角形の枠が画面内の上方に配置され、その表示サイズも小さい場合には、現在位置からの距離が遠いことを示す。
なお、マーカーを示す四角形の枠が重なって表示される場合には、距離が近い方の枠(つまり大きいサイズの枠)を手前に表示し、距離が遠い方の枠の重なった箇所を隠すようにする。
【0068】
図14は、現在位置から見た各観光スポットのマーカーとピクトグラムを重畳してAR表示した例を示す。この
図14の例の場合にも、ユーザ端末3のカメラ57が撮影したリアルタイムの画像の上に重畳表示した例である。
図14の例の場合にも、現在位置と方位に基づいて、各観光スポットのマーカーを示す枠が表示され、観光スポットまでの距離に応じて、マーカーを示す枠の表示高さが変化している。
そして、
図14の例の場合には、飲食店のピクトグラムと、駐車場のピクトグラムの表示を行うようにしてあり、飲食店と駐車場が存在する方位に、それぞれのピクトグラムが表示されている。このピクトグラムについても、マーカー表示と同様に、該当施設までの距離に応じて、画面内での表示高さと、表示サイズが設定される。
【0069】
図15は、観光コースを示す矢印の画像を重畳表示してAR表示した例を示す。
図15の例では、交差点において、右折することを示す右側の矢印を表示している。この矢印により、予め決められた観光スポットを巡る観光コースを歩くことができる。
また、
図15の例の場合にも、
を、表示部55が表示した上に、その画像で示す各観光スポットのマーカーとピクトグラムを表示するようにしている。
但し、観光コースを示す矢印は、最も手前に表示され、各観光スポットのマーカーとピクトグラムは、矢印と重なる表示位置のとき、矢印の後側に隠れるようにして、観光コースのガイドを優先させている。
【0070】
なお、
図13〜
図15に示す各観光スポットのマーカーが表示された箇所が、ユーザ操作によるタップで選択された場合、その観光スポットを示す代表画像が表示される。代表画像は、
図4で説明した処理で、各マーカーに対応して予めサーバ10に登録された画像である。このマーカーが選択された場合の表示例については後述する(
図18)。
【0071】
図16は、ユーザ端末3での物体認識型ARでの表示中に行われる表示の更新処理の例を示す。
まず、ユーザは、ユーザ端末3のカメラ57を、観光スポットにかざして、撮影を行う(ステップA41)。ここでの観光スポットを撮影する行為には、実際に観光スポットの箇所で撮影する場合と、観光ガイドなどの印刷物やウェブページの表示画面を、カメラ57で撮影する場合も含まれる。
【0072】
このようにしてカメラ57が撮影した画像が、物体認識型ARの処理を行うアプリケーションプログラムに取り込まれ、認識処理が実行される(ステップA40)。具体的には、ターゲットマネージャに登録した観光スポットの特徴量を表したファイルを読み込む(ステップA43)と共に、カメラ57で撮影した画像が解析される(ステップA44)。
【0073】
そして、特徴量と合致する物体がカメラ57で撮影された場合、その場所を中心に設定し(ステップA46)、認識された対象を中心に画像を中心に配置する(ステップA47)。また、画像をユーザがタップ操作したとき、その画像で示される観光スポットの説明文などが記載されたポップアップが表示される(ステップA48)。
【0074】
なお、認識対象が変更された場合(ステップA42)、別のスポットの特徴量を表したファイルを読み込み(ステップA45)、変更後の認識対象についての認識処理を実行する。
なお、この物体認識型ARの処理での認識処理は、サーバ10で実行するが、ユーザ端末3で行うようにしてもよい。
【0075】
図17は、ユーザ端末3の表示部55での、物体認識型ARの表示例を示す。
この例では、観光スポットに存在する物体(記念碑)が含まれる画像をカメラ57で撮影し、その記念碑が物体認識で検出された例を示す。
図17の例では、物体認識で検出された観光スポットの名称「マラソン折り返し記念碑」が表示される。また、その記念碑が設置された公園の代表画像(桜が咲いた時期の画像など)が、撮影画像中に重畳表示されている。
さらに、画像中の「詳細」の箇所をタップ操作することで、「マラソン折り返し記念碑」の詳細な説明を、画面中に表示させることができる。
【0076】
図18の表示例は、
図14に示す位置情報型ARでの表示を行っている状態で、その画面中の特定のマーカーをユーザがタップ操作したときの例を示す。
ここでは、
図14に示す位置情報型ARでの表示中の「国立天文・・・」と表示されたマーカーをタップした例を示す。
この「国立天文・・・」のマーカーは、観光スポット「国立天文台」を示し、「国立天文台」の代表画像が、
図18に示すように、画面内の任意の箇所に表示される。
【0077】
なお、観光スポット「国立天文台」について、サーバ10側に代表画像以外の他の画像(季節ごとの画像やイベント画像など)の登録がある場合には、ユーザ操作(代表画像のタップ操作など)によって、代表画像を他の画像に切り替えるようにしてもよい。
あるいは、一定時間ごとに、同じ観光スポットについての別の画像に切り替えるようにしてもよい。
【0078】
以上説明したように、本例の時空間情報ARシステムによると、AR画面を使って、ユーザ端末の周囲に存在する観光スポットを案内する際に、例えば、該当する観光スポットを案内するのに最も適した特定の景色が見られる時期の画像や、特定のイベントが開催される時期の画像などの代表画像を使って案内ができるようになる。したがって、その観光スポットをガイドする上で、最も宣伝効果が高い観光スポットの画像でガイドできるようになり、ユーザ端末を利用して街歩きなどを行うユーザへの観光スポットの宣伝効果を高めることができる。
【0079】
また、物体認識型ARによる撮影した物体の認識処理を行うことで、実際に訪れた観光スポットの案内ができると共に、観光パンフレットや観光案内を行うウェブページを撮影して物体認識を行うことでも同様の観光スポットの案内ができるようになる。この物体認識型ARを行う際にも、認識した観光スポットについての特定時期の代表画像が表示され、該当する観光スポットを使った効果的な案内ができるようになる。
【0080】
なお、
図13〜
図15に示す画面の例では、ユーザ端末3が備えるカメラ57が撮影したリアルタイム画像を表示部55が表示した上で、そのリアルタイム画像内で案内用画像のAR表示を行う例を示した。このようなリアルタイム画像を使ったAR表示を行うのは一例であり、その他の画像表示を行った上に、特定時期の案内用画像のAR表示を行うようにしてもよい。
例えば、立体地図(3D地図)によって、現在位置と現在方位での景観を表示した上に、同様のマーカーおよびピクトグラムの表示や代表画像表示を行うようにしてもよい。また、一般的な平面の地図や航空写真の上に、マーカーおよびピクトグラムの表示や代表画像表示を行うようにしてもよい。
【0081】
また、
図13〜
図15に示すように、ユーザ端末でマーカーやピクトグラムを画面上にAR表示する場合での、画面内のマーカーやピクトグラムの数は、予めユーザが指定した一定数以下に制限するようにしてもよい。例えば、ユーザ端末でのユーザ操作による設定で、1つの画面内のマーカーの数を10個、ピクトグラムの数を10個にそれぞれ制限して、AR表示を行っている画面の方向に存在するマーカーとピクトグラムを、現在地から近い順に10個ずつ選び、その10個ずつのマーカーとピクトグラムをAR表示するようにしてもよい。このようにAR表示する際のマーカーとピクトグラムの数を制限することで、画面内に表示されるマーカーやピクトグラムの数が、多すぎる状況になることがなく、道路などの景観を表示する画面の視認性が確保される。
なお、表示数を制限する場合に現在地から近いものを選ぶのは一例であり、その他の処理で表示数を制限してもよい。例えばピクトグラムの内で、駅やバスターミナルについては優先度が高い施設(重要施設)とし、AR表示している画面が向いている方向に、駅やバスターミナルが存在するとき、これらのピクトグラムについては、距離に関係なく常に表示するようにし、それ以外の施設のピクトグラムについて、距離に応じて、制限数に収まるように選択するようにしてもよい。