(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-06-03
(45)【発行日】2024-06-11
(54)【発明の名称】情報処理装置及びプログラム
(51)【国際特許分類】
G06F 3/0481 20220101AFI20240604BHJP
【FI】
G06F3/0481
(21)【出願番号】P 2020129302
(22)【出願日】2020-07-30
【審査請求日】2023-06-21
(73)【特許権者】
【識別番号】000005496
【氏名又は名称】富士フイルムビジネスイノベーション株式会社
(74)【代理人】
【識別番号】100104880
【氏名又は名称】古部 次郎
(74)【代理人】
【識別番号】100125346
【氏名又は名称】尾形 文雄
(74)【代理人】
【識別番号】100166981
【氏名又は名称】砂田 岳彦
(72)【発明者】
【氏名】得地 賢吾
【審査官】鈴木 崇雅
(56)【参考文献】
【文献】特開2019-125345(JP,A)
【文献】特開2010-118019(JP,A)
【文献】米国特許出願公開第2011/0164163(US,A1)
【文献】国際公開第2018/230649(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/048-04895
G06T 3/00-608
(57)【特許請求の範囲】
【請求項1】
プロセッサを有し、
前記プロセッサは、
撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、
前記画像内の被写体に紐付けて表示する前記情報の内容を、前記撮像デバイスから各被写体までの距離を基準に設定する処理、又は、前記画像内の被写体に紐付けて表示する前記情報の内容を、被写体の種類を基準に設定する処理と、
ユーザの指示に応じて前記領域の数を変更する
処理と、
を実行する情報処理装置。
【請求項2】
プロセッサを有し、
前記プロセッサは、
撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、
複数の形状への変形が可能
な前記表示面の変形前に、変形後の当該表示面に表示する前記情報の内容の設定を受け付ける
処理と、
を実行する情報処理装置。
【請求項3】
前記プロセッサは、
変形に伴う前記表示面の拡大に先立って、拡大後の当該表示面に表示する前記情報の内容の設定を受け付ける
処理を実行する、
請求項
2に記載の情報処理装置。
【請求項4】
前記プロセッサは、
変形に伴う前記表示面の縮小に先立って、縮小後の当該表示面に表示する前記情報の内容の設定を受け付ける
処理を実行する、
請求項
2に記載の情報処理装置。
【請求項5】
前記プロセッサは、
前記情報の内容の設定を受け付ける場合、
前記複数の領域のうちの1つの領域に、前記情報の設定に用いる情報を表示し、他の領域に、設定が反映された当該情報が被写体に紐付けられた前記画像を表示する
処理を実行する、
請求項
2に記載の情報処理装置。
【請求項6】
プロセッサを有し、
前記プロセッサは、
撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、
前記画像内の被写体に対して紐付けられた前記情報が複数存在する場合、複数の当該情報が重ならないように表示する処理と、
複数の前記情報
を、連携する複数
の情報処理装置の間で共有
する処理、
を実行する情報処理装置。
【請求項7】
プロセッサを有し、
前記プロセッサは、
撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、
変形が可能
な前記表示面の変形に応じて前記領域の割り当てを変更する
処理と、
を実行する情報処理装置。
【請求項8】
前記プロセッサは、
前記表示面が折り畳まれた状態から展開された状態に変化された場合、曲げ部を境に当該表示面を複数の領域に分割し、各領域に前記画像を表示する
処理を実行する、
請求項
7に記載の情報処理装置。
【請求項9】
前記プロセッサは、
前記表示面が展開された状態から折り畳まれた状態に変化し、その後、当該表示面が折り畳まれた状態から展開された状態に変化された場合、当該表示面の領域の数が増加する又は減少する
処理を実行する、
請求項
7に記載の情報処理装置。
【請求項10】
プロセッサを有し、
前記プロセッサは、
撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、
前記画像内の被写体に紐付けて表示される情報を外部から受信する場合に、通信の速度が予め定めた速度より低下すると、前記表示面に表示する情報の数を制限する
処理と、
を実行する情報処理装置。
【請求項11】
コンピュータに、
撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能
と、
前記画像内の被写体に紐付けて表示する前記情報の内容を、前記撮像デバイスから各被写体までの距離を基準に設定させる機能、又は、前記画像内の被写体に紐付けて表示する前記情報の内容を、被写体の種類を基準に設定させる機能と、
ユーザの指示に応じて前記領域の数を変更させる機能と、
を実現させる
ためのプログラム。
【請求項12】
コンピュータに、
撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能
と、
複数の形状への変形が可能な前記表示面の変形前に、変形後の当該表示面に表示する前記情報の内容の設定を受け付けさせる機能と、
を実現させる
ためのプログラム。
【請求項13】
コンピュータに、
撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能
と、
前記画像内の被写体に対して紐付けられた前記情報が複数存在する場合、複数の当該情報が重ならないように表示させる機能と、
複数の前記情報を、連携する複数の情報処理装置の間で共有させる機能と、
を実現させる
ためのプログラム。
【請求項14】
コンピュータに、
撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能
と、
変形が可能な前記表示面の変形に応じて前記領域の割り当てを変更させる機能と、
を実現させる
ためのプログラム。
【請求項15】
コンピュータに、
撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能
と、
前記画像内の被写体に紐付けて表示される情報を外部から受信する場合に、通信の速度が予め定めた速度より低下すると、前記表示面に表示する情報の数を制限させる機能と、
を実現させる
ためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置及びプログラムに関する。
【背景技術】
【0002】
例えばスマートフォンには、街中を撮像した画像に拡張現実(AR: Augmented Reality)コンテンツを追加するアプリケーションが実用化されている。例えば画像に写り込んでいる建物や店(以下「建物等」という)に関する情報を建物等に重ねて表示するサービス、画像に写り込んでいるテキストの翻訳文をテキストに重ねて表示するサービス、画像に仮想の生物等を重ねて表示するサービス等がある。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
画像内の被写体に紐付けられる情報の数や情報の量は、サービスの充実化に伴い、今後も増加すると予想される。しかし、表示面の広さは限られているのに表示される情報の数や情報の量が増えすぎると、かえって情報の視認性が低下し、目的とする情報へのアクセス性も低下する。
【0005】
本発明は、撮像された画像内の被写体に紐付けられている情報を一律に通知する場合に比して、情報の通知の表現を多様にすることを目的とする。
【課題を解決するための手段】
【0006】
請求項1に記載の発明は、プロセッサを有し、前記プロセッサは、撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、前記画像内の被写体に紐付けて表示する前記情報の内容を、前記撮像デバイスから各被写体までの距離を基準に設定する処理、又は、前記画像内の被写体に紐付けて表示する前記情報の内容を、被写体の種類を基準に設定する処理と、ユーザの指示に応じて前記領域の数を変更する処理と、を実行する情報処理装置である。
請求項2に記載の発明は、プロセッサを有し、前記プロセッサは、撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、複数の形状への変形が可能な前記表示面の変形前に、変形後の当該表示面に表示する前記情報の内容の設定を受け付ける処理と、を実行する情報処理装置である。
請求項3に記載の発明は、前記プロセッサは、変形に伴う前記表示面の拡大に先立って、拡大後の当該表示面に表示する前記情報の内容の設定を受け付ける処理を実行する、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記プロセッサは、変形に伴う前記表示面の縮小に先立って、縮小後の当該表示面に表示する前記情報の内容の設定を受け付ける処理を実行する、請求項2に記載の情報処理装置である。
請求項5に記載の発明は、前記プロセッサは、前記情報の内容の設定を受け付ける場合、前記複数の領域のうちの1つの領域に、前記情報の設定に用いる情報を表示し、他の領域に、設定が反映された当該情報が被写体に紐付けられた前記画像を表示する処理を実行する、請求項2に記載の情報処理装置である。
請求項6に記載の発明は、プロセッサを有し、前記プロセッサは、撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、前記画像内の被写体に対して紐付けられた前記情報が複数存在する場合、複数の当該情報が重ならないように表示する処理と、複数の前記情報を、連携する複数の情報処理装置の間で共有する処理、を実行する情報処理装置である。
請求項7に記載の発明は、プロセッサを有し、前記プロセッサは、撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、変形が可能な前記表示面の変形に応じて前記領域の割り当てを変更する処理と、を実行する情報処理装置である。
請求項8に記載の発明は、前記プロセッサは、前記表示面が折り畳まれた状態から展開された状態に変化された場合、曲げ部を境に当該表示面を複数の領域に分割し、各領域に前記画像を表示する処理を実行する、請求項7に記載の情報処理装置である。
請求項9に記載の発明は、前記プロセッサは、前記表示面が展開された状態から折り畳まれた状態に変化し、その後、当該表示面が折り畳まれた状態から展開された状態に変化された場合、当該表示面の領域の数が増加する又は減少する処理を実行する、請求項7に記載の情報処理装置である。
請求項10に記載の発明は、プロセッサを有し、前記プロセッサは、撮像デバイスで撮像された画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定する処理と、前記画像内の被写体に紐付けて表示される情報を外部から受信する場合に、通信の速度が予め定めた速度より低下すると、前記表示面に表示する情報の数を制限する処理と、を実行する情報処理装置である。
請求項11に記載の発明は、コンピュータに、撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能と、前記画像内の被写体に紐付けて表示する前記情報の内容を、前記撮像デバイスから各被写体までの距離を基準に設定させる機能、又は、前記画像内の被写体に紐付けて表示する前記情報の内容を、被写体の種類を基準に設定させる機能と、ユーザの指示に応じて前記領域の数を変更させる機能と、を実現させるためのプログラムである。
請求項12に記載の発明は、コンピュータに、撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能と、複数の形状への変形が可能な前記表示面の変形前に、変形後の当該表示面に表示する前記情報の内容の設定を受け付けさせる機能と、を実現させるためのプログラムである。
請求項13に記載の発明は、コンピュータに、撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能と、前記画像内の被写体に対して紐付けられた前記情報が複数存在する場合、複数の当該情報が重ならないように表示させる機能と、複数の前記情報を、連携する複数の情報処理装置の間で共有させる機能と、を実現させるためのプログラムである。
請求項14に記載の発明は、コンピュータに、撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能と、変形が可能な前記表示面の変形に応じて前記領域の割り当てを変更させる機能と、を実現させるためのプログラムである。
請求項15に記載の発明は、コンピュータに、撮像デバイスで撮像された1つの画像を、表示面内に設けられた複数の領域のそれぞれに表示する場合、当該画像内の被写体の位置に紐付けて表示する情報の内容を領域毎に設定させる機能と、前記画像内の被写体に紐付けて表示される情報を外部から受信する場合に、通信の速度が予め定めた速度より低下すると、前記表示面に表示する情報の数を制限させる機能と、を実現させるためのプログラムである。
【発明の効果】
【0007】
請求項1記載の発明によれば、表示される情報の数を調整することで情報の確認を容易にできる。
請求項2記載の発明によれば、変形に伴う表示面の面積の変化に応じて情報の内容を変更できる。
請求項3記載の発明によれば、表示面の拡大後に表示させる領域別の情報の内容を事前に設定できる。
請求項4記載の発明によれば、表示面の縮小後に表示させる領域別の情報の内容を事前に設定できる。
請求項5記載の発明によれば、設定が反映された画像を見ながら操作できる。
請求項6記載の発明によれば、複数の情報処理装置で被写体に紐付けられた情報を共有できる。
請求項7記載の発明によれば、表示面の変形の操作により表示される領域の数を変更できる。
請求項8記載の発明によれば、領域の数の予測性を高めることができる。
請求項9記載の発明によれば、表示面の変形の操作により表示される領域の数を変更できる。
請求項10記載の発明によれば、外部との通信の速度が低下しても情報の更新の追従性を維持できる。
請求項11記載の発明によれば、表示される情報の数を調整することで情報の確認を容易にできる。
請求項12記載の発明によれば、変形に伴う表示面の面積の変化に応じて情報の内容を変更できる。
請求項13記載の発明によれば、複数の情報処理装置で被写体に紐付けられた情報を共有できる。
請求項14記載の発明によれば、表示面の変形の操作により表示される領域の数を変更できる。
請求項15記載の発明によれば、外部との通信の速度が低下しても情報の更新の追従性を維持できる。
【図面の簡単な説明】
【0008】
【
図1】実施の形態1で想定するARサービスで使用するネットワークシステムの構成例を示す図である。
【
図2】実施の形態1で使用する携帯端末のハードウェア構成の一例を説明する図である。
【
図3】ARサービスを利用している携帯端末で実行される処理動作の一例を説明するフローチャートである。
【
図4】実施の形態1で使用するARサーバのハードウェア構成の一例を説明する図である。
【
図5】ARサービスを提供するARサーバで実行される処理動作の一例を説明するフローチャートである。
【
図6】ARサービスの利用の前後における画面の違いを説明する図である。(A)はARサービスを利用する前の画面例を示し、(B)はARサービスの利用後の画面例を示す。
【
図7】ARコンテンツの表示の設定に用いる画面例を示す図である。(A)はARコンテンツの表示の有無の指定に用いる画面の例であり、(B)は表示するARコンテンツの指定に用いる画面の例である。
【
図8】2つの領域にARコンテンツを表示する場合の画面例を説明する図である。
【
図9】同一の画像が表示される2つの領域のサイズを変更する例を説明する図である。
【
図10】ARコンテンツに広告を含める設定の場合の画面例を説明する図である。
【
図11】2つの領域に表示されるARコンテンツが撮像方向の距離で設定される場合の画面例を説明する図である。
【
図12】ARサービスの利用中に通信環境に変化があった場合の画面例を説明する図である。(A)は通信速度が相対的に速い5Gによる通信が可能な場合を示し、(B)は通信速度が相対的に遅い4Gによる通信が可能な場合を示す。
【
図13】ARコンテンツをユーザが編集する場合に使用する画面例を説明する図である。(A)は被写体に対するコメントの編集に用いる編集画面の例を示し、(B)は被写体上の特定の位置にコメントを紐付ける操作の例を示す。
【
図14】1つの被写体に紐付けられているARコンテンツが複数存在する場合にARコンテンツの視認性を高める処理の例を説明するフローチャートである。
【
図15】実施の形態2で想定するARサービスで使用するネットワークシステムの構成例を示す図である。
【
図16】実施の形態2で使用する携帯端末の外観構成の一例を説明する図である。(A)は携帯端末を正面から見た図であり、(B)は携帯端末を側面から見た図である。
【
図17】実施の形態2で使用する携帯端末の折り曲げ変形を説明する図である。(A)は折り曲げ変形後の携帯端末の外観例を示し、(B)は折り曲げ変形前の携帯端末の外観例を示す。
【
図18】実施の形態2で使用する携帯端末のハードウェア構成の一例を説明する図である。
【
図19】携帯端末の変形と表示される画面の変化を説明する図である。(A)は、ディスプレイを半分に折り畳んだ状態の画面例を示し、(B)は、ディスプレイを広げた状態の画面例を示す。
【
図20】携帯端末の変形にARコンテンツの表示と非表示を関連付ける場合を説明する図である。(A)は、ディスプレイを半分に折り畳んだ状態の画面例を示し、(B)はディスプレイを展開した状態の画面例を示す。
【
図21】携帯端末の変形にARコンテンツの表示と非表示を関連付ける場合を説明する図である。ディスプレイを半分に折り畳んだ状態の画面例を示し、(B)はディスプレイを展開した状態の画面例を示す。
【
図22】携帯端末の変形の遷移と表示される画面の変化を説明する図である。(A)はディスプレイを半分に折り畳んだ状態の画面例を示し、(B)はディスプレイを展開した状態の画面例を示し、(C)は再び半分に折り畳んだ状態の画面例を示し、(D)は再び展開した状態の画面例を示す。
【
図23】携帯端末の変形の遷移と表示される画面の他の変化を説明する図である。(A)はディスプレイを半分に折り畳んだ状態の画面例を示し、(B)はディスプレイを展開した状態の画面例を示し、(C)は再び半分に折り畳んだ状態の画面例を示し、(D)は再び展開した状態の画面例を示す。
【
図24】携帯端末の変形を編集画面の表示に用いる画面例を説明する図である。(A)はディスプレイを折り畳んだ状態を撮像された画像の表示に割り当てる例を示し、(B)はディスプレイの展開を編集画面の表示に割り当てる例を示す。
【
図25】実施の形態3で使用する携帯端末の外観構成の一例を説明する図である。(A)は携帯端末を正面から見た図であり、(B)は携帯端末を側面から見た図である。
【
図26】実施の形態3で使用する携帯端末の折り曲げ変形を説明する図である。(A)は折り曲げ変形後の携帯端末の外観例を示し、(B)は折り曲げ変形前の携帯端末の外観例を示す。
【
図27】他の実施の形態で使用する携帯端末の外観構成の一例を説明する図である。(A)は携帯端末を正面から見た図であり、(B)は携帯端末を側面から見た図である。
【
図28】2つの本体パネルが上下2段に配置される携帯端末における表示面のサイズの変化を説明する図である。(A)は本体パネルが他方の本体パネルの下に収納されている状態を示し、(B)は本体パネルの下から他方の本体パネルの一部が引き出された状態を示し、(C)は他方の本体パネルの全体が引き出された状態を示している。
【
図29】引き出し型のディスプレイを有する携帯端末の外観例を説明する図である。
【
図30】ARコンテンツ付きの画像とARコンテンツなしの画像を並べて表示するモードの例を説明する図である。
【発明を実施するための形態】
【0009】
以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<システム構成>
図1は、実施の形態1で想定するARサービスで使用するネットワークシステム1の構成例を示す図である。
ネットワークシステム1は、ユーザが操作する携帯型の端末(以下「携帯端末」という)10と、携帯端末10に対してARサービスを提供するサーバ(以下「ARサーバ」という)20とを有している。
【0010】
ARサービスは、携帯端末10で撮像される現実世界の画像に、コンピュータが作成したコンテンツ(以下「ARコンテンツ」という)を反映するサービスをいう。本実施の形態におけるARコンテンツは画像である。
本実施の形態におけるARサービスは、携帯端末10に対するユーザからの指示で利用が可能になる。ここでの指示には、例えばARサービスを利用するアプリケーションプログラム(以下「アプリ」という)の実行の指示がある。また、ARサービスがクラウドサービスとして提供される場合、ARサーバ20に対するアクセスも、ユーザからの指示である。
【0011】
本実施の形態では、ARコンテンツの表示にマーカーを必要としないマーカーレス型のARサービスを想定する。もっとも、位置情報のみを使用するロケーションベース型のARサービスでもよい。
ARコンテンツは、携帯端末10で撮像された画像から認識されたARサービスの対象として認識された被写体に紐づけて表示される。この意味で、本実施の形態におけるARコンテンツは、被写体の位置に紐付けて表示する情報の一例である。ARコンテンツが反映された画像を「AR合成画像」ともいう。ユーザは、携帯端末10に表示されるAR合成画像を視認する。
【0012】
本実施の形態における携帯端末10は、複数世代の移動通信システム、又は、無線LAN(=Local Area Network)とインターネットの複合ネットワークを通じてARサーバ20と通信する。いずれの経路を用いて通信するかは、携帯端末10が使用される環境やユーザの選択に応じて定まる。
本実施の形態では、移動通信システムを、通信速度が相対的に遅い第3世代(すなわち3G)及び第4世代(すなわち4G)と、通信速度が相対的に速い第5世代(すなわち5G)及び第6世代(すなわち6G)との2種類に分類する。
本実施の形態の場合、5Gや6Gによる通信が可能な場合、ユーザは、リアルタイムかつ制限なくARサービスの利用が可能である。一方、3Gや4Gによる通信のみが可能な場合、ユーザによるARサービスの利用には遅延や内容の制約を伴うことがある。
【0013】
本実施の形態の場合、無線LANには、IEEE802.11の11a、11b、11g、11n、11ac、11ad、11axのいずれかを利用する。もっとも、通信の全経路が有線路でもよい。もっとも、有線路経由の通信でも、その通信速度は、利用する環境に依存する。
本実施の形態における携帯端末10には、例えばスマートフォン、タブレット型の端末、ゲーム機、ウェアラブル端末を想定する。
携帯端末10は、いわゆるコンピュータであり、カメラと表示部と通信モジュールを備えている。
図1には、携帯端末10を1台のみ描いているが、ネットワークシステム1には複数台の携帯端末10が存在してもよい。
本実施の形態におけるARサーバ20は、携帯端末10と連携し、携帯端末10にAR合成画像を表示させる。
図1には1台のARサーバ20を表しているが、連携する複数台のサーバで構成されてもよい。本実施の形態におけるARサーバ20は、情報処理装置の一例である。
【0014】
<各装置の構成>
<携帯端末10の構成>
図2は、実施の形態1で使用する携帯端末10のハードウェア構成の一例を説明する図である。
図2に示す携帯端末10は、プログラムの実行を通じて各部を制御するCPU(=Central Processing Unit)101と、画像その他の情報を表示するディスプレイ102と、ディスプレイ102に表示されるソフトウェアキー(以下「ソフトキー」ともいう)に対する操作を検知する静電容量式のフィルムセンサ103と、GPS(=Global Positioning System)信号を検知して自端末の位置を測位するGPSモジュール104と、慣性センサ105と、カメラ106と、通話や録音に使用されるマイク107と、音の出力に使用されるスピーカ108と、システムデータや内部データが記憶される内部メモリ109と、補助記憶装置としての外部メモリ110と、ARサーバ20を含む外部装置との通信に用いられる通信モジュール111等を有している。
【0015】
本実施の形態の場合、内部メモリ109と外部メモリ110は、半導体メモリである。内部メモリ109は、BIOS(=Basic Input Output System)等が記憶されたROM(=Read Only Memory)と、主記憶装置として用いられるRAM(=Random Access Memory)とを有している。CPU101と内部メモリ109はコンピュータを構成する。CPU101は、RAMをプログラムの作業スペースとして使用する。外部メモリ110には、ファームウェアやアプリが記憶される。
【0016】
ディスプレイ102は、例えば有機EL(=Electro Luminescent)ディスプレイや液晶ディスプレイで構成される。本実施の形態におけるディスプレイ102は、1枚の基板上に形成されている。本実施の形態では、ディスプレイ102の表面(すなわち表示面)には画像その他の情報が表示される。ここでの画像には、カメラ106により撮像された画像(以下「撮像画像」ともいう)が含まれる。本実施の形態におけるディスプレイ102は、折り曲げや折り畳みには対応していない。
【0017】
フィルムセンサ103は、ディスプレイ102の表面に配置される。フィルムセンサ103は、ディスプレイ102に表示される情報の観察を妨げない特性を有し、ユーザが操作する位置を静電容量の変化により検知する。
GPSモジュール104は、携帯端末10の位置の測位に用いられる。なお、携帯端末10の位置の測位には、GPSモジュール104以外のセンサ技術を用いてもよい。例えばビーコンからのBluetooth(登録商標)信号の受信やWiFi信号の受信により位置を測位してもよい。
慣性センサ105は、例えば加速度と角速度を検知する6軸センサである。慣性センサ105により携帯端末10の姿勢の検知が可能になる。この他、携帯端末10には、地磁気センサを設けてもよい。地磁気センサを用いて撮像の方向を特定してもよい。
【0018】
カメラ106には、例えばCMOS(=Complementary Metal Oxide Semiconductor)イメージセンサやCCD(=Charge-Coupled Device)イメージセンサを使用する。本実施の形態の場合、カメラ106は、携帯端末10に対して一体的に取り付けられている。カメラ106の数は複数でもよい。カメラ106は、撮像デバイスの一例である。
マイク107は、ユーザの音声や周囲の音を電気信号に変換するデバイスである。本実施の形態の場合、マイク107は、ユーザの音声による指示の入力にも使用される。例えばARコンテンツの表示に用いる領域の数や各領域に表示するARコンテンツの種類の指示に用いられる。
スピーカ108は、電気信号を音に変換して出力するデバイスである。
通信モジュール111は、移動通信システムに対応するモジュールと無線LANに対応するモジュールとを有している。
【0019】
図3は、ARサービスを利用している携帯端末10で実行される処理動作の一例を説明するフローチャートである。
図3に示す処理は、CPU101(
図2参照)が実行する。なお、図中に示す記号のSはステップを表している。
CPU101は、通信モジュール111(
図2参照)による通信の状態を監視しており、5G又は6G又は無線LANによる通信中か否かを判定する(ステップ1)。
この判定には、例えば使用中の通信方式の他、ARサーバ20との間の実効速度に基づいて判定される。例えば通信の速度が予め定めた速度より低い場合、CPU101は、ステップ1で否定結果を得る。反対に、通信の速度が予め定めた速度より速い場合、CPU101は、ステップ1で肯定結果を得る。
【0020】
ステップ1で肯定結果が得られた場合、CPU101は、カメラ106(
図2参照)で撮像された画像を複数の領域のそれぞれに表示するモードか否かを判定する(ステップ2)。本実施の形態の場合、表示のモードは、携帯端末10のユーザが指示することが可能である。ユーザの指示は、ソフトキーに対する指示でもよいし、音声による指示でもよい。
【0021】
ステップ1及び2の両方で肯定結果が得られた場合、CPU101は、各領域に表示された画像に対し、ユーザが指定するARコンテンツを反映する(ステップ3)。本実施の形態の場合、領域の数は2つである。もっとも、ユーザによる事前の設定により3つ以上の領域を設定することも可能である。ただし、各領域は、表示面を分割することになるので、表示面の面積に対して領域の数を増やし過ぎると、かえってARコンテンツの視認性が低下するおそれがある。そこで、本実施の形態では、カメラ106で撮像された同じ画像を表示する領域の数を2つとしている。
【0022】
また、各領域に表示するARコンテンツの内容は、ユーザによる指定が可能である。領域毎に表示するARコンテンツの内容を指定することで、各領域に表示されるARコンテンツの数を減らし、ARコンテンツと被写体との紐付けの確認が容易になる。なお、各領域に表示するARコンテンツの内容は事前に設定することも可能である。
また、本実施の形態の場合、各領域のサイズの変更を指示することも可能である。基本的には、2つの領域のサイズは同じとする。ただし、ユーザの指示により、各領域のサイズの変更を可能としてもよい。例えば一方の領域のサイズを表示面の60%とし、他方の領域のサイズを表示面の40%としてもよい。
【0023】
この他、各領域のサイズはそのままに、領域内に表示される画像を拡大して表示するピンチアウトの操作や反対に画像を縮小するピンチインの操作も可能である。
ステップ1又は2で否定結果が得られた場合、CPU101は、1つの領域でARコンテンツを表示する(ステップ4)。この場合は、通信速度が低下し、通信の速度が遅くARコンテンツを即座に反映することが困難な状況やユーザが1つの領域によりARコンテンツの表示を望む状況に対応する。
【0024】
<ARサーバ20の構成>
図4は、実施の形態1で使用するARサーバ20のハードウェア構成の一例を説明する図である。
図4に示すARサーバ20は、プログラムの実行を通じて各部を制御するCPU201と、システムデータや内部データが記憶される半導体メモリ202と、ハードディスク装置203と、携帯端末10を含む外部装置との通信に用いられる通信モジュール204等を有している。
本実施の形態の場合、半導体メモリ202は、BIOS等が記憶されたROMと、主記憶装置として用いられるRAMとで構成されている。CPU201と半導体メモリ202はコンピュータを構成する。CPU201は、RAMをプログラムの作業スペースに使用する。
【0025】
ハードディスク装置203は、オペレーティングシステムやアプリを記憶する補助記憶装置である。ここでのアプリには、ARサービスの提供に用いられるプログラムが含まれる。
また、本実施の形態におけるハードディスク装置203には、携帯端末10(
図1参照)で撮像された画像に含まれる被写体の検出や翻訳等に用いるデータベース、機械学習により生成されたモデル等も記憶される。
本実施の形態における被写体は、カメラ106(
図2参照)で撮像された画像に含まれる物体のうち、人工知能等によりオブジェクトとして認識された物体や文字情報をいう。換言すると、本実施の形態における被写体は、ARコンテンツが紐付けられている対象物又は処理の単位をいう。ARコンテンツと物体等とを紐付ける関係は、ハードディスク装置203に記憶されている。
【0026】
図5は、ARサービスを提供するARサーバ20で実行される処理動作の一例を説明するフローチャートである。
図5に示す処理は、CPU201(
図4参照)が実行する。なお、図中に示す記号のSはステップを表している。
CPU201は、ARサービスを利用する携帯端末10(
図1参照)との通信を通じ、携帯端末10の位置の情報及び撮像された画像データを取得する(ステップ11)。本実施の形態の場合、GPSモジュール104(
図2参照)で測位された位置等の情報が取得される。
【0027】
携帯端末10の位置が分かることで、被写体の認識の精度が向上されることがある。もっとも、特徴的な被写体の場合、画像データだけでも撮像位置の特定が可能である。ユニークな建物や風景が画像に含まれていれば、携帯端末10の位置の特定が可能である。
なお、ARサービスの利用が被写体として撮像された文字情報の翻訳である場合、被写体が撮像された位置の情報は不要である。このように、位置の情報は、ユーザが利用するARサービスの内容によっては必ずしも必要でない。
【0028】
また、本実施の形態では、携帯端末10からARサーバ20にカメラ106(
図2参照)で撮像された画像データからアップロードされているが、全ての画像データでも、予め定めた枚数に1枚の割合に間引き処理された画像データでもよい。
また、携帯端末10からARサーバ20には、携帯端末10による前処理を経て抽出された画像データの一部だけがアップロードされてもよいし、携帯端末10による前処理により抽出された画像の特徴を表す情報がアップロードされてもよい。
携帯端末10とARサーバ20との通信に3Gや4Gを用いる環境では、アップロードされる情報量を低減することで、ARコンテンツが提供されるまでの時間の短縮が可能になる。
【0029】
次に、CPU201は、画像データから抽出された被写体に紐付けられている又は紐付けるARコンテンツを取得し(ステップ12)、取得したARコンテンツとARコンテンツが紐付けられる画像内の位置を送信する(ステップ13)。
例えば被写体が建物や自然物の場合、被写体に紐付けられている情報や特定された建物等について検索された情報がARコンテンツとして送信される。一方で、被写体が文字情報の場合、テキスト変換された情報や翻訳された情報がARコンテンツとして送信される。
なお、CPU201は、送信されるARコンテンツを紐付ける画像内の位置を送信する。
【0030】
<画面例>
以下では、
図6~
図14を使用し、実施の形態1における画面例を説明する。
【0031】
<画面例1>
図6は、ARサービスの利用の前後における画面の違いを説明する図である。(A)はARサービスを利用する前の画面例を示し、(B)はARサービスの利用後の画面例を示す。
【0032】
図6の場合、ARサービスを利用する前のディスプレイ102には、2つの建物が撮像されている。一方で、ARサービスの利用を開始した後のディスプレイ102には、2つの建物に紐付けられているARコンテンツが、建物内の特定の部分に紐付けて表示されている。
図6の場合、ARコンテンツは、吹き出し形式で撮像画像に重ねて表示されている。吹き出しは不透明でも透明でもよい。透明とは、背後が透けて見えることをいい、不透明とは背後が透けて見えないことをいう。吹き出しのうち三角形の頂点が、ARコンテンツの紐付け先となる被写体や位置を表している。
【0033】
図6の場合、手前側に位置する建物にも、奥側に位置する建物にも多くのARコンテンツが紐付けられている。手前側に位置する建物は、奥側に位置する建物よりも、携帯端末10からの距離が相対的に近い。
図6の場合、紐付けられている全てのARコンテンツが画面内に表示されている。
【0034】
図6の場合、表示されるARコンテンツの数が多く、表示の位置も重なっている。このため、せっかく表示されたARコンテンツの視認性が低下している。背後に位置するARコンテンツについては存在自体が分からない可能性もある。
また、前述したように、サービスの充実化に伴い、1つの物体に紐付けられるARコンテンツは、今後、ますます増加すると考えられる。
【0035】
図7は、ARコンテンツの表示の設定に用いる画面例を示す図である。(A)はARコンテンツの表示の有無の指定に用いる画面120の例であり、(B)は表示するARコンテンツの内容の指定に用いる画面121の例である。
本実施の形態の場合、画面120は、不図示の設定用のボタンや特定の位置のタップ等により表示される。画面120には、3種類の選択肢が表示されている。1つは、2つの領域にARコンテンツを表示するモードであり、1つは、1つの領域にARコンテンツを表示するモードであり、1つは、ARコンテンツを表示しないモードである。
【0036】
1つの領域にARコンテンツを表示するモードは、
図6(B)に例示したように、携帯端末10で撮像された画像と、画像内の被写体に紐付けられているARコンテンツとを、表示面に表示するモードである。この場合、画像が表示される領域は、ディスプレイ102の表示面に一致する。
2つの領域にARコンテンツを表示するモードは、携帯端末10で撮像された画像と、画像内の被写体に関連するARコンテンツとを、表示面内の2つの領域のそれぞれに表示するモードである。本実施の形態では、2つの領域のサイズが同じになるように、表示面を左右に分割する。
【0037】
ARコンテンツを表示しないモードは、
図6(A)に例示したように、携帯端末10で撮像された画像だけをディスプレイ102に表示するモードである。
画面120の場合、2つの領域にARコンテンツを表示するモードに対応するチェックボックスにチェックが表示されている。このため、画面121は、左右2つの領域のそれぞれに表示するARコンテンツの設定に用いられる。
【0038】
画面121には、左右2つの領域に表示するARコンテンツの選択肢が表示されている。以下では、表示面の左側に位置する領域を「左領域」といい、右側に位置する領域を「右領域」という。
図7の場合、左領域用の選択肢と右領域用の選択肢として、「飲食」、「衣類」、「不動産」、「観光」、「クリーニング」、「スーパー」、「理容」、「映画」、「オフィス」、「宿泊」、「広告あり」、「メニューあり」、「10mまで」、「10m以上」が示されている。
図7に示す選択肢は一例であり、他の選択肢でもよい。例えば駅やバス停等の交通機関に関する情報を選択肢に含めてもよい。
【0039】
選択肢のうち「飲食」、「衣類」、「不動産」、「観光」、「クリーニング」、「スーパー」、「理容」、「映画」、「オフィス」、「宿泊」は、いずれも被写体の種類の一例であり、表示されるARコンテンツの内容を与える基準の一例である。
選択肢のうち「広告あり」、「メニューあり」、「10mまで」、「10m以上」は、表示されるARコンテンツの内容を与える基準の一例である。
これらの選択肢は、撮像されている画像とは無関係に与えられてもよいし、撮像されている画像に応じて与えてもよい。本実施の形態の場合、撮像されている画像に含まれる被写体の認識は、ARサーバ20が実行する。もっとも、被写体の認識を携帯端末10で実行してもよい。
【0040】
ここで、「広告あり」は、ARコンテンツに、サブコンテンツである広告の表示を含めるための選択肢である。
また、「メニューあり」は、ARコンテンツに、メニューの表示を含めるための選択肢である。
また、「10mまで」は、表示するARコンテンツを、携帯端末10から撮像の方向に10mまでに存在する被写体のARコンテンツに制限するための選択肢である。
また、「10m以上」は、表示するARコンテンツを、携帯端末10から撮像の方向に10m以上離れた場所に存在する被写体のARコンテンツに制限するための選択肢である。被写体のとの距離は概略でよい。
【0041】
例えば被写体の位置がARサーバ20に登録されている場合には、携帯端末10で測位された位置の情報を使用し、携帯端末10と被写体との距離を算出することが可能である。もっとも、携帯端末10に、LiDAR(=Light Detection and Ranging)用のモジュールが設けられている場合や撮像画像から被写体までの距離を計測するアプリが設けられている場合には、携帯端末10単独で距離を求めることも可能である。
【0042】
図7の場合、距離に関する基準は「10mまで」と「10m以上」の2種類であり、距離に上限が設けられていないが、表示されるARコンテンツの数が多い場合には、距離に上限を設定してもよい。例えば「10m以上30mまで」との選択肢を用意してもよい。
なお、閾値としての10mは一例に過ぎず、他の1つ又は複数の閾値を用いてもよい。また、表示の範囲を与える距離は、ユーザによる変更や指定が可能であってもよい。
【0043】
図7に示す画面120及び画面121を用いた設定の内容は、携帯端末10が表示するARコンテンツを特定するためだけに使用してもよいし、ARサーバ20によるARコンテンツの読み出しに使用してもよい。
前者の場合、携帯端末10は、ARサーバ20から通知されるARコンテンツの中から各領域に表示するARコンテンツの選択に使用する。
【0044】
後者の場合、ARサーバ20は、ユーザが指定した基準を満たすARコンテンツの選択に使用する。この場合、ARサーバ20は、選択されたARコンテンツだけを携帯端末10に通知し、携帯端末10は通知されたARコンテンツを対応する領域に表示する。
本実施の形態では、ディスプレイ102に表示されるARコンテンツをユーザが指定しているが、ARサーバ20が画像内の被写体に応じて決定することも可能である。
【0045】
<画面例2>
図8は、2つの領域にARコンテンツを表示する場合の画面例を説明する図である。
図8には、
図6との対応部分に対応する符号を付して示している。
図8の場合、ディスプレイ102の表示面は、左領域102Aと右領域102Bに分割され、各領域にカメラ106(
図2参照)で撮像された同じ画像を表示する。また、左領域102Aと右領域102Bのそれぞれには、事前に設定されたARコンテンツが表示される。
【0046】
図8の場合、左領域102Aには飲食に関連するARコンテンツが選択的に表示され、右領域102Bには衣類に関連するARコンテンツが選択的に表示されている。
図8の場合、左領域102Aのサイズと右領域102Bのサイズは、いずれもディスプレイ102の2分の1である。このため、左領域102Aと右領域102Bのそれぞれに表示される画像のサイズは、
図6の画面例に比して小さくなる。
一方で、左領域102Aの画像に重ねて表示されるARコンテンツの数と右領域102Bの画像に重ねて表示されるARコンテンツの数は、いずれも
図6に比して少なく済む。結果的に、ARコンテンツどうしの重なりが低減され、視認性が改善される。
【0047】
図8の場合、ARコンテンツの視認性は、
図6の場合に比して改善されているが、注目するARコンテンツの視認性をより改善したい場合が考えられる。
図9は、同一の画像が表示される2つの領域のサイズを変更する例を説明する図である。
図9には、
図8との対応部分に対応する符号を付して示している。
【0048】
図9に示す画面例では、左領域102Aと右領域102Bの境界を指先で右方向に移動させている。このため、左領域102Aのサイズが
図8の場合よりも広くなり、反対に右領域102Bのサイズが
図8の場合よりも狭くなっている。
図9の場合、左領域102A側ではARコンテンツどうしの重なりが解消され、視認性が一段と改善する。
図9におけるARコンテンツの視認性の改善は、
図6との比較からも明らかである。
図9の場合、右領域102B側はサイズが狭まるため、ARコンテンツの視認性が
図6に比して低下する可能性があるが、ユーザが観察する領域ではないので影響は少ない。
【0049】
<画面例3>
図10は、ARコンテンツに広告を含める設定の場合の画面例を説明する図である。
図10には、
図8との対応部分に対応する符号を付して示している。
図10の場合も、ディスプレイ102には、左右2つの領域のそれぞれにARコンテンツが表示される。
図10の場合、左領域102Aには飲食に関連するARコンテンツが選択的に表示され、右領域102Bには不動産に関連するARコンテンツが選択的に表示されている。
【0050】
図10に示す左領域102Aには、メニューに関する情報が追加されている。メニューの情報が追加されることで、ユーザは、店名や料理の種類だけでなく、メニューの視認が可能になる。
図10に示す右領域102Bには、取り扱う物件の情報や広告に関する情報が追加されている。広告の情報が追加されることで、ユーザは、店名だけでなく、各店の特色に関する情報の確認が可能になる。
【0051】
なお、ARコンテンツとして表示されるメニューや広告の内容は、ARサーバ20に登録されている。
これらの情報の登録には、店舗側が事前に登録する場合、ARサービスの提供者が事前に登録する場合、ARサービスのユーザが登録する場合、インターネット上から収集される場合等がある。
【0052】
<画面例4>
図11は、2つの領域に表示されるARコンテンツが撮像方向の距離で設定される場合の画面例を説明する図である。
図11には、
図8との対応部分に対応する符号を付して示している。
図11の場合も、ディスプレイ102には、左右2つの領域のそれぞれにARコンテンツが表示される。
【0053】
図11の場合、左領域102Aには携帯端末10から10mまでの範囲に位置する被写体に紐付けられているARコンテンツが選択的に表示され、右領域102Bには携帯端末10から10m以上の範囲に位置する被写体に紐付けられているARコンテンツが選択的に表示されている。
図11の場合、左領域102Aには2つのビルのうち手前側に位置するビルに入居しているテナントに紐付けられているARコンテンツが表示され、右領域102Bには2つのビルのうち奥側に位置するビルに入居しているテナントに紐付けられているARコンテンツが表示されている。
【0054】
図12は、ARサービスの利用中に通信環境に変化があった場合の画面例を説明する図である。(A)は通信速度が相対的に速い5Gによる通信が可能な場合を示し、(B)は通信速度が相対的に遅い4Gによる通信が可能な場合を示す。
大容量のデータを送受してもユーザに遅延を感じさせない5Gによる通信が可能な場合、携帯端末10の左右2つの領域には、カメラ106(
図2参照)で撮像された画像と、各領域に対応するARコンテンツが遅滞なく表示される。
【0055】
一方で、5Gによる通信から4Gによる通信に切り替わると、携帯端末10は、1つの領域にARコンテンツを表示するモードに切り替わる。また、携帯端末10は、表示されるARコンテンツの数も制限する。
表示されるARコンテンツの数に制限を設けることで、撮像されている画像に対するARコンテンツの表示の追従性を改善する。
【0056】
4Gによる通信の場合、ディスプレイ102に表示されるARコンテンツの数は、予め定めた閾値以下に制限される。もっとも、閾値は、ユーザが個別に定めてもよい。また、表示されるARコンテンツの数を制限する閾値は、表示されるARコンテンツの内容に応じて異なってもよい。
表示するARコンテンツの数は、予め設定されていてもよいし、ユーザが設定してもよい。
また、4Gによる通信への切り替え後に表示するARコンテンツの情報は、ランダムに変更してもよいし、種類毎に1つに制限してもよいし、特定の種類に限定してもよい。これらの選択についてもユーザによる設定が可能である。
【0057】
<画面例5>
図13は、ARコンテンツをユーザが編集する場合に使用する画面例を説明する図である。(A)は被写体に対するコメントの編集に用いる画面(以下「編集画面」という)の例を示し、(B)は被写体上の特定の位置にコメントを紐付ける操作の例を示す。
ここでの編集には、新規の登録も含まれる。
図13に示す画面は、例えばディスプレイ102に表示されている特定の被写体を長押しすることで表示される。
図13では、ディスプレイ102に表示されている画像の中からコーヒーショップの画像が編集の対象に指定されている。
編集画面では、ディスプレイ102の左領域102Aにコメントの入力を受け付ける画面が表示され、右領域102Bに紐付けの対象である被写体の拡大画像が表示される。編集画面は、被写体に紐付けるARコンテンツの設定に用いる情報の一例である。
【0058】
図13では、被写体の種別として「コーヒーショップ」が入力され、追加の情報として「焙煎にこだわり」とのコメントが入力されている。
本実施の形態の場合、入力されたコメントは、被写体全体に紐付けられるのではなく、被写体の特定の位置に紐付けることが可能である。
図13の例では、矢印で示したように、○印をコーヒーショップの入り口のドアにドラッグ&ドロップしている。なお、右側の窓に○印をドラッグ&ドロップすることも可能であるし、屋根に○印をドラッグ&ドロップすることも可能である。
携帯端末10で入力された被写体に対するコメントやコメントを紐付ける位置の情報は、携帯端末10からARサーバ20に通知され、記憶される。ここでのコメントが、ARコンテンツとして、ARサーバ20から携帯端末10に通知される。
【0059】
ところで、1つの被写体に対して複数のARコンテンツが登録される場合、複数のARコンテンツが携帯端末10で重なって表示されると、ユーザの視認性が低下される。
そこで、本実施の形態では、携帯端末10にARコンテンツの視認性を高めるための機能も用意する。
図14は、1つの被写体に紐付けられているARコンテンツが複数存在する場合にARコンテンツの視認性を高める処理の例を説明するフローチャートである。
図14に示す処理は、携帯端末10(
図1参照)のCPU101(
図2参照)が実行する。なお、図中に示す記号のSはステップを表している。
【0060】
CPU101は、ARサーバ20(
図1参照)からARコンテンツを取得する場合、同じ被写体に紐付けられたARコンテンツが複数か否かを判定する(ステップ21)。本実施の形態の場合、ここでのARコンテンツは、情報を編集したユーザを区別しない。換言すると、ARコンテンツの編集に用いた携帯端末10が同じであることを要求しない。
本実施の形態の場合、ARサービスを利用するユーザにより登録されたARコンテンツは、同じサービスを利用する複数人のユーザにより共有される。もっとも、表示されるARコンテンツは、ユーザ毎に管理され、他のユーザが編集したARコンテンツは表示されないようにしてもよい。
【0061】
ステップ21で肯定結果が得られた場合、CPU101は、ARコンテンツの表示が画面上で重ならないように配置を修正して表示する(ステップ22)。この処理により、ARコンテンツの視認性が向上される。なお、配置の修正は、携帯端末10が備えるディスプレイ102のサイズに依存する。サイズが大きいほど、ARコンテンツの重なりの低減が容易になる。
なお、1つの被写体に紐付けられているARコンテンツが0(ゼロ)か1つだけの場合、CPU101は、ステップ21で否定結果を得る。この場合、CPU101は、ARコンテンツの配置を修正しない。
【0062】
<実施の形態2>
<システム及び装置の構成例>
図15は、実施の形態2で想定するARサービスで使用するネットワークシステム1Aの構成例を示す図である。
図15には、
図1との対応部分に対応する符号を付して示している。
本実施の形態におけるネットワークシステム1Aでは、表示面の変形が可能な携帯端末10AがARサーバ20に接続される。
【0063】
図16は、実施の形態2で使用する携帯端末10Aの外観構成の一例を説明する図である。(A)は携帯端末10Aを正面から見た図であり、(B)は携帯端末10Aを側面から見た図である。
携帯端末10Aの本体11は、2つの本体パネル11A及び11Bとヒンジ12を有している。2つの本体パネル11A及び11Bは、ヒンジ12を介して互いに連結されている。ヒンジ12は、曲げ部の一例である。ヒンジ12は、ディスプレイ102の長辺方向を2分する位置に設けられている。
図16の場合、ディスプレイ102の長辺方向はy軸の方向であり、短辺方向はx軸方向である。
【0064】
本実施の形態では、曲げ部の一例としてヒンジ12を例示するが、プラスチック、樹脂、ゴム等の変形可能な素材、可動部品で構成される連結金具等でもよい。
本実施の形態で使用するヒンジ12は、ディスプレイ102が設けられている面を尾根側とする折り曲げ変形が可能である。また、本実施の形態で使用するディスプレイ102とフィルムセンサ103は、いずれも折り曲げ変形が可能な素材で構成されている。ディスプレイ102とフィルムセンサ103は、例えばフィルム状のプラスチック基板に形成される。
【0065】
図17は、実施の形態2で使用する携帯端末10Aの折り曲げ変形を説明する図である。(A)は折り曲げ変形後の携帯端末10Aの外観例を示し、(B)は折り曲げ変形前の携帯端末10Aの外観例を示す。
本実施の形態では、携帯端末10Aの外観形状の変形を、
図7に示すARコンテンツの表示の設定に対応付ける。
具体的には、携帯端末10Aを広げた形状を、1つの領域にARコンテンツを表示するモードに対応付け、携帯端末10Aを2つに折り畳んだ形状を、2つの領域にARコンテンツを表示するモードに対応付ける。
本実施の形態の場合、ディスプレイ102のうちヒンジ12の位置を堺として、左側が左領域102Aであり、右側が右領域102Bである。
【0066】
図18は、実施の形態2で使用する携帯端末10Aのハードウェア構成の一例を説明する図である。
図18には、
図2との対応部分に対応する符号を付して示している。
図18に示す携帯端末10Aには、ヒンジ角センサ112が追加されている。ヒンジ角センサ112は、本体11(
図17参照)がヒンジ12を中心に変形される場合における本体パネル11Aと本体パネル11Bとが成す角に関する情報を出力する。換言すると、ヒンジ角センサ112は、折り曲げ角度を出力する。なお、折り曲げ角度を表す情報として、ヒンジ12を構成する歯車の回転数や回転角等を出力してもよい。
【0067】
<画面例>
以下では、
図19~
図24を使用し、実施の形態2における画面例を説明する。
【0068】
<画面例1>
図19は、携帯端末10Aの変形と表示される画面の変化を説明する図である。(A)は、ディスプレイ102を半分に折り畳んだ状態の画面例を示し、(B)は、ディスプレイ102を広げた状態の画面例を示す。
図19(A)の形状は
図17(A)の形状に対応し、
図19(B)の形状は
図17(B)の形状に対応する。
図19に示す例は、ARサービスを利用しない場合の表示面の変化を表している。
図19の場合、ディスプレイ102に表示される画像のサイズは、ユーザに視認される表示面の面積に応じて変化している。具体的には、折り畳まれた状態における画像のサイズは、広げた状態における画像のサイズよりも小さくなる。換言すると、ディスプレイ102を広げることで表示面は拡大され、反対にディスプレイ102を折り畳むことで表示面は縮小される。この画面例の場合、携帯端末10Aの変形に伴う変化は画像のサイズだけである。
【0069】
<画面例2>
図20は、携帯端末10Aの変形にARコンテンツの表示と非表示を関連付ける場合を説明する図である。(A)は、ディスプレイ102を半分に折り畳んだ状態の画面例を示し、(B)はディスプレイ102を展開した状態の画面例を示す。
図20の場合、ディスプレイ102が半分に折り畳まれると、ARコンテンツは表示されない。一方、ディスプレイ102が展開されると、ARコンテンツが表示される。換言すると、表示面が半減する状態では、ARサービスの利用中でも、カメラ106(
図2参照)で撮像された画像だけが表示される。一方、表示面の全域が使用可能な状態では、ARコンテンツが表示される。
図20の場合、手前側のビルにはARコンテンツとしてAR1が表示され、奥側のビルにはARコンテンツとしてAR2が表示されている。
【0070】
<画面例3>
図21は、携帯端末10Aの変形にARコンテンツの表示と非表示を関連付ける場合を説明する図である。(A)はディスプレイ102を半分に折り畳んだ状態の画面例を示し、(B)はディスプレイ102を展開した状態の画面例を示す。
図21には、
図20との対応部分に対応する符号を付して示している。
図21に示す画面例は、ディスプレイ102の2つの領域にARコンテンツを表示する場合を表している。
【0071】
図21の場合、左領域には10mまでの範囲に存在する被写体のARコンテンツが表示され、右領域には10m以上の範囲に存在する被写体のARコンテンツが表示されている。換言すると、左領域102Aには手前側に位置するビルに入居しているテナントに紐付けられているARコンテンツが表示され、右領域102Bには奥側に位置するビルに入居しているテナントに紐付けられているARコンテンツが表示されている。
【0072】
<画面例4>
図22は、携帯端末10Aの変形の遷移と表示される画面の変化を説明する図である。(A)はディスプレイ102を半分に折り畳んだ状態の画面例を示し、(B)はディスプレイ102を展開した状態の画面例を示し、(C)は再び半分に折り畳んだ状態の画面例を示し、(D)は再び展開した状態の画面例を示す。
図22(A)から
図22(B)と、
図22(B)から
図22(C)への変化は、
図20(A)から
図20(B)への変化と、
図20(B)から
図20(A)への変化と同じである。
図22(C)から
図22(D)への変化は、
図21(A)から
図21(B)への変化と同じである。
この例は、画面例2と画面例3の組み合わせであり、ディスプレイ102の1度目の展開か2度目の展開かで、表示のモードが切り替えられる場合を表している。
【0073】
図23は、携帯端末10Aの変形の遷移と表示される画面の他の変化を説明する図である。(A)はディスプレイ102を半分に折り畳んだ状態の画面例を示し、(B)はディスプレイ102を展開した状態の画面例を示し、(C)は再び半分に折り畳んだ状態の画面例を示し、(D)は再び展開した状態の画面例を示す。
図23の場合、半分に折り畳んだ状態からの1度目の展開の場合と2度目の展開の場合とでARコンテンツが表示される左右の関係が入れ替わっている。
【0074】
<画面例5>
図24は、携帯端末10Aの変形を編集画面の表示に用いる画面例を説明する図である。(A)はディスプレイ102を折り畳んだ状態を撮像された画像の表示に割り当てる例を示し、(B)はディスプレイ102の展開を編集画面の表示に割り当てる例を示す。
図24には、
図13との対応部分に対応する符号を付して示している。
図24に示す画面例は、ディスプレイ102の変形を、編集画面の表示に用いる例である。なお、編集画面のレイアウトや編集の操作は、
図13の例と同じである。ただし、
図24の例では、紐付けられたARコンテンツの画面例が右領域102Bに表示されている。
このように、ディスプレイ102の変形が可能な携帯端末10Aの場合には、その変形を表示モードの変更に用いることが可能である。なお、編集画面は、被写体に紐付けるARコンテンツの設定に用いる情報の一例である。
【0075】
<実施の形態3>
前述の実施の形態では、ディスプレイが本体の片面側に1枚だけ配置される場合について説明した。本実施の形態では、本体の表面と裏面の両方にディスプレイが配置される場合について説明する。
図25は、実施の形態3で使用する携帯端末10Bの外観構成の一例を説明する図である。(A)は携帯端末10Bを正面から見た図であり、(B)は携帯端末10Bを側面から見た図である。
図25には、
図16との対応部分に対応する符号を付して示している。
【0076】
本実施の形態で使用する携帯端末10Bは、本体11の正面側にメインのディスプレイ102が配置され、本体11の裏面側にサブのディスプレイ102Cが配置されている。サブのディスプレイ102Cのサイズは、メインのディスプレイ102のサイズの約半分である。
本実施の形態で使用する携帯端末10Bのディスプレイ102も、実施の形態2で使用する携帯端末10Aのディスプレイ102と同じく、変形が可能である。ただし、本実施の形態における携帯端末10Bは、メインのディスプレイ102が設けられている面が谷側となるように折り畳まれる。すなわち、ヒンジ12Aが動作する方向は、実施の形態2で用いたヒンジ12とは動作の方向が反対である。
【0077】
本実施の形態の場合、メインのディスプレイ102を谷側として折り畳まれる。このため、携帯端末10Bが折り畳まれると、サブのディスプレイ102Cだけが外部から観察可能な状態になる。このため、携帯端末10Bが折り畳まれた状態では、サブのディスプレイ102Cにだけ画像が表示される。
図26は、実施の形態3で使用する携帯端末10Bの折り曲げ変形を説明する図である。(A)は折り曲げ変形後の携帯端末10Bの外観例を示し、(B)は折り曲げ変形前の携帯端末10Bの外観例を示す。
本実施の形態の場合、携帯端末10Bを折り畳んだ状態では、サブのディスプレイ102Cにのみ画像が表示される。一方、携帯端末10Bを展開した状態では、メインのディスプレイ102にのみ画像が表示される。
【0078】
本実施の形態の場合も、携帯端末10Bの変形に、実施の形態2で説明した携帯端末10A(
図17参照)の表示を対応付けることが可能である。
具体的には、携帯端末10Aを折り畳んだ状態における表示をサブのディスプレイ102Cの表示に対応付け、携帯端末10Aを展開した状態における表示をメインのディスプレイ102の表示に対応付けることが可能である。
【0079】
<他の実施の形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は前述した実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
【0080】
(1)前述の実施の形態においては、ARコンテンツが画像の場合について説明した。しかし、ARコンテンツに音を用いてもよい。例えば被写体に応じた効果音や説明音を付加してもよい。また、カメラ106で撮像された画像内の被写体に紐付けて表示する情報として、ARコンテンツに代えてMRコンテンツを付加してもよい。
MRコンテンツは、拡張現実よりも現実世界との融合の度合が高い複合現実(MR: Mixed Reality)を作り出す情報である。複合現実では、MRコンテンツが現実世界の物体と同じように現実の空間内に紐付けられるため、複数人のユーザが同時刻に複数の方向からMRコンテンツを認識することが可能である。MRコンテンツには、例えば看板、交通標識、案内板が含まれる。MRコンテンツには、現実世界の物体と同じく、観察位置に応じた画像の情報が含まれる。
【0081】
(2)前述の実施の形態では、ARサーバ20(
図1参照)が実行すると説明した処理の一部又は全部を携帯端末10(
図1参照)、10A(
図15参照)、10B(
図25参照)で実行してもよい。その場合の携帯端末10等は情報処理装置の一例である。
同様に、携帯端末10等で実行すると説明した処理の一部または全部をARサーバ20で実行させてもよい。
【0082】
(3)前述の実施の形態では、携帯端末10Aが変形可能な1枚のディスプレイ102(
図17参照)を有する場合について説明した。しかし、ディスプレイ102は、複数枚のパネルで構成されていてもよい。
図27は、他の実施の形態で使用する携帯端末10Cの外観構成の一例を説明する図である。(A)は携帯端末10Cを正面から見た図であり、(B)は携帯端末10Cを側面から見た図である。
図27には、
図16との対応する部分に対応する符号を付して示している。携帯端末10Cも情報処理装置の一例である。
【0083】
図27に示す携帯端末10Cは、2枚のディスプレイ102により表示面が構成される。これら2枚のディスプレイ102には、連続した1枚の画像の表示が可能である。2枚のディスプレイ102は、左領域102A及び102Bにそれぞれ対応する。
携帯端末10Cの場合、2つの本体パネル11A及び11Bがヒンジ13に対して両方向に回転可能に取り付けられている。ヒンジ13には、2つの本体パネル11Aを両方向に回転自在に取り付ける回転軸と、本体パネル11Bを両方向に回転自在に取り付ける回転軸とが内蔵されている。このため、2枚のディスプレイ102を内側に折り畳むことも、2枚のディスプレイ102を外側に折り畳むことも可能である。
本実施の形態で使用する本体パネル11A、本体パネル11B、ディスプレイ102は、いずれも剛性が高く、それ自体は変形しない。
【0084】
(4)前述の実施の形態では、本体パネル11A(
図16参照)及び本体パネル11B(
図16参照)をヒンジ12(
図16参照)等で連結することにより表示面を複数の形状に変形可能としているが、表示面の変形は他の手法でも可能である。
図28は、2つの本体パネル11C及び11Dが上下2段に配置される携帯端末10Dにおける表示面のサイズの変化を説明する図である。(A)は本体パネル11Dが他方の本体パネル11Cの下に収納されている状態を示し、(B)は本体パネル11Cの下から他方の本体パネル11Dの一部が引き出された状態を示し、(C)は他方の本体パネル11Dの全体が引き出された状態を示している。
【0085】
図28に示す携帯端末10Dの場合、本体パネル11Dを出し入れすることにより、表示面の形状を変形することが可能である。例えば本体パネル11Dを本体パネル11Cの下に収納すれば、表示面のサイズは1枚のディスプレイ102だけで定まるが、本体パネル11Dを本体パネル11Cから引き出せば、引き出した長さに応じて表示面のサイズの拡張が可能になる。なお、本体パネル11Dの表面には別のディスプレイ102が配置されている。
【0086】
図29は、引き出し型のディスプレイ102Eを有する携帯端末10Eの外観例を説明する図である。
図29に示す携帯端末10Eは、表面にディスプレイ102Dが取り付けられた本体11Eと、本体11E内に巻取り可能に収納される変形可能なディスプレイ102Eと、ディスプレイ102Eの一端に取り付けられた取っ手11Fとで構成される。
図29に示す携帯端末10Eの場合、取っ手11Fを掴んでディスプレイ102Eを本体11Eから引き出すことで表示面のサイズを拡張することが可能である。また、ディスプレイ102Eを本体11E内に収納すると、表示面はディスプレイ102Dだけのサイズとなる。
【0087】
(5)前述の実施の形態では、ディスプレイ102(
図2参照)を複数の領域に分割し、各領域にARコンテンツをそれぞれ表示したが、少なくとも1つの領域には、カメラ106(
図2参照)で撮像された画像をARコンテンツなしで表示してもよい。
図30は、ARコンテンツ付きの画像とARコンテンツなしの画像を並べて表示するモードの例を説明する図である。
図30には、
図10との対応部分に対応する符号を付して示している。
図30の場合、左領域102Aには、カメラ106で撮像された画像のみが表示され、右領域102Bには、カメラ106で撮像された画像と被写体に紐付けられているARコンテンツとが表示されている。
この表示手法の場合、ARコンテンツで隠れた部分にある本来の画像の確認が容易になる。
【0088】
(6)前述した実施の形態では、カメラ106(
図2参照)が携帯端末10(
図1参照)と一体である場合について説明したが、カメラ106は、携帯端末10に対して着脱が可能でもよいし,WiFi等の無線通信により携帯端末10との接続が可能でもよい。従って、カメラ106は、携帯端末10での利用が可能であれば、例えば街中に設置されているライブカメラや防犯カメラでもよい。
【0089】
(7)前述した各実施の形態におけるプロセッサは、広義的な意味でのプロセッサを指し、汎用的なプロセッサ(例えばCPU等)の他、専用的なプロセッサ(例えばGPU(=Graphical Processing Unit)、ASIC(=Application Specific Integrated Circuit)、FPGA(=Field Programmable Gate Array)、プログラム論理デバイス等)を含む。
また、前述した各実施の形態におけるプロセッサの動作は、1つのプロセッサが単独で実行してもよいが、物理的に離れた位置に存在する複数のプロセッサが協働して実行してもよい。また、プロセッサにおける各動作の実行の順序は、前述した各実施の形態に記載した順序のみに限定されるものでなく、個別に変更してもよい。
【符号の説明】
【0090】
1、1A…ネットワークシステム、10、10A、10B、10C、10D、10E…携帯端末、11、11E…本体、11A、11B、11C、11D…本体パネル、12、12A…ヒンジ、20…ARサーバ、102、102C、102D、102E…ディスプレイ、102A…左領域、102B…右領域