(58)【調査した分野】(Int.Cl.,DB名)
前記制御手段は、前記ディスプレイにて表示している画像の変化に応じて、当該変化に対応して前記所定の画像を前記ディスプレイにて表示している画像上にて移動させることを特徴とする請求項1または2に記載の端末装置。
前記ディスプレイにて表示している画像上における前記所定の画像の移動距離は、前記第2の特定手段にて特定する変化後の三次元空間画像に含まれる実オブジェクトと前記端末装置の前記三次元モデルにおける位置関係に基づいて決定されることを特徴とする請求項3に記載の端末装置。
前記制御手段は、現実の三次元空間と前記端末装置との間の深度情報に基づいて、前記所定の画像の前記ディスプレイにて表示している画像における位置、及び、サイズを決定することを特徴とする請求項1乃至4のいずれか一項に記載の端末装置。
前記環境情報は、前記端末装置の周辺環境における、温度、湿度、音、光、時間、経度/緯度の情報のうちの少なくとも1つを含むことを特徴とする請求項1乃至5のいずれか一項に記載の端末装置。
前記光の環境情報は、前記表示手段にて表示している前記所定の画像に対する光源の位置、光量、色のうちの少なくとも1つを含むことを特徴とする請求項6に記載の端末装置。
前記動作情報は、前記端末装置の位置、向き、内部処理、前記撮像装置の撮影条件に対する変化のうちの少なくとも1つを含むことを特徴とする請求項2に記載の端末装置。
前記所定の画像は、人物、動物、オブジェクト、およびアニメーションの少なくともいずれかを含むことを特徴とする請求項1乃至10のいずれか一項に記載の端末装置。
【発明を実施するための形態】
【0012】
以下、図面を用いて、本願発明に係る一実地形態について説明を行う。なお、以下に示す実施形態は一例であり、これに限定するものではない。また、以下の説明では、本実施形態に係る端末装置として、スマートフォンなどの携帯端末を例に挙げて説明するが、これに限定するものではない。
【0013】
[用語の説明]
まず、本願発明の説明にて用いる用語の説明を行う。
【0014】
「環境情報」は、携帯端末の周辺環境に関する各種情報である。例えば、温度、湿度、音(音量、音源の位置)、光(光量、光源の位置)、時間(時刻)、日付、経度/緯度、高度などが該当する。
【0015】
「動作情報」は、携帯端末が備える各リソースの状態、負荷、動作モード、撮影部による撮影条件、もしくは内部処理の状態などが該当する。
【0016】
「撮影画像」は、撮影部により撮影された画像(三次元空間画像)であり、ここでは、ディスプレイにリアルタイムに表示される画像も含むものとする。
【0017】
「三次元モデル」は、携帯端末の周辺の三次元空間の特徴を示す情報を示す。各種センサにて取得された情報にて例えば、撮影部に撮影された画像から抽出される、画像内の各種物体の特徴を示す点群(特徴点)などにより構成される。
【0018】
「深度情報」は、原点から検知対象までの深さ(距離)を示す情報である。ここでの原点とは、端末装置の位置を基準として設けられるものとする。
【0019】
「表示オブジェクト」は、ディスプレイに表示するオブジェクトであり、表示オブジェクトの種類は、人物、動物、オブジェクト、およびアニメーションなどが挙げられる。表示オブジェクトは、二次元形状にて構成されたものでもよいし、三次元形状にて構成されたものでもよい。なお、以下の説明において、表示オブジェクトに対し、撮像部を介して撮影された実空間上の物質を単に「オブジェクト」と称する。
【0020】
[ハードウェア構成]
図1は、本実施形態に係る端末装置の概略的なハードウェア構成の例を示す図である。端末装置10は、例えば、スマートフォンといった携帯型の通信端末である。端末装置10は、制御部100、スピーカ101、マイク102、撮像部103、GPS処理部104、ジャイロセンサ105、ディスプレイ106、深さセンサ107、通信部108、加速度センサ109、地磁気センサ110、および温度/湿度センサ111を備える。
【0021】
スピーカ101は、制御部100から出力する音声信号を音声に変換する。マイク102は、入力された音声を音声信号に変換して制御部100に出力する。撮像部103は、レンズ及びCCDセンサ(不図示)を有し画像情報を取得して制御部100に出力する。GPS処理部104は、GPS衛星からの信号を受信して受信した信号に基づき、緯度、経度、高度を含む位置情報を制御部100に出力する。ジャイロセンサ105は、端末装置10の角度や角速度を測定して姿勢情報として制御部100に出力する。ディスプレイ106は、本実施形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。
【0022】
深さセンサ107は、オブジェクトまでの距離(深さ)を測定して測定結果を深度情報として制御部100に出力する。深さセンサ107としては、例えば、赤外線カメラを用いることができる。通信部108は、移動通信網や無線LAN(Local Area Network)を介した通信処理を行う。加速度センサ109は、端末装置10の加速度を測定して加速度情報として制御部100に出力する。地磁気センサ110は、地磁気を検出して端末の基準方向の現在の向きを示す方位情報を制御部100に出力する。温度/湿度センサ111は、端末装置10の周辺環境における温度および湿度を検知し、制御部100に出力する。
【0023】
制御部100は、端末装置10全体の制御部であり、1つ以上のプロセッサとメモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAM(Random Access Memory)や、プロセッサが実行するオペレーティングシステム(OS)及びアプリケーションと、電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。
【0024】
なお、上記の装置のハードウェア構成の例は一例であり、上記以外の部位を備えていてもよい。例えば、端末装置10の周囲における環境情報や三次元モデルを取得するために、各情報に対応してセンサを設けていてもよい。
【0025】
本実施形態において、三次元モデルは、撮像部103で撮像した画像の特徴点の点群と撮像位置とを対応付けて保持する対応テーブルであってもよい。点群は撮像場所や角度が多少変わっても同じ物体だと認識できるように構成される。端末装置10はその特徴点の情報を読み込み、撮像位置が分からない場合に撮像位置がどこかを判定する。すなわち、三次元モデルは風景の見え方を記憶して撮像位置がどこかを求めるためのものであり、深さセンサ107を使わなくても生成可能である。一方、オブジェクトを地面の上に立たせたり現実の物体の大きさを測定したりする場合には深さセンサ107を用いる。
【0026】
[ソフトウェア構成]
図2は、本実施形態に係る概略的なソフトウェア構成の例を示す図である。本実施形態に係る各種処理部の機能は、制御部100が備えるメモリ部に格納されたプログラムをプロセッサが適時読み出して実行することにより実現される。
【0027】
端末装置10は、三次元モデル取得部201、撮影画像取得部202、環境情報取得部203、位置情報取得部204、表示制御部205、オブジェクト制御部206、位置関係特定部207、および音声解析部208を備える。
【0028】
三次元モデル取得部201は、端末装置10の周囲の空間に関する三次元モデルを取得する。なお、三次元モデルを取得する方法については、特に限定するものでは無いが、一例として、非特許文献1、2にて示されているTangoを用いることが可能である。
【0029】
ここで、三次元モデルについて説明する。三次元モデル取得部201は、例えば、非特許文献1に記載された技術に基づき場所記述情報を生成する。場所記述情報とは、撮像部103が撮像している画像から端末装置10の三次元空間位置と撮像部103の撮像方向を判定するための情報である。まず、非特許文献2に記載された場所記述情報の生成について説明する。なお、三次元空間位置の原点は、場所記述情報を開始したときの端末装置10(撮像部103)の位置であるものとする。
【0030】
端末装置10のユーザは、場所記述情報の取得を開始すると、撮像部103により画像を撮像しながら、その位置や、撮像方向を変化させる。三次元モデル取得部201は、場所記述情報の取得の間、その開始時の位置を原点とし、各種センサにより取得された加速度情報及び角速度情報に基づき端末装置10の位置や撮像方向の向きを判定し続ける。また、三次元モデル取得部201は、撮像部103が撮像している画像内の特徴点を求める。このとき、三次元モデル取得部201は、三次元空間における端末装置10の位置や撮像方向と、画像内の同じ特徴点のカメラ座標における位置を判定する。これにより、三次元モデル取得部201は、三次元空間内の各位置及び各撮像方向において、撮像部103が撮像している画像内のどの位置に各特徴点が見えるかを示す場所記述情報を生成する。よって、端末装置10は、生成した場所記述情報と、撮像部103が撮像している画像の特徴点とを比較することで、そのときの端末装置10の三次元空間位置と撮像部103の撮像方向を判定することができる。
【0031】
また、三次元モデル取得部201は、既に保存している場所記述情報と、撮像部103が撮像している画像の特徴点との比較により端末装置の三次元空間位置と撮像部103の撮像方向を判定すると同時に、撮像部103が撮像している画像の特徴点に基づき当該既に保存している場所記述情報の更新も行う。
【0032】
上述した様に、場所記述情報は、端末装置10の位置及び撮像方向と、撮像部103が撮像する画像内にある各オブジェクトの各特徴点のカメラ座標における位置との関係を示す情報であるため、場所記述情報に基づき、各特徴点の三次元空間位置の座標を示す三次元空間情報を生成することができる。なお、特徴点の位置は、実空間を模した仮想的な三次元空間の座標(x,y,z)で表される。
【0033】
ここで生成された場所記述情報は適時、端末装置10の記憶部に保持されていく。このとき、既に生成済みの三次元モデルが存在する場合、新たに取得した三次元モデルと、既に保存している三次元モデルとを比較してもよい。例えば、比較の結果、所定割合以上の特徴点が一致すると、新たに取得した三次元モデルが、既に保存している三次元モデルと同じ場所で取得されていることを認識する。この場合、既に保存している三次元モデルを新たに取得した三次元モデルで更新する。
【0034】
撮影画像取得部202は、撮像部103を介して撮影した画像を取得する。この取得した画像は、リアルタイムでディスプレイ106に表示したり、上記の三次元モデル取得部201へ渡したりする。
【0035】
環境情報取得部203は、温度/湿度センサ111を介して、端末装置10の周辺環境における温度情報や湿度情報を取得する。更に、環境情報取得部203は、撮像部103を介して撮影した画像を解析し、画像中の明るさの変化や、光源などを特定する。例えば、光源の特定に関し、端末装置10が備える光センサ(不図示)により検知した方向に基づいて、判定することができる。更に、環境情報取得部203は、音声解析部208により解析された各種音声情報を取得する。なお、環境情報取得部208は、音声情報として、人などの声に限定するものではなく、音楽や所定の音などを取得するようにしてもよい。また、音声解析部208に解析される前の生の音声情報をそのまま環境情報として用いてもよい。また、環境情報取得部203は、通信部108を介して外部の装置(不図示)から環境情報を取得してもよい。外部から取得する情報としては、例えば、音声情報に基づいて、関連する情報(天気情報など)を取得してもよい。
【0036】
位置情報取得部204は、三次元モデル取得部201にて取得された情報に基づいて、実空間の三次元モデルにおける端末装置10の現在位置を特定する。現在位置は三次元空間の座標(x,y,z)にて特定される。位置情報取得部204は、ジャイロセンサ105から出力される姿勢情報と加速度センサ109から出力される加速度情報とを用いたモーショントラッキングにより、端末装置10の現在位置および傾きを特定する。例えば、位置情報取得部204は、まず三次元モデルとして得られた特徴点によるマッチングを行い、端末装置10が三次元モデルのどの場所にいるかを特定する。特定できた後、位置情報取得部204は、加速度センサ109、ジャイロセンサ105により端末装置10が移動しても三次元モデル上の座標を特定できる。位置情報取得部204は、撮像部103が撮像して得られた画像情報に基づくエリアラーニングにより、モーショントラッキングでのずれの累積を補正してもよい。
【0037】
表示制御部205は、撮像部103を介して撮影されている画像と、オブジェクト制御部206により作成された表示オブジェクトを重畳して表示させる。表示制御部205は、ディスプレイ106上での表示オブジェクトの位置などを、位置情報、三次元モデル、もしくは環境情報などに基づいて決定する。例えば、表示制御部205は、三次元モデルにて示されるオブジェクトの座標と、端末装置10の位置情報と、深さセンサ107によって得られる情報との対応関係に基づいて、表示オブジェクトのディスプレイ106上での位置を特定する。このとき、深さセンサ107から得られた情報を用いることにより、現実空間の壁や床などとの対応関係を考慮して画像の位置や表示を制御することが可能となる。
【0038】
オブジェクト制御部206は、ディスプレイ106に表示する表示オブジェクトおよびその動作を決定し、表示制御部205に渡す。例えば、ここでの動作とは、例えば、表示オブジェクトの動作の他、音声により情報を提供したり、文字としてディスプレイ106上に表示したりすることも含む。また、端末装置10にインストールされている他のアプリケーションや、端末装置10が備える各種ハードウェアから情報を取得し、その情報に基づいて動作を決定してもよい。
【0039】
位置関係特定部207は、三次元モデル取得部201で取得した三次元モデルと、位置情報取得部204にて取得した位置情報とに基づいて、端末装置10のディスプレイ106で表示されている画像に含まれる各種オブジェクトと、端末装置10との位置関係を特定する。ここで特定された位置関係に基づいて、表示制御部205は、ディスプレイ106に表示されている画像において、所定の表示オブジェクトを表示する位置を特定することとなる。
【0040】
音声解析部208は、マイク102を介して入力された音声を解析し、音の大きさや発された位置(音源)や方向などを特定する。音源の特定方法としては、例えば、端末装置が備える複数のマイクからの入力に基づき、その入力された音の時間差により、音源の位置を推定する方法がある。また、複数のマイクを用いて、音源までの距離などを推定する方法もあるが、その方法を特に限定するものではない。なお、ここでの解析には、例えば、特定のユーザの声の識別なども含まれる。例えば、特定の音(声)のみを抽出するように解析してもよい。音声解析部208により解析された各種音声情報は、環境情報として、環境情報取得部203に渡される。
【0041】
なお、
図2に示す構成では、端末装置10が各種処理を行う構成とした。しかし、端末装置10は、各情報を取得した後、外部装置へデータを送信し、その外部装置側で処理を行わせ、その結果を取得するような構成であってもよい。
【0042】
例えば、オブジェクト制御部206が、三次元モデルから特定される端末装置10の位置に基づく位置(座標)に対応付けられた表示オブジェクトの情報を外部装置であるサーバからダウンロードしてもよい。ダウンロード方法は様々あり、ユーザが端末装置10を操作して、ダウンロードアイコンを選択するだけでなく、撮像画像又は特徴点の画像を定期的にアップロードし、サーバ側で、画像マッチングで三次元モデルの有無を判定し、該当する三次元モデルをダウンロードしてもよい。また、端末装置10のGPS処理部104にて取得したGPS情報をサーバにアップロードすると、その場所に対応する三次元モデル(対応するアプリケーションが特定されている情報の表示とともに)を選択し、受信してもよい。あるいは、端末装置10は、予め記憶・生成した三次元モデルと三次元モデルから特定される端末装置10の位置に基づく位置(座標)に対応付けられたオブジェクト情報を予め保持していてもよい。
【0043】
また、
図2に示したような各処理モジュールを統合して構成してもよいし、更に詳細に分け、プロセッサ(コンピュータ)に処理可能なプログラムとして構成してもよい。
【0044】
[処理フロー]
以下、本実施形態に係る処理フローについて、
図3を用いて説明する。なお、本実施形態では、制御部100において、プロセッサがメモリ部に格納された各種プログラムを読み出して実行する事により、以下の処理が実現される。
【0045】
S301にて、制御部100は、三次元モデル取得部201により、端末装置10の周囲における三次元モデルを取得する。このとき、予め作成されている三次元モデルを取得するように構成してもよいし、端末装置10が備える撮像部103を起動させた上で、三次元モデルを最初から構成するようにしてもよい。なお、本処理フローの開始と共に、撮像部103を起動するように構成してよい。
【0046】
S302にて、制御部100は、位置情報取得部204により、三次元モデルにおける端末装置10の現在位置を特定する。
【0047】
S303にて、制御部100は、位置関係特定部207により、端末装置10の位置情報と、現実の三次元空間の情報(撮影画像内のオブジェクト)との位置関係(対応関係)を特定する。
【0048】
S304にて、制御部100は、表示制御部205により、特定した位置関係に基づいて、ユーザ所望の表示オブジェクトの表示位置を決定する。ここで決定する表示位置は、端末装置10の位置と、画面に表示されているオブジェクト(例えば、壁や床)との距離に基づいてもよいし、端末装置10の位置からの相対的な場所であってもよい。また、上述したように、画面に表示されているオブジェクトとの距離(深さ)は、深さセンサ107により得られる深度情報を用いることができる。
【0049】
S305にて、制御部100は、オブジェクト制御部206により、表示オブジェクトを決定する。ここでは、ユーザが予め表示オブジェクトの種類をしていてもよいし、位置情報や環境情報に基づいて表示オブジェクトを決定してもよい。また、表示オブジェクトは1つに限定するものではなく、複数の表示オブジェクトが同時に表示されるようにしてもよい。また、複数の表示オブジェクトそれぞれに対して、環境情報などに基づく表示条件および優先度を設けておき、状況に応じて表示オブジェクトの候補を特定してもよい。ここで、制御部100は、その時点での端末装置10の環境情報および動作情報を取得し、保持しておくものとする。更に、表示オブジェクトの決定において、ここで取得した環境情報および動作情報を用いて表示オブジェクトを決定してもよい。
【0050】
また、表示オブジェクトは、前回表示されたオブジェクトの表示設定(明るさ、影の向きなどのパラメータ設定)を保持しておき、次回の表示の際にそのままの状態で表示するようにしてもよい。更に、表示オブジェクトの表示中に、バックグランドで、表示オブジェクトのパラメータ情報と新たに取得した環境情報に基づいてパラメータを変更するか否かを判定し、変更すべきと判定すれば、表示オブジェクトの表示態様や動作を変更してもよい。このとき、表示オブジェクトの表示態様や動作パターンを複数記憶しておくことにより、環境情報に応じた適切な表示や動作パターンのオブジェクトを取得できる。なお、上記の処理は端末装置10におけるバックグラウンドの処理として述べたが、この処理をサーバ側に要求し、その結果を用いてもよい。また、判定の結果、新たな情報をサーバから取得するようにしてもよい。
【0051】
また、プログラム起動時に、GPS情報などに基づいて端末装置10が位置する場所が屋内/屋外を特定したり、時刻情報や日付情報に基づいて朝・昼・夜(更には、季節など)を特定したりした上で、これらの情報のいずれかに基づいて、予め決められた表示パターンを選択してもよい。表示パターンとしては、例えば、夏の夜であれば、夏服で夜の明るさに制御したり、屋内向けの設定に制御したりしてよい。更に、その表示中にバックグランドで環境情報に基づいて表示設定等を修正してもよい。つまり、表示タイミングに基づいた情報をまずは優先するように制御することができる。この構成により、ユーザのストレスを解消できる。
【0052】
S306にて、制御部100は、表示制御部205により、ディスプレイ106上において、S305にて決定した表示オブジェクトを、S304にて決定した画像内の表示位置に表示させる。なお、表示オブジェクトをディスプレイ106上に表示をするかの決定は、端末装置10のアプリの起動時に事前の設定(起動時に表示・非表示)に基づいて判定してもよい。また、アプリ起動時に非表示に制御されている場合でも、端末装置10に対する所定の操作や端末装置10に対して入力された音声情報(例えば、表示オブジェクトに対応する名前の呼びかけ)を検知したことに応じて、表示オブジェクトをディスプレイ106上に表示させるように制御してもよい。
【0053】
また、ディスプレイ106に表示されている画像と、表示オブジェクトの特性に応じて、表示オブジェクトの表示範囲を変更してもよい。例えば、
図4に示すように、ディスプレイ106上に表示された画面内において、地面などに対応する、表示オブジェクトを立たせる領域が含まれていたとする。この場合、表示オブジェクトがヒト型キャラクターの場合、その領域に表示オブジェクトを立たせるような表示を行わせ、一方、画面内にそのような領域がなければ(例えば、壁のみ表示)、画面内に上半身あるいは首から頭までの部分のみを表示させるようにしてもよい。
【0054】
S307にて、制御部100は、環境情報取得部203により、端末装置10の周囲の各種環境情報および端末装置10の動作情報を取得する。更に制御部100、撮像部103の向きの情報を取得する。つまり、撮像部103の向きが変わることにより、ディスプレイ106上に表示される画像も変更されるため、これに伴って、各種情報が変更されることを意味する。
【0055】
S308にて、制御部100は、オブジェクト制御部206により、保持している各種情報と、S307にて新たに取得した各種情報とが異なるか否かを判定する。異なる場合は(S308にてYES)S309へ進み、同じである場合は(S308にてNO)S307へ戻る。
【0056】
S309にて、制御部100は、オブジェクト制御部206により、変化後の各種情報に基づき、新たに表示する表示オブジェクトおよび表示位置を決定する。例えば、新たに表示する表示オブジェクトとしては、これまでに表示していた表示オブジェクトのサイズや向きなどを変更してもよいし、全く異なる表示オブジェクトを表示するようにしてもよい。例えば、環境情報のうち、光源の位置や光量が変化された場合、表示オブジェクトを表示する明るさや影の向きや大きさを変更するようにしてもよい。また、音声情報が新たに入力された場合には、その音声の音源となる位置を特定し、その位置の方向に応じて表示オブジェクトの表示を変更するようにしてもよい。
【0057】
また、変更する際に、連続して変化していくようにしてもよいし、表示が切り替るようにしてもよい。また、撮像部103の向きが変更になったことに伴い、向きの変更量に応じて、表示オブジェクトの移動距離(移動量)を決定して、移動(例えば、キャラクターであれば、歩いているように動作させる)させるようにしてもよい。
【0058】
S310にて、制御部100、表示制御部205により、ディスプレイ106上において、S309にて決定した表示オブジェクトを、決定した表示位置に表示させる。
【0059】
S311にて、制御部100、所定の表示オブジェクトの表示を終了するか否かを判定する。表示を終了すると判定した場合は(S311にてYES)本処理フローを終了し、表示を継続すると判定した場合は(S311にてNO)S307へ戻り、処理を継続する。なお、終了する場合とは、ユーザからの指示を受け付けた場合や、端末装置10の電源を切った場合などが該当するが、これらに限定するものではない。
【0060】
なお、過去の表示履歴(終了時の表示設定情報)を記憶しておき、次回の表示時には、表示履歴の中で最も多い表示態様で表示オブジェクトを表示してもよい。また、表示履歴を時間帯ごとに記憶しておき、次回の表示時間帯で最も多い表示形態を選択してもよい。また、表示履歴には、その表示を行っていた際の環境情報を含めてもよい。そして、次回表示時には、表示履歴と、その時点での環境情報との比較により、表示オブジェクトの表示態様を決定するようにしてもよい。
【0061】
[表示例]
本実施形態に係る、ディスプレイ106におけるユーザ所望の表示オブジェクトの表示例について説明する。以下の説明では、ユーザ所望の表示オブジェクトとして、ヒト型の画像を例に挙げて説明するが、これに限定するものではない。
【0062】
図4(a)は、本実施形態に係るディスプレイ106上において、表示オブジェクトを実空間の画像に重畳して表示している例を示している。
図4(a)の上部に示すようにユーザの位置は変わらず、撮像部103の向きを左右に変更したとする。この場合において、ディスプレイ上に表示されている三次元空間の画像内に表示オブジェクトが表示されるように、表示オブジェクトを移動させている。この時の表示オブジェクトは、画面の中央に位置するように表示してもよいし、三次元空間の画像内に含まれるオブジェクトとの距離(深さ)に基づいて、表示位置を前後左右に調整するようにしてもよい。
【0063】
図4(b)は、光源もしくは音源に基づいて表示オブジェクトを表示する例を示している。例えば、光源の位置を特定し、その光源の位置と表示オブジェクトの位置から、表示オブジェクトの影を表示している例を示している。また、入力された音情報に基づき、その音源の位置(方向)を特定し、その音源に対して表示オブジェクトが何らかの動作を行う。例えば、音源の位置と表示オブジェクトの位置関係に基づき、表示オブジェクトが音源の方へ移動するような動作を行うように表示する。
【0064】
また、音声情報の内容に応じて、表示オブジェクトの動作を変更するように表示させてもよい。例えば、音声情報が、特定の音楽である場合や予め定義されたリズムであった場合などに、表示オブジェクトであるキャラクターが音楽(リズム)に合わせてダンスや動作を行うようにしてもよい。また、音声情報にて示される音量が所定の値を超えた場合には、表示オブジェクトであるキャラクターが驚いたり、その音に対するコメントを発したりするような動作を行うように制御してもよい。また、解析した音声情報が特定の情報である場合には、その情報に対応付けられた表示動作を行うようにしてもよい。例えば、表示オブジェクトであるキャラクターの名前が音声情報として入力された(呼ばれた)場合、その入力に応じて、表示オブジェクトが反応するように表示させてもよい。ここでの反応とは、例えば、返事を行うような動作をしたり、その表示オブジェクトがディスプレイ上に表示されていない場合には、画面内に出てくるように表示してもよい。また、所定の文言や声量に応じて、表示オブジェクトであるキャラクターが怒ったり、悲しんだりする動作を行うように表示させてもよい。更には、音源(呼ばれた方向)に反応して、移動や振り返るといった動作の表示を行うようにしてもよい。
【0065】
また、特定された光源の色(白色、暖色)や撮影部により撮像した画像の色(輝度等)に基づき、表示オブジェクトの色合いを変えるように表示してもよい。また、光源の色等の情報に応じて、表示オブジェクトがディスプレイ106に対する表示設定を変更するような情報を提示するようにしてもよい。
【0066】
また、環境情報には、端末装置自身の動作情報を含めてもよい。例えば、動作情報として端末装置の撮影部に対する撮影操作が挙げられる。この場合に、表示オブジェクトがディスプレイ上で表示されている際に、端末装置が備える撮像部(カメラ)に対し撮影操作を行った場合、表示オブジェクトが撮影ポーズをとるように表示を制御してもよい。また、撮影操作を連続して行う場合には、その撮影操作ごとに異なる動作(撮影ポーズ)を行うようにしてもよい。
【0067】
また、環境情報には、現時点での時刻やディスプレイ上に表示している画面が変化せずに経過した時間を含め、この情報に基づいて、表示オブジェクトの表示内容を制御してもよい。例えば、現時点での時刻が夜中である場合には、表示オブジェクトのキャラクターが寝ている動作を行ったり、夜用の服装となったりするように制御してもよい。また、朝の時刻である場合には、歯磨きを行うような時刻特有の動作を行うような表示を行ってもよい。また、ディスプレイ上に表示している画面が変化せずに経過した時間が所定の閾値を超えた場合には、表示オブジェクトを表示しないように制御したり、ユーザに対して何らかの働きかけを行うように表示オブジェクトの表示を制御したりしてもよい。
【0068】
また、環境情報に含まれる温度や湿度の情報に応じて、表示オブジェクトの動作や表示を切り替えてもよい。例えば、温度が一定の閾値を超えた場合には、薄手の服装となるような表示を行ってもよいし、ユーザに対しメッセージ(例えば、水分を取っているか)を提示するような表示を行ってもよい。また、位置情報に応じて、ユーザ(携帯端末)がいる位置を特定し、その位置に応じた表示を行ってもよい。例えば、その地域の民族衣装やその地域の気候や時期に合せた服装となるように表示を行ってもよい。
【0069】
以上、本願発明では、ユーザが有する端末装置において表示している画像上にユーザ所望の表示オブジェクトを重畳表示させ、その端末装置がある環境に応じてユーザ所望の表示オブジェクトの表示を切り替える。これにより、ユーザは、自身が体験している実環境に応じたオブジェクトの表示変更(オブジェクトによるリアクション)を、端末装置を介して得ることができる。その結果、ユーザ自身とオブジェクト(例えば、アニメのキャラクター)とが同一の環境において、同じ体験をしているといった、ユーザの満足度を向上させ、新たなエンターテイメントの提供が可能となる。