【文献】
1pixel CSS3アニメーションで心地良いモーションを作る,[online],株式会社サイバーエージェント,2013年 3月27日,[検索日 2016.05.27],URL,http://ameblo.jp/ca-1pixel/entry-11497184837.html
(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0017】
以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。
【0018】
<1. 実施の形態>
図1は、携帯端末装置1のブロック図である。携帯端末装置1は、CPU10、記憶装置11、操作部12、ディスプレイ13、スピーカ14および通信部15を備え、ユーザによって携帯される装置を構成している。
【0019】
CPU10は、記憶装置11に格納されているプログラム110を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU10は、携帯端末装置1が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、携帯端末装置1は、一般的なコンピュータとして構成されている。
【0020】
記憶装置11は、携帯端末装置1において各種データを記憶する機能を提供する。言い換えれば、記憶装置11が携帯端末装置1において電子的に固定された情報を保存する。
【0021】
記憶装置11としては、CPU10の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量のデータを記憶するハードディスク、専用の読み取り装置に装着された可搬性の記憶媒体(PCカード、SDカード、USBメモリなど)等が該当する。
図1においては、記憶装置11を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置11は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置11は、データを記憶する機能を有する装置群の総称である。
【0022】
また、現実のCPU10は、高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU10が備える記憶装置も、説明の都合上、記憶装置11に含めて説明する。すなわち、一時的にCPU10自体が記憶するデータも、記憶装置11が記憶するとして説明する。
図1に示すように、記憶装置11は、プログラム110やコンテンツ情報111、フレームデータ114な
どを記憶するために使用される。
【0023】
なお、コンテンツ情報111は、静止画像情報112および背景情報114を含む情報であるが、もちろん、音声情報やその他の情報を含んでいてもよい。コンテンツ情報111は、デザイナーやプログラマなどによって制作され、例えば、外部装置8において提供される。以下の説明では、デザイナーやプログラマ、保守者、外部装置8の操作者など、アプリケーション(プログラム110やコンテンツ情報111などを含む)の提供側の人物を、ユーザと区別して、「オペレータ」と称する場合がある。
【0024】
また、静止画像情報112は、携帯端末装置1において画像変形処理(後述)の対象となる情報である。1の静止画像情報112は、操作対象物(人物や物であって、アプリケーションソフトウェア内でユーザによって操作される対象となる物体)を画像として表現した情報である。1の静止画像情報112に基づく画像変形処理により、一連の動画像を表現する1の動画像情報が作成される。
【0025】
なお、静止画像情報112には、動画像情報(フレームデータ114)を作成するための設定情報がヘッダとして付加されている。当該設定情報とは、静止画像情報112に表現されている操作対象画像の動きを定義する情報である。また、操作対象画像の動きは、ディスプレイ13の画面における当該操作対象画像の移動、回転、変形によって表現される。詳細は後述するが、CPU10は、静止画像情報112に付加されているヘッダを参照しつつ、当該ヘッダに設定されている条件に従って、フレームデータ114を作成する。ただし、このような情報は、対応する静止画像情報112に対応付けてCPU10により処理可能な状態で記憶されていればよく、必ずしも静止画像情報112にヘッダとして直接付加されていなくてもよい。
【0026】
また、背景画像情報113は、対応する静止画像情報112に表現されている操作対象物の背景を表現した情報である。背景画像情報113は、対応する静止画像情報112や当該静止画像情報112から作成される動画像情報(複数のフレームデータ114)と同時にディスプレイ13に表示される。
【0027】
また、フレームデータ114は、一連の動画像を表現する動画像情報を構成する情報である。それぞれのフレームデータ114は、操作対象物が静止した状態を表現した画像情報である。1の動画像情報を構成する複数のフレームデータ114には、それぞれ表示順序が定義される。ただし、本実施の形態では、作成順に表示されるため、作成順が表示順となる。
【0028】
各フレームデータ114は、通常は、表示順序の前後のフレームデータ114と異なる画像を表現しているが、画像は同一で表示位置のみが異なる場合もある。1の動画像情報を構成する複数のフレームデータ114を、順次に切り替えつつディスプレイ13に表示することにより、一連の動画像が表現される。言い換えれば、1の動画像情報に含まれる複数のフレームデータ114を、定義された表示順序に従ってディスプレイ13に表示することにより、一連の動画像が表現されるように当該複数のフレームデータ114が作成される。一般に、フレームデータ114は、1/20[秒]の間だけディスプレイ13に表示されて、次のフレームデータ114に切り替えられる。ただし、各フレームデータ114の表示時間は、これに限定されるものではない。
【0029】
操作部12は、携帯端末装置1に対して
ユーザ等が指示を入力するために操作するハードウエアである。操作部12は、ディスプレイ13の画面に表示された静止画像情報112に対するユーザによる操作を検出する機能を有している。操作部12は、
図1に示すように、複数のキーで構成されるキー群120と、ディスプレイ13の画面へのユーザの接触および接触位置を検出するタッチパネル121と、ユーザが携帯端末装置1を動かす動作を検出する動き検出センサ122とを含んでいる。携帯端末装置1の動きを検出する動き検出センサ122としては、例えば、ジャイロセンサ、加速度センサ、振動センサなどが想定される。
【0030】
ディスプレイ13は、各種データを画面に表示することにより
ユーザ等に対して当該各種データを出力する機能を有するハードウェアである。ディスプレイ13は、通信部15により受信されたコンテンツ情報111に含まれる静止画像情報112および背景画像情報113を画面に表示する。ディスプレイ13としては、例えば、CRT、液晶ディスプレイ、液晶パネル、有機ELディスプレイなどが該当する。なお、ディスプレイ13の画面における表示領域は、タッチパネル121の検出領域に対応付けされている。
【0031】
スピーカ14は、CPU10から伝達される音声情報を音波に変換して出力するハードウェアである。これにより、音声情報は、ユーザの聴覚によって知得され得る情報に変換される。音声情報としては、効果音やBGM、声などを想定することができる。ディスプレイ13にフレームデータ114が表示されるとともに、スピーカ14がこのような音声情報を出力することによって、さらに、臨場感が増大する。
【0032】
通信部15は、外部装置8(例えば、データベースサーバやアプリケーションサーバなど)と携帯端末装置1とをネットワーク9を介した無線によるデータ通信が可能な状態で接続する機能を有している。通信部15は、いわゆる無線通信機能を有しており、外部装置8からネットワーク9を介してコンテンツ情報111を受信する。
【0033】
図2は、携帯端末装置1が備える機能ブロックをデータの流れとともに示す図である。
図2に示す表示制御部100、音声制御部101および情報作成部102は、CPU10がプログラム110に従って動作することにより実現される機能ブロックである。
【0034】
表示制御部100は、ディスプレイ13を制御して、静止画像情報112、背景画像情報113およびフレームデータ114を必要なタイミングで必要な位置に表示させる機能を有している。どの画像情報を、どのタイミングで表示させるかの判断は、主に操作部12からの信号(ユーザによる入力信号)により決定される。また、ディスプレイ13の画面のうちのどの位置に表示させるかの判断は、通常、各画像情報のヘッダに記述されている。表示制御部100は、情報作成部102により作成された複数のフレームデータ114をディスプレイ13の画面に順次に表示させる。
【0035】
図3は、ディスプレイ13に静止画像情報112aと背景画像情報113aとが表示される様子を示す図である。
【0036】
静止画像情報112aについての画像エリアは、点線の矩形で示す領域である。また、静止画像情報112aにおける操作対象物は、球状物体7である。また、点70は静止画像情報112aの画像エリアの中心であり、点71,72,73,74は、それぞれが画像エリアの四隅の頂点である。ただし、これらの点70,71,72,73,74は、ディスプレイ13に表示される画像ではなく、静止画像情報112aに限らず、各静止画像情報112において単に定義することのできる点である。このような構成は、静止画像情報112aから作成されるフレームデータ114も同様である。点70,71,72,73,74に関する情報は、予め設定情報(ヘッダ)に含めることができる。
【0037】
図3に示す例では、背景画像情報113aのサイズは、ディスプレイ13の画面の表示領域と同じサイズとなっている。すなわち、背景画像情報113aの画像エリアはディスプレイ13の画面の表示領域と一致している。背景画像情報113aは、空画像60と地面画像61とが画像で表現された画像となっている。
【0038】
静止画像情報112aの画像エリアは、背景画像情報113aを上書きするかのようにディスプレイ13に表示される。したがって、球状物体7は、背景画像情報113aの空画像60や地面画像61に隠れることはない。
【0039】
ただし、静止画像情報112aの画像エリアにおいて、球状物体7を表現する部分以外の部分は、背景を透過させる画像(透明な物体を表現した画像)であるかのような部分となっている。これにより、ユーザが静止画像情報112a(フレームデータ114)の外周形状(破線で示す矩形)を感得することはない。したがって、境界線が見えてしまうことによる違和感を防止することができる。このような構成は、静止画像情報112aから作成されるフレームデータ114も同様である。
【0040】
なお、表示制御部100は、ディスプレイ13の表示領域における静止画像情報112aの表示位置(座標)を、点70に応じて決定する。当該表示位置も、設定情報(ヘッダ)に予め格納しておくことができる。
【0041】
図2に戻って、音声制御部101は、コンテンツ情報111に音声情報が含まれている場合、操作部12からの信号に応じて、必要な音声情報を選択し、スピーカ14を制御して、当該スピーカ14に音声情報を音声として再生させる。これにより、ディスプレイ13に表示される画像と連動した効果的な音声がスピーカ14から再生され、視覚と聴覚とによる相乗効果によりアプリケーションのユーザに対する臨場感がさらに向上する。
【0042】
情報作成部102は、操作部12により検出されたユーザによる操作に応じて、当該ユーザによる操作の対象となった静止画像情報112に対して画像変形処理を施すことにより一連の動画像を表現する複数のフレームデータ114を作成する。
【0043】
なお、ユーザによるどのような操作を検出したときに、フレームデータ114を作成するかは、当該静止画像情報112に付加されているヘッダに予め格納されている。言い換えれば、ヘッダに格納されている操作と一致する操作を検出すると、情報作成部102は、静止画像情報112からフレームデータ114を作成する。
【0044】
情報作成部102は、フレームデータ114を作成するときには、操作対象物の動きを決定して、それに応じたフレームデータ114を作成する。すなわち、静止画像情報112に付加されているヘッダを参照して、操作対象画像の移動、回転、変形を決定する。
【0045】
操作対象物の移動とは、操作対象物を表現した画像のディスプレイ13の画面内での移動である。当該移動を表現するためには、動画像が表示されている時間ごとに(すなわち、各フレームデータ114ごとに)、操作対象物(点70)の位置を決定する必要がある。操作対象物の移動を決定するためのパラメータとしては、移動方向Dと、移動距離Lとがヘッダに格納される。
【0046】
なお、作成される複数のフレームデータ114において、常に、表示位置が固定されている場合には、動画像が表示されている間、当該操作対象物は移動しないことになる。
【0047】
また、移動距離Lとしては、ディスプレイ13の画面の表示領域外まで移動するように設定することも可能である。すなわち、移動方向Dに移動しつつ、表示領域の端部まで到達した後、操作対象物が、一旦、画面から消えるような演出も可能である。
【0048】
また、動画像の表示時間T[秒]は、ヘッダに設定されているものとする。表示時間Tは、操作対象物が動き始めてから停止するまでの時間(動作時間)ともいえる。また、本実施の形態では、すでに説明したように、フレームデータ114を切り替える間隔(フレーム間隔)は、1/20[秒]である。したがって、1の静止画像情報112に基づいて作成される一連の動画像に含まれるフレームデータ114の数(作成されるフレームデータ114の数)は、20×T[個]となる。
【0049】
操作対象物の回転とは、
図3に示す例における点70を中心に、当該操作対象物が回転するような動きである。これは、各フレームデータ114ごとに、直前のフレームデータ114に対してどの程度回転させるかを示す回転角θを決定しておき、予めヘッダに設定しておくことにより決定できる。なお、本実施の形態では、当該回転の中心点を点70(画像の中心)としたが、回転の中心点は画像の中心に限定されるものではない。点70と異なる点を回転の中心点にするには、ヘッダに別途定義すればよい。
【0050】
操作対象物の変形とは、操作対象物を表現した画像の変形である。本実施の形態では、どのように操作対象物の画像を変形させるかは、当該画像の全体または一部を、拡大または縮小させることによって実現する。
【0051】
また、変形の基本パターンを特定した後に、画像エリアの各頂点(
図3に示す例では、点71,72,73,74)についての頂点変形処理を行うことにより、変形の基本パターンを補正し、微調整することも可能である。
【0052】
本実施の形態における携帯端末装置1では、予め、いくつかの基本となる動作のパターンを定義しておく。ある操作対象物を動かしたいとき、オペレータは、これらのパターンから所望の動作のパターンを選択するとともに、当該パターンに対して各種必要なパラメータをヘッダに設定することによって具体的な動作を定義する。基本となる動作のパターンとしては、操作対象物の「揺れ」、「落下」、「放物線を描く移動」、あるいは、「跳ね」などが想定されるが、もちろんこれらに限定されるものでない。
【0053】
また、基本となる動作のパターンは、例えば、汎用のWebブラウザなどによって解析可能なスクリプト言語を用いて記述することにより定義する。このように、スクリプト言語を用いて定義することによって、汎用性が向上するとともに、基本となる動作のパターンを容易に作成することができる。したがって、コンテンツ情報111を制作するときの工数を削減することができる。
【0054】
また、これにより、外部装置8ではなく、携帯端末装置1側に、フレームデータ114を作成する情報作成部102を設けることが可能となる。したがって、動画像を表現する複数のフレームデータ114を、ネットワーク9を介して受信する必要がないため、受信しなければならないデータの容量を抑制することができる。
【0055】
以下では、動作の基本パターンである「揺れ(操作対象物が揺れる様子を表現する動画像を作成する)」の場合を例に説明する。
【0056】
オペレータは、基本の動作のパターンが「揺れ」であることを示す識別子をヘッダに格納するとともに、揺れ動作を決定するためのパラメータを設定する。例えば、揺れる方向としてのパラメータである移動方向Dと、揺れる方向への強さのパラメータである移動距離Lとを決定する。また、画像を拡大または縮小するときの比率としてのパラメータである拡大率Sと、振動の強さのパラメータである強度Bとを決定する。これらのパラメータもヘッダに格納される。
【0057】
なお、強度Bは、「1」であれば、直前の「揺れ」と同じ「揺れ」を繰り返すことになり、「0」であれば振動が停止する。また、強度B>1であれば直前の「揺れ」よりも大きな「揺れ」となり、0<強度B<1であれば直前の「揺れ」よりも小さい「揺れ」となる(すなわち減衰)。強度Bは振動させる回数に応じて設定される。例えば、強度Bについて、「0.5,0」と設定されている場合は、振動する回数(揺れる回数)は、2回である。ただし、振動回数を別途パラメータとして設定し、その上で、各「揺れ」の強度Bを設定してもよい。
【0058】
次に、このようにして作成されたヘッダを参照することによって、情報作成部102が作成するフレームデータ114と、当該フレームデータ114が表示されることにより、どのような動画像が表示されるかを説明する。
【0059】
図4ないし
図7は、基本の動作のパターンである「揺れ」を例示する図である。なお、
図4ないし
図7では、
図3に示す静止画像情報112aの球状物体7の「揺れ」を例示している。また、ここでは、移動方向Dは「上向き」である。
【0060】
まず、情報作成部102は、
図4に示すように、静止画像情報112aに基づいて、点70を移動方向Dに沿って移動したフレームデータ114aを作成する。また、このとき、情報作成部102は、移動方向Dに応じた方向に拡大率Sを参照しつつ拡大してフレームデータ114aを作成する。ここでは、フレームデータ114aは、静止画像情報112aに比べて、その画像エリアが縦方向に拡大されている。
【0061】
拡大率Sに応じて、画像エリアが縦方向に最大まで拡大されると、次に、移動速度を緩めつつ、細長くなった画像エリアを縮小して元に戻してゆくように次のフレームデータ114を作成する。すなわち、静止画像情報112aの点70とフレームデータ114aの点70との距離に比べて、フレームデータ114aの点70と次に作成するフレームデータ114の点70との距離の方が短くなるように次のフレームデータ114を作成する。また、画像変形に関しても、縦方向に拡大されていた画像エリアが拡大されていた方向について縮小されて徐々に元に戻るように次のフレームデータ114を作成する。
【0062】
図5では、球状物体7が元の形状に戻ったときのフレームデータ114bを表示している。静止画像情報112aの点70と、フレームデータ114bの点70との距離は、ヘッダに格納されているパラメータに示される移動距離Lとすることが好ましい。言い換えれば、「揺れ」の最大振幅に到達したときに、球状物体7の形状が元の形状(縦横方向のいずれにも拡大あるいは縮小されていない形状)に戻ることが好ましい。
【0063】
移動距離Lだけ移動すると、情報作成部102は、移動方向Dとは逆方向(ここに示す例では下向きとなる)に移動して静止画像情報112aにおける位置(すなわち、元の位置)に戻るように次のフレームデータ114を作成する。このとき、情報作成部102は、移動方向Dに応じた方向に拡大率Sを参照しつつ拡大して次のフレームデータ114を作成する。
【0064】
図6には、球状物体7が元の位置に戻るときのフレームデータ114cを表示している。フレームデータ114cは、フレームデータ114bに比べて、その画像エリアが横方向(移動してくるときと逆方向)に拡大されている。
【0065】
拡大率Sに応じて、画像エリアが横方向に最大まで拡大されると、次に、移動速度を緩めるように次のフレームデータ114を作成する。また、画像変形に関しても、横方向に拡大されていた画像エリアが拡大されていた方向について縮小されて徐々に元に戻るように次のフレームデータ114を作成する。そして、点70が、静止画像情報112aの点70の位置に戻ったときには、フレームデータ114ではなく、静止画像情報112aを表示する。
【0066】
図7は、静止画像情報112aが表示されている例を示している。
【0067】
図4ないし
図7に示す「揺れ」が1回目の「揺れ」である。次に、強度Bが「0」でないならば、情報作成部102は、2回目の「揺れ」を表現するために、再び、フレームデータ114を作成する。このとき、例えば、移動距離Lを移動強度(B×L)としたり、拡大率Sを拡大率(B×S)とし、強度Bを反映させた「揺れ」を表現する。なお、強度Bを2回目以降の「揺れ」に反映させる手法はここに示した例に限定されるものではない。
【0068】
このように、携帯端末装置1では、情報作成部102が静止画像情報112に基づいて、フレームデータ114を作成することにより、動画像を表現したデータをそのままダウンロードする場合に比べて、データ通信によって取得するコンテンツ情報111の情報量を抑制することができる。また、動画像を表示しているときに、並列的にデータ通信を行う必要もない。したがって、動画像の表示に関してデータ通信の影響を排除することができるため、例えば、通信遅延により、動画像の表示が遅れたり、停止したりすることはない。これにより、比較的高精細な動画像を滑らかに表示することができ、ユーザの臨場感が向上する。
【0069】
また、基本の動作のパターンを予め定義しておき、各静止画像情報112に対しては、パラメータを設定するだけで、任意の動作を表現するフレームデータ114を作成することができる。したがって、容易に動画像を作成することができ、アプリケーションの制作に関する工数を削減することができる。
【0070】
また、オペレータは、基本の動作のパターンとして定義されている「揺れ」を実際に生じさせつつ、当該「揺れ」の動きを確認し、さらに、頂点71,72,73,74の頂点変形処理に関するパラメータを設定してもよい。例えば、操作対象物の形状や想定されている材質等によっては、画像エリアを一定の方向(縦方向や横方向)に関して均等に拡縮しない方が自然な「揺れ」を表現できる場合がある。
【0071】
このような場合には、オペレータは、任意の頂点71,72,73,74に対して、「揺れ」の強度(移動距離)に関する補正パラメータを設定することにより、「揺れ」のときの画像変形状態を補正することができる。本実施の形態における携帯端末装置1では、各頂点71,72,73,74に対して、上下方向および左右方向について補正パラメータを設定することが可能とされている。したがって、例えば、左右を弱く、上下を強くすれば上下に伸びるように揺れることになる。また、右上(点72)のみを強くすれば、右上に引っ張られるように揺れることになる。
【0072】
図4ないし
図7では、基本の動作のパターンのうち、「揺れ」を例に、移動と変形とを組み合わせた動きを表現するフレームデータ114の作成について説明した。しかし、移動と変形とを組み合わせる動きはこれに限定されるものではない。例えば、「跳ね」の場合にも単に操作対象物を移動させるだけでなく、画像変形処理を組み合わせることができる。例えば、跳ねる前に、一旦、移動方向Dに応じた方向に画像エリアを縮小してから、縮小した分を元に戻しつつ移動させると、まるで「溜め」を生じてから跳ねたような動画像を表示させることができ、臨場感が向上する。
【0073】
以上が、携帯端末装置1の構成および機能についての説明である。次に、携帯端末装置1を用いて、動画像を表示する動画像表示方法について説明する。
【0074】
図8は、携帯端末装置1の動作を示す流れ図である。
図8に示す各工程は、携帯端末装置1において、動画像表示方法を用いるアプリケーションが起動されたときに開始されるものとする。
【0075】
アプリケーションが起動されると、所定の初期設定(図示せず)が実行される。そして、所定の初期設定が完了すると、表示制御部100は、静止画像情報112および背景画像情報113を表示するようにディスプレイ13を制御する。これにより、ディスプレイ13は、画面に静止画像情報112および背景画像情報113を表示する(ステップS1)。
【0076】
図9および
図10は、ディスプレイ13に表示される静止画像情報112および背景画像情報113を例示する図である。操作対象物である木7a、果実7b,7d、蜂の巣7cは、それぞれが異なる静止画像情報112に表現されている画像である。また、背景画像情報113aは、
図3に示したものと同じものである。
【0077】
ステップS1を実行すると、CPU10は、ユーザによる操作部12の操作(入力)を待つ状態となる。すなわち、操作部12をユーザが操作したか否かを監視しつつ(ステップS2)、ユーザによる操作を検出するまでステップS2を繰り返して待機する。
【0078】
ここでユーザによる操作を検出すると(ステップS2においてYes)、CPU10は、検出されたユーザによる操作が、アプリケーションを終了させる指示か否かを判定する(ステップS3)。
【0079】
ユーザによってアプリケーションの終了が指示された場合、CPU10は、ステップS3においてYesと判定し、所定のバックアップ処理(図示せず)を実行した後、アプリケーションを終了する。
【0080】
一方、ユーザによる操作が、アプリケーションの終了を指示するものでない場合(ステップS3においてNo)、CPU10は、当該ユーザによる操作が静止画像情報112に対する操作であるか否かを判定する(ステップS4)。ステップS4における判定は、例えば、CPU10が、静止画像情報112のヘッダに格納されている操作と、ステップS2において検出された操作とを比較することにより実現可能である。
【0081】
ステップS2において検出されたユーザによる操作が、静止画像情報112に対する操作でない場合(ステップS4においてNo)、当該操作を解析して、必要な処理を実行した後、ステップS1に戻って処理を繰り返す。このような操作としては、例えば、ユーザが画面を切り替える操作などが想定される。そのような場合には、携帯端末装置1は、ユーザが所望する画面に切り替えて、当該画面に対応する静止画像情報112および背景画像情報113を表示する。
【0082】
一方、ステップS2において検出されたユーザによる操作が、静止画像情報112に対する操作である場合(ステップS4においてYes)、情報作成部102は、当該操作に対応する静止画像情報112のヘッダを参照して、フレームデータ114を作成する(ステップS5)。
【0083】
また、音声制御部101は、作成されたフレームデータ114とともに再生する音声情報が存在するか否かを判定する(ステップS6)。そのような音声情報が存在する場合(ステップS6においてYes)、音声制御部101は、当該音声情報に基づいて音声を再生するようにスピーカ14を制御する。これにより、スピーカ14は、フレームデータ114に応じた音声を再生する(ステップS7)。一方で、フレームデータ114とともに再生する音声情報が存在しない場合(ステップS6においてNo)、携帯端末装置1は、ステップS7をスキップし、スピーカ14は音声を再生することはない。
【0084】
また、ステップS5において作成されたフレームデータ114は、表示制御部100によってディスプレイ13に伝達される。これにより、ディスプレイ13は、画面にフレームデータ114を表示する(ステップS8)。ただし、ステップS8は、フレーム間隔ごとに実行されるように表示制御部100によって制御される。
【0085】
1のフレームデータ114が表示されるたびに、情報作成部102は、すべてのフレームデータ114について作成および表示が終了したか否かを判定する(ステップS9)。本実施の形態では、表示時間Tが経過したか否かによってステップS9の判定を行うものとする。すなわち、すでに表示時間Tが経過している場合には、すべてのフレームデータ114について終了していると判断して、ステップS9においてYesと判定するものとする。ただし、例えば、最新のフレームデータ114が終了条件に適合するフレームデータ114か否かを判定してもよい。
【0086】
未だすべてのフレームデータ114について終了していない場合(ステップS9においてNo)、情報作成部102は、ステップS5からの処理を繰り返して、次のフレームデータ114を作成する。
【0087】
一方、すべてのフレームデータ114について終了した場合(ステップS9においてNo)、CPU10は、ステップS1からの処理を繰り返す。
【0088】
なお、ディスプレイ13に表示された後のフレームデータ114は、通常、CPU10(表示制御部100)により削除される。これによって、保存するデータの容量が増大するのを防止する。ただし、次のフレームデータ114を作成するために必要な場合などにおいては、必要な間だけフレームデータ114を保存しておくように構成してもよい。例えば、直前のフレームデータ114と、当該直前のフレームデータ114に対する差分とに基づいて、次のフレームデータ114を作成する場合には、次のフレームデータ114の作成が終了するまで、直前のフレームデータ114を保存(バッファリング)しておいてもよい。
【0089】
また、本実施の形態では、1つのフレームデータ114が作成されるごとに、再生すべき音声情報の有無を確認するとして説明した。しかし、フレーム間隔ごとに、再生すべき音声情報の有無を確認するのではなく、静止画像情報112に対する操作が検出されたときに、当該静止画像情報112に関連づけられている音声情報の有無を確認し、再生するように構成してもよい。
【0090】
以上が携帯端末装置1によって実現される動画像表示方法の説明であるが、
図9および
図10を用いて、表示可能な動画像の多様性について説明する。
【0091】
操作対象物である木7aに対応する各静止画像情報112のヘッダには、ユーザが携帯端末装置1を振る動作が格納されている。すなわち、ユーザが携帯端末装置1を振ると、当該操作が動き検出センサ122によって検出され、ステップS4において木7aに対応する静止画像情報112についてYesと判定されることとなる。
【0092】
木7aに対応する静止画像情報112のヘッダには、動画像として表現する動きとして、移動せずに、左右方向および上下方向に拡縮する動きが定義されている。したがって、木7aに対応する静止画像情報112が操作されたときには、木7aが左右に伸び縮みするとともに上下方向にも伸び縮みする動画像が表示される。
【0093】
すなわち、ユーザが携帯端末装置1を振ると、木7aが揺すられる動きを表現した動画像が表示される。なお、蜂の巣7cが表示されている状態で、木7aが揺すられると、蜂が登場してユーザのプレーヤーは攻撃(ダメージ)を受ける。このとき、スピーカ14から蜂の羽音を再生することが好ましい。また、果実7bに対応する静止画像情報112のヘッダには、携帯端末装置1を振る動作は格納されていないため、果実7aが落下する動画像が表示されることはなく、ユーザのプレーヤーは果実を入手することはできない。
【0094】
一方で、果実7b,蜂の巣7cに対応する各静止画像情報112のヘッダには、いずれも当該画像に対応する位置にユーザが触れる動作が格納されている。すなわち、ユーザが果実7bまたは蜂の巣7cの画像に触れると、当該操作がタッチパネル121によって検出され、ステップS4において、果実7bまたは蜂の巣7cに対応する静止画像情報112についてYesと判定されることとなる。ただし、木7aの画像に対応する位置に触れても、木7aに対応する静止画像情報112に関してはフレームデータ114が作成されることはない。
【0095】
果実7bに対応する静止画像情報112のヘッダには、動画像として表現する動きとして、移動せずに、幹とヘタとの接点を中心点とした回動動作が定義されている。したがって、果実7bに対応する静止画像情報112が操作されたとき、果実7bが左右に揺れる動きが表現された動画像が表示される。ただし、ユーザのプレーヤーは果実を入手することはできない。
【0096】
蜂の巣7cに対応する静止画像情報112のヘッダには、動画像として表現する動きとして、
図4ないし
図7に示したような「揺れ」が定義されている。したがって、蜂の巣7cに対応する静止画像情報112が操作されたとき、蜂の巣7cが変形しつつ揺れる動きが表現された動画像が表示される。すなわち、果実7bにおける揺れ動作(変形のない揺れ動作)に比べて動きが強調された表現となる。
【0097】
蜂の巣7cに対応する静止画像情報112に関するステップS9においてYesと判定されると、ステップS1が実行されて、
図10に例示する表示状態に切り替わる。
【0098】
図10では、蜂の巣7cが表示されておらず、かつ、果実7bが果実7dに変更されている。すなわち、
図9において、蜂の巣7cが「揺れ」た後には、蜂の巣が取り除かれる。なお、果実7bと果実7dとでは同一の画像であるため、ユーザは果実7bが果実7dに変更されたことに気づくことはない。
【0099】
果実7dに対応する静止画像情報112のヘッダにも、果実7bのときと同様の定義がされている。したがって、ユーザが果実7dに触れる操作をしたときには、果実7dが左右に揺れる動きが表現された動画像が表示される。ただし、ユーザのプレーヤーは果実を入手することはできない。
【0100】
果実7dに対応する静止画像情報112のヘッダには、ユーザが携帯端末装置1を振る動作も格納されている。すなわち、ユーザが携帯端末装置1を振ると、当該操作が動き検出センサ122によって検出され、ステップS4において果実7dに対応する静止画像情報112についてYesと判定されることとなる。
【0101】
果実7dに対応する静止画像情報112のヘッダにおいて、ユーザが携帯端末装置1を振る動作に関連づけて格納されている果実7dの動きは、「落下(変形せずに下方向に移動する動き)」とされている。したがって、
図10に示す表示状態のときに、ユーザが携帯端末装置1を振る動作を行うと、果実7dが落下する動画像が表示され、ユーザのプレーヤーは果実を入手することができる。
【0102】
このように、携帯端末装置1は、条件(操作対象物の違いや、ゲームの進捗状況など)に応じて、様々な動作を表現した動画像を表示することができる。また、1つの画面に表示することができる静止画像情報112の数も1つに限定されるものではない。
【0103】
以上のように、ユーザによって携帯される携帯端末装置1は、ネットワーク9を介した無線によるデータ通信によりコンテンツ情報111を受信する通信部15と、通信部15により受信されたコンテンツ情報111に含まれる静止画像情報112を画面に表示するディスプレイ13と、ディスプレイ13の画面に表示された静止画像情報112に対するユーザによる操作を検出する操作部12と、操作部12により検出された当該ユーザによる操作に応じて、ユーザによる操作の対象となった静止画像情報112に対して画像変形処理を施すことにより一連の動画像を表現する複数のフレームデータ114を作成する情報作成部102と、情報作成部102により作成された複数のフレームデータ114を画面に順次に表示させる表示制御部100とを備える。これにより、静止画像情報112に基づいて複数のフレームデータ114を作成することができるため、コンテンツ情報111の情報量を抑制することができる。特に、すでに受信している静止画像情報112に基づいてフレームデータ114を作成するため、ユーザの操作によってデータの送受信が生じることがなく、データ通信による影響を受けることがない。したがって、動画像を表示させるときの通信遅延による影響を抑制することができ、高精細で、かつ、滑らかな動画像を表示することができる。これにより、動画像の視覚的効果が向上し、臨場感が向上する。
【0104】
また、背景(表示領域)よりも小さい画像(操作対象物)をプログラム110によって変形させるため、アニメーション画像を制作する必要がない。したがって、アプリケーションの制作費や制作時間を抑制することができる。
【0105】
また、アニメーション画像を制作すると、後に変更するためには、画像の制作(イラストの制作)からやりなおさなければならなくなり、非常に困難である。これに対して、携帯端末装置1では、パラメータを変更するだけで、動きを調整することができるため、利便性が向上する。
【0106】
また、通信部15により受信されたコンテンツ情報111は、複数のフレームデータ114と同時に表示される背景画像情報113を含む。これにより、画像変形処理による静止画像情報112の外周形状の変化をユーザが感得できないようにすることができる。したがって、より自然な動画像を表示することができる。
【0107】
また、情報作成部102による画像変形処理は、静止画像情報112に対する頂点変形処理を含むことにより、より詳細な画像変形処理を実行することができる。したがって、動画像としてリアリティのある動画像を表示することができる。
【0108】
また、情報作成部102による画像変形処理は、静止画像情報112に対する拡縮処理を含むことにより、表現の自由度が向上するとともに、処理負荷の軽い処理で動画像を作成することができる。
【0109】
また、操作部12は、ディスプレイ13の画面へのユーザの接触位置を検出するタッチパネル121を含むことにより、操作対象物に適した、直感的に把握することができる操作を、当該操作対象物を操作するためのユーザによる操作として定義することができる。
【0110】
また、操作部12は、動き検出センサ122を含むことにより、操作対象物に適した、直感的に把握することができる操作を、当該操作対象物を操作するためのユーザによる操作として定義することができる。
【0111】
<2. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
【0112】
例えば、上記実施の形態に示した各工程は、あくまでも例示であって、上記に示した順序や内容に限定されるものではない。すなわち、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。
【0113】
また、上記実施の形態に示した機能ブロック(例えば、表示制御部100や音声制御部101あるいは情報作成部102)は、CPU10がプログラム110に従って動作することにより、ソフトウェア的に実現されると説明した。しかし、これらの機能ブロックの一部または全部を専用の論理回路で構成し、ハードウェア的に実現してもよい。
【0114】
また、フレームデータ114を作成する順序は、表示順序に限定されるものではない。例えば、表示させる静止画像情報112を拡大させてから縮小させる場合において、拡大させるときには、表示順序に従って必要なフレームデータ114を順次作成しつつ、作成したフレームデータ114を表示後も保存しておき、縮小するときには、当該保存してあるフレームデータ114を拡大時とは逆順で表示させてもよい。この場合、縮小のときには、作成順序とは逆の順序で表示されることになる。