【文献】
docomo iPhone 6/6Plus マスターブック,株式会社マイナビ,2014年11月19日,初版,pp. 64-65
【文献】
LINEお得技ベストセレクション,株式会社晋遊舎,2014年10月 1日,p. 12
【文献】
スマートフォンゲームアプリ初の音声認識機能を搭載した、キャラクターと会話が楽しめる”女性向け恋愛シミュレーションゲーム”開始,[online], 2011年12月16日, [2020年3月26日検索],URL,https://prtimes.jp/main/html/rd/p/000000055.000002943.html
(58)【調査した分野】(Int.Cl.,DB名)
前記出力部において、前記コンタクト情報配置領域内において前記コンタクト情報を吹き出しの画像と共に表示し、前記吹き出しの表示態様が前記音声入力の音質に少なくとも従って決定される、請求項1記載のコンピュータ・プログラム。
前記コンタクト情報が、前記音声入力のテキスト変換に基づくテキストに関連付けられ、前記ユーザ端末に格納されるスタンプ画像である、請求項1から5のいずれか一項記載のコンピュータ・プログラム。
前記スタンプ画像を重畳するための配置領域が、前記音声関連情報に含まれる音量情報に少なくとも従って前記視界画像内に決定される、請求項7記載のコンピュータ・プログラム。
前記出力部が、前記スタンプ画像を収容する吹き出しの画像を前記配置領域内に表示し、前記吹き出しの表示態様が、前記音質情報に少なくとも従って決定される、請求項8記載のコンピュータ・プログラム。
【発明を実施するための形態】
【0011】
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムは、以下のような構成を備える。
【0012】
(項目1)
1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、前記ユーザのユーザ端末が具備するディスプレイに表示する視界画像生成部と、
前記ユーザ端末が具備するマイクロフォンを通じて音声入力を受ける入力部と、
前記音声入力に基づくコンタクト情報を前記視界画像に重畳して、前記ディスプレイに表示する出力部であって、前記コンタクト情報を重畳するためのコンタクト情報配置領域が、前記音声入力の音量に少なくとも従って前記視界画像内に決定される、出力部と
として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。
【0013】
本項目のコンピュータ・プログラムによれば、マイクロフォンを通じた音声入力によりコンタクト情報を入力可能とすることにより、ユーザは、タッチパネルへの多くのタッチ動作を要することなく、入力動作を効率化することができる。特に上記の対戦型のオンラインRPGにおいて、ゲーム進行を妨げることなく、ゲーム状況に応じたスタンプ入力をユーザに実施させることを可能とする。
また、音声入力時の音量をコンタクト情報の出力処理時のパラメータに採用することにより、ユーザにとってよりダイナミックなコンタクト情報の画面出力を可能とし、ユーザ間のリアルタイム・コミュニケーションの臨場感をより大きなものとすることができる。
【0014】
(項目2)
前記出力部において、前記コンタクト情報配置領域内において前記コンタクト情報を吹き出し画像と共に表示する、項目1記載のコンピュータ・プログラム。
【0015】
(項目3)
前記仮想空間が他のユーザに関連付けられる他のキャラクタと共有され、
前記出力部において、更に、前記他のユーザが入力した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、項目1または2記載のコンピュータ・プログラム。
【0016】
(項目4)
前記出力部において、前記他のコンタクト情報を重畳するための他のコンタクト情報配置領域を、前記他のキャラクタの配置に少なくとも従って前記視界画像内に決定し、
前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、項目3記載のコンピュータ・プログラム。
【0017】
(項目5)
前記コンタクト情報が、前記音声入力のテキスト変換に基づくテキスト情報である、項目1から4のいずれか一項記載のコンピュータ・プログラム。
【0018】
(項目6)
前記コンタクト情報が、前記音声入力のテキスト変換に基づくテキストに関連付けられ、前記ユーザ端末に格納されるスタンプ画像である、項目1から5のいずれか一項記載のコンピュータ・プログラム。
【0019】
[本発明の実施形態の詳細]
以下、図面を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて説明する。
【0020】
図1は、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムを実行させるためのコンピュータ・システムの全体概略図である。
図1では、コンピュータ・システムの主要な構成要素のみを示している。コンピュータ・システム100は、ユーザ端末10−1〜10−4(以後、「ユーザ端末10」と総称する。)、およびコンピュータ・サーバ50を備え、これら要素間はネットワーク30(特に、インターネット・ネットワーク)を介して通信を行う。なお、以下では、一例として、本発明の実施形態によるコンピュータ・プログラムをゲーム・プログラムとしてスマートフォン・ゲームに適用し、複数のユーザに共有ゲーム空間(3次元仮想空間)内で相互にコミュニケーションさせるオンライン・ゲーム、特に、3次元仮想空間内で各ユーザが自分自身に関連付けられたキャラクタを操作可能な対戦型のオンラインRPGをユーザがプレイすることを想定する。
【0021】
ユーザ端末10は、コンピュータ・サーバ50から送られるデータを使用し、またコンピュータ・サーバ50から送られるプログラムを実行して、ゲーム画像を生成・表示できる装置であればよく、例えば、インターネットに接続可能な携帯電話機、スマートフォン、タブレット端末、ゲーム用コンソール、ノートPC等を含むが、これらに限定されない。図示のように、ユーザ端末10は、端末表示部11、端末入力部12、端末処理部13、端末通信部14および端末記憶部15等を備え、これらはバスを介して電気的に相互に接続される。
【0022】
ゲーム・サーバ50から端末通信部14で受信したデータやプログラムは、端末記憶部15に一時的に格納され、ゲームの進行に応じて端末処理部13で画面イメージが生成されて、端末表示部11によって表示される。端末表示部11は、例えば液晶ディスプレイ(LCD)等によって実現することができるが、
図2に後述するように特にタッチ・ディスプレイとして構成するのがよい。端末入力部12は、3次元仮想空間に配置される仮想カメラの操作制御をするための命令や、ゲームを進行させるためのユーザ作用全般の命令の入力(音声入力も含む)、および仮想空間内へのコンタクト情報の発信を実施する。
【0023】
端末入力部12で受けた入力命令に基づいて、端末処理部13においてプログラムが実行される。または、ユーザ命令が作成され、端末通信部14およびネットワーク30を通じてコンピュータ・サーバ50と通信を行い、コンピュータ・サーバ50によってプログラムを実行することができる。端末記憶部15は、ユーザ端末に関連付けられる各種データ、および画像データの表示に必要なブラウザ等のアプリケーションを格納すると共に、ゲーム・サーバ50から受信するテキストデータやスタンプ画像データ等のコンタクト・データ、並びに画面イメージを生成するためのデータおよびプログラム等の各種データも格納する。
【0024】
一方、コンピュータ・サーバ50は、処理部51、メインメモリ52、外部メモリ53、ユーザ・インタフェース54、通信部55、およびディスク・ドライブ56等を備え、これらはバスを介して電気的に相互に接続される。処理部51は、外部メモリ53に格納されたプログラム・モジュール、およびディスク・ドライブ56に格納されたユーザ・データ、スタンプ画像データ、仮想空間情報、およびゲーム進行データ等の各種データ等をメインメモリ52にロードして、順次、各種コンピュータ・プログラムを実行することによりゲームの進行を制御する。特に、処理部51は、ユーザ端末10間で共有させるための仮想空間情報等のデータやプログラムを管理し、必要に応じて通信部55を介してユーザ端末10に提供するように構成される。ユーザ・インタフェース54は、ゲーム・サーバ50の管理者によってサーバにアクセスされ、各種サーバ機能設定やネットワーク設定が実施される。
【0025】
なお、上記コンピュータ・サーバ50に関する情報処理装置としての様々な機能の全部または一部は、ユーザ端末10が担うように構成してもよい。この場合には、ユーザ端末10自体で情報処理装置を構成するか、またはユーザ端末10およびコンピュータ・サーバ50を組み合わせ、全体で情報処理装置を構成することになる。
【0026】
図2にユーザ端末10の一例として、携帯端末(特にスマートフォン)10の基本構成に関するブロック図を示す。図示のように、携帯端末10は基本構成として、タッチ・ディスプレイ110、音声検知部/マイクロフォン130、制御部140および記憶部150を備える。タッチ・ディスプレイ110は、記憶部150に格納された各種データを表示するための表示部/ディスプレイ120、該表示部/ディスプレイ120に対し、人の指やスタイラスなどの物体による接触操作(主に、タッチ操作、スワイプ(スライド)操作およびタップ操作等の物理的接触操作)を検知する接触検知部/タッチパネル125、並びに、携帯端末への音声入力を検知する音声検知部(マイクロフォン)130を備える。
【0027】
接触検知部125はタッチ・ディスプレイの構造上、液晶パネル、有機EL、プラズマディスプレイ等のようなディスプレイ120の上層に配置される。接触検知部125は、圧力検出方式、抵抗膜方式、静電容量方式や電磁誘導方式等を採用することができる。接触検知部125上で指やスタイラス等の物体の接触による入力を受けた際に、その接触位置において押圧、電気抵抗、電気容量や弾性波のエネルギー等の変化量を検知し、表示部120上の対応する接触座標が特定される。
【0028】
音声検知部130は、ユーザ端末等に標準的に搭載される音声通話用のマイクロフォンとすることができる。制御部140は、端末処理部からの処理命令に従って、本発明の実施形態によるコンピュータ・プログラムを実行して携帯端末10を動作させるように構成される。制御部140の詳細については
図5を参照して後述する。記憶部150は、本実施形態によるコンピュータ・プログラム、ゲーム・プログラム、ユーザやゲームに関連するデータ、およびコンタクト情報データの全般を格納し、制御部からの命令に応じて情報の登録、更新、削除等が実施される。なお、本実施形態によるコンピュータ・プログラムを通じて入力されるスタンプ画像についてもサーバ50から携帯端末10にユーザがダウンロードした際に格納することができる。
【0029】
これより
図3および
図4を参照して、本発明の実施形態によるコンピュータ・プログラムが適用されるオンライン・アクションRPGの一例のゲーム・コンテンツ例の概要を示す。ここでは、複数のユーザが同一の3次元仮想空間を共有し、それぞれが当該3次元仮想空間で自らのキャラクタに対するアクション操作を実施可能である。加えて、各ユーザは、キャラクタへのアクション操作によりゲームを進行することができると共に、キャラクタを通じた相互対話、即ち、テキスト・チャットや画像チャットのようなリアルタイムのチャットをゲーム進行と同時に実施可能である。
【0030】
図3(a)および(b)は、自キャラクタ1を操作するユーザ(自ユーザ)のユーザ画面に表示される一連のゲーム画像である。関連付けるキャラクタおよびその配置はユーザ毎に異なるため、ユーザごとに端末に表示されるゲーム画面は異なる。
図3(a)(b)の視界画像3は、自キャラクタ1の配置(画面中心よりやや上)に基づき、自ユーザの端末の画面に表示される画像である。一方、相手キャラクタ2を操作する別のユーザ(相手ユーザ)の端末の画面に表示される画像は、相手キャラクタ2の配置(画面中心よりやや上)に基づいた視界画像となり、
図3(a)(b)の自ユーザの視界画像とは異なるものとなる。
【0031】
上記のように、自ユーザの視界画像3の中心上部近傍に自キャラクタ1が表示される。つまり、自キャラクタ1の配置は表示画面の所定の位置範囲に位置合わせされる。ユーザは、端末入力部を通じたユーザ命令に従い、3次元仮想空間内で自キャラクタ1を移動させることができる。自キャラクタ1には仮想カメラが関連付けられており、該仮想カメラは3次元仮想空間内の自キャラクタの後方かつ上方に配置されて(図示せず)、自キャラクタの移動に伴って追従するよう動作する。自キャラクタ1の仮想カメラからの視界領域に基づいて視界画像3が生成され、端末のディスプレイに表示される。ここで、各キャラクタは、キャラクタ特性5を有しており、画面左下に表示される。キャラクタ特性5には、例えば、キャラクタの種別、キャラクタ画像、キャラクタとしての強さ(ヒット・ポイント(HP:キャラクタの体力ポイント)やスキル・ポイント(SP:必殺技を繰り出すための技能ポイント))等が含まれる。
【0032】
図3(a)の例では、自キャラクタ1の左下部に、相手ユーザが操作している相手キャラクタ2が位置しており、視界画像3にも映り込んでいる。そして、自ユーザ1は、自らのユーザ端末から「こんにちは」というコンタクト情報(テキスト・データ)を入力して3次元仮想空間内に発信している。その結果、図示のように、視界画像3において自キャラクタ1から「こんにちは」とテキスト表示された吹き出し画像4が表示され、自ユーザの画面に表示されている。勿論、相手ユーザの画面上にも、自キャラクタ1から「こんにちは」とテキスト表示された吹き出し画像が表示されることが理解される。
【0033】
自ユーザが3次元仮想空間で自キャラクタ1を上方向に移動させると、
図3(b)のような視界画像の表示となる。この場合、相手キャラクタ2は自キャラクタ1からは離れて画面左下に位置するようにゲーム進行される。併せて、
図3(b)では、
図3(a)で自キャラクタが「こんにちは」なるコンタクト情報を3次元仮想空間に発信したのに応答するようにして、相手ユーザが自らの端末から「お元気ですか!?」なるコンタクト情報を入力して3次元仮想空間内に発信する。その結果、自ユーザの視界画像3でも、相手キャラクタ2から「お元気ですか!?」とテキスト表示された吹き出し画像4が表示される。
【0034】
なお、
図3では、ゲーム内空間を共有するキャラクタに送信されるコンタクト情報がテキスト情報であるが、次の
図4(c)に示すように、コンタクト情報は、画像チャットのようなスタンプ(即ち一般的にアイコンと称される)画像としてもよい。また、本発明の実施形態によるコンピュータ・プログラムが適用できるコンテンツは、ゲーム・アプリケーション、特に
図3および
図4のようなオンライン・アクションRPGに限定されない。これ以外にも、SNSや電子掲示板のように、複数のユーザがメッセージ交換を行ったり、自らの近況を関連ユーザに知らせたりするような3次元仮想空間内でコミュニケーションを実施するアプリケーションに対して、本発明の実施形態によるコンピュータ・プログラムを広範に適用可能であることが認められる。
【0035】
図4は、自ユーザが、ゲームの進行と同時に、3次元仮想空間にコンタクト情報を音声入力により発信した際のイメージ図である。
図4(a)は、ゲーム進行中に「音声入力モード」に切り替えた状態である。切り替えは、ユーザがゲーム進行中に所定の画面領域を長押しする、所定のボタンをタップする、またはユーザ端末を傾ける等のユーザ動作をすることによって実施可能である。
図4(a)での「音声入力モード」においてユーザが「ありがとう!」と音声を発すると、音声検知部130がそれを検知する。入力された音声は、制御部140によって認識および解析等の処理がされ、
図4(b)(c)のようにコンタクト情報画像としてゲーム画面中に出力される。具体的には、文字列「ありがとう」が音声認識・解析され、予めユーザ端末の記憶部150に格納されている変換テーブルに格納してある「Thanks!」や所定のスタンプ画像に変換されて画面出力される。後述するように、変換処理の際は、入力音声に関連してその音質や音量を変換パラメータとして利用するのがよい。
【0036】
これら
図3および
図4の画面イメージ例を踏まえ、これより、
図5以降を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて説明する。特に
図4に例示した音声入力に基づく情報処理について詳細に説明する。
図5は、当該処理を実施するためにユーザ端末10に実装される主要機能ブロック図であり、その全体が
図2の制御部140に相当する。
図5に示すように、制御部140は、大きくは、ゲーム進行部61、コンタクト入力部71およびコンタクト出力部91を含む。また、ゲーム進行部61は、自キャラクタ移動制御部611、仮想カメラ制御部(視界領域決定部)613、および視界画像生成部615を含む。コンタクト入力部71は、音声検知部711、音声解析部713、音声変換部715、およいbコンタクト情報決定部717を含む。更に、コンタクト出力部91は、コンタクト情報配置領域決定部911、コンタクト画像生成部913、およびコンタクト情報重畳部915を含む。制御部140は、上記以外にも、コンタクト受信部81、キャラクタ配置決定部83等も含む。なお、
図5は本発明の実施形態によるコンピュータ・プログラムを実装するための最低限の主要機能のセットを記載したに過ぎない点に留意すべきである。
【0037】
これより
図6のフロー図を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムにより実施される、自ユーザと相手ユーザのサーバ・システムを介した一例の相互作用に関連する情報処理について説明する。ここでは、自キャラクタの動作を制御可能な自ユーザaのユーザ端末と、相手キャラクタの動作を制御可能な相手ユーザbのユーザ端末が、各々ゲームを進行させながら、サーバ・システムを介してメッセージ交換することを想定する。
【0038】
図6に例示する情報処理では、最初に、サーバ・システムによりステップS1sにおいて、ユーザ間で共有する仮想空間情報が配信され、自ユーザaおよび他ユーザbがステップS1aおよびステップS1bにおいて仮想空間情報を展開することにより、仮想空間が共有される。その後の情報処理は、大きくは、キャラクタの空間内移動に伴うゲーム進行処理(通常のゲーム進行。
図7の上半分)および空間内コンタクトに関するコンタクト処理(
図7の下半分)から構成される。
【0039】
キャラクタの空間内移動に伴うゲーム進行処理は、自ユーザaによるステップS2a〜S4a、および相手ユーザbによるステップS2b〜S4b、並びにサーバ・システムによるステップS2sから構成される。ステップS2aでは、自ユーザaは、自キャラクタ移動制御部611によって自キャラクタを操作して3次元仮想空間内を移動させる。ステップS3aでは、自キャラクタの3次元仮想空間内の移動に伴い、仮想カメラ制御部613によって、自キャラクタに仮想カメラを追従させる。そして、自ユーザに関連付けられた自キャラクタの3次元仮想空間内の配置を中心に関連付けた視界領域を決定する。なお、自キャラクタの移動情報はサーバ・システムにも逐一、定期的に、およびイベント・トリガのいずれか1つ以上により反映するのがよい。即ち、ステップS2sでは、サーバ・システムによって自キャラクタの位置情報で仮想空間情報を更新して、各ユーザにフィードバックする。そして、ステップS4aでは、ステップS3aで決定された視界領域に基づいて、視界画像生成部615によって視界画像が生成され、ユーザ端末のディスプレイに表示される。相手ユーザbの相手キャラクタによる空間内移動(ステップS2b〜S4b)についても同様である。
【0040】
空間内コンタクトに関するコンタクト処理は、自ユーザaによるステップS5a〜S6a、および相手ユーザbによるステップS5b〜S6b、並びにサーバ・システムによるステップS3sから構成される。自ユーザaの自キャラクタおよび相手ユーザbの相手キャラクタが3次元仮想空間を共有して移動しながらゲームが進行する中で、ステップS5aにおいて、自ユーザaは、コンタクト入力部71により、即ち、ユーザ端末のマイクロフォンを通じた音声入力により、3次元仮想空間内にコンタクト情報を発信する。つまり、3次元仮想空間を共有しているユーザ(相手ユーザb)に向けて、
図3および
図4に例示したようなコンタクト情報を送信する(
図7で詳述)。コンタクト情報は、テキスト変換に基づくテキスト情報でも、テキスト変換に基づくテキストに関連付けられたスタンプ画像情報でもよい。送信されるコンタクト情報は、ステップS3sにおいてサーバ・システム側で空間情報の更新処理に用いられ、次いで、3次元仮想空間内に発信されて自ユーザaおよび相手ユーザbの両方に通知される。
【0041】
そして、ユーザa側では、ステップS6aにおいて、コンタクト出力部91によって、自ら送信したコンタクト情報を収容した吹き出し画像を自キャラクタの配置に基づいて自身の視界画像に重畳させて、ディスプレイに表示する(
図8で詳述)。相手ユーザb側では、ステップS5bにおいて、コンタクト受信部81によって自ユーザaからのコンタクト情報を入力音声関連情報と共に受信し、キャラクタ配置決定部83によって3次元仮想空間内の自キャラクタの配置位置を特定する。入力音声関連情報は、コンタクト情報配置領域を決定するのに使用される音量パラメータや音質パラメータを含むのがよい。引き続き、ステップS6bにおいて、コンタクト出力部91によって、受信したコンタクト情報を収容する吹き出し画像を自キャラクタの配置に基づいて相手ユーザ自身の視界画像に重畳させて、ディスプレイに表示する。
【0042】
次に、
図7〜
図11を参照して、上記のうち特に自ユーザaによるステップS5a,S6aの情報処理について詳細に説明する。この内、
図7は、
図6のステップS5aにおいて音声入力を通じたコンタクト発信処理を詳細化したフロー図であり、
図8は、
図4の画面イメージに関連するコンタクト処理に相当する。
【0043】
図7のステップS51aでは、最初に、音声検知部711において、ユーザ端末が具備するマイクロフォンを通じて音声入力を受け、次いで、ステップS52aに進んで、音声解析部713において音声情報を取得および解析する。音声の解析では、主に、入力された音声の音量および音質を音声関連情報として取得する。音声関連情報は、コンタクト情報配置領域の大きさを決定し、および/または該コンタクト情報配置領域内に収容する吹き出し種別やコンタクト情報の表示態様を決定するのに使用することができる。ここで、音質は公知の評価方法により取得可能なものである。一例として、物理信号としての音声信号の周波数特性、歪率、SN比およびダイナミックレンジを取得してもよいし、並びに/または、国際電気通信連合(ITU)で規格化された音声の主観的品質評価法および客観的品質評価法による評点を取得してもよい。しかしながら、当業者にとって、音質パラメータはこれらに限定されないことが理解されるべきである。
【0044】
ステップS53aでは、音声変換部715によって、入力された音声をテキスト情報へ変換する。具体的には、
図4(a)の例では、音声入力に対し「ありがとう」とテキスト変換する。ステップS54aでは、コンタクト情報決定部717によって、変換されたテキスト情報に基づいてコンタクト情報を決定する。具体的には、
図4(a)でテキスト変換された「ありがとう」に対し、予め規定され記憶部150に格納された変換テーブルに基づいて、「Thanks!」や相当するスタンプ画像と変換して、コンタクト情報として決定する。最後に、ステップS55aでは、決定したコンタクト情報を
図3や
図4のように3次元仮想空間に発信し共有ユーザに通知するために、サーバ・システムに送信する。その際、音声入力に関連する上記音声関連情報も一緒に送るのがよい。
【0045】
このように、本発明の実施形態によるユーザ入力支援のコンピュータ・プログラムは、ゲームの進行を妨げることなく、音声入力を通じて、非常に効率的に数多くの候補の中から所望のコンタクト情報を入力することができる。なお、テキスト(「ありがとう」)と変換されることになる対応情報(「Thanks!」や記号(「♪」「★」等)を含むテキスト情報や、相当するスタンプ画像)との間の関連付けは、各ユーザが個別に実施して格納しても、関連付け情報をサーバ側からダウンロードして格納しても何れの態様とすることができる。
【0046】
図8は、
図6のステップS6aにおいて、上記音声入力に基づくコンタクト情報を視界画像に重畳してディスプレイに表示するコンタクト出力処理を詳細化したフロー図であり、
図4(b)(c)の画面イメージの出力処理に相当する。また、
図9〜
図11は、当該コンタクト出力処理に関連する幾らかの例示の概要イメージである。
【0047】
図8のステップS61aでは、キャラクタ配置決定部83によって、コンタクト情報を送信したキャラクタの3次元仮想空間内の配置情報を決定する。
図4の例では、自ユーザが自らコンタクト情報を入力したため、対応する自キャラクタの位置座標を決定することになる。なお、
図9(a)の例のように、自キャラクタの位置は基本的に視界画像の中心とするのがよい。引き続き、ステップS62aでは、決定した配置情報およびステップS55aでの音声関連情報に従って、コンタクト情報配置領域決定部911によって、コンタクト情報を重畳するためのコンタクト情報配置領域を視界画像内に決定する。より具体的には、視界画像内の基準点、並びにコンタクト情報配置領域の位置および大きさを決定する。基準点は、吹き出し画像を生成するために必要となり、一例としてはキャラクタの配置位置に関連付けるのがよいが、これに限定されない。例えば
図9(b)のように、自キャラクタの頭部の位置座標を基準点として採用するのがよい。また、コンタクト情報配置領域は、吹き出し画像を収容する領域であり、同じく
図9(b)のように、視界画像全体における基準点の相対位置に応じてコンタクト情報配置領域の位置を、また、上記音声関連情報に含まれる音量に少なくとも従ってその大きさを決定するのがよい。
【0048】
ここで、
図11の例を参照しても分かるように、コンタクト情報は、コンタクト情報配置領域内において、吹き出し画像と共に(吹き出し画像に収容されるようにして)ディスプレイに表示される。コンタクト情報配置領域はディスプレイに非表示とするのがよい。図示のように、コンタクト情報配置領域内に吹き出し画像が収容され、且つ吹き出し画像内にコンタクト情報(即ち、スタンプ画像(a)やテキスト情報(b))が収容される。また、図示のように、吹き出し画像は、コンタクト情報配置領域の基準点に位置合わせされる先端部分と、スタンプ画像やテキスト情報を収容する本体部分を含み、これらを結合するようにして形成される。
【0049】
図8に戻り、ステップS63aでは、ステップS62aで決定した視界画像内の基準点に対し、吹き出し画像の先端部分を位置合わせする。次いで、ステップS64aでは、吹き出し画像の本体部分が視界画像内に収容されるように本体部の大きさを調整した上で、本体部分を先端部分に結合する。なお、本体部分の形状は
図11(a)(b)のような矩形に限定されず、例えば角丸形、多角形やそれ以外の任意の形状としてもよい。特に、上記音声関連情報に含まれる音質情報に従ってその形状を決定してもよい。具体的には、音声品質が悪い場合には、多角形状を有する(ギザギザの)本体部分とし、音声品質が良い場合には正方形状の本体部分とするように吹き出し画像を形成してもよい。
【0050】
次いで、ステップS65aでは、ステップS64aで調整した本体部分の大きさに基づいて、コンタクト情報の表示上の大きさ(即ちスタンプの大きさやテキスト情報のフォントの大きさ)を調整し、本体部分に収容させてコンタクト画像情報を生成する。特に、コンタクト情報がテキスト情報である場合には、上記音声関連情報に含まれる音質情報に従って、更にそのフォントの種別を決定してもよい。これらステップS63aおよびS64aはコンタクト画像生成部913によって実施される。最後に、ステップS66aでは、コンタクト情報重畳部915によって、コンタクト画像情報を吹き出し画像と共に視界画像に重畳して、
図3や
図4(b)(c)に示したようなゲーム画像として画面表示する。
【0051】
このように、音声入力時の音量や音質といった音声関連情報をコンタクト情報の出力処理時のパラメータに採用することにより、コンタクト画像情報をユーザにとってよりダイナミックに生成可能とすることができ、ユーザ間のリアルタイム・コミュニケーションの臨場感をより大きなものとすることができる。
【0052】
なお、
図9(c)では、コンタクト画像情報としてスタンプ画像をコンタクト情報配置領域内の中央に配置しているが、これに限定されず、視界画像内に収容されるのであれば如何なる場所に配置してもよい。
図9の例は、自ユーザがスタンプを送信し、自キャラクタに対して吹き出し表示したものである。これに対し、
図10の例は、3次元仮想空間を共有する他の相手ユーザによってコンタクト情報が選択および送信された場合の例である。この場合も、まず
図10(a)のように、相手キャラクタの3次元仮想空間内の配置情報を少なくとも決定し(ステップS61a)、当該配置情報および受信した音声関連情報に従って、
図10(b)のように、自ユーザの自キャラクタの配置に基づく視界画像内においてコンタクト情報を表示するための基準点およびコンタクト情報配置領域を決定し(ステップS62a)、そして、
図10(c)のように、当該コンタクト情報配置領域内にコンタクト画像情報を吹き出し画像と共に重畳して、ディスプレイに表示することになる(ステップS63a〜S66a)。
【0053】
以上、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて、各種例と共に説明した。上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。