(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-07-18
(54)【発明の名称】ゲームにおける表示制御方法、装置、記憶媒体及び電子デバイス
(51)【国際特許分類】
A63F 13/424 20140101AFI20240710BHJP
A63F 13/52 20140101ALI20240710BHJP
A63F 13/822 20140101ALI20240710BHJP
A63F 13/837 20140101ALI20240710BHJP
【FI】
A63F13/424
A63F13/52
A63F13/822
A63F13/837
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2023575839
(86)(22)【出願日】2022-10-10
(85)【翻訳文提出日】2024-01-09
(86)【国際出願番号】 CN2022124322
(87)【国際公開番号】W WO2023216502
(87)【国際公開日】2023-11-16
(31)【優先権主張番号】202210505766.X
(32)【優先日】2022-05-10
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】518310570
【氏名又は名称】ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド
(74)【代理人】
【識別番号】110002077
【氏名又は名称】園田・小林弁理士法人
(72)【発明者】
【氏名】李賛晨
(57)【要約】
本開示は、ゲームにおける表示制御方法、装置、記憶媒体及び電子デバイスを提供する。該方法は、ターゲット仮想キャラクターの傍受パラメータ情報を取得し、第1の仮想キャラクターの音声パラメータ情報を取得し、傍受パラメータ情報及び音声パラメータ情報を計算して音声傍受結果を取得し、音声傍受結果は、第1の仮想キャラクターの音声を傍受できるかどうかを含み、第1の仮想キャラクターの音声を傍受できる場合、第1の仮想キャラクターの前記ゲームシーンに位置する第1の位置に基づいて、グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定し、マッピング位置に第1の仮想キャラクターを示すための表現パターンを表示する。本方法は表現パターンのレンダリングの動態度とリアルタイム性を高め、音声源の位置決めの正確度を高め、第1の仮想キャラクターの所在方位と過度な露出方位を正確に描写する間にバランスを取り、同じ方向に複数の音声源を追跡することを実現した。
【選択図】
図2
【特許請求の範囲】
【請求項1】
ターゲット端末デバイスでグラフィカルユーザーインターフェースを提供し、前記グラフィカルユーザーインターフェースに表示される内容は、ゲームの全部又は一部のゲームシーンを少なくとも含み、前記ゲームシーンに前記ターゲット端末デバイスで制御操作されるターゲット仮想キャラクター及び他の端末デバイスで制御操作される第1の仮想キャラクターが含まれるゲームにおける表示制御方法であって、
前記ターゲット仮想キャラクターの傍受パラメータ情報を取得し、前記第1の仮想キャラクターの音声パラメータ情報を取得することと、
前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得し、前記音声傍受結果は、前記第1の仮想キャラクターの音声を傍受できるか否かを含むことと、
前記第1の仮想キャラクターの音声を傍受できる場合、前記第1の仮想キャラクターが前記ゲームシーン内で位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定することと、
前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することとを含む
ことを特徴とするゲームにおける表示制御方法。
【請求項2】
前記傍受パラメータ情報は、ターゲット音声タイプ、傍受能力レベル及びノイズレベル情報を含み、
前記ターゲット仮想キャラクターの傍受パラメータ情報を取得することは、
前記ターゲット仮想キャラクターの前記ターゲット音声タイプを取得することと、
前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することと、
前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することとを含む
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項3】
前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することは、
前記ターゲット仮想キャラクターのターゲット属性情報を取得し、前記ターゲット属性情報と前記傍受能力レベルとのマッピング関係を取得することと、
前記マッピング関係から前記ターゲット属性情報に対応する前記傍受能力レベルを検索することとを含む
ことを特徴とする請求項2に記載のゲームにおける表示制御方法。
【請求項4】
前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することは、
前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターが発するターゲット音声強度を取得し、前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターの傍受ノイズ閾値を取得することと、
前記ターゲット音声強度と前記傍受ノイズ閾値を比較して比較結果を取得し、前記比較結果に基づいて前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することとを含む
ことを特徴とする請求項2に記載のゲームにおける表示制御方法。
【請求項5】
前記方法は、さらに、
前記ターゲット仮想キャラクターが音声を発していない場合、前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することを含む
ことを特徴とする請求項4に記載のゲームにおける表示制御方法。
【請求項6】
前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、前記第1の音声タイプは、第1の移動タイプ、第1の攻撃タイプ及び第1の準備攻撃タイプのうちの少なくとも1つを含む
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項7】
前記傍受パラメータ情報は、傍受能力レベルとノイズレベル情報を含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、
前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得することは、
前記ノイズレベル情報が前記第1の仮想キャラクターを傍受したことを示す場合、前記第1の音声タイプに基づいて第1の音声強度を取得することと、
前記傍受能力レベルに基づいて前記ターゲット仮想キャラクターの傍受係数を取得し、前記第1の音声強度と前記傍受係数を計算して傍受能力情報を取得することと、
前記傍受能力情報と前記音声伝播距離を比較して音声傍受結果を取得することとを含む
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項8】
前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭である
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項9】
前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭をぼかし処理したグラフィックである
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項10】
前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定することは、
前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置及び仮想カメラのカメラパラメータに基づいて前記第1の位置の前記グラフィカルユーザーインターフェース内の対応するマッピング位置を決定することを含み、前記仮想カメラは、前記ゲームの全部又は一部のゲームシーンを撮影して前記グラフィカルユーザーインターフェースに表示されるゲームシーン画面を取得するために使用される
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項11】
前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、
前記カメラパラメータに基づいて前記第1の仮想キャラクターの前記ターゲット仮想キャラクターに対する非可視領域を決定し、前記マッピング位置に前記第1の仮想キャラクターの非可視領域を示すための表現パターンを表示することを含み、前記非可視領域は、前記第1の仮想キャラクターの全部又は一部の領域を含み、前記第1の仮想キャラクターの一部の領域は、前記第1の仮想キャラクターの1つ又は複数の仮想ボディ部位を含む
ことを特徴とする請求項10に記載のゲームにおける表示制御方法。
【請求項12】
前記方法は、さらに、
前記カメラパラメータに基づいて前記第1の仮想キャラクターの全部の領域が前記ターゲット仮想キャラクターに対して可視であると決定し、前記第1の仮想キャラクターを示すための表現パターンを表示しないことを含む
ことを特徴とする請求項10に記載のゲームにおける表示制御方法。
【請求項13】
前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、
前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記マッピング位置に前記表現パターンを表示することを含む
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項14】
前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、
前記第1の仮想キャラクターを画像カットアウト処理して第1の画面を取得することと、
前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することとを含む
ことを特徴とする請求項13に記載のゲームにおける表示制御方法。
【請求項15】
前記傍受パラメータ情報は、ターゲット音声タイプを含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、
前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、
前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むこと、又は、
前記音声伝播距離に基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記音声伝播距離に基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むことを含む
ことを特徴とする請求項14に記載のゲームにおける表示制御方法。
【請求項16】
前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、
前記傍受パラメータ情報及び/又は前記音声パラメータ情報に基づいて、前記第1の仮想キャラクターを示す表現パターンの表示時間を決定することと、
前記表示時間に従って前記マッピング位置に前記表現パターンを表示することとを含む
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項17】
前記方法は、さらに、
前記第1の位置の変化に応答し、前記マッピング位置をリアルタイムで更新して前記表現パターンの前記グラフィカルユーザーインターフェース内の表示位置を更新することで、前記表現パターンが前記第1の仮想キャラクターの位置変化ををリアルタイムで反映することを含む
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項18】
前記音声パラメータ情報は、音声伝播距離を含み、
前記方法は、さらに、
前記音声傍受結果に基づいて、前記音声伝播距離を含む追跡コントロールを生成することと、
前記マッピング位置に前記第1の仮想キャラクターを示すための前記追跡コントロールを表示することとを含む
ことを特徴とする請求項1に記載のゲームにおける表示制御方法。
【請求項19】
ターゲット端末デバイスでグラフィカルユーザーインターフェースを提供し、前記グラフィカルユーザーインターフェースに表示される内容は、ゲームの全部又は一部のゲームシーンを少なくとも含み、前記ゲームシーンに前記ターゲット端末デバイスで制御操作されるターゲット仮想キャラクター及び他の端末デバイスで制御操作される第1の仮想キャラクターが含まれるゲームにおける表示制御装置であって、
前記ゲームにおける表示制御装置は、情報取得モジュールと、情報計算モジュールと、位置決定モジュールと、グラフィック表示モジュールとを含み、
前記情報取得モジュールは、前記ターゲット仮想キャラクターの傍受パラメータ情報を取得し、前記第1の仮想キャラクターの音声パラメータ情報を取得するように構成され、
前記情報計算モジュールは、前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得するように構成され、前記音声傍受結果は、前記第1の仮想キャラクターの音声を傍受できるか否かを含み、
前記位置決定モジュールは、前記第1の仮想キャラクターの音声を傍受できる場合、前記第1の仮想キャラクターが前記ゲームシーン内で位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定するように構成され、
前記グラフィック表示モジュールは、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示するように構成される
ことを特徴とするゲームにおける表示制御装置。
【請求項20】
プロセッサにより実行されると、請求項1~18のいずれか1項に記載のゲームにおける表示制御方法を実現するコンピュータプログラムが記憶されている
ことを特徴とするコンピュータ可読記憶媒体。
【請求項21】
プロセッサーと、メモリとを含む電子デバイスであって、
前記メモリには、前記プロセッサの実行可能命令が格納されており、
前記プロセッサは、前記実行可能命令を実行することによって、請求項1~18のいずれか1項に記載のゲームにおける表示制御方法を実行する
ことを特徴とする電子デバイス。
【発明の詳細な説明】
【関連出願の相互引用】
【0001】
本開示は、2022年05月10日に出願された出願番号202210505766.X、名称「ゲームにおける表示制御方法、装置、記憶媒体及び電子デバイス」の中国特許出願の優先権を主張し、当該中国特許出願のすべての内容は引用により本文に組み込まれる。
【技術分野】
【0002】
本開示は、端末表示技術分野に関し、特に、ゲームにおける表示制御方法、ゲームにおける表示制御装置、コンピュータ可読記憶媒体及び電子デバイスに関する。
【背景技術】
【0003】
現在、ゲーム内で音声を可視化することは、プレイヤーの視聴感を高め、プレイヤーのゲーム体験を最適化する重要な方法となっている。シューティングゲームでは、音声の可視化方法は、主に画面上部にUI(User Interface、ユーザーインターフェース)のヒントを表示することである。ここで、コンパスと結合又はコンパスのような表示ロジックを使用して画面上のコンパス位置に音量ヒストグラムを表示することで、プレイヤーの音の方向を提示するために音の方向を表示する。さらに、コンパスに加えて、プレイヤーの位置の上又は下に対する音を発する者を示す効果になるように拡張されている。
【0004】
しかし、このコンパスガイドによる方式はHUD(Head Up Display、ヘッドアップ表示又は水平表示システム)の上部に通常表示されており、プレイヤーがヘッドを天に向けたり地に向けたりすると方向の誤認識が起こりやすいため、音の位置を大まかにしか指摘できない。また、プレイヤーの位置に対する上又は下の区別しかできず、頭上か前の位置かを区別することができないため、プレイヤーの上でどの距離の音を正確に位置決めすることができず、このような方式ではリアルタイムで音源を追跡することが困難である。特に、発声者と傍受者が同時に運動している場合、HUD UIがリアルタイムでフォローアップを行うと、声紋UIがエンボスされ、情報の精細度が低下する。さらに、一方向に複数人が同時に音声を発すると、複数の音声源を同時に追跡することが困難であるため、HUD UIは複数の声紋を同時に表示することができず、プレイヤーが誤判定し、プレイヤーのゲーム体験を劣化させることになる。
【0005】
そこで、本分野では、新たなゲームにおける表示制御方法及び装置の開発が必要とされている。
【0006】
なお、上記背景技術部分に開示されている情報は、本開示の背景の理解を強化するためにのみ使用されるので、当業者に知られている先行技術を構成していない情報を含むことができる。
【発明の概要】
【0007】
本開示の目的は、ゲームにおける表示制御方法、ゲームにおける表示制御装置、コンピュータ可読記憶媒体及び電子デバイスを提供し、さらに、関連技術の制限による音声源の位置決めの不正確さ、リアルタイム追跡及び並列追跡の効果が悪いという技術的問題を少なくともある程度克服することである。
【0008】
本開示の他の特性及び利点は、以下の詳細な説明によって明らかになるか、又は本開示の実践によって部分的に習得されるであろう。
【0009】
本開示の実施例の第1の態様は、ゲームにおける表示制御方法を提供し、ターゲット端末デバイスでグラフィカルユーザーインターフェースを提供し、前記グラフィカルユーザーインターフェースに表示される内容は、前記ゲームの全部又は一部のゲームシーンを少なくとも含み、前記ゲームシーンに前記ターゲット端末デバイスで制御操作されるターゲット仮想キャラクター及び他の端末デバイスで制御操作される第1の仮想キャラクターが含まれ、前記方法は、前記ターゲット仮想キャラクターの傍受パラメータ情報を取得し、前記第1の仮想キャラクターの音声パラメータ情報を取得することと、前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得し、前記音声傍受結果は、前記第1の仮想キャラクターの音声を傍受できるか否かを含むことと、前記第1の仮想キャラクターの音声を傍受できる場合、前記第1の仮想キャラクターが前記ゲームシーン内で位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定することと、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することとを含む。
【0010】
本開示の例示的な実施例において、前記傍受パラメータ情報は、ターゲット音声タイプ、傍受能力レベル及びノイズレベル情報を含み、前記ターゲット仮想キャラクターの傍受パラメータ情報を取得することは、前記ターゲット仮想キャラクターの前記ターゲット音声タイプを取得することと、前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することと、前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することとを含む。
【0011】
本開示の例示的な実施例において、前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することは、前記ターゲット仮想キャラクターのターゲット属性情報を取得し、前記ターゲット属性情報と前記傍受能力レベルとのマッピング関係を取得することと、前記マッピング関係から前記ターゲット属性情報に対応する前記傍受能力レベルを検索することとを含む。
【0012】
本開示の例示的な実施例において、前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することは、前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターが発するターゲット音声強度を取得し、前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターの傍受ノイズ閾値を取得することと、前記ターゲット音声強度と前記傍受ノイズ閾値を比較して比較結果を取得し、前記比較結果に基づいて前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することとを含む。
【0013】
本開示の例示的な実施例において、前記方法は、さらに、前記ターゲット仮想キャラクターが音声を発していない場合、前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することを含む。
【0014】
本開示の例示的な実施例において、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、前記第1の音声タイプは、第1の移動タイプ、第1の攻撃タイプ及び第1の準備攻撃タイプのうちの少なくとも1つを含む。
【0015】
本開示の例示的な実施例において、前記傍受パラメータ情報は、傍受能力レベルとノイズレベル情報を含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得することは、前記ノイズレベル情報が前記第1の仮想キャラクターを傍受したことを示す場合、前記第1の音声タイプに基づいて第1の音声強度を取得することと、前記傍受能力レベルに基づいて前記ターゲット仮想キャラクターの傍受係数を取得し、前記第1の音声強度と前記傍受係数を計算して傍受能力情報を取得することと、
前記傍受能力情報と前記音声伝播距離を比較して音声傍受結果を取得することとを含む。
【0016】
本開示の例示的な実施例において、前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭である。
【0017】
本開示の例示的な実施例において、前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭をぼかし処理したグラフィックである。
【0018】
本開示の例示的な実施例において、前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定することは、前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置及び仮想カメラのカメラパラメータに基づいて前記第1の位置の前記グラフィカルユーザーインターフェース内の対応するマッピング位置を決定することを含み、ここで、前記仮想カメラは、前記ゲームの全部又は一部のゲームシーンを撮影して前記グラフィカルユーザーインターフェースに表示されるゲームシーン画面を取得するために使用される。
【0019】
本開示の例示的な実施例において、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、前記カメラパラメータに基づいて前記第1の仮想キャラクターの前記ターゲット仮想キャラクターに対する非可視領域を決定し、前記マッピング位置に前記第1の仮想キャラクターの非可視領域を示すための表現パターンを表示することを含み、ここで、前記非可視領域は、前記第1の仮想キャラクターの全部又は一部の領域を含み、前記第1の仮想キャラクターの一部の領域は、前記第1の仮想キャラクターの1つ又は複数の仮想ボディ部位を含む。
【0020】
本開示の例示的な実施例において、前記方法は、さらに、前記カメラパラメータに基づいて前記第1の仮想キャラクターの全部の領域が前記ターゲット仮想キャラクターに対して可視であると決定し、前記第1の仮想キャラクターを示すための表現パターンを表示しないことを含む。
【0021】
本開示の例示的な実施例において、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記マッピング位置に前記表現パターンを表示することを含む。
【0022】
本開示の例示的な実施例において、前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、前記第1の仮想キャラクターを画像カットアウト処理して第1の画面を取得することと、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することとを含む。
【0023】
本開示の例示的な実施例において、前記傍受パラメータ情報は、ターゲット音声タイプを含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むこと、又は、前記音声伝播距離に基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記音声伝播距離に基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むことを含む。
【0024】
本開示の例示的な実施例において、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、前記傍受パラメータ情報及び/又は前記音声パラメータ情報に基づいて、前記第1の仮想キャラクターを示す表現パターンの表示時間を決定することと、前記表示時間に従って前記マッピング位置に前記表現パターンを表示することとを含む。
【0025】
本開示の例示的な実施例において、前記方法は、さらに、前記第1の位置の変化に応答し、前記マッピング位置をリアルタイムで更新して前記表現パターンの前記グラフィカルユーザーインターフェース内の表示位置を更新することで、前記表現パターンが前記第1の仮想キャラクターの位置変化ををリアルタイムで反映することを含む。
【0026】
本開示の例示的な実施例において、前記音声パラメータ情報は、音声伝播距離を含み、前記方法は、さらに、前記音声傍受結果に基づいて、前記音声伝播距離を含む追跡コントロールを生成することと、前記マッピング位置に前記第1の仮想キャラクターを示すための前記追跡コントロールを表示することとを含む。
【0027】
本開示の実施例の第2の態様は、情報取得モジュールと、情報計算モジュールと、情報計算モジュールと、位置決定モジュールと、グラフィック表示モジュールとを含むゲームにおける表示制御装置を提供し、ターゲット端末デバイスでグラフィカルユーザーインターフェースを提供し、前記グラフィカルユーザーインターフェースに表示される内容は、前記ゲームの全部又は一部のゲームシーンを少なくとも含み、前記ゲームシーンに前記ターゲット端末デバイスで制御操作されるターゲット仮想キャラクター及び他の端末デバイスで制御操作される第1の仮想キャラクターが含まれ、情報取得モジュールは、前記ターゲット仮想キャラクターの傍受パラメータ情報を取得し、前記第1の仮想キャラクターの音声パラメータ情報を取得するように構成され、情報計算モジュールは、前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得するように構成され、前記音声傍受結果は、前記第1の仮想キャラクターの音声を傍受できるか否かを含み、位置決定モジュールは、前記第1の仮想キャラクターの音声を傍受できる場合、前記第1の仮想キャラクターが前記ゲームシーン内で位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定するように構成され、グラフィック表示モジュールは、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示するように構成される。
【0028】
本開示の実施例の第3の態様は、プロセッサとメモリとを含む電子デバイスを提供し、ここで、前記メモリにはコンピュータ可読命令が記憶されており、前記コンピュータ可読命令は前記プロセッサによって実行されると、前記任意の例示的な実施例におけるゲームにおける表示制御方法を実現する。
【0029】
本開示の実施例の第4の態様は、プロセッサによって実行されると、上述した実施例のいずれかのゲームにおける表示制御方法を実現するコンピュータプログラムが格納されたコンピュータ可読記憶媒体を提供する。
【0030】
以上のことから、本開示の実施例におけるゲームにおける表示制御方法、ゲームにおける表示制御装置、コンピュータ記憶媒体及び電子デバイスは、少なくとも以下の利点及び積極的な効果を備えることが分かる。
【0031】
本開示の例示的な実施例における方法及び装置において、ターゲット仮想キャラクターの傍受パラメータ情報と第1の仮想キャラクターの音声パラメータ情報をレンダリング表現パターンのデータ基礎として取得し、レンダリング表現パターンのデータ次元を豊富にし、表現パターンレンダリングの動的度とリアルタイム性を高め、音声源の位置決めの精度を高め、よりリアルな聴覚効果と視覚効果を提供する。さらに、音声傍受結果に基づいて第1の仮想キャラクターの表現パターンをレンダリングして表示し、第1の仮想キャラクターに対してぼかし表示を行い、第1の仮想キャラクターの所在方位を正確に描写するとともに、第1の仮想キャラクターを過度に現わせる方位の間でバランスを取り、リアルタイムで第1の仮想キャラクターを追跡し、マークする指向効果を実現した。複数の第1の仮想キャラクターの表現パターンを同時にレンダリングして表示すると、複数の音声源を同じ方向に追跡できない問題をさらに解決でき、プレイヤーが第1の仮想キャラクターの数を把握しやすくなり、プレイヤーのゲーム体験を最適化することができる。
【0032】
以上の一般的な説明及び後述の詳細な説明は例示的及び解釈的なものにすぎず、本開示を限定するものではないことを理解すべきである。
【図面の簡単な説明】
【0033】
【
図1】関連技術における音声発信者を示すインターフェースの概略図である。
【
図2】本開示の一実施例におけるゲームにおける表示制御方法のフローチャートである。
【
図3】本開示の一実施例におけるターゲット仮想キャラクターの傍受パラメータ情報の取得方法のフローチャートである。
【
図4】本開示の一実施例におけるターゲット仮想キャラクターの傍受能力レベルの取得方法のフローチャートである。
【
図5】本開示の一実施例におけるターゲット仮想キャラクターのノイズレベル情報の取得方法のフローチャートである。
【
図6】本開示の一実施例における傍受パラメータ情報と音声パラメータ情報との計算方法のフローチャートである。
【
図7】本開示の一実施例における第1の仮想キャラクターのぼかし処理の方法のフローチャートである。
【
図8】本開示の一実施例における第1の画面のガウスぼかし処理の方法のフローチャートである。
【
図9】本開示の一実施例における第1の仮想キャラクターの全領域のモデル輪郭を表示する概略インターフェース図である。
【
図10】本開示の一実施例における第1の仮想キャラクターの一部領域のモデル輪郭を表示する概略インターフェース図である。
【
図11】本開示の一実施例における複数の第1の仮想キャラクターのモデル輪郭の概略インターフェース図である。
【
図12】本開示の一実施例における表示時間に従って表現パターンを表示する方法のフローチャートである。
【
図13】本開示の一実施例における第1の仮想キャラクターの位置変化をリアルタイムで反映する概略インターフェース図である。
【
図14】本開示の一実施例における音声傍受結果に基づいて追跡コントロールを表示する方法のフローチャートである。
【
図15】本開示の一実施例におけるゲームにおける表示制御装置の構成図である。
【
図16】本開示の一実施例におけるゲームにおける表示制御方法を実現する電子デバイスの模式図である。
【
図17】本開示の一実施例におけるゲームにおける表示制御方法を実現するためのコンピュータ可読記憶媒体を概略的に示す図である。
【発明を実施するための形態】
【0034】
次に、図面を参照して、例示的な実施例についてより詳細に説明する。しかし、例示的な実施例は様々な形態で実施することができ、本明細書で説明する例に限定されると理解されるべきではない。対照的に、これらの実施例は、本開示をより包括的かつ完全にし、例示的な実施例の構想を当業者に全面的に伝えるように提供される。説明された特徴、構造、又は特性は、任意の適切な方法で1つ又は複数の実施例に組み込むことができる。以下の説明では、本開示の実施例の十分な理解を提供するために、多くの具体的な詳細が提供される。しかしながら、当業者であれば、特定の詳細のうちの1つ以上を省略して、本開示の技術的態様を実施することができ、又は他の方法、コンポーネント、装置、ステップなどを採用することができることを認識するであろう。他の場合、本開示の様々な態様が曖昧になることを回避するために、公知の技術案は詳細に示されないか、又は説明が省略する。
【0035】
本明細書で使用する用語「1個」、「1つ」、「この」及び「前記」は、1つ又は複数の要素/構成要素/等の存在を表すために使用される、用語「含む」及び「有する」は、開放的な包含を意味するために使用され、列挙された要素/構成要素/等の他に存在することができる要素/構成要素/等を意味する、用語「第1の」や「第2」などはマークとしてのみ使用され、対象の数量制限ではない。
【0036】
また、図面は本開示の概略的な図解にすぎず、必ずしも比例して描かれているわけではない。図中の同一の符号は同一又は類似の部分を示すので、重複する説明は省略する。図面に示すブロック図のいくつかは機能エンティティであり、必ずしも物理的又は論理的に独立したエンティティに対応する必要がない。
【0037】
現在、ゲーム内で音声を可視化することは、プレイヤーの視聴効果を高め、プレイヤーのゲーム体験を最適化する重要な方法となっている。シューティングゲームでは、音の可視化方法は、主に画面上部にUIプロンプトを表示することである。
【0038】
ここでは、コンパスと結合したり、コンパスのような表示ロジックを使用して画面上のコンパス位置に音量ヒストグラムを表示したりすることで、プレイヤーの音の方向を注意するために音の方向を表示する。さらに、コンパスに加えて、プレイヤーの位置の上又は下に対する音を発する者を示す効果に拡張されている。
【0039】
図1は、関連技術における音声発信者のインターフェースの概略図を示す。
図1示すように、200は、220°に向ける方向に位置することを示す。最初の菱形の音量ヒストグラムは、水平方向に音を出す人がいることを示す。水平方向に下に現れた2番目の音量ヒストグラムは、プレイヤーの位置の下に音声発信者がいることを示す。水平方向に上に現れた提示された3番目の音量ヒストグラムは、プレイヤーの位置の上にもう1人の音声発信者を示す。
【0040】
また、最後尾に表示される向きは、コンパスの現在の表示範囲を超えて他にも音声発信者がいることを示す水平右三角形記号と曲線である。
【0041】
しかし、このコンパスガイドに基づく方式はHUDの上部に常態的に表示されており、プレイヤーが頭を天に向けたり地に向けたりすると方向に対する誤認識が起こりやすいため、音の位置を大まかにしか指摘できない。また、プレイヤー位置に対する上又は下の区別しかできず、頭上か前の位置かを区別することができないため、プレイヤーの上でどの距離からの音が正確に位置決めされるかを判断することができない。このような方法では、音声源をリアルタイムで追跡することが困難であることは言うまでもない。特に、発声者と傍受者が同時に運動している場合、HUD UIがリアルタイムでフォローアップを行うと、声紋UIがエンボスされ、情報の精細度が低下する。さらに、一方向に複数人が同時に音声を発すると、複数の音声源を同時に追跡することが困難であるため、HUD UIは複数の声紋を同時に表示することができず、プレイヤーが誤判定を行い、プレイヤーのゲーム体験を劣化させることになる。
【0042】
本開示の一実施例におけるゲームにおける表示制御方法は、ローカル端末デバイス又はサーバで動作することができる。ゲーム内の表示制御方法がサーバで実行されている場合、この方法は、サーバ及びクライアントデバイスを含むクラウドインタラクションシステムに基づいて実装及び実行することができる。
【0043】
選択可能な実施例では、クラウドインタラクションシステムの下で、クラウドゲームなどのさまざまなクラウドアプリケーションを実行することができる。クラウドゲームを例にとると、クラウドゲームとはクラウドコンピューティングをベースとしたゲーム方式を指す。クラウドゲームの実行モードでは、ゲームプログラムの実行主体とゲーム画面提示主体は分離され、ゲームにおおける表示制御方法の保存と実行はクラウドゲームサーバ上で行われ、クライアントデバイスの役割はデータの受信、送信及びゲーム画面の提示に使用され、例えば、クライアントデバイスは、モバイル端末、テレビ、コンピュータ、ハンドヘルドコンピュータなど、しかし、情報処理を行うのはクラウドのクラウドゲームサーバである。ゲームを行う際、プレイヤーはクライアントデバイスを操作してクラウドゲームサーバに操作コマンドを送信し、クラウドゲームサーバは操作コマンドに基づいてゲームを実行し、ゲーム画面などのデータを符号化圧縮し、ネットワークを介してクライアントデバイスに戻り、最後にクライアントデバイスを介してゲーム画面を復号して出力する。
【0044】
選択可能な実施例では、ローカル端末デバイスは、ゲームを例にしてゲームプログラムを記憶し、ゲーム画面をレンダリングするために使用される。ローカル端末デバイスは、グラフィカルなユーザーインターフェースを介してプレイヤーとインタラクションするために使用され、すなわち、従来は電子デバイスを介してゲームプログラムをダウンロードしてインストールし、実行している。ローカル端末デバイスがグラフィカルユーザーインターフェースをプレイヤーに提供する方法は、例えば、端末のディスプレイ画面上にレンダリング表示することができ、あるいは、プロジェクションマッピングによってプレイヤーに提供することができる様々な方法を含むことができる。例えば、ローカル端末デバイスは、ゲームを実行し、グラフィカルユーザーインターフェースを生成し、グラフィカルユーザーインターフェースの表示を制御するためのゲーム画面を含むグラフィカルユーザーインターフェースを提示するためのディスプレイとプロセッサとを含むことができる。
【0045】
可能な実施例では、本開示の実施例は、端末デバイスを介してグラフィカルユーザーインターフェースを提供するゲームにおける表示制御方法を提供し、端末デバイスは、前述のローカル端末デバイスであってもよく、前述のクラウドインタラクションシステムにおけるクライアント装置であってもよい。
【0046】
関連技術に存在する問題に対して、本開示はゲームにおける表示制御方法を提供し、ターゲット端末デバイスを通じてグラフィカルユーザーインターフェースを提供し、グラフィカルユーザーインターフェースに表示される内容は、少なくともゲームの全部又は一部のゲームシーンを含み、ゲームシーンにはターゲット端末デバイスで制御操作されるターゲット仮想キャラクターと、及び他の端末デバイスで制御操作される第1の仮想キャラクターが含まれる。
図2に示すように、ゲームにおける表示制御方法のフローチャートを示し、ゲームにおける表示制御方法は、少なくとも以下のステップを含む。
【0047】
ステップs210において、ターゲット仮想キャラクターの傍受パラメータ情報を取得し、第1の仮想キャラクターの音声パラメータ情報を取得する。
【0048】
ステップs220において、傍受パラメータ情報及び音声パラメータ情報を計算して音声傍受結果を取得し、音声傍受結果は、第1の仮想キャラクターの音声を傍受できるかどうかを含む。
【0049】
ステップs230において、第1の仮想キャラクターの音声を傍受できる場合、第1の仮想キャラクターのゲームシーンに位置する第1の位置に基づいて、グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定する。
【0050】
ステップs240において、マッピング位置に第1の仮想キャラクターを示すための表現パターンを表示する。
【0051】
本開示の例示的な実施例において、ターゲット仮想キャラクターの傍受パラメータ情報と第1の仮想キャラクターの音声パラメータ情報をレンダリング表現パターンのデータ基礎として取得し、レンダリング表現パターンのデータ次元を豊富にし、表現パターンレンダリングの動的度とリアルタイム性を高め、音声源の位置決めの精度を高め、よりリアルな聴覚効果と視覚効果を提供する。さらに、音声傍受結果に基づいて第1の仮想キャラクターの表現パターンをレンダリングして表示し、第1の仮想キャラクターに対してぼかし表示を行い、第1の仮想キャラクターの所在方位を正確に描写するとともに、第1の仮想キャラクターを過度に現わせる方位の間でバランスを取り、リアルタイムで第1の仮想キャラクターを追跡し、マークする指向効果を実現した。複数の第1の仮想キャラクターの表現パターンを同時にレンダリングして表示すると、複数の音声源を同じ方向に追跡できない問題をさらに解決でき、プレイヤーが第1の仮想キャラクターの数を把握しやすくなり、プレイヤーのゲーム体験を最適化することができる。
【0052】
以下、ゲームにおける表示制御方法の各ステップを詳しく説明する。
【0053】
ステップs210において、ターゲット仮想キャラクターの傍受パラメータ情報を取得し、第1の仮想キャラクターの音声パラメータ情報を取得する。
【0054】
本願の実施例では、ターゲット仮想キャラクターは、現在のプレイヤがターゲット端末デバイスを介して制御操作するゲーム仮想キャラクターであっても良い。
【0055】
選択可能な実施例では、傍受パラメータ情報は、ターゲット音声タイプ、傍受能力レベル及びノイズレベル情報を含み、
図3は、ターゲット仮想キャラクターの傍受パラメータ情報の取得方法のフローチャートである。
図3に示すように、該方法は、以下のステップを少なくとも含み、ステップs310において、ターゲット仮想キャラクターのターゲット音声タイプを取得する。
【0056】
ターゲット仮想キャラクターのターゲット音声タイプは、ターゲット仮想キャラクターが発する音声の音声タイプである。
【0057】
例えば、該ターゲット音声タイプは、ターゲット仮想キャラクターの移動タイプ、ターゲット仮想キャラクターの攻撃タイプ、ターゲット仮想キャラクターが攻撃を準備するタイプなどを含むことができ、この実施例はこれに特に限定されない。
【0058】
具体的には、ターゲット仮想キャラクターの移動タイプには、ランニング、しゃがんで歩く、ジャンプ、ゆっくり歩く、速く歩くなどが含まれ、ターゲット仮想キャラクターの攻撃タイプには、発砲や手雷の投擲などが含まれ、ターゲット仮想キャラクターが攻撃を準備するタイプには、弾薬交換クリップ、照準鏡の開閉、手雷の安全栓抜きなどが含まれている。
【0059】
ステップs320において、ターゲット仮想キャラクターの傍受能力レベルを取得する。
【0060】
選択可能な実施例では、
図4は、ターゲット仮想キャラクターの傍受能力レベルの取得方法のフローチャートである。
図4に示すように、該方法は、以下のステップを少なくとも含み、ステップs410において、ターゲット仮想キャラクターのターゲット属性情報を取得し、ターゲット属性情報と傍受能力レベルとの間のマッピング関係を取得する。
【0061】
ここで、ターゲット仮想キャラクターのターゲット属性情報は、ターゲット仮想キャラクターのゲームレベルであってもよいし、ターゲット仮想キャラクターが完了した傍受能力レベルを向上させるタスクの数やタスクの進捗などであってもよく、この実施例はこれに特に限定されない。
【0062】
また、ターゲット仮想キャラクターのターゲット属性情報と傍受能力レベルとの間にマッピング関係を事前設定することもできる。
【0063】
このマッピング関係は、すべてのゲーム仮想キャラクターに対して設定された統一的な関係であってもよいし、異なるゲーム仮想キャラクターの差異化設定に対する対応関係であってもよく、この実施例はこれに特に限定されない。
【0064】
ステップs420において、マッピング関係からターゲット属性情報に対応する傍受能力レベルを検索する。
【0065】
ターゲット仮想キャラクターのターゲット属性情報と傍受能力レベルとのマッピング関係を取得した後、該マッピング関係からターゲット仮想キャラクターの現在のターゲット属性情報に対応する傍受能力レベルを検索することができる。
【0066】
この傍受能力レベルは同時にターゲット仮想キャラクターの成長数値とすることができ、プレイヤーの長期保存効果を高めることができる。
【0067】
この実施例では、ターゲット属性情報と傍受能力レベルとのマッピング関係を検索することにより、ターゲット仮想キャラクターの傍受能力レベルを取得することができ、決定方法は簡単で正確であり、第1の仮想キャラクターの表現パターンを表示するためにターゲット仮想キャラクター側のデータ情報を提供する。
【0068】
ステップs330において、ターゲット仮想キャラクターのノイズレベル情報を取得する。
【0069】
選択可能な実施例では、
図5は、ターゲット仮想キャラクターのノイズレベル情報の取得方法のフローチャートである。
図5に示すように、該方法は、以下のステップを少なくとも含み、ステップs510において、ターゲット音声タイプに基づいてターゲット仮想キャラクターが発するターゲット音声強度を取得し、ターゲット音声タイプに基づいてターゲット仮想キャラクターの傍受ノイズ閾値を取得する。
【0070】
異なるターゲット音声タイプに対応する音声強度が設定されているため、取得したターゲット仮想キャラクターのターゲット音声タイプに基づいて対応するターゲット音声強度を決定することができる。
【0071】
例えば、ターゲット音声タイプがランニングの場合、対応するターゲット音声強度は30デシベルであり、ターゲット音声タイプが発砲の場合、対応するターゲット音声強度は40デシベルであってもよい。
【0072】
異なるターゲット音声タイプに対応する傍受ノイズ閾値も設定されているので、取得したターゲット仮想キャラクターのターゲット音声タイプに基づいて対応する傍受ノイズ閾値を決定することができる。
【0073】
この傍受ノイズ閾値は、ターゲット仮想キャラクターがターゲット音声強度を発する場合に、傍受できる最大音声強度を示すために使用することができる。
【0074】
例えば、ターゲット音声タイプがランニングである場合、対応する傍受ノイズ閾値は20デシベルであり、ターゲット音声タイプが発砲である場合、対応する傍受ノイズ閾値は10デシベルであってもよい。
【0075】
ステップs520において、ターゲット音声強度と傍受ノイズ閾値とを比較して比較結果を取得し、比較結果に基づいてターゲット仮想キャラクターのノイズレベル情報を決定する。
【0076】
ターゲット音声タイプに基づいてターゲット音声強度と傍受ノイズ閾値をそれぞれ取得した後、ターゲット音声強度と傍受ノイズ閾値とを比較して、比較結果を取得することができる。
【0077】
さらに、比較結果に基づいてターゲット仮想キャラクターのノイズレベル情報を決定する。
【0078】
比較結果として、ターゲット音声強度が傍受ノイズ閾値以下である場合、この時のターゲット仮想キャラクターがターゲット仮想キャラクターに対応する第1の仮想キャラクターが発する音声を傍受することができることを分かる。
【0079】
比較結果として、ターゲット音声強度が傍受ノイズ閾値より大きい場合、ターゲット仮想キャラクターの自身が発したノイズが大きすぎるため、ターゲット仮想キャラクターに対応する第1の仮想キャラクターを傍受することができないことを分かる。
【0080】
したがって、このノイズレベル情報の取得は、ターゲット仮想キャラクターが発砲していると環境中の銃声などの実際のシーンを捕捉するのがより難しくなり、シミュレーション効果がよりリアルになることができる。
【0081】
この実施例では、ターゲット音声強度と傍受ノイズ閾値との比較により、ターゲット仮想キャラクターのノイズレベル情報を決定することができ、第1の仮想キャラクターを傍受できるかどうかを判断する根拠を提供し、第1の仮想キャラクターの表現パターンを表示するための前提判断基準を提供する。
【0082】
また、ターゲット仮想キャラクターが音を発していない場合には、対応するノイズレベル情報を直接決定することができる。
【0083】
選択可能な実施例では、ターゲット仮想キャラクターが音を発していない場合には、ターゲット仮想キャラクターのノイズレベル情報を決定する。
【0084】
ターゲット仮想キャラクターが音声を発していない場合、ターゲット仮想キャラクターがノイズを発生させずに傍受に影響を与えないことを示すため、ターゲット仮想キャラクターの現在のノイズレベル情報がターゲット仮想キャラクターに対応する第1の仮想キャラクターが発する音声を傍受できると直接決定することができる。
【0085】
一方、ターゲット仮想キャラクターの1つ又は複数の第1の仮想キャラクターの音声パラメータ情報を同時に取得して、1つ又は複数の音声源を同時に追跡することもでき、これにより、ターゲット仮想キャラクターを制御するプレイヤーが第1の仮想キャラクターの数の情報を正確に得ることができる。
【0086】
ここで、この第1の仮想キャラクターは、ターゲット仮想キャラクターの敵の相手陣営のゲーム仮想キャラクターから特定された1つ又は複数のゲーム仮想キャラクターであってもよく、ターゲット仮想キャラクターと同じ陣営に属するチームメートの1つ又は複数のゲーム仮想キャラクターであってもよく、この実施例はこれに特に限定されない。
【0087】
選択可能な実施例では、音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、第1の音声タイプは、第1の移動タイプ、第1の攻撃タイプ及び第1の準備攻撃タイプを含む。
【0088】
ここで、第1の音声タイプは、第1の移動タイプ、第1の攻撃タイプ及び第1の準備攻撃タイプ等のタイプを含むことができるが、この実施例は特に限定されない。
【0089】
音声伝播距離は、第1の仮想キャラクターがターゲット仮想キャラクターの同じ位置に到達するまでに移動する距離、すなわち現在の場合の第1の仮想キャラクターとターゲット仮想キャラクターとの間の距離であっても良い。
【0090】
具体的には、第1の移動タイプは、第1の仮想キャラクターがランニング、しゃがんで歩く、ジャンプ、ゆっくり歩く、速く歩くなどの移動方式を含むことができ、第1の攻撃タイプは、第1の仮想キャラクターの発砲や手雷の投擲などの攻撃方式を含むことができ、第1の準備攻撃タイプは、第1の仮想キャラクターの交換クリップ、照準鏡の開放、手雷の安全栓の抜去などの攻撃方式の前置の準備方式を含むことができる。
【0091】
したがって、第1の仮想キャラクターの第1の音声タイプの取得は、短い突撃銃声やランニング音よりも鋭い狙撃銃声の方が捕捉しやすい効果に対してデータサポートを提供することができ、音声伝播距離は第1の仮想キャラクターの表現パターンの可視化能力に影響を与えることができる。
【0092】
ステップs220において、傍受パラメータ情報及び音声パラメータ情報を計算して音声傍受結果を取得し、音声傍受結果は、第1の仮想キャラクターの音声を傍受できるかどうかを含む。
【0093】
本開示の例示的な実施例では、ターゲット仮想キャラクターの傍受パラメータ情報と敵の第1のキャラクターの音声パラメータ情報をそれぞれ取得した後、この傍受パラメータ情報と異なる第1の仮想キャラクターの音声パラメータ情報とを並列計算してターゲット仮想キャラクターの音声傍受結果を得て、複数の音声源の表現パターンを同時に追跡しレンダリングすることを保証することができる。
【0094】
選択可能な実施例では、傍受パラメータ情報は、傍受能力レベルとノイズレベル情報を含み、音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、
図6は、傍受パラメータ情報と音声パラメータ情報の計算方法のフローチャートである。
図6に示すように、該方法は、以下のステップを少なくとも含み、ステップs610において、ノイズレベル情報が第1の仮想キャラクターを傍受したことを示す場合、第1の音声タイプに基づいて第1の音声強度を取得する。
【0095】
ターゲット仮想キャラクターのターゲット音声強度が傍受ノイズ閾値以下である場合、又はターゲット仮想キャラクターが音を発していない場合、ノイズレベル情報は、この時点で第1の仮想キャラクターを傍受できることを示す。
【0096】
この場合、異なる第1の音声タイプにも対応する第1の音声強度が設定されているので、取得した第1の音声タイプに基づいてそのときの第1の音声強度を取得することができる。
【0097】
例えば、第1の音声タイプがランニングである場合、対応する第1の音声強度は30デシベルであり、第1の音声タイプが発砲である場合、対応する第1の音声強度は40デシベルであってもよい。
【0098】
ステップs620において、傍受能力レベルに基づいてターゲット仮想キャラクターの傍受係数を取得し、第1の音声強度及び傍受係数を計算して傍受能力情報を取得する。
【0099】
対応する傍受係数は、傍受能力レベルに線形に関係するように設定されているため、ターゲット仮想キャラクターの傍受能力レベルを取得した後に、対応する傍受係数を取得することができる。
【0100】
さらに、第1の音声強度と傍受係数を計算することで、対応する傍受能力情報を取得することができる。
【0101】
具体的には、第1の音声強度と傍受係数を計算する方法は、第1の音声強度と傍受係数を乗算することであってもよいし、実際の状況に応じて他の計算方法を設定することであってもよく、この実施例はこれに特に限定されない。
【0102】
ステップs630において、傍受能力情報と音声伝播距離とを比較して音声傍受結果を取得する。
【0103】
傍受能力情報を算出した後、傍受能力情報と取得した音声伝播距離を比較して、音声傍受結果を得ることができる。
【0104】
ここで、音声傍受結果は、傍受能力情報が音声伝播距離以上であってもよいし、傍受能力情報が音声伝播距離未満であってもよい。
【0105】
この音声傍受結果の決定と前の判断プロセスは、第1の仮想キャラクターの表現パターンを表示して二重論理的で緻密な判断レベルを形成し、この判断レベルは式(1)によって示すことができ、
ここで、b2∈U_A2、Uは、ターゲット仮想キャラクターが傍受できる第1の仮想キャラクターのセットを示し、a1が第1の音声タイプを示し、b1がターゲット音声タイプを示し、a2が音声の発する第1の仮想キャラクターを示し、b2がターゲット仮想キャラクターを示し、Xがターゲット仮想キャラクターターゲット音声強度又は第1の仮想キャラクターの第1の音声強度を示し、Yが傍受ノイズ閾値を示し、Mが傍受係数を示し、dSが音声伝播距離を示す。
【0106】
この実施例では、第1の音声強度と傍受係数を計算して比較することにより、音声傍受結果をさらに決定し、距離が離れすぎて第1の仮想キャラクターを傍受できなくなるかどうかを判断し、実際の状況とより適切で正確であり、第1の仮想キャラクターの表現パターンを表示することと第1の仮想キャラクターの安全を保障することとの間でバランスをとることができる。
【0107】
音声傍受結果を計算する過程で、多種の異なる次元のデータを計算過程に加え、対応する声紋システムの最適化にサポートを提供し、声紋システムの後期数値成長の深さも増加し、声紋システムの異なる体験に保障を提供し、例えば、異なるレベルの傍受者が同じ音声から異なる数の情報を取得できるなど、プレイヤーの後期のゲーム戦略を変更する。
【0108】
ステップs230において、第1の仮想キャラクターの音声を傍受できる場合、第1の仮想キャラクターのゲームシーンに位置する第1の位置に基づいて、グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定する。
【0109】
本開示の例示的な実施例では、音声傍受結果を算出した後、音声傍受結果が第1の仮想キャラクターの音声を傍受できる場合、第1の仮想キャラクターがゲームシーン内で位置する第1の位置に基づいて、対応するマッピング位置を決定することができる。
【0110】
選択可能な実施例では、第1の仮想キャラクターがゲームシーンに位置する第1の位置と仮想カメラのカメラパラメータに基づいてグラフィカルユーザーインターフェースにおける第1の位置に対応するマッピング位置を決定し、ここで、仮想カメラは、ゲームの全部又は一部のゲームシーンを撮ってグラフィカルユーザーインターフェースに表示されるゲームシーン画面を表示するために使用される。
【0111】
ここで、ターゲット端末デバイスのグラフィカルユーザーインターフェースに表示されるゲームシーン画面は、仮想カメラで撮るゲームシーン内容である。
【0112】
例えば、一人称ゲームでは、仮想カメラをターゲット仮想キャラクターの頭部に設置し、仮想カメラの向きなどのカメラパラメータをターゲット仮想キャラクターの回転に追従して回転させることができ、グラフィカルユーザーインターフェースでレンダリングするゲームシーン画面は、仮想カメラが撮影したゲームシーン内容に相当する。
【0113】
三人称ゲームでは、仮想カメラをターゲット仮想キャラクターの後方又は真上に設置し、仮想カメラの向きなどのカメラパラメータをターゲット仮想キャラクターの移動に追従して移動させ、ターゲット仮想キャラクターの周囲の一定領域のゲームシーンを一定の角度で撮影することができる。
【0114】
したがって、ゲームシーンにおける第1の仮想キャラクターの位置に対応するマッピング位置は、ターゲット仮想キャラクターの仮想カメラの向きなどのカメラパラメータ、すなわちターゲット仮想キャラクターの視点で決定することができる。
【0115】
具体的には、第1の位置に対応するマッピング位置は、第1の位置と同じ位置であってもよく、他の関連位置であってもよく、この実施例はこれに特に限定されない。
【0116】
ステップs240において、マッピング位置に第1の仮想キャラクターを示すための表現パターンを表示する。
【0117】
本開示の例示的な実施例では、音声傍受結果が第1の仮想キャラクターの音声を傍受可能であることを決定し、マッピング位置を決定した後、マッピング位置に第1の仮想キャラクターの表現パターンを表示することができる。
【0118】
選択可能な実施例では、カメラパラメータに基づいて、ターゲット仮想キャラクターに対する第1の仮想キャラクターの非可視領域を決定し、マッピング位置に第1の仮想キャラクターを示すための非可視領域の表現パターンを表示し、ここで、非可視領域は第1の仮想キャラクターの全部又は一部の領域を含み、第1の仮想キャラクターの一部の領域は第1の仮想キャラクターの1つ又は複数の仮想ボディ部位を含む。
【0119】
仮想カメラのカメラパラメータに基づいて、ターゲット仮想キャラクターの視点で第1の仮想キャラクターを見ると、ターゲット仮想キャラクターが完全な第1の仮想キャラクターを見ることができるか、ターゲット仮想キャラクターが第1の仮想キャラクターの部分しか見ることができない場合がある。
【0120】
そして、ターゲット仮想キャラクターの視点に基づいて第1の仮想キャラクターの表現パターンを生成するために、カメラパラメータに基づいて、ターゲット仮想キャラクターの視点の下の第1の仮想キャラクターの非可視領域を決定することができる。
【0121】
ここで、非可視領域は、ターゲット仮想キャラクターには見えない最初の仮想キャラクターの領域である。
【0122】
ターゲット仮想キャラクターが第1の仮想キャラクターを観察できない場合、該非可視領域は第1の仮想キャラクターのすべての領域、すなわち第1の仮想キャラクター全体が非可視領域であり、ターゲット仮想キャラクターが第1の仮想キャラクターの頭部などの部分領域を観察できる場合、非可視領域は、第1の仮想キャラクターの頭部以外の領域を非可視領域とする。
【0123】
したがって、第1の仮想キャラクターの非可視領域は、第1の仮想キャラクターの1つ又は複数の仮想ボディ部位であってもよい。
【0124】
なお、非可視領域の区分は、第1の仮想キャラクターの仮想ボディ部位を基準にして厳密に区分されるのではなく、実際のシーンでの真の視点と同じであり、仮想ボディ部位の一部が可視であり、他部が非可視である可能性がある。
【0125】
ターゲット仮想キャラクターに対する第1の仮想キャラクターの非可視領域を決定した後、第1の仮想キャラクターの非可視領域を示すための表現パターンを生成して、その表現パターンを表示することができる。
【0126】
選択可能な実施例では、第1の仮想キャラクターをぼかし処理して第1の仮想キャラクターを示す表現パターンを取得し、マッピング位置に表現パターンを表示する。
【0127】
なお、第1の仮想キャラクターをぼかし処理する部分は、第1の仮想キャラクターの非可視領域であり、第1の仮想キャラクターがターゲット仮想キャラクターに対する可視領域に対してぼかし処理を行う必要がない。
【0128】
選択可能な実施例では、
図7は、第1の仮想キャラクターのぼかし処理方法のフローチャートである。
図7に示すように、該方法は、以下のステップを少なくとも含み、ステップs710において、第1の仮想キャラクターを画像カットアウト処理して第1の画面を取得する。
【0129】
第1の仮想キャラクターの第1の画面を得るために、画像分割技術又はインテリジェント画像カットアウト技術を用いて第1の仮想キャラクターを画像カットアウト処理する。この第1の画面は、第1のキャラクターの輪郭とその内部に基づいて形成された画面であってもよい。
【0130】
ステップs720において、第1の画面をガウスぼかし処理して第1の仮想キャラクターを示す表現パターンを取得する。
【0131】
ここで、ガウスぼかし(Gaussian Blur)はガウス平滑化とも呼ばれ、Adobe Photoshop(画像処理ソフトウェア)、GIMP(GNU Image Manipulation Program、GNU画像処理プログラム)、及びPaint.NET(画像と写真処理ソフトウェア)などの画像処理ソフトウェアで広く使用されている処理効果であり、通常は画像ノイズの低減や詳細レベルの低減に使用されている。
【0132】
このぼかし技術によって生成された画像は、レンズの焦点外結像効果のデフォーミングや通常の照明影での効果とは明らかに異なる、毛ガラスを通して画像を観察しているような視覚効果を持っている。
【0133】
ガウス平滑化はまた、異なるスケールサイズの画像効果を高めるためにコンピュータ視覚アルゴリズムにおける前処理段階にも使用される。数学的な観点から見ると、画像のガウスぼかしプロセスは画像と正規分布を畳み込むことである。正規分布はガウス分布とも呼ばれるため、この技術はガウスぼかしと呼ばれています。
【0134】
画像と円形ボックスのブラーを畳み込むと、より正確な焦点外結像効果が得られる。ガウス関数のフーリエ変換は別のガウス関数であるため、ガウスぼかしは画像にとってローパスフィルタである。
【0135】
ガウスぼかしは、画像中の各画素の変換を正規分布で計算する画像ぼかしフィルタである。N次元空間正規分布方程式は、
であり、
敵の輪郭画面をガウスぼかしする2次元空間は、
と定義され、
ここで、rはぼかし半径であり、σは、正規分布の標準偏差である。
【0136】
2次元空間では、この式によって生成されるサーフェスの等高線は、中心から正規分布を呈する同心円である。分布がゼロでない画素からなる畳み込み行列は元の画像と変換される。各ピクセルの値は、周囲の隣接ピクセル値の加重平均である。元のピクセルの値には最大のガウス分布値があるため、最大の重みがあり、隣接するピクセルは元のピクセルから遠ざかるにつれて重みが小さくなる。
【0137】
このようにして行われたぼかし処理は、他の等化ぼかしフィルタよりもエッジ効果を高く保持している。
【0138】
選択可能な実施例では、傍受パラメータ情報は、ターゲット音声タイプを含み、音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、
図8は、第1の画面のガウスぼかしの方法のフローチャートである。
図8に示すように、該方法は、以下のステップを少なくとも含み、ステップs810において、ターゲット音声タイプ及び/又は第1の音声タイプに基づいて、第1の画面をガウスぼかし処理して第1の仮想キャラクターを示すための表現パターンを取得し、表現パターンのぼかしパラメータは、ターゲット音声タイプ及び/又は第1の音声タイプによって決定され、ぼかしパラメータは、表現パターンのサイズ及び/又は精細度を含む。
【0139】
ガウスぼかし度合いは、ガウス行列によって決定される。具体的には、ガウス行列のサイズが大きくなるほど、標準差が大きくなり、ガウスぼかしによる表現パターンのぼかし度合いが大きくなる。
【0140】
一般的には、ガウスぼかしを行うために標準偏差を0に設定することができる。そのため、ガウスぼかしされた表現パターンのぼかし度合いはガウス行列によって決定される。
【0141】
そして、表現パターンを生成するガウス行列を決定する際には、ターゲット音声タイプ及び/又は第1の音声タイプに基づいて決定することができるので、表現パターンのぼかし度合いを反映するぼかしパラメータは、ターゲット音声タイプ及び/又は第1の音声タイプによって決定される。
【0142】
例えば、異なるターゲット音声タイプとガウス行列の大きさとの間にマッピング関係が存在することができるので、ターゲット音声タイプによって第1の画面をガウスぼかして対応する表現パターンを得るために、マッピング関係とターゲット音声タイプに基づいてガウス行列の大きさを決定することができる。
【0143】
同様に、異なる第1の音声タイプとガウス行列の大きさとの間にも対応するマッピング関係が存在してもよいので、第1の音声タイプによって第1の画面をガウスぼかして対応する表現パターンを得るために、そのマッピング関係と第1の音声タイプに基づいてガウス行列の大きさを決定することができる。
【0144】
あるいは、対応する表現パターンを得るために、異なるターゲット音声タイプと第1の音声タイプが同時にガウス行列の大きさを決定する。
【0145】
その場合、表現パターンのぼかし度合いを反映するぼかしパラメータには、表現パターンのサイズ及び/又は精細度を含めることができる。
【0146】
ターゲット音声タイプ及び/又はターゲット音声タイプによって決定されたガウス行列が大きいほど、表現パターンのサイズが小さく、及び/又は精細度が劣ることを決定することができ、ターゲット音声タイプ及び/又はターゲット音声タイプによって決定されたガウス行列が小さいほど、表現パターンのサイズが大きく、及び/又は精細度が良いと決定することができる。
【0147】
ステップs820において、音声伝播距離に基づいて第1の画面をガウスぼかし処理して第1の仮想キャラクターを示す表現パターンを取得し、表現パターンのぼかしパラメータは、音声伝播距離によって決定され、ぼかしパラメータは、表現パターンのサイズ及び/又は精細度を含む。
【0148】
ガウスぼかし度合いは、ガウス行列によって決定される。具体的には、ガウス行列のサイズが大きくなるほど、標準差が大きくなり、ガウスぼかしによる表現パターンのぼかし度合いが大きくなる。
【0149】
一般的には、ガウスぼかしを直接行うために標準偏差を0に設定することができる。そのため、ガウスぼかしされた表現パターンのぼかし度合いは、ガウス行列によって決定される。
【0150】
そして、表現パターンを生成するガウス行列を決定する際には、音声伝播距離に基づいて決定することができるので、表現パターンのぼかし度合いを反映するぼかしパラメータは、音声伝播距離によって決定される。
【0151】
例えば、ガウス行列の大きさは、音声伝播距離の大きさに直接等しくてもよい。あるいは、ガウス行列の大きさと音声伝播距離との間にマッピング関係があることもできるので、このマッピング関係と音声伝播距離に基づいてガウス行列の大きさを決定し、音声伝播距離によって第1の画面をガウスぼかして対応する表現パターンを得ることができる。
【0152】
その場合、表現パターンのぼかし度合を反映するぼかしパラメータには、表現パターンのサイズ及び/又は精細度を含めることができる。
【0153】
音声伝播距離によって決定されたガウス行列が大きいほど、表現パターンのサイズが小さく、及び/又は精細度が悪いことを決定することができ、音声伝播距離によって決定されたガウス行列が小さいほど、表現パターンのサイズが大きく、及び/又は精細度が良いと決定することができる。
【0154】
したがって、第1の仮想キャラクターをぼかし処理することにより、遠い第1の仮想キャラクターほど輪郭位置情報がぼかし、遠い音に対する実世界の判断の難しさをよりシミュレートすることができる。
【0155】
また、第1の仮想キャラクターが敵の仮想キャラクターである場合、ぼかし処理された表現パターンは、敵の仮想キャラクターの位置を正確に表示せず、敵の仮想キャラクターが正確に射殺される可能性を低減する。さらに、敵の仮想キャラクターの声が傍受されると、敵の仮想キャラクターに対する表現パターンがリアルタイムで敵の仮想キャラクターにレンダリングされ、リアルタイム可視化の効果が得られる。
【0156】
第1の仮想キャラクターを示す表現パターンを生成した後、決定されたマッピング位置にその表現パターンを表示することができる。
【0157】
選択可能な実施例では、表現パターンは、第1の仮想キャラクターのモデル輪郭である。
【0158】
図9は、第1の仮想キャラクターの全領域のモデル輪郭の表示の概略インターフェース図である。
図9に示すように、第1の仮想キャラクターが敵の仮想キャラクターである場合、910が敵の仮想キャラクターの表現パターンである。該表現パターンは、第1の仮想キャラクターの全領域をぼかし処理して得た第1の仮想キャラクターのモデル輪郭である。
【0159】
図10は、第1の仮想キャラクターの一部の領域のモデル輪郭の表示の概略インターフェース図である。
図10に示すように、第1の仮想キャラクターが敵の仮想キャラクターである場合、1010が敵の仮想キャラクターの表現パターンである。該表現パターンは、第1の仮想キャラクターの一部の領域をぼかし処理して得た第1の仮想キャラクターのモデル輪郭である。
【0160】
1020は、敵の仮想キャラクターの非可視領域の以外の他領域が正常に表示される画面である。1020によって示す他の領域はターゲット仮想キャラクターにとって可視であるため、1020をぼかし処理する必要がない。
【0161】
敵の仮想キャラクターのモデル輪郭を表示するには、ゲーム内の壁や他の障害物に遮られることなく、モデル輪郭がゲームシーンの一番上にあるように、モデル輪郭の表示優先度を最も高く設定することができ、モデル輪郭に透視効果を与えることができる。
【0162】
同時に、ぼかしされたモデル輪郭も、敵の仮想キャラクターの過多情報や敵仮想キャラクターの位置情報を過度に暴露することができない問題を解決し、例えば、敵の仮想キャラクターの正確な位置情報、頭部位置や体の向きなどを含み、ターゲット仮想キャラクターを制御するプレイヤーが透視効果を利用してロックを行うなど、ゲームバランスを破壊する操作を回避することができる。
【0163】
図11は、複数の第1の仮想キャラクターのモデル輪郭の概略インターフェース図である。
図11に示すように、第1の仮想キャラクターが敵の仮想キャラクターである場合、1110、1120、1130、1140、1150が5つの敵の仮想キャラクターの表現パターンである。この表現パターンは、5つの敵の仮想キャラクターを同時にぼかし処理して得られた第1の仮想キャラクターのモデル輪郭である。
【0164】
したがって、複数の異なる第1の仮想キャラクターの音声パラメータ情報の並列計算と処理により、複数の音声傍受結果を得ることができ、複数の第1の仮想キャラクターの表現パターンを同時に追跡し、レンダリングすることが保証される。
【0165】
また、第1の仮想キャラクターのターゲット音声タイプ及び/又は第1の音声タイプ、及び音声伝播距離によって、第1の仮想キャラクターに対するガウスぼかしの程度が異なるため、第1の仮想キャラクターのモデル輪郭のサイズ及び/又は精細度には一定の違いがある。
【0166】
また、この表現パターンは、モデル輪郭に関連する他の図形であってもよい。
【0167】
選択可能な実施例では、表現パターンは、第1の仮想キャラクターのモデル輪郭をぼかして得られる図形を意味する。
【0168】
第1の仮想キャラクターを示す表現パターンを生成した後、第1の仮想キャラクターの位置情報をさらに保護するために、ぼかし処理されたモデル輪郭に対してさらにぼかし処理を続けて表現パターンを得ることもできる。
【0169】
これに加えて、生成された表現パターンに対して実際の状況に応じて他の変形処理を行うこともでき、この実施例は特に限定されない。
【0170】
さらに、表現パターンの表示時間は、傍受パラメータ情報及び/又は音声パラメータ情報に基づいて決定されてもよい。
【0171】
選択可能な実施例では、
図12は、表示時間に従って表現パターンの表示方法のフローチャートである。
図12に示すように、該方法は、以下のステップを少なくとも含み、ステップs1210において、傍受パラメータ情報及び/又は音声パラメータ情報に基づいて第1の仮想キャラクターを示す表現パターンの表示時間を決定する。
【0172】
ここで、該表現パターンの表示時間は、第1の仮想キャラクターの第1の音声タイプとターゲット仮想キャラクターの傍受能力レベルに関連してもよい。
【0173】
例えば、第1の仮想キャラクターの第1の音声タイプが第1の攻撃タイプである表示時間は、第1の音声タイプが第1の準備攻撃タイプである表示時間よりも大きく、第1の仮想キャラクターの第1の音声タイプが第1の準備攻撃タイプである表示時間は、第1の音声タイプが第1の移動タイプである表示時間よりも大きい。
【0174】
又は、ターゲット仮想キャラクターの傍受能力レベルは、表現パターンの表示時間に正の相関する。例えば、ターゲット仮想キャラクターの傍受能力レベルが高いほど、表現パターンの表示時間が長くなる。ターゲット仮想キャラクターの傍受能力レベルが低いほど、表現パターンの表示時間が短くなる。
【0175】
また、表現パターンの表示時間は、第1の仮想キャラクターの第1の音声タイプとターゲット仮想キャラクターの傍受能力レベルと同時に関連するなど、この実施例は特に限定されない。
【0176】
ステップs1220において、表示時間に従ってマッピング位置に表現パターンを表示する。
【0177】
表現パターンの表示時間を決定した後、その表示時間に応じて第1の仮想キャラクターの表現パターンを表示することができる。
【0178】
この実施例では、第1の仮想キャラクターが傍受されると、第1の仮想キャラクターの表現パターンの表示の持続時間は、傍受パラメータ情報及び/又は音声パラメータ情報に基づいて差異表現を提示し、システム全体の奥行きとロングライン育成体験を増加させることができる。
【0179】
第1の仮想キャラクターの音声源をリアルタイムで追跡するために、マッピング位置は、第1の位置の変化によってリアルタイムに更新することができる。
【0180】
選択可能な実施例では、第1の位置の変化に応答して、リアルタイムでマッピング位置を更新し、それにより、表現パターンが第1の仮想キャラクターの位置変化をリアルタイムで反映するように、表現パターンのグラフィカルユーザーインターフェース上の表示位置を更新する。
【0181】
図13は、第1の仮想キャラクターの位置変化をリアルタイムで反映するインターフェースの概略図である。
図13に示すように、1310、1320、1330は異なる時刻における第1の仮想キャラクターの表現パターンである。この表現パターンは、異なる時刻において、第1の仮想キャラクターの第1の位置の変化に基づいてマッピング位置をリアルタイムに更新し、対応するマッピング位置に現在の時刻のモデル輪郭を表示する。
【0182】
そのため、異なる時刻における表現パターンは、第1の仮想キャラクターの位置変化を反映することができ、リアルタイムで第1の仮想キャラクターのグラフィカルユーザーインターフェース上の表示位置を追跡表示することができる。
【0183】
ここで、1310、1320、1330は、第1の仮想キャラクターの全体が非可視領域である場合、第1の仮想キャラクターの全領域をぼかし処理して得られるモデル輪郭である。
【0184】
第1の仮想キャラクターの表現パターンの正確な描画とレンダリングを通じて、プレイヤーがリアルタイムかつ直感的に音声源の方向を把握するのに便利で、左右、上下、遠近などを含む複数の次元の方位を正確に理解し、音声方向が大まかな位置しか表示できず、リアルタイム追跡を実現できない問題を解決した。
【0185】
それ以外にも、1340は、第1の仮想キャラクターの全体がターゲット仮想キャラクターに対して可視である場合、第1の仮想キャラクターのどの領域に対してもぼかし処理が施されておらず、正常に表示されるゲーム画面である。
【0186】
したがって、ターゲット仮想キャラクターが全体の第1の仮想キャラクターを観察できる場合もあり、そして、この時に非可視領域がない。
【0187】
選択可能な実施例では、カメラパラメータに基づいて、第1の仮想キャラクターの全領域がターゲット仮想キャラクターに対して可視であることを決定し、第1の仮想キャラクターを示す表現パターンを表示しない。
【0188】
ターゲット仮想キャラクターが第1の仮想キャラクター全体を観察している場合、非可視領域は存在しない。つまり、第1の仮想キャラクターのすべての領域はターゲット仮想キャラクターにとって可視である。
【0189】
この場合、第1の仮想キャラクターを示すための表現パターンをさらに生成する必要はなく、表示する必要もない。第1の仮想キャラクターが傍受されると、音声傍受結果に基づいて第1の仮想キャラクターの表現パターンを生成して表示することができるほか、音声傍受結果に基づいて追跡コントロールを表示することもできる。
【0190】
選択可能な実施例では、音声パラメータ情報は、音声伝播距離を含み、
図14は、音声傍受結果に基づいて追跡コントロールを表示する方法のフローチャートである。
図14に示すように、該方法は、以下のステップを少なくとも含み、ステップs1410において、音声傍受結果に基づいて追跡コントロールを生成し、追跡コントロールは、音声伝播距離を含む。
【0191】
音声傍受結果として、傍受能力情報が音声伝播距離以上である場合、追跡コントロールを生成することができる。該追跡コントロールは、円形コントロール、正方形コントロール、矢印スタイルのコントロールなど、2DUIの形式であってもよく、この実施例は特に限定されない
この追跡コントロールを使用すると、第1の仮想キャラクターの方位をリアルタイムで追跡することができる。
【0192】
また、この追跡コントロールが指す第1の仮想キャラクターのターゲット仮想キャラクターからの距離をさらに示すために、追跡コントロールにおいて、又は追跡コントロールの隣などの相関位置に音声伝播距離の情報を追加することもできる。
【0193】
ステップs1420において、マッピング位置に第1の仮想キャラクターを示すための追跡コントロールを表示する。
【0194】
マッピング位置を決定し追跡コントロールを生成した後、該マッピング位置に追跡コントロールを表示することができる。
【0195】
このとき、このマッピング位置は、第1の仮想キャラクターの頭部、胸部などの第1の仮想キャラクターの内部位置であってもよいし、第1の仮想キャラクターの左又は右などの外部位置であってもよく、この実施例はこれに特に限定されない。
【0196】
この実施例では、生成された追跡コントロールを第1の仮想キャラクターのマッピング位置に表示することにより、音声源の表示効果を豊かにし、プレイヤーのゲーム体験を向上させるための別の実装方法をリアルタイム追跡とレンダリングに提供する。
【0197】
本開示の例示的な実施例が提供する方法において、ターゲット仮想キャラクターの傍受パラメータ情報と第1の仮想キャラクターの音声パラメータ情報をレンダリング表現パターンのデータ基礎として取得し、レンダリング表現パターンのデータ次元を豊富にし、表現パターンレンダリングの動的度とリアルタイム性を高め、音声源の位置決めの精度を高め、よりリアルな聴覚効果と視覚効果を提供する。さらに、音声傍受結果に基づいて第1の仮想キャラクターの表現パターンをレンダリングして表示し、第1の仮想キャラクターに対してぼかし表示を行い、第1の仮想キャラクターの所在方位を正確に描写するとともに、第1の仮想キャラクターを過度に現わせる方位の間でバランスを取り、リアルタイムで第1の仮想キャラクターを追跡し、マークする指向効果を実現した。複数の第1の仮想キャラクターの表現パターンを同時にレンダリングして表示すると、複数の音声源を同じ方向に追跡できない問題をさらに解決でき、プレイヤーが第1の仮想キャラクターの数を把握しやすくなり、プレイヤーのゲーム体験を最適化することができる。
【0198】
また、本願の実施例は、また、ゲームにおける表示制御装置を提供し、ターゲット端末デバイスでグラフィカルユーザーインターフェースを提供し、グラフィカルユーザーインターフェースに表示される内容は、ゲームの全部又は一部のゲームシーンを少なくともを含み、ゲームシーンには、ターゲット端末デバイスを介して制御操作するターゲット仮想キャラクターと、他の端末デバイスを介して制御操作する第1の仮想キャラクターとが含まれる。
図15は、ゲームにおける表示制御装置の構成図であり、
図15に示すように、ゲームにおける表示制御装置1500は、情報取得モジュール1510と、情報計算モジュール1520と、位置決定モジュール1530と、グラフィック表示モジュール1540とを含む。ここで、情報取得モジュール1510は、前記ターゲット仮想キャラクターの傍受パラメータ情報を取得し、前記第1の仮想キャラクターの音声パラメータ情報を取得するように構成され、情報計算モジュール1520は、前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得するように構成され、前記音声傍受結果は、前記第1の仮想キャラクターの音声を傍受できるか否かを含み、位置決定モジュール1530は、前記第1の仮想キャラクターの音声を傍受できる場合、前記第1の仮想キャラクターが前記ゲームシーン内で位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定するように構成され、グラフィック表示モジュール1540は、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示するように構成される。
【0199】
本開示の例示的な実施例において、前記傍受パラメータ情報は、ターゲット音声タイプ、傍受能力レベル及びノイズレベル情報を含み、前記ターゲット仮想キャラクターの傍受パラメータ情報を取得することは、前記ターゲット仮想キャラクターの前記ターゲット音声タイプを取得することと、前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することと、前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することとを含む。
【0200】
本開示の例示的な実施例において、前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することは、前記ターゲット仮想キャラクターのターゲット属性情報を取得し、前記ターゲット属性情報と前記傍受能力レベルとのマッピング関係を取得することと、前記マッピング関係から前記ターゲット属性情報に対応する前記傍受能力レベルを検索することとを含む。
【0201】
本開示の例示的な実施例において、前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することは、前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターが発するターゲット音声強度を取得し、前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターの傍受ノイズ閾値を取得することと、前記ターゲット音声強度と前記傍受ノイズ閾値を比較して比較結果を取得し、前記比較結果に基づいて前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することとを含む。
【0202】
本開示の例示的な実施例において、前記方法は、さらに、前記ターゲット仮想キャラクターが音声を発していない場合、前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することを含む。
【0203】
本開示の例示的な実施例において、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、前記第1の音声タイプは、第1の移動タイプ、第1の攻撃タイプ及び第1の準備攻撃タイプのうちの少なくとも1つを含む。
【0204】
本開示の例示的な実施例において、前記傍受パラメータ情報は、傍受能力レベルとノイズレベル情報を含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得することは、前記ノイズレベル情報が前記第1の仮想キャラクターを傍受したことを示す場合、前記第1の音声タイプに基づいて第1の音声強度を取得することと、前記傍受能力レベルに基づいて前記ターゲット仮想キャラクターの傍受係数を取得し、前記第1の音声強度と前記傍受係数を計算して傍受能力情報を取得することと、前記傍受能力情報と前記音声伝播距離を比較して音声傍受結果を取得することとを含む。
【0205】
本開示の例示的な実施例において、前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭である。
【0206】
本開示の例示的な実施例において、前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭をぼかし処理したグラフィックである。
【0207】
本開示の例示的な実施例において、前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定することは、前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置及び仮想カメラのカメラパラメータに基づいて前記第1の位置の前記グラフィカルユーザーインターフェース内の対応するマッピング位置を決定することを含み、ここで、前記仮想カメラは、前記ゲームの全部又は一部のゲームシーンを撮影して前記グラフィカルユーザーインターフェースに表示されるゲームシーン画面を取得するために使用される。
【0208】
本開示の例示的な実施例において、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、前記カメラパラメータに基づいて前記第1の仮想キャラクターの前記ターゲット仮想キャラクターに対する非可視領域を決定し、前記マッピング位置に前記第1の仮想キャラクターの非可視領域を示すための表現パターンを表示することを含み、ここで、前記非可視領域は、前記第1の仮想キャラクターの全部又は一部の領域を含み、前記第1の仮想キャラクターの一部の領域は、前記第1の仮想キャラクターの1つ又は複数の仮想ボディ部位を含む。
【0209】
本開示の例示的な実施例において、前記方法は、さらに、前記カメラパラメータに基づいて前記第1の仮想キャラクターの全部の領域が前記ターゲット仮想キャラクターに対して可視であると決定し、前記第1の仮想キャラクターを示すための表現パターンを表示しないことを含む。
【0210】
本開示の例示的な実施例において、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記マッピング位置に前記表現パターンを表示することを含む。
【0211】
本開示の例示的な実施例において、前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、前記第1の仮想キャラクターを画像カットアウト処理して第1の画面を取得することと、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することとを含む。
【0212】
本開示の例示的な実施例において、前記傍受パラメータ情報は、ターゲット音声タイプを含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むこと、又は、前記音声伝播距離に基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記音声伝播距離に基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むことを含む。
【0213】
本開示の例示的な実施例において、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、前記傍受パラメータ情報及び/又は前記音声パラメータ情報に基づいて、前記第1の仮想キャラクターを示す表現パターンの表示時間を決定することと、前記表示時間に従って前記マッピング位置に前記表現パターンを表示することとを含む。
【0214】
本開示の例示的な実施例において、前記方法は、さらに、前記第1の位置の変化に応答し、前記マッピング位置をリアルタイムで更新して前記表現パターンの前記グラフィカルユーザーインターフェース内の表示位置を更新することで、前記表現パターンが前記第1の仮想キャラクターの位置変化ををリアルタイムで反映することを含む。
【0215】
本開示の例示的な実施例において、前記音声パラメータ情報は、音声伝播距離を含み、前記方法は、さらに、前記音声傍受結果に基づいて、前記音声伝播距離を含む追跡コントロールを生成することと、前記マッピング位置に前記第1の仮想キャラクターを示すための前記追跡コントロールを表示することとを含む。
【0216】
上記ゲームにおける表示制御装置1500の詳細は、対応するゲームにおける表示制御方法において詳細に説明されているので、ここでは説明を省略する。
【0217】
なお、上記の詳細な説明では、ゲームにおける表示制御装置1500のいくつかのモジュール又はユニットについて言及したが、このような分割は強制的なものではない。実際には、本開示の実施例によれば、上述した2つ以上のモジュール又はユニットの特徴及び機能は、1つのモジュール又はユニットにおいて具体化することができる。逆に、上述した1つのモジュール又はユニットの特徴と機能は、さらに複数のモジュール又はユニットに分けて具体化することができる。
【0218】
さらに、本開示の例示的な実施例では、上述の方法を実現することができる電子デバイスを提供する。
【0219】
以下、
図16を参照して、本開示のこのような実施例に係る電子デバイス1600について説明する。
図16に示す電子デバイス1600は単なる例であり、本開示の実施例の機能及び使用範囲に何らかの制限を与えない。
【0220】
図16に示すように、電子デバイス1600は、汎用コンピューティングデバイスとして表現される。電子デバイス1600のコンポーネントは、これらに限定されないが、上記少なくとも1つの処理ユニット1610、上記少なくとも1つの記憶ユニット1620、異なるシステムコンポーネント(記憶ユニット1620及び処理ユニット1610を含む)を接続するバス1630、表示ユニット1640を含むことができる。
【0221】
前記記憶ユニットは、前記処理ユニット1610により実行可能なプログラムコードを記憶しており、前記処理ユニット1610は、本明細書の前記「方法例」セクションに記載の本開示の様々な実施例によるステップを実行し、例えば、
ターゲット端末デバイスでグラフィカルユーザーインターフェースを提供し、前記グラフィカルユーザーインターフェースに表示される内容は、前記ゲームの全部又は一部のゲームシーンを少なくとも含み、前記ゲームシーンに前記ターゲット端末デバイスで制御操作されるターゲット仮想キャラクター及び他の端末デバイスで制御操作される第1の仮想キャラクターが含まれ、前記方法は、
前記ターゲット仮想キャラクターの傍受パラメータ情報を取得し、前記第1の仮想キャラクターの音声パラメータ情報を取得することと、
前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得し、前記音声傍受結果は、前記第1の仮想キャラクターの音声を傍受できるか否かを含むことと、
前記第1の仮想キャラクターの音声を傍受できる場合、前記第1の仮想キャラクターが前記ゲームシーン内で位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定することと、
前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することとを含む。
【0222】
任意選択で、前記傍受パラメータ情報は、ターゲット音声タイプ、傍受能力レベル及びノイズレベル情報を含み、
前記ターゲット仮想キャラクターの傍受パラメータ情報を取得することは、
前記ターゲット仮想キャラクターの前記ターゲット音声タイプを取得することと、
前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することと、
前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することとを含む。
【0223】
任意選択で、前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することは、
前記ターゲット仮想キャラクターのターゲット属性情報を取得し、前記ターゲット属性情報と前記傍受能力レベルとのマッピング関係を取得することと、
前記マッピング関係から前記ターゲット属性情報に対応する前記傍受能力レベルを検索することとを含む。
【0224】
任意選択で、前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することは、
前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターが発するターゲット音声強度を取得し、前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターの傍受ノイズ閾値を取得することと、
前記ターゲット音声強度と前記傍受ノイズ閾値を比較して比較結果を取得し、前記比較結果に基づいて前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することとを含む。
【0225】
任意選択で、前記方法は、さらに、
前記ターゲット仮想キャラクターが音声を発していない場合、前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することを含む。
【0226】
任意選択で、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、前記第1の音声タイプは、第1の移動タイプ、第1の攻撃タイプ及び第1の準備攻撃タイプのうちの少なくとも1つを含む。
【0227】
任意選択で、前記傍受パラメータ情報は、傍受能力レベルとノイズレベル情報を含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、
前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得することは、
前記ノイズレベル情報が前記第1の仮想キャラクターを傍受したことを示す場合、前記第1の音声タイプに基づいて第1の音声強度を取得することと、
前記傍受能力レベルに基づいて前記ターゲット仮想キャラクターの傍受係数を取得し、前記第1の音声強度と前記傍受係数を計算して傍受能力情報を取得することと、
前記傍受能力情報と前記音声伝播距離を比較して音声傍受結果を取得することとを含む。
【0228】
任意選択で、前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭である。
【0229】
任意選択で、前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭をぼかし処理したグラフィックである。
【0230】
任意選択で、前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定することは、
前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置及び仮想カメラのカメラパラメータに基づいて前記第1の位置の前記グラフィカルユーザーインターフェース内の対応するマッピング位置を決定することを含み、ここで、前記仮想カメラは、前記ゲームの全部又は一部のゲームシーンを撮影して前記グラフィカルユーザーインターフェースに表示されるゲームシーン画面を取得するために使用される。
【0231】
任意選択で、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、
前記カメラパラメータに基づいて前記第1の仮想キャラクターの前記ターゲット仮想キャラクターに対する非可視領域を決定し、前記マッピング位置に前記第1の仮想キャラクターの非可視領域を示すための表現パターンを表示することを含み、ここで、前記非可視領域は、前記第1の仮想キャラクターの全部又は一部の領域を含み、前記第1の仮想キャラクターの一部の領域は、前記第1の仮想キャラクターの1つ又は複数の仮想ボディ部位を含む。
【0232】
任意選択で、前記方法は、さらに、
前記カメラパラメータに基づいて前記第1の仮想キャラクターの全部の領域が前記ターゲット仮想キャラクターに対して可視であると決定し、前記第1の仮想キャラクターを示すための表現パターンを表示しないことを含む。
【0233】
任意選択で、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、
前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記マッピング位置に前記表現パターンを表示することを含む。
【0234】
任意選択で、前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、
前記第1の仮想キャラクターを画像カットアウト処理して第1の画面を取得することと、
前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することとを含む。
【0235】
任意選択で、前記傍受パラメータ情報は、ターゲット音声タイプを含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、
前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、
前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むこと、又は、
前記音声伝播距離に基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記音声伝播距離に基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むことを含む。
【0236】
任意選択で、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、
前記傍受パラメータ情報及び/又は前記音声パラメータ情報に基づいて、前記第1の仮想キャラクターを示す表現パターンの表示時間を決定することと、
前記表示時間に従って前記マッピング位置に前記表現パターンを表示することとを含む。
【0237】
任意選択で、前記方法は、さらに、
前記第1の位置の変化に応答し、前記マッピング位置をリアルタイムで更新して前記表現パターンの前記グラフィカルユーザーインターフェース内の表示位置を更新することで、前記表現パターンが前記第1の仮想キャラクターの位置変化ををリアルタイムで反映することを含む。
【0238】
任意選択で、前記音声パラメータ情報は、音声伝播距離を含み、
前記方法は、さらに、
前記音声傍受結果に基づいて、前記音声伝播距離を含む追跡コントロールを生成することと、
前記マッピング位置に前記第1の仮想キャラクターを示すための前記追跡コントロールを表示することとを含む。
【0239】
以上のように、ターゲット仮想キャラクターの傍受パラメータ情報と第1の仮想キャラクターの音声パラメータ情報をレンダリング表現パターンのデータ基礎として取得し、レンダリング表現パターンのデータ次元を豊富にし、表現パターンレンダリングの動的度とリアルタイム性を高め、音声源の位置決めの精度を高め、よりリアルな聴覚効果と視覚効果を提供する。さらに、音声傍受結果に基づいて第1の仮想キャラクターの表現パターンをレンダリングして表示し、第1の仮想キャラクターに対してぼかし表示を行い、第1の仮想キャラクターの所在方位を正確に描写するとともに、第1の仮想キャラクターを過度に現わせる方位の間でバランスを取り、リアルタイムで第1の仮想キャラクターを追跡し、マークする指向効果を実現した。複数の第1の仮想キャラクターの表現パターンを同時にレンダリングして表示すると、複数の音声源を同じ方向に追跡できない問題をさらに解決でき、プレイヤーが第1の仮想キャラクターの数を把握しやすくなり、プレイヤーのゲーム体験を最適化することができる。
【0240】
記憶ユニット1620は、ランダムアクセス記憶ユニット(RAM)1621及び/又はキャッシュ記憶ユニット1622などの揮発性記憶ユニットの形態の可読媒体を含むことができ、さらに読み取り専用記憶ユニット(ROM)1623を含むこともできる。
【0241】
記憶ユニット1620はまた、オペレーティングシステム、1つ又は複数のアプリケーション、他のプログラムモジュール、及びプログラムデータを含むが、これらの例のそれぞれ又はいくつかの組み合わせにはネットワーク環境の実装が含まれる可能性があるプログラムモジュール1625のセット(少なくとも1つ)を有するプログラム/ユーティリティ1624を含むことができるが、これらに限定されない。
【0242】
バス1630は、メモリセルバス又はメモリセルコントローラ、周辺バス、グラフィカルアクセラレーションポート、処理ユニット、又は複数のバス構造のうちの任意のバス構造を使用するローカルバスを含む、いくつかのクラスのバス構造のうちの1つ又は複数を表すことができる。
【0243】
電子デバイス1600はまた、キーボード、ポインティングデバイス、Bluetoothデバイスなどの1つ又は複数の外部デバイス1800と通信することができ、また、ユーザが電子デバイス1600と対話できるようにする1つ又は複数のデバイスと通信することができ、及び/又は、電子デバイス1600が1つ又は複数の他のコンピューティングデバイスと通信できるようにする任意のデバイス(ルータ、モデムなど)と通信することができる。この通信は、入出力(I/O)インターフェース1650を介して行うことができる。さらに、電子デバイス1600は、ネットワークアダプタ1660を介して、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、及び/又はインターネットなどの1つ又は複数のネットワークと通信することもできる。図示するように、ネットワークアダプタ1660は、バス1630を介して電子デバイス1600の他のモジュールと通信する。図示していないが、マイクロコード、デバイスドライブ、冗長処理ユニット、外部ディスクドライブアレイ、RAIDシステム、テープドライブ、及びデータバックアップストレージシステムなどを含むがこれらに限定されない、他のハードウェア及び/又はソフトウェアモジュールを電子デバイス1600と組み合わせて使用することができることを理解すべきである。
【0244】
以上の実施例の説明により、当業者は理解しやすいが、本明細書で説明する例示的な実施例はソフトウェアによって実現することができ、また必要なハードウェアとソフトウェアを結合することによって実現することができる。したがって、本開示の実施例による技術的態様は、本開示の実施例による方法を実行するためのいくつかの命令を含む、1つの不揮発性記憶媒体(CD-ROM、USBディスク、モバイルハードディスクなどであってもよい)に格納されてもよいソフトウェア製品の形態で具現化されてもよい。
【0245】
本開示の例示的な実施例では、本明細書に記載の方法を実装することができるプログラム製品を格納したコンピュータ可読記憶媒体も提供される。いくつかの可能な実施例では、本開示の様々な態様は、端末デバイス上で実行されているときに、端末デバイスに本明細書の上記「例示的方法」セクションに記載された本開示の様々な例示的な実施例に従ったステップを実行させ、例えば、
ターゲット端末デバイスでグラフィカルユーザーインターフェースを提供し、前記グラフィカルユーザーインターフェースに表示される内容は、前記ゲームの全部又は一部のゲームシーンを少なくとも含み、前記ゲームシーンに前記ターゲット端末デバイスで制御操作されるターゲット仮想キャラクター及び他の端末デバイスで制御操作される第1の仮想キャラクターが含まれ、前記方法は、
前記ターゲット仮想キャラクターの傍受パラメータ情報を取得し、前記第1の仮想キャラクターの音声パラメータ情報を取得することと、
前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得し、前記音声傍受結果は、前記第1の仮想キャラクターの音声を傍受できるか否かを含むことと、
前記第1の仮想キャラクターの音声を傍受できる場合、前記第1の仮想キャラクターが前記ゲームシーン内で位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定することと、
前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することとを含む。
【0246】
任意選択で、前記傍受パラメータ情報は、ターゲット音声タイプ、傍受能力レベル及びノイズレベル情報を含み、
前記ターゲット仮想キャラクターの傍受パラメータ情報を取得することは、
前記ターゲット仮想キャラクターの前記ターゲット音声タイプを取得することと、
前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することと、
前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することとを含む。
【0247】
任意選択で、前記ターゲット仮想キャラクターの前記傍受能力レベルを取得することは、
前記ターゲット仮想キャラクターのターゲット属性情報を取得し、前記ターゲット属性情報と前記傍受能力レベルとのマッピング関係を取得することと、
前記マッピング関係から前記ターゲット属性情報に対応する前記傍受能力レベルを検索することとを含む。
【0248】
任意選択で、前記ターゲット仮想キャラクターの前記ノイズレベル情報を取得することは、
前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターが発するターゲット音声強度を取得し、前記ターゲット音声タイプに基づいて前記ターゲット仮想キャラクターの傍受ノイズ閾値を取得することと、
前記ターゲット音声強度と前記傍受ノイズ閾値を比較して比較結果を取得し、前記比較結果に基づいて前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することとを含む。
【0249】
任意選択で、前記方法は、さらに、
前記ターゲット仮想キャラクターが音声を発していない場合、前記ターゲット仮想キャラクターの前記ノイズレベル情報を決定することを含む。
【0250】
任意選択で、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、前記第1の音声タイプは、第1の移動タイプ、第1の攻撃タイプ及び第1の準備攻撃タイプのうちの少なくとも1つを含む。
【0251】
任意選択で、前記傍受パラメータ情報は、傍受能力レベルとノイズレベル情報を含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、
前記傍受パラメータ情報及び前記音声パラメータ情報を計算して音声傍受結果を取得することは、
前記ノイズレベル情報が前記第1の仮想キャラクターを傍受したことを示す場合、前記第1の音声タイプに基づいて第1の音声強度を取得することと、
前記傍受能力レベルに基づいて前記ターゲット仮想キャラクターの傍受係数を取得し、前記第1の音声強度と前記傍受係数を計算して傍受能力情報を取得することと、
前記傍受能力情報と前記音声伝播距離を比較して音声傍受結果を取得することとを含む。
【0252】
任意選択で、前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭である。
【0253】
任意選択で、前記表現パターンは、前記第1の仮想キャラクターのモデル輪郭をぼかし処理したグラフィックである。
【0254】
任意選択で、前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置に基づいて、前記グラフィカルユーザーインターフェースにおいて対応するマッピング位置を決定することは、
前記第1の仮想キャラクターが前記ゲームシーンに位置する第1の位置及び仮想カメラのカメラパラメータに基づいて前記第1の位置の前記グラフィカルユーザーインターフェース内の対応するマッピング位置を決定することを含み、ここで、前記仮想カメラは、前記ゲームの全部又は一部のゲームシーンを撮影して前記グラフィカルユーザーインターフェースに表示されるゲームシーン画面を取得するために使用される。
【0255】
任意選択で、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、
前記カメラパラメータに基づいて前記第1の仮想キャラクターの前記ターゲット仮想キャラクターに対する非可視領域を決定し、前記マッピング位置に前記第1の仮想キャラクターの非可視領域を示すための表現パターンを表示することを含み、ここで、前記非可視領域は、前記第1の仮想キャラクターの全部又は一部の領域を含み、前記第1の仮想キャラクターの一部の領域は、前記第1の仮想キャラクターの1つ又は複数の仮想ボディ部位を含む。
【0256】
任意選択で、前記方法は、さらに、
前記カメラパラメータに基づいて前記第1の仮想キャラクターの全部の領域が前記ターゲット仮想キャラクターに対して可視であると決定し、前記第1の仮想キャラクターを示すための表現パターンを表示しないことを含む。
【0257】
任意選択で、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、
前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記マッピング位置に前記表現パターンを表示することを含む。
【0258】
任意選択で、前記第1の仮想キャラクターをぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、
前記第1の仮想キャラクターを画像カットアウト処理して第1の画面を取得することと、
前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することとを含む。
【0259】
任意選択で、前記傍受パラメータ情報は、ターゲット音声タイプを含み、前記音声パラメータ情報は、第1の音声タイプと音声伝播距離を含み、
前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得することは、
前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記ターゲット音声タイプ及び/又は前記第1の音声タイプに基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むこと、又は、
前記音声伝播距離に基づいて、前記第1の画面をガウスぼかし処理して前記第1の仮想キャラクターを示す表現パターンを取得し、前記表現パターンのぼかしパラメータが前記音声伝播距離に基づいて決定され、前記ぼかしパラメータが前記表現パターンのサイズ及び/又は精細度を含むことを含む。
【0260】
任意選択で、前記マッピング位置に前記第1の仮想キャラクターを示すための表現パターンを表示することは、
前記傍受パラメータ情報及び/又は前記音声パラメータ情報に基づいて、前記第1の仮想キャラクターを示す表現パターンの表示時間を決定することと、
前記表示時間に従って前記マッピング位置に前記表現パターンを表示することとを含む。
【0261】
任意選択で、前記方法は、さらに、
前記第1の位置の変化に応答し、前記マッピング位置をリアルタイムで更新して前記表現パターンの前記グラフィカルユーザーインターフェース内の表示位置を更新することで、前記表現パターンが前記第1の仮想キャラクターの位置変化ををリアルタイムで反映することを含む。
【0262】
任意選択で、前記音声パラメータ情報は、音声伝播距離を含み、
前記方法は、さらに、
前記音声傍受結果に基づいて、前記音声伝播距離を含む追跡コントロールを生成することと、
前記マッピング位置に前記第1の仮想キャラクターを示すための前記追跡コントロールを表示することとを含む。
【0263】
以上のように、ターゲット仮想キャラクターの傍受パラメータ情報と第1の仮想キャラクターの音声パラメータ情報をレンダリング表現パターンのデータ基礎として取得し、レンダリング表現パターンのデータ次元を豊富にし、表現パターンレンダリングの動的度とリアルタイム性を高め、音声源の位置決めの精度を高め、よりリアルな聴覚効果と視覚効果を提供する。さらに、音声傍受結果に基づいて第1の仮想キャラクターの表現パターンをレンダリングして表示し、第1の仮想キャラクターに対してぼかし表示を行い、第1の仮想キャラクターの所在方位を正確に描写するとともに、第1の仮想キャラクターを過度に現わせる方位の間でバランスを取り、リアルタイムで第1の仮想キャラクターを追跡し、マークする指向効果を実現した。複数の第1の仮想キャラクターの表現パターンを同時にレンダリングして表示すると、複数の音声源を同じ方向に追跡できない問題をさらに解決でき、プレイヤーが第1の仮想キャラクターの数を把握しやすくなり、プレイヤーのゲーム体験を最適化することができる。
【0264】
図17に示すように、本開示の実施例による上述の方法を実装するためのプログラム製品1700は、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)を使用し、プログラムコードを含み、パーソナルコンピュータなどの端末デバイス上で動作することができるプログラム製品1700について説明する。しかしながら、本開示のプログラム製品はこれに限定されるものではなく、本ファイルにおいて、読み取り可能な記憶媒体は、システム、装置、又はデバイスの実行を指示するか、又はそれらと組み合わせて使用することができるプログラムを含む、又は記憶する有形の任意の媒体であってもよい。
【0265】
プログラム製品は、1つ以上の可読媒体の任意の組み合わせを採用することができる。可読媒体は、可読信号媒体であってもよいし、可読記憶媒体であってもよい。読取可能な記憶媒体は、例えば、電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置、又はデバイス、又は任意以上の組み合わせであることができるが、これらに限定されない。可読記憶媒体のより具体的な例(非限定的なリスト)は、電気的接続、ポータブルディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光記憶デバイス、磁気記憶デバイス、又は上述の任意の適切な組み合わせを含む。
【0266】
コンピュータ可読信号媒体は、可読プログラムコードを担持するベースバンド内に含まれるか、又は搬送波の一部として伝播するデータ信号を含むことができる。このように伝播するデータ信号は、電磁信号、光信号、又は上述した任意の適切な組み合わせを含むが、これらに限定されない様々な形態をとることができる。可読信号媒体は、命令実行システム、装置、又はデバイスによって使用される、又はそれらと組み合わせて使用されるプログラムを送信、伝播、又は送信することができる可読記憶媒体以外の任意の可読媒体であってもよい。
【0267】
可読媒体に含まれるプログラムコードは、無線、有線、光ケーブル、RFなど、又は上述の任意の適切な組み合わせを含むがこれらに限定されない、任意の適切な媒体で送信することができる。
【0268】
本開示の動作を実行するためのプログラムコードは、オブジェクト指向プログラミング言語、例えばJava、C++などを含む1つ以上のプログラミング言語の任意の組み合わせで記述することができ、また、「C」言語などの従来のプロシージャプログラミング言語、又は同様のプログラミング言語を含む。プログラムコードは、完全にユーザコンピューティングデバイス上で実行することができ、部分的にユーザデバイス上で実行することができ、独立したパッケージとして実行することができ、部分的にユーザコンピューティングデバイス上で部分的にリモートコンピューティングデバイス上で実行することができ、又は完全にリモートコンピューティングデバイス又はサーバ上で実行することができる。遠隔コンピューティング装置に関連する場合、遠隔コンピューティング装置は、ローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意の種類のネットワークを介してユーザコンピューティング装置に接続することができ、又は、外部コンピューティング装置(例えば、インターネットサービスプロバイダを用いてインターネットを介して接続することができる)に接続することができる。
【0269】
当業者は、明細書及びここに開示された開示を考慮し、実践した後、本開示の他の実施例を容易に思いつくであろう。本出願は、本開示の任意の変形、用途又は適応性の変化、これらの変形、用途又は適応性の変化をカバーすることを目的とする。
【国際調査報告】