(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-12-03
(54)【発明の名称】仮想環境における情報処理方法、装置、機器及びコンピュータプログラム
(51)【国際特許分類】
A63F 13/52 20140101AFI20241126BHJP
A63F 13/525 20140101ALI20241126BHJP
A63F 13/533 20140101ALI20241126BHJP
A63F 13/55 20140101ALI20241126BHJP
【FI】
A63F13/52
A63F13/525
A63F13/533
A63F13/55
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024532540
(86)(22)【出願日】2023-04-28
(85)【翻訳文提出日】2024-05-30
(86)【国際出願番号】 CN2023091436
(87)【国際公開番号】W WO2023246307
(87)【国際公開日】2023-12-28
(31)【優先権主張番号】202210719002.0
(32)【優先日】2022-06-23
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】517392436
【氏名又は名称】▲騰▼▲訊▼科技(深▲セン▼)有限公司
【氏名又は名称原語表記】TENCENT TECHNOLOGY (SHENZHEN) COMPANY LIMITED
【住所又は居所原語表記】35/F,Tencent Building,Kejizhongyi Road,Midwest District of Hi-tech Park,Nanshan District, Shenzhen,Guangdong 518057,CHINA
(74)【代理人】
【識別番号】100110364
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】王 ▲瑩▼蕾
(57)【要約】
本願は、仮想環境における情報処理方法、装置、機器及びプログラム製品を提供し、グラフィカルユーザインタフェースの分野に属する。前記方法は、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示するステップであって、前記仮想環境画面は、仮想環境を表示し、前記HUDコントロールは、仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示するステップ(302)と、前記仮想キャラクタが前記仮想環境で活動するように制御するステップ(304)と、前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップ(306)と、を含む。本願は、HUDコントロールの情報表示方法と仮想キャラクタのキャラクタ状態とを関連付け、異なる透視角度でHUDコントロールを表示することにより、ユーザが透視角度によって仮想キャラクタのキャラクタ状態を決定することを支援し、ヒューマン・コンピュータインタラクション効率を向上させる新しい情報表示方法を提供する。
【特許請求の範囲】
【請求項1】
端末が実行する、仮想環境における情報処理方法であって、
仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示するステップであって、前記仮想環境画面は仮想環境を表示し、前記HUDコントロールは仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示する、ステップと、
前記仮想キャラクタが前記仮想環境で活動するように制御するステップと、
前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップであって、前記透視角度は、前記HUDコントロールと前記仮想環境画面のイメージング平面とのなす角度である、ステップと、を含む、仮想環境における情報処理方法。
【請求項2】
前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記仮想キャラクタのキャラクタ状態が第1状態から第2状態に変化することに応答して、前記HUDコントロールの透視角度を第1透視角度から第2透視角度に変化させるステップであって、前記第1透視角度は前記第1状態に対応し、前記第2透視角度は前記第2状態に対応する、ステップと、を含む、
請求項1に記載の仮想環境における情報処理方法。
【請求項3】
前記第1状態は歩行状態であり、前記第2状態は走行状態であり、
前記仮想キャラクタのキャラクタ状態が第1状態から第2状態に変化することに応答して、前記HUDコントロールの透視角度を第1透視角度から第2透視角度に変化させるステップは、
前記仮想キャラクタのキャラクタ状態が前記歩行状態から前記走行状態に変化することに応答して、前記HUDコントロールの透視角度を前記第1透視角度から前記第2透視角度に変化させるステップを含み、前記第2透視角度は前記第1透視角度より大きい、
請求項2に記載の仮想環境における情報処理方法。
【請求項4】
前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記仮想キャラクタのキャラクタ状態の属性パラメータの変化に応答して、前記HUDコントロールの透視角度を変更するステップを含む、
請求項1に記載の仮想環境における情報処理方法。
【請求項5】
前記仮想キャラクタのキャラクタ状態の属性パラメータの変化に応答して、前記HUDコントロールの透視角度を変更するステップを含むステップは、
前記仮想環境における前記仮想キャラクタの速度又は加速度の増加に応答して、前記HUDコントロールの透視角度を増加させるステップを含む、
請求項4に記載の仮想環境における情報処理方法。
【請求項6】
前記仮想キャラクタのキャラクタ状態の属性パラメータの変化に応答して、前記HUDコントロールの透視角度を変更するステップは、
前記仮想環境における前記仮想キャラクタの速度又は加速度の減少に応答して、前記HUDコントロールの透視角度を減少させるステップを含む、
請求項4に記載の仮想環境における情報処理方法。
【請求項7】
前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記仮想キャラクタのキャラクタ状態が第3状態であることに応答して、動的に変化する透視角度で前記HUDコントロールを表示するステップを含み、
前記動的に変化する透視角度は、前記第3状態に対応する第3透視角度範囲内に属する、
請求項1に記載の仮想環境における情報処理方法。
【請求項8】
前記第3状態は攻撃される状態であり、
前記仮想キャラクタのキャラクタ状態が第3状態であることに応答して、動的に変化する透視角度で前記HUDコントロールを表示するステップは、
前記仮想環境における前記仮想キャラクタのキャラクタ状態が前記攻撃される状態であることに応答して、周期的に揺動変化する透視角度で前記HUDコントロールを表示するステップを含む、
請求項7に記載の仮想環境における情報処理方法。
【請求項9】
前記HUDコントロールは、少なくとも2つの領域に位置する少なくとも2つのHUDコントロールを含み、異なる領域に位置する前記HUDコントロールに対応する透視角度は異なる、
請求項1~8のいずれか一項に記載の仮想環境における情報処理方法。
【請求項10】
前記HUDコントロールは操作コントロールを含み、前記仮想環境における情報処理方法は、
前記操作コントロールのトリガ操作に応答して、異なる透視角度を有する前記HUDコントロールを表示するステップをさらに含む、
請求項1~8のいずれか一項に記載の仮想環境における情報処理方法。
【請求項11】
前記操作コントロールは、第1タイプの操作コントロールを含み、
前記操作コントロールのトリガ操作に応答して、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記第1タイプの操作コントロールのトリガ操作に応答して、前記HUDコントロールの透視角度を、前記第1タイプの操作コントロールをトリガした後に対応する透視角度に変更するステップを含む、
請求項10に記載の仮想環境における情報処理方法。
【請求項12】
前記操作コントロールは、第2タイプの操作コントロールを含み、
前記操作コントロールのトリガ操作に応答して、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記第2タイプの操作コントロールのトリガ操作に応答して、動的に変化する透視角度で前記HUDコントロールを表示するステップを含み、
前記動的に変化する透視角度は、前記第2タイプの操作コントロールに対応する透視角度範囲内に属する、
請求項10に記載の仮想環境における情報処理方法。
【請求項13】
仮想環境における情報処理装置であって、表示モジュールと、制御モジュールと、を備え、
前記表示モジュールは、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示するように構成され、前記仮想環境画面は仮想環境を表示し、前記HUDコントロールは仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示し、
前記制御モジュールは、前記仮想キャラクタが前記仮想環境で活動するように制御するように構成され、
前記表示モジュールはさらに、前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するように構成され、前記透視角度は、前記HUDコントロールと前記仮想環境画面のイメージング平面とのなす角度である、仮想環境における情報処理装置。
【請求項14】
プロセッサとメモリとを備える、コンピュータ機器であって、前記メモリは少なくとも1つのコンピュータプログラムを記憶し、前記プロセッサは前記少なくとも1つのコンピュータプログラムをロード及び実行して、請求項1~12のいずれか一項に記載の仮想環境における情報処理方法を実現する、コンピュータ機器。
【請求項15】
プロセッサによってロード及び実行されることにより、請求項1~12のいずれか一項に記載の仮想環境における情報処理方法を実現するための少なくとも1つのコンピュータプログラムが記憶された、コンピュータ可読記憶媒体。
【請求項16】
コンピュータプログラムに記憶されたコンピュータプログラムを含み、前記コンピュータプログラムは、コンピュータ機器のプロセッサから読み取られて実行されることにより、前記コンピュータ機器に、請求項1~12のいずれか一項に記載の仮想環境における情報処理方法を実行させる、コンピュータプログラム製品。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願への相互参照)
本願は、2022年06月23日に中国特許庁に提出された、出願番号が202210719002.0であり、発明の名称が「仮想環境における情報表示方法、装置、機器及びプログラム製品」である中国特許出願の優先権を主張し、その内容の全てが引用により本願に組み込まれる。
【0002】
本願の実施例は、グラフィカルユーザインタフェースの分野に関し、特に、仮想環境における情報処理方法、装置、機器及びプログラム製品に関するものである。
【背景技術】
【0003】
ユーザは、ゲームプログラム内のゲームキャラクタを操作して対戦することができる。ゲームプログラムは仮想環境を提供し、ゲームキャラクタは仮想環境に存在する仮想キャラクタである。
【0004】
端末には、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールが表示されている。この仮想環境画面は、現在の仮想キャラクタの視点から仮想世界を観察して得られる画面であり、HUDコントロールは、ゲーム内の関連情報を表示する画面であり、通常、仮想環境画面の上層に表示される。関連技術では、仮想キャラクタが仮想環境内で動くとき、ユーザは仮想環境画面とHUDコントロールを介して、仮想キャラクタの状態情報を取得することができる。
【0005】
しかしながら、関連技術では、HUDコントロールは仮想環境画面の上方に静止して浮遊し、情報の表示方法は比較的単一である。
【発明の概要】
【課題を解決するための手段】
【0006】
本願は、異なるキャラクタ状態によって異なる透視角度を調整してHUDコントロールを表示する、仮想環境における情報処理方法、装置、機器及びプログラム製品を提供する。前記技術的解決策は下記の通りである。
【0007】
本願の一態様によれば、端末が実行する、仮想環境における情報処理方法を提供し、前記方法は、
仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示するステップであって、前記仮想環境画面は仮想環境を表示し、前記HUDコントロールは仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示する、ステップと、
前記仮想キャラクタが前記仮想環境で活動するように制御するステップと、
前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップであって、前記透視角度は、前記HUDコントロールと前記仮想環境画面のイメージング平面とのなす角度である、ステップと、を含む。
【0008】
本願の一態様によれば、仮想環境における情報処理装置を提供し、前記装置は、表示モジュールと、制御モジュールとを備え、
前記表示モジュールは、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示するように構成され、前記仮想環境画面は仮想環境を表示し、前記HUDコントロールは仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示し、
前記制御モジュールは、前記仮想キャラクタが前記仮想環境で活動するように制御するように構成され、
前記表示モジュールはさらに、前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するように構成され、前記透視角度は、前記HUDコントロールと前記仮想環境画面のイメージング平面とのなす角度である。
【0009】
本願の別の態様によれば、コンピュータ機器を提供し、前記コンピュータ機器は、プロセッサと、メモリとを備え、メモリには少なくとも1つのコンピュータプログラムが記憶され、少なくとも1つのコンピュータプログラムは、プロセッサによってロード及び実行されることにより、上記態様に記載の仮想環境における情報処理方法を実現する。
【0010】
本願の別の態様によれば、コンピュータ記憶媒体を提供し、コンピュータ可読記憶媒体には、少なくとも1つのコンピュータプログラムが記憶され、少なくとも1つのコンピュータプログラムは、プロセッサによってロード及び実行されることにより、上記態様に記載の仮想環境における情報処理方法を実現する。
【0011】
本願の別の態様によれば、コンピュータプログラム製品を提供し、前記コンピュータプログラム製品はコンピュータプログラムを含み、前記コンピュータプログラムはコンピュータ可読記憶媒体に記憶され、前記コンピュータプログラムは、コンピュータ機器のプロセッサから読み取られて実行されることにより、前記コンピュータ機器に、上記態様に記載の仮想環境における情報処理方法を実行させる。
【0012】
本願で提供される技術的解決策は、少なくとも以下の有益な効果を有する。
【0013】
本願によって提供される仮想環境における情報処理方法によれば、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示し、仮想キャラクタが仮想環境で活動するときのキャラクタ状態に基づいて、異なる透視角度を有するHUDコントロールを表示する。本願は、HUDコントロールの情報表示方法と仮想キャラクタのキャラクタ状態とを関連付け、異なる透視角度でHUDコントロールを表示することにより、ユーザが透視角度によって仮想キャラクタのキャラクタ状態を決定することを支援する新しい情報表示方法を提供する。HUDコントロールを表示することによって、実世界におけるHUD表示効果をシミュレーションし、透視角度の変化は、実世界でHUDがレンズに投射される際に、当該レンズが風抵抗の影響によって発生する変形を模倣する。例えば、実世界でバイクが移動中に加速するとき、バイクのフロントガラスはHUD投射レンズとされ、空気抵抗の影響を受けて変形が発生する。透視角度は、端末上で実世界における風抵抗の影響によって発生するHUD投射レンズの視角変化をシミュレーションし、実世界に対するより詳細なシミュレーション効果を提供し、ヒューマン・コンピュータインタラクション効率を向上させる。
【図面の簡単な説明】
【0014】
【
図1】本願の一例示的な実施例による仮想環境における情報処理方法の模式図である。
【
図2】本願の一例示的な実施例によるコンピュータシステムの構成を示すブロック図である。
【
図3】本願の一例示的な実施例による仮想環境における情報処理方法のフローチャートである。
【
図4】本願の一例示的な実施例による3次元空間から2次元画像への変換プロセスを示す模式図である。
【
図5】本願の一例示的な実施例による仮想環境における情報処理方法のフローチャートである。
【
図6】本願の一例示的な実施例による異なる透視角度でHUDコントロール表示する模式図である。
【
図7】本願の一例示的な実施例による仮想環境における情報処理インタフェースの模式図である。
【
図8】本願の一例示的な実施例による異なる透視角度でHUDコントロール表示する模式図である。
【
図9】本願の一例示的な実施例による仮想環境における情報処理インタフェースの模式図である。
【
図10】本願の一例示的な実施例による異なる透視角度でHUDコントロール表示する模式図である。
【
図11】本願の一例示的な実施例による異なる領域のHUDコントロールの模式図である。
【
図12】本願の一例示的な実施例による右側HUD領域の模式図である。
【
図13】本願の一例示的な実施例による上部HUD領域の模式図である。
【
図14】本願の一例示的な実施例による下部HUD領域の模式図である。
【
図15】本願の一例示的な実施例による左側HUD領域の模式図である。
【
図16】本願の一例示的な実施例による仮想環境における情報処理端末の構成を示すブロック図である。
【
図17】本願の一例示的な実施例による仮想環境における情報処理装置のブロック図である。
【
図18】本願の一例示的な実施例による仮想環境におけるコンピュータ機器の構成を示す模式図である。
【発明を実施するための形態】
【0015】
最初に、本願の実施例における用語について説明する。
【0016】
仮想環境:アプリケーションが端末で実行されるときに表示(又は提供)される仮想環境である。当該仮想環境は、実世界に対するシミュレーション世界でもよいし、半シミュレーション半架空の3次元世界でもよいし、完全に架空の3次元世界でもよい。仮想環境は、2次元仮想環境、2.5次元仮想環境、又は3次元仮想環境のうちのいずれか1つであってもよい。
【0017】
仮想キャラクタ:仮想環境における活動可能なオブジェクである。当該活動可能なオブジェクは、仮想動物、アニメキャラクタのうちの少なくとも1つであり得る。任意選択的に、仮想環境が3次元仮想環境である場合、仮想キャラクタは、3次元仮想モデルであり得、各仮想キャラクタは、3次元仮想環境で独自の形状及び体積を有し、3次元仮想環境の空間の一部を占める。任意選択的に、仮想キャラクタは3次元人体骨格技術に基づいて構築された3次元キャラクタであり、当該仮想キャラクタは異なるスキンを着用することによって異なる外見を実現する。いくつかの実現形態では、仮想キャラクタは、2.5次元又は2次元モデルを採用して実現することもでき、本願の実施例はこれに限定されない。
【0018】
ヘッドアップディスプレイ(HUD:Heads-up Display)コントロール:ゲーム内の関連情報を表示する画面であり、通常、仮想環境画面の上層に表示される。HUDコントロールは、ゲーム世界がプレイヤと相互作用するための最も効果的な方法であり、プレイヤに視覚的に情報を伝えることができる要素はすべてHUDと呼ぶことができる。一般的なHUDコントロールは、操作コントロール、ツールバー、地図、弾薬タンク、血量タンク、照準器などを含む。ヘッドアップディスプレイコントロールは、ヘッドアップ表示コントロールとも呼ばれる。
【0019】
本願の実施例は、仮想環境における情報処理方法の技術的解決策を提供し、当該方法は、端末又は端末上のクライアントによって実行され得る。
図1の(a)に示すように、端末に仮想環境画面101及びヘッドアップディスプレイ(HUD)コントロール102を表示する。
【0020】
ここで、仮想環境画面101は、仮想環境を観察して得られる画面を表示し、HUDコントロール102は、仮想キャラクタ103を制御するために必要なユーザインタフェース(UI:user interface)情報を表示し、HUDコントロール102は、通常、仮想環境画面101の上層に表示される。端末は、仮想環境における仮想キャラクタ103のキャラクタ状態に基づいて、異なる透視角度を有するHUDコントロール102を表示する。
【0021】
透視角度は、HUDコントロール102と仮想環境画面101のイメージング平面とのなす角度である。
【0022】
任意選択的に、HUDコントロール102は、仮想キャラクタ103の状態情報及び操作コントロールを含むが、これに限定されず、本願の実施例はこれを具体的に限定しない。
【0023】
例示的に、仮想キャラクタ103が第1状態で仮想環境にいる場合、端末は、第1透視角度でHUDコントロール102を表示し、仮想キャラクタ103が第2状態で仮想環境にいる場合、端末は、第2透視角度でHUDコントロール102を表示する。
図1の(b)に示すように、端末は、仮想キャラクタ103のキャラクタ状態が第1状態から第2状態に変化することに応答して、HUDコントロール102の透視角度を第1透視角度から第2透視角度に変化させ、ここで、第1透視角度は第1状態に対応し、第2透視角度は第2状態に対応する。
【0024】
任意選択的に、第1状態は歩行状態であり、第2状態は走行状態である。端末は、仮想キャラクタ103のキャラクタ状態が歩行状態から走行状態に変化することに応答して、HUDコントロール102の透視角度を第1透視角度から第2透視角度に変化させ、第2透視角度は第1透視角度より大きい。例えば、仮想キャラクタ103が歩行状態にある場合、HUDコントロール102に対応する第1透視角度は5°であり、仮想キャラクタ103が走行状態にある場合、HUDコントロール102に対応する第2透視角度は30°であり、仮想キャラクタ103が歩行状態から走行状態に切り替わる場合、HUDコントロール102の透視角度は5°から30°に切り替わる。
【0025】
例示的に、端末は、仮想キャラクタ103のキャラクタ状態の属性パラメータの変化に応答して、HUDコントロール102の透視角度を変更する。
【0026】
任意選択的に、端末は、仮想環境における仮想キャラクタ103の速度又は加速度の増加に応答して、HUDコントロール102の透視角度を増加させる。端末は、仮想環境における仮想キャラクタ103の速度又は加速度の減少に応答して、HUDコントロール102の透視角度を減少させる。例えば、仮想キャラクタ103がパラシューティング中又は飛行中である場合、端末は、仮想環境における仮想キャラクタ103の速度又は加速度の増加に応答して、HUDコントロール102の透視角度を増加させる。
【0027】
例示的に、端末は、仮想キャラクタ103のキャラクタ状態が第3状態であることに応答して、動的に変化する透視角度でHUDコントロール102を表示し、
動的に変化する透視角度は、第3状態に対応する第3透視角度範囲内に属する。
【0028】
任意選択的に、第3状態は攻撃される状態であり、端末は、仮想環境における仮想キャラクタ103のキャラクタ状態が攻撃される状態であることに応答して、周期的に揺動変化する透視角度でHUDコントロール102を表示する。
【0029】
例えば、仮想キャラクタ103が仮想環境において攻撃を受けている場合、端末は、第3透視角度範囲内でHUDコントロール102を動的に表示し、例えば、仮想キャラクタ103が攻撃される状態にあるとき、第3透視角度範囲は0~30°であり、HUDコントロール102は0~30°の間で動的に変化して表示される。
【0030】
一つの可能な実現形態では、HUDコントロール102は、操作コントロールを含み、端末は、操作コントロールのトリガ操作に応答して、異なる透視角度を有するHUDコントロール102を表示する。
【0031】
例示的に、操作コントロールは、第1タイプの操作コントロールを含み、端末は、第1タイプの操作コントロールのトリガ操作に応答して、HUDコントロール102の透視角度を、第1タイプの操作コントロールをトリガした後に対応する透視角度に変更する。
【0032】
例示的に、操作コントロールは、第2タイプの操作コントロールを含み、端末は、第2タイプの操作コントロールのトリガ操作に応答して、動的に変化する透視角度でHUDコントロール102を表示し、動的に変化する透視角度は、第2タイプの操作コントロールに対応する透視角度範囲内に属する。
【0033】
上記に記載されたように、本実施例で提供される方法では、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示し、仮想キャラクタが仮想環境で活動するように制御し、仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有するHUDコントロールを表示する。本願は、新しい情報表示方法を提供し、HUDコントロールの情報表示方法と仮想キャラクタのキャラクタ状態とを関連付け、異なる透視角度でHUDコントロールを表示することにより、ユーザが透視角度によって仮想キャラクタのキャラクタ状態を決定することを支援し、ヒューマン・コンピュータインタラクション効率を向上させ、ユーザ体験を向上させる。
【0034】
図2は、本願の一例示的な実施例によるコンピュータシステムの構成を示すブロック図である。当該コンピュータシステム100は、第1端末110、サーバ120、第2端末130を含む。
【0035】
第1端末110には、仮想環境をサポートするクライアント111がインストール及び実行され、当該クライアント111は、マルチプレイヤオンライン対戦プログラムであり得る。第1端末がクライアント111を実行すると、第1端末110のスクリーン上にクライアント111のユーザインタフェースが表示される。当該クライアント111は、バトルロイヤル射撃ゲーム、仮想現実(VR:Virtual Reality)アプリケーション、拡張現実(AR:Augmented Reality)プログラム、3次元地図プログラム、仮想現実ゲーム、拡張現実ゲーム、一人称射撃ゲーム(FPS:First-Person Shooting Game)、三人称射撃ゲーム(TPS:Third-Personal Shooting Game)、マルチプレイヤオンラインバトルアリーナゲーム(MOBA:Multiplayer Online Battle Arena Games)、シミュレーションゲーム(SLG:Simulation Game)のうちのいずれか1つであり得る。本実施例では、当該クライアント111がMOBAゲームであることを例として説明する。第1端末110は、第1ユーザ112が使用する端末であり、第1ユーザ112は、第1端末110を使用して、仮想環境内に位置する第1仮想キャラクタが活動するように制御し、第1仮想キャラクタは、第1ユーザ112の仮想キャラクタと呼ぶことができる。第1ユーザ112は、第1仮想キャラクタが所有する仮想アイテムに対して、組み立て、分解、アンインストールなどの操作を行うことができるが、本願はこれに限定されない。例示的に、第1仮想キャラクタは、擬似キャラクタやアニメキャラクタなどの第1仮想キャラクタである。
【0036】
第2端末130には、仮想環境をサポートするクライアント131がインストール及び実行され、当該クライアント131は、マルチプレイヤオンライン対戦プログラムであり得る。第2端末130がクライアント131を実行すると、第2端末130のスクリーン上にクライアント131のユーザインタフェースが表示される。当該クライアントは、バトルロイヤル射撃ゲーム、VRアプリケーション、ARプログラム、3次元地図プログラム、仮想現実ゲーム、拡張現実ゲーム、FPS、TPS、MOBA、SLGのうちのいずれか1つであり得、本実施例では、当該クライアントがMOBAゲームであることを例として説明する。第2端末130は第2ユーザ113が使用する端末であり、第2ユーザ113は、第2端末130を使用して、仮想環境内に位置する第2仮想キャラクタが活動するように制御し、第2仮想キャラクタは、第2ユーザ113の仮想キャラクタと呼ぶことができる。例示的に、第2仮想キャラクタは、擬似キャラクタやアニメキャラクタなどの第2仮想キャラクタであり得る。任意選択的に、第1仮想キャラクタと第2仮想キャラクタは同じ仮想環境にいる。任意選択的に、第1仮想キャラクタと第2仮想キャラクタは、同じ陣営、同じチーム、同じ組織に所属していたり、仲間関係にあったり、一時的な通信権限を有していたりする。任意選択的に、第1仮想キャラクタと第2仮想キャラクタは、異なる陣営、異なるチーム、異なる組織に所属していたり、敵対関係にあったりする。
【0037】
任意選択的に、第1端末110と第2端末130にインストールされたクライアントは同じであり、又は2つの端末にインストールされたクライアントは、異なるオペレーティングシステムプラットフォーム(Android又はIOS)上の同じタイプのクライアントである。第1端末110は、一般的に複数の端末のうちの1つを指すことができ、第2端末130は、一般的に複数の端末のうちの別の端末を指すことができ、本実施例では、第1端末110及び第2端末130のみを例として説明する。第1端末110及び第2端末130のデバイスタイプは同じ又は異なり、当該デバイスタイプは、スマートフォン、タブレット、電子ブックリーダー、MP3プレーヤ、MP4プレーヤ、ラップトップコンピュータ、及びデスクトップコンピュータのうちの少なくとも1つを含む。
図2には、2つの端末のみが示されているが、異なる実施例では、サーバ120にアクセスできる複数の他の端末140が存在する。任意選択的に、仮想環境をサポートするクライアントの開発編集プラットフォームがインストールされた開発者対応端末である1つ又は複数の端末140も存在し、開発者は、端末140上でクライアントを編集及び更新し、更新されたクライアントインストールパッケージを有線ネットワーク又は無線ネットワークを介してサーバ120に送信し、第1端末110及び第2端末130は、サーバ120からクライアントインストールパッケージをダウンロードしてクライアントの更新を実現することができる。
【0038】
第1端末110、第2端末130、他の端末140は、無線ネットワーク又は有線ネットワークを介してサーバ120に接続される。サーバ120は、1台のサーバ、複数台のサーバ、クラウドコンピューティングプラットフォーム、及び仮想化センターのうちの少なくとも1つを含む。サーバ120は、3次元仮想環境をサポートするクライアントにバックエンドサービスを提供する。任意選択的に、サーバ120がプライマリコンピューティング作業を担当し、端末がセカンダリコンピューティング作業を担当し、又は、サーバ120がセカンダリコンピューティング作業を担当し、端末がメインコンピューティング作業を担当し、又は、サーバ120と端末との間で、分散コンピューティングアーキテクチャを採用して協調コンピューティングを行う。
【0039】
一例示的な例では、サーバ120は、プロセッサ122、ユーザアカウントデータベース123、対戦サービスモジュール124、ユーザ向け入力/出力インタフェース(I/Oインタフェース:Input/Output Interface)125を含む。ここで、プロセッサ122は、サーバ120に記憶された命令をロードし、ユーザアカウントデータベース123及び対戦サービスモジュール124内のデータを処理し、ユーザアカウントデータベース123は、第1端末110、第2端末130及び他の端末140によって使用されるユーザアカウントのデータ、例えば、ユーザアカウントのアバター、ユーザアカウントのニックネーム、ユーザアカウントの戦闘力指数、ユーザアカウントが位置するサービスエリアなどを記憶し、対戦サービスモジュール124は、複数の対戦ルーム、例えば、1V1対戦、3V3対戦、5V5対戦などをユーザが対戦できるように提供し、ユーザ向けI/Oインタフェース125は、無線ネットワーク又は有線ネットワークを介して第1端末110及び/又は第2端末130とデータを交換するための通信を確立する。
【0040】
図3は、本願の一例示的な実施例による仮想環境における情報処理方法のフローチャートである。当該方法は、
図2に示すシステム内の端末又は端末上のクライアントによって実行され得る。当該方法は、以下のステップを含む。
【0041】
ステップ302において、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示する。
【0042】
仮想環境画面は、仮想環境を観察して得られる画面を表示し、HUDコントロールは、仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示する。任意選択的に、HUDコントロールは、操作コントロール、ツールバー、地図、弾薬タンク、血量タンク、照準器などを含むが、これに限定されず、本願の実施例はこれを限定しない。
【0043】
任意選択的に、HUDコントロールは、仮想環境画面の上層に浮遊表示され、又は、HUDコントロールは、デフォルトの透視角度で仮想環境画面の上層に浮遊表示される。ここで、デフォルトの透視角度は、仮想キャラクタの現在のキャラクタ状態によって決定され、又は、HUDコントロールは、動的な透視角度で仮想環境画面の上層に浮遊表示されるが、これに限定されず、本願の実施例はこれを具体的に限定しない。
【0044】
任意選択的に、仮想環境画面は、仮想環境を観察して得られる画面であり、仮想環境の3次元仮想モデルのモデル情報を取得し、3次元仮想モデルをスクリーンショットとしてレンダリングすることによって、仮想環境画面のイメージング平面を形成する。
【0045】
透視角度は、HUDコントロールと仮想環境画面のイメージング平面とのなす角度である。
【0046】
任意選択的に、透視角度は、単一のHUDコントロールと仮想環境画面のイメージング平面とのなす角度を指し、又は、透視角度は、すべてのHUDコントロールが位置する平面と、仮想環境画面のイメージング平面とのなす角度を指し、又は、透視角度は、一部の領域に含まれるHUDコントロールが位置する平面と、仮想環境画面のイメージング平面とのなす角度を指すが、これに限定されない。仮想環境は、端末内のアプリケーションの実行中に、仮想キャラクタが仮想世界で置かれている環境である。任意選択的に、本願の実施例では、仮想世界でカメラモデルによって仮想キャラクタを観察する。
【0047】
任意選択的に、カメラモデルは、仮想世界で仮想キャラクタに対して自動追跡を行う。即ち、仮想世界における仮想キャラクタの位置が変化すると、カメラモデルは仮想世界における仮想キャラクタの位置を追跡して同時に変化し、且つ当該カメラモデルは、仮想世界で常に仮想キャラクタの所定の距離範囲内にある。任意選択的に、自動追跡中に、カメラモデルと仮想キャラクタの相対位置は変化しない。一例では、イメージング平面は、カメラモデルの撮影方向に垂直な平面であり、例えば、カメラモデルが三人称視点で俯瞰撮影する場合、イメージング平面は、仮想環境における水平面であり、カメラモデルが一人称視点でヘッドアップ撮影する場合、イメージング平面は垂直方向に平行する。水平面は、仮想環境におけるシミュレーション重力方向に垂直な平面であり、垂直方向は仮想環境におけるシミュレーション重力方向に平行する。例示的に、カメラモデルは、仮想カメラ(Virtual Camera)とも呼ばれ、カメラモデルが指す撮影方向は、イメージング平面に垂直し、イメージング平面は通常矩形であり、イメージング矩形(Imaging Rectangle)とも呼ばれる。イメージング平面上の仮想感光体は、端末のスクリーン上の画素と1対1に対応し、仮想感光体は、カメラモデルを介して仮想キャラクタを観察する際の光の強度と色を記録する。例示的に、カメラモデルは、コンピュータグラフィックスで仮想世界の観察に使用されるモデルであり、カメラモデルの紹介は、2019年2月に出版されたジェイソン・グレイゴリ(Jason Gregory)(米国)著の書籍「ゲームエンジンアーキテクチャ(Game Engine Architecture)(第2版)」(葉勁松訳)を参照でき、その中で第10章、第10.1節の「デプスバッファを使用した三角形ラスタライズの基本」、特に第10.1.4節の「仮想カメラ」を参照できるが、これらに限定されない。また、2016年1月に中国鉄路出版社から出版された書籍「Unity5.X入門から精通まで」(Unity Software(Shanghai)Co.Ltd.編)を参照でき、第6章である基本的な3Dゲームのシーンにおけるカメラに関する内容を参照できるが、これに限定されない。
【0048】
カメラモデルは、仮想世界における仮想キャラクタの周囲に位置する3次元モデルであり、一人称視点を採用する場合、当該カメラモデルは、仮想キャラクタの頭部近傍に位置し、又は仮想キャラクタの頭部に位置し、三人称視点を採用する場合、当該カメラモデルは、仮想キャラクタの後方に位置し、仮想キャラクタとバインドされてもよく、仮想キャラクタから所定の距離離れている任意の位置に位置されてもよく、当該カメラモデルにより、異なる視角から仮想世界に位置する仮想キャラクタを観察することができる。任意選択的に、当該三人称視点が一人称の肩越し視点である場合、カメラモデルは、仮想キャラクタ(例えば、仮想キャラクタの頭肩部)の後方に位置する。任意選択的に、一人称視点及び三人称視点に加えて、視点は、俯瞰視点などの他の視点も含み、俯瞰視点を採用する場合、当該カメラモデルは、仮想キャラクタ頭部の上空に位置され得、俯瞰視点は、空中から俯瞰する視角で仮想世界を観察する視点である。任意選択的に、当該カメラモデルは仮想世界では実際には表示されない。即ち、当該カメラモデルは、ユーザインタフェースに表示される仮想世界には表示されない。
【0049】
当該カメラモデルが、仮想キャラクタから所定の距離離れている任意の位置に位置する場合を例として説明する。任意選択的に、1つの仮想キャラクタは1つのカメラモデルに対応し、当該カメラモデルは、仮想キャラクタを回転中心として回転することができ、例えば、仮想キャラクタの任意の点を回転中心として、カメラモデルを回転し、カメラモデルは回転中に、視角的に回転するだけでなく変位にもずれがあり、回転時にカメラモデルと当該回転中心との距離は変化しない。即ち、カメラモデルは、当該回転中心を球の中心とする球体表面で回転させ、ここで、仮想キャラクタの任意の点は、仮想キャラクタの頭部、胴体、又は仮想キャラクタの周囲の任意の点であってもよく、本願の実施例はこれに限定されない。任意選択的に、カメラモデルは、仮想キャラクタを観察する際に、当該カメラモデルの視点の中心は、当該カメラモデルが位置する球体表面の点が球の中心を指す方向を指す。任意選択的に、当該カメラモデルは、仮想キャラクタの異なる方向で、所定の視角で仮想キャラクタを観察することもできる。
【0050】
ステップ304において、仮想キャラクタが仮想環境で活動するように制御する。
【0051】
仮想キャラクタは、端末にログインしているアカウントによって制御される仮想キャラクタである。オブジェクトは、操作コントロールによって仮想キャラクタを制御して仮想環境で活動を実行させるものであり、オブジェクトは、1つ又は複数の操作コントロールのボタンを押すことによって、仮想キャラクタを制御して活動を実行させることができる。当該活動は、体の姿勢を調整する、歩く、走る、ジャンピング、ライディング、運転する、狙う、拾う、投擲類の道具を使用することなどのうちの少なくとも1つを含み、本願の実施例はこれを限定しない。
【0052】
任意選択的に、オブジェクトは、1つ又は複数の操作コントロールのボタンを押すことによって、仮想キャラクタがスキルを解放したりアイテムを使用したりするように制御することができる。オブジェクトは、タッチスクリーン上で長押し、クリック、ダブルクリック及び/又はスライドすることによって生成される信号によって仮想キャラクタを制御することもできる。任意選択的に、仮想キャラクタの活動を制御する方式は、オブジェクトが端末インタフェース上の仮想リモートレバー、仮想スイッチ、仮想ボタンの少なくとも1つを介して、仮想キャラクタの活動を制御すること、オブジェクトが端末に接続された外部機器(ハンドル、VRメガネ、VRヘルメットなど)を介して、仮想キャラクタの活動を制御すること、オブジェクトが音声によって仮想キャラクタの活動を制御すること、オブジェクトが体感操作によって、仮想キャラクタの活動を制御することを含む。本願は、仮想キャラクタの活動を制御する方式について具体的に限定しない。例示的に、HUDコントロールは、仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示するために使用され、HUDコントロールは、仮想キャラクタの活動を制御するために使用されてもよく、仮想環境、仮想環境における仮想物体、仮想環境における仮想キャラクタのうちの少なくとも1つの情報を表示するために使用されてもよい。本実施例はこれに限定されない。
【0053】
ステップ306において、仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有するHUDコントロールを表示する。
【0054】
透視角度は、HUDコントロールと仮想環境画面のイメージング平面とのなす角度である。
【0055】
キャラクタ状態とは、仮想環境における仮想キャラクタの状態、例えば、歩行状態、走行状態、攻撃される状態を指すが、これに限定されず、本願の実施例はこれを具体的に限定しない。任意選択的に、キャラクタ状態とは、仮想キャラクタに関連する状態を指し、又は、キャラクタ状態とは、仮想キャラクタが仮想環境内で他の仮想キャラクタ、仮想アイテムと相互作用するときに現れる状態を指し、又は、キャラクタ状態とは、仮想キャラクタ自体のモーション状態、健康状態、レベル状態を指すが、これらに限定されない。
【0056】
端末は、仮想キャラクタのキャラクタ状態の変化に基づいて、端末に異なる透視角度を有するHUDコントロールを表示する。具体的に、仮想キャラクタのキャラクタ状態が第1状態である場合、第1透視角度を有するHUDコントロールを表示し、仮想キャラクタのキャラクタ状態が第2状態である場合、第2透視角度を有するHUDコントロールを表示し、第1状態と第2状態は異なるキャラクタ状態である。仮想キャラクタのキャラクタ状態が第1状態である場合、複数のHUDコントロールは、同じ又は異なる透視角度を有することができる。
【0057】
なお、本願は、仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有するHUDコントロールを表示し、ユーザは、HUDコントロールを観察することにより、仮想キャラクタの移動速度、加速度情報のうちの少なくとも1つを取得することができ、実世界に対する正確なシミュレーションを提供し、プラスチックなどの材質の透明板を通じてHUDコントロールを表示する場合、当該透明板が移動時の空気抵抗の影響を受ける表示効果をシミュレーションし、実世界に対するより良いシミュレーション効果を提供する。
【0058】
上記に記載されたように、本実施例における方法では、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示し、仮想キャラクタが仮想環境で活動時のキャラクタ状態に基づいて、異なる透視角度を有するHUDコントロールを表示する。本願は、新しい情報表示方法を提供し、HUDコントロールの情報表示方法と仮想キャラクタのキャラクタ状態とを関連付け、異なる透視角度でHUDコントロールを表示することにより、ユーザが透視角度によって仮想キャラクタのキャラクタ状態を決定することを支援し、HUDコントロールを表示することによって、実世界におけるHUD表示効果をシミュレーションし、透視角度の変化は、実世界でHUDがレンズに投射される際に、当該レンズが風抵抗の影響によって発生する変形を模倣する。例えば、実世界でバイクが移動中に加速するとき、バイクのフロントガラスはHUD投射レンズとされ、空気抵抗の影響を受けて変形が発生する。透視角度は、端末上で実世界における風抵抗の影響によって発生するHUD投射レンズの視角変化をシミュレーションし、実世界に対するより詳細なシミュレーション効果を提供し、ヒューマン・コンピュータインタラクション効率を向上させる。
【0059】
ある実現形態では、仮想環境は、端末内のアプリケーションの実行中に、仮想キャラクタが仮想世界で置かれている環境であり、仮想環境は3次元空間である。世界空間座標系は、同一シーン内の仮想環境における3次元モデルの座標を記述するために使用され、3次元モデルは仮想環境における物体である。
【0060】
例示的に、世界空間座標系は、モデル空間座標系にある3次元モデルを、モデル変換行列を介して変換することによって得られ、モデル空間座標系は、3次元モデルの位置情報を指示するために使用され、モデル変換行列を介して、3次元空間において、モデル空間座標系における各3次元モデルの座標情報を世界空間座標系に統一される。
【0061】
例示的に、世界空間座標系にある3次元モデルを、ビュー行列を介してカメラ空間座標系に変換し、カメラ空間座標系は、カメラモデルを介して観察した3次元モデルの座標を記述するために使用され、例えば、カメラモデルの位置を座標原点として、カメラ空間座標系の3次元モデルを、投影行列を介してトリミング空間座標系に変換し、トリミング空間座標系は、カメラモデルの視錐体における3次元モデルの投影を記述するために使用され、一般的な透視投影行列(投影行列の一種)は、3次元モデルを「近大遠小」の人間の目観察規則に適合するモデルを投影するために使用される。例示的に、上記のモデル変換行列、ビュー行列、及び投影行列は、通常、モデル・ビュー・プロジェクション(MVP:Model View Projection)行列と総称される。
【0062】
図4は、本願の一例示的な実施例による3次元空間から2次元画像への変換プロセスを示す模式図であり、
図4を参照すると、3次元空間201内の1つの特徴点Pをイメージング平面204(画像座標系、又は画素座標系と呼ばれる)内の特徴点p’にマッピングするプロセスが示されている。3次元空間201における特徴点pの座標は3次元形式であり、イメージング平面204における特徴点p’の座標は2次元形式である。3次元空間201は、仮想環境に対応する3次元空間である。カメラ平面202は、カメラモデルの姿勢によって決定され、カメラ平面202は、カメラモデルの撮影方向に垂直な平面であり、イメージング平面204とカメラ平面202は互いに平行する。イメージング平面104は、仮想環境を観察する際に、視野範囲内に位置する仮想環境のカメラモデルイメージング時の平面である。
【0063】
さらに、透視角度は、HUDコントロールが位置する平面203とイメージング平面204との間のなす角度を指示するために使用され、透視角度は、2つの平面間の角度であり、当該角度は、参照平面205上に位置する投影の角度である。HUDコントロールが位置する平面203は、仮想環境に対応する3次元空間における、端末に表示されるHUDコントロールの平面である。イメージング平面204と参照平面205は垂直関係であり、HUDコントロールが位置する平面203と参照平面205は垂直関係である。イメージング平面204の参照平面205への投影は直線であり、HUDコントロールが位置する平面203の参照平面205上への投影も直線であり、透視角度は上記2つの直線間の角度であり、さらに、透視角度は、0度以上90度以下である。さらに、端末に表示されるHUDコントロールは、カメラモデルを介してHUDコントロールが位置する平面203を観察して得られ、カメラの観察方向は、イメージング平面204に垂直する。図中では、HUDコントロールが位置する平面203を容易に表示するために、当該平面の一部のエッジを破線で示し、HUDコントロールが位置する平面203上には、矩形のHUDコントロールが表示され、これも破線で示され、図中の他の部分との混同を避けるために、当該HUDコントロールの対角線も描かれている。本図では、参照平面205は3次元空間201における水平面である。理解可能なこととして、カメラモデルの位置が変化するにつれて、参照平面205はそれに応じて他の平面に変化する。図中では、現在のカメラ位置において、参照平面205は、3次元空間201における水平面であることのみが示され、理解可能なこととして、現在のカメラ位置において、参照平面205は3次元空間201における水平面と平行な他の平面であってもよい。
【0064】
図5は、本願の一例示的な実施例による仮想環境における情報処理方法のフローチャートである。当該方法は、
図2に示すシステム内の端末又は端末上のクライアントによって実行され得る。当該方法は、以下のステップを含む。
【0065】
ステップ402において、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示する。
【0066】
HUDコントロールは、仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示する。任意選択的に、HUDコントロールは、操作コントロール、ツールバー、地図、弾薬タンク、血量タンク、照準器などを含むが、これに限定されず、本願の実施例はこれを限定しない。任意選択的に、仮想環境画面に表示される仮想環境には、山、平地、川、湖、海、砂漠、沼地、流砂、空、植物、建物、車両、人のうちの少なくとも1つの要素が含まれる。
【0067】
ステップ404において、仮想キャラクタが仮想環境で活動するように制御する。
【0068】
オブジェクトは、操作コントロールによって仮想キャラクタを制御して仮想環境で活動を実行させるものであり、オブジェクトは、1つ又は複数の操作コントロールのボタンを押すことによって、仮想キャラクタを制御して活動を実行させることができる。当該活動は、歩く、走る、伏せる、ジャンピング、ハーフスクワットのうちの少なくとも1つを含み、本願の実施例はこれを限定しない。
【0069】
ステップ406において、仮想キャラクタのキャラクタ状態が第1状態から第2状態に変化することに応答して、HUDコントロールの透視角度を第1透視角度から第2透視角度に変化させる。
【0070】
透視角度は、HUDコントロールと仮想環境画面のイメージング平面とのなす角度である。
【0071】
キャラクタ状態とは、仮想環境における仮想キャラクタの状態、例えば、歩行状態、走行状態、攻撃される状態を指すが、これに限定されず、本願の実施例はこれを具体的に限定しない。一例では、仮想キャラクタのキャラクタ状態は、仮想環境における仮想キャラクタの活動の制御に関連し、例えば、仮想キャラクタを走るように制御し、仮想キャラクタのキャラクタ状態は走行状態に変化する。別の例では、仮想キャラクタのキャラクタ状態は、仮想環境における仮想キャラクタの活動の制御に関連し、例えば、仮想キャラクタが仮想攻撃を受けた場合、キャラクタ状態は、攻撃される状態であり、攻撃される状態は、仮想キャラクタが仮想攻撃を受けた結果であり、仮想キャラクタが活動するように制御することとは無関係である。例示的に、端末は、仮想キャラクタのキャラクタ状態が第1状態から第2状態に変化することに応答して、HUDコントロールの透視角度を第1透視角度から第2透視角度に変化させ、ここで、第1透視角度は第1状態に対応し、第2透視角度は第2状態に対応する。
【0072】
任意選択的に、第1状態とは、仮想キャラクタに関連する状態を指し、又は、第1状態とは、仮想キャラクタが仮想環境内で他の仮想キャラクタ、仮想アイテムと相互作用するときに現れる状態を指し、又は、第1状態とは、仮想キャラクタ自体のモーション状態、健康状態、レベル状態を指すが、これらに限定されない。
【0073】
任意選択的に、第2状態とは、仮想キャラクタに関連する状態を指し、又は、第2状態とは、仮想キャラクタが仮想環境内で他の仮想キャラクタ、仮想アイテムと相互作用するときに現れる状態を指し、又は、第2状態とは、仮想キャラクタ自体のモーション状態、健康状態、レベル状態を指すが、これらに限定されない。
【0074】
任意選択的に、第1透視角度が第1状態に対応するということは、仮想キャラクタが第1状態にあるとき、HUDコントロールの透視角度が第1透視角度であることを指し、第2透視角度は第2状態に対応するということは、仮想キャラクタが第2状態にあるとき、HUDコントロールの透視角度が第2透視角度であることを指す。
【0075】
任意選択的に、第1状態、第2状態は、静止状態、歩行状態、走行状態、飛行状態、墜落状態、パラシューティング状態、爬行状態、匍匐状態、ジャンピング状態、負傷状態のうちの少なくとも1つを含むが、これに限定されず、本願の実施例はこれを具体的に限定しない。なお、本実施例におけるステップ402、ステップ404、ステップ406は、新たな実施例を構成して個別に実施することができ、本実施例はこれに限定されない。
【0076】
任意選択的に、ある実現形態では、ステップ406における第1状態は歩行状態であり、第2状態は走行状態であり、ステップ406は以下のように実現され得る。即ち、端末は、仮想キャラクタのキャラクタ状態が歩行状態から走行状態に変化することに応答して、HUDコントロールの透視角度を第1透視角度から第2透視角度に変化させ、第2透視角度は第1透視角度より大きい。例えば、仮想キャラクタが歩行状態にあるとき、HUDコントロールに対応する第1透視角度は5°であり、仮想キャラクタが走行状態にあるとき、HUDコントロールに対応する第2透視角度は30°であり、仮想キャラクタが歩行状態から走行状態に切り替わるとき、HUDコントロールの透視角度は5°から30°に切り替わる。例えば、
図6は、異なる透視角度でHUDコントロールを表示する模式図であり、図中のHUDコントロールには、操作コントロール、弾薬タンク、血量タンク、仮想キャラクタ情報のうちの少なくとも1つが示されている。
図6の(a)に示すように、仮想キャラクタが仮想環境において静止状態にある場合、端末に表示されるHUDコントロールの透視角度は0°であり、
図6の(b)に示すように、仮想キャラクタが歩行状態で仮想環境にいる場合、端末に表示されるHUDコントロールの透視角度は5°である。仮想キャラクタが静止状態から歩行状態に切り替わると、HUDコントロールの透視角度は0°から5°に切り替わる。例えば、
図7は、仮想環境における情報処理インタフェースの模式図であり、インタフェースには仮想環境画面601及びHUDコントロール602が表示され、
図7の(a)に示すように、仮想キャラクタ603が仮想環境において静止状態にある場合、インタフェースには仮想環境画面601及び透視角度0°のHUDコントロール602が表示され、
図7の(b)に示すように、仮想キャラクタ603が静止状態から歩行状態に切り替わると、インタフェースには仮想環境画面601及び透視角度5°のHUDコントロール602が表示される。
【0077】
ステップ408において、仮想キャラクタのキャラクタ状態の属性パラメータの変化に応答して、HUDコントロールの透視角度を変更する。
【0078】
任意選択的に、キャラクタ状態の属性パラメータの変化とは、仮想キャラクタがモーション状態での属性パラメータ、例えば、速度、加速度を指し、又は、キャラクタ状態の属性パラメータの変化とは、仮想キャラクタの属性パラメータ、例えば、弾薬値、生命値、血量値、ダメージ値を指すが、これに限定されない。なお、本実施例におけるステップ402、ステップ404、ステップ408は、新たな実施例を構成して個別に実施することができ、本実施例はこれに限定されない。
【0079】
任意選択的に、ある実現形態では、ステップ408は以下のように実現され得る。即ち、端末は、仮想環境における仮想キャラクタの速度又は加速度の増加に応答して、HUDコントロールの透視角度を増加させる。
【0080】
任意選択的に、ある実現形態では、ステップ408は以下のように実現され得る。即ち、端末は、仮想環境における仮想キャラクタの速度又は加速度の減少に応答して、HUDコントロールの透視角度を減少させる。例えば、仮想キャラクタがパラシューティング中又は飛行中に、端末は仮想環境における仮想キャラクタの速度又は加速度の増加に応答して、HUDコントロールの透視角度を増加させる。
【0081】
例えば、
図8は、異なる透視角度でHUDコントロールを表示する模式図である。図中のHUDコントロール図中のHUDコントロールには、操作コントロール、弾薬タンク、血量タンク、仮想キャラクタ情報のうちの少なくとも1つが示されている。
図8の(a)に示すように、仮想キャラクタが歩行状態で仮想環境にいて、且つ歩行速度が第1速度である場合、端末に表示されるHUDコントロールの透視角度は10°であり、
図8の(b)に示すように、仮想キャラクタが歩行状態で仮想環境にいて、且つ歩行速度が第2速度である場合、端末に表示されるHUDコントロールの透視角度は35°であり、ここで、第2速度は第1速度より大きい。仮想キャラクタの歩行中に、第1速度から第2速度に切り替わると、HUDコントロールの透視角度は10°から35°に切り替わる。例えば、
図9は、仮想環境における情報処理インタフェースの模式図である。インタフェースには仮想環境画面801及びHUDコントロール802が表示され、
図9の(a)に示すように、仮想キャラクタ803が歩行状態で仮想環境にいて、且つ歩行速度が1m/sである場合、インタフェースには仮想環境画面801及び透視角度10°のHUDコントロール802が表示され、
図9の(b)に示すように、仮想キャラクタ803の歩行中に、1m/sから3m/sに切り替わると、インタフェースには仮想環境画面801及び透視角度35°のHUDコントロール802が表示される。
【0082】
ステップ410において、仮想キャラクタのキャラクタ状態が第3状態であることに応答して、動的に変化する透視角度でHUDコントロールを表示する。
【0083】
動的に変化する透視角度は、第3状態に対応する第3透視角度範囲内に属する。
【0084】
なお、本実施例におけるステップ402、ステップ404、ステップ410は、新たな実施例を構成して個別に実施することができ、本実施例はこれに限定されない。
【0085】
任意選択的に、第3状態とは、仮想キャラクタに関連する状態を指し、又は、第3状態とは、仮想キャラクタが仮想環境内で他の仮想キャラクタ、仮想アイテムと相互作用するときに現れる状態を指し、又は、第3状態とは、仮想キャラクタ自体のモーション状態、健康状態、レベル状態を指すが、これらに限定されない。
【0086】
任意選択的に、第3状態は、攻撃される状態、攻撃状態、危険エリア内にいるときの状態、仮想ツールを運転しているときの状態、敵の仮想キャラクタが接近しているときの状態のうちの少なくとも1つを含むが、これに限定されず、本願の実施例はこれを具体的に限定しない。任意選択的に、ある実現形態では、ステップ410は以下のように実行され得る。即ち、端末は、仮想環境における仮想キャラクタのキャラクタ状態が攻撃される状態であることに応答して、周期的に揺動変化する透視角度でHUDコントロールを表示する。例えば、仮想キャラクタが仮想環境で攻撃を受けている場合、端末は、第3透視角度範囲内でHUDコントロールを動的に表示し、例えば、仮想キャラクタが攻撃を受けている状態にあるとき、第3透視角度範囲が0~30°である場合、HUDコントロールは0~30°の間で動的に変化・表示される。
【0087】
例えば、
図10は、異なる透視角度でHUDコントロール表示する模式図である。図中のHUDコントロールには、操作コントロール、弾薬タンク、血量タンク、仮想キャラクタ情報のうちの少なくとも1つが示されている。仮想キャラクタが攻撃を受けている状態にあるとき、0~30°の間で周期的に揺動変化する透視角度でHUDコントロールを表示する。例えば、0.1sではHUDコントロールは5°で表示され、0.2sではHUDコントロールは10°で表示され、0.3sではHUDコントロールは15°で表示されるが、これに限定されず、本願の実施例はこれを具体的に限定しない。一つの可能な実現形態では、HUDコントロールは、少なくとも2つの領域に位置する少なくとも2つのHUDコントロールを含み、異なる領域に位置するHUDコントロールに対応する透視角度は異なる。
【0088】
例えば、
図11は、異なる領域のHUDコントロールの模式図である。図中のHUDコントロール1001は4つの領域に分けられ、それぞれ、左側HUD領域1002、上部HUD領域1003、下部HUD領域1004、右側HUD領域1005であり、端末は、仮想キャラクタのキャラクタ状態に基づいて、異なる領域で異なる透視角度でHUDコントロールを表示する。例えば、仮想キャラクタが歩行状態にあり、左から右に歩いている場合、左側HUD領域1002に対応する透視角度は5°であり、上部HUD領域1003に対応する透視角度は0°であり、下部HUD領域1004に対応する透視角度は0°であり、右側HUD領域1005に対応する透視角度は15°である。
【0089】
例えば、仮想キャラクタ103が攻撃される状態にあるとき、第3状態に対応する第3透視角度範囲は0~30°であり、左側HUD領域1002における仮想キャラクタの状態情報及び操作コントロールは0~30°間で動的に変化し、同様に、上部HUD領域1003におけるHUDコントロールは0~30°間で動的に変化し、下部HUD領域1004におけるHUDコントロールは0~30°間で動的に変化し、右側HUD領域1005におけるHUDコントロールは0~30°間で動的に変化する。理解可能なこととして、HUDコントロールは少なくとも2つの領域に分けられ得、本願の実施例は4つの領域を例としているが、これに限定されず、各領域に対応する第3透視角度範囲は同じであっても異なってもよく、本願の実施例はこれを具体的に限定しない。各領域におけるHUDコントロールは、第3透視角度範囲内で動的に変化するとき、同期的に変化しても非同期的に変化してもよく、本願の実施例はこれを具体的に限定しない。例えば、HUDコントロールを4つの領域、それぞれ左側HUD領域、上部HUD領域、下部HUD領域、右側HUD領域に分け、仮想キャラクタが反時計回りに回転している状態にあるとき、左側HUD領域1002に対応する透視角度は、右側HUD領域1005に対応する透視角度と逆方向となる。例えば、左側HUD領域1002に対応する透視角度は-15°であり、上部HUD領域1003に対応する透視角度は0°であり、下部HUD領域1004に対応する透視角度は0°であり、右側HUD領域1005に対応する透視角度は+15°であるが、これに限定されず、本願の実施例はこれを具体的に限定しない。
【0090】
例示的に、HUDコントロールは、少なくとも2つの領域に位置する少なくとも2つのHUDコントロールを含み、領域内で仮想環境画面に近いイメージング平面フレームのサイドラインを回転軸として回転させ、異なる透視角度で表示されるHUDコントロールを得る。
【0091】
ある実現形態では、HUDコントロールの形状特徴は、透視角度に基づいて変化する。端末に表示されるHUDコントロールの形状変化により、対応する透視角度を得ることができる。例えば、遠近法の原理基づいて、矩形コントロールは台形に引き伸ばされ、円形コントロールは楕円形に引き伸ばされ、透視角度が存在するか否かによるHUDコントロールの形状変化の程度に基づいて透視角度を決定し、例えば、アスペクト比の変化によって透視角度を決定する。HUDコントロールのアスペクト比などの形状特徴を変化させることにより、ユーザにHUDコントロールの透視表示効果を提供し、ユーザは、HUDコントロールに形状変化が発生するか否かによって、仮想キャラクタのキャラクタ状態の決定を支援し、ヒューマン・コンピュータインタラクション効率を向上させることができる。
【0092】
別の実現形態では、HUDコントロールの配列特徴は、透視角度に基づいて変化する。端末に表示される複数のHUDコントロール間の連結線により、対応する透視角度を得ることができる。例えば、2つのHUDコントロールの中心点を連結し、透視角度が存在するか否かによって連結した角の変化に基づいて透視角度を決定する。HUDコントロールの位置特徴を変更することにより、ユーザに複数のHUDコントロールの透視表示効果を提供し、ユーザは、HUDコントロールに形状変化が発生するか否かによって、仮想キャラクタのキャラクタ状態の決定を支援することができる。一例では、上記の実施形態におけるHUDコントロールのアスペクト比は変化せず、1つのHUDコントロールの形状を引き伸ばすことはない。例えば、円形コントロールは、透視角度によって多円形又は他の不規則形状に引き伸ばされないため、コントロールに対するユーザの操作習慣を十分に考慮し、形状の変化によりユーザがHUDコントロールを正確に識別できないという問題を回避する。任意選択的に、HUDコントロールの面積は透視角度の増加するにつれて減少し、遠近法の原理がHUDコントロールの表示に与える影響に近く、没入感のある表示体験をユーザに提供する。
【0093】
別の実現形態では、HUDコントロールの視覚特徴は、透視角度に基づいて変化する。一例では、視覚特徴は、HUDコントロールの表示パラメータを含み、HUDコントロールの表示パラメータは、透視角度に基づいて変化し、例えば、透視角度と正相関関係又は逆相関関係があり、表示パラメータは、透明度、明るさ、彩度、コントラスト、シャープネス、色温度のパラメータのうちの少なくとも1つを含むが、これに限定されない。別の例では、視覚特徴は、HUDコントロールの周囲の補助表示マークを含み、補助表示マークは、例えば、ハイライト表示された線、図形など、HUDコントロールの視覚的顕著性を高めるために使用され得る。HUDコントロールの表示効果を高めるためにも使用され得る。例えば、HUDコントロールから発散される線は、HUDコントロールの動きや回転の効果をシミュレートする。補助表示マークの長さ、明るさなどのパラメータは、透視角度に基づいて変化する。
【0094】
任意選択的に、異なる透視角度で表示されるHUDコントロール間には、少なくとも1つの重なり合う画素点が存在し、即ち、少なくとも1つの重なり合う画素点は、すべて異なる透視角度で表示されるHUDコントロール上にある。重なり合う画素点は、異なる透視角度におけるHUDコントロールの表示位置が大幅にずれないことを保証し、コントロールに対するユーザの操作習慣を十分に考慮し、異なる透視角度でHUDコントロールの位置ずれにより操作しにくくなったり、誤操作したりする問題を回避する。
【0095】
理解可能なこととして、上記の様々な実現形態は、それぞれ個別に実施されてもよいし、互いに組み合わせて実施されてもよく、異なる実施例を構成してもよく、本願はこれに限定されない。例示的に、HUDコントロールを4つの領域、それぞれ左側HUD領域、上部HUD領域、下部HUD領域、右側HUD領域に分ける。右側HUD領域を例とすると、
図12は、右側HUD領域の模式図であり、
図12の(a)に示すように、仮想キャラクタが仮想環境において静止状態にある場合、端末に表示されるHUDコントロールの透視角度は0°であり、
図12の(b)に示すように、仮想キャラクタが静止状態から歩行状態に切り替わると、端末に表示されるHUDコントロールの透視角度は0°から10°に切り替わり、即ち、右側サイドラインを回転軸として、時計回りに10°回転する。
図12の(c)に示すように、仮想キャラクタが歩行状態から走行状態に切り替わると、端末に表示されるHUDコントロールの透視角度は10°から30°に切り替わり、即ち、右側サイドラインを回転軸として、再び時計回りに20°回転し、仮想キャラクタが攻撃される状態にあるとき、第3透視角度範囲は0~30°であり、HUDコントロール102は0~30°の間で動的に表示を変化させ、即ち、右側サイドラインを回転軸として、0~30°の間で動的に回転する。
【0096】
図13は、上部HUD領域の模式図であり、
図13の(a)に示すように、仮想キャラクタが仮想環境において静止状態にある場合、端末に表示されるHUDコントロールの透視角度は0°であり、
図13の(b)に示すように、仮想キャラクタが静止状態から歩行状態に切り替わると、端末に表示されるHUDコントロールの透視角度は0°から10°に切り替わり、即ち、上部サイドラインを回転軸として、内側に10°回転し、
図13の(c)に示すように、仮想キャラクタが歩行状態から走行状態に切り替わると、端末に表示されるHUDコントロールの透視角度は10°から30°に切り替わり、即ち、上部サイドラインを回転軸として、再び内側に20°回転し、仮想キャラクタが攻撃される状態にあるとき、第3透視角度範囲は0~30°であり、HUDコントロール102は0~30°の間で動的に表示を変化させ、即ち、上部サイドラインを回転軸として、0~30°の間で動的に回転する。
【0097】
図14は、下部HUD領域の模式図であり、
図14の(a)に示すように、仮想キャラクタが仮想環境において静止状態にある場合、端末に表示されるHUDコントロールの透視角度は0°であり、
図14の(b)に示すように、仮想キャラクタが静止状態から歩行状態に切り替わると、端末に表示されるHUDコントロールの透視角度は0°から10°に切り替わり、即ち、下部サイドラインを回転軸として、内側に10°回転し、
図14の(c)に示すように、仮想キャラクタが歩行状態から走行状態に切り替わると、端末に表示されるHUDコントロールの透視角度は10°から30°に切り替わり、即ち、下部サイドラインを回転軸として、再び内側に20°回転し、仮想キャラクタが攻撃される状態にあるとき、第3透視角度範囲は0~30°であり、HUDコントロール102は0~30°の間で動的に表示を変化させ、即ち、下部サイドラインを回転軸として、0~30°の間で動的に回転する。
【0098】
図15は、左側HUD領域の模式図であり、
図15の(a)に示すように、仮想キャラクタが仮想環境において静止状態にある場合、端末に表示されるHUDコントロールの透視角度は0°であり、
図15の(b)に示すように、仮想キャラクタが静止状態から歩行状態に切り替わると、端末に表示されるHUDコントロールの透視角度は0°から10°に切り替わり、即ち、左側サイドラインを回転軸として、反時計回りに10°回転し、
図15の(c)に示すように、仮想キャラクタが歩行状態から走行状態に切り替わると、端末に表示されるHUDコントロールの透視角度は10°から30°に切り替わり、即ち、左側サイドラインを回転軸として、再び反時計回りに20°回転し、仮想キャラクタが攻撃される状態にあるとき、第3透視角度範囲は0~30°であり、HUDコントロール102は0~30°の間で動的に表示を変化させ、即ち、左側サイドラインを回転軸として、0~30°の間で動的に回転する。一つの可能な実現形態では、HUDコントロールは操作コントロールを含み、端末は、操作コントロールのトリガ操作に応答して、異なる透視角度を有するHUDコントロールを表示する。例示的に、操作コントロールは、HUDコントロールの透視角度を調節するために使用される。任意選択的に、トリガ操作は、クリック操作、連続タッチ操作、及びスライド操作のいずれか1つを含むが、これに限定されず、本願の実施例はこれを具体的に限定しない。
【0099】
任意選択的に、操作コントロールは、第1タイプの操作コントロールを含み、端末は、第1タイプの操作コントロールのトリガ操作に応答して、HUDコントロールの透視角度を、第1タイプの操作コントロールをトリガした後に対応する透視角度に変更する。
【0100】
例えば、端末は、歩行コントロール又は走行コントロールのトリガ操作に応答して、HUDコントロールの透視角度を、歩行コントロール又は走行コントロールをトリガした後に対応する透視角度に変更する。例えば、オブジェクトが歩行コントロールをトリガした後、端末に表示されるHUDコントロールの透視角度は10°である。
【0101】
任意選択的に、操作コントロールは、第2タイプの操作コントロールを含み、端末は、第2タイプの操作コントロールのトリガ操作に応答して、動的に変化する透視角度でHUDコントロールを表示し、動的に変化する透視角度は、第2タイプの操作コントロールに対応する透視角度範囲内に属する。例えば、端末は、攻撃コントロール又は防御コントロールのトリガ操作に応答して、HUDコントロールの透視角度を歩行コントロール又は走行コントロールをトリガした後に対応する透視角度に変更する。例えば、オブジェクトが攻撃コントロールをトリガした後、端末は0~30°の間でHUDコントロールを動的に変化させる。
【0102】
上記に記載されたように、本実施例で提供される方法では、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示し、仮想キャラクタが仮想環境で活動するように制御し、仮想キャラクタの様々なキャラクタ状態に基づいて、様々なキャラクタ状態に対応する異なる透視角度のHUDコントロールを表示する。本願は、新しい情報表示方法を提供し、HUDコントロールの情報表示方法と仮想キャラクタのキャラクタ状態とを関連付け、異なる透視角度でHUDコントロールを表示することにより、ユーザが透視角度によって仮想キャラクタのキャラクタ状態を決定することを支援し、ヒューマン・コンピュータインタラクション効率を向上させ、ユーザ体験を向上させる。
【0103】
図16は、本願の一例示的な実施例による仮想環境における情報処理端末の構成を示すブロック図である。当該端末は、入力ユニット1501、プロセッサ1502、表示ユニット1503、電源1504、メモリ1505を含む。
【0104】
入力ユニット1501は操作コントロールであり得、オブジェクトは、1つ又は複数の操作コントロールのボタンを押すことによって、情報を入力ユニット1501に入力し、又は、オブジェクトは、端末インタフェース上の仮想リモートレバーを介して、情報を入力ユニット1501に入力し、オブジェクトは、端末に接続された外部機器(ハンドル、VRメガネ、VRヘルメットなど)を介して、情報を入力ユニット1501に入力し、オブジェクトは、音声によって仮想キャラクタが活動するように制御し、オブジェクトは、体感操作によって、情報を入力ユニット1501に入力する。プロセッサ1502は、1つ又は複数の処理コア、例えば、4コアプロセッサ、8コアプロセッサなどを含み得る。いくつかの実施例では、人工知能(AI:Artificial Intelligence、)プロセッサをさらに備えてもよく、当該AIプロセッサは、機械学習に関連する計算操作を処理するために使用される。プロセッサ1502は、入力ユニット1501によって受信された情報を処理して、仮想キャラクタの状態とトリガメカニズムを一致させる。
【0105】
表示ユニット1503は、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示する。
【0106】
電源1504は、仮想環境における情報処理端末内の各構成要素に電力を供給する。
【0107】
メモリ1505は、1つ又は複数のコンピュータ可読記憶媒体を含み得、当該コンピュータ可読記憶媒体は、有形で非一時的であってもよい。メモリ1505は、高速ランダムアクセスメモリ及び不揮発性メモリ、例えば、1つ又は複数の磁気ディスク記憶装置、フラッシュメモリ記憶装置も含み得る。いくつかの実施例では、メモリ1505内の非一時的なコンピュータ可読記憶媒体は、少なくとも1つの命令を記憶し、当該少なくとも1つの命令は、プロセッサ1502によって実行されることにより、本願の実施例で提供される仮想環境における情報処理方法を実現する。
【0108】
図17は、本願の一例示的な実施例による仮想環境における情報処理装置のブロック図である。当該装置は、ソフトウェア、ハードウェア、又はその両方の組み合わせにより、コンピュータ機器の全部又は一部として実装され得、当該装置は、表示モジュール1601と、制御モジュール1602とを備え、
表示モジュール1601は、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示するように構成され、前記仮想環境画面は、仮想環境を表示し、前記HUDコントロールは、仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示し、
制御モジュール1602は、前記仮想キャラクタが前記仮想環境で活動するように制御するように構成され、
表示モジュール1601はさらに、前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するように構成され、前記透視角度は、前記HUDコントロールと前記仮想環境画面のイメージング平面とのなす角度である。
【0109】
一つの可能な実現形態では、表示モジュール1601はさらに、前記仮想キャラクタのキャラクタ状態が第1状態から第2状態に変化することに応答して、前記HUDコントロールの透視角度を第1透視角度から第2透視角度に変化させるように構成され、前記第1透視角度は前記第1状態に対応し、前記第2透視角度は前記第2状態に対応する。
【0110】
前記第1状態は歩行状態であり、前記第2状態は走行状態である。
【0111】
一つの可能な実現形態では、表示モジュール1601はさらに、前記仮想キャラクタのキャラクタ状態が前記歩行状態から前記走行状態に変化することに応答して、前記HUDコントロールの透視角度を前記第1透視角度から前記第2透視角度に変化させるように構成され、前記第2透視角度は前記第1透視角度より大きい。
【0112】
一つの可能な実現形態では、表示モジュール1601はさらに、前記仮想キャラクタのキャラクタ状態の属性パラメータの変化に応答して、前記HUDコントロールの透視角度を変更するように構成される。
【0113】
一つの可能な実現形態では、表示モジュール1601はさらに、前記仮想環境における前記仮想キャラクタの速度又は加速度の増加に応答して、前記HUDコントロールの透視角度を増加させるように構成される。
【0114】
一つの可能な実現形態では、表示モジュール1601はさらに、前記仮想環境における前記仮想キャラクタの速度又は加速度の減少に応答して、前記HUDコントロールの透視角度を減少させるように構成される。
【0115】
一つの可能な実現形態では、表示モジュール1601はさらに、前記仮想キャラクタのキャラクタ状態が第3状態であることに応答して、動的に変化する透視角度で前記HUDコントロールを表示するように構成され、
前記動的に変化する透視角度は、前記第3状態に対応する第3透視角度範囲内に属する。
【0116】
前記第3状態は攻撃される状態である。一つの可能な実現形態では、表示モジュール1601はさらに、前記仮想環境における前記仮想キャラクタのキャラクタ状態が攻撃される状態であることに応答して、周期的に揺動変化する透視角度で前記HUDコントロールを表示するように構成される。前記HUDコントロールは、少なくとも2つの領域に位置する少なくとも2つのHUDコントロールを含み、異なる領域に位置する前記HUDコントロールに対応する透視角度は異なる。前記HUDコントロールは操作コントロールを含む。
【0117】
一つの可能な実現形態では、表示モジュール1601はさらに、前記操作コントロールのトリガ操作に応答して、異なる透視角度を有する前記HUDコントロールを表示するように構成される。前記操作コントロールは、第1タイプの操作コントロールを含む。
【0118】
一つの可能な実現形態では、表示モジュール1601はさらに、前記第1タイプの操作コントロールのトリガ操作に応答して、前記HUDコントロールの透視角度を、前記第1タイプの操作コントロールをトリガした後に対応する透視角度に変更するように構成される。前記操作コントロールは、第2タイプの操作コントロールを含む。
【0119】
一つの可能な実現形態では、表示モジュール1601はさらに、前記第2タイプの操作コントロールのトリガ操作に応答して、動的に変化する透視角度で前記HUDコントロールを表示するように構成され、
前記動的に変化する透視角度は、前記第2タイプの操作コントロールに対応する透視角度範囲内に属する。
【0120】
図18は、本願の一例示的な実施例による仮想環境におけるコンピュータ機器1700の構成を示す模式図である。当該コンピュータ機器1700は、スマートフォン、タブレットコンピュータ、動画エキスパート圧縮標準オーディオレイヤ3(MP3:Moving Picture Experts Group Audio Layer III)プレーヤ、動画エキスパート圧縮標準オーディオレイヤ4(MP4:Moving Picture Experts Group Audio Layer IV)プレーヤであり得る。コンピュータ機器1700はさらに、ユーザ機器、携帯端末などの他の名称で呼ばれ得る。
【0121】
通常、コンピュータ機器1700は、プロセッサ1701及びメモリ1702を含む。
【0122】
プロセッサ1701は、1つ又は複数の処理コア、例えば、4コアプロセッサ、8コアプロセッサなどを含み得る。プロセッサ1701は、デジタル信号プロセッサ(DSP:Digital Signal Processor)、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)、及びプログラマブル論理アレイ(PLA:Programmable Logic Array)のうちの少なくとも1つのハードウェア形で実現され得る。プロセッサ1701はまた、メインプロセッサ及びコプロセッサを含み得る。メインプロセッサは、アクティブ状態でデータを処理するために使用されるプロセッサであり、中央処理装置(CPU:Central Processing Unit)とも呼ばれる。コプロセッサは、低電力プロセッサであり、待機状態でデータを処理する。いくつかの実施例では、プロセッサ1701は、画像プロセッサ(GPU:Graphics Processing Unit)と統合されてもよく、GPUは、表示画面に表示される必要があるコンテンツをレンダリング及び描画する。いくつかの実施例では、プロセッサ1701は、人工知能(AI:Artificial Intelligence)プロセッサをさらに備えてもよく、当該AIプロセッサは、機械学習に関連する計算操作を処理する。メモリ1702は、1つ又は複数のコンピュータ可読記憶媒体を含んでもよく、当該コンピュータ可読記憶媒体は非一時的であり得る。メモリ1702はまた、高速ランダムアクセスメモリ及び不揮発性メモリ、例えば、1つ又は複数の磁気ディスク記憶装置、フラッシュメモリ記憶装置を含んでもよい。いくつかの実施例では、メモリ1702内の非一時的なコンピュータ可読記憶媒体は、少なくとも1つの命令を記憶し、当該少なくとも1つの命令は、プロセッサ1701によって実行されることにより、本願の実施例で提供される情報処理方法を実現する。
【0123】
いくつかの実施例では、コンピュータ機器1700は、任意選択的に、周辺機器インタフェース1703及び少なくとも1つの周辺機器をさらに含み得る。具体的に、周辺機器は、RF回路1704、タッチスクリーン1705、カメラアセンブリ1706、オーディオ回路1707、及び電源1708のうちの少なくとも1つを含む。周辺機器インタフェース1703は、入力/出力(I/O:Input/Output)に関連する少なくとも1つの周辺機器をプロセッサ1701及びメモリ1702に接続するために使用され得る。いくつかの実施例では、プロセッサ1701、メモリ1702、及び周辺機器インタフェース1703は、同一のチップ又は回路基板に統合されてもよく、他のいくつかの実施例では、プロセッサ1701、メモリ1702、及び周辺機器イインタフェース1703のいずれか1つ又は2つは、別個のチップ又は回路基板に実装されてもよく、本実施例はこれに限定されない。RF回路1704は、無線周波数(RF:Radio Frequency)信号を送受信するために使用され、電磁信号とも呼ばれる。RF回路1704は、電磁信号を介して通信ネットワークや他の通信機器と通信する。RF回路1704は、近距離無線通信(NFC:Near Field Communication)関連回路をさらに含み得る。タッチスクリーン1705は、ユーザインタフェース(UI:User Interface)を表示する。当該UIは、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせを含み得る。カメラアセンブリ1706は、画像又はビデを収集する。任意選択的に、カメラアセンブリ1706は、フロントカメラとリアカメラを含む。オーディオ回路1707は、ユーザとコンピュータ機器1700との間のオーディオインタフェースを提供する。オーディオ回路1707は、マイク及びスピーカを含み得る。マイクは、ユーザ及び環境からの音波を収集し、その音波を電気信号に変換してプロセッサ1701に入力して処理するか、又はRF回路1704に入力して音声通信を実現する。電源1708は、コンピュータ機器1700内の各構成要素に電力を供給する。電源1708は、交流、直流、使い捨て電池又は充電式電池であり得る。
【0124】
いくつかの実施例では、コンピュータ機器1700は、1つ又は複数のセンサ1709をさらに含む。当該1つ又は複数のセンサ1709は、加速度センサ1710、ジャイロセンサ1711、圧力センサ1712、光学センサ1713及び近接センサ1714を含むが、これらに限定されない。加速度センサ1710は、コンピュータ機器1700によって確立された座標系の3つの座標軸上の加速度の大きさを検出することができる。ジャイロセンサ1711は、コンピュータ機器1700の本体方向及び回転角度を検出することができる。圧力センサ1712は、コンピュータ機器1700のサイドフレーム及び/又はタッチスクリーン1705の下層に設けられ得る。コンピュータ機器1700上のユーザのグリップ信号を検出し、及び/又は、タッチスクリーン1705上のユーザの圧力操作に基づいて、UIインタフェース上の操作可能なコントロールの制御を実現する。光学センサ1713は、周囲光の強度を収集する。近接センサ1714は、距離センサとも呼ばれ、通常、コンピュータ機器1700正面に設けられる。近接センサ1714は、ユーザとコンピュータ機器1700の正面との距離を収集する。
【0125】
当業者であれば、
図18に示される構造は、コンピュータ機器1700への限定を構成するものではなく、図示されるよりも多い又は少ない構成要素を含むか、特定の構成要素を組み合わせるか、又は異なる構成要素配置を採用できることを理解することができる。
【0126】
本願の実施例は、コンピュータ機器をさらに提供し、当該コンピュータ機器は、プロセッサとメモリとを備え、メモリには少なくとも1つのコンピュータプログラムが記憶され、少なくとも1つのコンピュータプログラムは、プロセッサによってロード及び実行されることにより、上記の各実施例で提供される仮想環境における情報処理方法を実現する。
【0127】
本願の実施例は、コンピュータ記憶媒体をさらに提供し、コンピュータ可読記憶媒体には、少なくとも1つのコンピュータプログラムが記憶され、少なくとも1つのコンピュータプログラムは、プロセッサによってロード及び実行されることにより、上記の各実施例で提供される仮想環境における情報処理方法を実現する。
【0128】
本願の実施例は、コンピュータプログラム製品をさらに提供し、前記コンピュータプログラム製品は、コンピュータプログラムをふくみ、前記コンピュータプログラムはコンピュータ可読記憶媒体に記憶され、前記コンピュータプログラムは、コンピュータ機器のプロセッサによって前記コンピュータ可読記憶媒体から読み取られて実行されることにより、前記コンピュータ機器に、上記の各実施例で提供される仮想環境における情報処理方法を実現する。
【符号の説明】
【0129】
100 コンピュータシステム
101 仮想環境画面
102 ヘッドアップディスプレイ(HUD)コントロール
102 HUDコントロール
103 仮想キャラクタ
104 イメージング平面
110 第1端末
111 クライアント
112 第1ユーザ
113 第2ユーザ
120 サーバ
122 プロセッサ
123 ユーザアカウントデータベース
124 対戦サービスモジュール
125 出力インタフェース(I/Oインタフェース:Input/Output Interface)
130 第2端末
131 クライアント
140 端末
201 3次元空間
202 カメラ平面
203 平面
204 イメージング平面
205 参照平面
601 仮想環境画面
602 HUDコントロール
603 仮想キャラクタ
801 仮想環境画面
802 HUDコントロール
803 仮想キャラクタ
1001 HUDコントロール
1002 左側HUD領域
1003 上部HUD領域
1004 下部HUD領域
1005 右側HUD領域
1501 入力ユニット
1502 プロセッサ
1503 表示ユニット
1504 電源
1505 メモリ
1601 表示モジュール
1602 制御モジュール
1700 コンピュータ機器
1701 プロセッサ
1702 メモリ
1703 周辺機器インタフェース
1703 周辺機器イインタフェース
1704 RF回路
1705 タッチスクリーン
1706 カメラアセンブリ
1707 オーディオ回路
1708 電源
1709 センサ
1710 加速度センサ
1711 ジャイロセンサ
1712 圧力センサ
1713 光学センサ
1714 近接センサ
【手続補正書】
【提出日】2024-05-30
【手続補正2】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
端末が実行する、仮想環境における情報処理方法であって、
仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示するステップであって、前記仮想環境画面は仮想環境を表示し、前記HUDコントロールは仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示する、ステップと、
前記仮想キャラクタが前記仮想環境で活動するように制御するステップと、
前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップであって、前記透視角度は、前記HUDコントロールと前記仮想環境画面のイメージング平面とのなす角度である、ステップと、を含む、仮想環境における情報処理方法。
【請求項2】
前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記仮想キャラクタのキャラクタ状態が第1状態から第2状態に変化することに応答して、前記HUDコントロールの透視角度を第1透視角度から第2透視角度に変化させるステップであって、前記第1透視角度は前記第1状態に対応し、前記第2透視角度は前記第2状態に対応する、ステップと、を含む、
請求項1に記載の仮想環境における情報処理方法。
【請求項3】
前記第1状態は歩行状態であり、前記第2状態は走行状態であり、
前記仮想キャラクタのキャラクタ状態が第1状態から第2状態に変化することに応答して、前記HUDコントロールの透視角度を第1透視角度から第2透視角度に変化させるステップは、
前記仮想キャラクタのキャラクタ状態が前記歩行状態から前記走行状態に変化することに応答して、前記HUDコントロールの透視角度を前記第1透視角度から前記第2透視角度に変化させるステップを含み、前記第2透視角度は前記第1透視角度より大きい、
請求項2に記載の仮想環境における情報処理方法。
【請求項4】
前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記仮想キャラクタのキャラクタ状態の属性パラメータの変化に応答して、前記HUDコントロールの透視角度を変更するステップを含む、
請求項1に記載の仮想環境における情報処理方法。
【請求項5】
前記仮想キャラクタのキャラクタ状態の属性パラメータの変化に応答して、前記HUDコントロールの透視角度を変更するステップを含むステップは、
前記仮想環境における前記仮想キャラクタの速度又は加速度の増加に応答して、前記HUDコントロールの透視角度を増加させるステップを含む、
請求項4に記載の仮想環境における情報処理方法。
【請求項6】
前記仮想キャラクタのキャラクタ状態の属性パラメータの変化に応答して、前記HUDコントロールの透視角度を変更するステップは、
前記仮想環境における前記仮想キャラクタの速度又は加速度の減少に応答して、前記HUDコントロールの透視角度を減少させるステップを含む、
請求項4に記載の仮想環境における情報処理方法。
【請求項7】
前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記仮想キャラクタのキャラクタ状態が第3状態であることに応答して、動的に変化する透視角度で前記HUDコントロールを表示するステップを含み、
前記動的に変化する透視角度は、前記第3状態に対応する第3透視角度範囲内に属する、
請求項1に記載の仮想環境における情報処理方法。
【請求項8】
前記第3状態は攻撃される状態であり、
前記仮想キャラクタのキャラクタ状態が第3状態であることに応答して、動的に変化する透視角度で前記HUDコントロールを表示するステップは、
前記仮想環境における前記仮想キャラクタのキャラクタ状態が前記攻撃される状態であることに応答して、周期的に揺動変化する透視角度で前記HUDコントロールを表示するステップを含む、
請求項7に記載の仮想環境における情報処理方法。
【請求項9】
前記HUDコントロールは、少なくとも2つの領域に位置する少なくとも2つのHUDコントロールを含み、異なる領域に位置する前記HUDコントロールに対応する透視角度は異なる、
請求項1~8のいずれか一項に記載の仮想環境における情報処理方法。
【請求項10】
前記HUDコントロールは操作コントロールを含み、前記仮想環境における情報処理方法は、
前記操作コントロールのトリガ操作に応答して、異なる透視角度を有する前記HUDコントロールを表示するステップをさらに含む、
請求項1~8のいずれか一項に記載の仮想環境における情報処理方法。
【請求項11】
前記操作コントロールは、第1タイプの操作コントロールを含み、
前記操作コントロールのトリガ操作に応答して、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記第1タイプの操作コントロールのトリガ操作に応答して、前記HUDコントロールの透視角度を、前記第1タイプの操作コントロールをトリガした後に対応する透視角度に変更するステップを含む、
請求項10に記載の仮想環境における情報処理方法。
【請求項12】
前記操作コントロールは、第2タイプの操作コントロールを含み、
前記操作コントロールのトリガ操作に応答して、異なる透視角度を有する前記HUDコントロールを表示するステップは、
前記第2タイプの操作コントロールのトリガ操作に応答して、動的に変化する透視角度で前記HUDコントロールを表示するステップを含み、
前記動的に変化する透視角度は、前記第2タイプの操作コントロールに対応する透視角度範囲内に属する、
請求項10に記載の仮想環境における情報処理方法。
【請求項13】
仮想環境における情報処理装置であって、表示モジュールと、制御モジュールと、を備え、
前記表示モジュールは、仮想環境画面及びヘッドアップディスプレイ(HUD)コントロールを表示するように構成され、前記仮想環境画面は仮想環境を表示し、前記HUDコントロールは仮想キャラクタを制御するために必要なユーザインタフェース(UI)情報を表示し、
前記制御モジュールは、前記仮想キャラクタが前記仮想環境で活動するように制御するように構成され、
前記表示モジュールはさらに、前記仮想キャラクタのキャラクタ状態に基づいて、異なる透視角度を有する前記HUDコントロールを表示するように構成され、前記透視角度は、前記HUDコントロールと前記仮想環境画面のイメージング平面とのなす角度である、仮想環境における情報処理装置。
【請求項14】
プロセッサとメモリとを備える、コンピュータ機器であって、前記メモリは少なくとも1つのコンピュータプログラムを記憶し、前記プロセッサは前記少なくとも1つのコンピュータプログラムをロード及び実行して、請求項1~
8のいずれか一項に記載の仮想環境における情報処理方法を実現する、コンピュータ機器。
【請求項15】
コンピュータ機器に、請求項1~
8のいずれか一項に記載の仮想環境における情報処理方法を実行させる、
コンピュータプログラム。
【国際調査報告】