(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-11-15
(54)【発明の名称】ライブ配信画面データ処理方法及び装置、コンピュータ機器、並びにコンピュータプログラム
(51)【国際特許分類】
H04N 21/431 20110101AFI20241108BHJP
H04N 21/472 20110101ALI20241108BHJP
G06F 3/0481 20220101ALI20241108BHJP
【FI】
H04N21/431
H04N21/472
G06F3/0481
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024532537
(86)(22)【出願日】2023-04-18
(85)【翻訳文提出日】2024-05-30
(86)【国際出願番号】 CN2023088924
(87)【国際公開番号】W WO2023213185
(87)【国際公開日】2023-11-09
(31)【優先権主張番号】202210486106.1
(32)【優先日】2022-05-06
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
(71)【出願人】
【識別番号】517392436
【氏名又は名称】▲騰▼▲訊▼科技(深▲セン▼)有限公司
【氏名又は名称原語表記】TENCENT TECHNOLOGY (SHENZHEN) COMPANY LIMITED
【住所又は居所原語表記】35/F,Tencent Building,Kejizhongyi Road,Midwest District of Hi-tech Park,Nanshan District, Shenzhen,Guangdong 518057,CHINA
(74)【代理人】
【識別番号】100110364
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】甄 智椋
【テーマコード(参考)】
5C164
5E555
【Fターム(参考)】
5C164FA22
5C164UB41S
5C164UB83P
5C164UB92P
5C164UD41P
5C164YA11
5E555AA61
5E555BA04
5E555BA46
5E555BA87
5E555BB04
5E555BC08
5E555DB04
5E555DB57
5E555FA00
(57)【要約】
仮想シーンの技術分野に属するライブ配信画面データ処理方法及び装置、機器、記憶媒体、並びにプログラムを提供する。仮想シーンのライブ配信インタフェースを表示する(201、301)ステップであって、仮想シーンにはn(nは2以上で、かつnは整数)個の視点のライブ配信画面が対応している、ステップと、取得された第1視点のライブ配信画面データに従って、ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示する(202,302)ステップであって、第1視点は、n個の視点のうちの1つである、ステップと、画面分割コントロールへのトリガ操作を受け付けたことに応じて、取得されたn個の視点のうちのm(2≦m≦nで、かつmは整数)個の視点のライブ配信画面データに従って、ライブ配信インタフェースにおいてm個の視点のライブ配信画面を画面分割表示する(203,303)ステップと、を含む。上記方法、装置、機器、記憶媒体及びプログラムを用いることにより、データ処理効率を向上させ、ユーザの操作を簡略化することができ、そのうえ、ヒューマンマシンインタラクション効率を向上させ、サーバの動作負荷を軽減する。
【特許請求の範囲】
【請求項1】
コンピュータ機器が実行する、ライブ配信画面データ処理方法であって、
仮想シーンのライブ配信インタフェースを表示するステップであって、前記仮想シーンにはn(nは2以上で、かつnは整数)個の視点のライブ配信画面が対応している、ステップと、
第1視点のライブ配信画面データを取得し、前記第1視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記第1視点のライブ配信画面及び画面分割コントロールを表示するステップであって、前記第1視点は、前記n個の視点のうちの1つである、ステップと、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm(2≦m≦nで、かつmは整数)個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップと、
を含む、ライブ配信画面データ処理方法。
【請求項2】
前記ライブ配信インタフェースには、前記m個の視点にそれぞれ対応するm個の視点切替コントロールが含まれており、
前記ライブ配信画面データ処理方法は、
ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第3視点のライブ配信画面データを取得し、前記第3視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおける第2視点のライブ配信画面を前記第3視点のライブ配信画面に切り替えるステップをさらに含み、
前記第2視点は、前記m個の視点のうちのいずれか1つであり、前記ターゲット視点切替コントロールは、前記m個の視点切替コントロールのうち、前記第2視点に対応する視点切替コントロールであり、前記第3視点は、前記n個の視点のうち、前記m個の視点を除くいずれか1つである、請求項1に記載のライブ配信画面データ処理方法。
【請求項3】
ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第3視点のライブ配信画面データを取得し、前記第3視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおける第2視点のライブ配信画面を前記第3視点のライブ配信画面に切り替えるステップは、
前記ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第1視点選択インタフェースを表示するステップであって、前記第1視点選択インタフェースには、(n-m)個の第3視点にそれぞれ対応する(n-m)個の第1の選択コントロールが含まれている、ステップと、
ターゲット選択コントロールへのトリガ操作を受け付けたことに応じて、前記第3視点のライブ配信画面データを取得し、前記第3視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおける第2視点のライブ配信画面を前記第3視点のライブ配信画面に切り替えるステップと、を含み、
前記ターゲット選択コントロールは、前記(n-m)個の第1の選択コントロールのうちのいずれか1つであり、前記第3視点のライブ配信画面は、前記ターゲット選択コントロールに対応する第3視点のライブ配信画面である、請求項2に記載のライブ配信画面データ処理方法。
【請求項4】
前記ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第1視点選択インタフェースを表示するステップは、
前記ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、前記仮想シーンのサムネイル地図を背景とする前記第1視点選択インタフェースを表示するステップと、
前記(n-m)個の第1の選択コントロールの前記サムネイル地図における位置を取得するステップと、
前記(n-m)個の第1の選択コントロールの前記サムネイル地図における位置に基づいて、前記第1視点選択インタフェースにおいて前記(n-m)個の第1の選択コントロールを表示するステップと、を含む、請求項3に記載のライブ配信画面データ処理方法。
【請求項5】
前記(n-m)個の第1の選択コントロールの前記サムネイル地図における位置を取得するステップは、
いずれか1つの第1の選択コントロールについて、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトの前記仮想シーンにおける役割と、前記仮想シーンにおける所属陣営とのうちの少なくとも一方に基づいて、前記いずれか1つの第1の選択コントロールの前記サムネイル地図における位置を取得するステップを含む、請求項4に記載のライブ配信画面データ処理方法。
【請求項6】
前記(n-m)個の第1の選択コントロールの前記サムネイル地図における位置を取得するステップは、
いずれか1つの第1の選択コントロールについて、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトの前記仮想シーンにおけるリアルタイム位置に基づいて、前記いずれか1つの第1の選択コントロールの前記サムネイル地図における位置を取得するステップを含む、請求項4に記載のライブ配信画面データ処理方法。
【請求項7】
いずれか1つの第1の選択コントロールに仮想オブジェクトが対応している場合、前記いずれか1つの第1の選択コントロールには、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのキャラクタアバター又はユーザアバターが含まれている、請求項3乃至6のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項8】
前記第1視点選択インタフェースには、アバター切替コントロールがさらに含まれており、
前記ライブ配信画面データ処理方法は、
いずれか1つの第1の選択コントロールについて、前記アバター切替コントロールへのトリガ操作を受け付けたことに応じて、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのキャラクタアバターをユーザアバターに切り替えるか、又は、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのユーザアバターをキャラクタアバターに切り替えるステップをさらに含む、請求項7に記載のライブ配信画面データ処理方法。
【請求項9】
前記ライブ配信画面データ処理方法は、
前記ライブ配信インタフェースで行われる画面分割サイズ調整操作を受け付けたことに応じて、前記m個の視点のライブ配信画面の表示サイズを調整するステップをさらに含む、請求項1乃至8のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項10】
前記m個の視点は、第4視点及び第5視点を含み、前記第4視点のライブ配信画面と前記第5視点のライブ配信画面にはサイズ調整コントロールが対応しており、
前記ライブ配信インタフェースで行われる画面分割サイズ調整操作を受け付けたことに応じて、前記m個の視点のライブ配信画面の表示サイズを調整するステップは、
前記サイズ調整コントロールへのドラッグ操作を受け付けたことに応じて、前記ドラッグ操作のドラッグ方向及びドラッグ距離に基づいて、前記第4視点のライブ配信画面の表示サイズ及び前記第5視点のライブ配信画面の表示サイズを調整するステップを含む、請求項9に記載のライブ配信画面データ処理方法。
【請求項11】
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップは、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、第2視点選択インタフェースを表示するステップであって、前記第2視点選択インタフェースには、前記n個の視点にそれぞれ対応する第2の選択コントロールが含まれている、ステップと、
前記n個の視点のうちの前記m個の視点の第2の選択コントロールに対する選択操作に基づいて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得するステップと、
前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップと、を含む、請求項1乃至10のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項12】
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップは、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得するステップと、
前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて、前記n個の視点のライブ配信画面のうち、前記ライブ配信インタフェースに最近表示されたm個の視点のライブ配信画面を画面分割表示するステップと、を含む、請求項1乃至10のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項13】
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップは、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得するステップと、
前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記n個の視点のうちのデフォルトのm個の視点のライブ配信画面を画面分割表示するステップと、を含む、請求項1乃至10のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項14】
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップは、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のライブ配信画面それぞれの視聴者数を取得するステップと、
視聴者数が多い順に、又は少ない順に前記n個の視点を並べるステップと、
前記n個の視点のうちのm個の視点のライブ配信画面データを取得するステップと、
前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて上位m個の視点のライブ配信画面を画面分割表示するステップと、を含む、請求項1乃至10のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項15】
前記n個の視点は、前記仮想シーンにおける少なくとも2つの仮想オブジェクトにそれぞれ対応する視点を含み、
前記ライブ配信画面データ処理方法は、
前記仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離を取得するステップであって、前記第1の仮想オブジェクトは、前記m個の視点のうちの第6視点に対応し、前記第2の仮想オブジェクトは、前記m個の視点のうちの第7視点に対応している、ステップと、
前記仮想シーンにおける前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面を統合して表示するステップと、をさらに含む、請求項1乃至14のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項16】
前記n個の視点は、前記仮想シーンにおける仮想オブジェクトにバインドされていない視点である自由視点をさらに含み、
前記仮想シーンにおける前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面を統合して表示するステップは、
前記仮想シーンにおける前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、自由視点のライブ配信画面データを取得するステップと、
前記自由視点のライブ配信画面データに従って、前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面を前記自由視点のライブ配信画面として統合して表示するステップであって、前記自由視点の視点位置は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとを結ぶ線の中点に位置している、ステップと、を含む請求項15に記載のライブ配信画面データ処理方法。
【請求項17】
前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面を統合して表示した後、前記ライブ配信画面データ処理方法は、
前記仮想シーンにおける前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの距離が前記距離閾値よりも大きいことに応じて、第6視点のライブ配信画面データ及び第7視点のライブ配信画面データを取得するステップと、
前記第6視点のライブ配信画面データ及び第7視点のライブ配信画面データに従って、前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面の画面分割表示を再開するステップと、をさらに含む、請求項15又は16に記載のライブ配信画面データ処理方法。
【請求項18】
前記ライブ配信インタフェースにおいて前記n個の視点のうちのm個の視点のライブ配信画面を画面分割表示した後、前記ライブ配信画面データ処理方法は、
画面分割終了操作を受け付けたことに応じて、第8視点のライブ配信画面データを取得し、前記第8視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記第8視点のライブ配信画面を表示するステップをさらに含み、
前記第8視点のライブ配信画面は、前記m個の視点のライブ配信画面のうち、指定された位置にあるライブ配信画面、又は、表示サイズが最も大きいライブ配信画面である、請求項1乃至17のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項19】
仮想シーンのライブ配信インタフェースを表示するライブ配信インタフェース表示モジュールであって、前記仮想シーンにはn(nは2以上で、かつnは整数)個の視点のライブ配信画面が対応している、ライブ配信インタフェース表示モジュールと、
第1視点のライブ配信画面データを取得し、前記第1視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示する画面表示モジュールであって、前記第1視点は、前記n個の視点のうちの1つである、画面表示モジュールと、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm(2≦m≦nで、かつmは整数)個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示する画面分割表示モジュールと、
を備える、ライブ配信画面データ処理装置。
【請求項20】
プロセッサと、少なくとも1つのコンピュータ命令を記憶したメモリとを備えるコンピュータ機器であって、
前記少なくとも1つのコンピュータ命令は、前記プロセッサによってロードされ実行されることで、前記コンピュータ機器に、請求項1乃至18のいずれか1項に記載のライブ配信画面データ処理方法を実現させる、コンピュータ機器。
【請求項21】
プロセッサによってロードされ実行されることで、コンピュータ機器に、請求項1乃至18のいずれか1項に記載のライブ配信画面データ処理方法を実現させる少なくとも1つのコンピュータ命令を記憶した、不揮発性のコンピュータ読取可能な記憶媒体。
【請求項22】
コンピュータ機器のプロセッサによって読み取られて実行されることで、前記コンピュータ機器に、請求項1乃至18のいずれか1項に記載のライブ配信画面データ処理方法を実行させるコンピュータ命令を含む、コンピュータプログラム製品。
【請求項23】
コンピュータ機器のプロセッサによって読み取られて実行されることで、前記コンピュータ機器に、請求項1乃至18のいずれか1項に記載のライブ配信画面データ処理方法を実行させるコンピュータ命令を含む、コンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、2022年05月06日に出願された、出願番号が202210486106.1で、発明の名称が「ライブ配信画面表示方法及び装置、機器、記憶媒体、並びにプログラム製品」である中国特許出願に基づく優先権を主張しており、その内容はすべて、参照によって本願に組み込まれるものとする。
【0002】
本願は、仮想シーンの技術分野に関し、特に、ライブ配信画面データ処理方法及び装置、機器、記憶媒体、並びにプログラムに関する。
【背景技術】
【0003】
ゲーム技術の継続的な発展に伴い、マルチプレイヤーオンラインゲーム中に、ユーザは他のプレイヤーのゲームのライブ配信画面を視聴することができるようになっている。
【0004】
関連技術では、ライブ配信アプリケーションプログラム又はゲームアプリケーションプログラムは、ゲームのライブ配信サービスを提供する際に、通常、ユーザが選択するための複数の異なるゲームの視点を提供することできる。それに応じて、ユーザがある視点を手動で選択した後、ライブ配信アプリケーションプログラム又はゲームアプリケーションプログラムは、ユーザが選択した視点に切り替えてライブ配信画面を表示する。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本願の実施例は、ユーザが異なる視点のライブ配信画面を視聴する際の操作手順を減らし、ヒューマンマシンインタラクション効率を向上させ、サーバの動作負荷を軽減することができる、ライブ配信画面データ処理方法及び装置、機器、記憶媒体、並びにプログラムを提供する。その技術態様は以下の通りである。
【課題を解決するための手段】
【0006】
一態様では、本願の実施例は、コンピュータ機器が実行する、ライブ配信画面データ処理方法であって、
仮想シーンのライブ配信インタフェースを表示するステップであって、前記仮想シーンには、n(nは2以上で、かつnは整数)個の視点のライブ配信画面が対応している、ステップと、
第1視点のライブ配信画面データを取得し、前記第1視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記第1視点のライブ配信画面及び画面分割コントロールを表示するステップであって、前記第1視点は、前記n個の視点のうちの1つである、ステップと、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm(2≦m≦nで、かつmは整数)個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップと、
を含む、ライブ配信画面データ処理方法を提供する。
【0007】
別の態様では、本願の実施例は、
仮想シーンのライブ配信インタフェースを表示するライブ配信インタフェース表示モジュールであって、前記仮想シーンには、n(nは2以上で、かつnは整数)個の視点のライブ配信画面が対応している、ライブ配信インタフェース表示モジュールと、
第1視点のライブ配信画面データを取得し、前記第1視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示する画面表示モジュールであって、前記第1視点は、前記n個の視点のうちの1つである、画面表示モジュールと、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm(2≦m≦nで、かつmは整数)個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示する画面分割表示モジュールと、
を備える、ライブ配信画面データ処理装置を提供する。
【0008】
別の態様では、本願の実施例は、プロセッサと、少なくとも1つのコンピュータ命令を記憶したメモリとを備え、前記少なくとも1つのコンピュータ命令は、前記プロセッサによってロードされ実行されることで、コンピュータ機器に、上述した態様によるライブ配信画面データ処理方法を実現させる、コンピュータ機器を提供する。
【0009】
別の態様では、本願の実施例は、プロセッサによってロードされ実行されることで、コンピュータ機器に、上述した態様によるライブ配信画面データ処理方法を実現させる少なくとも1つのコンピュータ命令を記憶した、不揮発性のコンピュータ読取可能な記憶媒体を提供する。
【0010】
別の態様では、不揮発性のコンピュータ読取可能な記憶媒体に記憶されたコンピュータ命令を含むコンピュータプログラム製品又はコンピュータプログラムを提供する。コンピュータ機器のプロセッサは、不揮発性のコンピュータ読取可能な記憶媒体からこのコンピュータ命令を読み取り、プロセッサは、このコンピュータ命令を実行することで、このコンピュータ機器に、上述した態様の各任意選択の実現形態で提供されるライブ配信画面データ処理方法を実行させる。
【発明の効果】
【0011】
複数の視点のライブ配信画面をサポートする仮想シーンについて、端末がライブ配信インタフェースにおいて、取得された1つの視点のライブ配信画面データに従ってそのうちの1つの視点のライブ配信画面を表示している際に、ユーザは、ライブ配信インタフェースにおける画面分割コントロールをトリガすることにより、端末が2つ以上の視点のライブ配信画面データを取得し、そして、ライブ配信インタフェースにおいて2つ以上の視点のライブ配信画面を分割画面で同時に表示するようにすることができ、それによって、ユーザが複数の視点に同時に注目する時に、ユーザの操作を減らし、データ処理効率を向上させ、ユーザの操作を簡略化することができ、そのうえ、ヒューマンマシンインタラクション効率を向上させ、サーバの動作負荷を軽減する。
【図面の簡単な説明】
【0012】
【
図1】本願の1つの例示的な実施例で提供される実施環境の概略図である。
【
図2】本願の1つの例示的な実施例で提供されるライブ配信画面表示方法のフローチャートである。
【
図3】本願の1つの例示的な実施例で提供されるライブ配信画面表示方法のフローチャートである。
【
図4】本願の1つの例示的な実施例で提供される画面分割効果の概略図である。
【
図5】本願の1つの例示的な実施例で提供されるライブ配信の画面分割のインタフェース表示効果図である。
【
図6】本願の1つの例示的な実施例で提供されるライブ配信の画面分割のインタフェース表示効果図である。
【
図7】本願の1つの例示的な実施例で提供されるライブ配信の画面分割のインタフェース表示効果図である。
【
図8】本願の1つの例示的な実施例で提供されるライブ配信の画面分割のインタフェース表示効果図である。
【
図9】本願の1つの例示的な実施例で提供されるライブ配信の画面分割のインタフェース表示効果図である。
【
図10】本願の1つの例示的な実施例で提供されるライブ配信の画面分割のインタフェース表示効果図である。
【
図11】本願の1つの例示的な実施例で提供される画面分割論理の概略図である。
【
図12】本願の1つの例示的な実施例で提供されるサイズ調整の概略図である。
【
図13】本願の1つの例示的な実施例で提供されるフォアグラウンド論理のフローチャートである。
【
図14】本願の1つの例示的な実施例で提供されるバックグラウンド論理のフローチャートである。
【
図15】本願の1つの例示的な実施例で提供されるライブ配信画面表示装置のブロック図である。
【
図16】本願の1つの例示的な実施例で提供されるコンピュータ機器の構成ブロック図である。
【発明を実施するための形態】
【0013】
ここで、例示的な実施例を詳細に説明し、その例を図面に示す。以下で図面に関して説明する場合、特に断りがない限り、異なる図面における同じ数字は、同じ又は類似の要素を表す。以下の例示的な実施例で説明される実施形態は、本願と一致するすべての実施形態を表すわけではない。むしろ、これらは、添付の特許請求の範囲に詳述された、本願のいくつかの側面と一致する装置及び方法の一例にすぎない。
【0014】
本明細書に言及された「いくつか」とは、1つ又は複数を意味し、「複数」とは、2つ以上を意味することは、理解されるべきである。「及び/又は」は、関連対象の関連付け関係を記述し、3つの関係が可能であることを表し、例えば、A及び/又はBは、Aが単独に存在するか、A及びBが同時に存在するか、Bが同時に存在するという3つの場合を表すことができる。キャラクタ「/」は、一般的には、関連付けられている対象が「又は」の関係にあることを表す。
【0015】
以下、理解しやすくするために、本願に言及される名詞について説明する。
【0016】
1)仮想シーン
仮想シーンは、アプリケーションプログラムが端末で動作するときに表示(又は提供)される仮想のシーンである。この仮想シーンは、実世界をシミュレーションした環境シーンであってもよいし、半シミュレーション・半架空の3次元環境シーンであってもよいし、純粋に架空の3次元環境シーンであってもよい。仮想シーンは、2次元仮想シーン、2.5次元仮想シーン、および3次元仮想シーンのうちのいずれかであってもよい。以下の実施例では、仮想シーンが3次元仮想シーンであることを例にとって説明するが、これを限定しない。任意選択で、この仮想シーンは、少なくとも2つの仮想キャラクタ同士の仮想シーン対戦にも使用されてもよい。任意選択で、この仮想シーンは、少なくとも2つの仮想キャラクタト間で仮想アイテムを使用して戦うことにも使用されてもよい。任意選択で、この仮想シーンは、仮想シーンにおける時間の経過とともに小さくなるターゲット領域範囲内で、少なくとも2つの仮想キャラクタト間で仮想アイテムを使用して戦うことにも使用されてもよい。
【0017】
仮想シーンは、通常、端末又はサーバなどのコンピュータ機器におけるアプリケーションプログラムによって生成され、端末におけるハードウェア(例えば、スクリーン)で表示される。このコンピュータ機器は、スマートフォン、タブレットパソコン又は電子書籍リーダー等のモバイル端末であってもよい。あるいは、このコンピュータ機器は、ノートパソコン又は据え置き型コンピュータのパーソナルコンピュータ機器であってもよい。あるいは、このコンピュータ機器は、クラウドサーバであってもよい。
【0018】
2)仮想オブジェクト
仮想キャラクタトとは、仮想シーンにおける可動オブジェクトを指す。この可動オブジェクトは、仮想人物、仮想動物、仮想キャリアのうちの少なくとも1つであってもよい。任意選択で、仮想シーンが3次元仮想シーンである場合、仮想オブジェクトは、アニメートされたスケルトン技術に基づいて作成された3次元立体モデルであってもよい。各仮想オブジェクトは、3次元仮想シーンにおける空間の一部を占めるように、3次元仮想シーンで自分なりの形状、体積及び向きを持つ。
【0019】
図1は、本願の1つの例示的な実施例で提供されるコンピュータシステムの構成ブロック図を示している。このコンピュータシステム100は、第1の端末110と、サーバクラスタ120と、第2の端末130と、第3の端末140とを備える。
【0020】
第1の端末110には、仮想シーンをサポートするクライアント111がインストールされ実行される。このクライアント111は、マルチプレイヤーオンライン対戦プログラムであってもよい。第1の端末でクライアント111が実行されると、第1の端末110のスクリーンにクライアント111のユーザインタフェースが表示される。このクライアントは、MOBA(Multiplayer Online Battle Arena:マルチプレイヤーオンラインバトルアリーナ)ゲーム、シューティングゲームなどのゲームクライアントのうちのいずれか1つであってもよい。本実施例では、このクライアントがMOBAゲームであることを例にとって説明する。第1の端末110は、第1のユーザ101が使用する端末である。第1のユーザ101は、第1の端末110を使用して、仮想シーンにある第1の仮想オブジェクトが動作するように制御し、第1の仮想オブジェクトは、第1のユーザ101のマスター仮想オブジェクトともいう。第1の仮想オブジェクトの動作は、身体の姿勢を調整すること、ハイハイすること、歩行すること、走ること、ライディングすること、飛ぶこと、ジャンピングすること、運転すること、拾うこと、射撃すること、攻撃すること、投げることなどを含むが、これらに限られない。概略的には、第1の仮想オブジェクトは、シミュレーション人物キャラクタ又はアニメ人物キャラクタのような第1の仮想人物である。
【0021】
第2の端末130には、仮想シーンをサポートするクライアント131がインストールされ実行される。このクライアント131は、マルチプレイヤーオンライン対戦プログラムであってもよい。第2の端末130でクライアント131が実行されると、第2の端末130のスクリーンにクライアント131のユーザインタフェースが表示される。このクライアントは、MOBAゲーム、シューティングゲーム、SLG(Simulation Game:シミュレーションゲーム)のうちのいずれか1つであってもよい。本実施例では、このクライアントがMOBAゲームであることを例にとって説明する。第2の端末130は、第2のユーザ102が使用する端末である。第2のユーザ102は、第2の端末130を使用して、仮想シーンにある第2の仮想オブジェクトが動作するように制御し、第2の仮想オブジェクトは、第2のユーザ102のマスター仮想オブジェクトともいう。概略的には、第2の仮想オブジェクトは、シミュレーション人物キャラクタ又はアニメ人物キャラクタのような第2の仮想人物である。
【0022】
任意選択で、第1の仮想人物と第2の仮想人物とは、同一の仮想シーンにあってもよい。任意選択で、第1の仮想人物と第2の仮想人物とは同一の陣営、同一のチーム、同一の組織に属し、友達関係を持っているか又は一時的な通信権限を持っていてもよい。任意選択で、第1の仮想人物と第2の仮想人物とは異なる陣営、異なるチーム、異なる組織に属するか又は敵対関係を持っていてもよい。
【0023】
任意選択で、第1の端末110及び第2の端末130にインストールされたクライアントは同じであるか、又は、両端末にインストールされたクライアントは、異なるオペレーティングシステムプラットフォームにおける同一タイプのクライアントであってもよい。第1の端末110は複数の端末のうちの1つを一般的に指してもよく、第2の端末130は複数の端末のうちのもう1つを一般的に指してもよいが、本願の実施例は、第1の端末110及び第2の端末130のみを例に挙げて説明する。第1の端末110及び第2の端末130のデバイスタイプは同じであるか又は異なる。このデバイスタイプは、スマートフォン、タブレットパソコン、電子書籍リーダー、MP1(media player 1:メディアプレイヤー1)、MP3(media player 3:メディアプレイヤー3)、MP4(media player 4:メディアプレイヤー4)、ラップトップ型ポータブルコンピュータ及びデスクトップ型コンピュータのうちの少なくとも1つを含む。
【0024】
視聴者端末140(すなわち、上記の第3の端末140)には、ライブ配信画面の再生機能をサポートするクライアントがインストールされ実行される。上記の第1の端末110及び第2の端末130に対応する仮想シーンのライブ配信画面を、サーバクラスタ120を介して視聴者端末140に伝送して再生表示させることができる。
【0025】
図1に2つの端末のみが示されているが、異なる実施例では、サーバクラスタ120にアクセスできる他の端末が複数存在する。任意選択で、開発者に対応する端末である1つ又は複数の端末がさらに存在してもよく、開発者に対応する端末には、仮想シーンをサポートするクライアントの開発及び編集プラットフォームがインストールされており、開発者は、端末上でクライアントを編集し更新し、更新されたクライアントインストールパッケージを有線又は無線ネットワークを介してサーバクラスタ120に伝送することができ、第1の端末110及び第2の端末130は、サーバクラスタ120からクライアントインストールパッケージをダウンロードしてクライアントの更新を実現することができる。
【0026】
第1の端末110、第2の端末130及び第3の端末140は、無線ネットワーク又は有線ネットワークを介してサーバクラスタ120に接続される。
【0027】
サーバクラスタ120は、1つのサーバ、複数のサーバ、クラウドコンピューティングプラットフォーム、及び仮想化センターのうちの少なくとも1つを含む。サーバクラスタ120は、3次元仮想シーンをサポートするクライアントにバックグラウンドサービスを提供する。任意選択で、サーバクラスタ120は主要なコンピューティング作業を担い、端末は副次的なコンピューティング作業を担うか、又は、サーバクラスタ120は副次的なコンピューティング作業を担い、端末は主要なコンピューティング作業を担うか、又は、サーバクラスタ120及び端末は分散コンピューティングアーキテクチャによって協働コンピューティングを行うようにしてもよい。
【0028】
1つの概略的な例では、サーバクラスタ120は、サーバ121とサーバ126とを含み、サーバ121は、プロセッサ122と、ユーザアカウントデータベース123と、対戦サービスモジュール124と、ユーザ向け入出力インタフェース(Input/Output Interface、I/Oインタフェース)125とを含む。プロセッサ122は、サーバ121に記憶された命令をロードし、ユーザアカウントデータベース123及び対戦サービスモジュール124におけるデータを処理する。ユーザアカウントデータベース123は例えば、ユーザアカウントのアバター、ユーザアカウントのニックネーム、ユーザアカウントの戦闘力指数、ユーザアカウントが存在するサービスエリアなど、第1の端末110、第2の端末130及び視聴者端末140が使用するユーザアカウントのデータを記憶する。対戦サービスモジュール124は、例えば、1V1の戦い、3V3の戦い、5V5の戦いなど、ユーザによる対戦のための複数の対戦ルームを提供する。ユーザ向けのI/Oインタフェース125は、無線ネットワーク又は有線ネットワークを介して、第1の端末110及び/又は第2の端末130と通信を確立してデータを交換する。任意選択で、サーバ126内にインテリジェント信号モジュール127が設けられてもよく、このインテリジェント信号モジュール127は、第1の端末110及び第2の端末130に対応するゲームシーンのライブ配信画面を、一定の信号パターンで視聴者端末140に送信して表示及び再生させることができ、ライブ配信画面の信号パターンは、インテリジェント信号モジュール127によってインテリジェントに決定されてもよい。
【0029】
関連技術では、ライブ配信アプリケーションプログラム又はゲームアプリケーションプログラムは、ゲームのライブ配信サービスを提供する際に、通常、ユーザが選択するための複数の異なるゲーム視点を提供することができる。それに応じて、ユーザがある視点を手動で選択した後、ライブ配信アプリケーションプログラム又はゲームアプリケーションプログラムは、ユーザが選択した視点に切り替えてライブ配信画面を表示する。
【0030】
しかしながら、上記の態様では、ユーザは、毎回、選択した1つの視点のライブ配信画面にのみ注目することができる。ユーザが複数の視点のライブ配信画面に注目したい場合、複数の視点間で頻繁に切り替える必要があり、ユーザの操作は比較的煩雑であり、ユーザが異なる視点のライブ配信画面を視聴する際のヒューマンマシンインタラクション効率に影響する。また、サーバは、ユーザの操作に従って異なる視点のライブ配信画面を頻繁に提供する必要があり、サーバの動作には大きな負荷がかかる。
【0031】
図2は、本願の1つの例示的な実施例で提供されるライブ配信画面表示方法(ライブ配信画面データ処理方法ともいう)のフローチャートを示している。このライブ配信画面表示方法は、コンピュータ機器によって実行されることができ、このコンピュータ機器は端末であってもよい。例えば、この端末は、上記の
図1に示すシステムにおける視聴者端末140であってもよい。
図2に示すように、このライブ配信画面表示方法は、以下のステップ201~203を含む。
【0032】
ステップ201では、仮想シーンのライブ配信インタフェースを表示し、仮想シーンには、n個の視点のライブ配信画面が対応しており、nは2以上で、かつnは整数である。
【0033】
本願の実施例では、上記のライブ配信インタフェースは、ある1つのライブ配信チャンネル又はインターネットライブ配信ルームのライブ配信インタフェースであってもよく、このライブ配信チャンネル又はインターネットライブ配信ルームには複数の視点のライブ配信画面が同時に対応している。複数の視点のライブ配信画面は、上記のn個の視点のライブ配信画面のことである。あるいは、n個の視点のライブ配信画面は、複数の視点のライブ配信画面であり、少なくとも2つの視点のライブ配信画面である。
【0034】
つまり、上記のn個の視点のライブ配信画面は、単一のライブ配信チャンネル又はインターネットライブ配信ルームで提供されるライブ配信画面であってもよい。ここで、このライブ配信チャンネル又はインターネットライブ配信ルームにアクセスした各端末は、同時刻にそれぞれ異なる視点のライブ配信画面を再生することができる。
【0035】
ステップ202では、ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示し、第1視点は、n個の視点のうちの1つである。
【0036】
本願の実施例では、ライブ配信インタフェースに単一視点のライブ配信画面が表示される場合、このライブ配信インタフェースには、多視点のライブ配信画面を画面分割表示するようにトリガするための画面分割コントロールがさらに表示されてもよい。ここで、単一視点のライブ配信画面は、上記の第1視点のライブ配信画面のことである。本願の実施例では、第1視点のライブ配信画面データを取得し、第1視点のライブ配信画面データに従って、ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示することができる。
【0037】
例示的には、画面分割表示とは、コンピュータ機器のスクリーン(画面)を複数のビュー領域に分け、コンピュータ機器を使用するユーザが複数のビュー領域に表示された各視点のライブ配信画面を同時に視聴できるように、各ビュー領域に少なくとも1つの視点のライブ配信画面を表示することを意味する。例えば、各ビュー領域には、1つの視点のライブ配信画面が表示され、また、例えば、各ビュー領域には、少なくとも2つの視点のライブ配信画面が表示され、さらに、例えば、一部のビュー領域には、1つの視点のライブ配信画面が表示され、他のビュー領域には、少なくとも2つの視点のライブ配信画面が表示されるが、本願の実施例は、これを限定するものではない。コンピュータ機器のスクリーンを分けることは、コンピュータ機器のスクリーンに表示されるライブ配信インタフェースを分けることを意味してもよいことが理解されるであろう。
【0038】
ステップ203では、画面分割コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおいてn個の視点のうちのm個の視点のライブ配信画面を画面分割表示し、2≦m≦nで、かつmは整数である。
【0039】
本願の実施例では、ライブ配信インタフェースに単一視点のライブ配信画面が表示され、かつ画面分割コントロールに対するユーザのトリガ操作が受け付けられた場合、端末は、ライブ配信インタフェースにおいて複数の視点のライブ配信画面を画面分割表示することができる。画面分割表示される複数の視点のライブ配信画面は、上記のm個の視点のライブ配信画面のことである。あるいは、m個の視点のライブ配信画面は、複数の視点のライブ配信画面であり、少なくとも2つの視点のライブ配信画面である。m=nの場合、m個の視点のライブ配信画面は、n個の視点のライブ配信画面のことであり、あるいは、m個の視点のライブ配信画面は、n個の視点のライブ配信画面のうちの全ての視点のライブ配信画面である。m<nの場合、m個の視点のライブ配信画面は、n個の視点のライブ配信画面のうちの一部の視点のライブ配信画面である。本願の実施例では、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信インタフェースにおいてm個の視点のライブ配信画面を画面分割表示することができる。
【0040】
上記のステップ202における画面分割表示の定義から分かるように、ライブ配信インタフェースにおいてn個の視点のうちのm個の視点のライブ配信画面を画面分割表示するステップは、ライブ配信インタフェースを複数のビュー領域に分け、各ビュー領域にm個の視点のライブ配信画面のうちの少なくとも1つの視点のライブ配信画面を表示し、複数のビュー領域に合計m個の視点のライブ配信画面を表示するステップを含む。例えば、各ビュー領域に1つの視点のライブ配信画面を表示する場合、mの値がビュー領域の数と同じであるため、ライブ配信インタフェースをm個のビュー領域に分け、各ビュー領域にm個の視点のライブ配信画面のうちの1つの視点のライブ配信画面を表示し、異なるビュー領域に異なる視点のライブ配信画面を表示することにより、m個の視点領域に合計m個の視点のライブ配信画面を表示することが可能となる。また、例えば、複数のビュー領域のうちの少なくとも1つのビュー領域に少なくとも2つの視点のライブ配信画面を表示する場合、mの値は、ビュー領域の数よりも大きいが、ここではこれ以上例を挙げて説明しない。
【0041】
上記の態様によれば、ユーザが仮想シーンのライブ配信を視聴し、かつ2つ以上の視点のライブ配信画面に同時に注目している場合、端末は、ユーザが注目している2つ以上の視点のライブ配信画面をライブ配信インタフェースに同時に表示することができ、ユーザは注目している複数の視点間で頻繁に切り替える必要がなく、ユーザは画面分割コントロールに対してトリガ操作を行うだけで済むため、ユーザによるライブ配信視点の切替操作を大幅に減らし、ヒューマンマシンインタラクション中にユーザが行う必要がある操作の数と種類を簡略化し、ヒューマンマシンインタラクション効率を向上させる。
【0042】
サーバは、端末に2つ以上の視点のライブ配信画面を継続的に提供すればよく、ユーザの切替操作に従って、端末に提供するライブ配信画面の視点を常に切り替える必要がなく、あるいは、端末に提供するライブ配信画面を、異なる視点のライブ配信画面間で頻繁に切り替える必要がなく、サーバの動作負荷を軽減する。それに応じて、コンピュータ機器(例えば、端末)は、第1視点のライブ配信画面データを取得した後、m個の視点のライブ配信画面データを取得し続ければよく、異なる視点のライブ配信画面データを常に取得する必要がなくなるため、コンピュータ機器がライブ配信画面データを処理するための効率が高くなり、オーバーヘッドが少ない。
【0043】
上述のように、本願の実施例に示される態様では、複数の視点のライブ配信画面をサポートする仮想シーンについて、端末がライブ配信インタフェースにおいてそのうちの1つの視点のライブ配信画面を表示している際に、ユーザは、ライブ配信インタフェースにおける画面分割コントロールをトリガすることにより、端末がライブ配信インタフェースにおいて2つ以上の視点のライブ配信画面を分割画面で同時に表示するようにすることができ、それによってユーザが複数の視点に同時に注目するニーズを満たし、ユーザの操作を減らし、データ処理効率を向上させ、ユーザの操作を簡略化することができ、そのうえ、ヒューマンマシンインタラクション効率を向上させ、サーバがライブ配信画面を提供するための動作負荷を軽減する。
【0044】
図3は、本願の1つの例示的な実施例で提供されるライブ配信画面表示方法(ライブ配信画面データ処理方法ともいう)のフローチャートを示している。このライブ配信画面表示方法は、コンピュータ機器によって実行されることができ、このコンピュータ機器は端末であってもよい。例えば、この端末は、上記の
図1に示すシステムにおける視聴者端末140であってもよい。
図3に示すように、このライブ配信画面表示方法は、以下のステップ301~307を含む。
【0045】
ステップ301では、仮想シーンのライブ配信インタフェースを表示し、仮想シーンには、n個の視点のライブ配信画面が対応しており、nは2以上で、かつnは整数である。
【0046】
本願の実施例では、ユーザが端末を介して仮想シーンのライブ配信アプリケーションを開くと、仮想シーンのライブ配信チャンネル/ライブ配信ルームがクリックされることで、このライブ配信アプリケーションを介して仮想シーンのライブ配信インタフェースが表示されることができる。
【0047】
ここで、上記ライブ配信アプリケーションは、ライブ配信アプリケーションプログラム(例えば、ライブ配信プラットフォームアプリケーションプログラム)であってもよく、又は、上記ライブ配信アプリケーションは、ライブ配信機能をサポートする仮想シーンアプリケーションプログラム(例えば、ゲームアプリケーションプログラム)であってもよい。
【0048】
ステップ302では、ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示し、第1視点は、n個の視点のうちの1つである。
【0049】
本願の実施例では、第1視点のライブ配信画面データを取得し、第1視点のライブ配信画面データに従って、ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示することができる。1つの可能な実現形態では、ライブ配信インタフェースに単一視点のライブ配信画面が表示される場合、ライブ配信インタフェースには、端末がライブ配信インタフェースを介して複数の視点のライブ配信画面を画面分割表示するようにトリガするための画面分割コントロールがさらに表示されてもよい。
【0050】
ステップ303では、画面分割コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおいてn個の視点のうちのm個の視点のライブ配信画面を画面分割表示し、2≦m≦nで、かつmは整数である。
【0051】
本願の実施例では、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信インタフェースにおいてm個の視点のライブ配信画面を画面分割表示することができる。
【0052】
例えば、
図4は、本願の実施例に係る画面分割効果の概略図を示している。
図4に示すように、端末は、ライブ配信インタフェース41において、それぞれ異なるゲームプレイヤーの視点に対応するライブ配信画面42及びライブ配信画面43を画面分割表示する。
【0053】
本願の実施例では、ユーザが画面分割コントロールをトリガした後に表示されるm個の視点の選択態様は、様々なものを含むことができ、以下、そのいくつかを説明する。
【0054】
1つの可能な実現形態では、端末は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、第2視点選択インタフェースを表示し、第2視点選択インタフェースには、n個の視点にそれぞれ対応する選択コントロールが含まれている。端末は、n個の視点のうちのm個の視点の選択コントロールに対する選択操作に基づいて、ライブ配信インタフェースにおいてm個の視点のライブ配信画面を画面分割表示する。n個の視点にそれぞれ対応する選択コントロールは、第2の選択コントロールとも呼ばれ、つまり、第2視点選択インタフェースには、n個の第2の選択コントロールが含まれ、端末は、n個の視点のうちのm個の視点の第2の選択コントロールに対する選択操作に基づいて、ライブ配信インタフェースにおいてm個の視点のライブ配信画面を画面分割表示する。言い換えれば、端末は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、第2視点選択インタフェースを表示し、第2視点選択インタフェースには、n個の視点にそれぞれ対応する第2の選択コントロールが含まれており、また、n個の視点のうちのm個の視点の第2の選択コントロールに対する選択操作に基づいて、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信インタフェースにおいてm個の視点のライブ配信画面を画面分割表示する。
【0055】
本願の実施例の1つの例示的な態様では、ユーザが画面分割コントロールをトリガした後、端末は、1つの視点選択インタフェースを介して、n個の視点のそれぞれに対応する選択コントロールをユーザに表示することができ、ユーザは、そのうちのm個の視点に対応する選択コントロールを選択し、確認クリックすることができ、その後、端末は、ユーザが選択したm個の選択コントロールに対応する視点のライブ配信画面を画面分割表示する。例えば、nの値を5、mの値を2とすると、ユーザが画面分割コントロールをトリガした後、端末は、1つの視点選択インタフェースを介して、5つの視点のそれぞれに対応する第2の選択コントロールをユーザに表示することができ、ユーザは、そのうちの2つの視点に対応する第2の選択コントロールを選択し、確認クリックすることができ、ユーザがそのうちの2つの視点に対応する第2の選択コントロールを確認クリックすると、端末はこれら2つの視点のライブ配信画面を画面分割表示することになる。
【0056】
1つの可能な実現形態では、端末は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおいてn個の視点のライブ配信画面のうち、ライブ配信インタフェースに最近表示されたm個の視点のライブ配信画面を画面分割表示する。すなわち、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信画面においてn個の視点のライブ配信画面のうち、ライブ配信インタフェースに最近表示されたm個の視点のライブ配信画面を画面分割表示する。
【0057】
本願の1つの例示的な態様では、ユーザが画面分割コントロールをトリガした後、端末は、画面分割表示すべきm個の視点のライブ配信画面を自ら決定することもでき、例えば、端末は、端末において最近表示されたm個の視点のライブ配信画面を決定し、最近表示されたm個の視点のライブ配信画面を画面分割表示することができる。
【0058】
1つの可能な実現形態では、端末は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおいてn個の視点のうちのデフォルトのm個の視点のライブ配信画面を画面分割表示する。つまり、端末は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信インタフェースにおいてn個の視点のうちのデフォルトのm個の視点のライブ配信画面を画面分割表示する。
【0059】
本願の1つの例示的な態様では、ユーザが画面分割コントロールをトリガした後、端末は、デフォルトのm個の視点のライブ配信画面をライブ配信インタフェースに画面分割表示することもでき、例えば、端末は、自由視点、及び、特定の役割(例えば、ミッドレーン対抗)を持つ仮想オブジェクトに対応する視点のライブ配信画面をデフォルトで画面分割表示することができる。
【0060】
1つの可能な実現形態では、端末は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のライブ配信画面それぞれの視聴者数を取得し、視聴者数が多い順に、又は少ない順にn個の視点を並べ、ライブ配信インタフェースにおいて上位m個の視点のライブ配信画面を画面分割表示する。言い換えれば、端末は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のライブ配信画面それぞれの視聴者数を取得し、視聴者数が多い順に、又は少ない順にn個の視点を並べ、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信インタフェースにおいて上位m個の視点のライブ配信画面を画面分割表示する。
【0061】
本願の1つの例示的な態様では、ユーザが画面分割コントロールをトリガした後、端末は、視聴者数が多い順に、現在人気になるm個の視点のライブ配信画面を画面分割表示し、すなわち、現在視聴者数が多いm個の視点のライブ配信画面を画面分割表示し、これにより、ライブ配信画面の表示効果を向上させる。
【0062】
あるいは、ユーザが画面分割コントロールをトリガした後、端末は、視聴者数が少ない順に、現在視聴者数が少ないm個の視点のライブ配信画面を画面分割表示し、これにより、各ライブ配信ビデオストリームのバランスをとり、画面の固まりを軽減する。
【0063】
ここで、ライブ配信インタフェースには、m個の視点にそれぞれ対応するm個の視点切替コントロールが含まれている。
【0064】
ステップ304では、ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおける第2視点のライブ配信画面を第3視点のライブ配信画面に切り替える。
【0065】
ここで、端末は、ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第3視点のライブ配信画面データを取得し、第3視点のライブ配信画面データに従って、ライブ配信インタフェースにおける第2視点のライブ配信画面を第3視点のライブ配信画面に切り替える。第2視点は、m個の視点のうちのいずれか1つであり、ターゲット視点切替コントロールは、m個の視点切替コントロールのうち第2視点に対応する視点切替コントロールであり、第3視点は、n個の視点のうち、m個の視点を除くいずれか1つである。
【0066】
本願の実施例では、画面分割表示する場合、画面分割表示される各ライブ配信画面は、1つの視点切替コントロールに対応することができ、ユーザは、あるライブ配信画面の視点切替コントロールをトリガすることで、そのライブ配信画面を別の視点のライブ配信画面に切り替えることができ、それによって、多視点画面分割表示の柔軟性を向上させる。
【0067】
例えば、
図4を参照すると、ライブ配信画面42及びライブ配信画面43の右下には、それぞれ切替コントロール42a及び切替コントロール43aが表示されており、ユーザは、切替コントロール42aをクリックすると、ライブ配信画面42を、ライブ配信画面42及びライブ配信画面43以外の他の視点のライブ配信画面に切り替えることができる。この例では、第2視点は、ライブ配信画面42に対応する視点であり、ターゲット視点切替コントロールは、切替コントロール42aであり、第3視点は、ライブ配信画面42及びライブ配信画面43以外の他の視点である。
【0068】
本願の実施例では、ユーザは、第3視点を自ら選択する必要がなく、第2視点のライブ配信画面を切り替える必要がある時に、n個の視点のうちm個の視点を除く他の視点から、1つ又は複数の視点をランダムに選択して第3視点とすることにより、ライブ配信インタフェースに表示されたライブ配信画面を、第2視点のライブ配信画面からこの第3視点のライブ配信画面に切り替えることができる。
【0069】
あるいは、ユーザは、第3視点を自ら選択することもできる。1つの可能な実現形態では、端末は、ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第1視点選択インタフェースを表示し、第1視点選択インタフェースには、(n-m)個の第3視点にそれぞれ対応する(n-m)個の第1の選択コントロールが含まれている。また、ターゲット選択コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおける第2視点のライブ配信画面を第3視点のライブ配信画面に切り替え、ここで、ターゲット選択コントロールは、(n-m)個の第1の選択コントロールのうちのいずれか1つであり、第3視点のライブ配信画面は、ターゲット選択コントロールに対応する第3視点のライブ配信画面である。例えば、端末は、ターゲット選択コントロールへのトリガ操作を受け付けたことに応じて、第3視点のライブ配信画面データを取得し、第3視点のライブ配信画面データに従って、ライブ配信インタフェースにおける第2視点のライブ配信画面を第3視点のライブ配信画面に切り替える。
【0070】
本願の実施例では、第3視点がn個の視点のうちm個の視点を除く視点であるため、第3視点の数は、(n-m)個であり、各第3視点が1つの第1の選択コントロールに対応しているため、第1の選択コントロールの数も(n-m)個である。画面分割の場合、ユーザがある視点のライブ配信画面を切り替える際に、端末は、1つの視点選択インタフェースを介して、任意選択の第3視点に対応する第1の選択コントロールを表示することができ、ユーザが第1の選択コントロールを選択することにより、切り替えるターゲット視点を選択する。(n-m)個の第1の選択コントロールのうち、ユーザが選択した第1の選択コントロールがターゲット選択コントロールであるため、第3視点のライブ配信画面は、そのターゲット選択コントロールに対応するライブ配信画面である。
【0071】
1つの可能な実現形態では、端末は、ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、仮想シーンのサムネイル地図を背景とする第1視点選択インタフェースを表示し、(n-m)個の第1の選択コントロールのサムネイル地図における対応する位置を取得し、(n-m)個の第1の選択コントロールのサムネイル地図における対応する位置に基づいて、第1視点選択インタフェースにおいて(n-m)個の第1の選択コントロールを表示する。
【0072】
本願の実施例では、ユーザが自分の見たい視点を正確に選択しやすいように、端末は、視点選択インタフェースにおいてサムネイル地図を表示し、サムネイル地図における位置に基づいて第1の選択コントロールを表示することができ、それによって、ユーザは、自分の注目している視点に対応する第1の選択コントロールをより直感的に探すことができる。ここで、第1の選択コントロールのサムネイル地図における位置は、例えば、サムネイル地図におけるホットな位置など、あるデフォルトの位置であってもよく、ホットな位置は、実際のニーズに応じて指定されてもよいし、仮想オブジェクトの出現頻度が頻度閾値よりも高い位置であってもよい。あるいは、第1の選択コントロールには仮想オブジェクトが対応していてもよく、すると、第1の選択コントロールのサムネイル地図における位置は、仮想オブジェクトに基づいて決定されてもよく、以下で詳細に説明する。
【0073】
1つの可能な実現形態では、いずれか1つの第1の選択コントロールについて、当該いずれか1つの第1の選択コントロールに対応する仮想オブジェクトの仮想シーンにおける役割と、仮想シーンにおける所属陣営とのうちの少なくとも一方に基づいて、当該いずれか1つの第1の選択コントロールのサムネイル地図における位置を取得する。例えば、端末は、選択コントロールに対応する仮想オブジェクトの仮想シーンにおける役割と、選択コントロールに対応する仮想オブジェクトの仮想シーンにおける所属陣営とに基づいて、選択コントロールのサムネイル地図における位置を取得する。
【0074】
本願の実施例では、仮想シーンにおける異なる役割及び異なる陣営の仮想オブジェクトの位置は、通常異なるものであり、例えば、MOBAゲームシーンでは、仮想オブジェクトの役割は、レーンとして理解されることができ、例えば、ミッドレーン対抗、トップレーン対抗、ボットレーン対抗、ジャングラーなどを含む。一人称シューティングゲームでは、仮想オブジェクトの役割は、突撃兵、衛生兵、狙撃兵などを含むことができる。MOBAゲームを例にとると、ミッドレーンの仮想オブジェクトは通常、地図のミッドレーンに位置し、ジャングラーの仮想オブジェクトは通常、自陣営のジャングルに位置する、などである。第1視点選択インタフェースを表示する際に、端末は、視点に対応する仮想オブジェクトの役割と陣営とのうちの少なくとも一方に基づいて、その視点の第1の選択コントロールを、仮想地図における対応する位置に設定することができ、これにより、ユーザは、第1の選択コントロールの位置から、その視点がどの陣営の、どの役割の仮想オブジェクトの視点であるかを迅速に判断することができ、ユーザは、自分が注目している視点を迅速に選別することができる。
【0075】
1つの可能な実現形態では、いずれか1つの第1の選択コントロールについて、端末は、当該いずれか1つの第1の選択コントロールに対応する仮想オブジェクトの仮想シーンにおけるリアルタイム位置に基づいて、当該いずれか1つの第1の選択コントロールのサムネイル地図における位置を取得する。
【0076】
本願の実施例では、端末は、第1視点選択インタフェースを表示する際に、仮想オブジェクトの仮想シーンにおけるリアルタイム位置に従って、この仮想オブジェクトに対応する視点の第1の選択コントロールを、サムネイル地図における対応する位置に設定することもでき、第1の選択コントロールのサムネイル地図における位置は、仮想オブジェクトの移動に追従して移動してもよい。これにより、ユーザは、サムネイル地図における各第1の選択コントロールの分布状況から、素晴らしいショットが出現する可能性のある視点を迅速に見つけ出すことができる。
【0077】
1つの可能な実現形態では、いずれか1つの第1の選択コントロールに仮想オブジェクトが対応している場合、いずれか1つの第1の選択コントロールには、当該いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのキャラクタアバター又はユーザアバターが含まれている。
【0078】
本願の実施例では、ユーザが自分の注目している第1の選択コントロールを正確に決定しやすいように、端末は、第1視点選択インタフェースを表示する際に、各仮想オブジェクトに対応する視点の第1の選択コントロールに仮想オブジェクトのキャラクタアバター又はユーザアバターを表示することもでき、これにより、ユーザは、自分の注目しているプレイヤー又はゲームキャラクタ(例えば、ある特定のヒーロー)を迅速に探すことができる。ここで、仮想オブジェクトのキャラクタアバターは、ゲームキャラクタを探すために使用され、ゲームキャラクタは、仮想シーンにおける仮想オブジェクトであってもよい。ユーザアバターは、プレイヤーを探すために使用され、このユーザアバターはプレイヤーアバターであり、プレイヤーとは、仮想オブジェクトを制御する他のユーザを指す。
【0079】
1つの可能な実現形態では、第1視点選択インタフェースには、アバター切替コントロールがさらに含まれており、端末は、いずれか1つの第1の選択コントロールについて、アバター切替コントロールへのトリガ操作を受け付けたことに応じて、いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのキャラクタアバターをユーザアバターに切り替えるか、又は、いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのユーザアバターをキャラクタアバターに切り替える。
【0080】
本願の実施例では、端末は、第1視点選択インタフェースにおいてアバター切替コントロールを設定することもでき、これにより、ユーザは、キャラクタアバター又はユーザアバターによって、自分の関心を持つ選択コントロールを決定することができ、アバター表示の柔軟性を向上させる。
【0081】
ステップ305では、ライブ配信インタフェースで行われる画面分割サイズ調整操作を受け付けたことに応じて、m個の視点のライブ配信画面の表示サイズを調整する。
【0082】
本願の実施例では、複数の視点のライブ配信画面を画面分割表示する場合、ユーザは、当該複数の視点については重点があるかもしれず、例えば、ユーザは、複数の視点のうちの1つの視点のライブ配信画面に強く注目するかもしれない。このような場合、画面分割表示の効果を向上させるために、端末は、ユーザが行った画面分割サイズ調整操作を受け付けて、画面分割表示される各視点のライブ配信画面の表示サイズを調整し、例えば、ユーザ端末が注目している視点のライブ配信画面を拡大し、ユーザがあまり注目していない視点のライブ配信画面を縮小することができる。
【0083】
1つの可能な実現形態では、m個の視点は、第4視点及び第5視点を含み、第4視点のライブ配信画面と第5視点のライブ配信画面にはサイズ調整コントロールが対応している。端末は、サイズ調整コントロールへのドラッグ操作を受け付けたことに応じて、ドラッグ操作のドラッグ方向及びドラッグ距離に基づいて、第4視点のライブ配信画面の表示サイズ及び第5視点のライブ配信画面の表示サイズを調整する。本願の実施例は、このサイズ調整コントロールの位置を限定するものではなく、このサイズ調整コントロールは、第4視点のライブ配信画面と第5視点のライブ配信画面との間に位置してもよいし、他の位置に位置してもよく、ユーザは、実際のニーズに応じて、このサイズ調整コントロールの位置を変更してもよい。
【0084】
本願の実施例では、端末は、2つの視点のライブ配信画面の間に、ドラッグ操作を受け付けることができるサイズ調整コントロールを設けてもよく、ユーザは、2つの視点のライブ配信画面のサイズを調整したい時に、このサイズ調整コントロールをドラッグすることができ、端末は、これら2つの視点のライブ配信画面の表示サイズを調整する。例えば、第4視点のライブ配信画面と第5視点のライブ配信画面との間のサイズ調整コントロールについて、ユーザがこのサイズ調整コントロールを第4視点のライブ配信画面へドラッグすると、端末は、第5視点のライブ配信画面を拡大し、第4視点のライブ配信画面を縮小することができる。
【0085】
もちろん、端末は、3つ以上の視点のライブ配信画面を表示することもできる。このような場合、まず、3つ以上の視点のライブ配信画面から、サイズ調整が必要なライブ配信画面がユーザによって選択され、ユーザの選択操作が検出された後、選択されたライブ配信画面に対するサイズ調整コントロールが表示され、このサイズ調整コントロールに対するユーザの操作に従って、選択されたライブ配信画面のサイズが変更される。3つ以上のライブ配信画面のうち、選択されたライブ配信画面を除く他のライブ配信画面のサイズについては、端末が適応的に自動で調整することができ、ユーザの操作手順を減らす。
【0086】
ステップ306では、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離を取得し、第1の仮想オブジェクトは、m個の視点のうちの第6視点に対応し、第2の仮想オブジェクトは、m個の視点のうちの第7視点に対応している。
【0087】
本願の実施例では、n個の視点は、仮想シーンにおける少なくとも2つの仮想オブジェクトにそれぞれ対応する視点を含む。
【0088】
ステップ307では、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、第6視点のライブ配信画面及び第7視点のライブ配信画面を統合して表示する。
【0089】
本願の実施例では、n個の視点には、仮想オブジェクトに対応する視点が存在する場合、仮想シーンにおける2つの仮想オブジェクトの位置が近ければ、これら2つの仮想オブジェクトの視点も近いものになり、このとき、これら2つの視点のライブ配信画面がライブ配信インタフェースに画面分割表示されると、2つの視点のライブ配信画面は近いものになり、かつ表示サイズが共に比較的小さくなってしまい、このとき、ライブ配信画面の表示効果に影響する。例示的には、表示サイズが共に比較的小さいということは、画面分割表示を行わない場合の単一視点のライブ配信画面のサイズに比べて、画面分割表示を行う場合の2つの視点のうちの各視点のライブ配信画面のサイズがいずれも小さいことを意味する。その上、2つの視点のライブ配信画面が近いものになるため、ユーザはそのうちの一方の視点のライブ配信画面に注目すればよい。そこで、小さいサイズで画面分割表示を行い続けるというよりむしろ大きいサイズで画面分割表示を行わないことを選択した方がいいため、異なる視点のライブ配信画面を統合することができる。これに対して、本願の実施例では、2つの仮想オブジェクトにそれぞれ対応する視点のライブ配信画面を画面分割表示する際に、端末は、これら2つの視点のライブ配信画面を一時的に1つのライブ配信画面に統合して表示することができ、統合後のライブ配信画面は、単一視点のライブ配信画面であり、かつこの単一視点のライブ配信画面の表示領域は、元の2つの視点のライブ配信画面の表示領域であるか、又は、元の2つの視点のライブ配信画面の表示領域よりも大きい(すなわち、ライブ配信画面の面積が大きくなり、ライブ配信画面の面積は、上記のライブ配信画面の表示サイズと理解してもよい)。
【0090】
ここで、上記統合後のライブ配信画面の視点は、第6視点又は第7視点のうちの1つであってもよい。
【0091】
1つの可能な実現形態では、n個の視点は、自由視点をさらに含み、自由視点は、仮想シーンにおける仮想オブジェクトにバインドされていない視点である。端末は、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、第6視点のライブ配信画面及び第7視点のライブ配信画面を自由視点のライブ配信画面として統合して表示し、自由視点の視点位置は、第1の仮想オブジェクトと第2の仮想オブジェクトとを結ぶ線の中点に位置している。例示的には、端末は、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、自由視点のライブ配信画面データを取得し、そして、自由視点のライブ配信画面データに従って、第6視点のライブ配信画面及び第7視点のライブ配信画面を自由視点のライブ配信画面として統合して表示することができる。
【0092】
ここで、上記の自由視点とは、視点位置が仮想オブジェクトの移動に伴って移動することなく、ユーザが自由に調整可能な視点のことである。
【0093】
本願の実施例の1つの例示的な態様では、上記の統合後のライブ配信画面の視点は、第6視点と第7視点との間の視点であってもよく、この視点は、自由視点によって実現されてもよい。具体的には、第6視点のライブ配信画面及び第7視点のライブ配信画面を統合して表示する際に、端末は、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとを結ぶ線の中点位置を決定し、この中点位置を自由視点の視点位置として設定し、そして、元の第6視点のライブ配信画面及び第7視点のライブ配信画面の表示位置に、この自由視点のライブ配信画面を表示することができる。この中点位置を自由視点の視点位置として設定することにより、画面分割表示から統合表示に移行する過程で、ライブ配信画面を滑らかに変化させることができ、ライブ配信画面の表示効果を向上させる。
【0094】
1つの可能な実現形態では、自由視点のライブ配信画面を、統合された第6視点のライブ配信画面及び第7視点のライブ配信画面の代替ライブ配信画面として使用する場合、第1の仮想オブジェクトと第2の仮想オブジェクトとの間には距離があるため、このとき、ユーザは仮想シーンにおけるより広い面積の領域を観察する必要があり、そして、これら2つの仮想オブジェクト間の距離が遠いほど、ユーザが観察する必要があるシーン領域も大きくなり、これに対して、端末は自由視点の視点高さを調整することができる。例えば、第1の仮想オブジェクトと第2の仮想オブジェクトとの間の距離が大きいほど、視点高さを高く設定することができ、それに応じて、ライブ配信画面におけるカバーできるシーン領域も大きくなる。その逆に、第1の仮想オブジェクトと第2の仮想オブジェクトとの間の距離が小さいほど、ユーザが観察する必要があるシーン領域も小さくなり、このとき、視点高さを低く設定することができる。
【0095】
任意選択で、第6視点のライブ配信画面及び第7視点のライブ配信画面を統合して表示した後、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも大きい場合、端末は、第6視点のライブ配信画面及び第7視点のライブ配信画面の画面分割表示を再開してもよい。例えば、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも大きいことに応じて、第6視点のライブ配信画面データ及び第7視点のライブ配信画面データを取得し、第6視点のライブ配信画面データ及び第7視点のライブ配信画面データに従って、第6視点のライブ配信画面及び第7視点のライブ配信画面の画面分割表示を再開する。このようにして、画面分割表示と統合表示との柔軟な切り替えを自動で実現することができ、よりインテリジェントになり、ユーザがライブ配信画面を視聴する体験を向上させる。
【0096】
1つの可能な実現形態では、画面分割表示している場合、端末は、ユーザからの画面分割終了操作を受け付け、ライブ配信インタフェースにおいて第8視点のライブ配信画面を表示することができる。例えば、画面分割終了操作を受け付けたことに応じて、第8視点のライブ配信画面データを取得し、第8視点のライブ配信画面データに従って、ライブ配信インタフェースにおいて第8視点のライブ配信画面を表示する。このようにして、ユーザは、実際のニーズに応じて、画面分割表示と統合表示とを切り替えることができ、ユーザの好みに合わせやすくなる。
【0097】
1つの可能な実現形態では、上記第8視点のライブ配信画面は、m個の視点のライブ配信画面のうち、指定された位置にあるライブ配信画面、例えば、最も左側に位置するライブ配信画面、又は最も右側に位置するライブ配信画面であってもよい。
【0098】
あるいは、上記の第8視点のライブ配信画面は、m個の視点のライブ配信画面のうち、表示サイズが最も大きいライブ配信画面であってもよい。
【0099】
例えば、ユーザは、単一のライブ配信画面を全スクリーンで視聴している場合、「多視点」ボタンをタップすることで、分割画面に入って多視点のライブ配信画面を同時に見る。分割画面に入った後、右上の「多視点を終了」ボタンをタップすると、単一のライブ配信画面を全スクリーンで視聴することに戻る。
【0100】
上述のように、本願の実施例に示される態様では、複数の視点のライブ配信画面をサポートする仮想シーンについて、端末がライブ配信インタフェースにおいてそのうちの1つの視点のライブ配信画面を表示している際に、ユーザは、ライブ配信インタフェースにおける画面分割コントロールをトリガすることにより、端末がライブ配信インタフェースにおいて2つ以上の視点のライブ配信画面を分割画面で同時に表示するようにすることができ、それによって、ユーザが複数の視点に同時に注目している時に、ユーザの操作を減らし、データ処理効率を向上させ、ユーザの操作を簡略化することができ、そのうえ、ヒューマンマシンインタラクション効率を向上させ、サーバがライブ配信画面を提供するための動作負荷を軽減する。
【0101】
仮想シーンがMOBAゲームシーンであり、かつm=2であることを例にとると、
図5~
図10を参照されたい。
図5~
図10は、本願の1つの例示的な実施例で提供されるライブ配信の画面分割のインタフェース表示効果図を示している。
【0102】
図5に示すように、端末は、現在のライブ配信チャンネル/ライブ配信ルームに多視点のライブ配信ビデオストリームが存在する場合には、「多視点」コントロール51を表示し、多視点のライブ配信ビデオストリームが存在しない場合には、このコントロールを表示しない。この「多視点」コントロールは、3秒以内に操作を受け付けない場合に、非表示状態になることができる。
【0103】
ユーザが「多視点」コントロール51をクリックすると、
図6に示すように、端末は、2つの視点のライブ配信画面を画面分割表示することができる。各視点のライブ配信画面の右下には「切り替え」コントロール61が存在し、ユーザがこの「切り替え」コントロール61をクリックすると、
図7又は
図8に示すような視点選択インタフェースを呼び出すことができる。また、ライブ配信インタフェースの右上には「多視点を終了」コントロール62がさらに表示されており、ユーザがこのコントロールをクリックすると、ライブ配信画面を単一視点で表示する状態に戻る。
【0104】
図7又は
図8に示すように、ユーザは、「プレイヤー」コントロール71又は「ヒーロー」コントロール81をクリックすることにより、プレイヤーアバター又はヒーローアバターを切り替えることができ、各アバターは、1つのゲームキャラクタの視点に対応する。ユーザはプレイヤーアバター又はヒーローアバターをクリックすれば、視点の切り替えを完了することができる。
【0105】
図9に示すように、ユーザが視点を切り替えた後、切替後の視点のライブ配信画面に、「視点が切り替わった」という切替完了を示すプロンプト91が表示されることができる。
【0106】
図10に示すように、3s内でユーザのさらなる操作が受け付けられない場合、ライブ配信インタフェース1001における「切り替え」コントロール及び「多視点を終了」コントロールは、非表示にされることができる。
【0107】
図11は、本願の1つの例示的な実施例で提供される画面分割論理の概略図を示している。上記の
図5~
図10と合わせて、
図11に示すように、ユーザは、ライブ配信プレイヤーをオンにし(ステップS1101)、ビデオ画面をクリックしてライブ配信プレイヤーの操作バーを呼び出し、レースのライブ配信に多視点機能が設定されているか否かを判断し(ステップS1102)、このレースのライブ配信に多視点機能が設定されていれば、多視点ボタンを表示し、ユーザは、多視点ボタンをクリックすると(ステップS1103)、分割画面に入って2つの視点の画面を同時に見る(ステップS1104)。ユーザは、2つのライブ配信視点を両方とも切り替えることができ、ユーザは、切り替えボタンをクリックし(ステップS1105)、視点切替選択パネルを呼び出し(ステップS1106)、切り替えたい視点を選択すれば(ステップS1107)、切り替えを完了することができる(ステップS1108)。
【0108】
また、ユーザは、2つの画面における調整コントロールを押したままにすることで、2つの画面の比率を、好みに合わせて拡大したり縮小したりすることもできる。2つのビデオを正常に視認できるようにするために、画面の調整可能な比率を定めておき、単一のビデオ画面を最小でスクリーン全体の視認可能な幅の33%まで縮小し、最大でスクリーン全体の視認可能な幅の66%まで拡大することができる。33%及び66%は単なる例示に過ぎず、これを限定するものではないことが理解されるべきである。単一のビデオ画面の最小縮小率は33%よりも大きくてもよいし、33%よりも小さくてもよく、また、単一のビデオ画面の最大拡大率は66%よりも大きくてもよいし、66%よりも小さくてもよい。
図12は、本願の1つの例示的な実施例で提供されるサイズ調整の概略図を示している。
図12に示すように、ユーザは、2つのライブ配信画面の接した箇所1201をクリックしてドラッグすれば、2つのライブ配信画面のサイズを調整することができる。
【0109】
本願の実施例に示される態様は、モバイル端末上で実現することができ、
図13は、本願の1つの例示的な実施例で提供されるフォアグラウンド論理のフローチャートを示している。
図13に示すように、フォアグラウンドは、ライブ配信ビデオ画面を再生し(ステップS1301)、ユーザが再生制御バーのプログレスバーを呼び出すと、「多視点」機能が設定されているか否かを検出し(ステップS1302)、設定されていれば、「多視点」ボタンを表示し(ステップS1303)、そうでなければ、「多視点」ボタンを表示しない(ステップS1304)。ユーザは、「多視点」ボタンをタップし(ステップS1305)、バックグラウンドに対して、現在のレースの1人のプレイヤーの情報及びその第1視点のライブ配信画面を取得するよう要求し(ステップS1306)、取得した後、フォアグラウンドは、これに応じて、分割画面に入って2つの視点を示すビデオを同時に表示する(ステップS1307)。ユーザは、2つのビデオを分割画面で同時に見る状態で、任意の切り替えボタンをタップし(ステップS1308)、バックグラウンドに対して、現在のレースの各位置でのプレイヤーの情報を取得するよう要求し(ステップS1309)、取得した後、フォアグラウンドは、これに応じて、視点切替パネルを表示する(ステップS1310)。ユーザは、切り替えたい視点の選択を完了させ(ステップS1311)、バックグラウンドに対して、この視点のビデオ画面を取得するよう要求し(ステップS1312)、取得した後、フォアグラウンドは、切り替え後の画面分割同時視聴画面を表示する(ステップS1313)。
【0110】
図14は、本願の1つの例示的な実施例で提供されるバックグラウンド論理のフローチャートを示している。
図14に示すように、フォアグラウンドは、ユーザが多視点指示を行ったことを検出し(ステップS1401)、フォアグラウンドは、バックグラウンドに対して、現在のレースの1人のプレイヤーの第1視点のライブ配信画面を取得するよう要求し(ステップS1402)、バックグラウンドのプレイヤーの第1視点のビデオ画面データベースがこれに応じて、フォアグラウンドに返信する(ステップS1403)。
【0111】
ユーザが視点切替指示を行うと(ステップS1404)、フォアグラウンドは、バックグラウンドに対して、現在のレースのすべてのプレイヤーの情報を取得するよう要求し(ステップS1405)、バックグラウンドの現在のレースのプレイヤー及びヒーローのデータは、これに応じてフォアグラウンドに返信される(ステップS1406)。
【0112】
ユーザが、切り替えたい視点の選択を完了すると(ステップS1407)、フォアグラウンドは、バックグラウンドに対して、対応するプレイヤー又はヒーローの第1視点のライブ配信画面を取得するよう要求し(ステップS1408)、バックグラウンドのプレイヤーの第1視点のビデオ画面データは、これに応じて、パックされてフォアグラウンドに返信される(ステップS1409)。
【0113】
携帯電話技術の進歩に伴い、モバイル機器のスクリーンがますます大きくなり、ユーザの多様な観戦ニーズを満たすために、本願は、分割画面を用いて多視点を同時に見る態様を提供し、ユーザは、レースのライブ配信を視聴する際に、スクリーンを少なくとも2つのビュー領域に分けることにより、異なる視点の少なくとも2つのライブ配信ビデオ画面を同時に視聴することができる。ユーザは、神の視点と、自分が好むプレイヤーの第1視点とを同時に見ることができる。また、2人のプレイヤーの第1視点を同時に視聴し、かれらのゲームレベルを比べたり、ゲームレーン対決技術を学んだりすることもできる。
【0114】
図15は、本願の1つの例示的な実施例で提供されるライブ配信画面表示装置(ライブ配信画面データ処理装置ともいう)のブロック図を示している。このライブ配信画面表示装置は、コンピュータ機器に適用されることができ、
図2又は
図3に示す方法の、端末によって実行されるステップの全部又は一部を実行する。
図15に示すように、このライブ配信画面表示装置は、ライブ配信インタフェース表示モジュール1501と、画面表示モジュール1502と、画面分割表示モジュール1503と、を備える。
【0115】
ライブ配信インタフェース表示モジュール1501は、仮想シーンのライブ配信インタフェースを表示し、仮想シーンにはn個の視点のライブ配信画面が対応しており、nは2以上で、かつnは整数である。
【0116】
画面表示モジュール1502は、ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示し、例えば、第1視点のライブ配信画面データを取得し、第1視点のライブ配信画面データに従って、ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示し、第1視点は、n個の視点のうちの1つである。
【0117】
画面分割表示モジュール1503は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおいてn個の視点のうちのm個の視点のライブ配信画面を画面分割表示し、2≦m≦nで、かつmは整数である。
【0118】
1つの可能な実現形態では、ライブ配信インタフェースには、m個の視点にそれぞれ対応するm個の視点切替コントロールが含まれている。この装置は、ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおける第2視点のライブ配信画面を第3視点のライブ配信画面に切り替える切替モジュールをさらに備える。例えば、切替モジュールは、ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第3視点のライブ配信画面データを取得し、第3視点のライブ配信画面データに従って、ライブ配信インタフェースにおける第2視点のライブ配信画面を第3視点のライブ配信画面に切り替える。ここで、第2視点は、m個の視点のうちのいずれか1つであり、ターゲット視点切替コントロールは、m個の視点切替コントロールのうち第2視点に対応する視点切替コントロールであり、第3視点は、n個の視点のうち、m個の視点を除くいずれか1つである。
【0119】
1つの可能な実現形態では、切替モジュールは、ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第1視点選択インタフェースを表示し、第1視点選択インタフェースには、(n-m)個の第3視点にそれぞれ対応する(n-m)個の第1の選択コントロールが含まれている。また、ターゲット選択コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおける第2視点のライブ配信画面を第3視点のライブ配信画面に切り替える。例えば、切替モジュールは、ターゲット選択コントロールへのトリガ操作を受け付けたことに応じて、第3視点のライブ配信画面データを取得し、第3視点のライブ配信画面データに従って、ライブ配信インタフェースにおける第2視点のライブ配信画面を第3視点のライブ配信画面に切り替える。ここで、ターゲット選択コントロールは、(n-m)個の第1の選択コントロールのうちのいずれか1つであり、第3視点のライブ配信画面は、ターゲット選択コントロールに対応する第3視点のライブ配信画面である。
【0120】
1つの可能な実現形態では、切替モジュールは、ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、仮想シーンのサムネイル地図を背景とする第1視点選択インタフェースを表示し、(n-m)個の第1の選択コントロールのサムネイル地図における対応する位置を取得し、(n-m)個の第1の選択コントロールのサムネイル地図における対応する位置に基づいて、第1視点選択インタフェースにおいて(n-m)個の第1の選択コントロールを表示する。
【0121】
1つの可能な実現形態では、切替モジュールは、いずれか1つの第1の選択コントロールについて、いずれか1つの第1の選択コントロールに対応する仮想オブジェクトの仮想シーンにおける役割と、仮想シーンにおける所属陣営とのうちの少なくとも一方に基づいて、いずれか1つの第1の選択コントロールのサムネイル地図における位置を取得する。
【0122】
1つの可能な実現形態では、切替モジュールは、いずれか1つの第1の選択コントロールについて、いずれか1つの第1の選択コントロールに対応する仮想オブジェクトの仮想シーンにおけるリアルタイム位置に基づいて、いずれか1つの第1の選択コントロールのサムネイル地図における位置を取得する。
【0123】
1つの可能な実現形態では、いずれか1つの第1の選択コントロールに仮想オブジェクトが対応している場合、いずれか1つの第1の選択コントロールには、いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのキャラクタアバター又はユーザアバターが含まれている。
【0124】
1つの可能な実現形態では、第1視点選択インタフェースには、アバター切替コントロールがさらに含まれており、この装置は、いずれか1つの第1の選択コントロールについて、アバター切替コントロールへのトリガ操作を受け付けたことに応じて、いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのキャラクタアバターをユーザアバターに切り替えるか、又は、いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのユーザアバターをキャラクタアバターに切り替えるアバター切替モジュールをさらに備える。
【0125】
1つの可能な実現形態では、この装置は、ライブ配信インタフェースで行われる画面分割サイズ調整操作を受け付けたことに応じて、m個の視点のライブ配信画面の表示サイズを調整するサイズ調整モジュールをさらに備える。
【0126】
1つの可能な実現形態では、m個の視点は、第4視点及び第5視点を含み、第4視点のライブ配信画面と第5視点のライブ配信画面にはサイズ調整コントロールが対応している。サイズ調整モジュールは、サイズ調整コントロールへのドラッグ操作を受け付けたことに応じて、ドラッグ操作のドラッグ方向及びドラッグ距離に基づいて、第4視点のライブ配信画面の表示サイズ及び第5視点のライブ配信画面の表示サイズを調整する。
【0127】
1つの可能な実現形態では、画面分割表示モジュール1503は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、第2視点選択インタフェースを表示し、第2視点選択インタフェースには、n個の視点にそれぞれ対応する第2の選択コントロールが含まれており、n個の視点のうちのm個の視点の第2の選択コントロールに対する選択操作に基づいて、ライブ配信インタフェースにおいてm個の視点のライブ配信画面を画面分割表示する。例えば、n個の視点のうちのm個の視点の第2の選択コントロールに対する選択操作に基づいて、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信インタフェースにおいてm個の視点のライブ配信画面を画面分割表示する。
【0128】
1つの可能な実現形態では、画面分割表示モジュール1503は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおいて、n個の視点のライブ配信画面のうち、ライブ配信インタフェースに最近表示されたm個の視点のライブ配信画面を画面分割表示する。例えば、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信画面において、n個の視点のライブ配信画面のうち、ライブ配信インタフェースに最近表示されたm個の視点のライブ配信画面を画面分割表示する。
【0129】
1つの可能な実現形態では、画面分割表示モジュール1503は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、ライブ配信インタフェースにおいてn個の視点のうちのデフォルトのm個の視点のライブ配信画面を画面分割表示する。例えば、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信インタフェースにおいてn個の視点のうちのデフォルトのm個の視点のライブ配信画面を画面分割表示する。
【0130】
1つの可能な実現形態では、画面分割表示モジュール1503は、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のライブ配信画面それぞれの視聴者数を取得し、視聴者数が多い順に、又は少ない順にn個の視点を並べ、ライブ配信インタフェースにおいて上位m個の視点のライブ配信画面を画面分割表示する。例えば、画面分割コントロールへのトリガ操作を受け付けたことに応じて、n個の視点のライブ配信画面それぞれの視聴者数を取得し、視聴者数が多い順に、又は少ない順にn個の視点を並べ、n個の視点のうちのm個の視点のライブ配信画面データを取得し、m個の視点のライブ配信画面データに従って、ライブ配信インタフェースにおいて上位m個の視点のライブ配信画面を画面分割表示する。
【0131】
1つの可能な実現形態では、n個の視点は、仮想シーンにおける少なくとも2つの仮想オブジェクトにそれぞれ対応する視点を含み、この装置は、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離を取得する距離取得モジュールであって、第1の仮想オブジェクトは、m個の視点のうちの第6視点に対応し、第2の仮想オブジェクトは、m個の視点のうちの第7視点に対応している、距離取得モジュールと、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、第6視点のライブ配信画面及び第7視点のライブ配信画面を統合して表示する画面統合モジュールと、をさらに備える。
【0132】
1つの可能な実現形態では、n個の視点は、自由視点をさらに含み、自由視点は、仮想シーンにおける仮想オブジェクトにバインドされていない視点である。画面統合モジュールは、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、第6視点のライブ配信画面及び第7視点のライブ配信画面を自由視点のライブ配信画面として統合して表示し、自由視点の視点位置は、第1の仮想オブジェクトと第2の仮想オブジェクトとを結ぶ線の中点に位置している。例えば、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、自由視点のライブ配信画面データを取得し、そして、自由視点のライブ配信画面データに従って、第6視点のライブ配信画面及び第7視点のライブ配信画面を自由視点のライブ配信画面として統合して表示する。
【0133】
1つの可能な実現形態では、画面統合モジュールは、さらに、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも大きいことに応じて、第6視点のライブ配信画面及び第7視点のライブ配信画面の画面分割表示を再開する。例えば、仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離が距離閾値よりも大きいことに応じて、第6視点のライブ配信画面データ及び第7視点のライブ配信画面データを取得し、第6視点のライブ配信画面データ及び第7視点のライブ配信画面データに従って、第6視点のライブ配信画面及び第7視点のライブ配信画面の画面分割表示を再開する。
【0134】
1つの可能な実現形態では、画面分割表示モジュール1503は、さらに、画面分割終了操作を受け付けたことに応じて、ライブ配信インタフェースにおいて第8視点のライブ配信画面を表示し、ここで、第8視点のライブ配信画面は、m個の視点のライブ配信画面のうち、指定された位置にあるライブ配信画面、又は、表示サイズが最も大きいライブ配信画面である。例えば、画面分割終了操作を受け付けたことに応じて、第8視点のライブ配信画面データを取得し、第8視点のライブ配信画面データに従って、ライブ配信インタフェースにおいて第8視点のライブ配信画面を表示し、ここで、第8視点のライブ配信画面は、m個の視点のライブ配信画面のうち、指定された位置にあるライブ配信画面、又は、表示サイズが最も大きいライブ配信画面である。
【0135】
上述のように、本願の実施例に示される態様では、複数の視点のライブ配信画面をサポートする仮想シーンについて、端末がライブ配信インタフェースにおいてそのうちの1つの視点のライブ配信画面を表示している際に、ユーザは、ライブ配信インタフェースにおける画面分割コントロールをトリガすることにより、端末がライブ配信インタフェースにおいて2つ以上の視点のライブ配信画面を分割画面で同時に表示するようにすることができ、それによって、ユーザが複数の視点に同時に注目している時に、ユーザの操作を減らし、データ処理効率を向上させ、ユーザの操作を簡略化することができ、そのうえ、ヒューマンマシンインタラクション効率を向上させ、サーバがライブ配信画面を提供するための動作負荷を軽減する。
【0136】
図16は、本願の1つの例示的な実施例で提供されるコンピュータ機器1600の構成ブロック図を示している。このコンピュータ機器1600は、例えば、スマートフォン、タブレットパソコン、パーソナルコンピュータなどのポータブルモバイル端末であってもよい。
【0137】
通常、コンピュータ機器1600は、プロセッサ1601及びメモリ1602を備える。
【0138】
プロセッサ1601は、例えば、4コアプロセッサ、8コアプロセッサなど、1つ又は複数の処理コアを含んでもよい。プロセッサ1601は、DSP(Digital Signal Processing:デジタル信号処理)、FPGA(Field-Programmable Gate Array:フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array:プログラマブルロジックアレイ)のうちの少なくとも1つのハードウェアの形で実現されてもよい。プロセッサ1601は、ホストプロセッサとコプロセッサとを含んでもよく、ホストプロセッサは、ウェイクアップ状態下でのデータを処理するためのプロセッサであり、CPU(Central Processing Unit:中央処理装置)とも呼ばれる。コプロセッサは、待機状態下でのデータを処理するための低消費電力プロセッサである。いくつかの実施例では、プロセッサ1601には、ディスプレイで表示される必要のあるコンテンツのレンダリング及び描画を担うGPU(Graphics Processing Unit:グラフィックスプロセッシングユニット)が集積されていてもよい。いくつかの実施例では、プロセッサ1601は、機械学習に関連する計算操作を処理するためのAI(Artificial Intelligence:人工知能)プロセッサをさらに含んでもよい。
【0139】
メモリ1602は、非一過性であり得る1つ又は複数のコンピュータ読取可能な記憶媒体を含むことができる。非一過性のコンピュータ読取可能な記憶媒体は、不揮発性のコンピュータ読取可能な記憶媒体、又は非一時的なコンピュータ読取可能な記憶媒体とも呼ばれる。メモリ1602は、高速ランダムアクセスメモリ及び不揮発性メモリ、例えば、1つ又は複数の磁気ディスク記憶装置、フラッシュメモリ装置をさらに含んでもよい。いくつかの実施例では、メモリ1602における非一過性のコンピュータ読取可能な記憶媒体は、コンピュータ機器に、本願における方法の実施例で提供されるライブ配信画面表示方法(ライブ配信画面データ処理方法ともいう)の、コンピュータ機器によって実行されるステップの全部又は一部を実現させるように、プロセッサ1601によって実行される少なくとも1つのコンピュータ命令を記憶する。
【0140】
いくつかの実現例では、コンピュータ機器1600は、任意選択で、様々な視点のライブ配信画面を表示するためのディスプレイ1605をさらに備えてもよい。ディスプレイ1605は、UI(User Interface:ユーザインタフェース)を表示する。このUIは、グラフィック、テキスト、アイコン、ビデオ及びこれらの任意の組み合わせを含んでもよい。ディスプレイ1605がタッチディスプレイである場合、ディスプレイ1605は、ディスプレイ1605の表面又は表面の上方のタッチ信号を収集する能力をさらに有する。このタッチ信号は、制御信号としてプロセッサ1601に入力されて処理されることができる。このとき、ディスプレイ1605は、さらに、ソフトボタン及び/又はソフトキーボードとも呼ばれる仮想ボタン及び/又は仮想キーボードを提供するために使用されてもよい。いくつかの実施例では、ディスプレイ1605は、コンピュータ機器1600のフロントパネルに設けられる1つのディスプレイであってもよい。他の実施例では、ディスプレイ1605は、それぞれコンピュータ機器1600の異なる表面に設けられるか、或いは、折りたたむように設計される少なくとも2つのディスプレイであってもよい。更なる実施例では、ディスプレイ1605は、コンピュータ機器1600の湾曲面又は折り畳み面に設けられるフレキシブルディスプレイであってもよい。さらに、ディスプレイ1605は、矩形以外の不規則な形状、すなわち特殊形状のディスプレイとされてもよい。ディスプレイ1605は、LCD(Liquid Crystal Display:液晶ディスプレイ)や、OLED(Organic Light-Emitting Diode:有機発光ダイオード)などの材質で製造されてもよい。
【0141】
当業者であれば、
図16に示す構成は、コンピュータ機器1600を限定するものではなく、示されるものよりも多い又は少ないコンポーネントを含むか、或いは、一部のコンポーネントを組み合わせるか、或いは、異なるコンポーネントの配置を用いることができることを理解するであろう。
【0142】
1つの例示的な実施例では、命令を含む非一時的なコンピュータ読取可能な記憶媒体、例えば、少なくとも1つのコンピュータ命令を含むメモリがさらに提供され、上記少なくとも1つのコンピュータ命令は、コンピュータ機器に、上記の
図2又は
図3のいずれか1つの実施例に示す方法の、端末によって実行されるステップの全部又は一部を完成させるようにプロセッサによって実行されることができる。例えば、非一時的なコンピュータ読取可能な記憶媒体は、リードオンリーメモリ、ランダムアクセスメモリ、磁気テープ、フロッピーディスク、及び光データ記憶デバイスなどであってもよい。
【0143】
1つの例示的な実施例では、不揮発性のコンピュータ読取可能な記憶媒体に記憶されるコンピュータ命令を含むコンピュータプログラム製品又はコンピュータプログラムがさらに提供される。コンピュータ機器のプロセッサは、不揮発性のコンピュータ読取可能な記憶媒体からこのコンピュータ命令を読み取り、プロセッサは、このコンピュータ機器に、上記の
図2又は
図3のいずれか1つの実施例に示す方法の、端末によって実行されるステップの全部又は一部を実行させるように、このコンピュータ命令を実行する。
【0144】
当業者は、明細書を検討し、ここに開示された発明を実施した後に、本願の他の実施形態を容易に想到するであろう。本願は、本願の一般的原理に従うとともに、本願に開示されていない本分野における公知常識又は一般的な技術的手段を含む、如何なる変形、用途又は適応的な変更をカバーすることを意図している。明細書及び実施例は例示的なものとしてのみ扱われ、本願の真の範囲及び精神は以下の請求項に準じる。
【0145】
本願は、以上で説明され、図面に示された正確な構造に限定されるものではなく、その範囲から逸脱することなく、様々な修正及び変更が可能であることが理解されるであろう。本願の範囲は、添付の請求項のみによって制限される。
【手続補正書】
【提出日】2024-05-30
【手続補正2】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
コンピュータ機器が実行する、ライブ配信画面データ処理方法であって、
仮想シーンのライブ配信インタフェースを表示するステップであって、前記仮想シーンにはn(nは2以上で、かつnは整数)個の視点のライブ配信画面が対応している、ステップと、
第1視点のライブ配信画面データを取得し、前記第1視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記第1視点のライブ配信画面及び画面分割コントロールを表示するステップであって、前記第1視点は、前記n個の視点のうちの1つである、ステップと、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm(2≦m≦nで、かつmは整数)個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップと、
を含む、ライブ配信画面データ処理方法。
【請求項2】
前記ライブ配信インタフェースには、前記m個の視点にそれぞれ対応するm個の視点切替コントロールが含まれており、
前記ライブ配信画面データ処理方法は、
ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第3視点のライブ配信画面データを取得し、前記第3視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおける第2視点のライブ配信画面を前記第3視点のライブ配信画面に切り替えるステップをさらに含み、
前記第2視点は、前記m個の視点のうちのいずれか1つであり、前記ターゲット視点切替コントロールは、前記m個の視点切替コントロールのうち、前記第2視点に対応する視点切替コントロールであり、前記第3視点は、前記n個の視点のうち、前記m個の視点を除くいずれか1つである、請求項1に記載のライブ配信画面データ処理方法。
【請求項3】
ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第3視点のライブ配信画面データを取得し、前記第3視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおける第2視点のライブ配信画面を前記第3視点のライブ配信画面に切り替えるステップは、
前記ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第1視点選択インタフェースを表示するステップであって、前記第1視点選択インタフェースには、(n-m)個の第3視点にそれぞれ対応する(n-m)個の第1の選択コントロールが含まれている、ステップと、
ターゲット選択コントロールへのトリガ操作を受け付けたことに応じて、前記第3視点のライブ配信画面データを取得し、前記第3視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおける第2視点のライブ配信画面を前記第3視点のライブ配信画面に切り替えるステップと、を含み、
前記ターゲット選択コントロールは、前記(n-m)個の第1の選択コントロールのうちのいずれか1つであり、前記第3視点のライブ配信画面は、前記ターゲット選択コントロールに対応する第3視点のライブ配信画面である、請求項2に記載のライブ配信画面データ処理方法。
【請求項4】
前記ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、第1視点選択インタフェースを表示するステップは、
前記ターゲット視点切替コントロールへのトリガ操作を受け付けたことに応じて、前記仮想シーンのサムネイル地図を背景とする前記第1視点選択インタフェースを表示するステップと、
前記(n-m)個の第1の選択コントロールの前記サムネイル地図における位置を取得するステップと、
前記(n-m)個の第1の選択コントロールの前記サムネイル地図における位置に基づいて、前記第1視点選択インタフェースにおいて前記(n-m)個の第1の選択コントロールを表示するステップと、を含む、請求項3に記載のライブ配信画面データ処理方法。
【請求項5】
前記(n-m)個の第1の選択コントロールの前記サムネイル地図における位置を取得するステップは、
いずれか1つの第1の選択コントロールについて、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトの前記仮想シーンにおける役割と、前記仮想シーンにおける所属陣営とのうちの少なくとも一方に基づいて、前記いずれか1つの第1の選択コントロールの前記サムネイル地図における位置を取得するステップを含む、請求項4に記載のライブ配信画面データ処理方法。
【請求項6】
前記(n-m)個の第1の選択コントロールの前記サムネイル地図における位置を取得するステップは、
いずれか1つの第1の選択コントロールについて、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトの前記仮想シーンにおけるリアルタイム位置に基づいて、前記いずれか1つの第1の選択コントロールの前記サムネイル地図における位置を取得するステップを含む、請求項4に記載のライブ配信画面データ処理方法。
【請求項7】
いずれか1つの第1の選択コントロールに仮想オブジェクトが対応している場合、前記いずれか1つの第1の選択コントロールには、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのキャラクタアバター又はユーザアバターが含まれている、請求項
3に記載のライブ配信画面データ処理方法。
【請求項8】
前記第1視点選択インタフェースには、アバター切替コントロールがさらに含まれており、
前記ライブ配信画面データ処理方法は、
いずれか1つの第1の選択コントロールについて、前記アバター切替コントロールへのトリガ操作を受け付けたことに応じて、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのキャラクタアバターをユーザアバターに切り替えるか、又は、前記いずれか1つの第1の選択コントロールに対応する仮想オブジェクトのユーザアバターをキャラクタアバターに切り替えるステップをさらに含む、請求項7に記載のライブ配信画面データ処理方法。
【請求項9】
前記ライブ配信画面データ処理方法は、
前記ライブ配信インタフェースで行われる画面分割サイズ調整操作を受け付けたことに応じて、前記m個の視点のライブ配信画面の表示サイズを調整するステップをさらに含む、請求項
1に記載のライブ配信画面データ処理方法。
【請求項10】
前記m個の視点は、第4視点及び第5視点を含み、前記第4視点のライブ配信画面と前記第5視点のライブ配信画面にはサイズ調整コントロールが対応しており、
前記ライブ配信インタフェースで行われる画面分割サイズ調整操作を受け付けたことに応じて、前記m個の視点のライブ配信画面の表示サイズを調整するステップは、
前記サイズ調整コントロールへのドラッグ操作を受け付けたことに応じて、前記ドラッグ操作のドラッグ方向及びドラッグ距離に基づいて、前記第4視点のライブ配信画面の表示サイズ及び前記第5視点のライブ配信画面の表示サイズを調整するステップを含む、請求項9に記載のライブ配信画面データ処理方法。
【請求項11】
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップは、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、第2視点選択インタフェースを表示するステップであって、前記第2視点選択インタフェースには、前記n個の視点にそれぞれ対応する第2の選択コントロールが含まれている、ステップと、
前記n個の視点のうちの前記m個の視点の第2の選択コントロールに対する選択操作に基づいて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得するステップと、
前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップと、を含む、請求項1乃至10のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項12】
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップは、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得するステップと、
前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて、前記n個の視点のライブ配信画面のうち、前記ライブ配信インタフェースに最近表示されたm個の視点のライブ配信画面を画面分割表示するステップと、を含む、請求項1乃至10のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項13】
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップは、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得するステップと、
前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記n個の視点のうちのデフォルトのm個の視点のライブ配信画面を画面分割表示するステップと、を含む、請求項1乃至10のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項14】
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示するステップは、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のライブ配信画面それぞれの視聴者数を取得するステップと、
視聴者数が多い順に、又は少ない順に前記n個の視点を並べるステップと、
前記n個の視点のうちのm個の視点のライブ配信画面データを取得するステップと、
前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて上位m個の視点のライブ配信画面を画面分割表示するステップと、を含む、請求項1乃至10のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項15】
前記n個の視点は、前記仮想シーンにおける少なくとも2つの仮想オブジェクトにそれぞれ対応する視点を含み、
前記ライブ配信画面データ処理方法は、
前記仮想シーンにおける第1の仮想オブジェクトと第2の仮想オブジェクトとの距離を取得するステップであって、前記第1の仮想オブジェクトは、前記m個の視点のうちの第6視点に対応し、前記第2の仮想オブジェクトは、前記m個の視点のうちの第7視点に対応している、ステップと、
前記仮想シーンにおける前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面を統合して表示するステップと、をさらに含む、請求項1乃至1
0のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項16】
前記n個の視点は、前記仮想シーンにおける仮想オブジェクトにバインドされていない視点である自由視点をさらに含み、
前記仮想シーンにおける前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面を統合して表示するステップは、
前記仮想シーンにおける前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの距離が距離閾値よりも小さいことに応じて、自由視点のライブ配信画面データを取得するステップと、
前記自由視点のライブ配信画面データに従って、前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面を前記自由視点のライブ配信画面として統合して表示するステップであって、前記自由視点の視点位置は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとを結ぶ線の中点に位置している、ステップと、を含む請求項15に記載のライブ配信画面データ処理方法。
【請求項17】
前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面を統合して表示した後、前記ライブ配信画面データ処理方法は、
前記仮想シーンにおける前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの距離が前記距離閾値よりも大きいことに応じて、第6視点のライブ配信画面データ及び第7視点のライブ配信画面データを取得するステップと、
前記第6視点のライブ配信画面データ及び第7視点のライブ配信画面データに従って、前記第6視点のライブ配信画面及び前記第7視点のライブ配信画面の画面分割表示を再開するステップと、をさらに含む、請求項
15に記載のライブ配信画面データ処理方法。
【請求項18】
前記ライブ配信インタフェースにおいて前記n個の視点のうちのm個の視点のライブ配信画面を画面分割表示した後、前記ライブ配信画面データ処理方法は、
画面分割終了操作を受け付けたことに応じて、第8視点のライブ配信画面データを取得し、前記第8視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記第8視点のライブ配信画面を表示するステップをさらに含み、
前記第8視点のライブ配信画面は、前記m個の視点のライブ配信画面のうち、指定された位置にあるライブ配信画面、又は、表示サイズが最も大きいライブ配信画面である、請求項1乃至1
0のいずれか1項に記載のライブ配信画面データ処理方法。
【請求項19】
仮想シーンのライブ配信インタフェースを表示するライブ配信インタフェース表示モジュールであって、前記仮想シーンにはn(nは2以上で、かつnは整数)個の視点のライブ配信画面が対応している、ライブ配信インタフェース表示モジュールと、
第1視点のライブ配信画面データを取得し、前記第1視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて第1視点のライブ配信画面及び画面分割コントロールを表示する画面表示モジュールであって、前記第1視点は、前記n個の視点のうちの1つである、画面表示モジュールと、
前記画面分割コントロールへのトリガ操作を受け付けたことに応じて、前記n個の視点のうちのm(2≦m≦nで、かつmは整数)個の視点のライブ配信画面データを取得し、前記m個の視点のライブ配信画面データに従って、前記ライブ配信インタフェースにおいて前記m個の視点のライブ配信画面を画面分割表示する画面分割表示モジュールと、
を備える、ライブ配信画面データ処理装置。
【請求項20】
プロセッサと、少なくとも1つのコンピュータ命令を記憶したメモリとを備えるコンピュータ機器であって、
前記少なくとも1つのコンピュータ命令は、前記プロセッサによってロードされ実行されることで、前記コンピュータ機器に、請求項1乃至1
0のいずれか1項に記載のライブ配信画面データ処理方法を実現させる、コンピュータ機器。
【請求項21】
コンピュータ機器のプロセッサによって読み取られて実行されることで、前記コンピュータ機器に、請求項1乃至1
0のいずれか1項に記載のライブ配信画面データ処理方法を実行させるコンピュータ命令を含む、コンピュータプログラム。
【国際調査報告】