IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通株式会社の特許一覧

特許7302256ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置
<>
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図1
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図2
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図3
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図4
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図5
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図6
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図7
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図8
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図9
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図10
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図11
  • 特許-ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-06-26
(45)【発行日】2023-07-04
(54)【発明の名称】ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置
(51)【国際特許分類】
   A63F 13/497 20140101AFI20230627BHJP
   A63F 13/30 20140101ALI20230627BHJP
   A63F 13/86 20140101ALI20230627BHJP
   H04N 21/8549 20110101ALI20230627BHJP
【FI】
A63F13/497
A63F13/30
A63F13/86
H04N21/8549
【請求項の数】 8
(21)【出願番号】P 2019080361
(22)【出願日】2019-04-19
(65)【公開番号】P2020174971
(43)【公開日】2020-10-29
【審査請求日】2022-01-20
(73)【特許権者】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】鈴木 由喜
(72)【発明者】
【氏名】久徳 晃史
(72)【発明者】
【氏名】▲吉▼村 竜哉
(72)【発明者】
【氏名】安海 悠太
(72)【発明者】
【氏名】佐久間 俊平
(72)【発明者】
【氏名】王 林
(72)【発明者】
【氏名】江 龍
(72)【発明者】
【氏名】小御門 道
(72)【発明者】
【氏名】百武 恭汰
(72)【発明者】
【氏名】渡邉 秀隆
【審査官】相川 俊
(56)【参考文献】
【文献】特開2010-093584(JP,A)
【文献】特開2007-336283(JP,A)
【文献】特開2017-091558(JP,A)
【文献】特開2010-220089(JP,A)
【文献】特開2011-072735(JP,A)
【文献】特開2000-334168(JP,A)
【文献】超高精細コンテンツの流通・利活用に関する調査研究 報告書 ,財団法人デジタルコンテンツ協会,2005年03月31日,p.23-24
(58)【調査した分野】(Int.Cl.,DB名)
A63F 13/49
A63F 13/30
A63F 13/86
H04N 21/8549
(57)【特許請求の範囲】
【請求項1】
コンピュータゲームの動画像をシーンごとに分割し、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出し、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定対象とし、当該選定対象のシーンの中で重複するシーンについては前記盛り上がり度が低い方のシーンを選定対象から除外してハイライト動画を生成し、
生成した前記ハイライト動画を出力する、
処理をコンピュータに実行させ、
前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とするハイライト動画生成プログラム。
【請求項2】
前記生成する処理は、前記コンピュータゲームの開始から終了までを所定数で区分した各パートにおいて選定した前記シーンが含まれていない場合は当該パート内のシーンの中で前記盛り上がり度が所定値以上のシーンを選定対象に加えて前記ハイライト動画を生成する
ことを特徴とする請求項1に記載のハイライト動画生成プログラム。
【請求項3】
前記生成する処理は、選定した前記シーンを時系列順に並べて前記ハイライト動画を生成する、
ことを特徴とする請求項1または2に記載のハイライト動画生成プログラム。
【請求項4】
前記コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームである、
ことを特徴とする請求項1乃至3のいずれか一項に記載のハイライト動画生成プログラム。
【請求項5】
前記分割する処理は、前記複数のプレイヤーの中の第1のプレイヤーに関する視点から、前記第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、前記シーンの分割を行う、
ことを特徴とする請求項4に記載のハイライト動画生成プログラム。
【請求項6】
前記ハイライト動画に用いるシーンの数、および、当該シーンの時間の設定を受け付ける処理を更にコンピュータに実行させ、
前記生成する処理は、受け付けた前記シーンの数、および、前記シーンの時間に応じたシーンの選定を行う、
ことを特徴とする請求項1乃至5のいずれか一項に記載のハイライト動画生成プログラム。
【請求項7】
コンピュータゲームの動画像をシーンごとに分割し、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出し、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定対象とし、当該選定対象のシーンの中で重複するシーンについては前記盛り上がり度が低い方のシーンを選定対象から除外してハイライト動画を生成し、
生成した前記ハイライト動画を出力する、
処理をコンピュータが実行し、
前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とするハイライト動画生成方法。
【請求項8】
コンピュータゲームの動画像をシーンごとに分割する分割部と、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出する予測部と、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定対象とし、当該選定対象のシーンの中で重複するシーンについては前記盛り上がり度が低い方のシーンを選定対象から除外してハイライト動画を生成する生成部と、
生成した前記ハイライト動画を出力する出力部と、
を有し、
前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とする情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は、ハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置に関する。
【背景技術】
【0002】
近年、e-Sprotsを代表としたコンピュータゲームの観戦が盛り上がりを見せており、観戦時においては、ダイジェストとしてゲーム中で盛り上がりのある白熱したハイライトシーンの提示が行われている。このようなハイライトシーンを提示する従来技術としては、コンテンツの画像または音声データから抽出される特徴データに基づいて演算される評価値に基づいて、コンテンツの中のハイライトシーンを検出するものが知られている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2007-123981号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記の従来技術では、コンテンツの画像または音声データによりハイライトシーンを検出することから、コンピュータゲームの観衆側の盛り上がりとは無関係なものがハイライトシーンとして提示される場合があるという問題がある。
【0005】
1つの側面では、コンピュータゲームの観衆が盛り上がるハイライトシーンの提示を支援できるハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
第1の案では、ハイライト動画生成プログラムは、分割する処理と、算出する処理と、生成する処理と、出力する処理とをコンピュータに実行させる。分割する処理は、コンピュータゲームの動画像をシーンごとに分割する。算出する処理は、分割したシーンごとに、シーンに含まれるゲーム画像に基づき、コンピュータゲームのゲーム画像からゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、シーンを観衆が視聴した場合の盛り上がり度を算出する。生成する処理は、算出した盛り上がり度に基づき、分割したシーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成する。出力する処理は、生成したハイライト動画を出力する。
【発明の効果】
【0007】
本発明の1実施態様によれば、コンピュータゲームの観衆が盛り上がるハイライトシーンの提示を支援できる。
【図面の簡単な説明】
【0008】
図1図1は、実施形態の概要を説明する説明図である。
図2図2は、ゲーム動画の画面例を説明する説明図である。
図3図3は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。
図4図4は、予測モデルの生成処理例を示すフローチャートである。
図5図5は、予測モデルによる盛り上がり度の算出例を説明する説明図である。
図6図6は、実施形態にかかる情報処理装置の動作例を示すフローチャートである。
図7図7は、シーンごとの分割例を示す説明図である。
図8図8は、各シーンの盛り上がり度の計算を説明する説明図である。
図9図9は、各シーンの盛り上がり度の計算を説明する説明図である。
図10図10は、ハイライト動画の生成を説明する説明図である。
図11図11は、ハイライト動画の提供例を説明する説明図である。
図12図12は、ハイライト動画生成プログラムを実行するコンピュータの一例を示すブロック図である。
【発明を実施するための形態】
【0009】
以下、図面を参照して、実施形態にかかるハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明するハイライト動画生成プログラム、ハイライト動画生成方法および情報処理装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
【0010】
[実施形態の概要について]
図1は、実施形態の概要を説明する説明図である。本実施形態では、例えばe-Sprotsなどのコンピュータゲームの動画像(以下、ゲーム動画と呼ぶ)をもとに、盛り上がりのある白熱したハイライトシーンをダイジェストとして見せるハイライト動画を作成する。このハイライト動画を作成する情報制御装置としては、例えばPC(パーソナルコンピュータ)などを適用することができる。
【0011】
なお、ハイライト動画を作成するコンピュータゲームについては、シューティングゲーム、ストラテジーゲーム、格闘ゲーム、スポーツゲーム、レーシングゲーム、パズルゲームなどであり、特に限定しない。本実施形態では、一例として、複数のプレイヤーが対戦する対戦型ゲームであり、ゲーム上の各プレイヤーを上から俯瞰したゲーム画面のリアルタイムストラテジーゲームを例示する。
【0012】
図1に示すように、情報処理装置は、まず、ハイライト作成に関するデータ入力を受け付ける(S1)。具体的には、情報制御装置は、ハイライトを作成したいゲーム動画と、作成したいハイライトのシーン数および1シーンあたりの秒数などの設定情報とのデータ入力を受け付ける。
【0013】
ゲーム動画については、ゲームの開始から終了までのゲーム画面に関する動画像であり、所定のフレームレート(例えば30fps)の動画データである。
【0014】
図2は、ゲーム動画の画面例を説明する説明図である。図2に示すように、ゲーム動画Gは、例えば、プレイ中のゲーム画面G1と、プレイヤーの様子やゲームに関する各種ステータスなどを表示するインフォメーション画面G2とを有する。ゲーム画面G1は、仮想的なカメラの映像として、ゲーム内のプレイヤーP1、P2を上方から俯瞰した構成となっている。なお、ゲーム画面G1の画面構成は、各プレイヤーP1、P2を上から俯瞰したものに限定するものではなく、ゲーム内のプレイヤーP1、P2としてゲームフィールドを眺めたものであってもよい。
【0015】
また、ゲーム画面G1では、カメラ切替りにより、プレイヤーP1、P2に関する視点の切り替りが行われる。例えば、ゲーム画面G1は、プレイヤーP1を画面中心としたプレイヤーP1に関する視点の連続シーン(図中の上段)から、カメラ切替りにより、プレイヤーP2を画面中心としたプレイヤーP2に関する視点の連続シーン(図中の中段)に切り替わる。同様に、ゲーム画面G1は、カメラ切替りにより、プレイヤーP2に関する視点の連続シーン(図中の中段)からプレイヤーP1に関する視点の連続シーン(図中の下段)へと戻る。
【0016】
次いで、情報処理装置は、ハイライト作成に関するデータ入力をもとに、ハイライト動画を作成する(S2)。具体的には、情報処理装置は、ゲーム動画をカメラ切り替りのタイミングでシーンごとに分割する(S2a)。ここで、情報処理装置は、分割した各シーンがゲームの前半・中盤・後半のどこのパートにあたるかをタグ付けする。
【0017】
また、情報処理装置は、ゲーム動画を所定時間(例えば1秒)ごとの静止画像(以下、ゲーム画像)に分割する。具体的には、情報処理装置は、所定のフレームレートのゲーム動画について、例えば、1秒間隔でフレームの抽出を行う。
【0018】
次いで、情報処理装置は、分割した各ゲーム画像について、ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを利用して、観衆が視聴した場合の盛り上がり度を計算する(S2b)。盛り上がり度の計算に利用する予測モデルは、ゲーム画像に対する観衆の盛り上がり度が正解として付与された教師データをもとに、ディープラーニングなどの機械学習により作成した学習モデルである(詳細は後述する)。
【0019】
次いで、情報処理装置は、S2aで分割した各シーンについて、設定情報で指定した秒数に切り取る。次いで、情報処理装置は、S2bで計算した各ゲーム画像の盛り上がり度をもとに、切り取った各シーンを観衆が視聴した場合の盛り上がり度を計算(予測)する(S2c)。一例として、情報処理装置は、各シーンに含まれるゲーム画像の盛り上がり度の平均を求める。
【0020】
次いで、情報処理装置は、各シーンの盛り上がり度に基づき、分割したシーンの中から指定したシーン数のシーンを選定してつなぎ合わせ、ハイライト動画を生成する(S2d)。例えば、情報処理装置は、盛り上がり度順にシーンを並べ、盛り上がり度が高いものから順に選定する。次いで、情報処理装置は、選定したシーンを時系列順に並べてつなぎ合わせることでハイライト動画を生成する。
【0021】
ここで、情報処理装置は、前半・中盤・後半のどこのパートのシーンであるかを示すタグを参照し、パートごとに少なくとも1つのシーンを選定するようにする。これにより、前半、中盤、後半それぞれにおいて盛り上がりのあるシーンを含む、ゲームの開始から終了までの一連のダイジェストにふさわしいハイライト動画を生成することができる。
【0022】
次いで、情報処理装置は、生成したハイライト動画のディプレイへの表示、ファイル出力などにより、ハイライト動画をユーザに出力する(S3)。これにより、ユーザは、コンピュータゲームのゲーム動画から、観衆が盛り上がるハイライトシーンのハイライト動画を容易に得ることができる。
【0023】
[情報処理装置について]
図3は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。図3に示すように、情報処理装置1は、通信部10、記憶部20および制御部30を有する。
【0024】
通信部10は、有線又は無線を問わず接続する外部機器との通信を制御する。通信部10は、例えばNIC(Network Interface Card)等の通信インタフェース等である。
【0025】
記憶部20は、例えば制御部30が実行するプログラム、ゲーム動画情報21、設定情報22、予測モデル情報23およびシーン別情報DB24などの各種データを記憶する。記憶部20は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
【0026】
ゲーム動画情報21は、ハイライトを作成したいゲーム動画や、教師データを作成するためのゲーム動画など、各種ゲーム動画の情報である。具体的には、ゲーム動画情報21は、AVI形式、MPEG-4形式などの所定のファイルフォーマットの動画ファイルである。なお、教師データを作成するためのゲーム動画には、ゲーム動画の観客席における音量、すなわち観衆が発した音量が音量データとして含まれているものとする。
【0027】
設定情報22は、例えば、ハイライト作成に関するデータ入力において受け付けた各種設定データである。具体的には、設定情報22には、作成したいハイライトのシーン数および1シーンあたりの秒数などが含まれる。
【0028】
予測モデル情報23は、ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルに関する情報である。
【0029】
ここで、予測モデルは、例えば、ゲーム画像に対して観衆の盛り上がり度を予測するようにディープラーニングなどの機械学習により作成した学習モデルである。学習モデルとしては、例えば、脳のニューロンを模したユニットを入力層から中間層を経て出力層に至る間に階層的に結合したニューラルネットワークを適用できる。したがって、予測モデル情報23は、ディープラーニングなどの機械学習による学習済み学習モデル(予測モデル)に関する情報(例えば、ニューラルネットワークの各ノードにおけるパラメータ)などである。
【0030】
シーン別情報DB24は、ゲーム動画情報21のゲーム動画より分割した各シーンについての各種情報を格納するデータベースである(詳細は後述する)。
【0031】
制御部30は、情報処理装置1の全体的な処理を司る処理部である。制御部30は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。
【0032】
制御部30は、入力部31、分割部32、教師データ作成部33、予測モデル作成部34、盛り上がり度計算部35、ハイライト動画作成部36および出力部37を有する。なお、入力部31、分割部32、教師データ作成部33、予測モデル作成部34、盛り上がり度計算部35、ハイライト動画作成部36および出力部37は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
【0033】
入力部31は、通信部10などを介して入力される各種データの入力処理を行う処理部である。例えば、入力部31は、ハイライトを作成したいゲーム動画や、教師データを作成するためのゲーム動画などの入力を受け付けてゲーム動画情報21として記憶部20に格納する。また、入力部31は、作成したいハイライトのシーン数およびシーンの秒数などの入力を受け付けて設定情報22として記憶部20に格納する。また、入力部31は、予測モデルを外部機器で作成する場合に入力される予測モデルに関する情報を予測モデル情報23として記憶部20に格納する。
【0034】
分割部32は、ゲーム動画の分割に関する処理を行う処理部である。分割部32は、記憶部20に格納されたゲーム動画情報21を読み出し、所定の条件を満たすシーンの区切りでゲーム動画を分割する。例えば、分割部32は、1フレームごとに前後のフレームにおけるRGB値を比較し、所定値以上の差分があったところでゲーム動画を分割する。これにより、分割部32は、ゲーム動画をカメラ切り替りのタイミングで、シーンごとに分割する。
【0035】
また、分割部32は、所定間隔のフレームを抽出することで、ゲーム動画を所定時間(例えば1秒)ごとのゲーム画像に分割する。次いで、分割部32は、抽出したゲーム画像を教師データ作成部33や盛り上がり度計算部35などに出力する。
【0036】
また、分割部32は、分割したシーンに関する情報をシーン別情報DB24に格納する。具体的には、分割部32は、分割したシーンを識別するシーン名(例えばシーンA、シーンB…)ごとに、各シーンについて抽出したゲーム画像などの情報をシーン別情報DB24に格納する。
【0037】
教師データ作成部33は、教師データを作成するためのゲーム動画より、ゲーム画像と、ゲーム画像に対する観衆の盛り上がり度とを組み合わせたデータセット(教師データ)を作成する処理部である。
【0038】
予測モデル作成部34は、教師データ作成部33が作成した教師データをもとに、ディープラーニングなどの機械学習により予測モデルを作成する処理部である。
【0039】
ここで、予測モデルの作成について詳細に説明する。図4は、予測モデルの作成処理例を示すフローチャートである。
【0040】
図4に示すように、処理が開始されると、分割部32は、教師データを作成するためのゲーム動画について、所定時間(例えば1秒)ごとのゲーム画像と、音量(ゲーム動画の観客席における音量)とに分割する(S10)。
【0041】
次いで、教師データ作成部33は、所定時間ごとに分割した音量について正規化を行う(S11)。具体的には、教師データ作成部33は、ゲーム動画より分割した全ての音量の中で、最大のものを1とし、最小のものを0として、音量に応じた値(0~1)に正規化する。この正規化により、観衆が発した音量が最も大きく、盛り上がりが最大のところは1となり、盛り上がりが最小のところは0となる。
【0042】
次いで、教師データ作成部33は、正規化した音量のデータを、音量に応じた複数のカテゴリに分類する(S12)。例えば、教師データ作成部33は、音量に応じて0~3までのカテゴリに分類する場合、正規化した音量が0.8以上である場合に3(非常に盛り上がっている)とする。また、教師データ作成部33は、正規化した音量が0.6以上、0.8未満である場合に2(盛り上がっている)とする。また、教師データ作成部33は、正規化した音量が0.4以上、0.6未満である場合に1(少し盛り上がっている)とする。また、教師データ作成部33は、正規化した音量が0.4未満である場合に0(盛り上がっていない)とする。このように、教師データ作成部33は、観衆の盛り上がりに応じたカテゴリに分類する。
【0043】
次いで、教師データ作成部33は、所定時間ごとに分割したゲーム画像がどのカテゴリであるかを判別する(S13)。具体的には、教師データ作成部33は、分割したゲーム画像のところの音量を、どのカテゴリに分類したかをもとにカテゴリを判別する。
【0044】
次いで、教師データ作成部33は、分割した各ゲーム画像について、上記のS11~S13の処理を行うことで、ゲーム画像と、ゲーム画像に対する音量データ(観衆の盛り上がりを示すカテゴリ値)のデータセット(教師データ)を作成する(S14)。
【0045】
次いで、予測モデル作成部34は、作成したデータセットをもとに、ディープラーニングなどの機械学習により、盛り上がり度(観衆の盛り上がりを示すカテゴリ値)を予測する予測モデル2を作成する(S15)。次いで、予測モデル作成部34は、作成した予測モデル2に関する情報を予測モデル情報23として記憶部20に格納する。
【0046】
例えば、予測モデル作成部34は、予測モデル2の入力層にゲーム画像を入力し、演算結果を示す出力値を出力層から出力させる。次いで、予測モデル作成部34は、ゲーム動画に付与された正解のラベル(観衆の盛り上がりを示すカテゴリ値)と、出力値との比較に基づいて、予測モデル2のニューラルネットワークの各ノードにおけるパラメータを学習する。具体的には、予測モデル作成部34は、出力値と正解のラベルとの比較結果を用いた誤差逆伝播(error Back Propagation:BP)法などによって、ニューラルネットワークのパラメータを学習する。次いで、予測モデル作成部34は、作成した予測モデル2における各ノードのパラメータ値などの情報を予測モデル情報23として記憶部20に格納する。
【0047】
このように作成した予測モデル2を用いることで、情報処理装置1では、ゲーム画像から観衆の盛り上がり度を算出(予測)する。図5は、予測モデル2による盛り上がり度の算出例を説明する説明図である。
【0048】
図5に示すように、予測モデル2は、例えば20万枚以上のゲーム画像と、ゲーム画像に対する盛り上がり度との組み合わせであるデータセット2aを用いたディープラーニングなどの機械学習が行われている。このため、情報処理装置1は、予測モデル2を用いることで、ゲーム動画Gから例えば1秒ごとに抽出した各ゲーム画像G10における盛り上がり度を算出することができる。具体的には、情報処理装置1は、予測モデル2に各ゲーム画像G10を入力することで、予測モデル2より盛り上がり度の出力を得る。
【0049】
図3に戻り、盛り上がり度計算部35は、分割部32が分割したシーンごとに、当該シーンに含まれるゲーム画像G10に基づき、予測モデル2を用いてシーンを観衆が視聴した場合の盛り上がり度を予測する処理部である。
【0050】
ハイライト動画作成部36は、盛り上がり度計算部35が予測した盛り上がり度に基づき、分割したシーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成する処理部である。出力部37は、ハイライト動画作成部36が生成したハイライト動画を出力する処理部である。
【0051】
ここで、盛り上がり度計算部35、ハイライト動画作成部36および出力部37に関する処理の詳細について説明する。図6は、実施形態にかかる情報処理装置の動作例を示すフローチャートである。
【0052】
図6に示すように、処理が開始されると、入力部31は、ハイライトを作成したいゲーム動画Gの入力を受け付ける(S20)。受け付けたゲーム動画Gについては、ゲーム動画情報21として記憶部20に格納される。
【0053】
次いで、分割部32は、ゲーム動画情報21を読み出して、ゲーム動画Gをシーンごとに分割する(S21)。また、分割部32は、ゲーム動画Gをゲームの開始から終了までの複数のパートに分割(区分)する(S22)。
【0054】
図7は、シーンごとの分割例を示す説明図である。図7に示すように、分割部32は、ゲーム動画Gにおけるゲーム画像G10a、G10b、…の前後のRGB値を比較する。次いで、分割部32は、前後のRGB値の変化が所定値より大きいところ(変化大)でカメラの切り替りが発生したと判断して、シーン分割を行う。図示例では、分割部32は、ゲーム画像G10bとゲーム画像G10cの間で変化大であったことから、シーンAと、シーンBとに分割している。分割部32は、分割した各シーン(シーンA、シーンB、…)について、シーン名などを付与した上でシーン別情報DB24に登録する。
【0055】
また、分割部32は、ゲーム開始から終了までの複数のパートに分割(区分)した上で、各シーンがどのパートに含まれるかを示すシーンタグを付与する。例えば、分割部32は、ゲーム開始から終了までを3等分に区切り、各シーンについて、前半、中盤、後半の3パートのどのパートであるかを示すシーンタグを付与してもよい。なお、分割するパート数については、3パートに限定するものではなく、起承転結の4パートの分割など、任意の数であってもよい。また、分割方法も、等分割に限定するものではなく、所定時間(例えば10分)ごとの刻み幅での分割であってもよい。なお、各シーンにおけるシーンタグの情報は、シーン別情報DB24に格納する。
【0056】
図6に戻り、S20に次いで、分割部32は、ゲーム動画Gを所定時間(例えば1秒)ごとのゲーム画像G10に分割する(S23)。なお、分割したゲーム画像G10についての情報(例えばファイル名(image名))は、S21において分割したシーンの中で対応するシーンのゲーム画像G10としてシーン別情報DB24に格納する。
【0057】
次いで、盛り上がり度計算部35は、分割した各ゲーム画像G10について、予測モデル2に各ゲーム画像G10を入力することで、盛り上がり度を予測する(S24)。なお、S23、S24の処理は、S21、S22と並列に行われるものであってもよいし、直列に行われるものであってもよい。各ゲーム画像G10について予測した盛り上がり度の値は、各ゲーム画像G10の盛り上がり度としてシーン別情報DB24に格納する。
【0058】
次いで、盛り上がり度計算部35は、各シーンに含まれるゲーム画像G10それぞれについて予測した盛り上がり度をもとに、シーンごとに盛り上がり度を算出する(S25)。
【0059】
図8図9は、各シーンの盛り上がり度の計算を説明する説明図である。図8に示すように、S21、S22の処理により、分割した各シーンにはシーンタグが付与されている。また、S23、S24の処理により、所定時間ごとに分割したゲーム画像G10については、盛り上がり度が予測されている。したがって、シーン別情報DB24には、上記の処理結果を組み合わせたデータが格納されている。具体的には、シーン別情報DB24には、シーンごとに、シーンタグ、シーンに含まれるゲーム画像G10および盛り上がり度が格納されている。
【0060】
このシーン別情報DB24を参照することで、盛り上がり度計算部35は、シーンごとの盛り上がり度を計算する。例えば、盛り上がり度計算部35は、シーンAの盛り上がり度を算出する場合、シーンAに該当するゲーム画像G10(001.img、002.img、003.img)の盛り上がり度を読み出し、シーンAの盛り上がり度(例えば合計値)を求める。
【0061】
次いで、ハイライト動画作成部36は、シーン別情報DB24における各シーンを、設定情報22において1シーンあたりの秒数として指定した時間に分割する(S26)。例えば、図8の右側に示すように、1シーンあたり10秒とされている場合、ハイライト動画作成部36は、シーン別情報DB24における各シーンについて、盛り上がり度がピークとなる時刻(t1)を中心に前後5秒の間を1シーンとする。
【0062】
次いで、ハイライト動画作成部36は、時間指定により分割したことで、シーンが重複したか否かを判定する(S27)。シーンが重複した場合、ハイライト動画作成部36は、重複したシーンの中で、盛り上がり度の低い方のシーンをハイライト動画の選定対象(以下、選定対象と呼ぶ)から除外する(S28)。
【0063】
例えば、図9の左側に示すように、シーンAについては、盛り上がり度がピークとなる時刻(t1)を中心に前後5秒を1シーンとしている。また、シーンBについては、盛り上がり度がピークとなる時刻(t2)を中心に前後5秒を1シーンとしている。ここで、互いの盛り上がり度のピークとなる時刻(t1、t2)が近いと、シーンに重複が生じる。
【0064】
このような重複が生じた場合、ハイライト動画作成部36は、各シーンにおける盛り上がり度のピーク値を比較し、盛り上がり度に低いシーンを選定対象から除外する。例えば、図示例では、シーンBが選定対象から除外される。
【0065】
次いで、ハイライト動画作成部36は、シーンごとに、盛り上がり度の平均を算出する(S29)。例えば、図9の右側に示すように、シーンAについては、シーンに含まれる各ゲーム画像G10の盛り上がり度をもとに、(2+3)/2=2.5の平均値が得られる。ここで、ハイライト動画作成部36は、算出した平均の高い順に、設定情報22においてハイライトのシーン数として指定した数のシーンを選定対象とする。
【0066】
次いで、ハイライト動画作成部36は、シーンタグを参照し、各パートに選定対象とした盛り上がりシーンがあるか否かを判定する(S30)。
【0067】
盛り上がりシーンがないパートがある場合(S30:No)、ハイライト動画作成部36は、そのパート内で所定の閾値を超えた盛り上がり度のシーンを選定対象に入れる(S31)。なお、各パートに盛りシーンがある場合(S30:Yes)は、そのままS32へ処理を進める。
【0068】
図10は、ハイライト動画の生成を説明する説明図である。図10に示すように、ハイライト動画作成部36は、シーンA~Iの中で、盛り上がり度(平均)の高い順に4シーンを選定対象としている(S31a)。ここで、中盤パートについては、選定対象となるシーンがない。このように、選定対象となるシーンがない中盤パートについて、ハイライト動画作成部36は、所定の閾値(例えば1.5以上)を超えた盛り上がり度のシーンEを選定対象に加える(S31b)。
【0069】
なお、ハイライト動画作成部36は、選定対象を新たに加える場合、選定対象が複数あるパートの中で、盛り上がり度の低いシーンを選定対象から除外してもよい。例えば、ハイライト動画作成部36は、中盤パートのシーンEを新たに加える場合、選定対象が複数ある前半パートの中で、盛り上がり度の低いシーン(例えばシーンB)を選定対象から除外する。このように、ハイライト動画作成部36は、選定対象のシーン数を所定数に維持し、指定したシーン数となるようにしてもよい。
【0070】
次いで、ハイライト動画作成部36は、選定対象のシーンを時系列順に並べてつなぎ合わせることでハイライト動画を生成する。次いで、出力部37は、ハイライト動画作成部36が生成したハイライト動画の表示出力、ファイル出力などを行って、ハイライト動画を出力する(S32)。
【0071】
図11は、ハイライト動画の提供例を説明する説明図である。図11に示すように、ユーザ(例えば大会主催者)は、e-Sprotsの大会終了後、試合動画(ゲーム動画G)を情報処理装置1に入力する(S40)。情報処理装置1は、深層学習(ディープラーニング)による予測モデル2を利用することで、観衆側の盛り上がりに応じたシーンによるハイライト動画を作成する(S41)。次いで、情報処理装置1は、例えば観客席に向けて設置した大型ディスプレイに生成したハイライト動画を出力することで、ハイライト動画を観客に提供する(S42)。これにより、ユーザは、試合動画におけるハイライトシーンを容易に観客に提供することができる。
【0072】
[効果について]
以上のように、情報処理装置1は、分割部32と、盛り上がり度計算部35と、ハイライト動画作成部36と、出力部37とを有する。分割部32は、コンピュータゲームの動画像をシーンごとに分割する。盛り上がり度計算部35は、分割したシーンごとに、当該シーンに含まれるゲーム画像G10に基づき、コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデル2を用いて、シーンを観衆が視聴した場合の盛り上がり度を算出する。ハイライト動画作成部36は、算出した盛り上がり度に基づき、分割したシーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成する。出力部37は、ハイライト動画作成部36が生成したハイライト動画を出力する。このため、情報処理装置1は、コンピュータゲームの各シーンより、観衆側の盛り上がりに応じたシーンによるハイライト動画を容易に提示できる。
【0073】
また、予測モデル2は、コンピュータゲームのゲーム画像G10に対し、当該ゲーム画像G10を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データ(データセット2a)に基づく機械学習により作成される。したがって、情報処理装置1では、分割したシーンごとに、そのシーンに含まれるゲーム画像G10を機械学習により学習した予測モデル2に適用することで、観衆の盛り上がり度を算出することができる。
【0074】
また、ハイライト動画作成部36は、コンピュータゲームの開始から終了までを所定数で区分したパートごとに、少なくとも1シーンを選定する。これにより、情報処理装置1は、例えば、前半、中盤、後半などの3パートに区分した場合には、前半、中盤、後半それぞれにおいて盛り上がりのあるシーンを含むハイライト動画を作成することができる。
【0075】
また、ハイライト動画作成部36は、選定したシーンを時系列順に並べてハイライト動画を生成する。このため、情報処理装置1は、コンピュータゲームの進行に合わせたハイライト動画を作成することができる。
【0076】
また、コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームであってもよい。情報処理装置1は、例えば、コンピュータゲームをスポーツとして捉え、複数のプレイヤーが対戦するe-Sprotsなどのゲーム動画よりハイライト動画を作成してもよい。
【0077】
また、分割部32は、複数のプレイヤーの中の第1のプレイヤーに関する視点から、第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、シーンの分割を行う。これにより、情報処理装置1は、複数のプレイヤーが対戦する対戦型ゲームにおける各プレイヤーの視点に応じて分割したシーンの中から、盛り上がりのあるシーンよりハイライト動画を作成することができる。
【0078】
また、情報処理装置1は、ハイライト動画に用いるシーンの数、および、シーンの時間の設定を受け付ける入力部31を更に有してもよい。ハイライト動画作成部36は、入力部31が受け付けたシーンの数、および、シーンの時間に応じたシーンの選定を行う。このように、情報処理装置1は、ハイライト動画に用いるシーンの数、および、シーンの時間をユーザが設定してもよい。
【0079】
[その他]
なお、上記の実施形態では、予測モデル2におけるニューラルネットワークの学習手法として、誤差逆伝播を例示したが、誤差逆伝播以外にも公知の様々な手法を採用することができる。また、ニューラルネットワークは、例えば入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。また、機械学習としては、ニューラルネットワーク以外にも、SVM(support vector machine)等の各種手法を用いてもよい。
【0080】
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
【0081】
例えば、入力部31と分割部32、教師データ作成部33と予測モデル作成部34、または、盛り上がり度計算部35とハイライト動画作成部36を統合してもよい。また、情報処理装置1は、教師データ作成部33および予測モデル作成部34を有する構成でなくてもよく、外部で作成した予測モデル情報23を記憶部20に格納する構成であってもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
【0082】
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
【0083】
[ハードウエア構成例について]
ところで、上記の各実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の各実施形態と同様の機能を有する学習プログラムを実行するコンピュータの一例を説明する。図12は、ハイライト動画作成プログラムを実行するコンピュータの一例を示すブロック図である。
【0084】
図12に示すように、コンピュータ100は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103とを有する。また、コンピュータ100は、記憶媒体からプログラム等を読み取る媒体読取装置104と、各種装置と接続するためのインタフェース装置105と、他の情報処理装置等と有線または無線により接続するための通信装置106とを有する。また、コンピュータ100は、各種情報を一時記憶するRAM107と、ハードディスク装置108とを有する。また、各装置101~108は、バス109に接続される。
【0085】
ハードディスク装置108には、図3に示した入力部31、分割部32、教師データ作成部33、予測モデル作成部34、盛り上がり度計算部35、ハイライト動画作成部36および出力部37の各処理部と同様の機能を有するハイライト動画作成プログラム108Aが記憶される。また、ハードディスク装置108には、ゲーム動画情報21、設定情報22、予測モデル情報23およびシーン別情報DB24に関する各種データが記憶される。入力装置102は、例えば、コンピュータ100の利用者から操作情報等の各種情報の入力を受け付ける。モニタ103は、例えば、コンピュータ100の利用者に対して表示画面等の各種画面を表示する。インタフェース装置105は、例えば印刷装置等が接続される。通信装置106は、図示しないネットワークと接続され、他の情報処理装置と各種情報をやりとりする。
【0086】
CPU101は、ハードディスク装置108に記憶されたハイライト動画作成プログラム108Aを読み出して、RAM107に展開して実行することで、各種の処理を行う。また、このハイライト動画作成プログラム108Aは、コンピュータ100を入力部31、分割部32、教師データ作成部33、予測モデル作成部34、盛り上がり度計算部35、ハイライト動画作成部36および出力部37として機能させることができる。
【0087】
なお、上記のハイライト動画作成プログラム108Aは、ハードディスク装置108に記憶されていなくてもよい。例えば、コンピュータ100が読み取り可能な記憶媒体に記憶されたハイライト動画作成プログラム108Aを、コンピュータ100が読み出して実行するようにしてもよい。コンピュータ100が読み取り可能な記憶媒体は、例えば、CD-ROMやDVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にハイライト動画作成プログラム108Aを記憶させておき、コンピュータ100がこれらからハイライト動画作成プログラム108Aを読み出して実行するようにしてもよい。
【0088】
以上の実施形態に関し、さらに以下の付記を開示する。
【0089】
(付記1)コンピュータゲームの動画像をシーンごとに分割し、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出し、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成し、
生成した前記ハイライト動画を出力する、
処理をコンピュータに実行させることを特徴とするハイライト動画生成プログラム。
【0090】
(付記2)前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とする付記1に記載のハイライト動画生成プログラム。
【0091】
(付記3)前記生成する処理は、前記コンピュータゲームの開始から終了までを所定数で区分したパートごとに、少なくとも1シーンを選定する、
ことを特徴とする付記1または2に記載のハイライト動画生成プログラム。
【0092】
(付記4)前記生成する処理は、選定した前記シーンを時系列順に並べて前記ハイライト動画を生成する、
ことを特徴とする付記1乃至3のいずれか一に記載のハイライト動画生成プログラム。
【0093】
(付記5)前記コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームである、
ことを特徴とする付記1乃至4のいずれか一に記載のハイライト動画生成プログラム。
【0094】
(付記6)前記分割する処理は、前記複数のプレイヤーの中の第1のプレイヤーに関する視点から、前記第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、前記シーンの分割を行う、
ことを特徴とする付記5に記載のハイライト動画生成プログラム。
【0095】
(付記7)前記ハイライト動画に用いるシーンの数、および、当該シーンの時間の設定を受け付ける処理を更にコンピュータに実行させ、
前記生成する処理は、受け付けた前記シーンの数、および、前記シーンの時間に応じたシーンの選定を行う、
ことを特徴とする付記1乃至6のいずれか一に記載のハイライト動画生成プログラム。
【0096】
(付記8)コンピュータゲームの動画像をシーンごとに分割し、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出し、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成し、
生成した前記ハイライト動画を出力する、
処理をコンピュータが実行することを特徴とするハイライト動画生成方法。
【0097】
(付記9)前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とする付記8に記載のハイライト動画生成方法。
【0098】
(付記10)前記生成する処理は、前記コンピュータゲームの開始から終了までを所定数で区分したパートごとに、少なくとも1シーンを選定する、
ことを特徴とする付記8または9に記載のハイライト動画生成方法。
【0099】
(付記11)前記生成する処理は、選定した前記シーンを時系列順に並べて前記ハイライト動画を生成する、
ことを特徴とする付記8乃至10のいずれか一に記載のハイライト動画生成方法。
【0100】
(付記12)前記コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームである、
ことを特徴とする付記8乃至11のいずれか一に記載のハイライト動画生成方法。
【0101】
(付記13)前記分割する処理は、前記複数のプレイヤーの中の第1のプレイヤーに関する視点から、前記第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、前記シーンの分割を行う、
ことを特徴とする付記12に記載のハイライト動画生成方法。
【0102】
(付記14)前記ハイライト動画に用いるシーンの数、および、当該シーンの時間の設定を受け付ける処理を更にコンピュータに実行させ、
前記生成する処理は、受け付けた前記シーンの数、および、前記シーンの時間に応じたシーンの選定を行う、
ことを特徴とする付記8乃至13のいずれか一に記載のハイライト動画生成方法。
【0103】
(付記15)コンピュータゲームの動画像をシーンごとに分割する分割部と、
分割した前記シーンごとに、当該シーンに含まれるゲーム画像に基づき、前記コンピュータゲームのゲーム画像から当該ゲーム画像を視聴した観衆の盛り上がり度を予測する予測モデルを用いて、前記シーンを観衆が視聴した場合の盛り上がり度を算出する予測部と、
算出した前記盛り上がり度に基づき、分割した前記シーンの中からハイライト動画に用いるシーンを選定してハイライト動画を生成する生成部と、
生成した前記ハイライト動画を出力する出力部と、
を有することを特徴とする情報処理装置。
【0104】
(付記16)前記予測モデルは、前記コンピュータゲームのゲーム画像に対し、当該ゲーム画像を視聴した観衆の音量に基づく盛り上がり度が正解として付与された教師データに基づく機械学習により作成される、
ことを特徴とする付記15に記載の情報処理装置。
【0105】
(付記17)前記生成部は、前記コンピュータゲームの開始から終了までを所定数で区分したパートごとに、少なくとも1シーンを選定する、
ことを特徴とする付記15または16に記載の情報処理装置。
【0106】
(付記18)前記生成部は、選定した前記シーンを時系列順に並べて前記ハイライト動画を生成する、
ことを特徴とする付記15乃至17のいずれか一に記載の情報処理装置。
【0107】
(付記19)前記コンピュータゲームは、複数のプレイヤーが対戦する対戦型ゲームである、
ことを特徴とする付記15乃至18のいずれか一に記載の情報処理装置。
【0108】
(付記20)前記分割部は、前記複数のプレイヤーの中の第1のプレイヤーに関する視点から、前記第1のプレイヤーとは別の第2のプレイヤーに関する視点への切り替えをもとに、前記シーンの分割を行う、
ことを特徴とする付記19に記載の情報処理装置。
【0109】
(付記21)前記ハイライト動画に用いるシーンの数、および、当該シーンの時間の設定を受け付ける入力部を更に有し、
前記生成部は、受け付けた前記シーンの数、および、前記シーンの時間に応じたシーンの選定を行う、
ことを特徴とする付記15乃至20のいずれか一に記載の情報処理装置。
【符号の説明】
【0110】
1…情報処理装置
2…予測モデル
2a…データセット
10…通信部
20…記憶部
21…ゲーム動画情報
22…設定情報
23…予測モデル情報
24…シーン別情報DB
30…制御部
31…入力部
32…分割部
33…教師データ作成部
34…予測モデル作成部
35…盛り上がり度計算部
36…ハイライト動画作成部
37…出力部
100…コンピュータ
101…CPU
102…入力装置
103…モニタ
104…媒体読取装置
105…インタフェース装置
106…通信装置
107…RAM
108…ハードディスク装置
108A…ハイライト動画作成プログラム
109…バス
G…ゲーム動画
G1…ゲーム画面
G2…インフォメーション画面
G10、G10a~G10d…ゲーム画像
P1、P2…プレイヤー
t1、t2…時刻
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12