(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024019918
(43)【公開日】2024-02-14
(54)【発明の名称】情報処理装置、情報処理方法及びプログラム
(51)【国際特許分類】
G06V 10/82 20220101AFI20240206BHJP
G06T 7/00 20170101ALI20240206BHJP
A63F 13/58 20140101ALI20240206BHJP
A63F 13/825 20140101ALI20240206BHJP
A63F 13/53 20140101ALI20240206BHJP
【FI】
G06V10/82
G06T7/00 350C
A63F13/58
A63F13/825
A63F13/53
【審査請求】未請求
【請求項の数】19
【出願形態】OL
(21)【出願番号】P 2022122693
(22)【出願日】2022-08-01
(71)【出願人】
【識別番号】515130201
【氏名又は名称】株式会社Preferred Networks
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】中島 統太郎
(72)【発明者】
【氏名】シュ カシュン
(72)【発明者】
【氏名】リ ミンジュン
(72)【発明者】
【氏名】ジン ヤンハ
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA02
5L096AA06
5L096DA01
5L096FA02
5L096GA40
5L096HA11
5L096JA22
5L096KA04
(57)【要約】
【課題】様々に外観が変化するキャラクタを育成可能なサービス又は装置を提供する。
【解決手段】情報処理装置は、少なくとも1つのメモリと、少なくとも1つのプロセッサと、を備え、少なくとも1つのプロセッサは、カテゴリに関する情報を取得し、カテゴリに関する情報に基づいて、第1のキャラクタ画像の第1の潜在変数から第2の潜在変数を生成し、第2の潜在変数と生成モデルとに基づいて、第2のキャラクタ画像を生成する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
カテゴリに関する情報を取得し、
前記カテゴリに関する情報に基づいて、第1のキャラクタ画像の第1の潜在変数から第2の潜在変数を生成し、
前記第2の潜在変数と生成モデルとに基づいて、第2のキャラクタ画像を生成する、
情報処理装置。
【請求項2】
前記カテゴリに関する情報が第1のカテゴリに関する情報である場合に生成される前記第2の潜在変数と、前記カテゴリに関する情報が第2のカテゴリに関する情報である場合に生成される前記第2の潜在変数とは、異なる情報である、
請求項1に記載の情報処理装置。
【請求項3】
前記カテゴリに関する情報が第1のカテゴリに関する情報である場合に生成される前記第2の潜在変数と、前記カテゴリに関する情報が第2のカテゴリに関する情報である場合に生成される前記第2の潜在変数とは、前記第1の潜在変数からの変化量、変化割合又は変化対象のいずれか1つが異なる、
請求項2に記載の情報処理装置。
【請求項4】
前記少なくとも1つのプロセッサは、
前記カテゴリに関する情報が複数のカテゴリを示す情報を含むとき、前記複数のカテゴリに基づいて、前記第2の潜在変数を生成する、
請求項1に記載の情報処理装置。
【請求項5】
前記少なくとも1つのプロセッサは、
少なくとも前記複数のカテゴリに含まれる各カテゴリの数又は前記複数のカテゴリに対する各カテゴリの割合のいずれか1つに基づいて、前記第2の潜在変数を生成する、
請求項4に記載の情報処理装置。
【請求項6】
前記少なくとも1つのプロセッサは、
第3のキャラクタ画像の第3の潜在変数と第4のキャラクタ画像の第4の潜在変数とを融合した融合潜在変数と前記生成モデルとに基づいて、前記第1のキャラクタ画像を生成する、
請求項1乃至請求項5のいずれか1項に記載の情報処理装置。
【請求項7】
前記少なくとも1つのプロセッサは、
ユーザによる操作に応じて決定された融合比率に従って、前記融合潜在変数を生成する、
請求項6に記載の情報処理装置。
【請求項8】
前記少なくとも1つのプロセッサは、
前記第2の潜在変数と第3のキャラクタ画像の第3の潜在変数とを融合した融合潜在変数と前記生成モデルとに基づいて、第4のキャラクタ画像を生成する、
請求項1乃至請求項5のいずれか1項に記載の情報処理装置。
【請求項9】
前記少なくとも1つのプロセッサは、
ユーザによる操作に応じて決定された融合比率に従って、前記融合潜在変数を生成する、
請求項8に記載の情報処理装置。
【請求項10】
前記第3の潜在変数は、前記第2の潜在変数に基づいて生成された潜在変数である、
請求項8に記載の情報処理装置。
【請求項11】
前記少なくとも1つのプロセッサは、
前記生成モデルが出力した画像と予め用意したテンプレート画像とを合成することで前記第2のキャラクタ画像を生成する、
請求項1乃至請求項5のいずれか1項に記載の情報処理装置。
【請求項12】
表示装置と、
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
第1のキャラクタ画像を前記表示装置に表示し、
カテゴリに関する情報をユーザの指示に基づいて取得し、
前記カテゴリに関する情報に基づいて生成された第2のキャラクタ画像を取得し、
前記第2のキャラクタ画像を前記表示装置に表示し、
前記第2のキャラクタ画像は、第2の潜在変数と生成モデルとに基づいて生成された画像であり、
前記第2の潜在変数は、前記カテゴリに関する情報に基づいて、前記第1のキャラクタ画像の第1の潜在変数から生成された潜在変数である、
情報処理装置。
【請求項13】
前記少なくとも1つのプロセッサは、
第3のキャラクタ画像を前記表示装置に表示し、
前記第2のキャラクタ画像と前記第3のキャラクタ画像とを融合した第4のキャラクタ画像を取得し、
前記第4のキャラクタ画像を前記表示装置に表示する、
請求項12に記載の情報処理装置。
【請求項14】
前記第3のキャラクタ画像は、前記第2の潜在変数に基づいて生成された画像である、
請求項13に記載の情報処理装置。
【請求項15】
前記第4のキャラクタ画像は、前記第2の潜在変数と前記第3のキャラクタ画像の第3の潜在変数とを融合した融合潜在変数と前記生成モデルとに基づいて生成された画像である、
請求項13又は請求項14に記載の情報処理装置。
【請求項16】
前記少なくとも1つのプロセッサは、
前記ユーザによる操作に応じて融合比率を決定し、
前記融合潜在変数は、前記融合比率に従って、前記第2の潜在変数と前記第3の潜在変数とを融合した潜在変数である、
請求項15に記載の情報処理装置。
【請求項17】
少なくとも1つのプロセッサが、
カテゴリに関する情報を取得し、
前記カテゴリに関する情報に基づいて、第1のキャラクタ画像の第1の潜在変数から第2の潜在変数を生成し、
前記第2の潜在変数と生成モデルとに基づいて、第2のキャラクタ画像を生成する、
情報処理方法。
【請求項18】
少なくとも1つのプロセッサが、
第1のキャラクタ画像を表示装置に表示し、
カテゴリに関する情報をユーザの指示に基づいて取得し、
前記カテゴリに関する情報に基づいて生成された第2のキャラクタ画像を取得し、
前記第2のキャラクタ画像を前記表示装置に表示し、
前記第2のキャラクタ画像は、第2の潜在変数と生成モデルとに基づいて生成された画像であり、
前記第2の潜在変数は、前記カテゴリに関する情報に基づいて、前記第1のキャラクタ画像の第1の潜在変数から生成された潜在変数である、
情報処理方法。
【請求項19】
少なくとも1つのプロセッサに、
第1のキャラクタ画像を表示装置に表示させ、
カテゴリに関する情報をユーザの指示に基づいて取得させ、
前記カテゴリに関する情報に基づいて生成された第2のキャラクタ画像を取得させ、
前記第2のキャラクタ画像を前記表示装置に表示させ、
前記第2のキャラクタ画像は、第2の潜在変数と生成モデルとに基づいて生成された画像であり、
前記第2の潜在変数は、前記カテゴリに関する情報に基づいて、前記第1のキャラクタ画像の第1の潜在変数から生成されたものである、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法及びプログラムに関する。
【背景技術】
【0002】
深層学習を利用して、様々な画像処理を行う技術が実現されている。例えば、画像の生成、画像の編集、複数の画像の融合等が実現されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】国際公開2019/118990号
【特許文献2】特開2021-86462号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
本開示の課題は、様々に外観が変化するキャラクタを育成可能なサービス又は装置を提供することである。
【課題を解決するための手段】
【0005】
本開示の一態様による情報処理装置は、少なくとも1つのメモリと、少なくとも1つのプロセッサと、を備え、少なくとも1つのプロセッサは、カテゴリに関する情報を取得し、カテゴリに関する情報に基づいて、第1のキャラクタ画像の第1の潜在変数から第2の潜在変数を生成し、第2の潜在変数と生成モデルとに基づいて、第2のキャラクタ画像を生成する。
【図面の簡単な説明】
【0006】
【
図1】情報処理システムの全体構成の一例を示す図である。
【
図2】情報処理システムの機能構成の一例を示す図である。
【
図11】キャラクタ管理画面の一例を示す図である。
【
図12】キャラクタ管理画面の一例を示す図である。
【
図14】情報処理方法の処理手順の一例を示す図である。
【
図18】情報処理装置のハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0007】
以下、本開示の各実施形態について添付の図面を参照しながら説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
【0008】
[情報処理システムの概略]
本開示の一実施形態における情報処理システムは、キャラクタを育成するゲームサービスを提供する情報処理システムである。本実施形態における情報処理システムは、所定の物体を表した画像(以下、「キャラクタ画像」とも呼ぶ)に基づいて、ユーザに提示するキャラクタを構築する。本実施形態におけるゲームサービスでは、ユーザの指示に応じて取得された情報に基づいて、キャラクタ画像が様々に変化し、これに伴ってキャラクタの外観が様々に変化する。
【0009】
本実施形態において、キャラクタ画像に表される物体は、人物である。人物は、実在する人物でも架空の人物でもよい。人物の属性は限定されず、性別、年齢、国籍及び人種は任意でよい。キャラクタ画像に表される物体は人物に限定されず、例えば、実在する生物、架空の生物、ロボット、擬人化された物体等、どのようなものでもよい。キャラクタ画像の表現形態は、例えば、イラスト風、実写風、コンピュータグラフィックス(CG: Computer Graphics)等、どのようなものでもよい。また、キャラクタ画像は、動画を構成する1以上の画像でもよい。
【0010】
本実施形態におけるゲームサービスでは、キャラクタの進化及び融合、並びにアクセサリの装着によりキャラクタの外観が変化する。キャラクタの進化は、ユーザの指示により取得された情報に基づいてキャラクタの属性を変化させ、属性の変化を反映したキャラクタ画像を生成することで実現される。キャラクタの融合は、キャラクタ画像を他のキャラクタ画像と融合することで実現される。アクセサリの装着は、ユーザの指示により選択されたアクセサリ画像をキャラクタ画像に合成することで実現される。
【0011】
キャラクタの属性の一例は、人物の耳、目、口等の形状、肌や目等の色、髪型や髪の色、腕の位置やポーズ等の姿勢、喜怒哀楽等の表情、服装の種類、色、形等、眼鏡や帽子等の付属物等である。なお、キャラクタの属性はこれらに限定されず、キャラクタの外観を変更する上でユーザにとって意味のある項目であれば、どのような項目を属性として定義してもよい。
【0012】
本実施形態において、キャラクタの属性は、髪の色(金髪、赤髪、黒髪・・・等)、目の色(青眼、赤眼、茶眼・・・等)、髪型(長髪、短髪、ツインテール髪・・・等)等である。例えば、金髪をしたキャラクタは、金髪属性が高く、その他の髪の色に関する属性は平均値に設定される。キャラクタの外観は、各属性のバランスにより定まるため、膨大な種類のキャラクタの外観が存在し得る。
【0013】
本実施形態において、キャラクタ画像は、訓練済みの生成モデルを用いて生成される。キャラクタの進化においては、現在のキャラクタ画像の潜在変数を取得し、当該潜在変数の属性を変化させた潜在変数を訓練済みの生成モデルに入力することで、進化後のキャラクタ画像を生成する。キャラクタの融合においては、現在のキャラクタ画像の潜在変数及び融合相手とするキャラクタ画像の潜在変数を取得し、取得された2つの潜在変数を融合した融合潜在変数を訓練済みの生成モデルに入力することで、融合後のキャラクタ画像を生成する。
【0014】
本実施形態において、ユーザはゲーム内で使用されるアイテムを保有することができる。本実施形態におけるアイテムには、成長アイテム及びアクセサリが含まれる。成長アイテムを所定数保有することで、キャラクタの融合を実行可能となる。アクセサリは、キャラクタに装着させることができる。アクセサリの装着は、現在のキャラクタ画像にアクセサリの画像を合成することで実現される。
【0015】
[情報処理システムの全体構成]
本開示の一実施形態における情報処理システムの全体構成について、
図1を参照しながら説明する。
図1は、本実施形態における情報処理システムの全体構成の一例を示すブロック図である。
【0016】
図1に示されているように、本実施形態における情報処理システム1は、情報処理サーバ10、情報処理端末20及びSNS(Social Networking Service)30を含む。情報処理サーバ10、情報処理端末20及びSNS30は、LAN(Local Area Network)、インターネット等の通信ネットワーク8を介してデータ通信可能に接続されている。
【0017】
本実施形態における情報処理システム1は、情報処理サーバ10と情報処理端末20とが連携して、ゲームサービスに実装される所定の機能を実行する。本実施形態において、ゲームサービスに実装される機能は、育成機能、融合機能、装着機能、抽選機能、課金機能及び対戦機能等である。
【0018】
育成機能は、キャラクタの進化を繰り返し、異なる外観や知識を有するキャラクタに育成する機能である。融合機能は、現在のキャラクタを他のキャラクタと融合し、異なる外観を有するキャラクタに変化させる機能である。装着機能は、ユーザが獲得したアクセサリをキャラクタに装着させることで、異なる外観及びパラメータを有するキャラクタに変化させる機能である。
【0019】
抽選機能は、他の機能で使用されるアイテム等をユーザに獲得させる抽選を実行する機能である。課金機能は、現実の通貨で決済することでゲーム内でのみ利用可能なゲーム内通貨(以下、「ポイント」とも呼ぶ)を購入する機能である。対戦機能は、現在のキャラクタを用いて他のキャラクタとの優劣を競う対戦を実行する機能である。
【0020】
情報処理サーバ10は、情報処理端末20にゲームサービスを提供するパーソナルコンピュータ、ワークステーション、サーバ等の情報処理装置である。情報処理サーバ10は、情報処理端末20からの要求に応じて、所定の情報処理を実行する。情報処理サーバ10が行う情報処理の一例は、キャラクタ画像の生成、融合及び合成等である。
【0021】
情報処理端末20は、ゲームサービスのユーザが操作するパーソナルコンピュータ、タブレット端末、スマートフォン等の情報処理装置である。情報処理端末20は、ゲーム専用端末でもよく、携帯型のゲーム専用端末でも据え置き型のゲーム専用端末でもよい。情報処理端末20は、ユーザがゲームサービスに対する操作を行うための画面を表示する表示装置を備えていてもよい。表示装置は、情報処理端末20と有線又は無線のインタフェースにより接続されるディスプレイ等であってもよい。
【0022】
情報処理端末20は、ユーザの指示に応じて、所定の情報処理を情報処理サーバ10に要求する。情報処理端末20は、情報処理サーバ10から情報処理結果を受信し、ユーザに対して出力する。
【0023】
SNS30は、インターネットを介して社会的ネットワークを構築可能な情報通信サービスである。SNS30にアカウントを有するユーザ同士は、ユーザが指定した公開範囲に応じてメッセージ等の情報を共有することが可能となっている。
【0024】
情報処理端末20には、SNS30に作成されたアカウントを設定可能となっている。ゲームサービスのユーザは、情報処理端末20にSNS30のアカウントを設定することで、他のユーザとオンラインで連携する機能を実行可能となる。オンラインで連携する機能の一例は、キャラクタ画像やキャラクタとの会話内容等をSNS30上で公開する(言い替えると、他のユーザから参照可能とする)機能である。オンラインで連携する機能の他の例は、キャラクタを進化させるために取得する情報をSNS30から抽出する機能である。
【0025】
なお、
図1に示した情報処理システム1の全体構成は一例であって、用途や目的に応じて様々なシステム構成例があり得る。例えば、情報処理サーバ10は、複数台のコンピュータにより実現してもよいし、クラウドコンピューティングのサービスとして実現してもよい。また、例えば、情報処理システム1は、情報処理サーバ10及び情報処理端末20がそれぞれ備えるべき機能を兼ね備えたスタンドアローンの情報処理装置により実現してもよい。
【0026】
情報処理サーバ10及び情報処理端末20は、一方の装置が有する記憶装置に記憶されている情報の一部又は全部が、他方の装置が有する記憶装置に記憶される構成としてもよい。また、情報処理サーバ10及び情報処理端末20のいずれかが有する記憶装置に記憶されている情報の一部又は全部が、外部の記憶装置に記憶される構成としてもよい。
【0027】
[情報処理システムの機能構成]
本開示の一実施形態における情報処理システムの機能構成について、
図2を参照しながら説明する。
図2は、本実施形態における情報処理システムの機能構成の一例を示すブロック図である。
【0028】
<情報処理サーバ>
図2に示されているように、本実施形態における情報処理サーバ10は、画像生成部101、画像融合部102、画像合成部103、モデル記憶部110、画像情報記憶部111及びユーザ情報記憶部112を備える。
【0029】
≪モデル記憶部≫
モデル記憶部110には、訓練済みの生成モデルが記憶される。生成モデルは、所定の画像処理を行う機械学習モデルである。本実施形態における生成モデルは、潜在変数を入力とし、当該潜在変数に対応する画像を出力する画像生成モデルである。生成モデルの構造はニューラルネットワークであってもよく、ディープニューラルネットワークであってもよい。生成モデルの構造及びその訓練方法は、一例として、下記参考文献1に開示されている。なお、参考文献1の内容は、本明細書において参照により引用される。
【0030】
〔参考文献1〕米国特許出願公開第2021/398336号明細書
【0031】
モデル記憶部110には、複数の生成モデルが記憶されてもよい。複数の生成モデルは、処理対象とする画像の特徴に応じて用意してもよい。画像の特徴の一例は、画像に含まれる人物の身体部位(例えば、顔、上半身、全身等)、性別、服等である。画像の特徴の他の一例は、画像に含まれる物体の種類、画像の解像度、画像のタッチ等である。ただし、生成モデルを用意する単位はこれらに限定されず、他の特徴に応じて生成モデルを用意してもよい。モデル記憶部110に複数の生成モデルが記憶されている場合、ユーザの指示に基づいて使用する生成モデルが選択されてもよい。
【0032】
モデル記憶部110に複数の生成モデルが記憶されている場合、ある生成モデルに対応する潜在変数は、他の生成モデルでは使用できないことがある。モデル記憶部110に複数の生成モデルが記憶されている場合には、生成モデルを識別する識別情報(例えば、生成モデルの名称、生成モデルのID等)と、その生成モデルで利用可能な潜在変数とを関連付ける情報を、モデル記憶部110に記憶してもよい。生成モデルと潜在変数とを関連付ける情報は、一例として、他の生成モデルを識別する識別情報、他の生成モデルへのリンクを示す情報、生成モデルと潜在変数との組み合わせを示す情報等である。
【0033】
モデル記憶部110には、訓練済みの言語処理モデルが記憶される。言語処理モデルは、所定の自然言語処理を行う機械学習モデルである。本実施形態における言語処理モデルは、単語を入力とし、当該単語を用いた文章を出力する公知の文章生成モデルである。言語処理モデルの構造はニューラルネットワークであってもよく、ディープニューラルネットワークであってもよい。
【0034】
≪画像情報記憶部≫
画像情報記憶部111には、情報処理サーバ10が生成したキャラクタ画像に関する画像情報が記憶される。画像情報は、各ユーザが保有するキャラクタ画像、当該キャラクタ画像に対応する潜在変数、及び当該キャラクタ画像に対応する属性値を含む。画像情報は、各ユーザが保存した過去のキャラクタ画像に関する情報を含んでもよい。
【0035】
潜在変数は、生成モデルを用いた画像生成に必要な情報であり、訓練時に生成モデルに入力する変数が従う確率分布からサンプリングされたものであってもよい。また、潜在変数は、一例として、特許文献1に開示されている潜在情報であってもよい。また、潜在変数は、特許文献1に開示されているコード又は属性のいずれかを含む情報であってもよい。また、潜在変数は、対応する生成モデルに入力される情報であって、ノイズ、遺伝子、属性又は姿勢のいずれかの情報を含むものであってもよい。
【0036】
≪ユーザ情報記憶部≫
ユーザ情報記憶部112には、ゲームサービスのユーザに関するユーザ情報が記憶される。本実施形態におけるユーザ情報は、認証情報及び端末情報を含む。認証情報は、ユーザを認証するために用いる情報である。認証情報の一例は、当該ユーザを識別するユーザID及び当該ユーザが設定したパスワードである。端末情報は、当該ユーザが利用している情報処理端末20を識別する識別情報である。端末情報は、例えば、ユーザがゲームサービスを利用可能な端末を1台に限定するために用いられる。
【0037】
≪画像生成部≫
画像生成部101は、モデル記憶部110に記憶されている生成モデルを用いて、キャラクタ画像を生成する。具体的には、画像生成部101は、まず、潜在変数を生成する。次に、画像生成部101は、生成された潜在変数を生成モデルに入力することで、キャラクタ画像を生成する。そして、画像生成部101は、生成されたキャラクタ画像を、潜在変数及び属性値と関連付けて、画像情報記憶部111に記憶する。また、画像生成部101は、キャラクタ画像を情報処理端末20に送信する。
【0038】
生成モデルを用いて画像の属性を調整する方法の詳細は、一例として、下記参考文献2に開示されている。
【0039】
〔参考文献2〕Minjun Li, Yanghua Jin, Huachun Zhu, "Surrogate Gradient Field for Latent Space Manipulation," arXiv:2104.09065, 2021.
【0040】
本実施形態における画像生成部101は、現在のキャラクタ画像を進化させた進化後のキャラクタ画像を生成するとき、又は融合相手候補のキャラクタ画像を生成するときに用いられる。進化後のキャラクタ画像を生成するときは、画像生成部101は、現在のキャラクタ画像の潜在変数を進化後の属性に対応するように変換することで、潜在変数を生成する。このように潜在変数を生成することで、画像生成部101は、現在のキャラクタ画像から属性を変化させた進化後のキャラクタ画像を生成する。
【0041】
融合相手候補のキャラクタ画像を生成するときは、画像生成部101は、乱数として潜在変数を生成し、現在のキャラクタ画像において値の大きい所定数の属性の値を大きく変更することで、潜在変数を生成する。画像生成部101は、現在のキャラクタ画像において値の大きい所定数の属性は値が大きく、その他の属性は値の変動が小さい乱数を潜在変数として生成してもよい。画像生成部101は、例えば、値の大きい順に3個の属性において、値が大きくなり、その他の属性において、値の変動が小さくなるように潜在変数を生成する。このように潜在変数を生成することで、画像生成部101は、現在のキャラクタ画像の属性の傾向が維持された融合相手候補のキャラクタ画像を生成する。
【0042】
画像生成部101は、訓練済みの生成モデルにより生成した画像を、予め生成したテンプレート画像と合成することで、キャラクタ画像を生成してもよい。すなわち、本実施形態におけるキャラクタ画像は、訓練済みの生成モデルにより生成した画像であってもよいし、訓練済みの生成モデルにより生成した画像と予め生成したテンプレート画像とを合成した画像であってもよい。画像生成部101は、一例として、人物の顔又は上半身を表す画像を生成モデルにより生成し、人物の胴体を表すテンプレート画像と合成してもよい。
【0043】
この場合、画像生成部101は、以下のようにしてキャラクタ画像を生成する。画像生成部101は、まず、潜在変数を生成し、生成された潜在変数を生成モデルに入力することで、顔又は上半身を表す画像を生成する。次に、画像生成部101は、生成された画像をパーツ毎に分解し、各パーツに対応するレイヤーに分割された画像を生成する。
【0044】
画像生成部101は、一例として、セグメンテーションモデルを用いて、画像をパーツ毎に分解する。この場合、画像生成部101は、生成モデルにより生成された画像を、セグメンテーションモデルに入力し、セグメンテーションマップを予測する。画像生成部101は、セグメンテーションマップの分類情報に基づいて、パーツ毎に分解された画像を生成する。
【0045】
セグメンテーションモデルは、一例として、RGB画像を入力とし、入力された画像にピクセル毎の分類情報を付与した情報を出力する機械学習モデルである。セグメンテーションモデルの構造は、ニューラルネットワークでもよい。
【0046】
画像生成部101は、生成された各パーツに対して後処理を行ってもよい。画像生成部101は、一例として、インペインティングモデルを用いて、各パーツの隠蔽された部分を補完する。この場合、画像生成部101は、生成モデルにより生成された画像又はそれらの画像から切り出した一部の画像を、インペインティングモデルに入力し、各パーツの隠蔽された部分が補完された画像を生成する。
【0047】
インペインティングモデルは、一例として、RGB画像及び補完する領域のマスクを入力とし、マスクで指定された領域が補完されたRGB画像を出力する機械学習モデルである。インペインティングモデルの構造は、ニューラルネットワークでもよいし、その他のコンピュータビジョン手法でもよい。
【0048】
画像生成部101は、インペインティングモデルによる補完後の画像に存在しないパーツを生成してもよい。例えば、画像生成部101は、生成モデルにより生成された画像に表された人物が目を開いている場合、閉じている目の画像を生成してもよい。
【0049】
続いて、画像生成部101は、レイヤーに分割された画像のうち、胴体に対応するレイヤーの画像を、胴体を表すテンプレート画像に入れ替える。このように生成することで、生成モデルにより生成された顔又は上半身を表す画像と予め生成された胴体を表す画像とが調和したキャラクタ画像を生成することができる。
【0050】
画像生成部101は、訓練済みの生成モデルを用いて生成したキャラクタ画像に基づいて、キャラクタの動きを表現するキャラクタ画像を生成してもよい。なお、キャラクタの動きを表現するために用いるキャラクタ画像は、訓練済みの生成モデルにより生成した画像であってもよいし、訓練済みの生成モデルにより生成した画像と予め生成したテンプレート画像とを合成した画像であってもよい。画像生成部101は、一例として、キャラクタが瞬きする動きを表現したキャラクタ画像を生成してもよい。
【0051】
この場合、画像生成部101は、以下のようにしてキャラクタ画像を生成する。画像生成部101は、まず、潜在変数を生成し、生成された潜在変数を生成モデルに入力することで、状態が異なる複数のキャラクタ画像を生成する。画像生成部101は、一例として、目を開いた状態のキャラクタ画像及び目を閉じた状態のキャラクタ画像を生成する。
【0052】
次に、画像生成部101は、生成された各キャラクタ画像をパーツ毎に分解する。また、画像生成部101は、生成された各キャラクタ画像から特徴点を検出する。画像生成部101は、一例として、上述のセグメンテーションモデルを用いて、各キャラクタ画像をパーツ毎に分解してもよい。
【0053】
続いて、画像生成部101は、予め定義した動作テンプレートに従って、キャラクタ画像の各パーツを動作させる。動作テンプレートは、パーツ及び特徴点に基づいてキャラクタの動きを表現した情報である。画像生成部101は、一例として、目を開いた状態のキャラクタ画像及び目を閉じた状態のキャラクタ画像を用いて、キャラクタが瞬きする動きを表現したキャラクタ画像を生成することができる。
【0054】
画像生成部101は、ある状態のキャラクタ画像に対して、状態を変化させたキャラクタ画像に変換することで、状態が異なる複数のキャラクタ画像を生成してもよい。画像生成部101は、一例として、まず、生成モデルに基づいて、目を開いた状態のキャラクタ画像を生成する。次に、画像生成部101は、目を開いた状態のキャラクタ画像を訓練済みの変換モデルに入力することで、目を閉じた状態のキャラクタ画像に変換する。この場合、訓練済みの変換モデルは、一例として、目を開いた状態のRGB画像を入力とし、目を閉じた状態のRGB画像を出力するように訓練された機械学習モデルである。変換モデルの構造は、ニューラルネットワークでもよい。
【0055】
≪画像融合部≫
画像融合部102は、モデル記憶部110に記憶されている生成モデルを用いて、少なくとも2つのキャラクタ画像を融合する。具体的には、画像融合部102は、まず、情報処理端末20から現在のキャラクタ画像を示す情報、融合相手のキャラクタ画像を示す情報及び融合比率を表す情報を受信する。
【0056】
次に、画像融合部102は、画像情報記憶部111に記憶されている現在のキャラクタ画像の潜在変数及び融合相手のキャラクタ画像の潜在変数を読み出す。続いて、画像融合部102は、現在のキャラクタ画像の潜在変数と融合相手のキャラクタ画像の潜在変数を融合することで、融合潜在変数を生成する。
【0057】
画像融合部102は、一例として、現在のキャラクタ画像の潜在変数と融合相手のキャラクタ画像の潜在変数とを融合比率に従って重み付き加算することで、融合潜在変数を生成する。画像融合部102は、一例として、「融合潜在変数=α*潜在変数A+(1-α)*潜在変数B」を計算する。ただし、α(0≦α≦1)は融合比率であり、潜在変数Aは現在のキャラクタ画像の潜在変数であり、潜在変数Bは融合相手のキャラクタ画像の潜在変数である。
【0058】
なお、画像融合部102は、重み付き加算に加えて、さらに所定の操作を適用することで融合潜在変数を生成してもよい。所定の操作は、潜在変数に対する交叉、突然変異、選択などの遺伝的操作、四則演算、論理演算などの所定の合成演算などであってもよい。
【0059】
次に、画像融合部102は、融合潜在変数を生成モデルに入力することで、現在のキャラクタ画像と融合相手のキャラクタ画像とを融合した融合後のキャラクタ画像を生成する。そして、画像融合部102は、生成した融合後のキャラクタ画像を、融合潜在変数と関連付けて、画像情報記憶部111に記憶する。また、画像融合部102は、融合後のキャラクタ画像を情報処理端末20に送信する。
【0060】
生成モデルを用いて画像を融合する方法の詳細は、一例として、特許文献1に開示されている。なお、画像融合部102は、3つ以上の画像を融合して融合画像を生成してもよい。
【0061】
≪画像合成部≫
画像合成部103は、キャラクタ画像にアクセサリ画像を合成する。具体的には、画像融合部102は、まず、情報処理端末20から現在のキャラクタ画像及びアクセサリ画像を受信する。次に、画像合成部103は、現在のキャラクタ画像にアクセサリ画像を合成することで、合成後のキャラクタ画像を生成する。
【0062】
画像合成部103は、アクセサリの種別に応じて、現在のキャラクタ画像における適切な位置にアクセサリ画像を合成する制御を行う。例えば、アクセサリが眼鏡であれば、現在のキャラクタ画像における目、耳及び鼻等のパーツ位置を検出し、検出されたパーツ位置に適合するように眼鏡の画像を合成する。そして、画像合成部103は、合成後のキャラクタ画像を情報処理端末20に送信する。
【0063】
<情報処理端末>
図2に示されているように、本実施形態における情報処理端末20は、表示制御部200、育成操作部201、融合操作部202、装着操作部203、抽選操作部204、課金操作部205、対戦操作部206、キャラクタ記憶部210、タグ情報記憶部211及びアイテム記憶部212を備える。
【0064】
≪キャラクタ記憶部≫
キャラクタ記憶部210には、ユーザが取得したキャラクタ画像に関するキャラクタ情報が記憶される。キャラクタ情報は、キャラクタ画像、及び当該キャラクタ画像のランク並びに経験値を含む。キャラクタ情報は、ユーザが保存した過去のキャラクタ画像に関する情報を含んでもよい。
【0065】
ユーザが複数のキャラクタ画像を保存している場合、キャラクタ情報には、他のキャラクタ情報との関係性を示す情報が含まれる。他のキャラクタ情報との関係性を示す情報は、当該キャラクタが進化により得られた場合には進化前のキャラクタ画像に関するキャラクタを示す情報であり、当該キャラクタが融合により得られた場合には融合前のキャラクタ画像及び融合相手のキャラクタ画像に関するキャラクタを示す情報である。
【0066】
≪タグ情報記憶部≫
タグ情報記憶部211には、カテゴリに関する情報が記憶されている。カテゴリに関する情報は、少なくとも、所定のカテゴリそのものを示す情報、所定のカテゴリを間接的に示す情報、所定のカテゴリに分類された情報、又は、所定のカテゴリが付与された情報のいずれか一つを含む。ここで、所定のカテゴリに分類された情報は、所定のカテゴリに分類された単語を表す情報、又は、所定のカテゴリに割り当てられた色を表す情報のいずれかを含んでもよい。
【0067】
本実施形態において、カテゴリに関する情報は、「#(ハッシュ記号)」が付された単語であり、当該単語は当該カテゴリに割り当てられた色で彩色された図形に表示される。カテゴリに関する情報は単語に限定されず、例えば、所定のカテゴリに分類された記号、図形、画像、動画等であってもよい。以下、カテゴリに関する情報は、「タグ情報」とも呼ぶ。
【0068】
本実施形態における所定のカテゴリは、「歴史学」、「社会学」、「科学」、「雑学」及び「流行学」である。ただし、カテゴリの種類及び個数はこれらに限定されず、任意のカテゴリを設定すればよい。例えば、所定のカテゴリは、キャラクタの進化の方向性を示すものであってもよい。
【0069】
カテゴリには、ゲームサービスの運営管理者等により予め相異なる色が割り当てられている。本実施形態において、例えば、「歴史学」には「赤色」、「社会学」には「青色」、「科学」には「緑色」、「雑学」には「薄黄色」、及び「流行学」には「黄色」が割り当てられる。ただし、カテゴリと色の組み合わせはこれらに限定されず、任意の色を割り当てればよい。カテゴリに割り当てられる色は、単色であってもよいし、グラデーションであってもよいし、連続的に変化する色彩であってもよい。
【0070】
タグ情報は、ゲームサービスの運営管理者等により予め生成され、タグ情報記憶部211に記憶される。タグ情報は、所定数の単語を抽出し、それらをカテゴリに分類することで生成される。単語の抽出及び分類は、手動で行ってもよいし、機械学習等の手法を用いて半自動で行ってもよい。
【0071】
機械学習を用いてタグ情報を生成する場合、例えば、以下のようにして行う。まず、既存のシソーラス等の辞書情報から所定数の単語候補を抽出する。次に、抽出した単語候補を各カテゴリに分類する。抽出する単語数は任意でよいが、例えばカテゴリ毎に200語程度あればよい。
【0072】
続いて、各カテゴリに分類された単語候補の下位概念を辞書情報等から抽出し、同じカテゴリに追加する。本実施形態では、例えば「流行学」を除く4つのカテゴリに単語候補を分類するものとする。次に、各カテゴリに分類された単語候補(下位概念を含む)の類似語を同じカテゴリに追加する。単語候補の類似語は、例えば、学習済みの単語埋め込みモデルに基づいて抽出することができる。生成するタグ情報の数は任意でよいが、例えば、総数で6万件程度あればよい。
【0073】
会話文は、タグ情報に含まれる各単語を、訓練済みの言語処理モデルに入力することで生成することができる。会話文は、文頭や語尾を所定の言い回しに変換してもよい。例えば、言語処理モデルにより生成された会話文の語尾をすべて「デス」に変換する。変換後の文頭又は語尾は、キャラクタのランクや属性値に基づいて異なるものとしてもよい。これにより、生成された会話文の文脈を維持しながら、特定の人格を感得できる会話文に変換することができる。
【0074】
会話文は、所定の時間間隔で再生成してもよい。会話文は、各単語に対して複数生成しておき、キャラクタの属性、ランク又はパラメータに応じて異なる会話文を利用するように構成してもよい。
【0075】
本実施形態におけるタグ情報は、SNS30から抽出してもよい。タグ情報は、SNS30以外の外部の装置又はシステムから抽出してもよい。SNS30からタグ情報を抽出する場合、情報処理端末20に設定されたアカウントを通じて、SNS30上で流行している単語が抽出される。流行している単語は、SNS30で公開されている投稿に含まれる単語の統計情報に基づいて判定される。例えば、SNS30は、所定の時間単位で投稿数が多い単語を流行しているものと判定してもよいし、前の時間単位と現在の時間単位とで投稿数の上昇率が高い単語を流行しているものと判定してもよい。
【0076】
SNS30から抽出された単語は、所定のカテゴリに分類される。本実施形態では、所定のカテゴリを、例えば「流行学」に分類するものとする。SNS30から抽出された単語は、辞書情報、単語埋め込みモデル等を用いて自動的に所定のカテゴリに分類してもよい。
【0077】
タグ情報は、ユーザの指示に基づいて追加されてもよい。ユーザの指示に基づいてタグ情報を追加する場合、ユーザはカテゴリを特定して単語の追加を指示してもよいし、カテゴリを特定せずに単語を指示してもよい。カテゴリを特定せずに単語の追加が指示された場合、固定のカテゴリに分類してもよいし、自動的にカテゴリを分類してもよい。
【0078】
≪アイテム記憶部≫
アイテム記憶部212には、ゲーム内で使用されるアイテム等のオブジェクトに関するアイテム情報が記憶される。アイテム情報は、アイテムの種別、アイテムの属性及びパラメータ、及びアイテムの画像等を含む。本実施形態におけるアイテムは、キャラクタが装着可能なアクセサリ、消費することでキャラクタを融合することが可能となる成長アイテム、及び予め設定した決済手段を通じて購入したポイント等を含む。
【0079】
アクセサリ及び成長アイテムは、ゲーム内で実行可能な抽選を通じて得ることができる。また、アクセサリ及び成長アイテムは、ゲームの進行に従って得ることができる。例えば、アクセサリ又は成長アイテムは、後述する対戦に勝利したときに与えられる。また、アクセサリ又は成長アイテムは、キャラクタ画像が他のユーザにより融合相手とされたときに与えられてもよいし、キャラクタのランクが上昇したときに与えられてもよい。
【0080】
ポイントは、ユーザが予め設定した決済手段を通じて得ることができる。また、ポイントは、ゲームの進行に従って得ることができる。例えば、SNS30を介してキャラクタ画像を公開した場合に所定数のポイントを得られるように構成してもよい。また、例えば、ゲーム開始時に所定数のポイントが与えられてもよいし、1日に1回ゲームを起動した際に所定数のポイントが与えられてもよい。
【0081】
アクセサリは所定の種別に分類されている。ユーザは、種別ごとに1つのアクセサリをキャラクタに装着させることができる。アクセサリの種別は、例えば、衣服、眼鏡、羽、頭飾り、耳飾り、鼻飾り及び動物耳等である。ただし、アクセサリの種別はこれらに限定されず、任意の種別を設定することができる。
【0082】
アクセサリには、属性及びランクが設定されており、属性及びランクに応じたパラメータが決定される。キャラクタにアクセサリを装着することで、アクセサリのパラメータがキャラクタに反映される。対戦において、キャラクタが装着しているアクセサリの属性やパラメータが勝敗に影響を及ぼす。例えば、属性は、組み合わせに応じて強弱が設定されており、水属性のアクセサリを装着すると、火属性のアクセサリを装着したキャラクタと対戦する際にパラメータが相対的に向上する等である。
【0083】
各アクセサリには、希少度が設定されている。抽選においては、希少度の高いアクセサリほど出現率が低く設定されている。本実施形態における希少度は、3段階であるが、希少度の段階数に制限はなく、より多い段階の希少度を設定してもよい。
【0084】
アクセサリは、同種のアクセサリを合成することで、アクセサリのパラメータを強化することも可能である。希少度が高いアクセサリは各パラメータの最大値がより大きく設定されており、より強いアクセサリに育成することが可能となっている。
【0085】
≪表示制御部≫
表示制御部200は、ユーザによる情報処理システム1に対する操作を受け付けるための画面を、情報処理端末20の表示装置に表示する制御を行う。表示制御部200は、情報処理端末20に予めインストールされたアプリケーションが提供する画面を表示装置に表示してもよいし、情報処理端末20に予めインストールされたウェブブラウザに、情報処理サーバ10から提供される画面データを読み込むことで、画面を表示装置に表示してもよい。
【0086】
表示制御部200は、表示装置に表示された画面に対するユーザの操作に応じて、各機能に対応する処理部を起動する。ユーザの操作により入力された情報があれば、当該情報を各処理部に入力する。また、表示制御部200は、各処理部が出力する処理結果を受け取り、表示装置に表示された画面に反映する制御を行う。
【0087】
≪育成操作部≫
育成操作部201は、育成機能に関して、ユーザの操作に関連する処理を実行する。育成操作部201は、主に、(1-1)タグ情報の取得、及び(1-2)キャラクタの進化を実行する。
【0088】
(1-1)タグ情報の取得では、育成操作部201は、ユーザの操作に応じてタグ情報を取得する。具体的には、育成操作部201は、まず、タグ情報記憶部211に記憶されているタグ情報をランダムに取得し、情報処理端末20の表示装置に表示する。次に、育成操作部201は、ユーザの操作に応じて、情報処理端末20の表示装置に表示されているタグ情報のうち、操作対象とされたタグ情報を取得する。育成操作部201は、取得したタグ情報に関する情報をタグ情報記憶部211に記憶する。
【0089】
育成操作部201は、タグ情報を取得したとき、キャラクタ記憶部210に記憶されている経験値に、タグ情報に応じた値を加算する。次に、育成操作部201は、経験値が所定の値以上となったか否かを判定する。経験値が所定の値以上となった場合、育成操作部201は、キャラクタのランクを上昇させ、(1-2)キャラクタの進化に処理を進める。なお、所定の値は、現在のランクに応じて予め設定されている。
【0090】
(1-2)キャラクタの進化では、育成操作部201は、取得したタグ情報に基づいて、キャラクタ画像の属性を変化させたキャラクタ画像を取得する。具体的には、育成操作部201は、まず、タグ情報記憶部211から取得済みのタグ情報に関する情報を読み出す。次に、育成操作部201は、取得済みのタグ情報に基づいて、属性変更データを生成する。属性変更データは、キャラクタ画像の属性を変更するためのデータである。属性変更データは、変更後の属性の絶対値であってもよいし、変更前の属性に対する相対値であってもよい。
【0091】
属性変更データは、取得済みのタグ情報が表すカテゴリに応じて生成される。カテゴリには、キャラクタ画像の各属性に対応する変化量を表す情報が予め設定されている。育成操作部201は、取得済みのタグ情報それぞれのカテゴリから各属性の変化量を取得し、それらを積算することで、属性変更データを生成する。なお、育成操作部201は、属性変更データを生成した後、タグ情報記憶部211に記憶されている取得済みのタグ情報に関する情報を消去する。
【0092】
育成操作部201は、現在のキャラクタ画像を示す情報及び属性変更データを情報処理サーバ10に送信する。情報処理サーバ10では、画像生成部101により進化後のキャラクタ画像が生成される。育成操作部201は、情報処理サーバ10から進化後のキャラクタ画像を受信する。次に、育成操作部201は、進化後のキャラクタ画像をキャラクタ記憶部210に記憶する。
【0093】
≪融合操作部≫
融合操作部202は、融合機能に関して、ユーザの操作に関連する処理を実行する。融合操作部202は、主に、(2-1)融合相手の決定、(2-2)融合比率の決定、及び(2-3)キャラクタの融合を実行する。
【0094】
(2-1)融合相手の決定では、融合操作部202は、ユーザの操作に応じて、融合相手とするキャラクタ画像を決定する。具体的には、融合操作部202は、まず、融合相手のキャラクタ画像を要求する要求信号を情報処理サーバ10に送信する。情報処理サーバ10では、画像生成部101により複数の融合相手候補のキャラクタ画像が生成される。
【0095】
融合操作部202は、情報処理サーバ10から複数の融合相手候補のキャラクタ画像を受信し、情報処理端末20の表示装置に表示する。次に、融合操作部202は、ユーザの操作に応じて、複数の融合相手候補のキャラクタ画像から融合相手のキャラクタ画像を決定する。融合相手のキャラクタ画像を決定した場合、融合操作部202は、(2-2)融合比率の決定に処理を進める。
【0096】
(2-2)融合比率の決定では、融合操作部202は、ユーザの操作に応じて、融合比率を決定する。具体的には、融合操作部202は、まず、融合比率を決定するための画面を、情報処理端末20の表示装置に表示する。次に、融合操作部202は、ユーザの操作に応じて、融合比率を決定する。融合比率を決定した場合、融合操作部202は、(2-3)キャラクタの融合に処理を進める。
【0097】
(2-3)キャラクタの融合では、融合操作部202は、現在のキャラクタ画像と融合相手のキャラクタ画像とを融合したキャラクタ画像を取得する。具体的には、融合操作部202は、まず、現在のキャラクタ画像を示す情報、融合相手のキャラクタ画像を示す情報及び融合比率を表す情報を情報処理サーバ10に送信する。情報処理サーバ10では、画像融合部102により融合後のキャラクタ画像が生成される。融合操作部202は、情報処理サーバ10から融合後のキャラクタ画像を受信する。
【0098】
次に、融合操作部202は、現在のキャラクタ画像と融合後のキャラクタ画像とを内挿することで、現在のキャラクタ画像から融合後のキャラクタ画像に変化する融合動画を生成する。続いて、融合操作部202は、融合後のキャラクタ画像をキャラクタ記憶部210に記憶する。
【0099】
本実施形態における融合は、成長アイテムを消費することで行われる。融合操作部202は、融合を実行する都度、アイテム記憶部212に記憶されている成長アイテムの数を減算する。成長アイテムは抽選機能を通じて得ることができる。また、成長アイテムは、ゲームの進行に従って得られることもある。
【0100】
≪装着操作部≫
装着操作部203は、装着機能に関して、ユーザの操作に関連する処理を実行する。装着操作部203は、主に、(3-1)アクセサリの決定、及び(3-2)キャラクタの合成を実行する。
【0101】
(3-1)アクセサリの決定では、キャラクタに装着させるアクセサリを決定する。具体的には、装着操作部203は、まず、アイテム記憶部212に記憶されているアクセサリの一覧を、情報処理端末20の表示装置に表示する。次に、装着操作部203は、ユーザの操作に応じて、合成対象とするアクセサリを決定する。アクセサリを決定した場合、装着操作部203は、(3-2)キャラクタの合成に処理を進める。
【0102】
(3-2)キャラクタの合成では、現在のキャラクタ画像にアクセサリ画像を合成したキャラクタ画像を取得する。具体的には、装着操作部203は、まず、合成対象とするアクセサリのアクセサリ画像をアイテム記憶部212から読み出す。次に、装着操作部203は、現在のキャラクタ画像及びアクセサリ画像を情報処理サーバ10に送信する。情報処理サーバ10では、画像合成部103により合成後のキャラクタ画像が生成される。装着操作部203は、情報処理サーバ10から合成後のキャラクタ画像を受信する。次に、装着操作部203は、合成後のキャラクタ画像をキャラクタ記憶部210に記憶する。
【0103】
≪抽選操作部≫
抽選操作部204は、抽選機能に関して、ユーザの操作に関連する処理を実行する。抽選操作部204は、ユーザの操作に応じて、アイテムを獲得するための抽選を実行する。本実施形態における抽選は、ポイントを消費することで行われる。ポイントは課金機能を通じて得ることができる。また、ポイントは、ゲームの進行に従って得られることもある。
【0104】
抽選は、1回ずつ実行することもできるし、複数回(例えば10回)まとめて実行することもできる。各アイテムには、希少度が設定されており、希少度が高いほど出現率が低く設定されている。複数回の抽選をまとめて実行した場合、希少度が高いアイテムが少なくとも1つ獲得できるように構成してもよい。
【0105】
抽選操作部204は、抽選を実行する都度、アイテム記憶部212に記憶されているポイントを減算する。また、抽選操作部204は、抽選により獲得されたアイテムに関する情報をアイテム記憶部212に記憶する。
【0106】
≪課金操作部≫
課金操作部205は、課金機能に関して、ユーザの操作に関連する処理を実行する。課金操作部205は、ユーザの操作に応じて、予め定められた決済手段を通じてポイントを購入する。課金操作部205は、決済金額に応じたポイント数を、アイテム記憶部212に記憶されているポイントに加算する。
【0107】
ポイントは、決済金額の単位が複数設定されていてもよい。また、決済金額の単位が大きいほど、より多くのポイントが購入できるように構成してもよい。
【0108】
≪対戦操作部≫
対戦操作部206は、対戦機能に関して、ユーザの操作に関連する処理を実行する。対戦操作部206は、ユーザの操作に応じて、対戦相手とするキャラクタとの対戦を開始する。対戦操作部206は、現在のキャラクタ及び対戦相手のキャラクタそれぞれのスコアを算出する。対戦操作部206は、現在のキャラクタのスコアと対戦相手のキャラクタのスコアとを比較し、スコアが高い方のキャラクタが勝利したものと判定する。
【0109】
対戦操作部206は、キャラクタの属性及びパラメータ、並びに装着済みのアクセサリの属性及びパラメータに基づいて、スコアを算出する。さらに、対戦操作部206は、ユーザがSNSに公開した投稿に対する他のアカウントからの反応に基づいてスコアを算出してもよいし、これらを重み付き加算等で総合したスコアを算出してもよい。
【0110】
対戦は、ゲームサービスの運営管理者等により予め用意された敵キャラクタを順次倒していくストーリーモード、又は他のユーザが保有するキャラクタとの対戦を行い、ランキングを競うPvP(Player versus Player)モード等、様々なモードを用意してもよい。
【0111】
[情報処理システムのユーザインターフェース]
本開示の一実施形態における情報処理システムのユーザインターフェースについて、
図3から
図13を参照しながら説明する。当該ユーザインターフェースは、例えば、情報処理端末20にインストールされたプログラムが表示装置に表示する操作画面として実現され得る。
【0112】
<ホーム画面>
図3は、本実施形態におけるホーム画面の一例を示す図である。ホーム画面は、ユーザが情報処理システム1にログインした後、最初に表示される画面である。ホーム画面は、ユーザがゲームにおける各機能を起動するための起点となる。
【0113】
図3に示されているように、ホーム画面1000は、キャラクタ表示領域1001、育成ボタン1011、融合ボタン1012、アイテム管理ボタン1013、抽選ボタン1014及びキャラクタ管理ボタン1015を有する。
【0114】
ユーザが育成ボタン1011を押下すると、後述する育成画面が起動する。ユーザが融合ボタン1012を押下すると、後述する融合画面が起動する。ユーザがアイテム管理ボタン1013を押下すると、後述するアイテム管理画面が起動する。ユーザが抽選ボタン1014を押下すると、後述する抽選画面が起動する。ユーザがキャラクタ管理ボタン1015を押下すると、後述するキャラクタ管理画面が起動する。
【0115】
キャラクタ表示領域1001には、現在のキャラクタ画像に基づいて構築されたキャラクタが表示される。ユーザがキャラクタ表示領域1001を押下すると、キャラクタとの会話が発生する。
【0116】
図4は、会話発生時のホーム画面の一例を示す図である。
図4に示されているように、会話発生時のホーム画面1100は、タグ情報表示領域1101及び会話文表示領域1102を有する。
【0117】
タグ情報表示領域1101には、過去に取得したタグ情報からランダムに選択されたタグ情報の内容が表示される。タグ情報表示領域1101の中心付近には、タグ情報に含まれる単語の先頭に「#」が付された文字列が表示される。会話文表示領域1102には、選択されたタグ情報に含まれる会話文が表示される。
【0118】
タグ情報表示領域1101に表示されるタグ情報は、過去に取得したタグ情報のうち所定の条件を満たすものに制限してもよい。制限の一例は、タグ情報を取得した日時による制限である。例えば、タグ情報表示領域1101に表示するタグ情報は、過去24時間以内に取得されたタグ情報から選択されてもよいし、今回ログインしてから取得されたタグ情報から選択されてもよい。
【0119】
タグ情報表示領域1101は、タグ情報のカテゴリに割り当てられた色で彩色された図形で表示される。本実施形態における図形は、一例として、泡を模した形状の図形である。ただし、タグ情報を表示する図形は、どのような形状の図形としてもよく、カテゴリに応じて異なる形状の図形としてもよい。
【0120】
<育成画面>
図5は、本実施形態における育成画面の一例を示す図である。育成画面は、ユーザがランダムに表示されるタグ情報を取得することでキャラクタを進化させるための画面である。
【0121】
図5に示されているように、育成画面1200は、1以上のタグ情報表示領域1201-1~1201-2及び体力値表示領域1211を有する。
【0122】
タグ情報表示領域1201には、タグ情報記憶部211に記憶されているタグ情報からランダムに選択されたタグ情報の内容が表示される。タグ情報表示領域1201は、ホーム画面1100のタグ情報表示領域1101と同様に、タグ情報に含まれる単語の先頭に「#」が付された文字列が中心付近に表示され、タグ情報のカテゴリに割り当てられた色で彩色された図形で表示される。
【0123】
タグ情報表示領域1201は、ランダムなタイミングで育成画面1200に順次表示され、所定のタイミングで育成画面1200から消去される。タグ情報表示領域1201は、表示されてから消去されるまで、育成画面1200上を移動する。タグ情報表示領域1201は、例えば、育成画面1200の下端から表示され、育成画面1200の上をランダムに揺れながら上方に移動し、育成画面1200の上端に到達したときに消去される。本実施形態においては、タグ情報表示領域1201が泡を模した形状で表示するため、水中を泡が漂う様子を想起させる動作を行う例を説明したが、タグ情報表示領域1201を育成画面1200に表示する態様は任意に定めればよい。
【0124】
育成画面1200に表示されるタグ情報表示領域1201の数は、複数であってもよい。複数のタグ情報表示領域1201を育成画面1200に表示する場合、各タグ情報表示領域1201で表示するタイミングと消去するタイミングとを相異なるものとするとよい。
【0125】
ユーザが育成画面1200に表示されているタグ情報表示領域1201を所定時間押下すると、当該タグ情報表示領域1201に対応するタグ情報が取得される。所定時間は任意に定めればよいが、例えば1秒程度でよい。ユーザにより取得されたタグ情報は、タグ情報記憶部211に記憶される。
【0126】
ユーザが進化で使用するカテゴリそのものを取得するように構成してもよい。この場合、タグ情報は、所定のカテゴリそのものを示す情報であってもよい。タグ情報表示領域1201は、所定のカテゴリに割り当てられた色で彩色された図形のみで表示される。ユーザは、カテゴリそのものを示すタグ情報表示領域1201を所定時間押下することで、進化で使用するカテゴリそのものを取得することができる。
【0127】
1つのタグ情報表示領域1201が育成画面1200に表示されている時間(すなわち、育成画面1200に表示されてからユーザにより取得されることなく消去されるまでの時間)は、例えば、2~3秒とすればよい。
【0128】
体力値表示領域1211には、タグ情報を取得することで消費される体力値が表示される。ユーザによりタグ情報が取得されると、体力値がデクリメントされる。体力値が0になると、タグ情報の取得が不可となる。すなわち、体力値は、現時点でユーザが取得可能なタグ情報の数を表している。
【0129】
体力値は、所定の時間を経過するごとに1ずつ増加する。また、体力値は、所定のアイテムを用いることで所定数又は最大数まで増加してもよい。
【0130】
ユーザがタグ情報を取得すると、取得したタグ情報に応じた値がユーザの経験値に加算される。経験値が所定の値以上となると、ユーザのランクが上昇する。ランクが上昇すると、キャラクタの進化が発生する。
【0131】
図6は、進化発生時の育成画面の一例を示す図である。
図6(A)は、進化前のキャラクタを表示した育成画面であり、
図6(B)は、進化後のキャラクタを表示した育成画面である。
【0132】
図6に示されているように、進化発生時の育成画面1300は、キャラクタ表示領域1301を有する。
図6(A)に示したキャラクタ表示領域1301に表示されたキャラクタと、
図6(B)に示したキャラクタ表示領域1301に表示されたキャラクタとを比較すると、髪型が変化していることがわかる。
【0133】
キャラクタの進化により変化する属性は、育成画面1200において取得したタグ情報のカテゴリに基づいて定まる。複数のタグ情報が取得された場合、各カテゴリの数、又は各カテゴリの割合に基づいて、変化する属性、変化量又は変化割合の少なくとも1つが定まる。
【0134】
キャラクタは、髪の色(金髪、赤髪、黒髪・・・等)、目の色(青眼、赤眼、茶眼・・・等)、髪型(長髪、短髪、ツインテール髪・・・等)、肌の色(褐色肌、白色肌・・・等)、表情報(頬赤らめ、笑顔・・・等)等の属性を有している。例えば、金髪をしたキャラクタは、金髪属性の値が高く、他の髪色に関する属性は平均的な値に設定されている。
【0135】
ユーザがあるカテゴリに関する情報を取得したときに、変化する属性、変化量又は変化割合は、一例として、テーブルデータとして保持しておいてもよい。例えば、ユーザがあるカテゴリに関する情報を取得すると、金髪属性に+0.05が加算され、茶髪属性に+0.05が加算され、黒髪属性に-0.05が加算されてもよい。ユーザがカテゴリに関する情報を複数取得すると、テーブルに従って各属性の差分が積算されてもよい。
【0136】
キャラクタの属性の変化は、キャラクタ画像の潜在変数に反映される。一例として、あるキャラクタの属性に所定の値が加算された場合、その属性に対応する潜在変数の値に対して所定の値が加算されてもよい。
【0137】
キャラクタのランクが上昇し、キャラクタの進化が発生すると、積算された各属性の差分がキャラクタの属性に適用される。例えば、赤髪属性の差分が+100である場合、現在のキャラクタの属性における赤髪属性に+100が加算される。そして、差分を適用した後の属性に応じた外観のキャラクタ画像が新たに生成される。
【0138】
例えば、進化前のキャラクタ画像における赤髪属性の値が低い場合、赤髪属性の差分が適用された後であっても外観に大きく反映されないことはあり得る。なお、ユーザが一回の進化では視認できない程度の変化であっても、キャラクタが有する属性の値は確実に上昇しているため、これを繰り返すことで将来的に視認できる程度の変化が発生することはあり得る。
【0139】
<融合画面>
図7は、融合相手決定時の融合画面の一例を示す図である。融合画面は、ユーザが決定した融合相手のキャラクタと現在のキャラクタとを融合するための画面である。
【0140】
図7に示されているように、融合相手決定時の融合画面1400は、キャラクタ表示領域1401及び融合相手選択領域1402を有する。
【0141】
キャラクタ表示領域1401には、現在のキャラクタ画像に基づいて構築されたキャラクタが表示される。融合相手選択領域1402には、融合相手候補のキャラクタ画像が表示される。
【0142】
融合相手選択領域1402には、複数の融合相手候補のキャラクタ画像のいずれかが表示される。ユーザは融合相手選択領域1402に表示される融合相手候補のキャラクタ画像から融合相手として使用するキャラクタ画像を選択することができる。融合相手候補のキャラクタ画像は、現在のキャラクタ画像の潜在変数に基づいて生成したキャラクタ画像、ランダムに生成した潜在変数に基づいて生成したキャラクタ画像、他のユーザが保有するキャラクタ画像のいずれか又は複数を用いてもよい。
【0143】
本実施形態において、ユーザは以下のような操作により、融合相手のキャラクタ画像を決定する。ユーザが融合相手選択領域1402を移動させる操作(例えば、スワイプ、ドラッグ等)を行うと、融合相手選択領域1402に表示されている融合相手候補のキャラクタ画像が他の融合相手候補のキャラクタ画像に切り替わる。
【0144】
ユーザが融合相手選択領域1402を選択する操作(例えば、所定時間の押下等)を行うと、融合相手選択領域1402に表示されている融合相手候補のキャラクタ画像が融合相手として決定される。融合相手のキャラクタ画像が決定されると、融合比率を決定するための融合画面が表示される。
【0145】
上記の操作は、融合相手のキャラクタ画像を決定する操作の一例であって、他の操作により融合相手のキャラクタ画像を決定してもよい。例えば、融合画面1400に融合相手候補のキャラクタ画像それぞれに対応する複数の融合相手選択領域1402を表示し、ユーザは1つの融合相手選択領域1402を選択する操作を行うことで、融合相手のキャラクタ画像を決定してもよい。
【0146】
図8は、融合比率決定時の融合画面の一例を示す図である。
図8に示されているように、融合比率決定時の融合画面1500は、第1画像表示領域1501、第2画像表示領域1502、融合比率表示領域1503、第1融合比率領域1504、第2融合比率領域1505及び融合ボタン1506を有する。
【0147】
第1画像表示領域1501には、現在のキャラクタ画像が表示される。第2画像表示領域1502には、融合相手のキャラクタ画像が表示される。融合比率表示領域1503は、上下方向に0から100までの目盛りを有する縦長の図形である。本実施形態における融合比率表示領域1503は、一例として、試験管を模した図形である。
【0148】
第1融合比率領域1504は、融合時に現在のキャラクタ画像が影響を与える度合いを示す。第2融合比率領域1505は、融合時に融合相手のキャラクタ画像が影響を与える度合いを示す。第1融合比率領域1504と第2融合比率領域1505との境界線1511は、融合比率表示領域1503の下限と上限との間で周期的に上下動を繰り返す。本実施形態における境界線1511は、一例として、水面を模した形状である。なお、境界線1511が1回の上下動を行う所要時間は任意に定めればよいが、例えば、2~3秒とすることができる。
【0149】
ユーザが融合ボタン1506を押下すると、境界線1511の動作が停止する。このとき、境界線1511が融合比率表示領域1503上で指し示す目盛りの値が、融合比率となる。つまり、融合画面1500を上下に二分する境界線1511の下側の領域の面積が、現在のキャラクタ画像の融合比率を表し、境界線1511の上側の領域の面積が、融合相手のキャラクタ画像の融合比率を表している。
【0150】
境界線1511が停止している状態で、ユーザが融合ボタン1506を再度押下すると、融合比率が決定する。融合比率が決定すると、決定された融合比率に従って、現在のキャラクタ画像と融合相手のキャラクタ画像との融合が行われる。このとき、アイテム記憶部212に記憶されている成長アイテムが消費される。
【0151】
融合が完了すると、融合前のキャラクタ画像から融合後のキャラクタ画像に変化する融合動画が表示される。その後、融合後のキャラクタ画像に基づいて構築されたキャラクタがホーム画面1000に表示される。
【0152】
<抽選画面>
図9は、本実施形態における抽選画面の一例を示す図である。抽選画面は、ユーザにアイテムを獲得させる抽選を実行するための画面である。
図9(A)は、抽選を実行するための抽選画面であり、
図9(B)は、抽選によりアイテムを獲得したときの抽選画面である。
【0153】
図9(A)に示されているように、抽選を実行するための抽選画面1600は、単発ボタン1601及び十連ボタン1602を有する。ユーザが単発ボタン1601を押下すると、1回の抽選が行われる。ユーザが十連ボタン1602を押下すると、同時に10回の抽選が行われる。単発ボタン1601が押下された際には、既定の出現確率に応じて当選した希少度のアイテムが獲得される。十連ボタン1602が押下された際には、少なくとも1つの希少度が高いアイテムが獲得される。
【0154】
図9(B)に示されているように、アイテムを獲得したときの抽選画面1700は、当選アイテム表示領域1701、再抽選ボタン1702及びキャンセルボタン1709を有する。当選アイテム表示領域1701には、抽選により当選したアイテムの内容が表示される。ユーザが再抽選ボタン1702を押下すると、抽選画面1600で押下されたボタンに対応する回数の抽選が再度行われる。ユーザがキャンセルボタン1709を押下すると、抽選画面1700が閉じ、ホーム画面1000に戻る。
【0155】
<アイテム管理画面>
図10は、本実施形態におけるアイテム管理画面の一例を示す図である。アイテム管理画面は、ユーザが保有するアイテムを管理するための画面である。
【0156】
図10に示されているように、本実施形態におけるアイテム管理画面1800は、キャラクタ表示領域1801、種別選択領域1802、アイテム表示領域1803、保存ボタン1804及びポイント表示領域1805を有する。
【0157】
キャラクタ表示領域1801には、現在のキャラクタ画像に基づいて構築されたキャラクタが表示される。種別選択領域1802には、アイテムの各種別に対応するボタンが表示される。アイテム表示領域1803には、ユーザが保有しているアイテムが一覧表示される。
【0158】
種別選択領域1802において種別を選択すると、アイテム表示領域1803に当該種別のアイテムのみが表示される。アイテム表示領域1803においてアイテムを選択し、保存ボタン1804を押下すると、キャラクタ表示領域1801に表示されたキャラクタが当該アイテムを装着した状態に変化する。
【0159】
ポイント表示領域1805には、ユーザが保有しているポイントが表示される。ポイント表示領域1805は、課金ボタン1806を有している。ユーザが課金ボタン1806を押下すると、後述の課金画面が表示される。
【0160】
<キャラクタ管理画面>
図11は、本実施形態におけるキャラクタ管理画面の一例を示す図である。キャラクタ管理画面は、ユーザが保存したキャラクタを管理するための画面である。
図11(A)は、キャラクタ画像を一覧表示するキャラクタ管理画面であり、
図11(B)は、キャラクタ画像をツリー表示するキャラクタ管理画面である。
【0161】
図11(A)に示されているように、キャラクタ画像を一覧表示するキャラクタ管理画面1900は、キャラクタ一覧領域1901、ツリー表示ボタン1902、投稿ボタン1903及び保存数表示領域1904を有する。
【0162】
キャラクタ一覧領域1901には、ユーザにより保存されたキャラクタ画像が一覧表示される。ユーザがツリー表示ボタン1902を押下すると、キャラクタ画像をツリー表示するキャラクタ管理画面が表示される。ユーザが投稿ボタン1903を押下すると、キャラクタ画像をSNS30に投稿するためのSNS投稿画面が表示される。
【0163】
保存数表示領域1904には、キャラクタ画像を保存可能な最大数が表示される。保存数表示領域1904は、追加ボタン1905を有している。ユーザが追加ボタン1905を押下すると、キャラクタ画像を保存可能な最大数が増加する。このとき、アイテム記憶部212に記憶されているポイントが所定数だけ消費される。
【0164】
キャラクタ管理画面1900には、融合ボタンを有してもよい。融合ボタンは、他のユーザのキャラクタ管理画面1900を開いたときに押下可能となる。ユーザが融合ボタンを押下すると、現在のキャラクタ画像と当該ユーザのキャラクタ画像とを融合することができる。他のユーザのキャラクタ管理画面1900は、他のユーザを検索するためのユーザ検索画面、又はゲームサービスにより推奨される他のユーザを閲覧するためのユーザ推奨画面等から開くことができる。
【0165】
なお、他のユーザにより融合相手に選択された回数が管理されてもよい。例えば、他のユーザにより融合相手に選択された回数が所定の回数以上となったときに、アイテムやポイントを得られるように構成してもよい。
【0166】
図11(B)に示されているように、キャラクタをツリー表示するキャラクタ管理画面2000は、現在のキャラクタ画像と他のキャラクタ画像との関係性がツリー形状で表示される。キャラクタ画像の関係性は、キャラクタの進化及び融合を含む。ツリー表示において、進化による関係性を有する複数のキャラクタ画像2001は、鉛直方向に接続される。一方、融合による関係性を有する複数のキャラクタ画像2002は、水平方向に接続される。
【0167】
キャラクタ管理画面1900又は2000に表示されたキャラクタ画像は、現在のキャラクタ画像として復元することができる。つまり、過去のキャラクタ画像に戻ってキャラクタの育成を再開することが可能となっている。
【0168】
図12は、本実施形態におけるSNS投稿画面の一例を示す図である。SNS投稿画面は、SNS30にキャラクタ画像を投稿するための画面である。
図12に示されているように、本実施形態におけるSNS投稿画面2100は、会話発生時のホーム画面1100のスクリーンショットが添付され、本文に会話文とゲームサービスを表す文字列(#○○○)が記載された投稿を、SNS30で公開する。なお、ゲームサービスを表す文字列は、SNS30において検索を容易とするために投稿に付される文字列である。
【0169】
SNS投稿画面2100により投稿される内容は上記に限定されない。例えば、SNS投稿画面2100は、会話発生時のスクリーンショットに代えて、融合時の融合動画を投稿してもよい。
【0170】
<課金画面>
図13は、本実施形態における課金画面の一例を示す図である。課金画面は、ユーザがポイントを購入するための画面である。
【0171】
図13に示されているように、本実施形態における課金画面2200は、決済額が異なる複数の課金ボタン2201~2205を有する。課金ボタンの数及び各課金ボタンで購入可能なポイント数は、任意に設定すればよい。
【0172】
ユーザによりいずれかの課金ボタンが押下されると、予め定められた決済手段を通じて、当該課金ボタンに対応する金額が決済される。決済が正常に完了すると、決済金額に応じたポイント数が、ユーザが保有しているポイントに加算される。
【0173】
[情報処理方法の処理手順]
本開示の一実施形態における情報処理方法の処理手順について、
図14から
図17を参照しながら説明する。
図14は、情報処理方法の処理手順の一例を示すフローチャートである。
【0174】
ステップS1において、情報処理サーバ10の画像生成部101は、初期状態のキャラクタ画像を生成する。本実施形態において、初期状態のキャラクタ画像は、予め生成したキャラクタ画像を共通して使用する。すなわち、初期状態では、すべてのユーザのキャラクタ画像は同一となる。予め生成するキャラクタ画像は、属性値がすべて同一であり、中間的な外観のキャラクタ画像としてもよい。
【0175】
初期状態のキャラクタ画像は、ランダムに生成された潜在変数に基づいて生成してもよい。この場合、各ユーザの初期状態のキャラクタ画像は、ユーザ毎に異なるものとなる。
【0176】
なお、本実施形態における情報処理サーバ10は、ユーザの指示により任意に取得される情報に基づいて属性を変更し、かつ、訓練済みの生成モデルにより進化後のキャラクタ画像を生成する。また、ユーザの指示により他のキャラクタ画像と融合することで、キャラクタ画像の外観は様々に変化する。そのため、初期状態でキャラクタ画像が同一であっても、ゲームの進行に応じて育成されたキャラクタの外観は様々に変化したものとなる。したがって、初期状態のキャラクタ画像が同一であっても他のユーザと同じようなキャラクタに育成されることはない。
【0177】
ステップS2において、情報処理端末20の表示制御部200は、ホーム画面1000を表示装置に表示する。表示制御部200は、ホーム画面1000に対するユーザの指示に応じて、実行する機能を判定する。具体的には、
図3に示したホーム画面1000において押下されたボタンに応じて、当該ボタンに対応する情報処理を実行する。
【0178】
表示制御部200は、育成ボタン1011が押下された場合、ステップS3に処理を進める。表示制御部200は、融合ボタン1012が押下された場合、ステップS4に処理を進める。表示制御部200は、アイテム管理ボタン1013が押下された場合、ステップS5に処理を進める。表示制御部200は、抽選ボタン1014が押下された場合、ステップS6に処理を進める。
【0179】
ステップS3において、情報処理端末20の育成操作部201は、ユーザの指示に応じて、タグ情報を取得する。次に、育成操作部201は、キャラクタのランクが上昇したか否かを判定する。ランクが上昇した場合、育成操作部201は、属性変更データを生成し、現在のキャラクタ画像を示す情報と共に情報処理サーバ10に送信する。
【0180】
情報処理サーバ10の画像生成部101は、情報処理端末20から現在のキャラクタ画像を示す情報及び属性変更データを受信する。次に、画像生成部101は、現在のキャラクタ画像の潜在変数を属性変更データに基づいて変換する。続いて、画像生成部101は、変換された潜在変数を生成モデルに入力することで、進化後のキャラクタ画像を生成する。そして、画像生成部101は、進化後のキャラクタ画像を情報処理端末20に送信する。
【0181】
情報処理端末20の育成操作部201は、情報処理サーバ10から進化後のキャラクタ画像を受信する。次に、育成操作部201は、進化後のキャラクタ画像をキャラクタ記憶部210に記憶する。続いて、育成操作部201は、進化後のキャラクタ画像を表示制御部200に送る。表示制御部200は、進化後のキャラクタ画像に基づいてキャラクタを構築し、表示装置に表示されているキャラクタを更新する。
【0182】
ステップS4において、情報処理端末20の融合操作部202は、情報処理サーバ10から融合相手候補のキャラクタ画像を取得する。次に、融合操作部202は、ユーザの指示に応じて、融合相手のキャラクタ画像を決定する。続いて、融合操作部202は、ユーザの指示に応じて、融合比率を決定する。そして、融合操作部202は、現在のキャラクタ画像を示す情報、融合相手のキャラクタ画像を示す情報及び融合比率を表す情報を情報処理サーバ10に送信する。
【0183】
情報処理サーバ10の画像融合部102は、情報処理端末20から現在のキャラクタ画像を示す情報、融合相手のキャラクタ画像を示す情報及び融合比率を表す情報を受信する。次に、画像融合部102は、融合比率に従って、現在のキャラクタ画像の潜在変数と融合相手のキャラクタ画像の潜在変数とを融合し、融合潜在変数を生成する。続いて、画像融合部102は、融合潜在変数を生成モデルに入力することで、融合後のキャラクタ画像を生成する。そして、画像融合部102は、融合後のキャラクタ画像を情報処理端末20に送信する。
【0184】
情報処理端末20の融合操作部202は、情報処理サーバ10から融合後のキャラクタ画像を受信する。次に、融合操作部202は、融合後のキャラクタ画像をキャラクタ記憶部210に記憶する。続いて、融合操作部202は、融合後のキャラクタ画像を表示制御部200に送る。表示制御部200は、融合後のキャラクタ画像に基づいてキャラクタを構築し、表示装置に表示されているキャラクタを更新する。
【0185】
ステップS5において、情報処理端末20の装着操作部203は、ユーザの指示に応じて、合成対象とするアクセサリを決定する。次に、装着操作部203は、現在のキャラクタ画像及びアクセサリ画像を情報処理サーバ10に送信する。
【0186】
情報処理サーバ10の画像合成部103は、現在のキャラクタ画像及びアクセサリ画像を情報処理端末20から受信する。次に、画像合成部103は、現在のキャラクタ画像にアクセサリ画像を合成することで、合成後のキャラクタ画像を生成する。そして、画像合成部103は、合成後のキャラクタ画像を情報処理端末20に送信する。
【0187】
情報処理端末20の装着操作部203は、情報処理サーバ10から合成後のキャラクタ画像を受信する。次に、装着操作部203は、合成後のキャラクタ画像をキャラクタ記憶部210に記憶する。続いて、装着操作部203は、受信したキャラクタ画像を表示制御部200に送る。表示制御部200は、合成後のキャラクタ画像に基づいてキャラクタを構築し、表示装置に表示されているキャラクタを更新する。
【0188】
ステップS6において、情報処理端末20の抽選操作部204は、ユーザの指示に応じて、アイテムを獲得するための抽選を実行する。抽選操作部204は、抽選により獲得されたアイテムに関する情報をアイテム記憶部212に記憶する。
【0189】
なお、ステップS5又はS6において、装着操作部203又は抽選操作部204は、ユーザの指示に応じて、ポイントを購入することもできる。ユーザによりポイントを購入する操作が行われた場合、装着操作部203又は抽選操作部204は、ステップS7に処理を進める。
【0190】
ステップS7において、情報処理端末20の課金操作部205は、ユーザの指示に応じて、予め定められた決済手段を通じてポイントを購入する。課金操作部205は、決済金額に応じたポイント数を、アイテム記憶部212に記憶されているポイントに加算する。
【0191】
<育成処理の手順>
本開示の一実施形態における育成処理(
図14のステップS3)の詳細な手順について、
図15を参照しながら説明する。
図15は、育成処理の手順の一例を示すフローチャートである。
【0192】
ステップS3-1において、情報処理端末20の育成操作部201は、タグ情報記憶部211に記憶されているタグ情報をランダムに取得する。次に、育成操作部201は、取得したタグ情報を、情報処理端末20の表示装置に表示する。
【0193】
ステップS3-2において、情報処理端末20の育成操作部201は、ユーザの指示に応じて、情報処理端末20の表示装置に表示されているタグ情報のうち、操作対象とされたタグ情報を取得する。次に、育成操作部201は、取得されたタグ情報に関する情報をタグ情報記憶部211に記憶する。また、育成操作部201は、タグ情報記憶部211に記憶されているタグ情報のうち、取得されたタグ情報に取得済みを表すフラグを設定する。
【0194】
ステップS3-3において、情報処理端末20の育成操作部201は、取得したタグ情報に応じた値を、キャラクタ記憶部210に記憶されている経験値に加算する。タグ情報を取得したときに加算される経験値は、一律であってもよいし、カテゴリや単語に応じて変動してもよい。
【0195】
ステップS3-4において、情報処理端末20の育成操作部201は、キャラクタ記憶部210に記憶されている経験値が所定の値以上となったか否かを判定する。なお、所定の値は、キャラクタの現在のランクに応じて予め設定されている。経験値が所定の値以上となった場合(YES)、育成操作部201は、ステップS3-5に処理を進める。経験値が所定の値未満である場合(NO)、育成操作部201は、ステップS3-1に処理を戻す。
【0196】
ステップS3-5において、情報処理端末20の育成操作部201は、タグ情報記憶部211に記憶されている取得済みのタグ情報に関する情報を読み出す。次に、育成操作部201は、取得済みのタグ情報に基づいて、属性変更データを生成する。続いて、育成操作部201は、タグ情報記憶部211に記憶されている取得済みのタグ情報に関する情報を消去する。そして、育成操作部201は、現在のキャラクタ画像を示す情報及び属性変更データを情報処理サーバ10に送信する。
【0197】
ステップS3-6において、情報処理サーバ10の画像生成部101は、情報処理端末20から現在のキャラクタ画像を示す情報及び属性変更データを受信する。次に、画像生成部101は、画像情報記憶部111に記憶されている現在のキャラクタ画像の潜在変数及び属性値を読み出す。次に、画像生成部101は、受け付けた属性変更データに応じるように、現在のキャラクタ画像の潜在変数を変換する。
【0198】
ステップS3-7において、情報処理サーバ10の画像生成部101は、ステップS3-6において変換された潜在変数を生成モデルに入力することで、属性が変更された進化後のキャラクタ画像を生成する。次に、画像生成部101は、進化後のキャラクタ画像を、変換された潜在変数及び変更後の属性値と関連付けて、画像情報記憶部111に記憶する。また、画像生成部101は、進化後のキャラクタ画像を情報処理端末20に送信する。
【0199】
ステップS3-8において、情報処理端末20の育成操作部201は、情報処理サーバ10から進化後のキャラクタ画像を受信する。次に、育成操作部201は、進化後のキャラクタ画像をキャラクタ記憶部210に記憶する。続いて、育成操作部201は、進化後のキャラクタ画像を表示制御部200に送る。表示制御部200は、進化後のキャラクタ画像に基づいてキャラクタを構築し、情報処理端末20の表示装置に表示されているキャラクタを更新する。
【0200】
なお、上記の育成処理の一例では、タグ情報を取得することで加算される経験値が所定の値以上となったときに、進化後のキャラクタ画像を生成する例を説明した。ここで、経験値の判定を行わず、タグ情報を取得する都度、取得したタグ情報に基づいて属性を変更した進化後のキャラクタ画像を生成してもよい。
【0201】
<融合処理の手順>
本開示の一実施形態における融合処理(
図14のステップS4)の詳細な手順について、
図16を参照しながら説明する。
図16は、融合処理の手順の一例を示すフローチャートである。
【0202】
ステップS4-1において、情報処理端末20の融合操作部202は、融合相手のキャラクタ画像を要求する要求信号を情報処理サーバ10に送信する。当該要求信号には、現在のキャラクタ画像を示す情報が含まれる。
【0203】
ステップS4-2において、情報処理サーバ10の画像生成部101は、情報処理端末20から要求信号を受信する。次に、画像生成部101は、現在のキャラクタ画像の潜在変数に基づいて、融合相手候補のキャラクタ画像の潜在変数を生成する。例えば、画像生成部101は、複数の潜在変数を乱数として生成する。続いて、画像生成部101は、生成した複数の潜在変数を、現在のキャラクタ画像の属性の傾向と一致するように変換する。
【0204】
次に、画像生成部101は、生成した各潜在変数を生成モデルに入力することで、1つ以上の融合相手候補のキャラクタ画像を生成する。続いて、画像生成部101は、生成した融合相手候補のキャラクタ画像を画像情報記憶部111に記憶する。そして、画像生成部101は、生成した融合相手候補のキャラクタ画像を情報処理端末20に送信する。
【0205】
融合相手候補のキャラクタ画像は、画像生成部101により新たに生成しなくてもよく、既存のキャラクタ画像を用いてもよい。既存のキャラクタ画像は、一例として、画像情報記憶部111に記憶されているキャラクタ画像から所定の基準に基づいて選択された画像、又は他のユーザが保有するキャラクタ画像から選択された画像等である。
【0206】
ステップS4-3において、情報処理端末20の融合操作部202は、情報処理サーバ10から1つ以上の融合相手候補のキャラクタ画像を受信する。次に、融合操作部202は、受信した融合相手候補のキャラクタ画像を情報処理端末20の表示装置に表示する。
【0207】
ステップS4-4において、情報処理端末20の融合操作部202は、融合相手候補のキャラクタ画像が複数である場合、ユーザの指示に応じて、複数の融合相手候補のキャラクタ画像のうち、融合相手とするキャラクタ画像を決定する。融合相手候補のキャラクタ画像が1つである場合、融合操作部202は、そのキャラクタ画像と融合を行うか否かを、ユーザの指示に応じて決定する。
【0208】
ステップS4-5において、情報処理端末20の融合操作部202は、ユーザの指示に応じて、現在のキャラクタ画像と融合相手のキャラクタ画像との融合比率を決定する。次に、融合操作部202は、現在のキャラクタ画像を示す情報、融合相手のキャラクタ画像を示す情報及び融合比率を表す情報を情報処理サーバ10に送信する。
【0209】
ステップS4-6において、情報処理サーバ10の画像融合部102は、情報処理端末20から現在のキャラクタ画像を示す情報、融合相手のキャラクタ画像を示す情報及び融合比率を表す情報を受信する。次に、画像融合部102は、画像情報記憶部111に記憶されている現在のキャラクタ画像の潜在変数及び融合相手のキャラクタ画像の潜在変数を読み出す。続いて、画像融合部102は、融合比率に従って、現在のキャラクタ画像の潜在変数と融合相手のキャラクタ画像の潜在変数とを融合することで、融合潜在変数を生成する。
【0210】
ステップS4-7において、情報処理サーバ10の画像融合部102は、ステップS4-6において生成した融合潜在変数を生成モデルに入力することで、現在のキャラクタ画像と融合相手のキャラクタ画像とを融合した融合後のキャラクタ画像を生成する。次に、画像融合部102は、融合後のキャラクタ画像を、融合潜在変数と関連付けて、画像情報記憶部111に記憶する。また、画像融合部102は、融合後のキャラクタ画像を情報処理端末20に送信する。
【0211】
ステップS4-8において、情報処理端末20の融合操作部202は、融合後のキャラクタ画像を情報処理サーバ10から受信する。次に、画像融合部102は、融合後のキャラクタ画像をキャラクタ記憶部210に記憶する。
【0212】
続いて、融合操作部202は、現在のキャラクタ画像と融合後のキャラクタ画像とを内挿することで、現在のキャラクタ画像から融合後のキャラクタ画像に変化する融合動画を生成する。次に、融合操作部202は、融合動画を表示制御部200に送る。表示制御部200は、融合動画を情報処理端末20の表示装置に表示する。
【0213】
ステップS4-9において、情報処理端末20の融合操作部202は、融合後のキャラクタ画像を表示制御部200に送る。表示制御部200は、融合後のキャラクタ画像に基づいてキャラクタを構築し、情報処理端末20の表示装置に表示されているキャラクタを更新する。
【0214】
<装着処理の手順>
本開示の一実施形態における装着処理(
図14のステップS5)の詳細な手順について、
図17を参照しながら説明する。
図17は、装着処理の手順の一例を示すフローチャートである。
【0215】
ステップS5-1において、情報処理端末20の装着操作部203は、アイテム記憶部212に記憶されているアクセサリに関する情報を読み出す。次に、装着操作部203は、アクセサリの一覧を情報処理端末20の表示装置に表示する。
【0216】
ステップS5-2において、情報処理端末20の装着操作部203は、ユーザの指示に応じて、合成対象とするアクセサリを決定する。次に、装着操作部203は、合成対象とするアクセサリのアクセサリ画像をアイテム記憶部212から読み出す。そして、装着操作部203は、現在のキャラクタ画像及びアクセサリ画像を情報処理サーバ10に送信する。
【0217】
ステップS5-3において、情報処理サーバ10の画像合成部103は、情報処理端末20から現在のキャラクタ画像及びアクセサリ画像を受信する。次に、画像合成部103は、現在のキャラクタ画像にアクセサリ画像を合成することで、合成後のキャラクタ画像を生成する。画像合成部103は、合成後のキャラクタ画像を情報処理端末20に送信する。
【0218】
ステップS5-4において、情報処理端末20の装着操作部203は、情報処理サーバ10から合成後のキャラクタ画像を受信する。次に、装着操作部203は、合成後のキャラクタ画像を表示制御部200に送る。表示制御部200は、合成後のキャラクタ画像に基づいてキャラクタを構築し、情報処理端末20の表示装置に表示されているキャラクタを更新する。
【0219】
[補足]
上記の実施形態で説明した、各機能における情報処理サーバ10と情報処理端末20との連携方法は一例である。上記の実施形態において、情報処理サーバ10が行う情報処理を、情報処理端末20が実行してもよく、情報処理端末20が行う情報処理を、情報処理サーバ10が実行してもよい。例えば、情報処理端末20は、画面の表示及び画面操作の受付のみを行い、情報処理サーバ10は、属性変更データを生成してもよい。また、例えば、情報処理端末20が潜在変数の生成やキャラクタ画像の生成を行ってもよい。
【0220】
本実施形態における情報処理サーバ10及び情報処理端末20は、少なくとも1つのメモリと、少なくとも1つのプロセッサとで構成されてもよい。この場合、少なくとも1つのプロセッサは、少なくとも1つのメモリへの各種データの記憶や少なくとも1つのメモリからの各種データの取得を制御することができる。また、少なくとも1つのプロセッサは、表示装置に表示する画面を制御してもよい。
【0221】
[まとめ]
本実施形態によれば、様々に外観が変化するキャラクタを育成可能な装置を提供することができる。また、本実施形態における情報処理サーバ10及び情報処理端末20を用いることにより、様々に外観が変化するキャラクタを育成可能なサービスを提供することができる。
【0222】
本実施形態における情報処理システムでは、カテゴリに関する情報が情報処理端末20の表示装置にランダムに表示され、ユーザの指示に応じて任意の情報が取得される。情報処理サーバ10は、ユーザにより取得された情報に基づいて、キャラクタ画像の潜在変数の属性値を調整し、新たなキャラクタ画像を生成する。したがって、本実施形態における情報処理システムによれば、ユーザの指示に応じて様々に外観が変化するキャラクタを育成することができる。
【0223】
本実施形態における情報処理システムでは、情報処理サーバ10は、訓練済みの生成モデルを用いてキャラクタ画像を生成する。訓練済みの生成モデルでは、画像生成に用いるノイズにより、生成される画像のランダム性を調整することが可能である。したがって、訓練済みの生成モデルを用いてキャラクタ画像を生成することで、属性値が同一であっても同一の画像が生成されることがないように構成することができる。したがって、本実施形態における情報処理システムによれば、訓練済みの生成モデルに基づいて様々に外観が変化するキャラクタを育成することができる。
【0224】
本実施形態における情報処理システムでは、現在のキャラクタ画像の潜在変数と他のキャラクタ画像の潜在変数とを融合した融合潜在変数に基づいて、融合後のキャラクタ画像を生成する。したがって、本実施形態における情報処理システムによれば、複数のキャラクタ画像を融合した外観を有するキャラクタを育成することができる。
【0225】
本実施形態における情報処理システムでは、抽選やゲームの進行に応じて入手できるアクセサリをキャラクタに装着させることで、現在のキャラクタ画像にアクセサリ画像を合成したキャラクタ画像を生成する。したがって、本実施形態における情報処理システムによれば、ユーザが獲得したアクセサリを装着した外観を有するキャラクタを育成することができる。
【0226】
本実施形態における情報処理サーバ10は、カテゴリに関する情報を取得し、カテゴリに関する情報に基づいて、現在のキャラクタ画像の潜在変数から新たな潜在変数を生成し、生成した潜在変数と生成モデルとに基づいて、進化後のキャラクタ画像を生成することができる。
【0227】
本実施形態における情報処理サーバ10は、取得されたカテゴリに関する情報が第1のカテゴリに関する情報である場合に生成される潜在変数と、取得されたカテゴリに関する情報が第2のカテゴリに関する情報である場合に生成される潜在変数とを、異なる潜在変数とすることができる。生成される各潜在変数は、現在のキャラクタ画像の潜在変数からの変化量、変化割合又は変化対象のいずれか1つが異なる潜在変数とすることができる。
【0228】
本実施形態における情報処理サーバ10は、取得されたカテゴリに関する情報が複数のカテゴリを示す情報を含むとき、複数のカテゴリに基づいて、新たな潜在変数を生成することができる。新たな潜在変数は、少なくとも複数のカテゴリに含まれる各カテゴリの数又は複数のカテゴリに対する各カテゴリの割合のいずれか1つに基づいて生成することができる。
【0229】
本実施形態における情報処理サーバ10は、現在のキャラクタ画像の潜在変数と融合相手のキャラクタ画像の潜在変数とを融合した融合潜在変数と、生成モデルとに基づいて、融合後のキャラクタ画像を生成することができる。融合潜在変数は、ユーザによる操作に応じて決定された融合比率に従って生成することができる。
【0230】
本実施形態における情報処理サーバ10は、進化後のキャラクタ画像の潜在変数と融合相手のキャラクタ画像の潜在変数とを融合した融合潜在変数と、生成モデルとに基づいて、融合後のキャラクタ画像を生成することができる。融合相手のキャラクタ画像の潜在変数は、進化後のキャラクタ画像の潜在変数に基づいて生成された潜在変数とすることができる。融合潜在変数は、ユーザによる操作に応じて決定された融合比率に従って生成することができる。
【0231】
本実施形態における情報処理サーバ10は、生成モデルが出力した画像と予め用意したテンプレート画像とを合成することでキャラクタ画像を生成することができる。
【0232】
本実施形態における情報処理端末20は、現在のキャラクタ画像を表示装置に表示し、カテゴリに関する情報をユーザの指示に基づいて取得し、カテゴリに関する情報に基づいて生成された進化後のキャラクタ画像を取得し、進化後のキャラクタ画像を表示装置に表示する。進化後のキャラクタ画像は、カテゴリに関する情報に基づいて、現在のキャラクタ画像の潜在変数から生成された新たな潜在変数と生成モデルとに基づいて生成された画像とすることができる。
【0233】
本実施形態における情報処理端末20は、融合相手のキャラクタ画像を表示装置に表示し、進化後のキャラクタ画像と融合相手のキャラクタ画像とを融合した融合後のキャラクタ画像を取得し、融合後のキャラクタ画像を表示装置に表示することができる。融合相手のキャラクタ画像は、進化後のキャラクタ画像の潜在変数に基づいて生成された画像とすることができる。
【0234】
本実施形態における情報処理端末20は、融合後のキャラクタ画像は、進化後の潜在変数と融合相手のキャラクタ画像の潜在変数とを融合した融合潜在変数と、生成モデルとに基づいて生成された画像とすることができる。融合潜在変数は、ユーザによる操作に応じて決定した融合比率に従って、進化後の潜在変数と融合相手の潜在変数とを融合した潜在変数とすることができる。
【0235】
[情報処理装置のハードウェア構成]
前述した実施形態における各装置(情報処理サーバ10及び情報処理端末20)の一部又は全部は、ハードウェアで構成されていてもよいし、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等が実行するソフトウェア(プログラム)の情報処理で構成されてもよい。ソフトウェアの情報処理で構成される場合には、前述した実施形態における各装置の少なくとも一部の機能を実現するソフトウェアを、CD-ROM(Compact Disc-Read Only Memory)、USB(Universal Serial Bus)メモリ等の非一時的な記憶媒体(非一時的なコンピュータ可読媒体)に収納し、コンピュータに読み込ませることにより、ソフトウェアの情報処理を実行してもよい。また、通信ネットワークを介して当該ソフトウェアがダウンロードされてもよい。さらに、ソフトウェアの処理の全部又は一部がASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路に実装されることにより、当該ソフトウェアによる情報処理がハードウェアにより実行されてもよい。
【0236】
ソフトウェアを収納する記憶媒体は、光ディスク等の着脱可能なものでもよいし、ハードディスク、メモリ等の固定型の記憶媒体であってもよい。また、記憶媒体は、コンピュータ内部に備えられてもよいし(主記憶装置、補助記憶装置等)、コンピュータ外部に備えられてもよい。
【0237】
図18は、前述した実施形態における各装置(情報処理サーバ10及び情報処理端末20)のハードウェア構成の一例を示すブロック図である。各装置は、一例として、プロセッサ71と、主記憶装置72(メモリ)と、補助記憶装置73(メモリ)と、ネットワークインタフェース74と、デバイスインタフェース75と、を備え、これらがバス76を介して接続されたコンピュータ7として実現されてもよい。
【0238】
図18のコンピュータ7は、各構成要素を一つ備えているが、同じ構成要素を複数備えていてもよい。また、
図18では、1台のコンピュータ7が示されているが、ソフトウェアが複数台のコンピュータにインストールされて、当該複数台のコンピュータそれぞれがソフトウェアの同一の又は異なる一部の処理を実行してもよい。この場合、コンピュータそれぞれがネットワークインタフェース74等を介して通信して処理を実行する分散コンピューティングの形態であってもよい。つまり、前述した実施形態における各装置(情報処理サーバ10及び情報処理端末20)は、1又は複数の記憶装置に記憶された命令を1台又は複数台のコンピュータが実行することで機能を実現するシステムとして構成されてもよい。また、端末から送信された情報をクラウド上に設けられた1台又は複数台のコンピュータで処理し、この処理結果を端末に送信するような構成であってもよい。
【0239】
前述した実施形態における各装置(情報処理サーバ10及び情報処理端末20)の各種演算は、1又は複数のプロセッサを用いて、又はネットワークを介した複数台のコンピュータを用いて、並列処理で実行されてもよい。また、各種演算が、プロセッサ内に複数ある演算コアに振り分けられて、並列処理で実行されてもよい。また、本開示の処理、手段等の一部又は全部は、ネットワークを介してコンピュータ7と通信可能なクラウド上に設けられたプロセッサ及び記憶装置の少なくとも一方により実現されてもよい。このように、前述した実施形態における各装置は、1台又は複数台のコンピュータによる並列コンピューティングの形態であってもよい。
【0240】
プロセッサ71は、少なくともコンピュータの制御又は演算のいずれかを行う電子回路(処理回路、Processing circuit、Processing circuitry、CPU、GPU、FPGA、ASIC等)であってもよい。また、プロセッサ71は、汎用プロセッサ、特定の演算を実行するために設計された専用の処理回路又は汎用プロセッサと専用の処理回路との両方を含む半導体装置のいずれであってもよい。また、プロセッサ71は、光回路を含むものであってもよいし、量子コンピューティングに基づく演算機能を含むものであってもよい。
【0241】
プロセッサ71は、コンピュータ7の内部構成の各装置等から入力されたデータやソフトウェアに基づいて演算処理を行ってもよく、演算結果や制御信号を各装置等に出力してもよい。プロセッサ71は、コンピュータ7のOS(Operating System)や、アプリケーション等を実行することにより、コンピュータ7を構成する各構成要素を制御してもよい。
【0242】
前述した実施形態における各装置(情報処理サーバ10及び情報処理端末20)は、1又は複数のプロセッサ71により実現されてもよい。ここで、プロセッサ71は、1チップ上に配置された1又は複数の電子回路を指してもよいし、2つ以上のチップあるいは2つ以上のデバイス上に配置された1又は複数の電子回路を指してもよい。複数の電子回路を用いる場合、各電子回路は有線又は無線により通信してもよい。
【0243】
主記憶装置72は、プロセッサ71が実行する命令及び各種データ等を記憶してもよく、主記憶装置72に記憶された情報がプロセッサ71により読み出されてもよい。補助記憶装置73は、主記憶装置72以外の記憶装置である。なお、これらの記憶装置は、電子情報を格納可能な任意の電子部品を意味するものとし、半導体のメモリでもよい。半導体のメモリは、揮発性メモリ又は不揮発性メモリのいずれでもよい。前述した実施形態における各装置(情報処理サーバ10及び情報処理端末20)において各種データ等を保存するための記憶装置は、主記憶装置72又は補助記憶装置73により実現されてもよく、プロセッサ71に内蔵される内蔵メモリにより実現されてもよい。例えば、前述した実施形態における各記憶部(モデル記憶部110、画像情報記憶部111、ユーザ情報記憶部112、キャラクタ記憶部210、タグ情報記憶部211及びアイテム記憶部212)は、主記憶装置72又は補助記憶装置73により実現されてもよい。
【0244】
前述した実施形態における各装置(情報処理サーバ10及び情報処理端末20)が、少なくとも1つの記憶装置(メモリ)と、この少なくとも1つの記憶装置に接続(結合)される少なくとも1つのプロセッサで構成される場合、記憶装置1つに対して、少なくとも1つのプロセッサが接続されてもよい。また、プロセッサ1つに対して、少なくとも1つの記憶装置が接続されてもよい。また、複数のプロセッサのうち少なくとも1つのプロセッサが、複数の記憶装置のうち少なくとも1つの記憶装置に接続される構成を含んでもよい。また、複数台のコンピュータに含まれる記憶装置とプロセッサによって、この構成が実現されてもよい。さらに、記憶装置がプロセッサと一体になっている構成(例えば、L1キャッシュ、L2キャッシュを含むキャッシュメモリ)を含んでもよい。
【0245】
ネットワークインタフェース74は、無線又は有線により、通信ネットワーク8に接続するためのインタフェースである。ネットワークインタフェース74は、既存の通信規格に適合したもの等、適切なインタフェースを用いればよい。ネットワークインタフェース74により、通信ネットワーク8を介して接続された外部装置9Aと情報のやり取りが行われてもよい。なお、通信ネットワーク8は、WAN(Wide Area Network)、LAN(Local Area Network)、PAN(Personal Area Network)等の何れか又はそれらの組み合わせであってよく、コンピュータ7と外部装置9Aとの間で情報のやり取りが行われるものであればよい。WANの一例としてインターネット等があり、LANの一例としてIEEE802.11やイーサネット(登録商標)等があり、PANの一例としてBluetooth(登録商標)やNFC(Near Field Communication)等がある。
【0246】
デバイスインタフェース75は、外部装置9Bと直接接続するUSB等のインタフェースである。
【0247】
外部装置9Aはコンピュータ7とネットワークを介して接続されている装置である。外部装置9Bはコンピュータ7と直接接続されている装置である。
【0248】
外部装置9A又は外部装置9Bは、一例として、入力装置であってもよい。入力装置は、例えば、カメラ、マイクロフォン、モーションキャプチャ、各種センサ、キーボード、マウス、タッチパネル等のデバイスであり、取得した情報をコンピュータ7に与える。また、パーソナルコンピュータ、タブレット端末、スマートフォン等の入力部とメモリとプロセッサを備えるデバイスであってもよい。
【0249】
また、外部装置9A又は外部装置Bは、一例として、出力装置でもよい。出力装置は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)パネル等の表示装置であってもよいし、音声等を出力するスピーカ等であってもよい。また、パーソナルコンピュータ、タブレット端末又はスマートフォン等の出力部とメモリとプロセッサを備えるデバイスであってもよい。
【0250】
また、外部装置9Aまた外部装置9Bは、記憶装置(メモリ)であってもよい。例えば、外部装置9Aはネットワークストレージ等であってもよく、外部装置9BはHDD等のストレージであってもよい。
【0251】
また、外部装置9A又は外部装置9Bは、前述した実施形態における各装置(情報処理サーバ10及び情報処理端末20)の構成要素の一部の機能を有する装置でもよい。つまり、コンピュータ7は、外部装置9A又は外部装置9Bに処理結果の一部又は全部を送信してもよいし、外部装置9A又は外部装置9Bから処理結果の一部又は全部を受信してもよい。
【0252】
本明細書(請求項を含む)において、「a、b及びcの少なくとも1つ(一方)」又は「a、b又はcの少なくとも1つ(一方)」の表現(同様な表現を含む)が用いられる場合は、a、b、c、a-b、a-c、b-c又はa-b-cのいずれかを含む。また、a-a、a-b-b、a-a-b-b-c-c等のように、いずれかの要素について複数のインスタンスを含んでもよい。さらに、a-b-c-dのようにdを有する等、列挙された要素(a、b及びc)以外の他の要素を加えることも含む。
【0253】
本明細書(請求項を含む)において、「データを入力として/を用いて/データに基づいて/に従って/に応じて」等の表現(同様な表現を含む)が用いられる場合は、特に断りがない場合、データそのものを用いる場合や、データに何らかの処理を行ったもの(例えば、ノイズ加算したもの、正規化したもの、データから抽出した特徴量、データの中間表現等)を用いる場合を含む。また、「データを入力として/を用いて/データに基づいて/に従って/に応じて」何らかの結果が得られる旨が記載されている場合(同様な表現を含む)、特に断りがない場合、当該データのみに基づいて当該結果が得られる場合や、当該データ以外の他のデータ、要因、条件及び/又は状態にも影響を受けて当該結果が得られる場合を含む。また、「データを出力する」旨が記載されている場合(同様な表現を含む)、特に断りがない場合、データそのものを出力として用いる場合や、データに何らかの処理を行ったもの(例えば、ノイズ加算したもの、正規化したもの、データから抽出した特徴量、各種データの中間表現等)を出力として用いる場合を含む。
【0254】
本明細書(請求項を含む)において、「接続される(connected)」及び「結合される(coupled)」との用語が用いられる場合は、直接的な接続/結合、間接的な接続/結合、電気的(electrically)な接続/結合、通信的(communicatively)な接続/結合、機能的(operatively)な接続/結合、物理的(physically)な接続/結合等のいずれをも含む非限定的な用語として意図される。当該用語は、当該用語が用いられた文脈に応じて適宜解釈されるべきであるが、意図的に或いは当然に排除されるのではない接続/結合形態は、当該用語に含まれるものして非限定的に解釈されるべきである。
【0255】
本明細書(請求項を含む)において、「AがBするよう構成される(A configured to B)」との表現が用いられる場合は、要素Aの物理的構造が、動作Bを実行可能な構成を有するとともに、要素Aの恒常的(permanent)又は一時的(temporary)な設定(setting/configuration)が、動作Bを実際に実行するように設定(configured/set)されていることを含んでよい。例えば、要素Aが汎用プロセッサである場合、当該プロセッサが動作Bを実行可能なハードウェア構成を有するとともに、恒常的(permanent)又は一時的(temporary)なプログラム(命令)の設定により、動作Bを実際に実行するように設定(configured)されていればよい。また、要素Aが専用プロセッサ、専用演算回路等である場合、制御用命令及びデータが実際に付属しているか否かとは無関係に、当該プロセッサの回路的構造等が動作Bを実際に実行するように構築(implemented)されていればよい。
【0256】
本明細書(請求項を含む)において、含有又は所有を意味する用語(例えば、「含む(comprising/including)」、「有する(having)」等)が用いられる場合は、当該用語の目的語により示される対象物以外の物を含有又は所有する場合を含む、open-endedな用語として意図される。これらの含有又は所有を意味する用語の目的語が数量を指定しない又は単数を示唆する表現(a又はanを冠詞とする表現)である場合は、当該表現は特定の数に限定されないものとして解釈されるべきである。
【0257】
本明細書(請求項を含む)において、ある箇所において「1つ又は複数(one or more)」、「少なくとも1つ(at least one)」等の表現が用いられ、他の箇所において数量を指定しない又は単数を示唆する表現(a又はanを冠詞とする表現)が用いられているとしても、後者の表現が「1つ」を意味することを意図しない。一般に、数量を指定しない又は単数を示唆する表現(a又はanを冠詞とする表現)は、必ずしも特定の数に限定されないものとして解釈されるべきである。
【0258】
本明細書において、ある実施形態の有する特定の構成について特定の効果(advantage/result)が得られる旨が記載されている場合、別段の理由がない限り、当該構成を有する他の1つ又は複数の実施形態についても当該効果が得られると理解されるべきである。但し、当該効果の有無は、一般に種々の要因、条件及び/又は状態に依存し、当該構成により必ず当該効果が得られるものではないと理解されるべきである。当該効果は、種々の要因、条件及び/又は状態が満たされたときに実施形態に記載の当該構成により得られるものに過ぎず、当該構成又は類似の構成を規定したクレームに係る発明において、当該効果が必ずしも得られるものではない。
【0259】
本明細書(請求項を含む)において、「最大化する(maximize)/最大化(maximization)」等の用語が用いられる場合は、グローバルな最大値を求めること、グローバルな最大値の近似値を求めること、ローカルな最大値を求めること、及びローカルな最大値の近似値を求めることを含み、当該用語が用いられた文脈に応じて適宜解釈されるべきである。また、これら最大値の近似値を確率的又はヒューリスティックに求めることを含む。同様に、「最小化する(minimize)/最小化(minimization)」等の用語が用いられる場合は、グローバルな最小値を求めること、グローバルな最小値の近似値を求めること、ローカルな最小値を求めること、及びローカルな最小値の近似値を求めることを含み、当該用語が用いられた文脈に応じて適宜解釈されるべきである。また、これら最小値の近似値を確率的又はヒューリスティックに求めることを含む。同様に、「最適化する(optimize)/最適化(optimization)」等の用語が用いられる場合は、グローバルな最適値を求めること、グローバルな最適値の近似値を求めること、ローカルな最適値を求めること、及びローカルな最適値の近似値を求めることを含み、当該用語が用いられた文脈に応じて適宜解釈されるべきである。また、これら最適値の近似値を確率的又はヒューリスティックに求めることを含む。
【0260】
本明細書(請求項を含む)において、複数のハードウェアが所定の処理を行う場合、各ハードウェアが協働して所定の処理を行ってもよいし、一部のハードウェアが所定の処理の全てを行ってもよい。また、一部のハードウェアが所定の処理の一部を行い、別のハードウェアが所定の処理の残りを行ってもよい。本明細書(請求項を含む)において、「1又は複数のハードウェアが第1の処理を行い、前記1又は複数のハードウェアが第2の処理を行う」等の表現(同様な表現を含む)が用いられている場合、第1の処理を行うハードウェアと第2の処理を行うハードウェアは同じものであってもよいし、異なるものであってもよい。つまり、第1の処理を行うハードウェア及び第2の処理を行うハードウェアが、前記1又は複数のハードウェアに含まれていればよい。なお、ハードウェアは、電子回路、電子回路を含む装置等を含んでよい。
【0261】
本明細書(請求項を含む)において、複数の記憶装置(メモリ)がデータの記憶を行う場合、複数の記憶装置のうち個々の記憶装置は、データの一部のみを記憶してもよいし、データの全体を記憶してもよい。また、複数の記憶装置のうち一部の記憶装置がデータを記憶する構成を含んでもよい。
【0262】
本明細書(請求項を含む)において、「第1の」、「第2の」等の用語は、単に2つ以上の要素間を区別する方法として使用されており、その対象に対して時間的態様、空間的態様、順序、量等の技術的意味を課すことを必ずしも意図するものではない。したがって、例えば、第1の要素及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、第1の要素が第2の要素に先行しなければならないこと、第2の要素が存在するために第1の要素が存在しなければならないこと等を必ずしも意味するものではない。
【0263】
以上、本開示の実施形態について詳述したが、本開示は上記した個々の実施形態に限定されるものではない。特許請求の範囲に規定された内容及びその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲において、種々の追加、変更、置き換え、部分的削除等が可能である。例えば、前述した実施形態において、数値又は数式を説明に用いている場合、これらは例示的な目的で示されたものであり、本開示の範囲を限定するものではない。また、実施形態で示した各動作の順序も例示的なものであり、本開示の範囲を限定するものではない。
【符号の説明】
【0264】
1 情報処理システム
10 情報処理サーバ
101 画像生成部
102 画像融合部
103 画像合成部
110 モデル記憶部
111 画像情報記憶部
112 ユーザ情報記憶部
20 情報処理端末
200 表示制御部
201 育成操作部
202 融合操作部
203 装着操作部
204 抽選操作部
205 課金操作部
206 対戦操作部
210 キャラクタ記憶部
211 タグ情報記憶部
212 アイテム記憶部