(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2024-07-30
(45)【発行日】2024-08-07
(54)【発明の名称】プログラム
(51)【国際特許分類】
A63F 13/825 20140101AFI20240731BHJP
A63F 13/67 20140101ALI20240731BHJP
G06N 3/008 20230101ALI20240731BHJP
【FI】
A63F13/825
A63F13/67
G06N3/008
(21)【出願番号】P 2023187265
(22)【出願日】2023-10-31
【審査請求日】2024-03-06
【早期審査対象出願】
(73)【特許権者】
【識別番号】509070463
【氏名又は名称】株式会社コロプラ
(74)【代理人】
【識別番号】110000442
【氏名又は名称】弁理士法人武和国際特許事務所
(72)【発明者】
【氏名】馬場 功淳
【審査官】鈴木 崇雅
(56)【参考文献】
【文献】特開2021-074561(JP,A)
【文献】特開2023-130433(JP,A)
【文献】特開2021-036446(JP,A)
【文献】特開2007-195891(JP,A)
【文献】米国特許出願公開第2016/0300158(US,A1)
【文献】米国特許出願公開第2014/0349766(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
A63F 9/24、13/00-13/98
G06N 3/008
(57)【特許請求の範囲】
【請求項1】
コンピュータを、
第1キャラクタと、前記第1キャラクタと対戦する第2キャラクタとを育成する育成手段と、
前記第1キャラクタを育成する方向性に関する未知方針データを入力する入力手段と、
前記未知方針データに対応する前記第1キャラクタの成長後状態を示す未知成長イメージデータを含む未知データを生成する未知データ生成手段と、
前記未知データが入力されると、前記未知データに基づき、前記第1キャラクタの成長後状態を示す成長イメージデータを含む学習データで学習させた学習済みモデルを用いて、前記方向性に従って具体化させた育成パターンに基づき前記第1キャラクタを成長させる実行データを生成する実行データ生成手段として機能させ、
前記育成手段は、
前記実行データに基づき、前記第1キャラクタを育成さ
せ、
前記学習済みモデルは、
前記成長イメージデータを入力データとし、前記育成パターンを出力データとして、両者を関連付けて事前に学習させたモデルである
プログラム。
【請求項2】
前記未知方針データは、
前記方向性に関する文言を含み、
前記未知データ生成手段は、
前記文言から想起される前記成長後状態となるように、前記第1キャラクタの育成をシミュレーションして複数の前記未知成長イメージデータを生成する前処理を行い、
ユーザによる前記未知成長イメージデータの選択結果に基づき、前記未知成長イメージデータが前記未知データとして、前記学習済みモデルに入力される
請求項1に記載のプログラム。
【請求項3】
前記実行データ生成手段は、
1つの前記成長イメージデータに対して、前記育成パターンを複数含むように前記実行データを生成し、
前記育成パターンは、
ユーザによる変更操作に基づき、変更されて変更パターンとなり、
前記育成手段は、
前記変更パターンを含む前記実行データに基づき、前記第1キャラクタを育成させる
請求項1に記載のプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、プログラムに関する。
【背景技術】
【0002】
従来、動物、又は、植物の成長過程を画像にして出力するゲーム機器が知られている。具体的には、まずゲーム機器が、生物を成長させるための成長要素を示した複数種類の成長要素画像データを記憶する。次に、ユーザが複数の成長要素画像データから、成長要素画像データを1つ選択する。このように、成長要素画像データが選ばれると、選ばれた成長要素画像データに応じた成長要素データの値が定まり、生物が成長していく。以上のようにして、動物、又は、植物等の生物を現実的な感覚で成長させて表示し、実際に飼育しなくとも、飼育を実習できる技術が知られている(例えば、特許文献1等である)。
【0003】
また、ゲームにおいて、ユーザは、主人公キャラクタに行動を実行させ、主人公キャラクタの能力値をアップさせて、主人公キャラクタを育成する。この行動に対し、場面ごとに、行動の良否に対応させて、加減点が事前に設定される。そして、主人公キャラクタの体力に対応した体力指数が閾値まで低下すると、育成が失敗となり、ゲームを終了させる。このようにして、ゲームの進行に際し、ユーザにゲームを維持する条件を課すことで、興趣に富むゲームを提供する技術が知られている(例えば、特許文献2等である)。
【先行技術文献】
【特許文献】
【0004】
【文献】特許第2848219号公報
【文献】特許第3343099号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
従来の技術は、キャラクタを育成するために、ユーザは、細かい指示を行う。具体的には、育成ゲーム等では、キャラクタの育成は、キャラクタの各パラメータを上昇させる。そのため、ユーザは、キャラクタを育成させるため、パラメータが上昇するイベントを1つ1つ実行していく。このような作業は、単調になりやすく、ユーザの興趣を低下させる一因になっていた。一方で、AI(人工知能、Artificial Intelligence、以下「AI」という。)をゲームに適用し、新たな面白みをユーザに提供する試みが生まれてきているが更なる向上が望まれていた。
【0006】
本発明は、ゲーム、特にキャラクタを育成して、育成したキャラクタ同士を対戦させることができるゲームにおいて、AIによってキャラクタを育成させ、これらのキャラクタ同士を対戦させることで、ユーザに新たな体験をもたらしつつ、ユーザの興趣を向上させることを目的とする。
【課題を解決するための手段】
【0007】
本発明は、前記課題を解決するため、プログラムは、コンピュータを、第1キャラクタと、前記第1キャラクタと対戦する第2キャラクタとを育成する育成手段と、前記第1キャラクタを育成する方向性に関する未知方針データを入力する入力手段と、前記未知方針データに対応する前記第1キャラクタの成長後状態を示す未知成長イメージデータを含む未知データを生成する未知データ生成手段と、前記未知データが入力されると、前記未知データに基づき、前記第1キャラクタの成長後状態を示す成長イメージデータを含む学習データで学習させた学習済みモデルを用いて、前記方向性に従って具体化させた育成パターンに基づき前記第1キャラクタを成長させる実行データを生成する実行データ生成手段として機能させ、前記育成手段は、前記実行データに基づき、前記第1キャラクタを育成させる。
【発明の効果】
【0008】
本発明によれば、ユーザに新たな体験をもたらしつつ、ユーザの興趣を向上させることができる。
【図面の簡単な説明】
【0009】
【
図1】本実施形態に係るシステム構成例を示す図である。
【
図4】AIの学習、及び、実行の全体処理例を示す図である。
【
図5】情報処理装置のハードウェア構成例を示す図である。
【
図8】実行処理における実行データの例、育成パターンの例、及び、育成の例を示す図である。
【発明を実施するための形態】
【0010】
以下、実施形態を図面に基づいて説明する。
【0011】
[システム構成例]
図1は、本実施形態に係るシステム構成例を示す図である。例えば、
図1に示すように、システム1は、ユーザ端末20A、20B、20C(以下、これらを総称して、「ユーザ端末20」と表記することがある。)と、サーバ11とを主に備える。
【0012】
以下、サーバ11を管理する者を「管理者5」という。また、ユーザ端末20A、20B、及び、20Cを操作するそれぞれの者を「ユーザ4A」、「ユーザ4B」、「ユーザ4C」(以下、これらを総称して、「ユーザ4」と表記することがある。)という。
【0013】
管理者5は、システム1による情報処理サービスを運営する役割の者である。一方で、ユーザ4は、システム1による情報処理サービスを利用する者である。また、管理者5、及び、ユーザ4は、管理装置の例であるサーバ11、又は、ユーザ端末20のどちらの情報処理装置を操作するかが異なる。以下、ユーザ4がゲームのプレイヤとなり、管理者5がゲーム、及び、サーバ11を管理する。
【0014】
なお、
図1に示す例は、ユーザ端末20が3つ、かつ、サーバ11が1つの例であるが、サーバ11の台数、ユーザ端末20の台数、管理者5の人数、及び、ユーザ4の人数は問わない。
【0015】
サーバ11、及び、ユーザ端末20は、通信ネットワーク2を介して相互通信可能に接続する。例えば、通信ネットワーク2は、インターネット、移動体通信システム(例えば、4G(4th Generation、第4世代移動通信規格)、又は、5G(5th Generation、第5世代移動通信規格)等による公衆回線である。)、Wi-Fi(登録商標)等の無線ネットワーク、又は、これらの組み合わせである。
【0016】
ユーザ端末20は、サーバ11からゲームをプレイするためのプログラム(以下、「ゲームプログラム」という。)をダウンロード、又は、サーバ11にアクセスしてゲームサービスを提供する。なお、ゲームをプレイする上でサーバ11と通信がなくともよい。すなわち、ユーザ端末20は、プログラムをダウンロード、又は、メディアからインストールしてゲームをプレイする環境を構築してもよい。
【0017】
[AIの学習、及び、実行の例]
以下、AIは、「事前処理」によって学習する。学習段階、すなわち、「事前処理」におけるAIを「学習モデルA1」という。そして、学習モデルA1は、ある程度、学習が進むと、「学習済みモデルA2」となる。以下、学習済みモデルA2を用いて出力処理を実行する実行段階を「実行処理」とする。
【0018】
「事前処理」は、「実行処理」より前に行われる。ただし、「実行処理」をする上で引き続き「事前処理」、すなわち、学習済みモデルA2が学習を行うものであってもよい。
【0019】
[事前処理例]
図2は、事前処理例を示す図である。例えば、事前処理は、サーバ11で行われる。
【0020】
学習モデルA1は、学習データD1を入力して学習を行う。すなわち、学習モデルA1は、所謂「教師あり」の学習を行う。
【0021】
事前処理では、前処理装置100に対し、方針データD11が入力される。そして、方針データD11は、前処理装置100によって、成長イメージデータD12に変換される。なお、前処理装置100は、1つの方針データD11に対し、複数の成長イメージデータD12を生成してもよい。以下、前処理装置100が1つの方針データD11に対し、成長イメージデータD12を1つ生成する例で説明する。
【0022】
学習データD1は、既知の成長イメージデータD12(以下、「正解」が既知の成長イメージデータを単に「成長イメージデータD12」という。)等を含み、この成長イメージデータD12に対する「正解」が対応付けされたデータである。
【0023】
学習モデルA1は、学習データD1の入力に基づき、方針データD11の入力によって生成される成長イメージデータD12対し、正解データD20の出力をする対応関係を学習する。
【0024】
なお、方針データD11、成長イメージデータD12、及び、前処理装置100による前処理の詳細は、後述する。
【0025】
更に、学習モデルA1は、ビッグデータD4で学習するのが望ましい。例えば、ビッグデータD4は、インターネット上のデータ等である。ただし、ビッグデータD4は、管理者5等が入力するデータでもよい。また、前処理装置100がAIによって変換を行う場合には、前処理装置100が用いるAIは、ビッグデータD4を用いて事前処理で学習してもよい。
【0026】
[実行処理例]
図3は、実行処理例を示す図である。例えば、実行処理は、ユーザ端末20、又は、ユーザ端末20とサーバ11が協働して行う。
【0027】
学習済みモデルA2は、事前処理による学習によって学習モデルA1が学習した状態である。すなわち、
図2に示す事前処理が実行されると、学習済みモデルA2が生成される。
【0028】
学習済みモデルA2は、未知データD2が入力されると、未知データD2に対して、実行データD3を生成する。
【0029】
未知データD2は、未知の成長イメージデータ(以下「未知成長イメージデータD21」という。)、すなわち、成長イメージデータに対する「正解」が入力の時点では不明なデータである。例えば、未知データD2は、学習データD1における成長イメージデータD12が同じ種類のデータで構成される。
【0030】
未知データD2が入力されると、学習済みモデルA2は、学習済みの対応関係に基づき、実行データD3を生成する。
【0031】
実行データD3は、育成パターンDP0で構成されるデータである。なお、学習済みモデルA2は、実行データD3を複数の育成パターンDP0で構成するように生成してもよい。
【0032】
実行データD3、及び、育成パターンDP0の詳細は後述する。
【0033】
実行データD3を構成する複数の育成パターンDP0のうち、1つの育成パターンDP0が選択されると、育成パターンDP0が示す育成方法に基づき、キャラクタ101の育成が行われる。
【0034】
図4は、AIの学習、及び、実行の全体処理例を示す図である。
図2に示す事前処理、及び、
図3に示す実行処理の関係は、
図4に示すような関係となる。
【0035】
なお、事前処理、及び、実行処理を図に例示するような連続する順序で実行しなくともよい。したがって、事前処理によって準備を行う期間と、その後、実行処理を行う期間を連続させることは必須ではない。ゆえに、実行処理は、学習済みモデルA2を一旦作成した後であれば、事前処理から時間が経過した後に実行処理を行うようにしてもよい。また、学習済みモデルA2が一度生成された後であれば、学習済みモデルA2を転用して実行処理が行われてもよい。
【0036】
学習処理と実行処理では、学習データD1と未知データD2が異なる。また、AIは、学習段階では、学習モデルA1であったのが、ある程度学習が進むと、学習済みモデルA2となる。このように、ビッグデータD4を学習データとして学習した学習済みモデルA2は、所謂「生成AI」である。
【0037】
学習データD1に含まれる成長イメージデータD12と、未知データD2に含まれる未知成長イメージデータD21は、同じデータ種類である。すなわち、成長イメージデータD12と未知成長イメージデータD21は、どちらもキャラクタ101の成長後をイメージしたデータである。
【0038】
学習データD1は、「正解」が既知であるのに対し、未知データD2は、「正解」が未知となる。具体的には、学習データD1は、正解データD20を含むのに対し、未知データD2は、正解データD20を含まない。したがって、学習データD1は、成長イメージデータD12と正解データD20の関係が既知である。
【0039】
一方で、未知データD2には、正解データD20が含まれず、未知データD2に対する「正解」が未知である。そして、学習済みモデルA2は、事前処理で学習した学習データD1と正解データD20の相関関係に基づき、未知データD2に対して実行データD3を生成する。
【0040】
実行処理は、一部をテーブル等を用いる処理でもよい。このように、テーブルを用いる構成、所謂ルールベースでは、事前処理は、テーブル(ルックアップテーブル(Look Up Table、LUT)等ともいう。)、又は、数式等を入力する準備を行う処理である。
【0041】
[情報処理装置のハードウェア構成例]
図5は、情報処理装置のハードウェア構成図である。情報処理装置は、サーバ11、及び、ユーザ端末20等である。以下、情報処理装置は、サーバ11と同じハードウェア構成であるとする。例えば、情報処理装置は、ワークステーション、又は、パーソナルコンピュータ等の汎用コンピュータである。ただし、それぞれの情報処理装置は、ハードウェア構成が異なってもよい。
【0042】
サーバ11は、プロセッサ111と、メモリ112と、ストレージ113と、入出力インタフェース114と、通信インタフェース115とを主に備える。また、サーバ11の各構成要素は、通信バス116に接続する。
【0043】
プロセッサ111は、メモリ112又はストレージ113に格納されているサーバプログラム11Pに含まれる一連の命令を実行することによって、処理、及び、制御を実現する。
【0044】
プロセッサ111は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、又は、これらの組み合わせ等の演算装置、及び、制御装置である。
【0045】
メモリ112は、サーバプログラム11P、及び、データ等を記憶する主記憶装置である。例えば、サーバプログラム11Pは、ストレージ113からロードされる。また、データは、サーバ11に入力されたデータと、プロセッサ111によって生成されたデータとを含む。例えば、メモリ112は、RAM(Random Access Memory)、又は、その他の揮発メモリである。
【0046】
ストレージ113は、サーバプログラム11P、及び、データ等を記憶する補助記憶装置である。ストレージ113は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、又は、その他の不揮発記憶装置である。また、ストレージ113は、メモリカードのように着脱可能な記憶装置でもよい。更に、他の例として、ストレージ113は、外部記憶装置であってもよい。このような構成によれば、例えば、アミューズメント施設のように複数のユーザ端末20が使用される場面において、サーバプログラム11P、又は、データの更新等を一括して行うことが可能になる。
【0047】
入出力インタフェース114は、モニタ、入力装置(例えば、キーボード、又は、ポインティングデバイス等である。)、外部記憶装置、スピーカ、カメラ、マイク、及び、センサ等の外部装置をサーバ11に接続するインタフェースである。
【0048】
また、プロセッサ111は、入出力インタフェース114を通じて外部装置と通信する。入出力インタフェース114は、例えば、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)、無線、及び、その他の端子である。
【0049】
通信インタフェース115は、通信ネットワーク2に接続する他の装置(例えば、ユーザ端末20等である。)と通信する。例えば、通信インタフェース115は、LAN(Local Area Network)等の有線通信インタフェース、Wi-Fi(登録商標)(Wireless Fidelity)、Bluetooth(登録商標)、又は、NFC(Near Field Communication)等の無線通信インタフェースである。
【0050】
ただし、情報処理装置は、上記のハードウェア構成に限られない。例えば、ユーザ端末20は、カメラ等のセンサを更に備えてもよい。そして、ユーザ端末20がセンサで取得する様々なデータがサーバ11に送信されてもよい。
【0051】
[学習モデル、及び、学習済みモデルの構成例]
図6は、AIの構成例を示すネットワーク図である。学習モデルA1、及び、学習済みモデルA2は、例えば、以下のようなネットワークで示す構成のAIである。
【0052】
以下、学習モデルA1、及び、学習済みモデルA2は、サーバ11上、すなわち、クラウド上に実装される例で説明する。ただし、学習モデルA1、及び、学習済みモデルA2の一部、又は、全部は、ユーザ端末20等に実装されてもよい。
【0053】
ネットワーク300は、例えば、入力層L1、中間層L2(「隠れ層」等ともいう。)、及び、出力層L3等を有する構成である。
【0054】
入力層L1は、データを入力する層である。
【0055】
中間層L2は、入力層L1で入力するデータを重み(例えば、乗算に用いる係数である。)、及び、バイアス(例えば、定数を加算する。)等に基づいて変換する。このように中間層L2で処理された結果が出力層L3へ伝えられる。
【0056】
出力層L3は、出力内容等を出力する層である。
【0057】
そして、学習により、重みの係数(例えば、入力する文字、又は、画像に対する係数を学習に基づき変化させる。)、及び、学習で変化させるパラメータ等が最適化される。なお、ネットワーク300は、図示するネットワーク構造に限られない。つまり、AIは、他の機械学習によって実現されてもよい。
【0058】
例えば、AIは、「教師なし」の機械学習等により、次元削減(例えば、3次元以上の関係を3次元以下程度の簡略な計算で求まる関係に変える処理である。)等の前処理を行う構成等でもよい。入力と出力の関係は、1次式等の単純な計算で処理されるのが望ましい。このような計算であると、計算コストを少なくできる。
【0059】
また、AIは、ドロップアウト等といった過学習(「過剰適合」又は「過適合」等ともいう。)(overfitting)を軽減化させる処理が行われてもよい。他にも、次元削減、及び、正規化等の前処理が行われてもよい。
【0060】
AIは、CNN(畳み込みニューラルネットワーク、Convolution Neural Network)のネットワーク構造等があってもよい。他にも、例えば、ネットワーク構造は、LLM(Large Language Model 大規模言語モデル)、RNN(再帰型ニューラルネットワーク、Recurrent Neural Network)又はLSTM(Long Short-Term Memory)等の構成を有してもよい。すなわち、AIは、ディープラーニング以外のネットワーク構造等であってもよい。
【0061】
また、AIは、ハイパパラメータを有する構成であってもよい。すなわち、AIは、一部の設定をユーザ等が行う構成でもよい。更に、AIは、学習対象とする特徴量を特定してもよいし、ユーザが学習対象とする一部又は全部の特徴量を設定してもよい。
【0062】
更に、学習モデルA1、及び、学習済みモデルA2は、他の機械学習を利用してもよい。例えば、学習モデルA1、及び、学習済みモデルA2は、教師なしのモデルにより、正規化等を前処理で行うものであってもよい。更に、学習は、強化学習(Reinforcement Learning、AIに選択をさせ、選択に対する評価(報酬)を与えて、評価が大きくなるような学習方法をいう。)等であってもよい。
【0063】
学習では、データの拡張等が行われてもよい。すなわち、学習モデルA1の学習に用いる学習データを増やすため、1つの実験データ等を拡張させて、複数の学習データにする前処理が行われてもよい。このようにして、学習データを増やせると、より学習モデルA1の学習を進めることができる。
【0064】
また、学習モデルA1、及び、学習済みモデルA2は、転移学習(Transfer Learning)、又は、ファインチューニング(Fine tuning)等を行う構成でもよい。すなわち、ユーザ端末20は、装置ごとに異なる実行環境となる場合が多いため、実行環境に合わせて装置ごとに設定が異なってもよい。例えば、AIの基本構成は、別の情報処理装置で学習する。その後、各々の情報処理装置は、更に各々の実行環境に最適化するため、更に学習、又は、設定等がされてもよい。
【0065】
[方針データの例、成長イメージデータの例、前処理の処理例、及び、前処理装置の例]
前処理装置100は、PC等の情報処理装置である。ただし、前処理装置100は、サーバ11と別の装置でなくともよく、サーバ11が兼ねてもよい。以下、前処理装置100がサーバ11である例とする。
【0066】
方針データD11は、例えば、ユーザ4がテキスト形式で入力する文言である。ただし、方針データD11は、画像データ等を含んでもよい。例えば、ユーザ4は、キャラクタ101を将来的にどのようなキャラクタにさせたいかの理想像を示す、所謂、育成の方向性(以下、単に「方向性」という。)を文言で示して方針データD11として入力する。
【0067】
したがって、方針データD11は、キャラクタ101、及び、ゲームの種類によって様々な方向性があり得る。例えば、対戦を行うゲームにおいて、他キャラクタと戦闘があるゲームでは、キャラクタ101は、「力」、「素早さ」、「攻撃力」、「守備力」、「体力」・・・というように様々なパラメータが設定される。そして、パラメータは、レベルやランクが上がる、訓練する、アイテムを使う、装備を変更する、又は、イベントやミッションを攻略する等によって上昇する。換言すると、パラメータの上昇に応じて、キャラクタ101が成長していくといえる。
【0068】
方針データD11は、キャラクタ101がある程度、育成された状態(以下「成長後状態」という。)を定性的に表現した文言を含む。具体的には、方針データD11は、ユーザ4がキャラクタ101の成長後状態をイメージして、その成長後状態を形容する文言である。例えば、方針データD11は、「力強く」、「スピード重視」、又は、「なるべく長く生き残れるように」等のように入力される。したがって、方針データD11は、成長後状態を想起できるのであれば、成長後状態のキャラクタ101を画像形式で示してもよいし、音声形式で示してもよい。
【0069】
次に、前処理装置100は、方針データD11が入力されると、方針データD11を変換して成長イメージデータD12を生成する。
【0070】
成長イメージデータD12は、方針データD11に対応した成長後状態を示すデータである。例えば、成長イメージデータD12は、方針データD11が示す方向性となるように育成した場合をシミュレーションして生成される。
【0071】
図7は、成長イメージの生成例を示す図である。例えば、ユーザ4は、方針データD11をテキスト形式で入力する。以下、方向性を「力強く」とする例で説明する。ただし、方向性は、1つの文言でなく、複数の文言で示される、又は、他に条件(条件も、方針データD11内にテキストで入力する。)が加わってもよい。
【0072】
前処理装置100は、例えば、AI、すなわち、ビッグデータD4等で学習した学習済みモデル等である。したがって、前処理装置100は、現状のキャラクタ101に対し、どのような状態に成長させると、方針データD11が示す方向性のキャラクタ101に近づいていくかが特定できる。
【0073】
なお、前処理装置100は、ユーザ4による方針データD11を変換して成長イメージデータD12が生成できれば、AIを用いる以外の変換処理で成長イメージデータD12を生成してもよい。
【0074】
また、成長イメージデータD12は、ユーザ4に出力されなくともよい。すなわち、成長イメージデータD12は、全体処理の内部データとなって、ユーザ4には途中経過である成長イメージデータD12を見せない構成でもよい。
【0075】
例えば、RPG形式で複数のキャラクタが育成、及び、対戦するゲームでは、キャラクタ101ごとのレベルを上げると、パラメータが上昇してキャラクタ101が育成される。ただし、レベルを上げていく上で「訓練方法」、属性の変更(例えば、「職業」の設定等である。)、又は、アイテムの使用等により、特定のパラメータが上がりやすくできるとする。すなわち、キャラクタ101は、育成方法により、特定のパラメータが他のパラメータと比較して上がりやすくなるように育成できるとする。
【0076】
図7は、例えば、キャラクタ101を「力強く」育成した場合をシミュレーションした結果を成長イメージデータD12で示す図である。具体的には、成長イメージデータD12は、例えば、キャラクタ101の現状と、ある程度(この例では、レベルを5つ上げる成長をさせた時点を成長後状態とする。)育成した後の成長後状態のシミュレーション結果を比較形式で示す。ただし、成長イメージデータD12は、キャラクタ101の成長背前後を示す比較形式(すなわち、シミュレーション結果である。)でなく、成長後状態のみのパラメータを示す、又は、キャラクタ101の成長後状態を示す画像等の形式でもよい。
【0077】
また、パラメータがユーザ4に出力されない(一部のパラメータが出力されない場合を含む。)、所謂「隠しパラメータ」等がある場合には、隠しパラメータは、ユーザ4に出力されない、又は、数値ではなく別表現(例えば、育成でキャラクタ101の外観が変化する場合には、画像で成長後状態のシミュレーション結果を示してもよい。)で出力されてもよい。すなわち、ユーザ4は、方針データD11によって文言で方向性を示せば、キャラクタ101の育成が実行されてもよい。
【0078】
[実行データの例、育成パターンの例、及び、育成の例]
図8は、実行処理における実行データの例、育成パターンの例、及び、育成の例を示す図である。以下、実行処理における育成パターンDP0の生成例を説明する。したがって、育成パターンDP0は、学習処理では、正解データD20の形式でもある。
【0079】
育成パターンDP0は、後段で実行されるキャラクタ101の育成方法を具体化させて示すデータである。例えば、育成パターンDP0は、「トレーニングA」等のように、育成において実行する育成メニュー、及び、各育成メニューの実行回数等を示す。
【0080】
したがって、育成パターンDP0は、ゲームごとに形式が異なる。つまり、育成パターンDP0は、後段におけるキャラクタ101の育成において、どのような育成を行うかという育成内容、育成期間、及び、育成メニューの実行回数等が規定された形式である。
【0081】
なお、学習済みモデルA2は、学習処理により、どのような育成方法を取ると、どのパラメータが成長するかを対応付けできる状態である。
【0082】
ただし、育成方法に対して、確実に狙ったパラメータが上昇するとは限らない(例えば、レベルが上がっても、どのパラメータが上昇するかはランダムの設定等である。)場合もある。このような場合には、学習済みモデルA2は、狙うパラメータが上がる確率が、なるべく高くなるように実行データD3を生成する。
【0083】
なお、育成パターンDP0は、複数生成されてもよい。
【0084】
実行データD3が生成されると、実行データD3を構成する育成パターンDP0が示す育成方法でキャラクタ101が実際に育成される。
【0085】
[対戦例]
図9は、対戦例を示す図である。例えば、RPGの場合、対戦は、各々のユーザ4が育成したキャラクタを所謂「コマンドバトル」形式で行う。以下、第1ユーザである、ユーザ4Aが育成した「第1キャラクタ121」と、第2ユーザである、ユーザ4Bが育成した「第2キャラクタ122」が対戦する例で説明する。
【0086】
第1キャラクタ121、及び、第2キャラクタ122は、異なるAIによって育成されたキャラクタである。したがって、育成方法も異なるため、第1キャラクタ121、及び、第2キャラクタ122は、異なる成長をする。
【0087】
なお、対戦は、ユーザ4が操作、すなわち、コマンドを互いに順番に入力していく形式でなく、対戦中、どのように行動するかをAIが決定して自動で進行するようにしてもよい。また、このように自動で進行する場合であっても、その途中で、一部又は全部の操作をユーザ4が任意に行えるようにしてもよい。
【0088】
他にも、対戦は、1対1に限られない。例えば、3人以上のユーザ、すなわち、3体以上のキャラクタが対戦してもよいし、タッグ戦やチーム戦のように複数対複数による対戦でもよい。
【0089】
また、対戦は、ゲームの種類等によって形式が異なる。例えば、ゲームの種類は、サッカー等のスポーツゲーム、格闘ゲーム、又は、将棋等のボードゲーム等である。
【0090】
[全体処理例]
図10は、全体処理例を示す図である。以下、2人のユーザが対戦する場合を例に説明する。具体的には、第1ユーザ、及び、第1キャラクタ121用の処理がステップS11乃至ステップS17である。一方で、第2ユーザ、及び、第2キャラクタ122用の処理がステップS21乃至ステップS27である。なお、各処理は、別々に並列して実行されるが、処理を同期させる必要はない。
【0091】
以下の例では、全体処理は、事前処理と実行処理を連続して行う。具体的には、ステップS11乃至ステップS17、及び、ステップS21乃至ステップS27が学習処理である。また、ステップS15乃至ステップS17、及び、ステップS25乃至ステップS27が実行処理である。ただし、全体処理には、これら以外の処理が含まれてもよい。
【0092】
また、以下の例では、第1学習モデルの学習、第1学習済みモデルによる実行、及び、第1キャラクタ121の育成は、第1情報処理装置である、ユーザ端末20Aで実行する。同様に、以下の例では、第2学習モデルの学習、第2学習済みモデルによる実行、及び、第2キャラクタ122の育成は、第2情報処理装置である、ユーザ端末20Bで実行する。そして、育成が完了した第1キャラクタ121、及び、第2キャラクタ122の対戦は、第3情報処理装置である、サーバ11で実行する。
【0093】
ただし、第1情報処理装置、第2情報処理装置、及び、第3情報処理装置は、ユーザ端末20A、ユーザ端末20B、及び、サーバ11の組み合わせでなくともよい。例えば、第1情報処理装置、第2情報処理装置、及び、第3情報処理装置は、サーバ11がすべて兼ねてもよいし、他の情報処理装置が実行してもよい。
【0094】
ステップS11では、ユーザ端末20Aは、第1方針データを入力する。例えば、ユーザ4Aによるテキスト入力操作により、第1キャラクタ121を育成する方向性(以下「第1方向性」という。)を示す第1方針データが入力される。具体的には、第1方針データは、
図7に示す方針データD11のように入力される。
【0095】
ステップS12では、ユーザ端末20Aは、第1成長イメージデータを生成する。具体的には、第1成長イメージデータは、
図7に示すように、前処理装置100が第1方針データに対して前処理を実行し、第1成長イメージデータを生成する。
【0096】
ステップS13では、ユーザ端末20Aは、第1学習データを入力する。具体的には、第1学習データは、
図2に示すように、ステップS12で生成する第1成長イメージデータと正解データD20をセットにして生成される。
【0097】
以下、第1学習モデル用の正解データD20を「第1正解データ」という。第1正解データは、例えば、事前に入力される。また、第1正解データは、第1成長イメージデータに対して、対応付けされる。例えば、上昇させたいパラメータに対応付けして、育成パターン(以下、第1キャラクタ121育成用の育成パターンを「第1育成パターン」という。)が事前に用意される。
【0098】
ステップS14では、ユーザ端末20Aは、第1学習を行う。具体的には、ユーザ端末20Aは、第1学習データを用いて、
図4に示すように、第1学習モデルを学習させて第1学習済みモデルを生成する。
【0099】
第1学習モデルをある程度学習させた第1学習済みモデルが生成されると、ステップS15以降の処理が実行される。
【0100】
ステップS15では、ユーザ端末20Aは、第1未知方針データを入力、及び、第1未知データを生成する。具体的には、
図8に示すように、ユーザ4Aによる操作によって、第1未知方針データが入力されると、前処理が実行される。そして、前処理によって、第1未知方針データに対応した第1成長イメージデータが生成される。続いて、第1成長イメージデータを含む第1未知データが生成されると、第1未知データは、第1学習済みモデルに入力される。
【0101】
ステップS16では、ユーザ端末20Aは、第1実行データを生成する。具体的には、ステップS15によって、第1学習済みモデルに第1未知データが入力されると、ユーザ端末20Aは、
図8に示すように、第1育成パターンを含む第1実行データを生成する。
【0102】
ステップS17では、ユーザ端末20Aは、第1育成を行う。すなわち、第1実行データが示す第1育成パターンの通りに、ユーザ端末20Aは、第1キャラクタ121を育成する。
【0103】
第1キャラクタ121用と同様に、第2キャラクタ122用に、学習処理、及び、実行処理が以下のように行われる。
【0104】
ステップS21では、ユーザ端末20Bは、第2方針データを入力する。例えば、第2方針データは、第1方針データと同様に、ユーザ4Bによるテキスト入力操作により、第2キャラクタ122を育成する方向性(以下「第2方向性」という。)を示す第2方針データが入力される。具体的には、第2方針データは、
図7に示す方針データD11のように入力される。ただし、第1方針データと第2方針データは、データの入力方法、及び、各ユーザの操作方法が異なってもよい。
【0105】
ステップS22では、ユーザ端末20Bは、第2成長イメージデータを生成する。具体的には、第2成長イメージデータは、第2成長イメージデータと同様に、
図7に示すように、前処理装置100が第2方針データに対して前処理を実行し、第2成長イメージデータを生成する。ただし、第1成長イメージデータと第2成長イメージデータは、生成方法、及び、データの形式が異なってもよい。
【0106】
ステップS23では、ユーザ端末20Bは、第2学習データを入力する。具体的には、第2学習データは、第1学習データと同様に、
図2に示すように、ステップS22で生成する第2成長イメージデータと正解データD20をセットにして生成される。
【0107】
以下、第2学習モデル用の正解データD20を「第2正解データ」という。第2正解データは、例えば、事前に入力される。また、第2正解データは、第2成長イメージデータに対して、対応付けされる。例えば、上昇させたいパラメータに対応付けして、育成パターン(以下、第2キャラクタ122育成用の育成パターンを「第2育成パターン」という。)が事前に用意される。
【0108】
第1学習と第2学習は、異なってもよい。すなわち、第1学習済みモデルと第2学習済みモデルは、同じ未知データが入力されても、異なる実行データを生成するように学習されてもよい。したがって、第1学習済みモデルと第2学習済みモデルが異なる実行データを生成するため、仮に、同じ種類のキャラクタ、かつ、第1方向性と第2方向性が同じであっても、育成方法が異なり、キャラクタが異なるように成長してもよい。
【0109】
一方で、第2学習済みモデルは、第1学習済みモデルを複製したものとしてもよい。この場合には、仮に、同じ種類のキャラクタ、かつ、第1方向性と第2方向性が同じであれば、第1学習済みモデルと第2学習済みモデルは、同じ育成方法を選ぶ構成となる。
【0110】
ステップS24では、ユーザ端末20Bは、第2学習を行う。具体的には、ユーザ端末20Bは、第1学習と同様に、第2学習データを用いて、
図4に示すように、第2学習モデルを学習させて第2学習済みモデルを生成する。
【0111】
第2学習モデルをある程度学習させた第2学習済みモデルが生成されると、ステップS25以降の処理が実行される。
【0112】
ステップS25では、ユーザ端末20Bは、第2未知方針データを入力、及び、第2未知データを生成する。具体的には、ステップS15と同様に、
図8に示すように、ユーザ4Bによる操作によって、第2未知方針データが入力されると、前処理が実行される。そして、前処理によって、第2未知方針データに対応した第2成長イメージデータが生成される。続いて、第2成長イメージデータを含む第2未知データが生成されると、第2未知データは、第2学習済みモデルに入力される。
【0113】
ステップS26では、ユーザ端末20Bは、第2実行データを生成する。具体的には、ステップS16と同様に、ステップS25によって、第2学習済みモデルに第2未知データが入力されると、ユーザ端末20Bは、
図8に示すように、第2育成パターンを含む第2実行データを生成する。
【0114】
ステップS27では、ユーザ端末20Bは、第2育成を行う。例えば、第1育成と同様に、第2実行データが示す第2育成パターンの通りに、ユーザ端末20Bは、第2キャラクタ122を育成する。
【0115】
以上のように、第1キャラクタ121と第2キャラクタ122が育成された後、第1キャラクタ121と第2キャラクタ122の対戦が実行される。
【0116】
ステップS30では、サーバ11は、第1キャラクタ121と第2キャラクタ122の対戦を行う。例えば、RPG形式であれば、
図9に示すような形式で対戦が行われる。
【0117】
なお、第1育成と第2育成の回数、又は、期間は、同一でもよいし、異なってもよい。すなわち、第1キャラクタ121と第2キャラクタ122の育成度合いがある程度同じ状態で対戦させるようにしてもよいし、いずれか一方の育成が進んでいる状態で対戦させるようにしてもよい。
【0118】
[機能構成例]
図11は、機能構成例を示す図である。例えば、システム1は、第1学習装置31、第1実行装置32、第2学習装置41、第2実行装置42、及び、対戦装置50を備えるAIバトルゲームシステムである。
【0119】
なお、第1学習装置31、第1実行装置32、第2学習装置41、第2実行装置42、及び、対戦装置50は、同じ情報処理装置が兼ねてもよいし、異なる情報処理装置の組み合わせであって、通信ネットワーク2等によってデータを送受信するシステムでもよい。
【0120】
第1学習装置31は、第1方針データ入力手段1F11、第1イメージ生成手段1F12、第1学習データ入力手段1F13、及び、第1学習手段1F14を備える。同様に、第2学習装置41は、第2方針データ入力手段1F31、第2イメージ生成手段1F32、第2学習データ入力手段1F33、及び、第2学習手段1F34を備える。
【0121】
第1実行装置32は、第1未知方針データ入力手段1F21、第1未知データ生成手段1F22、第1未知データ入力手段1F23、第1実行データ生成手段1F24、及び、第1育成手段1F25を備える。同様に、第2実行装置42は、第2未知方針データ入力手段1F41、第2未知データ生成手段1F42、第2未知データ入力手段1F43、第2実行データ生成手段1F44、及び、第2育成手段1F45を備える。
【0122】
対戦装置50は、対戦手段1F50を備える。
【0123】
第1方針データ入力手段1F11は、第1方針データD101を入力する第1方針データ入力手順を行う。例えば、第1方針データ入力手段1F11は、入出力インタフェース114等で実現する。
【0124】
第1イメージ生成手段1F12は、第1成長イメージデータを生成する第1イメージ生成手順を行う。例えば、第1イメージ生成手段1F12は、プロセッサ111等で実現する。
【0125】
第1学習データ入力手段1F13は、第1成長イメージデータと第1正解データD102を含む第1学習データを入力する第1学習データ入力手順を行う。例えば、第1学習データ入力手段1F13は、入出力インタフェース114等で実現する。
【0126】
第1学習手段1F14は、第1学習データを用いて第1学習モデルA11を学習させる第1学習手順を行う。そして、第1学習モデルA11がある程度学習すると、第1学習済みモデルA12が生成される。例えば、第1学習手段1F14は、プロセッサ111等で実現する。
【0127】
第1未知方針データ入力手段1F21は、第1未知方針データD111を入力する第1未知方針データ手順を行う。例えば、第1未知方針データ入力手段1F21は、入出力インタフェース114等で実現する。
【0128】
第1未知データ生成手段1F22は、第1未知データを生成する第1未知データ生成手順を行う。例えば、第1未知データ生成手段1F22は、プロセッサ111等で実現する。
【0129】
第1未知データ入力手段1F23は、第1未知成長イメージデータを含む第1未知データを入力する第1未知データ入力手順を行う。例えば、第1未知データ入力手段1F23は、入出力インタフェース114等で実現する。
【0130】
第1実行データ生成手段1F24は、第1未知データが入力されると、第1未知データに基づき、第1学習済みモデルA12を用いて、第1育成パターンを示す第1実行データを生成する第1実行データ生成手順を行う。例えば、第1実行データ生成手段1F24は、プロセッサ111等で実現する。
【0131】
第1育成手段1F25は、第1実行データに基づき、第1キャラクタ121を育成させる第1育成手順を行う。例えば、第1育成手段1F25は、プロセッサ111等で実現する。
【0132】
第2方針データ入力手段1F31は、第2方針データD201を入力する第2方針データ入力手順を行う。例えば、第2方針データ入力手段1F31は、入出力インタフェース114等で実現する。
【0133】
第2イメージ生成手段1F32は、第2成長イメージデータを生成する第2イメージ生成手順を行う。例えば、第2イメージ生成手段1F32は、プロセッサ111等で実現する。
【0134】
第2学習データ入力手段1F33は、第2成長イメージデータと第2正解データD202を含む第2学習データを入力する第2学習データ入力手順を行う。例えば、第2学習データ入力手段1F33は、入出力インタフェース114等で実現する。
【0135】
第2学習手段1F34は、第2学習データを用いて第2学習モデルA21を学習させる第2学習手順を行う。そして、第2学習モデルA21がある程度学習すると、第2学習済みモデルA22が生成される。例えば、第2学習手段1F34は、プロセッサ111等で実現する。
【0136】
第2未知方針データ入力手段1F41は、第2未知方針データD211を入力する第2未知方針データ手順を行う。例えば、第2未知方針データ入力手段1F41は、入出力インタフェース114等で実現する。
【0137】
第2未知データ生成手段1F42は、第2未知データを生成する第2未知データ生成手順を行う。例えば、第2未知データ生成手段1F42は、プロセッサ111等で実現する。
【0138】
第2未知データ入力手段1F43は、第2未知成長イメージデータを含む第2未知データを入力する第2未知データ入力手順を行う。例えば、第2未知データ入力手段1F43は、入出力インタフェース114等で実現する。
【0139】
第2実行データ生成手段1F44は、第2未知データが入力されると、第2未知データに基づき、第2学習済みモデルA22を用いて、第2育成パターンを示す第2実行データを生成する第2実行データ生成手順を行う。例えば、第2実行データ生成手段1F44は、プロセッサ111等で実現する。
【0140】
第2育成手段1F45は、第2実行データに基づき、第2キャラクタ122を育成させる第2育成手順を行う。例えば、第2育成手段1F45は、プロセッサ111等で実現する。
【0141】
対戦手段1F50は、育成した第1キャラクタ121と、育成した第2キャラクタ122を対戦させる対戦手順を行う。例えば、対戦手段1F50は、プロセッサ111等で実現する。
【0142】
育成した第1キャラクタ121と、育成した第2キャラクタ122を対戦させるために、各AIが対戦するキャラクタ101を育成する。そして、キャラクタ101をどのように育成していくかの方向性は、ユーザ4が示す方針で定まる。
【0143】
ユーザ4は、キャラクタ101を育成する方向性をテキストベース、つまり、文言(文章含む。)で入力する。すなわち、ユーザ4は、具体的な育成方法を実行するための操作(コマンド)を選択するのではなく、成長後をイメージして、定性的な表現を含む文言で育成方法を指示する。したがって、キャラクタ101は、ユーザ4による文言が入力されると、育成されて強化されていく。
【0144】
AIを用いると、具体的な操作方法が入力されなくとも、簡略な文言で指示しても、育成方法が具体化されて、キャラクタ101を育成させることができる。つまり、ユーザ4は、上手く文言を選んでAIに指示を出す方式で対戦に勝てる強いキャラクタ101を育成する。このように、システム1は、AIが育成したキャラクタ同士が対戦するゲームを提供することができる。
【0145】
[ユーザによる選択等の操作がある変形例]
図12は、第1変形例を示す図である。第1変形例では、実行処理において、未知データD2を生成する上で、複数の未知成長イメージが生成される点が異なる。以下、異なる点を中心に説明し、重複する説明を省略する。
【0146】
第1変形例では、未知方針データが1つの入力であるのに対し、複数の未知成長イメージが生成される。すなわち、1つの方針に対して、何通りかのシミュレーション結果が得られる場合がある。具体的には、第1シミュレーション結果DS1、及び、第2シミュレーション結果DS2のように、未知データD2は、複数のシミュレーション結果を出力する。具体的には、第1シミュレーション結果DS1と第2シミュレーション結果DS2は、成長後状態におけるパラメータが異なる。なお、シミュレーションは、3通り以上されてもよい。
【0147】
第1シミュレーション結果DS1は、第2シミュレーション結果DS2と比較すると、「体力」のパラメータが高く、それ以外のパラメータが第2シミュレーション結果DS2より低い。一方で、第2シミュレーション結果DS2は、第1シミュレーション結果DS1と比較すると、「力」のパラメータが高く、それ以外のパラメータが第1シミュレーション結果DS1より低い。
【0148】
同じ方向性であっても、複数の条件設定ができる場合がある。また、文言から複数のイメージが想起できる場合がある。このような場合には、第1シミュレーション結果DS1と第2シミュレーション結果DS2の両方をユーザ4に表示する。そして、ユーザ4は、GUI(Graphical User Interface)等で、第1シミュレーション結果DS1、及び、第2シミュレーション結果DS2のうち、どちらかを選択する操作を行う。この選択結果に基づき、成長イメージ、すなわち、未知データが定まってもよい。
【0149】
文言によっては、複数通りの意味が考えられる、又は、意味が広くて様々な成長後状態がイメージできる場合がある。このような文言で方向性を示すと、意外な成長後状態がシミュレーションされる場合もあり、ユーザ4は、色々な文言を試して、様々なキャラクタ101の成長後状態を見て楽しむことができる。
【0150】
図13は、第2変形例を示す図である。第2変形例では、実行処理において、実行データD3が異なる。以下、異なる点を中心に説明し、重複する説明を省略する。
【0151】
学習済みモデルA2は、複数の育成パターンを含むように実行データD3を生成する。以下、第1育成パターンDP1、及び、第2育成パターンDP2の2つを生成する場合を例に説明するが、育成パターンは3つ以上生成されてもよい。
【0152】
第2変形例では、ユーザ4は、以下のような実行データを変更する変更操作ができる。例えば、ユーザ4は、複数の育成パターンのうち、1つの育成パターンを選ぶ変更操作ができる。
【0153】
他に、ユーザ4は、生成される育成パターンの内容を操作できる。例えば、まず、第2育成パターンDP2が選ばれたとする。次に、ユーザ4は、第2育成パターンDP2に「カスタムメニュー」を追加する変更操作をする。このように、実行データD3は、第2育成パターンDP2を基礎に、ユーザ4がメニューを追加、修正、削除、又は、詳細設定する操作によって変更された育成パターン(以下「変更パターン」という。)でもよい。
【0154】
変更パターンは、よりユーザ4の考える方向性に適した育成パターンである。また、学習済みモデルA2は、変更操作を正解データに育成パターンの生成方法を更に学習してもよい。
【0155】
このように、育成パターンが変更できると、よりユーザ4がイメージするキャラクタ101の育成が実行される。また、変更操作の対象となる育成パターンが生成されるため、ユーザ4は、全く基礎がない状態から育成パターンを生成するより手間が少なくできる。
【0156】
[その他の変形例]
学習済みモデルA2は、サーバ11、すなわち、ゲームの運営側で生成し、各々のユーザ4は、ユーザ端末20に、学習済みモデルA2をダウンロードして用いる。なお、学習済みモデルA2は、特徴の異なる種類が複数用意されてもよい。具体的には、各々のユーザ4は、特徴を見て好ましいと思う学習済みモデルA2を選んでダウンロードできる構成でもよい。
【0157】
一方で、ユーザ4は、学習済みモデルA2をダウンロードした後、更に学習処理を行い、学習済みモデルA2がユーザ4の好む育成方法をするように追加学習ができてもよい。
【0158】
このように、ユーザ4が好むAIが選択、及び、追加学習できると、よりAIのバリエーションが豊富になり、様々なキャラクタが生み出せる。
【0159】
文言は、「力強く」等のキャラクタを成長後のイメージを直接形容する文言に限られない。例えば、文言は、擬態語、擬音語、又は、オノマトペ(onomatopoeia)等でもよい。オノマトペ等の文言は、物体の状態、感情、又は、動作等を表現して相手に伝えることができる。このような文言が使用できると、形容詞等では伝えにくいイメージも入力できる。
【0160】
[その他の実施形態]
なお、上記の例においては、ユーザが入力した文言によってキャラクタを育成し、このキャラクタ同士で対戦させるようにしていた。しかし、キャラクタを介さずにユーザが入力された文言に基づきAIが文章を生成し、この生成された文章同士をAIが判定して勝敗を定めるようにしてもよい。また、生成された文章をそのまま表示してもよいし、この文章から画像等を更に生成して演出表示するものであってもよい。
【0161】
上記の例では、情報処理装置は、学習モデルに対する事前処理、及び、学習済みモデルを用いて実行処理の両方を行う。ただし、事前処理、及び、実行処理は、同じの情報処理装置が行わなくともよい。また、事前処理、及び、実行処理も、1つの情報処理装置で一貫して実行しなくともよい。すなわち、各処理、及び、データの記憶等は、複数の情報処理装置で構成する情報システム等で行うものであってもよい。
【0162】
なお、学習処理は、実行処理の後、又は、実行処理の前に追加して更に行われてもよい。
【0163】
上記のような処理は、サーバ11、及び、ユーザ端末20以外の情報処理装置が補助的に行うものであってもよい。
【0164】
図14は、補助装置を用いる構成例を示す図である。
図1に示す例と比較すると、
図14に示す構成は、補助装置60が加わる点が異なる。なお、補助装置60は、一時的に用いる構成でもよい。
【0165】
補助装置60は、ユーザ端末20(この例では、ユーザ端末20A付近に設置しているが、他の装置近くにあってもよい。)等の近くに設置される情報処理装置である。そして、補助装置60は、特定の処理をユーザ端末20、又は、サーバ11に代わって一部又は全部を実行する。
【0166】
例えば、補助装置60は、グラフィック処理に特化したデバイスを備えて、グラフィック処理を高速で行う。このように、補助装置60等を設置して、所謂エッジコンピューティング(Edge Computing)等が行われてもよい。このように、前述する処理は、様々な情報処理装置のハードウェアリソースを活用して実行されてもよい。したがって、前述する処理は、前述したのとは異なる情報処理装置が実行してもよい。
【0167】
前述の処理、及び、本実施形態で実行される処理に用いるデータは、情報処理システムによって実行、及び、記憶されてもよい。例えば、情報処理システムは、処理又は記憶を冗長、分散、並列、又は、これらの組み合わせを実現するため、複数の情報処理装置で実行又は記憶してもよい。したがって、本発明は、前述に示すハードウェア構成以外の装置、及び、前述に示す装置以外のシステムで実現されてもよい。
【0168】
また、本発明に係るプログラムは、単一のプログラムに限定されず、複数のプログラムの集合体でもよい。また、本発明に係るプログラムは、単一の装置で実行されるものに限定されず、複数の情報処理装置で分担して実行されてもよい。更に、各情報処理装置の役割分担は、前述の例に限定されない。すなわち、前述した処理の一部、又は、全部が前述した情報処理装置とは異なる情報処理装置が実行してもよい。
【0169】
更に、プログラムによって実現される各手段の一部、又は、全部は、集積回路等のハードウェアで実現することもできる。更に、プログラムは、コンピュータによって読み出し可能な非一過性の記録媒体に記録されて提供されてもよい。記録媒体とは、例えば、ハードディスク、SDカード(登録商標)、DVD等の光学ディスク、又は、インターネット上のサーバ等を指す。したがって、プログラムは、インターネット等の電気通信回線を介して配信されでもよい。
【0170】
また、情報処理システムを構成する情報処理装置等は、海外にあってもよい。すなわち、情報処理システムが実行する処理のうち、一部の処理を実行する情報処理装置が海外にあってもよい。
【0171】
なお、本発明は、前述に例示する各実施形態に限定されない。したがって、本発明は、技術的な要旨を逸脱しない範囲で、構成要素の追加、又は、変形が可能である。ゆえに、特許請求の範囲に記載された技術思想に含まれる技術的事項のすべてが本発明の対象となる。なお、前述に例示する実施形態は、実施において好適な具体例である。そして、当業者であれば、開示した内容から様々な変形例を実現で可能であって、このような変形例は、特許請求の範囲に記載された技術的範囲に含まれる。
【符号の説明】
【0172】
1 :システム
1F11 :第1方針データ入力手段
1F12 :第1イメージ生成手段
1F13 :第1学習データ入力手段
1F14 :第1学習手段
1F21 :第1未知方針データ入力手段
1F22 :第1未知データ生成手段
1F23 :第1未知データ入力手段
1F24 :第1実行データ生成手段
1F25 :第1育成手段
1F31 :第2方針データ入力手段
1F32 :第2イメージ生成手段
1F33 :第2学習データ入力手段
1F34 :第2学習手段
1F41 :第2未知方針データ入力手段
1F42 :第2未知データ生成手段
1F43 :第2未知データ入力手段
1F44 :第2実行データ生成手段
1F45 :第2育成手段
1F50 :対戦手段
2 :通信ネットワーク
4 :ユーザ
5 :管理者
11 :サーバ
20 :ユーザ端末
31 :第1学習装置
32 :第1実行装置
41 :第2学習装置
42 :第2実行装置
50 :対戦装置
60 :補助装置
100 :前処理装置
101 :キャラクタ
121 :第1キャラクタ
122 :第2キャラクタ
A1 :学習モデル
A11 :第1学習モデル
A12 :第1学習済みモデル
A2 :学習済みモデル
A21 :第2学習モデル
A22 :第2学習済みモデル
D1 :学習データ
D101 :第1方針データ
D102 :第1正解データ
D11 :方針データ
D111 :第1未知方針データ
D12 :成長イメージデータ
D2 :未知データ
D20 :正解データ
D201 :第2方針データ
D202 :第2正解データ
D21 :未知成長イメージデータ
D211 :第2未知方針データ
D3 :実行データ
D4 :ビッグデータ
DP0 :育成パターン
DP1 :第1育成パターン
DP2 :第2育成パターン
DS1 :第1シミュレーション結果
DS2 :第2シミュレーション結果
【要約】
【課題】AIが育成したキャラクタ同士が対戦するゲームを提供する。
【解決手段】プログラムは、コンピュータを、第1キャラクタと、前記第1キャラクタと対戦する第2キャラクタとを育成する育成手段と、前記第1キャラクタを育成する方向性に関する未知方針データを入力する入力手段と、前記未知方針データに対応する前記第1キャラクタの成長後状態を示す未知成長イメージデータを含む未知データを生成する未知データ生成手段と、前記未知データが入力されると、前記未知データに基づき、前記第1キャラクタの成長後状態を示す成長イメージデータを含む学習データで学習させた学習済みモデルを用いて、前記方向性に従って具体化させた育成パターンに基づき前記第1キャラクタを成長させる実行データを生成する実行データ生成手段として機能させ、前記育成手段は、前記実行データに基づき、前記第1キャラクタを育成させる。
【選択図】
図11