(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024176602
(43)【公開日】2024-12-19
(54)【発明の名称】電子ゲーム提供システム及び電子ゲーム提供プログラム
(51)【国際特許分類】
A63F 13/67 20140101AFI20241212BHJP
A63F 13/79 20140101ALI20241212BHJP
G06N 20/00 20190101ALI20241212BHJP
【FI】
A63F13/67
A63F13/79
G06N20/00
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023095293
(22)【出願日】2023-06-09
(71)【出願人】
【識別番号】599115217
【氏名又は名称】株式会社 ディー・エヌ・エー
(74)【代理人】
【識別番号】110001210
【氏名又は名称】弁理士法人YKI国際特許事務所
(72)【発明者】
【氏名】大沼 諒昌
(72)【発明者】
【氏名】宇佐美 優
(72)【発明者】
【氏名】小東 祥
(72)【発明者】
【氏名】柳辺 十武
(72)【発明者】
【氏名】田中 一樹
(57)【要約】
【課題】ユーザの嗜好に応じたアクションを起こすように学習されたAIエージェントによって電子ゲームをプレイすることが可能な電子ゲーム提供システム及び電子ゲーム提供プログラムを提供する。
【解決手段】電子ゲームの状況を入力として、状況に対するアクションを出力するように学習されたAIエージェントを使用して電子ゲームをプレイすることが可能であり、電子ゲームに関する質問に対するユーザの回答を用いて、AIエージェントをユーザに対応付けられたAIエージェントとなるように学習する。
【選択図】
図6
【特許請求の範囲】
【請求項1】
電子ゲームを提供する電子ゲーム提供システムであって、
電子ゲームの状況を入力として、前記状況に対するアクションを出力するように学習されたAIエージェントを使用して電子ゲームをプレイすることが可能であり、
電子ゲームに関する質問に対するユーザの回答を用いて、前記AIエージェントを前記ユーザに対応付けられたAIエージェントとなるように学習することを特徴とする電子ゲーム提供システム。
【請求項2】
請求項1に記載の電子ゲーム提供システムであって、
前記質問は、電子ゲームにおけるプレイについての前記ユーザの嗜好に関することを特徴とする電子ゲーム提供システム。
【請求項3】
請求項1又は2に記載の電子ゲーム提供システムであって、
前記質問は、電子ゲームにおける1つの状況に対して前記ユーザが選択するアクションに関することを特徴とする電子ゲーム提供システム。
【請求項4】
請求項3に記載の電子ゲーム提供システムであって、
前記1つの状況は、前記AIエージェントが電子ゲームをプレイした際に遭遇した状況であることを特徴とする電子ゲーム提供システム。
【請求項5】
請求項3に記載の電子ゲーム提供システムであって、
前記1つの状況は、人間が電子ゲームをプレイした際に遭遇した状況であることを特徴とする電子ゲーム提供システム。
【請求項6】
請求項3に記載の電子ゲーム提供システムであって、
前記1つの状況は、電子ゲームにおける状況のうち人間が選択した状況であることを特徴とする電子ゲーム提供システム。
【請求項7】
請求項2に記載の電子ゲーム提供システムであって、
前記AIエージェントから前記ユーザの嗜好に沿ったアクションが出力されるように前記AIエージェントを学習することを特徴とする電子ゲーム提供システム。
【請求項8】
請求項1に記載の電子ゲーム提供システムであって、
前記1つの状況に対して、前記AIエージェントから前記ユーザの選択したアクションが出力されるように前記AIエージェントを学習することを特徴とする電子ゲーム提供システム。
【請求項9】
電子ゲームを提供する電子ゲーム提供プログラムであって、
コンピュータを、
電子ゲームの状況を入力として、前記状況に対するアクションを出力するように学習されたAIエージェントを使用して電子ゲームをプレイすることが可能であり、
電子ゲームに関する質問に対するユーザの回答を用いて、前記AIエージェントを前記ユーザに対応付けられたAIエージェントとなるように学習することを特徴とする電子ゲーム提供プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、電子ゲーム提供システム及び電子ゲーム提供プログラムに関する。
【背景技術】
【0002】
電子ゲームを実際にプレイして得られたプレイヤログを用いて、複数のオブジェクトを使用する電子ゲームをプレイする人工知能エージェント(AIエージェント)を効率的に学習する技術が開示されている(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、従来の電子ゲームでは、AIエージェントは専ら人間のプレイヤとの対戦に使用されることが一般的であり、その用途が限定的であった。
【課題を解決するための手段】
【0005】
本発明の1つの態様は、電子ゲームを提供する電子ゲーム提供システムであって、電子ゲームの状況を入力として、前記状況に対するアクションを出力するように学習されたAIエージェントを使用して電子ゲームをプレイすることが可能であり、電子ゲームに関する質問に対するユーザの回答を用いて、前記AIエージェントを前記ユーザに対応付けられたAIエージェントとなるように学習することを特徴とする電子ゲーム提供システムである。
【0006】
本発明の別の発明は、電子ゲームを提供する電子ゲーム提供プログラムであって、コンピュータを、電子ゲームの状況を入力として、前記状況に対するアクションを出力するように学習されたAIエージェントを使用して電子ゲームをプレイすることが可能であり、電子ゲームに関する質問に対するユーザの回答を用いて、前記AIエージェントを前記ユーザに対応付けられたAIエージェントとなるように学習することを特徴とする電子ゲーム提供プログラムである。
【0007】
ここで、前記質問は、電子ゲームにおけるプレイについての前記ユーザの嗜好に関することが好適である。
【0008】
また、前記質問は、電子ゲームにおける1つの状況に対して前記ユーザが選択するアクションに関することが好適である。
【0009】
また、前記1つの状況は、前記AIエージェントが電子ゲームをプレイした際に遭遇した状況であることが好適である。
【0010】
また、前記1つの状況は、人間が電子ゲームをプレイした際に遭遇した状況であることが好適である。
【0011】
また、前記1つの状況は、電子ゲームにおける状況のうち人間が選択した状況であることが好適である。
【0012】
また、前記AIエージェントから前記ユーザの嗜好に沿ったアクションが出力されるように前記AIエージェントを学習することが好適である。
【0013】
また、前記1つの状況に対して、前記AIエージェントから前記ユーザの選択したアクションが出力されるように前記AIエージェントを学習することが好適である。
【発明の効果】
【0014】
本発明によれば、ユーザの嗜好に応じたアクションを起こすように学習されたAIエージェントによって電子ゲームをプレイすることが可能な電子ゲーム提供システム及び電子ゲーム提供プログラムを提供することができる。
【0015】
本発明の実施の形態の他の目的は、本明細書全体を参照することにより明らかになる。
【図面の簡単な説明】
【0016】
【
図1】本発明の実施の形態における電子ゲームシステムの構成を示す図である。
【
図2】本発明の実施の形態におけるサーバの構成を示す図である。
【
図3】本発明の実施の形態におけるクライアントの構成を示す図である。
【
図4】本発明の実施の形態における電子ゲームサービスの処理を示すフローチャートである。
【
図5】本発明の実施の形態におけるプレイスタイル選択画面の例を示す図である。
【
図6】本発明の実施の形態におけるAIエージェントの学習処理を示すフローチャートである。
【
図7】本発明の実施の形態におけるサーバの構成を示す機能ブロック図である。
【
図8】本発明の実施の形態におけるAIエージェントの学習処理を示す図である。
【
図9】本発明の実施の形態におけるプレイスタイル選択画面の例を示す図である。
【
図10】本発明の実施の形態における選択要求画面の例を示す図である。
【
図11】本発明の実施の形態におけるアクション選択画面の例を示す図である。
【
図12】本発明の実施の形態における選択要求画面の例を示す図である。
【発明を実施するための形態】
【0017】
[システム構成]
本発明の実施の形態における電子ゲームシステム100は、
図1に示すように、サーバ102及びクライアント104を含んで構成される。クライアント104は、単数であってもよいし、複数であってもよい。サーバ102及びクライアント104は、インターネット等の情報通信網106を介して相互に情報交換可能に接続される。
【0018】
なお、情報通信網106は、インターネットに限定されるものではなく、サーバ102及びクライアント104の間を通信可能に相互に接続できるものであればよい。情報通信網106は、例えば、専用回線、公衆回線(電話回線、移動体通信回線等)、有線LAN(LocalAreaNetwork)、無線LAN等であってもよく、又はインターネットとこれらを組み合わせてもよい。
【0019】
サーバ102は、
図2に示すように、処理部10、記憶部12、入力部14、出力部16及び通信部18を含んで構成される。処理部10は、CPU等の演算処理を行う手段を含む。処理部10は、記憶部12に記憶されている電子ゲームサーバプログラムを実行することによって、本実施の形態における電子ゲームシステム100においてクライアント104に対して電子ゲームを提供するための機能を実現する。記憶部12は、半導体メモリやメモリカード等の記憶手段を含む。記憶部12は、処理部10とアクセス可能に接続され、電子ゲームサーバプログラム、その処理に必要な情報を記憶する。入力部14は、情報を入力する手段を含む。入力部14は、例えば、管理者からの入力を受けるキーボード、タッチパネル、ボタン等を備える。出力部16は、管理者から入力情報を受け付けるためのユーザインターフェース画面(UI)等のサーバ102での処理結果を出力する手段を含む。出力部16は、例えば、管理者に対して画像を呈示するディスプレイを備える。通信部18は、情報通信網106を介して、クライアント104との情報の通信を行うインターフェースを含んで構成される。通信部18による通信は有線及び無線を問わない。
【0020】
サーバ102は、電子ゲームをプレイする各ユーザのクライアント104からの情報通信網106を介したアクセスを受け付けて、各ユーザに関する情報を記憶装置に蓄積して管理し、各ユーザに情報通信網106を介した電子ゲームを提供する。
【0021】
クライアント104は、
図3に示すように、処理部20、記憶部22、入力部24、出力部26及び通信部28を含んで構成される。クライアント104は、通信端末とも称される。処理部20は、CPU等の演算処理を行う手段を含む。処理部20は、記憶部22に記憶されている電子ゲームクライアントプログラムを実行することによって、本実施の形態における電子ゲームシステム100におけるクライアント端末としての機能を実現する。記憶部22は、半導体メモリやメモリカード等の記憶手段を含む。記憶部22は、処理部20とアクセス可能に接続され、電子ゲームクライアントプログラム、その処理に必要な情報を記憶する。入力部24は、情報を入力する手段を含む。入力部24は、例えば、ユーザからの入力を受けるキーボード、タッチパネル、ボタン、モーションセンサー等を備える。出力部26は、ユーザから入力情報を受け付けるための画面や電子ゲームする際の画像を表示するディスプレイ等、クライアント104での処理に必要な情報を出力する手段を含む。通信部28は、情報通信網106を介して、サーバ102との情報の通信を行うインターフェースを含んで構成される。通信部28による通信は有線及び無線を問わない。
【0022】
クライアント104は、電子ゲームを提供するためのクライアントプログラムを実行可能な情報処理装置であれば様々なものを適用できる。例えば、クライアント104としては、ゲーム店等に設置された据置型または携帯型の電子ゲーム端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、スマートフォン、携帯電話端末、PHS(PersonalHandy-phoneSystem)端末、携帯情報端末(PDA:PersonalDigitalAssistant)、情報処理機能を備えた多機能型テレビジョン受像機(いわゆるスマートテレビ)等が適用できる。
【0023】
[電子ゲームの概要]
電子ゲームシステム100によってAIエージェント同士、AIエージェント対人間のプレイヤ、人間のプレイヤ同士が対戦可能な電子ゲームが提供される。
【0024】
本実施の形態では、電子ゲームとしてテキサス・ホールデムポーカーを例に説明する。テキサス・ホールデムポーカーは、ポーカーの一種であり、各プレイヤに配られる2枚の手札と、コミュニティ・カードと呼ばれる全プレイヤに共通のカード(最大5枚)を組み合わせて役(ハンド)を作り、各プレイヤの役(ハンド)の強弱によって勝ち負けを決定する。
【0025】
テキサス・ホールデムでは、ゲームに参加している各プレイヤに対して順番にディーラ・ボタンが付与される。ディーラ・ボタンは1ゲームごとに時計回りに移動し、ディーラの位置の変更が行われる。ディーラ・ボタンが付与されたプレイヤの左隣にいるプレイヤは、スモールブラインドと呼ばれ、最低ベット額の半額を賭ける義務がある。スモールブラインドの左隣にいるプレイヤは、ビッグブラインドと呼ばれ、当該ゲームにおける最低ベット額を賭ける義務がある。なお、ゲームに参加しているプレイヤが2名である場合、ディーラ・ボタンのないプレイヤがビッグブラインドを、ディーラ・ボタンがあるプレイヤがスモールブラインドとなる。
【0026】
各プレイヤに2枚のカードが表を伏せた状態で配られてゲーム開始となる。この2枚のカードを「ホールカード」あるいは「ポケットカード」と呼ぶ。カードが配られたら、賭けが開始される。最初の賭けのラウンドは「プリフロップ」と呼ばれ、ビッグブラインドの左隣のプレイヤから時計回りに行われる。最初のプレイヤは「チェック」(賭けずにパスすること)することはできず、「フォールド」(降りること)しないのであれば「コール」(同等の賭け金を出すこと)または「レイズ」(賭け金を釣り上げること)をする必要がある。(「レイズ」されていない場合に)スモールブラインドを出したプレイヤがコールするには残りの半額を出す。
【0027】
プリフロップでの賭けが終わった段階で2名以上プレイヤが残っている場合、ディーラは表向きに3枚のカードをテーブルに出す。これらのカードは、「フロップ」と呼ばれ、全てのプレイヤに共通のカード(コミュニティ・カード)である。
【0028】
続けて、プロップに対する賭けのラウンド(ベットラウンド)が開始され、ディーラ・ボタンの左隣のプレイヤから賭けが時計回りに行われる。フロップのベットラウンドが終わると、ディーラは更に1枚の共通カードをテーブルに出す。このカードは、「ターン」と呼ばれ、ターンに対するベットラウンドが行われる。ターンに対するベットラウンドが終了すると、ディーラは最後の1枚となる共通カードをテーブルに出す。このカードは、「リバー」と呼ばれ、リバーに対するベットラウンドが行われる。リバーに対するベットラウンドが終了した時点で残っているプレイヤが2名以上いる場合、勝者を決めるためにショーダウンが行われる。
【0029】
2名以上のプレイヤが最後の賭けを終えて残っている場合はショーダウンが行われる。ショーダウンでは、プレイヤの手元の2枚と場に出された5枚のコミュニティ・カードの中から最も強い5枚の組み合わせを用いて役(ハンド)の強弱によって勝敗を決定する。
【0030】
[電子ゲーム提供サービス]
電子ゲームシステム100では、複数のユーザがプレイヤとなり、それぞれのクライアント104を使用して電子ゲームをプレイすることができる。また、このような人間がプレイヤとなる場合に加えて、ユーザに対応付けられたAIエージェントによって電子ゲームをプレイすることもできる。
【0031】
本実施の形態では、
図4のフローチャートを参照して、テキサス・ホールデムポーカーの電子ゲームの処理について説明する。ただし、電子ゲームは、これに限定されるものではなく、他の電子ゲームであってもAIエージェントを用いてプレイができるものであればよい。なお、以下の処理において、賭け金は電子ゲーム上で使用できるポイント等としてもよい。
【0032】
ステップS10では、ユーザによるログイン処理が行われる。当該ステップにおける処理によって、電子ゲームシステム100は初期設定手段として機能する。
【0033】
電子ゲームをプレイしようとするユーザは、自身が使用するクライアント104の入力部24を使用してログイン処理に必要なログイン情報を入力する。ログイン情報は、例えば、ユーザID及びパスワードとすることができる。クライアント104は、通信部28を介して、情報通信網106を通じてサーバ102へログイン情報を送信する。サーバ102は、通信部18を介してログイン情報を受信すると、ログイン情報がログインを許可する条件を満たしていればログインを許可する。例えば、ログイン情報に含まれるユーザIDとパスワードの組み合わせが予め登録されているユーザIDとパスワードの組み合わせに合致すればログインを許可する。
【0034】
また、テキサス・ホールデムポーカーのように複数のプレイヤによって行われる電子ゲームでは、プレイヤとなるユーザ同士を組み合わせるマッチング処理が行われる。サーバ102は、ログインを行ったユーザを組み合わせて1つのテーブルでポーカーを行うプレイヤとして組み合わせる。なお、プレイヤは、人間であるユーザ自身とするか、ユーザに対応付けられたAIエージェントとするかを選択できるようにすることが好適である。
【0035】
ステップS12では、ゲーム画像の表示処理が行われる。当該ステップにおける処理によって、電子ゲームシステム100はゲーム画像表示手段として機能する。サーバ102は、ログイン処理及びマッチング処理が終了すると、通信部18を介して、情報通信網106を通じてクライアント104へゲーム画面を表示するための情報を送信する。クライアント104は、通信部28を介してゲーム画面を表示するための情報を受信すると、出力部26において当該情報に基づいてゲーム画面を表示させる。
【0036】
本実施の形態のテキサス・ホールデムポーカーでは、
図5に示すように、ゲーム画面300が表示される。ゲーム画面300には、ゲーム状況表示領域302及びアクション選択領域304が設けられる。ゲーム状況表示領域302には、電子ゲームの状況を示す情報が表示される。テキサス・ホールデムポーカーの場合、ゲーム状況表示領域302には、プレイヤ、共通のカード(コミュニティ・カード)の状況、自身に配られたカード(ポケットカード)の状況、賭けの状況(各プレイヤの賭けにおけるアクション)が含まれる。また、電子ゲームの状況には、各プレイヤの対戦履歴やスタッツが含まれてもよい。アクション選択領域304には、ゲーム状況表示領域302に表示されている電子ゲームの状況に対してプレイヤが選択可能なアクションが表示される。
【0037】
ステップS14では、カードの配布処理が行われる。当該ステップにおける処理によって、電子ゲームシステム100はカード配布手段として機能する。サーバ102は、電子ゲームに参加しているプレイヤのハンド及びコミュニティ・カードの配布を行う処理を行う。サーバ102は、通信部18を介して、情報通信網106を通じて配布されたカードの情報を各プレイヤが使用するクライアント104へ送信する。クライアント104は、配布されたカードの情報を受信すると、出力部26においてゲーム画面300のゲーム状況表示領域302に表示させる。
【0038】
ステップS16では、賭けのラウンドの処理が行われる。当該ステップにおける処理によって、電子ゲームシステム100は賭け処理手段として機能する。ユーザ自身がプレイヤである場合、ゲーム状況表示領域302に表示された電子ゲームの状況を確認したうえで、クライアント104の入力部24を用いてアクション選択領域304に表示されているアクションの選択肢からアクションを選択する。クライアント104は、通信部28を介して、情報通信網106を通じて選択されたアクションの情報をサーバ102へ送信する。AIエージェントがユーザの代理としてプレイヤである場合、後述するサーバ102のAIプレイ処理部の処理によって電子ゲームの状況がAIエージェントに入力され、当該入力に応じてAIエージェントから出力されたアクションが自動的に選択される。
【0039】
ステップS18では、カードの配布が終わったか否かの判定が行われる。当該ステップにおける処理によって、電子ゲームシステム100は配布判定手段として機能する。サーバ102は、各プレイヤのハンド及びコミュニティ・カードとして配布するべき枚数のカードがすでに配布されたか否かを判定する。さらにカードの配布が必要であればステップS14に処理を戻し、カードの配布が不要であればステップS20に処理を移行させる。
【0040】
ステップS20では、カードの配布が終了した後、さらに賭けのラウンドの処理が行われる。当該ステップにおける処理によって、電子ゲームシステム100は賭け処理手段として機能する。ユーザ自身がプレイヤである場合、ゲーム状況表示領域302に表示された電子ゲームの状況を確認したうえで、クライアント104の入力部24を用いてアクション選択領域304に表示されているアクションの選択肢からアクションを選択する。クライアント104は、通信部28を介して、情報通信網106を通じて選択されたアクションの情報をサーバ102へ送信する。ユーザの代理としてAIエージェントがプレイヤである場合、後述するサーバ102の処理によって電子ゲームの状況がAIエージェントに入力され、当該入力に応じてAIエージェントから出力されたアクションが自動的に選択される。
【0041】
ステップS22では、ショーダウンの処理が行われる。当該ステップにおける処理によって、電子ゲームシステム100はゲーム後処理手段として機能する。サーバ102は、賭け金を賭ける処理が終了すると、ショーダウンを行い、各プレイヤのハンドの強弱に応じて賭け金をプレイヤに分配する。各プレイヤに付与された賭け金の情報は、サーバ102の記憶部12においてユーザデータベース等として記憶される。また、上記処理における電子ゲームをプレイしたときの状況、当該状況に対して選択されたアクション、及びショーダウンの結果(賭け金の授受の結果等)をサーバ102の記憶部12においてゲームログ情報として記憶させてもよい。
【0042】
以上の処理を繰り返すことによって、電子ゲームシステム100によって電子ゲームの提供サービスが実現される。
【0043】
[AIエージェントの学習方法]
電子ゲームシステム100では、クライアント104を操作するユーザに対応付けられたAIエージェントによって電子ゲームをプレイすることができる。以下、
図6に示すフローチャートを参照しつつ、電子ゲームシステム100におけるAIエージェントの学習方法について説明する。
【0044】
サーバ102の処理部10は、
図7の機能ブロック図に示すように、教師あり学習部30、AIプレイ処理部32、AIログ収集部34、強化学習部36、プレイスタイル学習部38、質問処理部40、AI選択部42、AI調整部44及びユーザ学習部46として機能する。また、サーバ102の記憶部12には、AIエージェント50、教師あり学習用データ52、AIログデータベース(AIログDB)54、プレイスタイル別AIエージェント56、質問回答データベース(質問回答DB)58及びユーザ別AIエージェント60が記憶される。なお、上記機能の一部の処理をクライアント104が担うようにしてもよい。
【0045】
AIエージェント50は、電子ゲームをプレイする人工知能プログラムである。AIエージェント50は、後述のディープラーニングを用いた方法によって学習される。AIエージェント50は、多層ニューラルネットワークを含んで構成される。多層ニューラルネットワークは、各種パラメータ(層構造、各層におけるニューロン構造、各ニューロンの重みあるいはバイアスなど)により定義される。
【0046】
ステップS30では、AIエージェントに対する教師あり学習が行われる。当該ステップにおける処理は、教師あり学習部30による処理に該当する。教師あり学習部30は、教師あり学習用データ52を用いてAIエージェント50を学習させる処理を行う。教師あり学習用データ52は、電子ゲームをプレイしたときの状況に対するアクションに対して報酬を定めたデータである。
【0047】
電子ゲームをプレイしたときの状況には、現在のゲーム(ラウンド)について、テキサス・ホールデムポーカーに参加しているプレイヤの人数、プレイヤの対戦履歴やスタッツ、全てのプレイヤに共通のカード(コミュニティ・カード)の状況、自身に配られたカード(ポケットカード)の状況、賭けの状況(各プレイヤの賭けにおけるアクション)が含まれる。また、電子ゲームをプレイしたときの状況には、過去のゲーム(ラウンド)について、テキサス・ホールデムポーカーに参加しているプレイヤの人数、プレイヤの対戦履歴やスタッツ、全てのプレイヤに共通のカード(コミュニティ・カード)の状況、自身に配られたカード(ポケットカード)の状況、賭けの状況(各プレイヤの賭けにおけるアクション)を含めてもよい。
【0048】
報酬は、プレイヤが行ったアクションに対する結果に基づいて設定される。報酬は、教師あり学習用データ52において対にされた電子ゲームをプレイしたときの状況に対してプレイヤが行ったアクションによって電子ゲームにおいて好ましい結果が得られたときは報酬を高く設定し、好ましくない結果が得られたときは報酬を低く設定する。
【0049】
例えば、テキサス・ホールデムポーカーにおいてショーダウンを複数回行った際に得られた賭け金の総額が高いほど報酬をより高く設定する。また、例えば、ショーダウンを複数回行った際に得られた賭け金の総額をプレイヤの比較し、得られた賭け金の総額が多い順に報酬をより高く設定してもよい。また、例えば、ショーダウン毎に勝者となった場合には報酬をより高く設定し、敗者となった場合には報酬をより低く設定するようにしてもよい。また、例えば、ショーダウン毎に勝者となった場合に獲得した掛け金が多いほど報酬をより高く設定してもよい。
【0050】
教師あり学習用データ52は、実際にテキサス・ホールデムポーカーをプレイした際に得られたゲームの状況、当該状況に対するアクション及びその結果から設定することができる。また、教師あり学習用データ52は、テキサス・ホールデムポーカーの専門家(プロ等)がテキサス・ホールデムポーカーをプレイした際に生ずるであろうゲームの状況、当該状況に対して専門家が行うであろうアクションを組み合わせて、当該アクションについて報酬を設定してもよい。また、テキサス・ホールデムポーカーに対してゲーム理論(GTO)を適用して、ゲームの状況に対して好適であるとされたアクションを用いて学習するようにしてもよい。
【0051】
教師あり学習部30は、教師あり学習用データ52を用いてAIエージェント50を学習させる。すなわち、
図8に示すように、教師あり学習用データ52に含まれる電子ゲームをプレイしたときの状況を入力として、より報酬が高いアクションが出力されるようにAIエージェント50を学習させる。
【0052】
ステップS32では、AIエージェントを使用した電子ゲームのプレイが行われる。当該ステップにおける処理は、AIプレイ処理部32による処理に該当する。AIプレイ処理部32は、AIエージェント50(後述するプレイスタイル別AIエージェント56及びユーザ別AIエージェント60を含む)によって電子ゲームをプレイさせる処理を行う。本実施の形態では、テキサス・ホールデムポーカーを複数のAIエージェント50をプレイヤとしてプレイさせる。AIエージェント50は、学習において得られた多層ニューラルネットワーク及びそれに対する各種パラメータ(層構造、各層におけるニューロン構造、各ニューロンの重みあるいはバイアスなど)を適用して、電子ゲームをプレイする際の現在の状況を入力としたときにAIエージェント50から出力されるアクションを行うことによって電子ゲームをプレイすることを可能にする。
【0053】
AIログ収集部34は、AIプレイ処理部32におけるAIエージェント50による電子ゲームのプレイに関する情報をログ情報として収集する。AIログ収集部34によって収集されたログ情報は、サーバ102の記憶部12にAIログDB54として記憶される。ログ情報には、AIエージェント50によって電子ゲームをプレイした際における電子ゲームの状況、その状況に対して行ったアクション及びその結果が含まれる。電子ゲームがテキサス・ホールデムポーカーの場合、電子ゲームの状況は、プレイヤとして参加しているAIエージェント50の数、AIエージェント50の対戦履歴やスタッツ、共通のカード(コミュニティ・カード)の状況、自身のAIエージェント50に配られたカード(ポケットカード)の状況、賭けの状況(各AIエージェント50の賭けにおけるアクション)を含む。電子ゲームの状況には、現在の状況のみならず、過去の状況を含んでもよい。また、電子ゲームがテキサス・ホールデムポーカーの場合、電子ゲームの結果には、ショーダウンにおいて勝者となったか敗者となったか、勝者となった場合に獲得した掛け金の情報が含まれる。
【0054】
ステップS34では、AIエージェントの強化学習が行われる。当該ステップにおける処理は、強化学習部36による処理に該当する。強化学習部36は、AIエージェント50を強化するための学習である強化学習を行う。強化学習とは、教師あり学習とは異なる手法であり、強化学習としては例えばQ学習などを用いることができる。具体的には、強化学習においては、電子ゲームにおける状況を入力として、AIエージェント50が出力したアクションの結果に基づいてAIエージェント50に報酬が与えられ、AIエージェント50は、当該報酬に基づいて出力するべきアクションを学習する。
【0055】
本実施形態では、強化学習部36は、AIプレイ処理部32によるAIエージェント50による電子ゲームのプレイの結果に基づいて学習を行う。
【0056】
強化学習部36によるAIエージェント50の強化学習における報酬設計は、特に限定されるものではない。例えば、電子ゲームをプレイした際に得られた電子ゲームの状況を入力データとして、当該電子ゲームの状況に対して行われたアクションについてショーダウンを複数回行った際に得られた賭け金の総額が高いほど報酬をより高く設定する。そして、当該電子ゲームの状況をAIエージェント50に入力した際に、AIエージェント50からより高い報酬となるアクションが出力されるようにAIエージェント50を学習する。また、例えば、ショーダウンを複数回行った際に得られた賭け金の総額をプレイヤ間で比較し、得られた賭け金の総額が多い順に報酬をより高く設定してAIエージェント50を学習してもよい。また、例えば、ショーダウン毎に勝者となった場合には報酬をより高く設定し、敗者となった場合には報酬をより低く設定してAIエージェント50を学習してもよい。また、例えば、ショーダウン毎に勝者となった場合に獲得した掛け金が多いほど報酬をより高く設定してAIエージェント50を学習してもよい。
【0057】
強化学習部36による強化学習は、電子ゲームのログ情報を用いて行うことができる。ログ情報に含まれる電子ゲームの状況をAIエージェント50へ入力し、当該入力に対してAIエージェント50が出力したアクションに応じて報酬を付与して学習を行うことができる。なお、ログ情報は、NPC(Non Player Character;AIエージェント50ではないルールベースのAI)が電子ゲームをプレイしたときのログ情報、又は、ユーザである人間がプレイヤとして電子ゲームをプレイしたときのログ情報を使用することができる。
【0058】
また、AIプレイ処理部32によってAIエージェント50同士で新たに電子ゲームをプレイしつつ、AIエージェント50から出力されたアクションとそれに伴う電子ゲームでの結果に応じて報酬を付与して学習を行ってもよい。
【0059】
ステップS36では、プレイスタイルに応じたAIエージェントを生成する処理が行われる。当該ステップにおける処理は、プレイスタイル学習部38による処理に該当する。教師あり学習部30及び強化学習部36によって電子ゲームについてAIエージェント50をある程度強くするための学習が行われた後、プレイスタイル学習部38においてプレイスタイル毎にAIエージェント50を学習してプレイスタイル別AIエージェント56を生成する。プレイスタイル学習部38では、様々な報酬設計によってプレイスタイルに応じた複数のプレイスタイル別AIエージェント56が生成されるように学習を行う。
【0060】
例えば、電子ゲームをプレイした際の電子ゲームの状況を入力データとして、当該電子ゲームの状況においてブラフに該当するアクション、すなわち自分のハンドが他のプレイヤのハンドよりも不利であるにも関わらず賭けを続けるアクション、を行った後に賭け金が得られたときに報酬をより高く設定する。そして、当該電子ゲームの状況をAIエージェント50に入力した際に、より高い報酬が得られるブラフに該当するアクションがAIエージェント50から出力され易くなるようにAIエージェント50を学習する。これによって、ブラフが得意なプレイスタイルであるプレイスタイル別AIエージェント56が生成される。
【0061】
また、例えば、電子ゲームをプレイした際の電子ゲームの状況を入力データとして、当該電子ゲームの状況においてルースなアクション、すなわち「プリフロップ」や「フロップ」の時点で自分のハンドの勝率が低いにもかかわらず賭けを続けるアクション、を行った後に賭け金が得られたときに報酬をより高く設定する。そして、当該電子ゲームの状況をAIエージェント50に入力した際に、より高い報酬が得られるルースに該当するアクションがAIエージェント50から出力され易くなるようにAIエージェント50を学習する。これによって、ルースなプレイスタイルであるプレイスタイル別AIエージェント56が生成される。
【0062】
また、例えば、電子ゲームをプレイした際の電子ゲームの状況を入力データとして、当該電子ゲームの状況においてアグレッシブなアクション、すなわち「ベット」や「レイズ」のアクション、を行った後に賭け金が得られたときに報酬をより高く設定する。そして、当該電子ゲームの状況をAIエージェント50に入力した際に、より高い報酬が得られるアグレッシブに該当するアクションがAIエージェント50から出力され易くなるようにAIエージェント50を学習する。これによって、アグレッシブなプレイスタイルであるプレイスタイル別AIエージェント56が生成される。
【0063】
また、例えば、電子ゲームをプレイした際の電子ゲームの状況を入力データとして、当該電子ゲームの状況においてパッシブなアクション、すなわち「コール」や「レイズ」のアクションを行った後に賭け金を失ったようなアクション、を行ったときに報酬をより低く設定する。そして、当該電子ゲームの状況をAIエージェント50に入力した際に、より低い報酬となるアクションがAIエージェント50から出力され難くなるようにAIエージェント50を学習する。これによって、パッシブなプレイスタイルであるプレイスタイル別AIエージェント56が生成される。
【0064】
報酬設計の1例として、電子ゲームをプレイした際に得られた電子ゲームの状況を入力データとして、当該電子ゲームの状況に対して行われたアクションについてショーダウンを複数回行った際に得られた賭け金の総額が高いほど報酬をより高く設定する。例えば、複数回のショーダウンを行ったときに他のプレイヤと比較して高い賭け金を獲得したときには報酬を+1し、他のプレイヤと比較して低い賭け金しか獲得できなかったときには報酬を-1する。これによって、AIエージェント50は、より高い賭け金が得られるアクションを出力するように学習される。さらに、ショーダウン毎に各プレイスタイルに合致したアクションが行われた場合に報酬を付与する。例えば、プレイスタイルに合致したアクションが行われた場合に報酬を+0.1し、プレイスタイルに合致しないアクションが行われた場合に報酬を-0.1する。このように報酬を調整しつつ、電子ゲームのプレイの状況を入力としてできるだけ高い報酬となるアクションが出力されるようにAIエージェント50を学習してプレイスタイル別AIエージェント56を生成する。
【0065】
なお、プレイスタイルは上記のブラフ、ルース、アグレッシブ、パッシブに限定されるものではなく、他のプレイスタイルについても同様にAIエージェント50を学習させることによって各プレイスタイルに対応したプレイスタイル別AIエージェント56を生成することができる。
【0066】
また、電子ゲームがテキサス・ホールデムポーカーでない場合であっても、AIエージェント50から出力されるアクションに対する報酬をプレイスタイルに応じて設定してAIエージェント50の学習を行うことによってプレイスタイル別AIエージェント56を生成することができる。
【0067】
ステップS38では、ユーザに応じたプレイスタイルのプレイスタイル別AIエージェント56を選択する処理が行われる。当該ステップにおける処理は、質問処理部40及びAI選択部42による処理に該当する。
【0068】
質問処理部40は、電子ゲームに関する質問をユーザに提示し、ユーザから当該質問の回答を取得する。ユーザから取得した回答は、サーバ102の記憶部12に質問回答DB58として記憶される。
【0069】
電子ゲームに関する質問は、例えば、電子ゲームにおけるユーザの嗜好に関する質問とすることが好適である。例えば、
図9に示すように、クライアント104の出力部26においてプレイスタイル選択画面200を表示させて、ユーザに対して「あなたのプレイスタイルはどれに近いですか?」という質問を提示させる。また、プレイスタイル選択画面200には、当該質問の回答として、電子ゲームにおけるプレイについてのユーザの嗜好を示す選択肢を表示させ、ユーザに電子ゲームにおけるプレイについての嗜好を選択させる。例えば、
図9に示すように、「ブラフで相手を翻弄するプレイをしたい」、「ハンドによらずプレイをしたい」、「アグレッシブに攻めて勝ちたい」、「守備を堅実にプレイをしたい」等の選択肢を表示させ、ユーザにいずれかの選択肢を選択させる。選択肢は、電子ゲームに関するユーザの嗜好を確認できる内容を含んでいればよく、予めサーバ102の記憶部12に質問回答DB58として記憶させておけばよい。ユーザは、クライアント104の入力部24を用いて、プレイスタイル選択画面200に表示された選択肢のうち1つを選択(タップ等)する。
【0070】
ユーザによって選択された選択肢の情報は、クライアント104からサーバ102へ送信される。サーバ102は、クライアント104から受信した選択肢の情報を記憶部12に質問回答DB58として記憶させる。
【0071】
AI選択部42は、質問回答DB58を参照して、ユーザの回答に基づいて電子ゲームにおいて使用されるプレイスタイル別AIエージェント56を選択する。
【0072】
例えば、
図9に示したプレイスタイル選択画面200において「ブラフで相手を翻弄するプレイをしたい」という回答が選択された場合には、当該回答を行ったユーザに対してブラフに対応したプレイスタイル別AIエージェント56を選択する。「ハンドによらずプレイをしたい」という回答が選択された場合には、当該回答を行ったユーザに対してルースに対応したプレイスタイル別AIエージェント56を選択する。「アグレッシブに攻めて勝ちたい」という回答が選択された場合には、当該回答を行ったユーザに対してアグレッシブに対応したプレイスタイル別AIエージェント56を選択する。「守備を堅実にプレイをしたい」という回答が選択された場合には、当該回答を行ったユーザに対してパッシブに対応したプレイスタイル別AIエージェント56を選択する。
【0073】
また、質問処理部40は、電子ゲームにおける1つの状況に対してユーザが選択するアクションに関する質問を行うようにしてもよい。当該質問は、電子ゲームの効果が得られる期待値(例えば、獲得できる賭け金の期待値)が同程度となるアクションが複数存在するような電子ゲームの状況に対してユーザがどのようなアクションを選択するかを確認する質問であることが好適である。すなわち、電子ゲームの効果が同等程度となるような複数のアクションのうちどのアクションをユーザが選択するかによってユーザのプレイスタイルを反映されるような質問とすることが好適である。
【0074】
例えば、
図10に示すように、クライアント104の出力部26において選択要否画面202を表示させて、アクション選択を行うか否かをユーザに選択させる。選択要否画面202では、「今から50問出題するので、あなたのアクションをみて学習します」と表示させると共に、ユーザのアクションの選択を受けるための選択肢「アクションによる学習」とスキップしてすぐに電子ゲームを始めるための選択肢「スキップする」を呈示してユーザにいずれかを選択させる。ユーザによって選択された選択肢の情報は、クライアント104からサーバ102へ送信される。
【0075】
サーバ102は、「スキップする」が選択された場合、後述するユーザ学習部46によるユーザ別AIエージェント60の学習処理に移行する。一方、サーバ102は、「アクションによる学習」が選択された場合、ユーザからアクションの選択を取得する処理に移行する。
【0076】
「アクションによる学習」が選択された場合、
図11に示すように、クライアント104の出力部26においてアクション選択画面204を表示させる。アクション選択画面204には、問題数と質問について回答を促す「アクションを選択してください」という表示が行われる。また、アクション選択画面204にはゲーム状況表示領域210及びアクション選択領域212が設けられる。ゲーム状況表示領域210には、電子ゲームの状況を示す情報が表示される。電子ゲームがテキサス・ホールデムポーカーである場合、ゲーム状況表示領域210には、プレイヤ、共通のカード(コミュニティ・カード)の状況、自身に配られたカード(ポケットカード)の状況、賭けの状況(各プレイヤの賭けにおけるアクション)が含まれる。また、電子ゲームの状況には、各プレイヤの対戦履歴やスタッツが含まれてもよい。アクション選択領域212には、ゲーム状況表示領域210に表示されている電子ゲームの状況に対してプレイヤが選択可能なアクションが表示される。電子ゲームの状況とアクションの選択肢は、電子ゲームに関するユーザの嗜好を確認できる内容を含んでいればよく、予めサーバ102の記憶部12に質問回答DB58として記憶させておけばよい。ユーザは、ゲーム状況表示領域210に表示された電子ゲームの状況を確認したうえで、クライアント104の入力部24を用いてアクション選択領域212に表示されているアクションの選択肢からユーザが行うことを望むアクションを選択する。
【0077】
ユーザによって選択されたアクションの選択肢の情報は、クライアント104からサーバ102へ送信される。サーバ102は、クライアント104から受信した選択肢の情報をゲーム状況表示領域210に表示させた電子ゲームの状況に関連付けて記憶部12に質問回答DB58として記憶させる。
【0078】
AI選択部42は、質問回答DB58を参照して、ユーザの回答に基づいて電子ゲームにおいて使用されるプレイスタイル別AIエージェント56を選択する。
【0079】
例えば、各質問に対して回答として容易されたアクション毎にプレイスタイル別AIエージェント56の各プレイスタイルに対する類似度を設定しておき、各質問に対してユーザが選択回答したアクションとプレイスタイル別AIエージェント56の各プレイスタイルとの類似度に基づいて電子ゲームにおいて使用されるプレイスタイル別AIエージェント56を選択することができる。質問が複数の場合、複数の質問に対して選択された各アクションと各プレイスタイルとの類似度の累積値や平均値等に応じて、最も類似度が高いプレイスタイル別AIエージェント56を選択すればよい。また、例えば、複数の電子ゲームの状況の各々に対してユーザが選択回答したアクションとプレイスタイル別AIエージェント56の各プレイスタイルとの損失分布のKL距離を算出することによって類似度を求めてもよい。
【0080】
本実施の形態の場合、複数のポーカーのプレイ状況に関する質問においてユーザが選択したアクションとの類似度に基づいてブラフに対応したプレイスタイル別AIエージェント56、ルースに対応したプレイスタイル別AIエージェント56、アグレッシブに対応したプレイスタイル別AIエージェント56、パッシブに対応したプレイスタイル別AIエージェント56のいずれかが選択される。
【0081】
なお、プレイスタイル選択画面200によるユーザのプレイスタイルの選択と、アクション選択画面204によるユーザのアクションの選択と、を組み合わせてユーザが望むプレイスタイルに応じたプレイスタイル別AIエージェント56を選択するようにしてもよい。
【0082】
ステップS40では、プレイスタイル別AIエージェント56をユーザの腕前に合わせて調整する処理が行われる。当該ステップにおける処理は、質問処理部40及びAI調整部44による処理に該当する。
【0083】
質問処理部40は、電子ゲームにおける1つの状況に対してユーザが腕前を評価するための質問を行う。当該質問は、電子ゲームの効果が得られるアクションが1つに絞られるような電子ゲームにおける状況に対してユーザがどのようなアクションを選択するかを確認する質問であることが好適である。すなわち、電子ゲームの状況に対して行い得る複数のアクションのうち電子ゲームで得られる好ましい効果の期待値が最大となるアクションを正解とし、ユーザが正解であるアクションを選択するか否かによってユーザの電子ゲームの腕前を評価できるような質問とすることが好適である。例えば、ポーカーにおける状況において得られる賭け金の期待値が最大となるアクションを正解とし、当該ポーカーにおける状況を質問して示したときにユーザが正解であるアクションを選択するか否かによってユーザの電子ゲームの腕前を評価できるような質問とすることが好適である。また、例えば、テキサス・ホールデムポーカーに対してゲーム理論(GTO)を適用して、ゲームの状況に対して好適であるとされたアクションを正解とする質問を用いるようにしてもよい。
【0084】
図12に示すように、クライアント104の出力部26において選択要否画面206を表示させて、アクション選択を行うか否かをユーザに選択させる。選択要否画面206では、「今から50問出題するので、あなたのアクションをみて腕前を評価します」と表示させると共に、ユーザのアクションの選択を受けるための選択肢「アクションによる腕前の評価」とスキップしてすぐに電子ゲームを始めるための選択肢「スキップする」を呈示してユーザにいずれかを選択させる。ユーザによって選択された選択肢の情報は、クライアント104からサーバ102へ送信される。
【0085】
サーバ102は、「スキップする」が選択された場合、後述するユーザ学習部46によるユーザ別AIエージェント60の学習処理に移行する。一方、サーバ102は、「アクションによる学習」が選択された場合、ユーザからアクションの選択を取得する処理に移行する。なお、当該選択要否画面206による選択を行わず、ユーザの腕前の評価を必ず行うようにしてもよい。また、該選択要否画面206による選択を行わず、ユーザの腕前の評価を行わないようにしてもよい。
【0086】
「アクションによる腕前の評価」が選択された場合、
図11と同様に、クライアント104の出力部26においてアクション選択画面204を表示させる。アクション選択画面204には、問題数と質問について回答を促す「アクションを選択してください」という表示が行われる。また、アクション選択画面204にはゲーム状況表示領域210及びアクション選択領域212が設けられる。ゲーム状況表示領域210には、電子ゲームの状況を示す情報が表示される。アクション選択領域212には、ゲーム状況表示領域210に表示されている電子ゲームの状況に対してプレイヤが選択可能なアクションが表示される。電子ゲームの状況とアクションの選択肢は、電子ゲームに関するユーザの腕前を評価できる内容を含んでいればよく、予めサーバ102の記憶部12に質問回答DB58として記憶させておけばよい。ユーザは、ゲーム状況表示領域210に表示された電子ゲームの状況を確認したうえで、クライアント104の入力部24を用いてアクション選択領域212に表示されているアクションの選択肢からユーザが行うことを望むアクションを選択する。
【0087】
AI調整部44は、質問回答DB58を参照し、質問処理部40によって得られた「アクションによる腕前の評価」の質問へのユーザの回答に応じてAI選択部42によって選択されたプレイスタイル別AIエージェント56の調整が行われる。AI調整部44は、ユーザが選択回答したアクションの正解率に応じて、電子ゲームにおけるプレイスタイル別AIエージェント56の強さを調整する。
【0088】
弱いプレイスタイル別AIエージェント56を強いプレイスタイル別AIエージェント56に対して何らかの精度が劣っていると定義し、強いプレイスタイル別AIエージェント56の推論に対して弱いプレイスタイル別AIエージェント56では推論の精度を阻害するような調整を行うことでプレイスタイル別AIエージェント56の強さを調整することができる。具体的には、電子ゲームのプレイの状況に関する情報の一部を欠損させてプレイスタイル別AIエージェント56に入力することでプレイスタイル別AIエージェント56の強さを調整することができる。例えば、ポーカーゲームの場合、プレイヤ自身や他のプレイヤの保持するハンドの情報の一部を欠損させてプレイスタイル別AIエージェント56に入力することでプレイスタイル別AIエージェント56の強さを調整する。
【0089】
ステップS42では、ユーザに合わせてプレイスタイル別AIエージェント56を学習する処理が行われる。当該ステップにおける処理は、ユーザ学習部46による処理に該当する。ユーザ学習部46は、プレイスタイル別AIエージェント56をユーザに近づけるために、ユーザの電子ゲームにおけるプレイの特徴を示す情報を用いてプレイスタイル別AIエージェント56を学習させる。
【0090】
ユーザ学習部46は、電子ゲームに関する質問に対するユーザの回答を用いて、AIエージェント50をユーザに対応付けられたユーザ別AIエージェント60となるように学習することができる。例えば、過去にユーザ自身がプレイヤとして電子ゲームをプレイしたときのゲームログ情報が記憶部12に記憶されている場合、当該ログ情報に含まれる電子ゲームをプレイしたときの状況をプレイスタイル別AIエージェント56に入力し、当該状況に対してユーザが選択したアクションが出力されるように学習を行ってユーザ別AIエージェント60を生成する。また、例えば、ステップS38においてユーザのプレイスタイルを把握する際に行った質問に含まれている電子ゲームの状況を示す情報をプレイスタイル別AIエージェント56に入力し、当該状況に対してユーザが選択したアクションが出力されるように学習を行ってユーザ別AIエージェント60を生成してもよい。また、例えば、ステップS40においてユーザの腕前を把握する際に行った質問に含まれている電子ゲームの状況を示す情報をプレイスタイル別AIエージェント56に入力し、当該状況に対してユーザが選択したアクションが出力されるように学習を行ってユーザ別AIエージェント60を生成してもよい。
【0091】
なお、ユーザ学習部46によるユーザ別AIエージェント60を生成処理は、これらに限定されるものではない。例えば、ユーザに対して新たに電子ゲームの状況の例を示す質問を行い、当該質問に対してユーザが選択したアクションを取得し、これらの情報を用いてプレイスタイル別AIエージェント56を学習させてユーザ別AIエージェント60を生成してもよい。
【0092】
ユーザは、上記のように生成されたユーザ別AIエージェント60を用いて電子ゲームをプレイすることができる。すなわち、ユーザのプレイスタイル及びユーザの腕前に応じたユーザ別AIエージェント60を自身の代理として用いて電子ゲームをプレイすることができる。具体的には、AIプレイ処理部32によって、電子ゲームのプレイの状況をユーザ別AIエージェント60に入力して、ユーザ別AIエージェント60から出力されたアクションを適用することで電子ゲームをプレイすることができる。
【0093】
なお、本実施の形態では、ステップS30における教師あり学習、ステップS34における強化学習、ステップS36におけるプレイスタイル別の学習、ステップS40におけるAIエージェントの調整、ステップS42におけるユーザに合わせた学習のすべてを適用したが、これらの一部の処理を除いて処理を行ってもよい。
【0094】
以上のように、本実施の形態によれば、従来にない電子ゲームシステム、電子ゲームプログラム及び電子ゲーム方法を提供することができる。
【0095】
[発明の構成]
[構成1]
電子ゲームを提供する電子ゲーム提供システムであって、
電子ゲームの状況を入力として、前記状況に対するアクションを出力するように学習されたAIエージェントを使用して電子ゲームをプレイすることが可能であり、
電子ゲームに関する質問に対するユーザの回答を用いて、前記AIエージェントを前記ユーザに対応付けられたAIエージェントとなるように学習することを特徴とする電子ゲーム提供システム。
[構成2]
構成1に記載の電子ゲーム提供システムであって、
前記質問は、電子ゲームにおけるプレイについての前記ユーザの嗜好に関することを特徴とする電子ゲーム提供システム。
[構成3]
構成1又は2に記載の電子ゲーム提供システムであって、
前記質問は、電子ゲームにおける1つの状況に対して前記ユーザが選択するアクションに関することを特徴とする電子ゲーム提供システム。
[構成4]
構成3に記載の電子ゲーム提供システムであって、
前記1つの状況は、前記AIエージェントが電子ゲームをプレイした際に遭遇した状況であることを特徴とする電子ゲーム提供システム。
[構成5]
構成3に記載の電子ゲーム提供システムであって、
前記1つの状況は、人間が電子ゲームをプレイした際に遭遇した状況であることを特徴とする電子ゲーム提供システム。
[構成6]
構成3に記載の電子ゲーム提供システムであって、
前記1つの状況は、電子ゲームにおける状況のうち人間が選択した状況であることを特徴とする電子ゲーム提供システム。
[構成7]
構成2に記載の電子ゲーム提供システムであって、
前記AIエージェントから前記ユーザの嗜好に沿ったアクションが出力されるように前記AIエージェントを学習することを特徴とする電子ゲーム提供システム。
[構成8]
構成3~6のいずれか1項に記載の電子ゲーム提供システムであって、
前記1つの状況に対して、前記AIエージェントから前記ユーザの選択したアクションが出力されるように前記AIエージェントを学習することを特徴とする電子ゲーム提供システム。
[構成9]
電子ゲームを提供する電子ゲーム提供プログラムであって、
コンピュータを、
電子ゲームの状況を入力として、前記状況に対するアクションを出力するように学習されたAIエージェントを使用して電子ゲームをプレイすることが可能であり、
電子ゲームに関する質問に対するユーザの回答を用いて、前記AIエージェントを前記ユーザに対応付けられたAIエージェントとなるように学習することを特徴とする電子ゲーム提供プログラム。
【符号の説明】
【0096】
10 処理部、12 記憶部、14 入力部、16 出力部、18 通信部、20 処理部、22 記憶部、24 入力部、26 出力部、28 通信部、30 教師あり学習部、32 AIプレイ処理部、34 AIログ収集部、36 強化学習部、38 プレイスタイル学習部、40 質問処理部、42 AI選択部、44 AI調整部、46 ユーザ学習部、50 AIエージェント、52 学習用データ、54 AIログデータベース、56 プレイスタイル別AIエージェント、60 ユーザ別AIエージェント、100 電子ゲームシステム、102 サーバ、104 クライアント、106 情報通信網、200 プレイスタイル選択画面、202 選択要否画面、204 アクション選択画面、206 選択要否画面、210 ゲーム状況表示領域、212 アクション選択領域、300 ゲーム画面、302 ゲーム状況表示領域、304 アクション選択領域。