(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2024-06-17
(45)【発行日】2024-06-25
(54)【発明の名称】コミュニケーション支援プログラム、コミュニケーション支援方法及びコミュニケーション支援システム
(51)【国際特許分類】
H04L 67/131 20220101AFI20240618BHJP
【FI】
H04L67/131
(21)【出願番号】P 2024522649
(86)(22)【出願日】2023-11-06
(86)【国際出願番号】 JP2023039937
【審査請求日】2024-04-16
(31)【優先権主張番号】P 2023081344
(32)【優先日】2023-05-17
(33)【優先権主張国・地域又は機関】JP
【早期審査対象出願】
(73)【特許権者】
【識別番号】000002130
【氏名又は名称】住友電気工業株式会社
(74)【代理人】
【識別番号】100088155
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100136722
【氏名又は名称】▲高▼木 邦夫
(74)【代理人】
【識別番号】100176658
【氏名又は名称】和田 謙一郎
(72)【発明者】
【氏名】柿井 俊昭
(72)【発明者】
【氏名】戴 桂明
【審査官】前田 健人
(56)【参考文献】
【文献】米国特許出願公開第2022/0124285(US,A1)
【文献】特開2020-101950(JP,A)
【文献】米国特許出願公開第2012/0131478(US,A1)
【文献】特開2022-082282(JP,A)
【文献】特開2005-095601(JP,A)
【文献】oviceのバーチャル空間でできること【ovice利用ガイド】|ovice Magazine,[オンライン],2022年03月31日,[検索日 2024.01.09], インターネット:<URL: https:/ovice.in/ja/magazine/2022/03/31/howtouse1>,特に「チャット機能」の項
【文献】5歳児とおとーちゃんとで「マインクラフト」を遊ぶためのTIPS -石田賀津男の「酒の肴にゲーム」- 窓の杜,[オンライン],2022年08月05日,[検索日 2024.01.09], インターネット:<URL: https://forest.watch.impress.co.jp/docs/serial/sspcgame/1429794.html>,特に「敵が出なくても装備は充実させたい」の項
【文献】【マイクラ】ワールドで参加者同士とボイスチャットができるツールを紹介!【MCVC】 - 揚げポテほかほかク,[オンライン],2023年01月26日,[検索日 2024.01.09], インターネット:<URL: https:/mcpoteton.com/yakudatu/mcvc>,特に「MCVC」の項、「MCVCの使い方」の項
(58)【調査した分野】(Int.Cl.,DB名)
H04L 67/131
(57)【特許請求の範囲】
【請求項1】
仮想空間における複数のキャラクタのコミュニケーションを支援するコミュニケーション支援プログラムであって、
一又は複数の前記キャラクタが位置する物体を、一又は複数の前記キャラクタと一体的に表示させ、
一又は複数の前記キャラクタのうちの任意の前記キャラクタが位置していた前記物体と他の前記キャラクタが位置していた前記物体とを一体化させ、任意の前記キャラクタ及び他の前記キャラクタを一体化された一つの前記物体に位置させ、
一つの前記物体に位置する複数の前記キャラクタにおいて、前記キャラクタ同士の会話を可能とする、コミュニケーション支援プログラム。
【請求項2】
任意の前記キャラクタと当該キャラクタとは異なる他の前記キャラクタとを関連付ける操作を受け付けた場合、任意の前記キャラクタが位置していた前記物体と他の前記キャラクタが位置していた前記物体とを一体化さ
せる、請求項1に記載のコミュニケーション支援プログラム。
【請求項3】
前記関連付ける操作を受け付けた場合、他の前記キャラクタのユーザに会話を許可するか否かを選択させ、
他の前記キャラクタの前記ユーザが会話を許可した場合、任意の前記キャラクタが位置していた前記物体と他の前記キャラクタが位置していた前記物体とを一体化させて、任意の前記キャラクタ及び他の前記キャラクタを一体化された一つの前記物体に位置させ、
他の前記キャラクタの前記ユーザが会話を拒否した場合、前記関連付ける操作を無効にする、請求項2に記載のコミュニケーション支援プログラム。
【請求項4】
前記関連付ける操作は、任意の前記キャラクタ又は当該キャラクタが位置する前記物体を、他の前記キャラクタ又は当該キャラクタが位置する前記物体にドラッグ・アンド・ドロップする操作である、請求項2又は請求項3に記載のコミュニケーション支援プログラム。
【請求項5】
複数の前記キャラクタが一つの前記物体に位置している状態において、一又は複数の前記キャラクタの会話を終了させる操作を受け付けた場合、前記物体を新たに表示させると共に会話を終了させた一又は複数の前記キャラクタを新たに表示された前記物体に位置させる、請求項2
又は請求項
3に記載のコミュニケーション支援プログラム。
【請求項6】
前記会話を終了させる操作は、一又は複数の前記キャラクタを前記物体から外部にドラッグ・アンド・ドロップする操作である、請求項5に記載のコミュニケーション支援プログラム。
【請求項7】
前記物体は、前記仮想空間において移動可能である、請求項1
又は請求項
2に記載のコミュニケーション支援プログラム。
【請求項8】
前記物体に位置する前記キャラクタと、当該物体に位置しない前記キャラクタとのコミュニケーションを可能にする、請求項1
又は請求項
2に記載のコミュニケーション支援プログラム。
【請求項9】
前記物体において、会話への参加に係る情報を表示させる、請求項1
又は請求項
2に記載のコミュニケーション支援プログラム。
【請求項10】
一つの前記物体に一又は複数の前記キャラクタが位置している場合において、所定の時間となった場合又は所定の操作を受け付けた場合、前記キャラクタを所定の場所に自動で移動させる、請求項1
又は請求項
2に記載のコミュニケーション支援プログラム。
【請求項11】
一つの前記物体に位置する複数の前記キャラクタのうちの少なくとも一つの前記キャラクタは、AIによって操作される、請求項1
又は請求項
2に記載のコミュニケーション支援プログラム。
【請求項12】
任意の前記キャラクタが位置していた前記物体と当該キャラクタとは異なる他の前記キャラクタが位置していた前記物体とを自動で一体化さ
せる、請求項1に記載のコミュニケーション支援プログラム。
【請求項13】
複数の前記キャラクタが一つの前記物体に位置している状態において、所定時間が経過した場合、前記物体を新たに表示させると共に会話を終了させた一又は複数の前記キャラクタを新たに表示された前記物体に位置させる、請求項12に記載のコミュニケーション支援プログラム。
【請求項14】
複数の前記キャラクタが位置する一つの前記物体において、会話内容に係る情報を表示する表示部を表示させる、請求項12又は請求項13に記載のコミュニケーション支援プログラム。
【請求項15】
複数の前記キャラクタが位置する一つの前記物体において、前記所定時間に係る情報を表示させる、請求項13に記載のコミュニケーション支援プログラム。
【請求項16】
前記仮想空間において、ファシリテーターのユーザによって操作される前記キャラクタを表示させる、請求項12
又は請求項1
3に記載のコミュニケーション支援プログラム。
【請求項17】
複数の前記キャラクタが一つの前記物体に位置している状態において、前記キャラクタのユーザを識別可能な情報を少なくとも含むカードの交換が可能である、請求項12
又は請求項1
3に記載のコミュニケーション支援プログラム。
【請求項18】
一つの前記物体に位置する複数の前記キャラクタのうちの少なくとも一つの前記キャラクタは、AIによって操作される、請求項12
又は請求項1
3に記載のコミュニケーション支援プログラム。
【請求項19】
仮想空間における複数のキャラクタのコミュニケーションを支援するコミュニケーション支援方法であって、
一又は複数の前記キャラクタが位置する物体を、一又は複数の前記キャラクタと一体的に表示させ、
一又は複数の前記キャラクタのうちの任意の前記キャラクタが位置していた前記物体と他の前記キャラクタが位置していた前記物体とを一体化させ、任意の前記キャラクタ及び他の前記キャラクタを一体化された一つの前記物体に位置させ、
一つの前記物体に位置する複数の前記キャラクタにおいて、前記キャラクタ同士の会話を可能とする、コミュニケーション支援方法。
【請求項20】
仮想空間における複数のキャラクタのコミュニケーションを支援するコミュニケーション支援システムあって、
一又は複数の前記キャラクタが位置する物体を、一又は複数の前記キャラクタと一体的に表示させ、
一又は複数の前記キャラクタのうちの任意の前記キャラクタが位置していた前記物体と他の前記キャラクタが位置していた前記物体とを一体化させ、任意の前記キャラクタ及び他の前記キャラクタを一体化された一つの前記物体に位置させ、
一つの前記物体に位置する複数の前記キャラクタにおいて、前記キャラクタ同士の会話を可能とする、コミュニケーション支援システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の一側面は、コミュニケーション支援プログラム、コミュニケーション支援方法及びコミュニケーション支援システムに関する。
本出願は、2023年5月17日出願の日本出願第2023-081344号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用するものである。
【背景技術】
【0002】
リモートコミュニケーションは、近年、Teams(登録商標)、Zoom(登録商標)等が主流となっている。これらのリモートコミュニケーションは、予め参加者を設定して招待しておき、所定の時間となった場合に、参加者がWEB等にアクセスすることによって、会議等のコミュニケーションが行われる。非特許文献1には、リモートコミュニケーションとして、Teamsが開示されている。
【先行技術文献】
【非特許文献】
【0003】
【文献】“MicrosoftTeams”,[online],Microsoft,[令和5年5月10日検索],インターネット,<URL:https://www.microsoft.com/ja-jp/microsoft-teams/group-chat-software>
【発明の概要】
【0004】
本開示の一実施形態に係るコミュニケーション支援プログラムは、仮想空間における複数のキャラクタのコミュニケーションを支援するコミュニケーション支援プログラムであって、一又は複数のキャラクタが位置する物体を、一又は複数のキャラクタと一体的に表示させ、一つの物体に位置する複数のキャラクタにおいて、キャラクタ同士の会話を可能とする。
【図面の簡単な説明】
【0005】
【
図1】
図1は、一実施形態に係る表示システムの概略構成の例を示す図である。
【
図2】
図2は、端末及びサーバの機能ブロックの例を示す図である。
【
図4】
図4は、
図3に示す操作装置の機能ブロックの例を示す図である。
【
図5】
図5は、耳アニメーションの動作の一例を示す図である。
【
図6】
図6は、仮想空間において表示される画面の一例を示す図である。
【
図7】
図7は、仮想空間において表示される画面の一例を示す図である。
【
図8】
図8は、仮想空間において表示される画面の一例を示す図である。
【
図9】
図9は、仮想空間において表示される画面の一例を示す図である。
【
図10】
図10は、仮想空間において表示される画面の一例を示す図である。
【
図11】
図11は、仮想空間において表示される画面の一例を示す図である。
【
図12】
図12は、仮想空間において表示される画面の一例を示す図である。
【
図13】
図13は、仮想空間において表示される画面の一例を示す図である。
【
図14】
図14は、仮想空間において表示される画面の一例を示す図である。
【
図15】
図15は、仮想空間において表示される画面の一例を示す図である。
【
図16】
図16は、仮想空間において表示される画面の一例を示す図である。
【
図17】
図17は、仮想空間において表示される画面の一例を示す図である。
【
図18】
図18は、仮想空間において表示される画面の一例を示す図である。
【
図19】
図19は、仮想空間において表示される画面の一例を示す図である。
【
図20】
図20は、仮想空間において表示される画面の一例を示す図である。
【
図21】
図21は、仮想空間において表示される画面の一例を示す図である。
【
図22】
図22は、仮想空間において表示される画面の一例を示す図である。
【
図23】
図23は、仮想空間において表示される画面の一例を示す図である。
【発明を実施するための形態】
【0006】
[本開示が解決しようとする課題]
上記リモートコミュニケーションでは、参加者として設定されているメンバーと会話等のコミュニケーションを図れるものの、コミュニケーション相手を予め特定していない会話、いわゆる雑談等は、偶発的・自然発生的には生成され難い。例えば、実際に人が集まる場所(パーティー会場、喫煙室、フリースペース、お茶室(給湯室)、休憩室、食堂、廊下等)では、当該場所にいる人同士において、雑談が自然に行われる。実際に人が集まる場所においては、会話者同士がお互いの顔を見ながら、うなずいたり、反応したりしているため、これらの機微な表情変化の観察から、会話者の会話状況を把握し、会話グループを認識できる。そのため、会話者の様子を見て、タイミング等を見計らって会話者に声を掛けたりすること等ができるため、雑談が自然に生成される。
【0007】
リモートコミュニケーションの一つであるメタバース等の仮想空間では、キャラクタ(アバター)が仮想空間内を自由に移動して、他のキャラクタとコミュニケーションを取ることが可能である。そのため、キャラクタ同士において雑談等が生成され得る。しかしながら、メタバース内において雑談を行うことは容易ではない。これは、メタバースにおいては、キャラクタの視線や会話反応の非言語情報が的確に表出されにくいため、キャラクタ同士の状況を把握し難く、どのキャラクタが会話をしているのか等、会話グループを認識し難いためである。
【0008】
本開示は、仮想空間において、キャラクタ同士のコミュニケーションを容易に生成させることができるコミュニケーション支援プログラム、コミュニケーション支援方法及びコミュニケーション支援システムを提供することを目的とする。
【0009】
[本開示の効果]
本開示によれば、仮想空間において、キャラクタ同士のコミュニケーションを容易に生成させることができる。
【0010】
[本開示の実施形態の説明]
最初に、本開示の実施形態の内容を列記して説明する。以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。
【0011】
(1)本開示の一側面に係るコミュニケーション支援プログラムは、仮想空間における複数のキャラクタのコミュニケーションを支援するコミュニケーション支援プログラムであって、一又は複数のキャラクタが位置する物体を、一又は複数のキャラクタと一体的に表示させ、一つの物体に位置する複数のキャラクタにおいて、キャラクタ同士の会話を可能とする。
【0012】
本開示の一側面に係るコミュニケーション支援プログラムでは、複数のキャラクタが一つの物体に位置する場合に、キャラクタ同士の会話が可能となる。すなわち、一つの物体に位置しているキャラクタ同士において、会話が成立する。そのため、どのキャラクタ同士が会話しているのかを、一見して把握することができる。言い換えれば、どのキャラクタが会話していないのかを、一見して把握することができる。このように、コミュニケーション支援プログラムでは、コミュニケーションの状態を視覚化できる。そのため、コミュニケーション支援プログラムでは、例えば、コミュニケーションが行われてない場合には、キャラクタに対して雑談を持ち掛けたりすることができる。したがって、コミュニケーション支援プログラムでは、雑談等を自然に生成させることができる。その結果、コミュニケーション支援プログラムでは、仮想空間において、キャラクタ同士のコミュニケーションを容易に生成させることができる。
【0013】
(2)上記(1)のコミュニケーション支援プログラムにおいて、一又は複数のキャラクタのうちの任意のキャラクタと当該キャラクタとは異なる他のキャラクタとを関連付ける操作を受け付けた場合、任意のキャラクタが位置していた物体と他のキャラクタが位置していた物体とを一体化させ、任意のキャラクタ及び他のキャラクタを一体化された一つの物体に位置させてもよい。この構成では、任意のキャラクタと他のキャラクタとを関連付ける操作によって、複数のキャラクタを一つの物体に位置させることができる。また、物体を一体化させることによって、会話の一体感が向上する。
【0014】
(3)上記(2)のコミュニケーション支援プログラムにおいて、上記関連付ける操作を受け付けた場合、他のキャラクタのユーザに会話を許可するか否かを選択させ、他のキャラクタのユーザが会話を許可した場合、任意のキャラクタが位置していた物体と他のキャラクタが位置していた物体とを一体化させて、任意のキャラクタ及び他のキャラクタを一体化された一つの物体に位置させ、他のキャラクタのユーザが会話を拒否した場合、関連付ける操作を無効にしてもよい。この構成では、キャラクタのユーザが、会話の可否を選択することができる。
【0015】
(4)上記(2)又は(3)のコミュニケーション支援プログラムにおいて、上記関連付ける操作は、任意のキャラクタ又は当該キャラクタが位置する物体を、他のキャラクタ又は当該キャラクタが位置する物体にドラッグ・アンド・ドロップする操作であってもよい。この構成では、ドラッグ・アンド・ドロップするという簡単な操作によって複数のキャラクタを一つの物体に位置させることができる。また、ドラッグ・アンド・ドロップという参加移行過程を設けることで、キャラクタを操作するユーザの心の準備ができるため、より自然感覚に近くすることができる。
【0016】
(5)上記(2)~(4)のいずれか一つのコミュニケーション支援プログラムにおいて、複数のキャラクタが一つの物体に位置している状態において、一又は複数のキャラクタの会話を終了させる操作を受け付けた場合、物体を新たに表示させると共に会話を終了させた一又は複数のキャラクタを新たに表示された物体に位置させてもよい。この構成では、会話が終了すると、会話を終了したキャラクタを物体に再度位置させることができる。
【0017】
(6)上記(5)のコミュニケーション支援プログラムにおいて、会話を終了させる操作は、一又は複数のキャラクタを物体から外部にドラッグ・アンド・ドロップする操作であってもよい。この構成では、ドラッグ・アンド・ドロップするという簡単な操作によって、会話を終了することができる。
【0018】
(7)上記(1)~(6)のいずれか一つのコミュニケーション支援プログラムにおいて、物体は、仮想空間において移動可能であってもよい。この構成では、物体に位置するキャラクタを仮想空間において移動させることができる。
【0019】
(8)上記(1)~(7)のいずれか一つのコミュニケーション支援プログラムにおいて、物体に位置するキャラクタと、当該物体に位置しないキャラクタとのコミュニケーションを可能にしてもよい。この構成では、例えば、会話への参加の可否を、物体に位置するキャラクタに対して事前に確認することができる。
【0020】
(9)上記(1)~(8)のいずれか一つのコミュニケーション支援プログラムにおいて、物体において、会話への参加に係る情報を表示させてもよい。この構成では、当該物体における会話への参加の可否や会話への参加可能の度合い等を、一見して把握することができる。
【0021】
(10)上記(1)~(9)のいずれか一つのコミュニケーション支援プログラムにおいて、一つの物体に一又は複数のキャラクタが位置している場合において、所定の時間となった場合又は所定の操作を受け付けた場合、キャラクタを所定の場所に自動で移動させてもよい。この構成では、一つの物体における会話を終了させ、キャラクタを所定の場所(集合場所等)に自動で集合させることができる。
【0022】
(11)上記(1)~(10)のいずれか一つのコミュニケーション支援プログラムにおいて、一つの物体に位置する複数のキャラクタのうちの少なくとも一つのキャラクタは、AIによって操作されてもよい。
【0023】
(12)上記(1)のコミュニケーション支援プログラムにおいて、一又は複数のキャラクタのうちの任意のキャラクタが位置していた物体と当該キャラクタとは異なる他のキャラクタが位置していた物体とを自動で一体化させ、任意のキャラクタ及び他のキャラクタを一体化された一つの物体に位置させてもよい。この構成では、複数のキャラクタを自動で一つの物体に位置させることができる。すなわち、キャラクタを自動でマッチングさせることができる。これにより、特定のキャラクタ(ユーザ)とのコミュニケーションだけではなく、新しいキャラクタとのコミュニケーションを図ることができる。
【0024】
(13)上記(12)のコミュニケーション支援プログラムにおいて、複数のキャラクタが一つの物体に位置している状態において、所定時間が経過した場合、物体を新たに表示させると共に会話を終了させた一又は複数のキャラクタを新たに表示された物体に位置させてもよい。この構成では、所定時間が経過すると、会話が終了される。このように、コミュニケーションの時間が制限されるため、同じキャラクタとのコミュニケーションが長引かない。そのため、多くのキャラクタとのコミュニケーションが可能となる。
【0025】
(14)上記(12)又は(13)のコミュニケーション支援プログラムにおいて、複数のキャラクタが位置する一つの物体において、会話内容に係る情報を表示する表示部を表示させてもよい。この構成では、表示部に会話内容に係る情報として、例えば会話の話題が表示(提供)されるため、コミュニケーションを円滑に行うことができる。
【0026】
(15)上記(13)のコミュニケーション支援プログラムにおいて、複数のキャラクタが位置する一つの物体において、所定時間に係る情報を表示させてもよい。この構成では、例えば、所定時間の残り時間等を確認することができるため、時間配分(終了時間)を考慮してコミュニケーションを行うことができる。
【0027】
(16)上記(12)~(15)のいずれか一つのコミュニケーション支援プログラムにおいて、仮想空間において、ファシリテーターのユーザによって操作されるキャラクタを表示させてもよい。この構成では、多くのユーザが参加する会(例えば、研修会、情報交流会、懇親会等)に適用される場合、ファシリテーターによって会が進行されるため、会をスムーズに進めることが可能となる。
【0028】
(17)上記(12)~(16)のいずれか一つのコミュニケーション支援プログラムにおいて、複数のキャラクタが一つの物体に位置している状態において、キャラクタのユーザを識別可能な情報を少なくとも含むカードの交換が可能であってもよい。この構成では、会話の終了後に、会話を行ったキャラクタ(ユーザ)を確認することができる。
【0029】
(18)上記(12)~(17)のいずれか一つのコミュニケーション支援プログラムにおいて、一つの物体に位置する複数のキャラクタのうちの少なくとも一つのキャラクタは、AIによって操作されてもよい。
【0030】
(19)本開示の一側面に係るコミュニケーション支援方法は、仮想空間における複数のキャラクタのコミュニケーションを支援するコミュニケーション支援方法であって、一又は複数のキャラクタが位置する物体を、一又は複数のキャラクタと一体的に表示させ、一つの物体に位置する複数のキャラクタにおいて、キャラクタ同士の会話を可能とする。
【0031】
本開示の一側面に係るコミュニケーション支援方法は、上述のコミュニケーション支援プログラムと同様の特徴を含む。このため、上述のコミュニケーション支援プログラムと同様の作用及び効果を奏することができる。
【0032】
(20)本開示の一側面に係るコミュニケーション支援システムは、仮想空間における複数のキャラクタのコミュニケーションを支援するコミュニケーション支援方法であって、一又は複数のキャラクタが位置する物体を、一又は複数のキャラクタと一体的に表示させ、一つの物体に位置する複数のキャラクタにおいて、キャラクタ同士の会話を可能とする。
【0033】
本開示の一側面に係るコミュニケーション支援システムは、上述のコミュニケーション支援プログラムと同様の特徴を含む。このため、上述のコミュニケーション支援プログラムと同様の作用及び効果を奏することができる。
【0034】
[本開示の実施形態の詳細]
本開示の実施形態の具体例を、以下に図面を参照しつつ説明する。本開示はこれらの例示に限定されるものではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
【0035】
図1は、コミュニケーション支援システム(以下、単に「システム」という場合もある。)の概略構成の例を示す図である。システム100は、ユーザが操作可能なキャラクタC(
図5のパターンA参照)であって、ユーザの操作に応じて耳アニメーションE(
図5のパターンA参照)が動作するキャラクタCを用いた仮想空間R(
図6参照)におけるコミュニケーションを支援するコンピュータシステムである。
【0036】
キャラクタCの操作は、人であるユーザU1,U2,U3が行ってもよいし、人以外が行ってもよい。キャラクタCの操作は、例えば、AI(Chat GPT、Siri(登録商標)、Googoleアシスタント(登録商標)、Alexa(登録商標)、Cortana(登録商標))が行ってもよい。すなわち、キャラクタCを操作するユーザがAIであってもよい。ユーザとは、キャラクタCを操作するオペレータ等を意味する。
【0037】
キャラクタCは、ユーザを示すものである。キャラクタCは、ダイナミックなキャラクタである。キャラクタCは、ユーザの実際の像(撮像データ等)とは独立した画像素材によって生成される。画像素材は、アニメーションキャラクタを生成するための素材である。キャラクタCは二次元又は三次元のコンピュータグラフィック(CG)によって描画されてもよい。
【0038】
一例として、キャラクタCは、ボディB(
図5のパターンA参照)及び耳アニメーションEを含んで構成される。キャラクタCでは、ボディBと耳アニメーションEとが一体的に表示される。一体的に表示されるとは、キャラクタCを見たときに、視覚的にボディBと耳アニメーションEとが一つのまとまりとして認識されることを意味する。すなわち、一体的に表示されるとは、ボディBと耳アニメーションEとが結びついている(対応している)ことを一見して認識できる状態であればよい。そのため、一体的に表示されるとは、ボディBと耳アニメーションEとが接触している状態であってもよいし、ボディBと耳アニメーションEとが離隔している状態であってもよい。
【0039】
ボディBは、ユーザを示す画像及びユーザを示すテキストの少なくとも一方を含んでいてもよい。キャラクタCには、影が表示され得る。ボディBは、球状を呈しており、ユーザを識別可能なテキスト(「A」、「B」、「C」等)を含んでいてもよい。キャラクタCは、発話アニメーション(図示省略)を含んで構成されていてもよいし、腕や足等を模したアニメーションを含んで構成されていてもよい。
【0040】
耳アニメーションEは、非言語情報を表現するアニメーションである。耳アニメーションEは、ユーザの状態(動作)、感情を示すアニメーションである。耳アニメーションEは、ユーザの状態を、ユーザの実際の動作部位とは異なる形態で表現したアニメーションである。耳アニメーションEは、動的に変化する顔表情を含まなくてもよいし、動的に変化する顔表情を含んでいてもよい。耳アニメーションEは、ボディBの表示領域の外側に表示領域から突出するように表示される。耳アニメーションEは、動物(例えば、うさぎ等)の耳を模したアニメーションであり、ユーザの状態の変化に応じて動作する。耳アニメーションEは、ユーザの動作に応じて動作する。耳アニメーションEは、例えば、伸縮、折り曲げ、揺動等の動作をする。耳アニメーションEは、変形自在であり、ユーザの状態に対応して、ユーザの状態を想起させるような視覚的変形をする。
【0041】
システム100では、キャラクタCの耳アニメーションEによって、ユーザの状態、感情、リアクション等を確認することができる。
【0042】
<システムの構成>
システム100は、端末10、端末20及び端末30を含む。
図1に示される例では、端末10は、ユーザU1が使用するラップトップ型のパーソナルコンピュータ(PC)である。端末20は、ユーザU2が使用する携帯電話機(スマートフォン等)である。端末30は、ユーザU3が使用するデスクトップ型のPCである。端末10、端末20及び端末30は、ネットワークNに接続可能である。この例では、端末10はアクセスポイントAPを介して、端末20は基地局BSを介して、端末30は有線(不図示)により、それぞれネットワークNに接続される。端末10、端末20及び端末30には、上述のPC、携帯電話機以外にも、タブレット端末、ウェアラブル端末、ヘッドマウントディスプレイ(HMD)端末、その他さまざまな端末が用いられてよい。なお、システム100に含まれる端末の数は、
図1の例に限定されない。
【0043】
システム100は、サーバ40を含む。サーバ40は、ネットワークNに接続される。したがって、端末10、端末20、端末30及びサーバ40は、ネットワークNを介して互いに通信可能である。なお、システム100に含まれるサーバの数は、
図1の例に限定されない。
【0044】
ネットワークNの構成は限定されない。例えば、ネットワークNは、インターネット(公衆網)、通信キャリアネットワーク、事業者ネットワーク等を含んで構成されてよい。
【0045】
図2は、端末10、端末20、端末30、及びサーバ40の機能ブロックの例を示す図である。端末20及び端末30の機能ブロックは、端末10の機能ブロックと同様であるので、以下では端末10及びサーバ40について説明する。はじめに端末10について説明し、次にサーバ40について説明する。
【0046】
<端末の構成>
端末10は、入力部11を含む。入力部11は、ユーザU1の音声データ及び画像データが入力される部分である。入力部11は、ユーザU1の映像データが入力されてもよい。映像は、ユーザU1の音声データ及び画像データを含む。
【0047】
端末10は、制御部12を含む。制御部12は、ユーザU1の制御データを生成する部分である。ユーザU1の制御データは、操作装置50から出力された動作データに基づいて生成される。本実施形態では、例えば、制御データとして、キャラクタCの耳アニメーションEを、「うなずき」、「同意」「賞賛(拍手)」、「質問」、「挙手」及び「驚き」の6つの動作をさせるデータを生成し得る。制御部12は、他の動作(例えば、「YES」、「NO」を示す動作)についての制御データを生成してもよい。
【0048】
制御データは、動作データに対応付けられている。本実施形態では、例えば、「うなずき」、「同意」、「賞賛(拍手)」、「質問」、「挙手」及び「驚き」のそれぞれの制御データに対して、動作データが対応付けられている。動作データは、操作装置50から送信されるデータである。制御部12は、動作データが制御データに対応している場合、制御データを生成する。
【0049】
制御データは、入力部11に入力されたユーザU1の音声データ及び画像データに基づいて生成されてもよい。画像データは、連続する複数の単位フレームによって構成される。単位フレームは、通常、ユーザU1の画像情報を含む。例えば60フレーム/秒の画像データは、一秒間に60個の単位フレームを含む。制御部12による制御データの生成の詳細については後述する。
【0050】
制御部12は、制御データに基づいて、キャラクタCの動作を制御する部分でもある。制御部12は、生成した制御データ及び受信した制御データに基づいて、仮想空間RにキャラクタCを表示させると共に、キャラクタCの耳アニメーションEの動作を制御する。
【0051】
制御部12は、仮想空間Rの映像データを生成する。仮想空間Rの映像データは、制御データに基づいて制御されるキャラクタCの映像データを含む。この他に、仮想空間Rに現れるさまざまなオブジェクトが、仮想空間Rの映像データに含まれてもよい。制御部12による仮想空間Rの生成手法は特に限定されず、公知の種々の手法を用いることができる。制御部12は、例えば、カメラによる撮影画像に基づいて、仮想空間Rの映像データを生成してもよい。あるいは、制御部12は、3次元CADデータに基づいて、仮想空間Rの映像データを生成してもよい。
【0052】
端末10は、記憶部13を含む。記憶部13は、端末10の制御(処理)に必要な情報を記憶する部分である。
図2には、記憶部13に記憶される情報として、端末プログラム13Pが例示される。端末プログラム13Pは、端末10を動作させるためのプログラムであり、制御部12による制御等が実行されるようにコンピュータを動作させる。システム100がコミュニケーション支援システムであるので、端末プログラム13Pは、コミュニケーション支援プログラムともいえる。
【0053】
端末10は、通信部14を含む。通信部14は、ネットワークN(
図1参照)を介して、端末10の外部装置と通信する部分である。端末10の外部装置の例は、端末20、端末30、サーバ40及び操作装置50である。通信部14は、音声データ及び制御部12が生成した制御データをサーバ40に送信したり、音声データ及び制御データをサーバ40から受信したりする。通信部14は、操作装置50と通信する部分である。通信部14は、動作データを操作装置50から受信する。
【0054】
端末10は、出力部15を含む。出力部15は、仮想空間Rの映像を出力する。仮想空間Rの映像は、制御部12によって生成された仮想空間Rの映像データに基づく映像である。
【0055】
<サーバの構成>
サーバ40は、制御部42を含む。制御部42は、サーバ40の動作を制御する。サーバ40は、記憶部43を含む。記憶部43は、サーバ40の制御に必要な情報を記憶する部分である。
図3には、記憶部43に記憶される情報として、サーバプログラム43P及び受信データ43Sが例示される。サーバプログラム43Pは、サーバ40を動作させるためのプログラムであり、制御部42による制御等が実行されるようにコンピュータを動作させる。受信データ43Sは、端末10、端末20及び端末30からサーバ40に送られるデータであり、端末10、端末20及び端末30が生成した制御データを含み得る。
【0056】
サーバ40は、通信部44を含む。通信部44は、ネットワークN(
図1参照)を介して、サーバ40の外部装置と通信する部分である。サーバ40の外部装置の例は、端末10、端末20及び端末30である。通信部44は、ユーザU1の制御データ、ユーザU2の制御データ及びユーザU3の制御データを端末10、端末20及び端末30からそれぞれ受信したり、端末10、端末20及び端末30が生成した制御データを端末10、端末20及び端末30のそれぞれに送信したりする。
【0057】
<ハードウェア構成>
端末10及びサーバ40の各機能部分に関するハードウェア構成の例を説明する。サーバ40の通信部44は、ネットワークNにアクセスできるように、ネットワークカード又は無線通信デバイスを用いて構成され得る。サーバ40の制御部42は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサと、クロックと、内蔵メモリとを用いて構成され得る。制御部42は、プロセッサ、クロック、内蔵メモリ、記憶部43及び通信部44を集積した一つのハードウェア(SoC:System On a Chip)として構成されてもよい。制御部42は、サーバプログラム43Pに基づいて動作することで、サーバコンピュータをサーバ40として動作させる。サーバ40の記憶部43は、フラッシュメモリ、ハードディスク、SSD(Solid State Disk)等の不揮発性記憶媒体を用いて構成され得る。
【0058】
端末10の入力部11は、マイクロフォン、カメラ等を用いて構成され得る。マイクロフォンにより、ユーザU1の音声が取得される。すなわち、マイクロフォンは、音声を取得する音声センサの一種である。カメラにより、ユーザU1の画像が取得される。すなわち、カメラは、画像を取得する画像センサの一種である。さらに、入力部11は、キーボード、マウス、タッチパネルの操作デバイスも用いて構成されてよい。端末10の制御部12は、サーバ40の制御部42と同様に構成され得る。制御部12は、端末プログラム13Pに基づいて動作することで、汎用コンピュータを端末10として動作させる。端末10の記憶部13は、サーバ40の記憶部43と同様に構成され得る。端末10の通信部14は、サーバ40の通信部44と同様に構成され得る。端末10の出力部15は、液晶パネル、有機ELパネル等(タッチパネルでもよい)のディスプレイ装置を用いて構成され得る。さらに、出力部15は、スピーカも用いて構成されてよい。
【0059】
<操作装置の構成>
図3は、操作装置50の斜視図である。
図3では、操作装置50がユーザU1,U2,U3の指Fによって操作されている状態を示す図である。操作装置50は、ユーザU1,U2,U3によって操作される装置である。ユーザU1,U2,U3による操作装置50の操作によって、耳アニメーションEが動作する。操作装置50は、タッチパッドである。タッチパッドの方式としては、静電容量方式、感圧タッチ式、超音波方式等を採用することができる。
【0060】
操作装置50は、ハードウェア構成として、本体51を備えている。本体51は、操作面51Aを有する。操作装置50は、ユーザU1,U2,U3の手Hの指Fによって操作される。操作装置50は、単体で設けられていてもよいし、テレビディスプレイ等を操作するリモコンの一部に設けられていてもよい。すなわち、操作装置50は、機器の一部であってもよい。
【0061】
図4は、操作装置50の機能ブロックの例を示す図である。
図4に示されるように、操作装置50は、通信部52を含む。通信部52は、無線通信又は有線通信によって、外部装置と通信する部分である。無線通信は、例えば、LAN、Bluetooth(登録商標)、Wifi等である。外部装置の例は、端末10、端末20及び端末30である。通信部52は、制御部54から出力された動作データを端末10、端末20及び端末30に送信する。
【0062】
操作装置50は、入力部53を含む。入力部53は、操作面51AにおけるユーザU1,U2,U3の操作を入力する部分である。入力部53は、ユーザU1,U2,U3による操作面51Aの操作(ジェスチャ)を検出する。操作としては、クリック、タップ、スライド、スクロール等が挙げられる。入力部53は、操作信号を制御部54に出力する。
【0063】
操作装置50は、制御部54を含む。制御部54は、入力部53の操作信号に基づいて、動作データを生成する。制御部54は、動作データを通信部52に出力する。
【0064】
制御部54は、CPU、GPU等のプロセッサと、クロックと、内蔵メモリとを用いて構成され得る。制御部54は、プロセッサ、クロック、内蔵メモリ、通信部52を集積した一つのハードウェア(SoC)として構成されてもよい。
【0065】
操作装置50は、バッテリ55を含む。バッテリ55は、操作装置50の各部に電力を供給する。
【0066】
続いて、キャラクタCの耳アニメーションEを、例えば、「うなずき」、「同意」、「賞賛(拍手)」、「質問」、「挙手」又は「驚き」として動作させる場合の、ユーザU1,U2,U3による操作装置50の操作について説明する。すなわち、キャラクタCの耳アニメーションEの動作と、操作装置50によって検出されるユーザU1,U2,U3の動作との関係について説明する。耳アニメーションEの動作と、耳アニメーションEを動作させるためのユーザU1,U2,U3の指Fの動作とは類似(関連)している。例えば、「うなずき」の耳アニメーションEを動作させる場合には、うなずく動作に似た動作を操作装置50の操作面51A上で指Fによって行う。すなわち、ユーザU1,U2,U3は、動作させたい耳アニメーションEと似た動作を操作装置50において行うことで、耳アニメーションEを動作させることができる。
【0067】
図5は、耳アニメーションEの動作の一例を示す図である。
図5のパターンAでは、耳アニメーションEの通常時を示している。
【0068】
図5のパターンBでは、耳アニメーションEにおける「うなずき」の動作を示している。
図5のパターンBに示されるように、「うなずき」の動作では、キャラクタCの耳アニメーションEにおいて、耳の上部1/2部分が前方に折り曲がる。「うなずき」の動作を耳アニメーションEに実行させる場合には、ユーザU1,U2,U3は、操作装置50の本体51の操作面51Aを二本の指F(例えば、人差し指、中指)でタッチする。或いは、ユーザU1,U2,U3は、操作面51Aに二本の指Fをタッチさせた状態で、二本の指Fをスライドさせる。指Fをスライドさせるスライド量は、例えば、1cm~2cmである。
【0069】
操作装置50は、上記動作が行われた場合、当該動作を入力部53で検出し、動作データとして端末10,20,30に送信する。端末10,20,30の制御部12は、当該動作データに基づいて、耳アニメーションEを「うなずき」として動作させる制御データを生成する。
【0070】
図5のパターンCでは、耳アニメーションEにおける「同意」の動作を示している。「同意」の動作では、キャラクタCの耳アニメーションEにおいて、耳が全体的に前方に折り曲がる。「同意」の動作を耳アニメーションEに実行させる場合には、ユーザU1,U2,U3は、ユーザU1,U2,U3は、操作面51Aに二本の指F(例えば、人差し指、中指)をタッチさせた状態で、二本の指Fをスライドさせる。指Fをスライドさせるスライド量は、例えば、2cmよりも長く、例えば、3cm~4cmである。すなわち、「同意」の動作を耳アニメーションEに実行させる場合には、ユーザU1,U2,U3は、「うなずき」の動作を耳アニメーションEに実行させる場合よりも、指Fのスライド量を長くする。
【0071】
操作装置50は、上記動作が行われた場合、当該動作を入力部53で検出し、動作データとして端末10,20,30に送信する。端末10,20,30の制御部12は、当該動作データに基づいて、耳アニメーションEを「同意」として動作させる制御データを生成する。
【0072】
図5のパターンDでは、耳アニメーションEにおける「拍手(賞賛)」の動作を示している。「拍手(賞賛)」の動作では、キャラクタCの耳アニメーションEにおいて、耳が近づいたり離れたりする。「拍手(賞賛)」の動作を耳アニメーションEに実行させる場合には、ユーザU1,U2,U3は、操作面51Aに二本の指F(例えば、親指と人差し指、又は、人差し指と中指)をタッチさせた状態で、二本の指Fを近接(接触)させたり離間させたりする。
【0073】
操作装置50は、上記動作が行われた場合、当該動作を入力部53で検出し、動作データとして端末10,20,30に送信する。端末10,20,30の制御部12は、当該動作データに基づいて、耳アニメーションEを「拍手(賞賛)」として動作させる制御データを生成する。端末10,20,30の制御部12は、二本の指Fを近接させたり離間させたりする一回の動作に係る動作データに対して、複数回拍手するように制御データを生成してもよい。
【0074】
図5のパターンEでは、耳アニメーションEにおける「質問」の動作を示している。「質問」の動作では、キャラクタCの耳アニメーションEにおいて、耳が絡まる。「質問」の動作を耳アニメーションEに実行させる場合には、ユーザU1,U2,U3は、操作面51Aに二本の指F(例えば、人差し指と中指)をタッチさせた状態で、円(半円)を描くようにスライドさせる。なお、「質問」の動作を耳アニメーションEに実行させる場合には、ユーザU1,U2,U3が操作面51Aに二本の指F(例えば、人差し指と中指)をタッチさせた状態で、∞(無限)を描くようスライドさせてもよい。
【0075】
操作装置50は、上記動作が行われた場合、当該動作を入力部53で検出し、動作データとして端末10,20,30に送信する。端末10,20,30の制御部12は、当該動作データに基づいて、耳アニメーションEを「質問」として動作させる制御データを生成する。
【0076】
図5のパターンFでは、耳アニメーションEにおける「挙手」の動作を示している。「挙手」の動作では、キャラクタCの耳アニメーションEにおいて、耳が伸びる。「挙手」の動作を耳アニメーションEに実行させる場合には、ユーザU1,U2,U3は、ユーザU1,U2,U3は、操作面51Aに二本の指F(例えば、人差し指、中指)をタッチさせた状態で、一方の指F(中指)のみを上方にスライドさせる。
【0077】
操作装置50は、上記動作が行われた場合、当該動作を入力部53で検出し、動作データとして端末10,20,30に送信する。端末10,20,30の制御部12は、当該動作データに基づいて、耳アニメーションEを「挙手」として動作させる制御データを生成する。
【0078】
図5のパターンGでは、耳アニメーションEにおける「驚き」の動作を示している。「驚き」の動作では、キャラクタCの耳アニメーションEにおいて、耳の先端が大きくなる。このとき、キャラクタCのボディBが後ろに反る。「驚き」の動作を耳アニメーションEに実行させる場合には、ユーザU1,U2,U3は、操作面51Aに二本の指F(例えば、人差し指、中指)をタッチさせた状態で、二本の指Fを上方にスライドさせつつ離間させる。
【0079】
操作装置50は、上記動作が行われた場合、当該動作を入力部53で検出し、動作データとして端末10,20,30に送信する。端末10,20,30の制御部12は、当該動作データに基づいて、耳アニメーションEを「驚き」として動作させる制御データを生成する。
【0080】
<耳アニメーションの動作の操作方法>
続いて、キャラクタCの耳アニメーションEの動作の操作方法について説明する。耳アニメーションEを操作する場合には、ユーザU1,U2,U3は、例えば、
図5のパターンB、
図5のパターンC、
図5のパターンD、
図5のパターンE、
図5のパターンF又は
図5のパターンGの何れかに対応する動作を行う。これにより、操作装置50において動作データが生成される。操作装置50は、動作データを端末10,20,30に送信する。
【0081】
端末10,20,30は、動作データを受信すると、動作データに対応する制御データを生成する。これにより、端末10,20,30の仮想空間Rにおいて、キャラクタCの耳アニメーションEが、「うなずき」、「同意」「賞賛(拍手)」、「質問」、「挙手」又は「驚き」の何れかの動作を行う。このように、ユーザU1,U2,U3による操作装置50の操作により、キャラクタCの耳アニメーションEの動作を操作する。
【0082】
<コミュニケーションの方法>
仮想空間RにおけるキャラクタC同士の会話(対話)方法について説明する。最初に、仮想空間Rについて説明する。仮想空間Rには、複数のキャラクタCが存在し得る。仮想空間Rは、例えばメタバース等である。仮想空間Rには、キャラクタC以外に、様々なオブジェクト等が存在していてもよい。仮想空間Rには、BGMがかかっていてもよいし、アナウンス(ガイダンス)等がかかっていてもよい。キャラクタCの位置に応じて、BGMやアナウンスが変更されてもよい。仮想空間Rでは、様々な活動を行うことができる。活動としては、例えば、講義、講演、研修、会議、報告会、カウンセリング、相談、エンターテイメント、観光等が挙げられる。
【0083】
仮想空間Rにおいて、キャラクタCは、ムービングステージ(物体)Sに配置され得る。すなわち、キャラクタCは、ムービングステージSに乗ることができる。ムービングステージSは、一又は複数のキャラクタCと一体的に表示される。ムービングステージSは、キャラクタCが位置する独立した領域を形成している。独立した領域とは、他と区別し得る領域である。つまり、ある一つのムービングステージS(以下、「第一ムービングステージS」とも称する。)の領域と、それとは異なる他のムービングステージS(以下、「第二ムービングステージS」とも称する。)の領域とは、互いに独立している。これにより、あるキャラクタCは第一ムービングステージSに乗っており、他のキャラクタCは第一ムービングステージSとは異なる第二ムービングステージSに乗っていることが一見して認識できる。なお、独立した領域は、複数の部分を含んでいてもよい。
【0084】
ムービングステージSには、キャラクタCが位置している。ムービングステージSは、仮想空間Rにおいて、移動可能に設けられている。ムービングステージSは、ユーザによって移動方向及び速度が操作され得る。すなわち、ユーザは、任意の位置にムービングステージSを移動させることができる。ムービングステージSに複数のキャラクタCが乗っている場合、ムービングステージSに操縦席を設け、操縦席に位置するキャラクタCのユーザがムービングステージSを優先的に操作できるようにしてもよい。ムービングステージSは、自動操縦によって移動してもよい。この場合、ムービングステージSは、例えば設定されたルートにそって自動で移動してもよいし、設定された目的地まで自動で移動してもよい。また、ユーザは、表示視点を任意に変更することができる。例えば、視点を3D回転させることができる。
【0085】
ムービングステージSには、一又は複数のキャラクタCが配置可能である。ムービングステージSは、配置されるキャラクタCの数に応じて、サイズが変化してもよい。具体的には、ムービングステージSは、例えば、配置されるキャラクタCの数が多くなることに応じてサイズが大きくなり、配置されるキャラクタCの数が少なくなることに応じてサイズが小さくなってもよい。ムービングステージSは、段階的に大きさが変化してもよいし、配置する人数が多くなるにつれて又は人数が少なくなるにつれてサイズが連続的(徐々に)に変化してもよい。なお、ムービングステージSのサイズ、デザイン等は、ユーザが適宜設定することもできる。ムービングステージSには、識別情報、テキスト情報等を設けることができる。
【0086】
続いて、
図6を参照して、キャラクタC1(一又は複数のキャラクタCのうちの任意のキャラクタ)とキャラクタC2(キャラクタC1とは異なる他のキャラクタ)とにおいて会話を開始する方法の一例を説明する。キャラクタC1のユーザは、ユーザU1,U2,U3であり得る。キャラクタC2のユーザは、ユーザU1,U2,U3、AIであり得る。以下では、例えば、キャラクタC1のユーザがユーザU1であり、キャラクタC2のユーザがユーザU2である形態を一例に説明する。
【0087】
図6に示す例では、キャラクタC1がムービングステージSに乗っており、キャラクタC2がムービングステージSに乗っている。
図6に示す状態では、キャラクタC1とキャラクタC2とはコミュニケーションを取ることができない。すなわち、キャラクタC1とキャラクタC2とは、会話をすることができない。
図6に示す状態では、キャラクタC1及びキャラクタC2のそれぞれは、仮想空間Rにおいて流れているBGMやアナウンス等を聞くことはできる。
【0088】
キャラクタC1からキャラクタC2に対して会話を申し込む場合、キャラクタC2において会話が可能であるか否かを確認するための承諾プロセスが実施される。承諾プロセスは、キャラクタC1とキャラクタC2とを関連付ける操作を受け付けた場合に行われる。本実施形態では、キャラクタC1とキャラクタC2とを関連付ける操作は、キャラクタC1をキャラクタC2のムービングステージSにドラッグ・アンド・ドロップする操作である。
【0089】
承諾プロセスでは、
図7に示されるように、キャラクタC1をキャラクタC2のムービングステージSにドラッグ・アンド・ドロップすると、会話承諾のためのメッセージがキャラクタC2のユーザU2に自動で送信される。メッセージには、例えば、「今、お話させていただいて、よろしいでしょうか?」等の内容が含むテキストと、キャラクタC1を特定し得るユーザ情報(例えば、名前、ユーザネーム等)と、が含まれ得る。
【0090】
なお、キャラクタC1をキャラクタC2にドラッグ・アンド・ドロップしてもよいし、キャラクタC1が位置するムービングステージSをキャラクタC2又は当該キャラクタC2が位置するムービングステージSにドラッグ・アンド・ドロップしてもよい。また、
図6に示されるように、キャラクタC1が位置するムービングステージSとキャラクタC2が位置するムービングステージSが離れた状態でキャラクタC1とキャラクタC2とを関連付ける操作を行ってもよいし、
図8に示されるように、キャラクタC1が位置するムービングステージSとキャラクタC2が位置するムービングステージSが近づいた(接触した)状態でキャラクタC1とキャラクタC2とを関連付ける操作を行ってもよい。
【0091】
キャラクタC2に対して会話承諾のメッセージが送信されると、キャラクタC2のユーザU2の画面には、メッセージが表示される。メッセージの表示画面には、上記テキスト及びユーザ情報が表示されると共に、会話を承諾する「OKボタン」及び会話を拒否する「NGボタン」が表示される。キャラクタC2のユーザが「NGボタン」を選択すると、キャラクタC1のユーザU1の画面に、会話が承諾されなかった旨の内容が表示される。表示の一例としては、例えば、「申し訳ございませんが、用事があります」、「〇〇時までは対応できません」、「〇〇時からは対応可能です」等である。NGボタンが選択されたときに送信されるメッセージの内容は、ユーザが適宜設定することができる。キャラクタC2のユーザが「NGボタン」を選択した場合、キャラクタC1をキャラクタC2のムービングステージSにドラッグ・アンド・ドロップした操作は無効になる(無効化される)。
【0092】
キャラクタC2のユーザU2が「OKボタン」を選択すると、
図9に示されるように、キャラクタC1が位置するムービングステージSとキャラクタC2が位置するムービングステージSとが一つに結合される過程のアニメーションが実行され、
図10に示されるように、一つのムービングステージSが表示される。すなわち、キャラクタC1のムービングステージSとキャラクタC2のムービングステージSとが一体化される。ムービングステージSは、位置するキャラクタCの数に応じて、サイズが変化する。具体的には、二つのキャラクタC1,C2が乗るムービングステージSは、キャラクタC1,C2がそれぞれ乗るムービングステージSよりも大きくなる。なお、
図9に示されるアニメーションは実行されなくてもよく、
図6又は
図7に示す状態から
図10に示す状態に遷移してもよい。
【0093】
キャラクタC1及びキャラクタC2は、同じムービングステージSに位置する。キャラクタC1及びキャラクタC2は、一つのムービングステージSに位置する。ムービングステージSでは、キャラクタC1とキャラクタC2とが会話可能である。すなわち、一つの(同一)ムービングステージSに位置する複数のキャラクタC1,C2において、会話を可能とする(会話を成立させる)。ムービングステージSにおけるキャラクタC1とキャラクタC2との会話は、ムービングステージSの外部に位置するキャラクタには聞こえない。ムービングステージSでは、仮想空間Rにおいて流れるアナウンス等は聞こえる。
【0094】
ムービングステージS内における会話の音量は、適宜設定することができる。会話の音量は、ムービングステージSの外部に音がある程度漏れるよう調整することもできる。この場合、音声が全く無い場合に比べて、何か会話をしているといった、自然な雰囲気を生成し易くなる。音声に代えて、音声に連動した、変化音を発信させてもよい。
【0095】
なお、ムービングステージSの外部からキャラクタC1,C2にコンタクトを取る機能を有してしてもよい。例えば、ムービングステージSの外部のユーザが、ムービングステージSに乗るキャラクタC1,C2に対して、音声通話、WEBコミュニケーション(メール、チャット等)を行えるようにしてもよい。例えば、音声通話等は、キャラクタ単位で行うこともできるし、ムービングステージ単位で行うことができる。キャラクタに対して音声通話を行う場合には、当該キャラクタ毎に設定されている番号等に連絡する。ステーションに対して音声通話を行う場合には、ムービングステージ毎に設定されているステージ番号に連絡する。キャラクタC1,C2のユーザは、特定のユーザに対して、ステージ番号を通知することができる。
【0096】
上記形態では、キャラクタC1をキャラクタC2のムービングステージSにドラッグ・アンド・ドロップすると、会話承諾のためのメッセージがキャラクタC2のユーザU2に自動で送信されるが、キャラクタC1のユーザU1が会話対象であるキャラクタC2をクリックすると、会話承諾のためのメッセージがキャラクタC2のユーザU2に自動で送信されてもよい。また、キャラクタC2をクリックすると、機能選択ウィンドウが表示され、機能選択ウィンドウに表示される「承諾メッセージ送信」の機能を選択(クリック)することによって、メッセージがキャラクタC2に送信されてもよい。この場合、キャラクタC2のユーザU2によって会話が承諾された後、キャラクタC1をキャラクタC2のムービングステージSにドラッグ・アンド・ドロップすると、キャラクタC1,C2が乗るムービングステージSが表示される。
【0097】
また、キャラクタC1とキャラクタC2との間において、コミュニケーション(会議予定等)が予め設定されている場合には、承諾プロセスが省略されてもよい。この場合、キャラクタC1をキャラクタC2のムービングステージSにドラッグ・アンド・ドロップすると、キャラクタC1,C2が乗るムービングステージSが表示され、キャラクタC1とキャラクタC2とにおいて会話が可能となる。
【0098】
キャラクタC1とキャラクタC2との会話を終了する場合には、ユーザU1は、会話を終了する操作を行う。本実施形態では、会話を終了する操作は、キャラクタCをムービングステージSの外部にドラッグ・アンド・ドロップする操作である。具体的には、
図11に示されるように、ユーザU1は、例えばキャラクタC1を、ムービングステージSの外部にドロップ・アンド・ドラッグする。これにより、ムービングステージSが新たに表示され、ムービングステージSにキャラクタC1が位置する(
図6参照)。この状態では、キャラクタC1とキャラクタC2とはコミュニケーションを取ることができない。すなわち、キャラクタC1とキャラクタC2とは、会話をすることができない。以上により、キャラクタC1とキャラクタC2との会話が終了する。
【0099】
また、キャラクタC1とキャラクタC2との会話は、予め設定された時間に基づいて、自動で終了してもよい。予め設定された時間は、任意に設定される時刻であってもよいし、タイマーで設定された時間であってもよい。予め設定された時間となった場合、
図11に示されている状態から、
図6に示される状態に自動で遷移する。すなわち、二つのムービングステージSが表示され、二つのムービングステージSのそれぞれにキャラクタC1,C2が位置する。或いは、キャラクタC1,C2が集合場所(複数のキャラクタCが集合するムービングステージSであってもよいし、仮想空間Rの任意の場所であってもよい)に自動で移動する。これにより、キャラクタC1とキャラクタC2との会話が終了する。また、キャラクタC1とキャラクタC2との会話は、管理者(仮想空間Rの管理者)によって終了されてもよい。この場合においても、
図11に示されている状態から、
図6に示される状態に自動で遷移してもよいし、キャラクタC1,C2が集合場所に自動で移動してもよい。
【0100】
続いて、ムービングステージSに複数のキャラクタCが乗っている場合において、複数のキャラクタCが一緒に会話を申し込む場合について説明する。
図12に示す例では、ある一つのムービングステージSにキャラクタC1,C2,C3,C4が乗っており、そのムービングステージSとは異なる他のムービングステージSにキャラクタC5,C6が乗っている。キャラクタC1,C2,C3,C4は、グループ1を構成している。キャラクタC5,C6は、グループ2を構成している。以下では、グループ2からグループ1に会話を申し込む場合について説明する。
【0101】
グループ1及びグループ2のそれぞれでは、管理者が設定されている。管理者は、グループの会話に係る制御を一括して行う権限を有する。管理者は、ムービングステージSを操作する権限を有する。管理者は、一又は複数のユーザに設定することができる。ここでは、グループ1の管理者がキャラクタC1であり、グループ2の管理者がキャラクタC5である形態を一例に説明する。
【0102】
グループ2からグループ1に対して会話を申し込む場合、グループ1において会話が可能であるか否かを確認するための承諾プロセスが実施される。承諾プロセスでは、管理者であるキャラクタC5をグループ1のムービングステージSにドラッグ・アンド・ドロップすると、会話承諾のためのメッセージがグループ1の管理者であるキャラクタC1のユーザに自動で送信される。
【0103】
キャラクタC1のユーザが「NGボタン」を選択すると、キャラクタC5のユーザの画面に、会話が承諾されなかった旨の内容が表示される。キャラクタC1のユーザが「OKボタン」を選択すると、
図13に示されるように、一つのムービングステージSが表示される。すなわち、グループ1のムービングステージSとグループ2のムービングステージSとが一体化される。
【0104】
キャラクタC1,C2,C3,C4,C5,C6は、同じムービングステージSに位置する。キャラクタC1,C2,C3,C4,C5,C6は、一つのムービングステージSに位置する。ムービングステージSでは、キャラクタC1,C2,C3,C4,C5,C6において会話可能である。すなわち、一つのムービングステージSに位置する複数のキャラクタC1,C2,C3,C4,C5,C6において、会話を可能とする(会話を成立させる)。ムービングステージSでは、キャラクタC1,C2,C3,C4,C5,C6の全員で会話することもできるし、個々のキャラクタC1,C2,C3,C4,C5,C6同士(例えば、キャラクタC1とキャラクタC2、キャラクタC3とキャラクタC4、キャラクタC5とキャラクタC6)で会話することもできる。
【0105】
続いて、グループにおいて会話を終了する場合について説明する。グループ単位で会話を終了させる場合には、例えば、グループ1の管理者であるキャラクタC1のユーザは、
図13に示されるように、グループ1の構成員であるキャラクタC1,C2,C3,C4を含むようにキャラクタC1,C2,C3,C4を囲う。これにより、キャラクタC1,C2,C3,C4が例えば破線によって囲われる。キャラクタC1のユーザは、破線によって囲われた部分を、ムービングステージSの外部にドロップ・アンド・ドラッグする。これにより、ムービングステージSが新たに表示され、ムービングステージSにグループ1のキャラクタC1,C2,C3,C4が位置する。すなわち、
図12に示されるように、キャラクタC1,C2,C3,C4がある一つのムービングステージSに乗り、キャラクタC5,C6がそのムービングステージSとは異なる他のムービングステージSに乗る。以上により、グループ1とグループ2との会話が終了する。
【0106】
なお、グループ1の構成員の指定は、上記方法に限らず、キャラクタC1,C2,C3,C4をクリックして選択することによって行われてもよいし、所定の画面においてキャラクタC1,C2,C3,C4を特定し得る情報を入力することによって行われてもよい。
【0107】
図13に示される状態において、キャラクタ単位で会話を終了させる場合には、例えば、キャラクタC1のユーザは、キャラクタC1をムービングステージSの外部にドロップ・アンド・ドラッグする。これにより、ムービングステージSが新たに表示され、ある一つのムービングステージSにキャラクタC1が位置し、そのムービングステージSとは異なる他のムービングステージSにキャラクタC2,C3,C4,C5,C6が位置する。この状態では、キャラクタC1とキャラクタC2,C3,C4,C5,C6とはコミュニケーションを取ることができない。すなわち、キャラクタC1とキャラクタC2,C3,C4,C5,C6とは、会話をすることができない。以上により、会話が終了する。
【0108】
なお、上述の場合と同様に、グループ1とグループ2との会話は、予め設定された時間に基づいて自動で終了してもよいし、管理者によって終了されてもよい。
【0109】
図14に示されるように、ムービングステージSには、カバーCVを設定することができる。カバーCVは、ムービングステージSにおいて、例えばキャラクタC1,C2を覆うように設けられる。カバーCVは、ムービングステージSのサイズに応じてサイズが変化し得る。カバーCVは、例えば、半球状を呈している。カバーCVは、透明であってもよいし、半透明であってもいし、透過性を有していなくてもよい。
図14に示す例では、カバーCVは、透明である。
【0110】
カバーCVは、ムービングステージSにおける会話に係る情報である。カバーCVは、会話への参加に係る状況を外部に周知する機能を有している。会話に係る情報とは、会話への参加の可否を示す情報、会話への参加の可能度合いを示す情報等である。本実施形態では、会話に係る情報は、会話への参加の可否を示す情報である。本実施形態では、カバーCVが表示されている場合、基本的には、会話への参加ができないことを示している。カバーCVの透過度や色等によって、ムービングステージSの周囲のユーザに対して、ムービングステージSにおける会話への参加の可否(ムービングステージS内の状態)の程度を周知することができる。例えば、カバーCVが透明である場合、会話の申請によって、会話へ参加することができることを示すことができる。カバーCVが透過性を有していない場合(不透明である場合)、外部からの会話への参加を拒絶(拒否)していることを明確に示すことができる。また、カバーCVが透過性の度合い(透明、半透明、不透明等)によって、会話への参加の可能度合いを段階的に示すことができる。
【0111】
カバーCVは、ユーザによって表示・非表示を設定することができる。
図14に示されるように、ムービングステージSに複数のキャラクタC1,C2が乗っている場合には、管理者として設定されているユーザがカバーCVの表示・非表示を設定してもよい。カバーCVは、許可されたユーザのみが会話に参加できることを示している。カバーCVが表示されている場合、
図12に示されるように、キャラクタCのユーザがキャラクタC3をキャラクタC1,C2のムービングステージSにドラッグ・アンド・ドロップしたとしても、ドラッグ・アンド・ドロップが拒否される。
【0112】
ムービングステージSにカバーCVが設定されている場合、カバーCV内のキャラクタC1,C2にコンタクトを取ることが可能であってもよい。例えば、ムービングステージSにおいて会議が行われている場合、会議に遅れて参加するキャラクタCのユーザは、ムービングステージSに乗っているユーザ又はグループ全体に対して、音声通話やWEBコミュニケーションを行うことができる。これにより、ムービングステージSに乗っているキャラクタC1,C2のユーザによってカバーCVが一時的に非表示とされ、例えば、キャラクタC3をムービングステージSにドラッグ・アンド・ドロップすることが可能となる。なお、カバーCVが不透明である場合には、外部からのコンタクトを拒否するように設定することもできる。
【0113】
また、カバーCVの表示・非表示(カバーCVの有無)によって、承諾プロセスの要否を設定してもよい。具体的には、カバーCVを表示している場合には、承諾プロセスを必要とし、カバーCVが非表示である場合には、承諾プロセスを不要とする設定を行うことができる。
【0114】
また、
図15に示されるように、ムービングステージSに表示機能を有する物体、例えばプロジェクターボードPBが設けられている場合において、カバーCVが非表示の場合には、プロジェクターボードPBに表示されているテキスト、画像等をムービングステージSの外部から視認可能とし、
図16に示されるように、カバーCVが表示されている場合には、プロジェクターボードPBに表示されているテキスト等をムービングステージSの外部から視認不可としてもよい。
図16に示す例では、カバーCVは透明であり、ムービングステージSに位置するキャラクタCは外部から視認することができるが、プロジェクターボードPBに表示されているテキスト等は視認できないように(非表示)なっている。この場合、カバーCVを表示している場合において、ムービングステージSに位置しているキャラクタCを外部から確認することができ、プロジェクターボードPBの表示内容は外部から確認することができないようにすることができる。これにより、例えば、ムービングステージSにおいて会議が行われている場合、会議の参加者や状況を外部から確認することができるが、会議の内容を外部から確認できないようにすることができる。
【0115】
なお、カバーCVが表示されている場合におけるプロジェクターボードPBは、非表示であってもよいし、表示にぼかし等が施されていてもよい。要は、プロジェクターボードPBに表示されている内容が、ムービングステージSが外部から認識(理解)できないようになっていればよい。
【0116】
[効果]
以上説明したように、本実施形態に係るシステム100では、複数のキャラクタCが一つのムービングステージSに位置する場合に、キャラクタC同士の会話が可能となる。すなわち、一つのムービングステージSに位置しているキャラクタC同士において、会話が成立する。そのため、どのキャラクタC同士が会話しているのかを、一見して把握することができる。言い換えれば、どのキャラクタCが会話していないのかを、一見して把握することができる。このように、システム100では、コミュニケーションの状態を視覚化できる。そのため、システム100では、例えば、コミュニケーションが行われてない場合には、キャラクタCに対して雑談を持ち掛けたりすることができる。したがって、システム100では、雑談等を自然に生成させることができる。その結果、システム100では、仮想空間Rにおいて、キャラクタC同士のコミュニケーションを容易に生成させることができる。
【0117】
本実施形態に係るシステム100では、一又は複数のキャラクタCのうちの任意のキャラクタC又は当該キャラクタCが位置するムービングステージSを、他のキャラクタC又は当該キャラクタCが位置するムービングステージSにドラッグ・アンド・ドロップする操作を受け付けた場合、任意のキャラクタCが位置していたムービングステージSと他のキャラクタCが位置していたムービングステージSとを一体化させ、任意のキャラクタC及び他のキャラクタCを一体化された一つのムービングステージSに位置させる。この構成では、ドラッグ・アンド・ドロップするという簡単な操作によって複数のキャラクタCを一つのムービングステージSに位置させることができる。また、ムービングステージSを一体化させることによって、会話の一体感が向上する。さらに、ドラッグ・アンド・ドロップという参加移行過程を設けることで、キャラクタCを操作するユーザの心の準備ができるため、より自然感覚に近くすることができる。
【0118】
本実施形態に係るシステム100では、上記ドラッグ・アンド・ドロップする操作を受け付けた場合、他のキャラクタCのユーザに対して、会話を許可するか否かを選択する画面を表示させ、他のキャラクタCのユーザが会話を許可した場合、任意のキャラクタCが位置していたムービングステージSと他のキャラクタCが位置していたムービングステージSとを一体化させて、任意のキャラクタC及び他のキャラクタCを一体化された一つのムービングステージSに位置させ、他のキャラクタCのユーザが会話を拒否した場合、上記ドラッグ・アンド・ドロップの操作を無効にする。この構成では、キャラクタCのユーザが、会話の可否を選択することができる。
【0119】
以上、本開示の実施形態について説明してきたが、本開示は必ずしも上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で様々な変更が可能である。
【0120】
上記実施形態では、耳アニメーションEを、「うなずき」、「同意」、「賞賛(拍手)」、「質問」、「挙手」又は「驚き」の何れかで動作させる形態を一例に説明した。しかし、ユーザの動作に応じた耳アニメーションEの動作はこれに限定されない。耳アニメーションEの動作は、他の動作であってもよいし、更に他の動作を含んでいてもよい。耳アニメーションEの折れ曲がり角度や速さは、適宜設定(変更)することができる。これにより、機微な感情を表出ができると共に、その感情表出の強度の調整(強め、弱め)もできる。耳アニメーションEにおいて、動作の強度を強めに設定した場合、例えば、感情表現の苦手な人の非言語情報表出を、耳アニメーションEの動作の内容、強度、速度表出で支援できる。また、非言語情報表現の異なる文化間のコミュニケーションに対しても、ユーザU1,U2,U3の文化に対応して、動作形態を変換する設定もできる。
【0121】
上記実施形態では、操作装置50によってユーザU1,U2,U3の手H又は指Fの動作を検出する形態を一例に説明した。しかし、ユーザU1,U2,U3の手H又は指Fは、画像センサ(カメラ、レーザ等)によって検出してもよい。
【0122】
また、耳アニメーションEの動作は、基本的にはユーザU1,U2、U3の操作に基づいて実行されるが、ユーザU1,U2,U3の表情(カメラによる顔認識)、ユーザU1,U2,U3の音声、AI(Artificial Intelligence:人工知能)による表出制御等を組み合わせてもよい。耳アニメーションEの動作は、画面に表示される操作ウィンドウにおいて、キャラクタCの動作を選択することによって制御されてもよい。
【0123】
上記実施形態において、操作装置は、加速度及び角速度を検出できるものであればよい。操作装置は、例えば、耳アニメーションEを表示するディスプレイ(表示部)を有する携帯電話機(スマートフォン等)であってもよい。携帯電話機である場合、操作装置50と同様に携帯電話機を操作することによって、動作データが生成される。
【0124】
上記実施形態では、端末10、端末20及び端末30において制御データを生成する形態を一例に説明した。しかし、制御データは、サーバ40によって生成されてもよい。この構成では、端末10、端末20及び端末30は、動作データをサーバ40に送信し、サーバ40は、動作データに基づいて、制御データを生成する。
【0125】
上記実施形態では、端末10,20,30にボディB及び耳アニメーションE等が表示される形態を一例に説明した。しかし、端末がウェアラブル端末、ヘッドマウントディスプレイ(HMD)端末である場合には、ボディB及び耳アニメーションE等がレンズ等に表示されてもよいし、ホログラムで表示されてもよい。すなわち、サイバー空間において、キャラクタCを表示させる。サイバー空間には、VR(Virtual Reality:仮想現実)、AR(Augmented Reality:拡張現実)、MR(Mixed Reality:混合現実)が含まれ得る。
【0126】
上記実施形態では、仮想空間Rにおいて、耳アニメーションEを有するキャラクタCを用いる形態を一例に説明した。しかし、キャラクタの形態はこれに限定されない。キャラクタは、アバターであってもよい。アバターは、顔表情を含んでいてもよいし、顔表情を含んでいなくてもよい。アバターが耳アニメーションEを有していてもよい。
【0127】
キャラクタCは、変形してもよい。例えば、キャラクタCのボディBには、表示部等が表示されてもよい。表示部には、キャラクタCの音声をテキスト化した会話テキスト、会話テキストの翻訳文、及び、表示部の表示内容の翻訳文等が表示されてもよい。また、表示部には、キャラクタCの音声及びテキスト入力の少なくとも一方に基づくAIの使用によって、必要な図、文章、音楽、動画、静止画及びサイトの少なくとも一つが表示されてもよい。
【0128】
上記実施形態では、キャラクタCがムービングステージSに乗っている形態を一例に説明した。しかし、キャラクタCが位置する領域を形成する物体は、ムービングステージSに限定されない。例えば、キャラクタCが位置する領域を形成する物体は、単純な円板、空飛ぶ絨毯、宇宙船、飛行船、大型バス、空飛ぶ教室のようなものであってもよい。
【0129】
また、物体は、キャラクタCを囲うバンド状のものであってもよい。この場合、キャラクタCが物体に位置するとは、バンド状の物体内にキャラクタCが位置することを意味する。
【0130】
上記実施形態では、操作装置50の操作によってキャラクタCが動作する形態を一例に説明した。しかし、キャラクタCの動作は、他の方法によって操作されてもよい。例えば、ユーザU1,U2,U3の状態を取得して、当該状態に基づいて制御されてもよい。
【0131】
上記実施形態では、キャラクタC1とキャラクタC2とを関連付ける操作が、キャラクタC1をキャラクタC2のムービングステージSにドラッグ・アンド・ドロップする操作である形態を一例に説明した。しかし、キャラクタC同士を関連付ける操作は、ドラッグ・アンド・ドロップに限定されない。例えば、キャラクタC1とキャラクタC2とを関連付ける場合、関連付ける操作は、キャラクタC1のユーザがキャラクタC2を選択(クリック等)する操作であってもよし、キャラクタC1のユーザが所定の選択画面においてキャラクタC2を選択する操作であってもよいし、キャラクタC1のユーザがキャラクタC2を特定する情報等を入力する操作であってもよい。要は、関連付ける操作は、キャラクタC1のユーザが会話相手(対象)であるキャラクタC2を特定し得る操作であればよい。
【0132】
上記実施形態では、承諾プロセスにおいて、会話相手であるキャラクタCに対して会話承諾のメッセージが送信されると、当該キャラクタCのユーザの画面にメッセージが表示され、メッセージ画面において会話を許可するか否かを選択する形態を一例に説明した。しかし、会話を許可するか否かの選択は、ユーザの音声(「許可する」、「OK」「許可しない」、「NG」等)によって行われてもよい。
【0133】
上記実施形態では、キャラクタC同士における会話を終了する操作が、キャラクタCをムービングステージSの外部にドラッグ・アンド・ドロップする操作である形態を一例に説明した。しかし、会話を終了する操作は、ドラッグ・アンド・ドロップに限定されない。例えば、会話を終了する操作は、所定の画面(メニュー画面等)において会話を終了する項目を選択する操作であってもよいし、キャラクタCの一部に表示される「×」マークをクリックする操作であってもよい。要は、会話を終了する操作は、会話を終了するキャラクタのユーザが会話終了の意思を示す操作であればよい。
【0134】
上記実施形態では、カバーCVが半球状を呈している形態を一例に説明した。しかし、カバーCVの形状はこれに限定されない。また、ムービングステージSにおける会話への参加に係る情報として、カバーCVを一例に説明した。しかし、ムービングステージSにおける会話への参加に係る情報はこれに限定されない。
【0135】
例えば、会話への参加に係る情報は、
図17のパターンAに示されるように、キャラクタCの上方に表示される雲CLであってもよいし、
図17のパターンBに示されるように、ムービングステージSの周縁に配置される壁状の部材WLであってもよい。当該部材WLは、透明であってもよいし、不透明であってもよい。また、会話への参加に係る情報は、
図18のパターンAに示されるように、一又は複数の木TRによって構成される植栽のようなものであってもよい。また、会話への参加に係る情報は、キャラクタCの上方に表示される動物(鳥等)であってもよいし、カーテンのようなものであってもよし、霧のようなものであってもよい。
【0136】
図18のパターンBに示されるように、ムービングステージSに表示される「XYZ」等の特定の集団を示す情報であってもよい。この場合、「XYZ」の表示によって、「XYZ」に関係するユーザ以外のユーザの参加は拒否する(参加を遠慮してもらう)ことを外部に示唆することができる。また、「XYZ」に関係するユーザである場合、すなわちユーザの属性情報において「XYZ」に係る情報が設定されている場合には、会話への参加を許可するようにしてもよい。言い換えれば、ユーザの属性情報において「XYZ」に係る情報が設定されていない場合には、会話への参加を却下するようにしてもよい。ユーザの属性情報において「XYZ」に係る情報が設定されていない場合であっても、ムービングステージSに位置するキャラクタCに許可された場合には、会話への参加が許可されるようにしてもよい。
【0137】
上記実施形態では、任意のキャラクタC又は当該キャラクタCが位置するムービングステージSを、他のキャラクタC又は当該キャラクタCが位置するムービングステージSにドラッグ・アンド・ドロップする操作を受け付けた場合、任意のキャラクタCが位置していたムービングステージSと他のキャラクタCが位置していたムービングステージSとを一体化させ、任意のキャラクタC及び他のキャラクタCを一体化された一つのムービングステージSに位置させる形態を一例に説明した。しかし、任意のキャラクタC及び他のキャラクタCを一つのムービングステージSに位置させる処理は、自動で行われてもよい。
【0138】
図19を参照して、キャラクタCが自動で会話を開始する方法の一例を説明する。
図19に示す例では、仮想空間Rにおいて、キャラクタC1、キャラクタC2、キャラクタC3、キャラクタC4、キャラクタC5及びキャラクタC6のそれぞれが、ムービングステージSに乗っている。キャラクタC1、キャラクタC2、キャラクタC3、キャラクタC4、キャラクタC5及びキャラクタC6のユーザは、ユーザU1,U2,U3であり得る。キャラクタC1、キャラクタC2、キャラクタC3、キャラクタC4、キャラクタC5及びキャラクタC6のうちの少なくとも一つは、AIがユーザであってもよい。
【0139】
仮想空間Rは、複数のキャラクタが集まって会話する会(会議、研修会、交流会、懇親会等)等に用いられる。仮想空間Rにおけるキャラクタ同士の会話は、管理者によって管理される。管理者は、会の開催時間、一回の会話時間、会話人数等を設定し得る。一回の会話時間は、例えば、3~4分に設定され得る。会話人数は、限定されないが、例えば、二人に設定され得る。
【0140】
仮想空間Rには、例えば、管理者によって参加が許可されたキャラクタC1、キャラクタC2、キャラクタC3、キャラクタC4、キャラクタC5及びキャラクタC6が存在し得る。キャラクタC1~C6のユーザは、例えば、予め管理者に参加を申し込み、管理者から参加が許可された場合、管理者から送信される参加に係るURL等を受け取る。キャラクタC1~C6のユーザが所定の日時にURLから参加することによって、仮想空間Rに入ることができる。
【0141】
図19に示される状況(会話が開始される前)において、管理者によって、会話の進め方等のレクチャーが行われてもよい。例えば、会話時間等の概要の説明が行われる。また、管理者によって、会話の行い方についてレクチャーが行われてもよい。例えば、最初に名前等の自己紹介、次にテーマについて話す等といった、会話の行い方の説明が行われ得る。また、会話を行う際における話の聞き方(例えば、言葉を繰り返しながら、うなずいたり、驚いたり、賞賛しながら聞く等)について、説明が行われ得る。管理者によるレクチャーの際、キャラクタC1~C6のユーザからの質問等が受け付けられてもよい。
【0142】
管理者によって会話を開始する操作が行われると、
図20に示されるように、二つのキャラクタが一つのムービングステージSに自動的に位置する。すなわち、二つのキャラクタが自動的にマッチングされる。
図20に示す例では、キャラクタC1とキャラクタC3とが同じムービングステージSに位置し、キャラクタC2とキャラクタC5とが同じムービングステージSに位置し、キャラクタC4とキャラクタC6とが同じムービングステージSに位置している。ムービングステージSに位置するキャラクタは、管理者によって選択されてもよいし、ランダムに選択されてもよい。ムービングステージSに位置するキャラクタは、過去にマッチングされたキャラクタとマッチングしないように設定されることが好ましい。すなわち、マッチング相手が毎回異なるキャラクタとなるように設定されることが好ましい。
【0143】
仮想空間Rには、キャラクタC7が存在していてもよい。キャラクタC7は、例えば、ファシリテーターのユーザによって操作される。キャラクタC7のユーザは、管理者であってもよい。
【0144】
ムービングステージSにおけるキャラクタC1とキャラクタC3との会話、キャラクタC2とキャラクタC5との会話、キャラクタC4とキャラクタC6との会話は、ムービングステージSの外部に位置するキャラクタには聞こえない。各ムービングステージSでは、キャラクタC7のアナウンス等は聞こえる。キャラクタC7のユーザは、全てのムービングステージSの会話を聞くことができてもよい。すなわち、キャラクタC7のユーザは、全てのムービングステージSをモニターできるようにしてもよい。また、キャラクタC7のユーザは、全てのムービングステージSの会話等を録画(録音)できるようにしてもよい。
【0145】
図20に示されるように、ムービングステージSには、プロジェクターボード(表示部)PBが設けられてもよい。プロジェクターボードPBには、話のテーマ(会話内容に係る情報)等が表示されてもよい。プロジェクターボードPBには、例えば、好きな食べ物、好きな場所、やりたいこと、好きな活動(趣味)、欲しい物等が表示されてもよい。また、プロジェクターボードPBには、キャラクタの会話の翻訳文が表示されてもよい。なお、プロジェクターボードPBが設けられない場合には、話のテーマ等がアナウンスされてもよい。また、ムービングステージSには、時計、タイマー等が表示されてもよい。タイマーの場合、会話の残り時間が表示される。また、残り時間が所定時間(例えば、10秒前)となった場合、アラームが鳴るようにしてもよい。
【0146】
図21に示されるように、例えば、キャラクタC1のユーザ及びキャラクタC3のユーザの表示画面には、キャラクタC1及びキャラクタC3の位置するムービングステージSのみが表示されてもよい。ユーザは、画面の表示を切り替えることができる。ユーザは、所定の操作を行うことによって、
図20に示されるように、全てのキャラクタC1~C7(ムービングステージS)が表示される画面(全体画面)を表示させることもできるし、
図21に示されるように、自身と相手のキャラクタのみが表示される画面(個別画面)を表示させることもできる。
【0147】
キャラクタC1~C6は、会話相手に対して、
図22に示されるようなカードCDを渡すことができる。キャラクタC1~C6のユーザが所定の操作(例えば、操作画面においてカード送信項目の選択等)を行うことによって、カードCDを会話相手に渡すことができる。カードCDは、キャラクタC1~C6のユーザによって予め作成される。
【0148】
カードCDには、キャラクタのユーザを識別可能な情報が少なくとも含まれている。カードCDには、例えば、キャラクタが表示されている。キャラクタには、例えば、テキストを表示可能である。テキストとしては、名前、ニックネーム、識別情報等を表示できる。キャラクタには、顔写真等が表示されてもよい。また、カードCDの表示領域DAには、画像Pを表示することができる。表示領域DAには、メッセージを表示したり、音楽を埋め込んだり、映像を表示したりすることもできる。受け取ったカードCDは、自動的に保存される。保存されたカードCDは、閲覧が可能である。カードCDをクリックすることによって、カードCDのユーザとコンタクトを取れる(メッセージ作成画面が表示される)ようにしてもよい。
【0149】
図20に示す状態において会話が開始されてから所定時間が経過すると、一度、
図19に示される状態に自動的に戻り、その後、
図23に示されるように、会話相手が自動で変更される。すなわち、複数のキャラクタが一つのムービングステージSに位置している状態(
図20に示す状態)において、所定時間が経過した場合、ムービングステージSを新たに表示させると共に会話を終了させたキャラクタを新たに表示されたムービングステージSに位置させる(
図19に示す状態)。その後、
図23に示されるように、新たに、二つのキャラクタを一つのムービングステージSに自動的に位置させる。
【0150】
図23に示される例では、キャラクタC3とキャラクタC5とが同じムービングステージSに位置し、キャラクタC1とキャラクタC6とが同じムービングステージSに位置し、キャラクタC2とキャラクタC4とが同じムービングステージSに位置している。すなわち、前回とは異なるキャラクタとマッチングされる。
【0151】
図23に示される状態において、会話が開始されてから所定時間が経過すると、上記と同様に、一度、
図19に示される状態に自動的に戻り、その後、会話相手が自動で変更される。この処理は、管理者によって設定された時間(例えば、30分)内において、複数回行われる。管理者によって設定された時間になると、
図19に示される状態に戻る。
【0152】
以上の構成では、任意のキャラクタが位置していたムービングステージSと他のキャラクタが位置していたムービングステージSとを自動で一体化させ、任意のキャラクタ及び他のキャラクタを一体化された一つのムービングステージSに位置させる。この構成では、複数のキャラクタを自動で一つのムービングステージSに位置させることができる。すなわち、キャラクタを自動でマッチングさせることができる。これにより、特定のキャラクタ(ユーザ)とのコミュニケーションだけではなく、新しいキャラクタとのコミュニケーションを図ることができる。そのため、これまでコミュニケーションが無かったユーザの新しい人柄に触れることによって、親近感が向上し得る。したがって、その後のコミュニケーションが取り易くなり、心理学的安全性が向上して、創造性、生産性等の向上が期待できる。
【0153】
また、複数のキャラクタが一つのムービングステージSに位置している状態において、所定時間が経過した場合、ムービングステージSを新たに表示させると共に会話を終了させた一又は複数のキャラクタを新たに表示されたムービングステージSに位置させる。この構成では、所定時間が経過すると、会話が強制的に終了される。このように、コミュニケーションの時間が制限されるため、同じキャラクタとのコミュニケーションが長引かない。そのため、多くのキャラクタとのコミュニケーションが可能となる。
【0154】
また、複数のキャラクタが位置する一つのムービングステージSにおいて、会話内容に係る情報を表示するプロジェクターボードPBを表示させる。この構成では、プロジェクターボードPBにおいて、会話の話題が表示(提供)されるため、限られた時間内において、コミュニケーションを円滑且つ効率的に行うことができる。そのため、キャラクタのユーザの人柄に触れる会話を効率的に行うことができる。
【0155】
また、複数のキャラクタが位置する一つのムービングステージSにおいて、所定時間に係る情報を表示させてもよい。この構成では、例えば、所定時間の残り時間等を確認することができるため、時間配分(終了時間)を考慮してコミュニケーションを行うことができる。
【0156】
また、仮想空間Rにおいて、ファシリテーターのユーザによって操作されるキャラクタを表示させてもよい。この構成では、多くのユーザが参加する会(例えば、研修会、情報交流会、懇親会等)に適用される場合、ファシリテーターによって会が進行されるため、会をスムーズに進めることが可能となる。
【0157】
また、複数のキャラクタが一つのムービングステージSに位置している状態において、キャラクタのユーザを識別可能な情報を少なくとも含むカードCDの交換が可能である。この構成では、会話の終了後に、会話を行ったキャラクタ(ユーザ)を確認することができる。
【0158】
なお、上記形態では、一つのムービングステージSに二つのキャラクタが位置する形態を一例に説明したが、一つのムービングステージSに位置するキャラクタは、三以上であってもよい。キャラクタの数は、管理者によって適宜設定され得る。
【符号の説明】
【0159】
10…端末、11…入力部、12…制御部、13…記憶部、13P…端末プログラム、14…通信部、15…出力部、20…端末、30…端末、40…サーバ、42…制御部、43…記憶部、43P…サーバプログラム、43S…受信データ、44…通信部、50…操作装置、51A…操作面、52…通信部、53…入力部、54…制御部、55…バッテリ、100…システム、AP…アクセスポイント、B…ボディ、BS…基地局、C…キャラクタ、C1…キャラクタ(任意のキャラクタ)、C2…キャラクタ(他のキャラクタ)、C3…キャラクタ、C4…キャラクタ、C5…キャラクタ、C6…キャラクタ、C7…キャラクタ、CD…カード、CL…雲、CV…カバー、DA…表示領域、E…耳アニメーション、F…指、H…手、N…ネットワーク、P…画像、PB…プロジェクターボード、R…仮想空間、S…ムービングステージ,第一ムービングステージ,第二ムービングステージ、TR…木、U1…ユーザ、U2…ユーザ、U3…ユーザ、WL…部材。
【要約】
コミュニケーション支援プログラムは、仮想空間における複数のキャラクタのコミュニケーションを支援するコミュニケーション支援プログラムであって、一又は複数のキャラクタが位置する物体を、一又は複数のキャラクタと一体的に表示させ、一つの物体に位置する複数のキャラクタにおいて、キャラクタ同士の会話を可能とする。