IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ グリー株式会社の特許一覧

特許7687739コンピュータプログラム、サーバ装置、端末装置、及び方法
<>
  • 特許-コンピュータプログラム、サーバ装置、端末装置、及び方法 図1
  • 特許-コンピュータプログラム、サーバ装置、端末装置、及び方法 図2
  • 特許-コンピュータプログラム、サーバ装置、端末装置、及び方法 図3
  • 特許-コンピュータプログラム、サーバ装置、端末装置、及び方法 図4
  • 特許-コンピュータプログラム、サーバ装置、端末装置、及び方法 図5
  • 特許-コンピュータプログラム、サーバ装置、端末装置、及び方法 図6
  • 特許-コンピュータプログラム、サーバ装置、端末装置、及び方法 図7
  • 特許-コンピュータプログラム、サーバ装置、端末装置、及び方法 図8
  • 特許-コンピュータプログラム、サーバ装置、端末装置、及び方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-05-26
(45)【発行日】2025-06-03
(54)【発明の名称】コンピュータプログラム、サーバ装置、端末装置、及び方法
(51)【国際特許分類】
   G06T 13/40 20110101AFI20250527BHJP
   G06F 3/01 20060101ALI20250527BHJP
【FI】
G06T13/40
G06F3/01 570
【請求項の数】 10
(21)【出願番号】P 2024029409
(22)【出願日】2024-02-29
(62)【分割の表示】P 2020093438の分割
【原出願日】2020-05-28
(65)【公開番号】P2024063117
(43)【公開日】2024-05-10
【審査請求日】2024-02-29
(73)【特許権者】
【識別番号】504437801
【氏名又は名称】グリーホールディングス株式会社
(74)【代理人】
【識別番号】230104019
【弁護士】
【氏名又は名称】大野 聖二
(74)【代理人】
【識別番号】230112025
【弁護士】
【氏名又は名称】小林 英了
(74)【代理人】
【識別番号】230117802
【弁護士】
【氏名又は名称】大野 浩之
(74)【代理人】
【識別番号】100167933
【弁理士】
【氏名又は名称】松野 知紘
(72)【発明者】
【氏名】渡邊 匡志
【審査官】三沢 岳志
(56)【参考文献】
【文献】特開2018-092635(JP,A)
【文献】特許第6644928(JP,B1)
【文献】特許第6580748(JP,B1)
【文献】特開2020-042357(JP,A)
【文献】特開2020-017244(JP,A)
【文献】中国特許出願公開第108986192(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 13/40
G06F 3/01
(57)【特許請求の範囲】
【請求項1】
コンピュータを、
仮想空間で動作するアバターと対応する演者の現実空間での動作を取得する第1手段と、
前記演者の現実空間での動作が1以上の条件のいずれかを充足するか否かを判定する第2手段と、
(1)前記1以上の条件のいずれも充足しない場合には、仮想空間における前記アバターの動作を、前記第1手段によって取得された前記演者の現実空間での動作に対応したものとし、(2)前記1以上の条件のうちのある条件を充足する場合には、仮想空間における前記アバターの動作を、前記ある条件に関連付けられた動作とし、所定期間経過後に、前記演者の現実空間における動作に対応したものとする第3手段と、として機能させるプログラム。
【請求項2】
前記アバターの動作は、前記アバターの表情またはポーズである、請求項1に記載のプログラム。
【請求項3】
前記1以上の条件のそれぞれには、予め動作が関連付けられている、請求項1または2に記載のプログラム。
【請求項4】
前記1以上の条件は、少なくとも第1条件および第2条件を含み、
前記第1条件に関連付けられた動作と、前記第2条件に関連付けられた動作と、は異なる、請求項1乃至3のいずれかに記載のプログラム。
【請求項5】
前記演者の現実空間での動作は、モーションセンサで検知され、前記第1手段によって取得される、請求項1乃至4のいずれかに記載のプログラム。
【請求項6】
前記ある条件に関連付けられた動作は、前記第1手段によって取得された前記演者の現実空間での動作に対応した動作とは異なる、請求項1乃至5のいずれかに記載のプログラム。
【請求項7】
前記1以上の条件のうちの1つは、配信者が臭う又は匂う所定のジェスチャーをしたことである、請求項1乃至6のいずれかに記載のプログラム。
【請求項8】
前記1以上の条件のうちの1つは、現実空間に存在する所定の対象に対して所定の動作をしたことであり、
この条件に関連付けられた動作は、仮想空間において前記所定の対象に対応するアイテムを生成することである、請求項1乃至6のいずれかに記載のプログラム。
【請求項9】
仮想空間で動作するアバターと対応する演者の現実空間での動作を取得する第1手段と、
前記演者の現実空間での動作が1以上の条件のいずれかを充足するか否かを判定する第2手段と、
(1)前記1以上の条件のいずれも充足しない場合には、仮想空間における前記アバターの動作を、前記第1手段によって取得された前記演者の現実空間での動作に対応したものとし、(2)前記1以上の条件のうちのある条件を充足する場合には、仮想空間における前記アバターの動作を、前記ある条件に関連付けられた動作とし、所定期間経過後に、前記演者の現実空間における動作に対応したものとする第3手段と、を備える情報処理装置。
【請求項10】
第1手段が、仮想空間で動作するアバターと対応する演者の現実空間での動作を取得するステップと、
第2手段が、前記演者の現実空間での動作が1以上の条件のいずれかを充足するか否かを判定するステップと、
第3手段が、(1)前記1以上の条件のいずれも充足しない場合には、仮想空間における前記アバターの動作を、前記第1手段によって取得された前記演者の現実空間での動作に対応したものとし、(2)前記1以上の条件のうちのある条件を充足する場合には、仮想空間における前記アバターの動作を、前記ある条件に関連付けられた動作とし、所定期間経過後に、前記演者の現実空間における動作に対応したものとするステップと、を含む情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本件出願に開示された技術は、コンピュータプログラム、サーバ装置、端末装置及び方
法に関する。
【背景技術】
【0002】
近年、配信者が演じるアバターを用いた技術が発展している。この種の技術においては
、配信サービスを介して、配信者が演じるアバターを、視聴者が視聴可能なようにされて
いる。
【0003】
また、アバターを用いたサービスに関連して、アバターオブジェクトの表情や動作を演
者等の動作に基づいて制御する技術を利用したサービスとして、「カスタムキャスト」と
称されるサービスが知られている(非特許文献1)。このサービスでは、演者は、スマー
トフォンの画面に対する複数のフリック方向の各々に対して、用意された多数の表情や動
作のうちのいずれかの表情又は動作を予め割り当てておき、所望する表情又は動作に対応
する方向に沿って演者がスマートフォンの画面をフリックすることにより、その動画に表
示されるアバターオブジェクトにその表情又は動作を表現させることができる。
【先行技術文献】
【非特許文献】
【0004】
【文献】"カスタムキャスト"、[online]、Custom Cast Inc.、[2019年12月10日検索]、インターネット(URL: https://customcast.jp/)
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、非特許文献1に開示される技術においては、演者が発話しながらスマー
トフォンの画面をフリックしなければならず、演者にとっては当該フリックの操作を行う
困難となり得る。
【0006】
なお、上記非特許文献1は、引用によりその全体が本明細書に組み入れられる。
【0007】
本件出願において開示された幾つかの実施形態は、アバターをより適切に表現可能な、
コンピュータプログラム、サーバ装置、端末装置、及び方法を提供する。
【課題を解決するための手段】
【0008】
一態様に係るコンピュータプログラムは、一又は複数のプロセッサにより実行されるこ
とにより、配信者による所定の動作、前記配信者の表情、前記配信者の顔色、前記配信者
の声、又は、前記配信者に対して生じる所定の状況、のうちの一又は複数に係る情報を検
知し、前記検知した情報が所定の条件を充足するか否かを判定し、前記所定の条件を充足
すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記
配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポ
ーズとするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバター
を表示する、ように前記一又は複数のプロセッサを機能させるものである。
【0009】
また、一態様に係るコンピュータプログラムは、一又は複数のプロセッサにより実行さ
れることにより、配信者による所定の動作、前記配信者の表情、前記配信者の顔色、前記
配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの一又は複数に係る情
報を検知し、前記検知した情報が所定の条件を充足するか否かを判定し、前記所定の条件
を充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されてい
た前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情
又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、
送信する、ように前記一又は複数のプロセッサを機能させるものである。
【0010】
また、一態様に係るサーバ装置は、一又は複数のプロセッサを具備し、前記プロセッサ
が、コンピュータにより読み取り可能な命令を実行することにより、配信者による所定の
動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対し
て生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定
の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配
信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又
はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し
、前記所定の表情又はポーズとするための情報を、送信する、ものである。
【0011】
また、一態様に係る方法は、コンピュータにより読み取り可能な命令を実行する一又は
複数のプロセッサにより実行される方法であって、配信者による所定の動作、前記配信者
の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状
況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足する
か否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又
はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記
所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情
又はポーズが適用された、前記アバターを表示する、ものである。
【0012】
また、一態様に係る方法は、コンピュータにより読み取り可能な命令を実行する一又は
複数のプロセッサにより実行される方法であって、配信者による所定の動作、前記配信者
の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状
況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足する
か否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又
はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記
所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情
又はポーズとするための情報を、送信する、ものである。
【0013】
また、一態様に係る視聴者端末は、一又は複数のプロセッサを具備し、前記プロセッサ
が、コンピュータにより読み取り可能な命令を実行することにより、配信者による所定の
動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対し
て生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定
の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配
信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又
はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し
、前記所定の表情又はポーズが適用された、前記アバターを表示する、ものである。
【0014】
また、一態様に係る配信者端末は、一又は複数のプロセッサを具備し、前記プロセッサ
が、コンピュータにより読み取り可能な命令を実行することにより、配信者による所定の
動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対し
て生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定
の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配
信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又
はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し
、前記所定の表情又はポーズとするための情報を、送信する、ものである。
【図面の簡単な説明】
【0015】
図1図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。
図2図2は、図1に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロック図である。
図3図3は、一実施形態に係るシステムの機能の一例を模式的に示すブロック図である。
図4図4は、一実施形態に係るシステムが有するデータの一例である。
図5図5は、一実施形態に係るシステムが有するデータの一例である。
図6図6は、一実施形態に係るシステムが有するデータの一例である。
図7図7は、一実施形態に係るシステムが処理するフローの一例である。
図8図8は、一実施形態に係るシステムが処理するフローの一例である。
図9図9は、一実施形態に係るシステムが処理するフローの一例である。
【発明を実施するための形態】
【0016】
以下、添付図面を参照して本発明の様々な実施形態を説明する。或る図面に表現された
構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意され
たい。さらにまた、添付した図面は、本願発明の一実施形態を開示するものではあるもの
の、必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。また、
本願書類において、アプリケーションという用語が示す対象は、ソフトウェア、又はプロ
グラムと呼ばれるものであってよく、コンピュータに対する指令であって、結果を得るこ
とができるように組み合わされたものであればよい。
【0017】
1.システムの例
図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。図1に示す
ように、システム1は、通信網10に接続される1又はそれ以上のサーバ装置20と、通
信網10に接続される1又はそれ以上の端末装置30と、を含んでよい。なお、図1には
、サーバ装置20の例として、3つのサーバ装置20A~20Cが例示され、端末装置3
0の例として、3つの端末装置30A~30Cが例示されているが、サーバ装置20とし
て、これら以外の1又はそれ以上のサーバ装置20が通信網10に接続され得るし、端末
装置30として、これら以外の1又はそれ以上の端末装置30が通信網10に接続され得
る。なお、本出願書類において、システムという用語を、サーバと端末装置の両方を含む
場合もあれば、サーバのみ、又は、端末装置のみ、を示す用語としても用いる。すなわち
、システムは、サ―バのみ、端末装置のみ、サーバ及び端末装置の両方、のいずれの態様
であってもよい。
【0018】
また、システムは、クラウド上の情報処理装置であってもよい。また、システムは、仮
想的な情報処理装置を構成するものであって、論理的に一の情報処理装置と構成されるも
のであってもよい。また、システムの所有者と管理者は異なってもよい。
【0019】
通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネッ
ト、イーサネット(登録商標)、及び/又はこれらの組み合わせ等であってよく、また、
これらに限定されない。通信網10においては、本願書類で開示された種々のデータが通
信されてよい。
【0020】
サーバ装置20は、インストールされた特定のアプリケーションを実行することにより
、配信者による所定の動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又
は、前記配信者に対して生じる所定の状況、のうちの一又は複数に係る情報を検知し、前
記検知した情報が所定の条件を充足するか否かを判定し、前記所定の条件を充足すると判
定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に
係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとす
るための情報を生成する、という動作等を実行できてよい。
【0021】
或いはまた、端末装置30は、インストールされたウェブブラウザまたは特定のアプリ
ケーションを実行することにより、配信者による所定の動作、前記配信者の表情、前記配
信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの一
又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足するか否かを判定し
、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又はポーズに基づ
いて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対
応する所定の表情又はポーズとするための情報を生成する、という動作等を実行できてよ
い。
【0022】
端末装置30は、このような動作を実行することができる任意の端末装置であって、ス
マートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコン
ピュータ等であってよく、これらに限定されない。
【0023】
2.各装置のハードウェア構成
次に、サーバ装置20が有するハードウェア構成の一例について説明する。
【0024】
2-1.サーバ装置20のハードウェア構成
サーバ装置20のハードウェア構成例について図2を参照して説明する。図2は、図1
に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロ
ック図である(なお、図2において、括弧内の参照符号は、後述するように各端末装置3
0に関連して記載されたものである。)
【0025】
図2に示すように、サーバ装置20は、主に、演算装置21と、主記憶装置22と、入
出力インタフェイス装置23を備えることができる。サーバ装置20は、更に、入力装置
24と、補助出力装置26と、を含むことができる。これら装置同士は、データバス及び
/又は制御バスにより接続されていてよい。
【0026】
演算装置21は、主記憶装置22に記憶されている命令及びデータを用いて演算を行い
、その演算の結果を主記憶装置22に記憶させるものである。さらに、演算装置21は、
入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置
26等を制御することができる。サーバ装置20は、1以上の演算装置21を含んでよい
。演算装置21は、1又はそれ以上の、中央処理装置(CPU)、マイクロプロセッサ、
及び/又は、グラフィックスプロセッシングユニット(GPU)を含んでよい。
【0027】
主記憶装置22は、記憶機能を有し、入力装置24、補助記憶装置25及び通信網10
等(サーバ装置20等)から、入出力インタフェイス装置23を介して受信した命令及び
データ、並びに、演算装置21の演算結果を記憶するものである。主記憶装置22は、R
AM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシ
ュメモリ等をこれらに限定することなく含むことができる。
【0028】
補助記憶装置25は、記憶装置である。上記特定のアプリケーションやウェブブラウザ
等を構成する命令及びデータ(コンピュータプログラム)を記憶してよく、演算装置21
により制御されることにより、これらの命令及びデータ(コンピュータプログラム)は入
出力インタフェイス装置23を介して主記憶装置22にロードされてよい。補助記憶装置
25は、磁気ディスク装置及び/又は光ディスク装置、ファイルサーバ等であってよく、
これらに限定されない。
【0029】
入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キー
ボード、マウス及び/又はセンサ等であってよい。
【0030】
出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれら
に限定することなく含むことができてよい。また、入力装置24と出力装置26とが一体
化されたものであってもよい。
【0031】
このようなハードウェア構成にあっては、演算装置21が、補助記憶装置25に記憶さ
れた特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順
次主記憶装置22にロードし、ロードした命令及びデータを演算することにより、入出力
インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェ
イス装置23及び通信網10を介して、他の装置(例えばサーバ装置20及び他の端末装
置30等)との間で様々な情報の送受信を行うことができてよい。
【0032】
サーバ装置20がかかる構成を備え、インストールされた特定のアプリケーションを実
行することにより、以下で定義される、配信者による所定の動作、前記配信者の表情、前
記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状況、のうち
の一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足するか否かを判
定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又はポーズに
基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件
に対応する所定の表情又はポーズとするための情報を生成する、という動作等(後に詳述
する様々な動作を含む)の一部又は全部を実行できてよい。また、かかる動作等は、ユー
ザーが、入力装置24又は後述する端末装置30に係る入力装置34を用いて、本願書類
で開示する発明の一例のシステムに指示を与えることで動作されてよい。また、プログラ
ムが演算装置21上で実行されている場合にはユーザーの利用するシステムとしてのサー
バ装置20の出力装置26によって表示されてよく、又はユーザーの利用するシステムと
しての端末装置30の出力装置36に表示させる構成であってよい。
【0033】
2-2.端末装置30のハードウェア構成
端末装置30のハードウェア構成例について同じく図2を参照して説明する。各端末装
置30のハードウェア構成としては、例えば、上述した各サーバ装置20のハードウェア
構成と同一のものを用いることが可能である。したがって、各端末装置30が有する構成
要素に対する参照符号は、図2において括弧内に示されている。
【0034】
図2に示すように、各端末装置30は、主に、演算装置31と、主記憶装置32と、入
出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と
、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続さ
れている。
【0035】
演算装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助
記憶装置35及び出力装置36は、それぞれ、上述した各サーバ装置20に含まれる、演
算装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶
装置25及び出力装置26と略同一であってもよいし、異なるものであってもよい。また
、演算装置や記憶装置の容量や能力は、異なっていてよい。特に入力装置34及び出力装
置36については、以下で詳述する。
【0036】
このようなハードウェア構成にあっては、演算装置31が、補助記憶装置35に記憶さ
れた特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順
次主記憶装置32にロードし、ロードした命令及びデータを演算することにより、入出力
インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェ
イス装置33及び通信網10を介して、他の装置(例えば各サーバ装置20等)との間で
様々な情報の送受信を行うことができる。
【0037】
端末装置30がかかる構成を備え、配信者による所定の動作、前記配信者の表情、前記
配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの
一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足するか否かを判定
し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又はポーズに基
づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に
対応する所定の表情又はポーズとするための情報を生成する、という動作等(後に詳述す
る様々な動作を含む)の一部又は全部を実行できてよい。また、インストールされたウェ
ブブラウザを実行することにより、サーバ装置20からウェブページを受信及び表示して
、同様の動作を実行できる。また、かかる動作等は、ユーザーが、入力装置34を用いて
、本願書類で開示する発明の一例のシステムに指示を与えることで動作されてよい。また
、プログラムが演算装置31上で実行されている場合にはユーザーの利用するシステムと
しての端末装置30の出力装置36に表示する構成であってよい。
【0038】
端末装置は、本願書類において、「配信者端末」と「視聴者端末」の2種類の端末装置
があってよい。これらは端末の役割に対して付与された名称であってよく、一の端末装置
が、視聴者端末であることもあれば、配信者端末であることもあり、また、視聴者端末で
あると同時に配信者端末であってもよい。また、配信者端末と視聴者端末とは異なってよ
い。配信者端末は、配信されるものにアバターなどの被写体として登場する者である配信
者が利用する端末であってよい。他方、視聴者端末は、主に、配信されているものを視聴
する者である視聴者が利用する端末であってよい。なお、視聴者も、アバターなどの被写
体に対してギフトを提供するギフティング行為によって、配信されるものにギフトが登場
するような形で、視聴者が配信されるものに一定の影響をあたえてもよい。同様に、視聴
者は、音声、コメント、等の形で、配信されるものに、一定の影響を与えてよい。配信さ
れるものは、動画であってもよいし、映像であってもよいし、アニメーションであっても
よく、これらの一部に配信者が演じるアバターなどの被写体が登場する者であればよい。
なお、上述の説明は、本願発明の一実施形態が適用される例にすぎず、かかる前提のない
被写体が登場する仮想空間においても、本願発明に係る各実施形態は適用されてよい。な
お、本願書類において、アニメーションは、仮想現実であってもよいし、拡張現実であっ
てもよい。
【0039】
視聴者端末は、上述のように、音声の入力、コメントの入力、ギフティングなどが可能
に構成されてよい。例えば、視聴者端末は、入力装置34として、コメントを入力可能で
あり、テキスト情報たるコメントを取得可能なキーボード、タッチパネル、などを有して
よい。また、視聴者端末は、演算装置34により、一定のコメントやギフトを生成する機
能を有してもよい。これらの取得されたコメントやギフトは、同様に、入出力インタフェ
イス装置23を介して、通信網10へ送信されてよい。また、これらのコメントやギフト
は、配信されるもの生成に利用されてよい。
【0040】
なお、本願発明に係るコメントは、視聴者端末によって入力されるコメント以外に、シ
ステムが自動的に生成するものであってよい。かかるコメントは、視聴者端末に向けて送
信され、視聴者端末において表示されてよい。
【0041】
また、端末は、入力装置34として、音を取得可能なマイクを含んでよい。なお、人の
音声は、入力装置34としてのマイクによって取得され、音として扱ってもよいし、入力
装置34としてのマイクによって取得された後、演算装置31による音声認識によりテキ
スト化して、コメントとして扱ってもよい。なお、視聴者端末は、演算装置31によって
音を生成してもよい。これらの取得された音又はコメントは、同様に、入出力インタフェ
イス装置23を介して、通信網10へ送信されてよい。
【0042】
他方、配信者端末は、入力装置34として、人の動きを検知可能なモーションセンサを
含んでよい。モーションセンサは、配信者の身体に装着し、身体の各部の動きを検知可能
な機能を有してよい。身体の各部としては、頭部、顔面、上腕、前腕、手、大腿、下腿、
足、体幹、など種々の箇所が挙げられうるが、これらの一部又は全部に限られず、身体の
動きを検知可能な位置に装着できるものであってよい。かかるセンサによって、配信者の
表情やポーズをトラッキングし、情報として生成可能であってよい。モーションセンサは
、加速度センサ、ジャイロセンサ、地磁気センサなどを有してよい。これらの取得された
情報は、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい
【0043】
また、配信者端末は、入力装置34として、動画を撮像可能なカメラを含んでよい。カ
メラは、配信者の、頭、顔面、目、身体の一部、全身、などを撮像してよい。カメラが、
頭や顔面を撮像する場合顔の方向を検知することが可能であり、顔面を撮像する場合表情
を検知することが可能であり、目を撮像する場合視線を検知することが可能であり、身体
の一部又は全身を撮像する場合上述のモーションセンサと共に又は代えて身体の動きを検
知することが可能であってよい。これらの撮像情報に基づいた、顔方向、視線、表情、身
体の動きについて取得された情報は、同様に、入出力インタフェイス装置23を介して、
通信網10へ送信されてよい。
【0044】
また、視聴者端末及び配信者端末における出力装置36は、表示装置、音発生装置であ
ってよい。表示装置は、表示可能な機能であれば種々の装置であってよく、例えば、液晶
ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、マイクロLEDディスプ
レイ、ヘッドマウントディスプレイなどが挙げられるが、これらに限らず種々の装置であ
ってよい。音発生装置は、スピーカー、ヘッドフォン、イヤホンなどであってよい。出力
装置36で出力される情報は、演算装置31において生成された情報であってもよいし、
通信網10から受信した情報であってもよい。なお、配信者端末は、演じる演者について
の情報を取得するセンサを専用に備えるスタジオの装置であってもよい。この場合、演者
の情報をより精度よく情報を取得できる利点がある。また、配信者は、アバターを演じる
演者を含んでよい。
【0045】
3.各装置の機能
次に、サーバ装置20及び端末装置30の各々が有する機能の一例について、図3を参
考に、説明する。図3は、図1に示したシステムの機能の一例を模式的に示すブロック図
である。
【0046】
3.1.取得部
取得部は、後述する所定の条件の適用の可否を判断するのに使用できる情報を取得する
機能を有する。
【0047】
取得部の取得する情報は、配信者による所定の動作、前記配信者の表情、前記配信者の
顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの一又は複
数に係る情報(本願書類において、所定の動作等、ということもある)を含んでよい。ま
た、取得部の取得する情報は、本願発明に係るシステムが接続されている情報処理装置に
よって検知された情報又は検知された情報に基づく情報であってよい。なお、検知された
情報は、検知する検知器に応じた情報であってよく、これらの検知された情報がそのまま
取得部において取得されてもよいし、検知された具体的な測定情報について所定の閾値や
範囲に応じた対応する情報を取得部において取得されてもよい。検知された情報としては
、モーションデータの動きの情報や、アルコール検知器によるアルコール量の情報、サー
マルセンサーの温度情報、などであってよい。そして、これらの具体的な測定情報に対す
る、対応する情報としては、モーションデータについての特定の表情や特定の動きの情報
、アルコール量に対する飲酒の量の情報、など本願発明に係る所定の条件に合わせた情報
に加工されてよい。これらの、取得部の取得する情報については、条件適用部において、
その具体的な内容を説明する。なお、図4は、これらの取得部が取得する情報の一部の一
例を示したものである。
【0048】
ここで、検知する手法は、種々の手法があってよい。例えば、検知した情報は、前記配
信者を撮像する一又は複数の撮像装置によって撮像された画像を用いた画像処理によって
検知した情報を含んでよい。かかる画像処理によって取得される情報は、例えば、モーシ
ョンデータに基づくブレンドシェイプを検知してもよい。また、配信者がいる居室内の音
声を取得するマイクによる音の検知や、配信者によって操作された音発生機器の操作を検
知することによる音の検知であってもよい。また、配信者の手や腕に装着するセンサの動
きを用いて、手や腕の動きを検知してもよいし、のどに巻き付ける形状のセンサを用いて
、のどの動きを検知し、食べる動作や飲む動作を検知してよい。また、アルコール検知器
により、配信者の飲酒動作を検知してよい。本願に係るシステムは、これらの検知器と接
続され、配信者の動作等についての情報を検知してよい。なお、配信者は、アバターを操
作可能な演者を含んでよい。
【0049】
図5は、検知する手段の例と、検知される情報の例を示したものである。
【0050】
なお、取得部が情報を取得する元となる情報処理装置は、取得部の機能を有する情報処
理装置と同じであってもよいし、異なってもよい。また、取得という用語は、情報を、他
の情報処理装置から受信する意味の上位概念であってよく、また、情報を記憶装置から情
報を読み取る意味の上位概念であってよく、また、他のプログラムから記憶装置を介して
情報を受け取る意味の上位概念であってよく、また、情報処理装置が検知する意味の上位
概念であってよい。
【0051】
3.2.条件適用部
条件適用部は、前記検知した情報が所定の条件を充足するか否かを判定し、前記所定の
条件を充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成され
ていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の
表情又はポーズとするための情報を生成する、機能を有する。
【0052】
ここで、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係る
アバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするた
めの情報を生成するとは、かかる所定の条件が充足された場合において、前記配信者に係
る表情に基づいて生成されていた前記配信者に係るアバターの表情を、前記所定の条件に
対応する所定の表情とするための情報のみを生成してもよいし、前記配信者に係るポーズ
に基づいて生成されていた前記配信者に係るアバターのポーズを、前記所定の条件に対応
する所定のポーズとするための情報のみを生成してもよいし、前記配信者に係る表情及び
ポーズに基づいて各々生成されていた前記配信者に係るアバターの表情及びポーズを、前
記所定の条件に対応する所定の表情及びポーズとするための情報を生成してもよい。なお
、本願書類において、所定の条件に対応して特定される、所定の表情及び/又はポーズに
ついて、所定の表情等ということがあり、また、表情及び/又はポーズを、表情等という
ことがある。
【0053】
また、所定の表情等は、予め定められた表情のパラメータ、又は、配信者の表情に基づ
く表情のパラメータを所定のルールに基づいて補正された表情のパラメータ、を用いて表
示される表情であってもよいし、予め定められた形状又は動きの設定により表示される表
情であってもよいし、予め定められたポーズのパラメータ、又は、配信者のポーズに基づ
くポーズのパラメータを所定のルールに基づいて補正されたポーズのパラメータ、を用い
て表示されるポーズであってもよいし、予め定められた形状又は動きの設定により表示さ
れるポーズであってもよい。ここで、予め定められた表情のパラメータとは、顔の各部位
の動きに影響を与える複数のパラメータを示し、かかる複数のパラメータを各々所定の値
に設定することにより、一の表情を示すものであってよい。かかる一又は複数のパラメー
タは、顔の各部位の動きに影響を与えるパラメータであればよく、各パラメータが、顔の
特定の部位についてのものでもよいし、顔全体(又は顔の一部)についてのものであるが
パラメータ毎に顔全体(又は顔の一部)の形状が異なるものでもよい。後者は、同じ面積
であるが形状が異なるものを複数用意して、それらの一部又は複数の合成によって、一の
表情を表現する技術である。後者の例としては、例えば、ブレンドシェイプが挙げられ、
かかる技術では、予め形状が異なる複数の顔全体の形状のものを用意しそれらの複数の形
状の合成によって一の表情を生成するものである。なお、本技術においては、通常の顔の
要素に加えて、予め所定の形状のものを用意しておくことにより、特殊な表情をさせても
よい。例えば、予め顔の縦線を示す形状を用意しておく場合には、かかる顔の縦線の演出
が可能となり、予め目がバツの演出の要素を用意しておく場合には、かかる目がバツの演
出が可能となる。この場合、パラメータが予め設定されることから、配信者の表情等を問
わず、再現される表情等となるため、表情等を示す適切なパラメータが選択される場合に
は常に分かりやすい表情等を再現できる利点がある。なお、この場合においても、アバタ
ーに応じて、所定の表情等が異なるよう設定されてもよい。すなわち、アバターAとアバ
ターBについて、同一の所定の条件が充足された場合において適用される所定の表情等が
、アバターAとアバターBにおいて、異なってもよい。この場合において、個々のアバタ
ーに対して設定されてもよいし、アバターの種類に応じて、設定されてもよい。
【0054】
他方、所定の表情等が、配信者の表情等に基づく表情等のパラメータを所定のルールに
基づいて補正された表情等のパラメータである場合は、所定の表情等が、配信者の表情等
に基づいた表情等となってよい。例えば、配信者が何らかのギフトに対して、驚いた表情
をするとする。このとき、配信者の表情の検知に対応してアバターの表情が一又は複数の
パラメータによって驚きに対応する表情に設定されるが、所定の条件に対応する所定の表
情として驚きに係る複数のパラメータの値を所定の値分増加させる又は減少させることに
より、より驚きの表情を強調するようにする場合を示す。上述の技術を所定の表情として
一又は複数のパラメータが決定される点において絶対値的なものであるのに対し、本技術
は、いわば、現在の配信者の表情から得られた情報に対する相対的なパラメータを用いる
ものであってよい。そのため、同一の配信者が演じる同一のアバターが、同一の所定の条
件が適用された場合においても、かかる配信者自身がその時点で有している表情等に基づ
く表情等のパラメータは同じ場合もあれば、異なる可能性もあることから、かかる異なり
うるパラメータに応じた表情等が、所定の表情等となる場合がある。そのため、より表情
等のバリエーションをもたせることができる可能性がある。
【0055】
また、予め定められた形状又は動きの設定により表示される表情は、表情として、お面
のように予め定められた形状そのものを、所定の表情とするものを示し、かかるものであ
ってもよい。
【0056】
なお、以上においては、いずれも所定の表情について説明したが、同様に、所定のポー
ズについても、対応する技術が用いられてよい。
【0057】
また、所定の表情等は、生じる所定の動作等と関連する表情等であってよい。この場合
、視聴者は、所定の表情等が表現される理由を、所定の動作等と関連付けて、容易に理解
できる利点がある。
【0058】
また、所定の表情等は、表情等を構成する全ての個所についてのパラメータに作用して
もよいし、その一部のパラメータに作用してもよい。例えば、所定の表情等は、口につい
てのパラメータのみに作用し、口以外の個所についてのパラメータは、配信者の表情に連
動するパラメータであって、配信者端末から配信者の表情の動きに対応した情報に基づく
パラメータであってよい。また、所定の表情等は、アバターの外観を含んでもよい。例え
ば、所定の表情等は、アバターが黒焦げになる演出を含んでよい。なお、パラメータの例
としては、目や口の開口度を示すパラメータ(例えば、0%から100%)を示す数値を
含んでもよいし、口の両端の左右位置や上下位置を示すパラメータを含んでもよいし、眉
の上下位置を示すパラメータを含んでもよい。
【0059】
所定のポーズは、種々のポーズであってよい。ポーズは、アバターの体の一部のみであ
ってもよいし、アバターの体の全体であってもよい。例えば、首をかしげるポーズとして
頭部のみのポーズや、手が大きくなったり手が赤く腫れた演出を含む手のみのポーズや、
ガッツポーズのように上半身のみのポーズであってもよいし、銃を構えるポーズや全身で
ジャンプするような全体のポーズでもよい。
【0060】
所定の条件は、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバ
ターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいず
れか一つ又は複数に係る情報、を用いてよい。
【0061】
前記配信者の所定の動作は、前記配信者に五感で知覚される予め定められた動作であっ
てよい。また、前記配信者の所定の動作は、所定の対象を見る動作を含んでよい。例えば
、配信者が、配信者のいるステージや居室などの場所において、他の配信者や所定の物な
どの所定の対象を見て驚いた場合、所定の表情等として、驚く表情が設定されてよい。
【0062】
また、所定の対象は、配信者に驚きの感情をもたらす物に限らず、他の感情や感覚をも
たらす物であってよく、例えば、怖いという感情をもたらす物、ステーキなどの好きだと
いう感情をもたらす物、納豆などの嫌いだという感情をもたらす物、など人が対象を見た
ときに一定の感情や感覚が生じる物であってよい。また、かかる物を見た場合の所定の表
情等についても、かかる対象を見た場合に人が一般的に生じる顔を示す所定の表情等が設
定されてよい。上述の怖いという感情をもたらす物、好きだという感情をもたらす物、嫌
いだという感情をもたらす物、については、対応して、ぞっとする表情、笑顔、嫌悪の表
情、などであってよい。
【0063】
また、所定の対象が他の配信者である場合、所定の対象を見る動作は、一の配信者の視
線と他の配信者の目を見ることを含んでよい。この場合、かかる他の配信者もかかる一の
配信者の目を見た場合、一の配信者と他の配信者とは視線が合うことになる。このような
場合に、アバターを所定の表情等に設定してよい。なお、配信者同士の視線が合致してい
る場合、一方のアバターについてのみ、所定の表情等が設定されてもよいし、両方のアバ
ターについて、所定の表情等が設定されてもよい。後者は、例えば、視線が合って、両方
のアバターの顔が赤くなる表情やドキドキしている表情等が考えられる。また、後者の両
方のアバターについて所定の表情等が設定される場合において、かかる設定される表情等
は、同一の所定の表情等であってもよいし、異なる所定の表情等であってもよい。かかる
異なる所定の表情等となる理由としては、アバターの属するタイプに応じた所定の表情等
であってもよいし、アバターの好みや性質等に応じた所定の表情等であってもよいし、確
率的に選定された所定の表情等であってもよい。
【0064】
この場合、配信者を含む配信者周辺を撮像視野とする撮像装置によって、配信者を撮像
しておき、かかる撮像された画像内で、配信者と他の配信者との距離が所定の距離以下に
なった場合や、配信者が他の配信者を見た場合に、所定の表情等を設定してよい。後者の
配信者が他の配信者を見ることは、画像内における画像処理として、配信者の視線をRa
ycastなどすることにより配信者の目の視線の方向を計算し、かかる視線が他の配信
者と交差した場合に、他の配信者を見ると判定してよい。
同様に、配信者と物の距離が所定の距離以下になった場合や、配信者がかかる物を見た場
合に、所定の表情等を設定してよい。また、前記配信者の所定の動作は、所定の対象に接
触する動作を含んでよい。所定の対象は、予め定められていてよく、かかる接触動作は、
上述のように、配信者を含む配信者周辺を撮像視野とする撮像装置によって、配信者を撮
像しておき、かかる撮像された画像内で、配信者と所定の物との距離が所定の距離以下に
なった場合や、配信者と所定の物との距離が0になった場合に、所定の表情等を設定して
よい。
【0065】
この点、配信者を撮像する撮像装置の位置によっては、配信者が所定の物と接触するタ
イミングと、画像内における配信者の輪郭と所定の物の輪郭の接触が、異なるタイミング
の場合がある。特に後者は、配信者自身が所定の物と接触していないにもかかわらず、画
像上、配信者の輪郭と所定の物の輪郭に重複が生じる場合がある。そこで、画像処理を用
いた判定に加えて、又は、画像処理を用いた判定に代えて、配信者が身に着けるセンサを
用いてよい。例えば、配信者がセンサ付きのグローブを身に着け、かかるグローブと所定
の物との接触をグローブ内のセンサにより検知する構成としてもよい。また、配信者が体
に備え付けるセンサによって、他の配信者と接触したり、他の物と接触したりする状況を
検知してもよい。また、配信者が体に備え付けるセンサは、マーカー式のトラッカーであ
ってもよい。また、物についても一又は複数のトラッカーを備え付けることで、かかる物
に備えられたトラッカーと配信者の体に備え付けられたトラッカーとの関係によって、配
信者と物との接触等の関係を判定してよい。
【0066】
また、前記配信者の所定の動作として、握手する動作を含んでよい。握手は、配信者が
装着したセンサ付きのグローブによって指の動きを検知し、握手の指の動きが検知された
場合に、握手していると判定されてよい。
【0067】
また、前記配信者の所定の動作は、所定の対象の飲食動作を含んでよい。飲食動作は、
配信者ののどに巻き付ける形のセンサを用いて、のどの動きを検知することを介して、配
信者が飲食動作をしていることが検知されてよい。配信者が飲食動作をした場合における
所定の動作等としては、配信者に係るアバターが口の中に食べ物を入れた状態で口を動か
す動作があげられる。例えば、口をもぐもぐしている表情であってもよい。かかる飲食中
の表情は、口の動きに応じるものであって良く、かかる口の動きは、上述ののどの動きに
対応したものであってよい。また、上述の技術と共に、または、上述の技術に代えて、配
信者を撮像した画像内の情報に基づいて、所定の動作等を設定してもよい。例えば、配信
者が所定の物を食べていることを画像内の情報に基づいて判定し、かかる所定の物を食べ
る対応する食べ方を示す表情としてもよい。例えば、配信者が、ラーメンを食べるとき、
カレーを食べるとき、お肉を食べるとき、お魚を食べるとき、野菜を食べるとき、などに
おいて、対応する食べ物のアイテム(ラーメン、カレー、お肉、お魚、野菜、など)を仮
想空間内のアイテム又はアニメーションとして演出しつつ、かかる食べ物に対応した食べ
方を所定の表情等としてもよい。例えば、お肉を食べる場合には、骨付きお肉を横からか
ぶりつく食べ方、カレーであればスプーンで食べる食べ方等であって良い。また、前記所
定の対象に対応するものを、仮想空間上に演出するアイテムを生成してよい。食べ物を食
べる表情であれば、対応する上述の食べ物のアイテムを生成し、演出させてもよい。
【0068】
なお、上述では、仮想空間上に演出として表示されるアイテムとして、飲食動作に対応
する食べ物又は飲み物のアイテムを説明したが、新たに表示されるアイテムは、これらに
限られない。例えば、配信者が、現実空間内において知覚した物に対応する物のアイテム
が、仮想空間上に演出されるアイテムとして、表示されてよい。例えば、楽器の音が聞こ
えた場合には、楽器がアイテムとして、表示されてよい。また、たらいやボールなどが配
信者に対して接触した場合には、かかる対応するたらいやボールのアイテムが、画面上に
演出として、表示されてよい。
【0069】
また、かかる演出として表示されるアイテムは、配信者に係るアバターが所定の表情等
に設定されるタイミングに対応して、表示されてよい。また、配信者に係るアバターに対
して設定される所定の表情等が元の配信者に対応するアバターの表情等に戻る場合、かか
る演出として表示されるアイテムは画面上から消えてもよい。演出として表示されるアイ
テムは、配信者に係るアバターが所定の表情等が設定される間、対応して、かかるアイテ
ムが表示されてよい。
【0070】
また、かかる演出として表示されるアイテムは、配信者に係る所定の動作等と関連して
アイテムの位置が決定され、移動してもよい。例えば、配信者に係る所定の動作等におい
て、音の強弱、動作の速さ、動作の距離、などに応じて、対応するアイテムの位置や動き
や大きさが異なってもよい。更に具体的には、例えば、音が強い場合は、アイテムの位置
が近く、音が弱い場合はアイテムの位置が遠い、などであってよい。また、例えば、食べ
る動作が速ければ、食べ物のアイテムの減りの速さが速い、などであってもよい。また、
ボールが飛んできた場合には、かかるボールに対応するボールのアイテムを仮想空間上に
表示させ、現実空間における飛んできたボールの速さや大きさに応じて、仮想空間内のボ
ールの速さや大きさを対応付けて表示させてよい。この場合、現実空間内のボールの速さ
を仮想空間内のボールの速さに対応させ、現実空間内のボールの大きさを仮想空間内のボ
ールの大きさに対応付けてもよいし、速さとボールを交互に対応付けてもよい。
【0071】
また、配信者の所定の動作として飲酒する場合、所定の表情等として、配信者に係るア
バターの顔色を赤くするなどアルコールの影響下の表情をしてよい。飲酒は、アルコール
検知器によって判定されてよい。また、アルコール検知器によって検知されたアルコール
の分量に応じて、アバターの顔色を変化させてよい。例えば、アルコール量が第1の所定
の範囲内の量を検知した場合は、アバターの顔色をピンク色に設定し、アルコール量が第
1の所定の範囲内の量よりも多い第2の所定の範囲内の量を検知した場合は、アバターの
顔色を赤色に設定し、アルコール量が第2の所定の範囲内の量よりも多い第3の所定の範
囲内の量を検知した場合は、濃い赤色を設定する、などしてよい。
【0072】
前記配信者の所定の動作は、臭う又は匂う所定のジェスチャーを含んでよい。匂う所定
のジェスチャーは、鼻に係る動作を含んでよい。例えば、鼻がいわゆるクンクン動く動作
やひくひく動く動作のように一般人が匂いを感じることを示すジェスチャーをしている場
合を含んでよい。また、臭う所定のジェスチャーは、鼻の穴を塞ごうとする動作や、息を
吸うのを止める動作や、鼻の前の空気を手で移動する動作等、一般人が臭いを感じること
を示すジェスチャーを含んでよい。また、臭う所定のジェスチャーは、鼻及び顔の動きの
みでもよいし、手の動きのみでもよいし、それらの両方であってもよい。かかる動作は、
表情等であってよい。
【0073】
かかる配信者の匂う又は臭う所定のジェスチャーは、モーションデータに基づき、ブレ
ンドシェイプに基づいて鼻の情報を取得してもよい。また、光学センサや、画像処理によ
って情報を取得してもよい。
【0074】
また、配信者の所定の動作に対応するアバターの所定の表情等として、配信者による匂
う又は臭う動作に対応して、配信者に係るアバターが匂う又は臭う表情等をさせてよい。
所定の表情等としてのアバターの匂う又は臭う表情等も、同様に、一般人が匂い又は臭い
を嗅いでいることを演出していると感じる所定の匂う又は臭う動作であってよい。かかる
アバターによる匂う又は臭う表情等は、配信者による匂う又は臭う表情等と、同じ態様の
表情等であってもよいし、異なる態様の表情等であってもよい。また、同じ態様の表情等
である場合、アバターによる匂う又は臭う表情等は、配信者による匂う又は臭う表情等を
、より動きの幅を大きくする、動きの速さの緩急を明確にするなどして、匂う又は臭う表
情等であることが明確なものとしてよい。
【0075】
また、前記配信者の所定の動作は、音を聞く/聴くことについての所定のジェスチャー
を含んでよい。音を聞く/聴くことについての所定のジェスチャーは、耳のみの動作でも
よいし、頭部のみの動作でもよいし、手のみの動作でもよいし、これらの一部又は全部の
動作でもよい。耳の動作としては、耳を動かす動作が挙げられる。頭部の動作としては、
耳を一定の方向に向ける動作が挙げられる。一定の方向は、配信者が、音が聞こえると感
じた方向であってよい。また、手の動作としては、手を耳の所定の範囲に近づける動作を
含んでよい。また、手の動作としては、手の平を耳側に向ける動作を含んでよく、特定の
方向から来る音のみを集める態様の形にしてよい。また、片手のみの動作でもよいし、両
手の動作であってもよい。一方の耳について特定の方向から来る音のみを集める態様の形
に手の平をした場合において、かかる特定の方向にかかる耳が近づくよう体の向きを変え
てもよいし頭部の向きを変えてもよい。配信者の動作は、以上のような一般人が、音を聞
こう/聴こうとしている動作であると認識するジェスチャーを含んでよい。かかる動作は
、表情等であってよい。かかる配信者の表情等に対応して、配信者に係るアバターについ
ての所定の表情等として、上述のような、一般人が音を聞こう/聴こうとしている表情等
であると認識する表情等であってよい。かかるアバターによる音を聞こう/聴こうとして
いる表情等は、配信者による音を聞こう/聴こうとしている表情等と、同じ態様の表情等
であってもよいし、異なる態様の表情等であってもよい。また、同じ態様の表情等である
場合、アバターによる表情等は、配信者による音を聞こう/聴こうとしている表情等を、
より動きの幅を大きくする、動きの速さの緩急を明確にするなどして、音を聞こう/聴こ
うとしている表情等であることが明確なものとしてよい。
【0076】
また、前記配信者に対して生じる所定の状況は、所定の音が生じることを含んでよい。
所定の音は、人の音声であってもよいし、自然な音であってもよいし、楽器による音であ
ってもよいし、人工的な音であってもよいし、演出的な音であってもよく、音の種類に制
限はなくてよい。人の音声は、人の通常の声、人の通常とは異なる声、人の奇声、人の悲
鳴、など、人から発生られる種々の声であってよい。自然の音は、風の音や、水の音、炎
の音、台風の音、洪水の音、など種々のものであってよい。楽器による音は、バイオリン
、ピアノ、フルート、など種々の楽器の音であってよい。人工的な音は、例えば、問題に
対する正解を示すピンポンという効果音や、不正解を示すブーという効果音など種々のも
のであってよい。また、演出的な音は、例えば、おばけが登場する際に一般的に使用され
る音であって一般人がおばけの登場を認識可能なヒュードロドロという音であってもよい
【0077】
所定の音は、種々の手法で検知されてよい。たとえば、配信者のいる居室やスタジオ等
に設置されたマイクで配信者が聞くことが可能な音を検知してもよいし、スタジオにおけ
るオペレータの指示や配信者自身が入力する指示によって発生される音など配信者に対し
て音を聞かせることが可能な音発生装置からの情報を検知してもよい。
【0078】
かかる所定の音の発生に対応して、配信者に係るアバターの所定の表情等としては、か
かる音に対応する所定の表情等としてよい。例えば、人の奇声や人の悲鳴が検知されると
、所定の表情等として、アバターも奇声や悲鳴をあげる表情に設定されてよい。具体的に
は、上下に口を開けて目や眉毛を上下に動かすような一般人が悲鳴や奇声を上げていると
認識可能な表情に設定してよい。また、ピンポンというような正解を示す効果音が検知さ
れた場合は、アバターの所定の表情等として閃いたような表情をしてもよい。この場合、
仮想空間上の演出として、更に、アバターが閃いた状態を示すために、アバターの頭部か
ら所定の範囲の周辺にエクスクラメーションマークを表示させてもよい。また、一般人が
おばけの登場を認識可能なヒュードロドロという音に対し、所定の表情等として、アバタ
ーがおびえた表情をしてもよい。また、楽器の音が検知された場合、所定の表情等として
、アバターが歌う表情をしてもよい。この場合、アバターの口が、楽器の音に合わせて、
動いてよい。例えば、楽器の音の変化に合わせて、アバターの口が動いてよい。また、音
量に応じて、配信者に係るアバターの所定の表情等が設定されてよい。例えば、所定の音
よりも大きい音量の音が検出されると、配信者に係るアバターの所定の表情等として、耳
をふさぐポーズが設定されてよい。また、所定の音よりも小さな音量の音が検出されると
、配信者に係るアバターの所定の表情等として、耳と手との距離が所定の距離よりも短く
なり、耳に手が接触する距離となって、耳に手をそえるポーズが設定されてよい。また、
音の音質に応じて、配信者に係るアバターの所定の表情等が設定されてよい。例えば、所
定の音質として設定されたダミ声が検出されると、配信者に係るアバターの所定の表情等
として、厳しい表情が設定されてよい。また、所定の音質として設定されたファルセット
が検出されると、配信者に係るアバターの所定の表情等として、酔いしれる表情が設定さ
れてよい。
【0079】
また、前記配信者に対して生じる所定の状況は、所定の物が前記配信者に接触すること
を含んでよい。所定の物は、種々のものであってよい。例えば、ボール、バット、たらい
、などのものであってよい。但し、実際に配信者に対して物が接触する場合、安全のため
に、本物でなく、かかる本物を模した物であってもよい。所定の物が接触した場合に、対
応して、かかる配信者に係るアバターの所定の表情等として、対応する表情となってよい
。例えば、接触により、驚いた表情や、痛がっている表情などとしてよい。この場合、仮
想空間上の演出として、更に、アバターが痛がっている状態を示すために、アバターの頭
部から所定の範囲の周辺に星のマークなど痛みを一般に示す演出を表示させてもよい。
【0080】
また、配信者の顔色は、顔色の変化を含んでよい。顔色の変化は、上述のように、配信
者を撮像した画像処理に基づいて、判定されてよい。また、顔色の変化は、サーマルセン
サーを用いて、配信者の顔の温度を用いて測定されてもよい。また、顔色の変化は、他の
情報と合わせて、所定の表情等の設定に使用されてよい。例えば、顔色の変化と、アルコ
ールを検知した情報と、を用いて、飲酒の程度を検知してよい。より具体的には、配信者
の顔色が、通常の肌色から、ピンク色、赤色、などの色の変化と、検知されたアルコール
量の分量の程度、に対応づけられている、アバターに係る所定の表情等を、設定してよい
。かかるアバターの所定の表情等としては、上述のような、アルコールにより酔っている
表情等であってよい。また、アルコールにより酔っている表情等として、アバターの足や
体の動きを千鳥足の動きを含んでもよい。また、通常の肌色から、青白い色や白い色への
顔色の変化と、おばけキャラなどの所定のアイテムと、を用いて、アバターに係る所定の
表情等として、怖がっている表情を設定してよい
【0081】
また、前記配信者の声は、前記配信者の声の音質が所定の範囲以上変化すること、又は
、前記配信者の声の音量が所定の量以上変化すること、を含んでよい。声の音質や声の音
量は、マイクから検知された情報を用いて、判定されてよい。配信者の声に、一定の変化
がある場合、かかる変化に応じた所定の表情等を設定してよい。また、かかる情報は、他
の情報と合わせて、検知されてもよい。例えば、配信者の声の音質及び/又は音量と、配
信者を撮像する撮像装置によって得られた画像に基づく情報と、を用いてアバターの所定
の表情等を設定してよい。より具体的には、例えば、配信者の声の音量が所定の音量より
も大きく検出され、かつ、配信者が口に手を添えるように配信者の手と口とが所定の距離
内であると判定された場合、配信者に係るアバターの所定の表情等として、かかるアバタ
ーの顔を赤くし、目をつむらせてよい。この場合、更に、メガホンを表示させる、及び/
又は、声の大きさを示す雷のようなイラストを表示させてもよい。ここで、かかる雷のよ
うなイラストは、声の大きさに応じた大きさであってよい。また、例えば、配信者の声が
所定の音質よりも低い声であると検出され、配信者に係る眉毛の間隔が所定の長さよりも
短いと判定された場合、配信者に係るアバターの所定の表情等として、かかるアバターの
顔に怒りを示すマークを付けてよい。ここで、眉毛の間隔が所定の長さよりも短いことは
、いわゆる、眉間にしわが寄っている状態であってよい。また、配信者が「変身」などの
特定のキーワードを発したことが検出され、かつ、配信者が所定のポーズをしたと判定さ
れた場合、配信者に係るアバターの所定の表情等として、所定の変身アニメーションが表
示されてもよい。例えば、配信者が片手を体の前方で円を描くように移動させると同時に
「変身」などの音声を発した場合、例えば、仮面ライダーの変身アニメーションが起動さ
れ、配信者に係るアバターの所定の表情等として、表示されてよい。
【0082】
なお、検知した情報は、第三者が入力したことに起因して検知した情報を含んでよい。
例えば、スタジオにおいて配信している場合、演出者と異なる第三者によって入力された
情報を検知してもよい。例えば、問題に対して、演出者が回答したことに対し正解した場
合のピンポン、という音は、かかる音自体を検知する場合に加えて、又は、代えて、かか
るピンポンという音を入力した第三者による入力情報を検知した情報であってよい。また
、音以外の情報においても、例えば、演出者が他の演出者を含む他の者や何かの物と接触
した場合の接触したことを示す情報を、第三者が入力してもよいし、演出者が、食べ物を
食べる飲むなどの飲食動作について、第三者が対応する情報を入力してもよいし、匂い又
は臭いが発生していることの情報を、第三者が入力してもよい。このように、配信者が五
感で認識可能な情報を、配信者自身又は第三者による入力を検知する情報としてもよい。
【0083】
また、所定の条件は、複数の所定の条件が成立する場合がある。例えば、一の配信者が
他の配信者を見ると同時に、かかる一の配信者に対して、第三の配信者が接触する場合等
である。このような場合、他の配信者を見ること及び第三の配信者との距離が所定の距離
の範囲内であることの各条件に対応する所定の表情等が異なる場合、複数の所定の条件が
充足した場合の処理が定められていてよい。例えば、所定の時間内において、第1の所定
の条件が充足し、かつ、第2の所定の条件が充足した場合、前記第1の所定の条件又は前
記第2の所定の条件のうち、優先度が高く設定されている所定の条件が充足した場合に対
応する所定の表情又はポーズを適用してよい。ここで、優先度は、各所定の条件と、関連
付けられて、記憶されていてもよいし、複数の所定の条件が充足した場合のルールとして
設定されていてもよい。例えば、所定の条件として、A1、A2、A3、A4などがあっ
た場合において、各所定の条件同士を比較した上で優先される所定の条件を選定できるも
のであればよい。かかる優先度を用いた機能により、複数の所定の条件が充足された場合
においても、特にほぼ同時に複数の所定の条件が充足された場合においても、適確に処理
できる利点がある。また、かかる優先度は、確率が用いられてもよい。例えば、確率が、
疑似乱数関数等によって判定される場合であって、第1の所定の条件と第2の所定の条件
とが充足している場合において、かかる疑似乱数関数値が所定の値以下の場合は、第1の
所定の条件に対応する所定の表情等が適用され、所定の値を超える場合は、第2の所定の
条件に対応する所定の表情等が適用される、と処理されてよい。この場合、演出のバリエ
ーションが増加することになり、より視聴者の興味を引くことができる可能性がある。
【0084】
なお、充足しうる複数の条件についての判定において、所定の時間の経過を待って判断
することから、所定の時間をある時間以上に設定した場合、所定の条件の充足から所定の
表情等の演出まで、タイムラグが生じる可能性がある。そのため、かかる優先度を設けず
に、上述の複数の条件が成立する場合に、時間的に先行して充足された所定の条件に対応
する所定の表情等を設定してもよい。ここで時間的に先行するとは、ネットワークや情報
処理などの結果、実質的にはほぼ同時に所定の条件が成立した場合においても、処理部が
所定の条件の充足を先に判定したものであってよい。この場合、所定の時間の経過を待た
ずに、先に充足した所定の条件に対応する所定の表情等を設定できる利点がある。なお、
かかる場合において、後に充足した所定の条件に対応する所定の表情等を設定してもよい
し、設定しなくともよい。設定する場合、先に充足された所定の条件に対応する所定の表
情等は上書きされてしまうが、後に充足された所定の条件に対応する所定の表情等も視聴
者に演出できる利点がある。他方、設定しない場合、先行した所定の表情等について、視
聴者は十分楽しむことができる利点がある。なお、このように、第1の所定の条件と第2
の所定の条件について、双方ともに充足する場合、第1の所定の条件が充足したタイミン
グと、第2の所定の条件が充足したタイミングに応じて、所定の表情等を設定してもよい
。例えば、第1の所定の条件が充足した第1タイミングと、第2の所定の条件が充足した
第2タイミングと、の間の時間が所定の時間よりも短い場合、第1の所定の条件に対応す
る第1の所定の表情等のみを演出し、第2の所定の条件に対応する第2の所定の表情等を
演出しない処理としてよい。この場合、第1の所定の表情等の演出について、視聴者は、
途中で変更されず、楽しむことができる利点がある。他の他方、前記第1タイミングと前
記第2タイミングとの間の時間が所定の時間よりも長い場合、前記第2の所定の条件が充
足したタイミングで、前記第2の所定の条件に対応する所定の表情等を設定してもよい。
この場合、視聴者は、第1の所定の表情等に続き、第2の所定の表情等も両方の演出を楽
しむことができる利点がある。
【0085】
なお、かかる第1のタイミングと第2のタイミングとの間の時間について判定する上述
の所定の時間は、充足される所定の条件の組に応じて設定されてもよい。例えば、第1の
所定の条件が充足した場合に第1の所定の表情等が演出され、第2の所定の条件が充足し
た場合に第2の所定の表情等が演出され、第3の所定の条件が充足した場合に第3の所定
の表情等が演出されたとする。また、第1の所定の条件が第1のタイミングで充足され、
第2の所定の条件が第2のタイミングで充足され、第3の所定の条件が第3のタイミング
で充足されたとする。この時、第1のタイミングと第2のタイミングとの間の時間が、第
12所定の時間よりも短い場合に、第2の所定の表情等が演出されず、第12所定の時間
以上の場合に第2の所定の表情等が演出されるとする。また、第1のタイミングと第3の
タイミングとの間の時間が、第13所定の時間よりも短い場合に、第3の所定の表情等が
演出されず、第13所定の時間以上の場合に第3の所定の表情等が演出されるとする。こ
のとき、第12所定の時間と第13所定の時間は、同じであってもよいし、異なってもよ
い。同じである場合は、第1の所定の条件の充足の後に、第2の所定の条件が充足されて
も、第3の所定の条件が充足されても、第1の所定の表情等の演出時間に変わりがないこ
とを意味する。他方、異なる場合は、第1の所定の条件の充足の後に、第2の所定の条件
が充足する場合と、第3の所定の条件が充足する場合と、において、第1の所定の表情等
の演出時間が変化することになる。この場合、演出のバリエーションが増加することにな
り、より視聴者の興味を引くことができる可能性がある。
【0086】
なお、上述において、優先度は、所定の条件と関連付けられている、又は、充足される
所定の条件についてのルールの例を説明したが、そのほか、優先度は、所定の条件内の物
、イベント、状況、などと関連付けられていてもよい。
【0087】
所定の条件に係る物、イベント、状況(本願書類において、物等、ということもある)
に係る優先度は、物等の表示される大きさ、物等の出現場所、物等の出現のタイミング、
などを用いて生成されたものであってよい。
【0088】
例えば、物等の表示される大きさ、については、第1の物等の大きさよりも、第2の物
等の表示される大きさが大きい場合、かかる第2の物等に対して、かかる第1の物等より
も、高い優先度が設定されていてよい。この場合、表示される大きい方が、より視聴者の
注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである。
他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。
【0089】
また、物等の大きさの他に、物等に価格がある場合は価格であってもよいし、物等に消
費ポイントが設定されている場合には消費ポイントであってもよい。例えば、第1の物等
の価格よりも、第2の物等の価格が高い場合、かかる第2の物等に対して、かかる第1の
物等よりも、高い優先度が設定されていてよい。この場合、価格が高い方が、より視聴者
の注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである
。他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。また、同
様に、消費ポイントについても、例えば、第1の物等の消費ポイントよりも、第2の物等
の消費ポイントが高い場合、かかる第2の物等に対して、かかる第1の物等よりも、高い
優先度が設定されていてよい。この場合、価格が高い方が、より視聴者の注目を浴びるこ
とから、優先させることが視聴者の意向に沿うと考えられるためである。他方で、逆に設
定してもよい。逆に設定した場合、意外性が出る利点がある。
【0090】
物等の仮想空間内の出現場所としては、例えば、仮想空間内の中央に出現した物等を、
仮想空間内の左右などの端に出現した物等よりも、優先度を高く設定してよい。仮想空間
内の目立ちやすい場所に出現した物等の優先度を高くした場合、視聴者は、目立ちやすい
場所に出現した物等を視野に入れることができるため、視聴者は、所定の表情等の意味を
理解しやすくなる利点がある。
【0091】
また、物等に係る優先度は、その物等に予め設定されている静的な情報であってもよい
し、物等が提供された段階で初めて設定される動的な情報であってもよい。後者は、例え
ば、物等が出現された位置に応じて設定される情報であってよい。例えば、物等が仮想空
間上で出現した位置と、アバターとの位置との関係に応じて設定された優先度であってよ
い。この場合、距離自体が優先度の役割を果たしてもよいし、距離が優先度を設定する一
の情報として使用されてもよい。例えば、アバターと出現した第1の物に係る位置の距離
が第1距離であり、アバターと出現した第2の物に係る位置の距離が第2距離である場合
において、第1距離が第2距離より長い場合、第2の物に対して第1の物に優先度を高く
設定してよい。また、そのほか、画面中央と第1の物に係る位置との距離の第1距離が画
面中央と第2の物に係る位置との距離の第2距離よりも短い場合、第1の物がより画面中
央に出現していることから、第1の物の優先度を第2の物よりも高く設定してもよい。物
等に係る優先度が動的に設定される場合、より適切かつダイナミックに、所定の表情等を
設定されるギフトを選定できる利点がある。
【0092】
また、所定の条件が成立した場合に、適用される所定の表情等は、所定の表情等が適用
されるアバターに係るアバターが属するタイプを用いてもよい。例えば、所定の条件は、
アバターが属するタイプの複数のものの一である、前記アバターの属するタイプを用いて
もよい。これは、ある情報を取得した場合、第1のアバターの種類においては所定の表情
等となるが、第2のアバターの種類においては所定の表情等とならない、ものであってよ
い。例えば、あるタイプのアバターは、弱気の性格の設定であるとして、他の配信者との
距離が第1の距離の範囲内の場合に、驚く表情が出やすくなってよい。また、あるタイプ
のアバターは、陽気な性格の設定であるとして、所定の表情等として、笑顔を含む表情と
なる条件が、他のアバターよりも、緩いよう設定されていてよい。なお、この場合、アバ
ターについて、弱気、陽気、強気、負けず嫌い、など性格という特性を備えさせ、かかる
性格という特性を用いて、所定の条件の充足が判定されてよい。なお、性格は、アバター
の属するタイプに応じて設定されているものでもよいし、アバターの属するタイプとは別
に個々のアバターについて設定されているものであってもよい。また、かかるアバターの
タイプは、アバターの設定時に設定された性格であってもよいし、アバターが所定の条件
が判定される時点で装備しているパーツや服装から判定されてもよい。
【0093】
なお、所定の条件は、確率を含んでよい。すなわち、所定の条件は、疑似乱数関数等を
含み、かかる関数値が所定の条件を充足すると判定した場合に、所定の表情等を生成して
もよい。かかる確率を含む場合、常に、所定の表情等が生成されるわけではないため、視
聴者の興味を継続的に引くことができる。また、例えば、その確率値を所定の値よりも低
くする場合において、稀な表情とする場合、視聴者が貴重な表情を見ることができるとい
う点において、視聴者の興味を引くことができる。
【0094】
条件適用部は、配信者について所定の条件の充足によって特定された表情等を、かかる
配信者が演じるアバターについての表情等としてよい。より具体的には、所定の条件の充
足によって特定された表情等を示す情報は、特定された表情等を示すIDや、特定された
表情等を示す表情の一又は複数のパラメータであってよく、かかる特定された表情等を、
かかるアバターの表情とできるように、かかる特定された表情等を示す情報を用いて、ア
バターの表情等を設定してよい。かかるIDやパラメータの情報は、条件適用部において
特定又は生成された後、かかる情報が、映像やアニメーションの生成のためにサーバや端
末に送信され、所定期間、利用されてよい。ここで、条件適用部は、各所定の条件と関連
付けて、特定される表情等を示す情報を記憶してよく、かかる各所定の条件が充足された
場合に、対応する特定される表情等を示す情報を特定できるよう構成されてよい。なお、
所定の条件の充足によって適用される所定の表情等がアバターに、所定期間、設定された
後は、元のアバターの動作に戻ってよい。すなわち、アバターは、配信者によって演じら
れていることから、所定期間の後、アバターの表情やポーズは、配信者の表情やポーズの
情報に基づくものとなってよい。ここで、配信者の表情やポーズの情報に基づくとは、配
信者の表情やポーズを光学センサや慣性センサで検知された情報によってアバターの動作
が規定されてよい。
【0095】
条件適用部が実行される第1情報処理装置と、かかるアバターの表情等を示す情報の設
定を含む処理を行う第2情報処理装置と、が同じ場合、条件適用部は、条件適用部が所定
の条件の充足によって特定した表情を用いて、前記アバターの表情等を示す情報を設定す
るよう処理してよい。
【0096】
また、条件適用部が実行される第1情報処理装置と、かかるアバターの表情等を示す情
報の設定を含む処理を行う第2情報処理装置と、が異なる場合、条件適用部が所定の条件
の充足によって特定した表情等を示す情報を、第1情報処理装置は、第2情報処理装置に
送信し、かかる第2情報処理装置において、特定された表情等を示す情報を用いて、前記
アバターの表情等の示す情報を設定するよう処理してよい。
【0097】
ここで、第1情報処理装置がサーバであって、第2情報処理装置がサーバである場合は
、第1情報処理装置のサーバから、第2情報処理装置のサーバに、かかる特定された表情
等を示す情報が送信されてよい。また、第1情報処理装置がサーバであって、第2情報処
理装置が視聴者端末である場合は、第1情報処理装置のサーバから、第2情報処理装置の
視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処
理装置がサーバであって、第2情報処理装置が配信者端末である場合は、第1情報処理装
置のサーバから、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報
が送信されてよい。
【0098】
同様に、第1情報処理装置が視聴者端末であって、第2情報処理装置がサーバである場
合は、第1情報処理装置の視聴者端末から、第2情報処理装置のサーバに、かかる特定さ
れた表情等を示す情報が送信されてよい。また、第1情報処理装置が視聴者端末であって
、第2情報処理装置が視聴者端末である場合は、第1情報処理装置の視聴者端末から、第
2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。
また、第1情報処理装置が視聴者端末であって、第2情報処理装置が配信者端末である場
合は、第1情報処理装置の視聴者端末から、第2情報処理装置の配信者端末に、かかる特
定された表情等を示す情報が送信されてよい。
【0099】
同様に、第1情報処理装置が配信者端末であって、第2情報処理装置がサーバである場
合は、第1情報処理装置の配信者端末から、第2情報処理装置のサーバに、かかる特定さ
れた表情等を示す情報が送信されてよい。また、第1情報処理装置が配信者端末であって
、第2情報処理装置が配信者端末である場合は、第1情報処理装置の配信者端末から、第
2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。
また、第1情報処理装置が配信者端末であって、第2情報処理装置が視聴者端末である場
合は、第1情報処理装置の配信者端末から、第2情報処理装置の視聴者端末に、かかる特
定された表情等を示す情報が送信されてよい。
【0100】
上記では、条件適用部が、単一の情報処理装置において実行される態様を示しているが
、複数の情報処理装置において条件適用部を分散して処理してもよい。
【0101】
また、条件適用部は、所定の表情等が設定されるタイミングを用いて、所定の表情等を
示す情報を設定してよい。タイミングは、例えば、上述のように、一の配信者と他の配信
者をアバターと、アバター又はキャラクタとの視線が合ったタイミング、アバターが物と
接触したタイミング、などであってよい。この場合、かかる所定の表情等を示す情報を含
む情報が、表示される情報処理装置に送信されて、表示されてよい。この場合のタイミン
グのずれは、通信や処理のタイムラグが含まれてよい。
【0102】
他方、所定の条件が充足された上で、所定の表情等を示す情報が設定されるタイミング
は、別途設定されたものが使用されてもよい。例えば、所定の条件が設定されてから、2
秒後に、所定の表情等になる、というものでもよい。一例としては、アバターが驚くよう
な状況が生じて、その2秒後という故意に遅らせたタイミングで、所定の驚きの表情を設
定するものなどでもよい。
【0103】
図6は、所定の条件に対する所定の表情等の関係を示した一例である。取得した情報を
、所定の条件として用いることにより、対応する、所定の表情等が特定されるものとなる
【0104】
上述のように、条件適用部の機能によって、所定の条件が充足した場合に、対応する所
定の表情等が実現できることとなり、仮想空間内のアバターの表情やポーズにバリエーシ
ョンを持たせることができる利点がある。また、現実世界で演者に現実に起こった出来事
に対応して、仮想空間内のアバターに表情等を設定できる利点がある。また、前記所定の
表情又はポーズとするための情報は、前記配信者端末から前記アバターを操作する情報を
取得せずに、生成してよい。この場合、演者は、現実世界の状況への対応していることで
アバターの表情等の変化などの入力の負担なく、演者からの何らの情報なく、アバターの
表情等が変更できる利点がある。
【0105】
4.実施形態
4-1.実施形態1
実施形態1は、視聴者端末において、条件適用部が動作する例である。この場合、取得
部は、視聴者端末において、動作してよい。本例について、図7を用いて説明する。なお
、視聴者端末において、条件適用部が動作するため、視聴者端末に基づく情報を所定の条
件として含めることにより、視聴者端末毎に、アバターの表現等を変更することも可能で
あってよい。
【0106】
ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。かかる所定の動作等の
情報は、配信者端末において取得されたものでもよいし、サーバにおいて取得されたもの
でもよく、これらが、サーバなどを介して、条件適用部が動作する視聴者端末が取得して
もよい。
【0107】
ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、
所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する
(ステップ002)。このために、条件適用部は、少なくとも一部の所定の条件とかかる
条件が充足した場合における所定の表情等を示す情報を有していてよい。
【0108】
ステップ3
特定された表情等を、視聴者端末において、所定の条件の充足に使用されたアバターに
係る表情等に設定する(ステップ003)。視聴者は、所定の動作等に対応して、アバタ
ーの表情等が変更される反応を視聴できる利点がある。
【0109】
ステップ4
各視聴者端末において、アバターの所定の表情等が所定の期間表示された後、元のかか
るアバターに係る配信者の表情等に基づく表情にアバターに係る表情等は戻る(ステップ
004)。
【0110】
4-2.実施形態2
実施形態2は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は
、サーバにおいて、動作してよい。なお、本例は、視聴者端末上において、アニメーショ
ンが生成される前提で、図8を用いて説明する。
【0111】
ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。
【0112】
ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、
所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する
(ステップ002)。
【0113】
ステップ3
サーバは、特定された表情等を示す情報を、かかるアバターの配信を視聴している、各
視聴者端末に送信する(ステップ003)。
【0114】
ステップ4
各視聴者端末において、サーバから取得した表情等を示す情報を用いて、アバターの表
情等を設定する(ステップ004)。ここで、各視聴者端末において、かかる設定された
アバターの表情等を用いて、アニメーションが生成されてもよい。
【0115】
ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられたアバターの
表情等が、所定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づ
く表情に設定される(ステップ005)。なお、アニメ―エションが生成された場合は、
各アニメーション内に、所定の期間、かかる生成された表情等が用いられて表示され、そ
の後は、アバターに係る配信者の表情等に基づきトラッキングによって得られた表情等が
アバターの表情等として使用されてよい。
【0116】
4-3.実施形態3
実施形態3は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は
、サーバにおいて、動作してよい。なお、本例は、サーバが上において、アバターの表情
を含む映像が生成される前提で、図9を用いて説明する。
【0117】
ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。
【0118】
ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、
所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する
(ステップ002)。
【0119】
ステップ3
サーバは、特定された表情等を示す情報等を用いて、かかるアバターの配信についての
映像を生成する(ステップ003)。ここで、アバターの配信についての映像を生成する
サーバと、かかる条件適用部を実行するサーバが、同一のサーバの場合、条件適用部を実
行するサーバにおいて、アバターの配信のための映像を生成してよい。他方、アバターの
配信についての映像を生成するサーバと、かかる条件適用部を実行するサーバが、異なる
サーバの場合、条件適用部を実行するサーバから、かかる映像を生成するサーバに、かか
る特定された表情等を示す情報が送信され、かかる映像生成するサーバにおいて、かかる
特定された表情等を示す情報が用いられてよい。なお、かかるサーバにおいてアニメーシ
ョンを生成する場合も同様に、映像と共に又は映像に代えて、かかるアバターの配信につ
いてのアニメーションを生成してもよく、この場合は以降映像と共に又は映像に代えてア
ニメーションが使用されてよい。
【0120】
ステップ4
特定された表情等を示す情報に基づいて特定された表情を用いて生成されたアバターの
映像が、各視聴者端末に対して送信される(ステップ004)。
【0121】
ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられた映像が、所
定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づく表情等に基
づくアバターの映像が表示される(ステップ005)。
【0122】
4-4.様々な実施態様について
第1の態様によるコンピュータプログラムは、「一又は複数のプロセッサにより実行さ
れることにより、配信者による所定の動作、前記配信者の表情、前記配信者の顔色、前記
配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの一又は複数に係る情
報を検知し、前記検知した情報が所定の条件を充足するか否かを判定し、前記所定の条件
を充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されてい
た前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情
又はポーズとするための情報を生成し、前記所定の表情又はポーズが適用された、前記ア
バターを表示する、ように前記一又は複数のプロセッサを機能させる」ものである。
【0123】
第2の態様によるコンピュータプログラムは、上記第1の態様において「前記配信者の
所定の動作は、前記配信者に五感で知覚される予め定められた動作である」ものである。
【0124】
第3の態様によるコンピュータプログラムは、上記第1の態様又は上記第2の態様にお
いて「前記配信者の所定の動作は、所定の対象を見る動作を含む」ものである。
【0125】
第4の態様によるコンピュータプログラムは、上記第1乃至上記第3のいずれか一の態
様において「前記配信者の所定の動作は、所定の対象に接触する動作を含む」ものである
【0126】
第5の態様によるコンピュータプログラムは、上記第1乃至上記第4のいずれか一の態
様において「前記配信者の所定の動作は、所定の対象の飲食動作を含む」ものである。
【0127】
第6の態様によるコンピュータプログラムは、上記第1乃至上記第5のいずれか一の態
様において「前記所定の対象に対応するものを、仮想空間上に演出するアイテムを生成す
る」ものである。
【0128】
第7の態様によるコンピュータプログラムは、上記第1乃至上記第6のいずれか一の態
様において「前記配信者の所定の動作は、臭う又は匂う所定のジェスチャーを含む」もの
である。
【0129】
第8の態様によるコンピュータプログラムは、上記第1乃至上記第7のいずれか一の態
様において「前記配信者の所定の動作は、音を聞く/聴くことについての所定のジェスチ
ャーを含む」ものである。
【0130】
第9の態様によるコンピュータプログラムは、上記第1乃至上記第8のいずれか一の態
様において「前記検知した情報は、第三者が入力したことに起因して検知した情報を含む
」ものである。
【0131】
第10の態様によるコンピュータプログラムは、上記第1乃至上記第9のいずれか一の
態様において「前記検知した情報は、前記配信者を撮像する一又は複数の撮像装置によっ
て撮像された画像を用いた画像処理によって検知した情報を含む」ものである。
【0132】
第11の態様によるコンピュータプログラムは、上記第1乃至上記第10のいずれか一
の態様において「前記配信者に対して生じる所定の状況は、所定の音が生じることを含む
」ものである。
【0133】
第12の態様によるコンピュータプログラムは、上記第1乃至上記第11のいずれか一
の態様において「前記配信者に対して生じる所定の状況は、所定の物が前記配信者に接触
することを含む」ものである。
【0134】
第13の態様によるコンピュータプログラムは、上記第1乃至上記第12のいずれか一
の態様において「前記配信者の顔色は、顔色の変化を含む」ものである。
【0135】
第14の態様によるコンピュータプログラムは、上記第1乃至上記第13のいずれか一
の態様において「前記配信者の声は、前記配信者の声の音質が所定の範囲以上変化するこ
と、又は、前記配信者の声の音量が所定の量以上変化すること、を含む」ものである。
【0136】
第15の態様によるコンピュータプログラムは、上記第1乃至上記第14のいずれか一
の態様において「所定の時間内において、第1の所定の条件が充足し、かつ、第2の所定
の条件が充足した場合、前記第1の所定の条件又は前記第2の所定の条件のうち、優先度
が高く設定されている所定の条件が充足した場合に対応する所定の表情又はポーズを適用
する」ものである。
【0137】
第16の態様によるコンピュータプログラムは、上記第1乃至上記第15のいずれか一
の態様において「前記所定の表情又はポーズとするための情報は、前記配信者端末から前
記アバターを操作する情報を取得せずに、生成する」ものである。
【0138】
第17の態様によるコンピュータプログラムは、「コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、配信者による所定の動作、前記配
信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定
の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足
するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表
情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、
前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の
表情又はポーズとするための情報を、送信する、ように前記一又は複数のプロセッサを機
能させる」ものである。
【0139】
第18の態様によるコンピュータプログラムは、上記第17の態様において「前記配信
者の所定の動作は、前記配信者に五感で知覚される予め定められた動作である」ものであ
る。
【0140】
第19の態様によるサーバ装置は、「一又は複数のプロセッサを具備し、前記プロセッ
サが、コンピュータにより読み取り可能な命令を実行することにより、配信者による所定
の動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対
して生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所
定の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記
配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情
又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成
し、前記所定の表情又はポーズとするための情報を、送信する」ものである。
【0141】
第20の態様によるサーバ装置は、上記第19の態様において「前記配信者の所定の動
作は、前記配信者に五感で知覚される予め定められた動作である」ものである。
【0142】
第21の態様による方法は、「コンピュータにより読み取り可能な命令を実行する一又
は複数のプロセッサにより実行される方法であって、配信者による所定の動作、前記配信
者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の
状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足す
るか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情
又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前
記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表
情又はポーズが適用された、前記アバターを表示する、」ものである。
【0143】
第22の態様による方法は、上記第21の態様において「前記配信者の所定の動作は、
前記配信者に五感で知覚される予め定められた動作である」ものである。
【0144】
第23の態様による方法は、「コンピュータにより読み取り可能な命令を実行する一又
は複数のプロセッサにより実行される方法であって、配信者による所定の動作、前記配信
者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の
状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足す
るか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情
又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前
記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表
情又はポーズとするための情報を、送信する、」ものである。
【0145】
第24の態様による方法は、上記第23の態様において「前記配信者の所定の動作は、
前記配信者に五感で知覚される予め定められた動作である」ものである。
【0146】
第25の態様による視聴者端末装置は、「一又は複数のプロセッサを具備し、前記プロ
セッサが、コンピュータにより読み取り可能な命令を実行することにより、配信者による
所定の動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者
に対して生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報
が所定の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、
前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの
表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を
生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する」ものである
【0147】
第26の態様による配信者端末装置は、「一又は複数のプロセッサを具備し、前記プロ
セッサが、コンピュータにより読み取り可能な命令を実行することにより、配信者による
所定の動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者
に対して生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報
が所定の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、
前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの
表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を
生成し、前記所定の表情又はポーズとするための情報を、送信する、」ものである。
【0148】
また、本願書類で説明されたシステム及び情報処理は、ソフトウェア、ハードウェア又
はこれらの組み合わせによっても実施されてよく、またかかるシステム及び情報処理の一
部又は全部は、処理・手順をコンピュータプログラムとして実装し、各種のコンピュータ
に実行させられてよく、またこれらのコンピュータプログラムは、記憶媒体に記憶されて
よい。また、これらのプログラムは、非一過性又は一時的な記憶媒体に記憶されてよい。
【0149】
本願書類で説明したものは、本願書類で説明されたものに限られず、本願書類で説明さ
れた種々の技術上の利点や構成を有する種々の技術的思想の範囲内で、種々の例に適用で
きることはいうまでもない。
【符号の説明】
【0150】
1 システム
10 通信網
20(20A~20C) サーバ装置
30(30A~30C) 端末装置
21(31) 演算装置
22(32) 主記憶装置
23(33) 入出力インタフェイス
24(34) 入力装置
25(35) 補助記憶装置
26(36) 出力装置
41 取得部
42 条件適用部
図1
図2
図3
図4
図5
図6
図7
図8
図9