(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-05-10
(45)【発行日】2023-05-18
(54)【発明の名称】キャラクタを使ったライブ通信システム
(51)【国際特許分類】
H04N 7/15 20060101AFI20230511BHJP
H04L 67/00 20220101ALI20230511BHJP
H04L 67/02 20220101ALI20230511BHJP
H04M 1/00 20060101ALI20230511BHJP
H04M 11/00 20060101ALI20230511BHJP
H04N 21/431 20110101ALI20230511BHJP
【FI】
H04N7/15 170
H04L67/00
H04L67/02
H04M1/00 R
H04M11/00 302
H04N21/431
(21)【出願番号】P 2019002271
(22)【出願日】2019-01-10
【審査請求日】2021-11-12
【新規性喪失の例外の表示】特許法第30条第2項適用 平成30年9月18日に、Apple Inc.のTestFlight(https://developer.apple.com/jp/testflight/)、において公開。
【新規性喪失の例外の表示】特許法第30条第2項適用 平成30年10月4日に、https://itunes.apple.com/jp/app/iriam-%E3%82%A4%E3%83%AA%E3%82%A2%E3%83%A0/id1358057296?mt=8、において公開。
【新規性喪失の例外の表示】特許法第30条第2項適用 平成30年10月4日に、https://play.google.com/store/apps/details?id=jp.co.duo7.vr.iriam、において公開。
【新規性喪失の例外の表示】特許法第30条第2項適用 平成30年10月4日に、https://iriam.com/およびhttps://twitter.com/iriam_official、において公開。
(73)【特許権者】
【識別番号】520252952
【氏名又は名称】株式会社IRIAM
(74)【代理人】
【識別番号】110002273
【氏名又は名称】弁理士法人インターブレイン
(72)【発明者】
【氏名】塚本 大地
(72)【発明者】
【氏名】伊藤 周
(72)【発明者】
【氏名】井上 徹
(72)【発明者】
【氏名】坪田 朋
【審査官】鈴木 順三
(56)【参考文献】
【文献】特開2003-016475(JP,A)
【文献】特開2017-199352(JP,A)
【文献】特開2004-236186(JP,A)
【文献】国際公開第2018/142494(WO,A1)
【文献】特表2016-537922(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 7/14 - 7/173
H04N 21/00 - 21/858
H04L 67/00 - 67/75
H04M 1/00
H04M 11/00 - 11/10
(57)【特許請求の範囲】
【請求項1】
配信者により操作される配信端末と視聴者により操作される視聴端末を含み、
前記配信端末は、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者から第1メッセージを受け付ける第1メッセージ取得部と、
前記動作情報および前記第1メッセージを送信する送信部と、を備え、
前記視聴端末は、
前記動作情報および前記第1メッセージを受信する受信部と、
前記視聴端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する第1メッセージ出力部と
、を備え、
前記配信端末の動作情報生成部は、配信者の顔画像から、配信者の表情を示す特徴ベクトルを前記動作情報として設定し、
前記視聴端末の視聴キャラクタ表示部は、前記特徴ベクトルに基づいてキャラクタの表情を変化させ、更に、
配信者の表情を示す特徴ベクトルが所定の表情条件を満たしたときには、前記キャラクタの表情をあらかじめ定められた特定表情に変化させることを特徴とするライブ通信システム。
【請求項2】
配信者により操作される配信端末と視聴者により操作される視聴端末を含み、
前記配信端末は、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者から第1メッセージを受け付ける第1メッセージ取得部と、
前記動作情報および前記第1メッセージを送信する送信部と、を備え、
前記視聴端末は、
前記動作情報および前記第1メッセージを受信する受信部と、
前記視聴端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する第1メッセージ出力部と
、を備え、
前記配信端末の動作情報生成部は、配信者の前後および左右の動きを検出することにより、配信者と前記配信端末の相対位置を前記動作情報として設定し、
前記視聴端末の視聴キャラクタ表示部は、前記相対位置に基づいて前記視聴端末の画面における前記キャラクタの位置およびサイズの双方または一方を変化させることを特徴とするライブ通信システム。
【請求項3】
配信者により操作される配信端末と視聴者により操作される視聴端末を含み、
前記配信端末は、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者から第1メッセージを受け付ける第1メッセージ取得部と、
前記動作情報および前記第1メッセージを送信する送信部と、
複数の表情ボタンを前記配信端末に表示させるボタン表示部と、を備え、
前記視聴端末は、
前記動作情報および前記第1メッセージを受信する受信部と、
前記視聴端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する第1メッセージ出力部と
、を備え、
前記配信端末の送信部は、更に、前記複数の表情ボタンのうち選択された表情ボタンを識別する表情IDを前記視聴端末に送信し、
前記視聴端末の受信部は、前記表情IDを受信し、
前記視聴端末の視聴キャラクタ表示部は、前記表情IDに対応する特定表情に前記キャラクタの表情を変化させることを特徴とするライブ通信システム。
【請求項4】
配信者により操作される配信端末と視聴者により操作される視聴端末を含み、
前記配信端末は、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者から第1メッセージを受け付ける第1メッセージ取得部と、
前記動作情報および前記第1メッセージを送信する送信部と、を備え、
前記視聴端末は、
前記動作情報および前記第1メッセージを受信する受信部と、
前記視聴端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部
と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する第1メッセージ出力部と、
視聴者から、複数のキャラクタのうちのいずれかを選択を受け付けるキャラクタ選択部と、を備え、
前記視聴端末の視聴キャラクタ表示部は、前記選択されたキャラクタに応じて、前記動作情報に応じたキャラクタの動作量を変化させることを特徴とするライブ通信システム。
【請求項5】
配信者により操作される配信端末と視聴者により操作される視聴端末を含み、
前記配信端末は、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者から第1メッセージを受け付ける第1メッセージ取得部と、
前記動作情報および前記第1メッセージを送信する送信部と、を備え、
前記視聴端末は、
前記動作情報および前記第1メッセージを受信する受信部と、
前記視聴端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する第1メッセージ出力部と
、を備え、
前記配信端末の動作情報生成部は、更に、手の動きを前記動作情報として設定し、
前記視聴端末の視聴キャラクタ表示部は、手の動きを示す動作情報が受信されたとき、キャラクタに手を振る動作をさせることを特徴とするライブ通信システム。
【請求項6】
配信者により操作される配信端末と視聴者により操作される視聴端末を含み、
前記配信端末は、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者から第1メッセージを受け付ける第1メッセージ取得部と、
前記動作情報および前記第1メッセージを送信する送信部と、を備え、
前記視聴端末は、
前記動作情報および前記第1メッセージを受信する受信部と、
前記視聴端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する第1メッセージ出力部
と、
視聴者から装飾アイテムの選択を受け付ける提供アイテム選択部と、
前記選択された装飾アイテムを前記配信端末に送信する送信部と、を備え、
前記配信端末は、
前記視聴端末から、装飾アイテムを識別するアイテムIDを受信する受信部と、
視聴者から受け取った複数の装飾アイテムのうち、配信者による装飾アイテムの選択を受け付ける着用アイテム選択部と、を更に備え、
前記配信端末の送信部は、前記選択された装飾アイテムのアイテムIDを前記視聴端末に送信し、
前記視聴端末の受信部は、前記視聴端末からアイテムIDを受信し、
前記視聴端末の視聴キャラクタ表示部は、前記受信されたアイテムIDに対応する装飾アイテムを前記キャラクタの衣装として追加した上で前記キャラクタを表示させることを特徴とするライブ通信システム。
【請求項7】
前記配信端末は、
前記配信端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる配信キャラクタ表示部、を更に備え、
前記送信部は、前記動作情報の送信に際しては、前記キャラクタの動画データを前記視聴端末への送信対象とはせず、
前記配信端末および前記視聴端末は、前記動作情報に基づいてそれぞれ独自にキャラクタを動画表示させることを特徴とする
請求項1から6のいずれかに記載のライブ通信システム。
【請求項8】
前記配信端末は、複数の前記視聴端末と同時接続され、
前記配信端末の送信部は、前記動作情報および前記第1メッセージを複数の前記視聴端末に同時送信し、
前記視聴端末は、前記視聴者から第2メッセージを受け付ける第2メッセージ取得部、を更に備え、
前記配信端末は、
前記第2メッセージを受信する受信部と、
前記第2メッセージを前記配信者に対して出力する第2メッセージ出力部と、を更に備え、
前記第2メッセージ出力部は、複数の視聴端末から受信した複数の第2メッセージを前記配信者に対して順番に表示させることを特徴とする
請求項1から6のいずれかに記載のライブ通信システム。
【請求項9】
前記配信端末の動作情報生成部は、配信者の顔画像から、配信者の表情を示す特徴ベクトルを前記動作情報として設定し、
前記視聴端末の視聴キャラクタ表示部は、前記特徴ベクトルに基づいてキャラクタの表情を変化させることを特徴とする
請求項2から6のいずれかに記載のライブ通信システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、通信ネットワークを介した視覚的なコミュニケーション技術、に関する。
【背景技術】
【0002】
スマートフォンの普及にともない、SNS(Social Networking Service)を介したコミュニケーションが一般化している。SNSでは、テキストだけでなく写真や動画像などさまざまなコンテンツを気軽に共有できる。SNSは、人と人との「絆(つながり)」を強く感じさせるツールである。
【0003】
一方、コンピュータゲームの分野においては、ユーザがキャラクタ(コンピュータ)と会話をしながらプレイするゲームも多い。ユーザは、現実には存在しないキャラクタに対して強い思い入れをもつことが多い。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
キャラクタは、ゲームデザイナーによってつくられた仮想的存在であり、人間のような実在感をもたない。その一方、キャラクタは、非実在感に起因する独特の魅力をもつ。本発明者らは、キャラクタ特有の魅力と人間特有の「リアルなつながり」の双方を取り込むことにより、新しいコミュニケーション方法を提案できるのではないかと考えた。
【0006】
具体的には、配信者(人間)と視聴者(人間)の会話を想定する。配信者は、ちょうどテレビアニメの声優のようにキャラクタの代弁者となり、キャラクタを通して視聴者と会話する。このようなコミュニケーションを想定した場合、キャラクタは、配信者の言葉だけでなく、配信者の気持ちや態度を豊かに円滑に表現できることが望ましい。
【0007】
本発明は、上記認識に基づいて完成された発明であり、その主たる目的は、キャラクタを介したコミュニケーションにおいて、特に、豊かで円滑な非言語コミュニケーションを実現するための技術、を提供することにある。
【課題を解決するための手段】
【0008】
本発明のある態様におけるライブ通信システムは、配信者により操作される配信端末と視聴者により操作される視聴端末を含む。
配信端末は、配信者を撮像する撮像部と、配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、配信者から第1メッセージを受け付ける第1メッセージ取得部と、動作情報および第1メッセージを送信する送信部と、を備える。
視聴端末は、動作情報および第1メッセージを受信する受信部と、視聴端末の画面にキャラクタを動画表示させ、動作情報に応じてキャラクタを動作させる視聴キャラクタ表示部と、キャラクタの動作に合わせて第1メッセージを出力する第1メッセージ出力部と、を備える。
【0009】
本発明のある態様における配信端末は、複数の視聴者により操作される複数の視聴端末と接続される。配信端末は、配信者を撮像する撮像部と、配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、配信者から第1メッセージを受け付ける第1メッセージ取得部と、動作情報および第1メッセージを送信する送信部と、複数の視聴端末から第2メッセージを受信する受信部と、第2メッセージを配信者に対して出力する第2メッセージ出力部と、を備える。
第2メッセージ出力部は、複数の視聴端末から受信した複数の第2メッセージを配信者に対して順番に表示させる。
【発明の効果】
【0010】
本発明によれば、キャラクタを介した豊かなコミュニケーションを実現しやすくなる。
【図面の簡単な説明】
【0011】
【
図1】ライブ通信システムのハードウェア構成図である。
【
図2】ライブ通信システムによる会話サービスを説明するための模式図である。
【
図3】配信端末およびサーバの機能ブロック図である。
【
図6】視聴端末に表示される視聴者会話画面の画面図である。
【
図7】配信端末に表示される配信者会話画面の画面図である。
【
図8】配信端末および視聴端末の双方においてキャラクタを表示させる処理のシーケンス図である。
【
図9】配信者が体を傾けたときのキャラクタを示す画面図である。
【
図10】配信者が表情を変化させたときのキャラクタを示す画面図である。
【
図11】特定表情をするときのキャラクタを示す画面図である。
【
図12】手を振るときのキャラクタを示す画面図である。
【
図13】視聴者が装飾アイテムを選択するときの画面図である。
【
図15】キャラクタが装飾アイテムを着用したときの画面図である。
【
図16】キャラクタに装飾アイテムをプレゼントし、キャラクタが装飾アイテムを着用する処理過程を示すシーケンス図である。
【発明を実施するための形態】
【0012】
図1は、ライブ通信システム100のハードウェア構成図である。
ライブ通信システム100においては、サーバ102に対して、複数の配信端末104a、104b・・・104m(以下、まとめて言うときや特に区別しないときには「配信端末104」と総称する)および複数の視聴端末108a、108b・・・108n(以下、まとめて言うときや特に区別しないときには「視聴端末108」と総称する)がインターネット106を介して接続される。配信端末104および視聴端末108としては、スマートフォンを想定しているが、ラップトップPCなどの汎用コンピュータであってもよい。
【0013】
配信端末104を使用するユーザを「配信者」とよぶ。視聴端末108を使用するユーザを「視聴者」とよぶ。配信者がサービスの提供者となり、視聴者がサービスの享受者となる。
【0014】
図2は、ライブ通信システム100による会話サービスを説明するための模式図である。
本実施形態においては、1つの配信端末104に対して多数の視聴端末108が同時接続できる。以下、1対多通信を前提として説明する。
図2は、1人の配信者110に対して、3人の視聴者112a、112b、112c(以下、まとめて言うときや特に区別しないときには「視聴者112」と総称する)がグループで会話をする状況を想定している。
【0015】
配信者110にはあらかじめキャラクタが対応づけられる。配信端末104には配信者110に対応づけられる配信キャラクタ114aが表示される。視聴端末108にも視聴キャラクタ114bが表示される。配信キャラクタ114aと視聴キャラクタ114bはまったく同じキャラクタである。以下、配信キャラクタ114aと視聴キャラクタ114bを特に区別しないときには単に「キャラクタ114」とよぶ。
【0016】
配信者110が配信端末104の前でしゃべると、その音声データは視聴端末108に一斉送信される。配信端末104は配信者の口の動きを検出し、配信キャラクタ114aの口も動かす。また、これに連動して、視聴端末108は視聴キャラクタ114bの口も動かす。視聴者112には、配信者ではなく、あたかも視聴キャラクタ114bが自らの意思でしゃべっているように見える。いわば、配信者110は「声優」としてキャラクタ114の代弁者となる。以下、配信者110により入力される音声メッセージを「第1メッセージ」とよぶ。
【0017】
視聴者112は、テキストにて視聴端末108にメッセージ(以下、「第2メッセージ」とよぶ)を入力する。第2メッセージは、配信端末104および視聴端末108に一斉送信される。視聴者112は、視聴キャラクタ114bの話を聞きながら、第2メッセージを入力することでキャラクタ114(配信者110)と会話する。
【0018】
キャラクタ114の基本設定(キャラクタ114の容姿や表情変化の豊かさなど)と配信者110の声質や会話力によって、キャラクタ114の個性がかたちづくられる。
【0019】
図3は、配信端末104およびサーバ102の機能ブロック図である。
配信端末104およびサーバ102の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
視聴端末108についても同様である。
【0020】
(配信端末104)
配信端末104は、ユーザインタフェース処理部116、撮像部118、データ処理部120、通信部122およびデータ格納部124を含む。
通信部122は、通信処理を担当する。撮像部118は、配信者110を撮像する。ユーザインタフェース処理部116は、配信者110からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部124はキャラクタ114の画像データを含む各種データを格納する。データ処理部120は、通信部122、ユーザインタフェース処理部116、撮像部118により取得されたデータおよびデータ格納部124に格納されているデータに基づいて各種処理を実行する。データ処理部120は、ユーザインタフェース処理部116、撮像部118、通信部122およびデータ格納部124のインタフェースとしても機能する。
【0021】
通信部122は、送信部148と受信部150を含む。
【0022】
ユーザインタフェース処理部116は、配信者110からの入力を受け付ける入力部126と配信者110に各種情報を出力する出力部128を含む。
入力部126は、動作検出部130、第1メッセージ取得部132、ボタン選択部134および着用アイテム選択部136を含む。動作検出部130は、撮像部118を介して配信者110の表情や体の動きを検出する。第1メッセージ取得部132は、第1メッセージ(音声メッセージ)を取得する。ボタン選択部134は、「表情ボタン(後述)」の選択を受け付ける。着用アイテム選択部136は、キャラクタ114に着用させる「装飾アイテム(後述)」の選択を受け付ける。
【0023】
出力部128は、配信キャラクタ表示部138、第2メッセージ出力部140およびボタン表示部142を含む。
配信キャラクタ表示部138は配信端末104に配信キャラクタ114aを表示させる。第2メッセージ出力部140は視聴者112による第2メッセージ(テキストメッセージ)を配信端末104に表示させる。ボタン表示部142は表情ボタンを表示させる。
【0024】
データ処理部120は、動作情報生成部144および特定表情判定部146を含む。
動作情報生成部144は、動作検出部130の検出結果から「動作情報」を生成する。動作情報とは、配信者110の表情を示す特徴ベクトル(例:眉の角度、目や口の開度を示す数値、配信者110と配信端末104との相対的な位置関係(前後左右)を示す数値など、配信者110の動作状態を示す数値データである。特定表情判定部146は、キャラクタ114にさせるべき「特定表情」を判定する。特定表情とは、キャラクタ114の顔を漫画的に表現した表情であるが詳細は後述する。
【0025】
(サーバ102)
サーバ102は、通信部152、ライブ制御部154およびデータ格納部156を含む。
通信部152は、通信処理を担当する。データ格納部156は各種データを格納する。ライブ制御部154は、通信部152により取得されたデータおよびデータ格納部156に格納されているデータに基づいて配信端末104と視聴端末108のコミュニケーションを仲介・統括する。ライブ制御部154は、通信部152およびデータ格納部156のインタフェースとしても機能する。
【0026】
データ格納部156は、複数のキャラクタ114のデータを格納するキャラクタ格納部158とキャラクタ114が保有する装飾アイテムを格納するアイテム格納部160を含む。アイテム格納部160のデータ構造は
図14に関連して後述する。
【0027】
図4は、視聴端末108の機能ブロック図である。
視聴端末108は、ユーザインタフェース処理部162、データ処理部166、通信部164およびデータ格納部168を含む。
通信部164は、通信処理を担当する。ユーザインタフェース処理部162は、視聴者112からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部168はキャラクタ114の画像データを含む各種データを格納する。配信端末104と視聴端末108はどちらもキャラクタ114のデータをそれぞれ格納する。データ処理部166は、通信部164およびユーザインタフェース処理部162により取得されたデータおよびデータ格納部168に格納されているデータに基づいて各種処理を実行する。データ処理部166は、ユーザインタフェース処理部162、通信部164およびデータ格納部168のインタフェースとしても機能する。
【0028】
通信部122は、送信部186と受信部190を含む。
【0029】
ユーザインタフェース処理部162は、視聴者112からの入力を受け付ける入力部170と視聴者112に各種情報を出力する出力部172を含む。
入力部170は、第2メッセージ取得部174、キャラクタ選択部176および提供アイテム選択部178を含む。第2メッセージ取得部174は、第2メッセージ(テキストメッセージ)を取得する。キャラクタ選択部176は、会話対象となるキャラクタ114の選択を受け付ける。提供アイテム選択部178はキャラクタ114にプレゼントしたい装飾アイテムの選択を受け付ける。
【0030】
出力部172は、視聴キャラクタ表示部180、第1メッセージ出力部182および第2メッセージ出力部184を含む。
視聴キャラクタ表示部180は、視聴端末108に視聴キャラクタ114bを表示させる。第1メッセージ出力部182は配信者110による第1メッセージを視聴端末108から音声出力する。第2メッセージ出力部184は視聴者112による第2メッセージを視聴端末108に画面表示させる。
【0031】
図5は、キャラクタ選択画面194の画面図である。
ライブ通信サービスの開始時において、サーバ102のライブ制御部154は、視聴端末108にキャラクタ選択画面194を表示させる。視聴者112は、視聴端末108に表示されたキャラクタ選択画面194において会話したい視聴キャラクタ114b(配信者110)を選ぶ。ライブ制御部154は、会話可能な状態(スタンバイ状態)にある配信者110に対応するキャラクタ114を会話可能なキャラクタとしてキャラクタ選択画面194に提示する。
【0032】
キャラクタ選択画面194は、複数のキャラクタボタン192a、192b(視聴キャラクタ114b1、114b2)を表示する。キャラクタ選択部176は視聴キャラクタ114bの選択を受け付ける。
以下、視聴者112はキャラクタボタン192aを選択し、視聴キャラクタ114b1との会話を楽しむものとして説明する。
【0033】
図6は、視聴端末108に表示される視聴者会話画面196の画面図である。
視聴端末108の視聴キャラクタ表示部180は、おしゃべりの相手として選ばれた視聴キャラクタ114b1を動画表示させる。視聴者112は、視聴キャラクタ114b1との会話を楽しむ。視聴者112からは配信者110の姿が見えることはない。視聴端末108の第1メッセージ出力部182は、視聴キャラクタ114b1を担当する配信者110からの音声(第1メッセージ)を出力する。視聴者112は、テキストにより視聴キャラクタ114b1へのメッセージ(第2メッセージ)を入力する。サーバ102は、第1メッセージおよび第2メッセージを配信端末104、視聴端末108の間で共有させる。
【0034】
第2メッセージ出力部184はメッセージ領域198に第2メッセージをテキスト表示させる。1人の配信者110が複数の視聴者112と同時並行にて会話する方式であるため、サーバ102は各視聴者112の第2メッセージを配信端末104および複数の視聴者112に一斉配信する。視聴者112は、メッセージ領域198により自分の第2メッセージだけでなく他の視聴者112の第2メッセージも視認できる。第2メッセージ出力部184は第2メッセージを受信順に並べて表示させる。
【0035】
視聴者112は、プレゼントボタン200を選択することにより、視聴キャラクタ114b1に対して装飾アイテムをプレゼントできる(
図13以降に関連して後述)。
【0036】
図7は、配信端末104に表示される配信者会話画面206の画面図である。
図7に示す配信者会話画面206は、配信キャラクタ114a1(視聴キャラクタ114b1に対応)を担当する配信者110の配信端末104に表示される。配信キャラクタ表示部138は、配信キャラクタ114a1を動画表示させる。視聴キャラクタ114b1と配信キャラクタ114aは同一キャラクタであり、動きも同じである。配信者110は、自らの分身である配信キャラクタ114a1の動きを配信端末104にて確認しながら複数の視聴者112(視聴キャラクタ114b1を会話の相手として選んだ視聴者112)と会話する。配信者110は、配信端末104に向かって音声にて第1メッセージを入力する。送信部148は第1メッセージをサーバ102に送信し、サーバ102のライブ制御部154は第1メッセージを複数の視聴端末108に配信する。
【0037】
第2メッセージ出力部140は、視聴者112からの第2メッセージをメッセージ領域198に時系列順にて表示させる。配信者110はメッセージ領域198に次々に表示される第2メッセージをみながら不特定多数の視聴者112に話しかける。配信端末104のカメラ208(撮像部118)は、配信者110を撮像する。動作検出部130は、撮像画像から配信者110の表情および動作を検出し、動作情報生成部144は動作情報を生成する。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114a1の動きを決定する。また、詳細は後述するが視聴キャラクタ114b1も同じ動作情報に基づいて視聴端末108にて動画表示される。
【0038】
ボタン表示部142は、複数の表情ボタン202a(大笑い)、202b(満面の笑み)、202c(不機嫌)、202d(困惑)(以下、まとめて「表情ボタン202」とよぶ)を表示させる。ボタン選択部134が表情ボタン202の選択を検出したとき、特定表情判定部146は表情ボタン202に対応する「特定表情」に選ぶ(
図11に関連して後述)。また、配信者110がバイバイ領域204をタッチしたときには、キャラクタ114は手を振る動作を行う(
図12に関連して後述)。
【0039】
図8は、配信端末104および視聴端末108の双方においてキャラクタ114を表示させる処理のシーケンス図である。
配信端末104の動作検出部130は、配信者110の動作を検出する(S10)。動作情報生成部144は、動作情報を生成する(S12)。動作情報は、配信者110の表情、体の角度、配信者110の撮像部118からの遠近、バイバイ領域204へのタッチの有無、表情ボタン202の選択結果、などを示す数値データである(S12)。
【0040】
配信端末104の送信部148は、サーバ102経由にて、各視聴端末108に動作情報を送信する(S14)。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114a1の動画像を生成し(S16)、配信端末104に配信キャラクタ114a1を動画表示させる(S18)。
【0041】
一方、視聴端末108の視聴キャラクタ表示部180も、受信された動作情報に基づいて視聴キャラクタ114b1の動画像を生成し(S20)、視聴端末108に視聴キャラクタ114b1を動画表示させる(S22)。
【0042】
配信キャラクタ114a1と視聴キャラクタ114b1は、同一のキャラクタであり、かつ、同一の動作情報に基づいて動きが決まるため、配信端末104および視聴端末108それぞれにおいて配信キャラクタ114a1と視聴キャラクタ114bは同じ姿にて同じ動作を行う。
【0043】
配信端末104は、キャラクタ114の動画像(キャラクタ画像)そのものを視聴端末108に送信しているのではなく、キャラクタ114の動作を定義する動作情報のみを送信している。動画像そのものを送信するよりも送信データ量が少ないため、配信キャラクタ114a1と視聴キャラクタ114b1それぞれの動きを速やかに連動させやすい。いいかえれば、動作情報が配信キャラクタ114a1の動きとして反映されるまでの時間と、同じ動作情報が視聴キャラクタ114b1の動きとして反映されるまでの時間の差分が小さいため、視聴者112はキャラクタ114(配信者110)との快適な会話を楽しむことができる。
【0044】
第1メッセージ(音声メッセージ)と動作情報は一体化して配信端末104から視聴端末108に送信されてもよい。この場合には、視聴キャラクタ表示部180は、視聴キャラクタ114b1の動作と音声メッセージがずれにくくなる。また、動画像そのものではなく、動画像を決定するための動作情報を送信することは、インターネット106に対する通信負荷を抑制する上でも有効である。
【0045】
図9は、配信者110が体を傾けたときのキャラクタ114を示す画面図である。
配信者110が体を左右に傾けると、動作検出部130は体の傾斜を検出する。動作情報生成部144は、傾斜角および傾斜方向を動作情報に含める。視聴キャラクタ表示部180は、動作情報にしたがって、視聴キャラクタ114b1を傾斜させる。配信キャラクタ表示部138も、同じ動作情報にしたがって配信キャラクタ114a1を傾斜させる。このように、配信者110が体を左右に傾けると、配信側と視聴側双方のキャラクタ114は配信者110に合わせて体を傾ける。配信者110が体を前後に傾けたときにも、キャラクタ114は同様にして体を前後させる。動作検出部130は、配信者110の前傾後傾を撮像画像に映る配信者110の大きさから認識すればよい。
【0046】
一般的には、体の傾斜に人間の心理が現れるといわれる。たとえば、会話に興味をもっているときに人間は前傾姿勢(聞こうという体勢)になりやすく、動揺しているときには体は左右に揺れるともいわれる。配信者110の体の動きをキャラクタ114にも反映させることにより、視聴者112はキャラクタ114(配信者110)の心理を感じ取ることができる。
【0047】
図10は、配信者110が表情を変化させたときのキャラクタ114を示す画面図である。
配信者110が表情を変化させるとき、動作検出部130は配信者110の表情、具体的には、目の大きさ、口の形、眉毛の角度、眉間のシワの深さや方向などを検出する。動作情報生成部144は、これらの検出値に基づいて表情を定義する特徴ベクトルを生成する。特徴ベクトルは動作情報の一部となる。配信者110が片目をつぶったとき(ウィンク)、視聴キャラクタ表示部180は視聴キャラクタ114b1をウィンクさせる。配信キャラクタ114a1についても同様である。
【0048】
このほかにも、舌を出す、口角を上げるなど、さまざまな表情を特徴ベクトル(動作情報)で数値表現することにより、配信者110の表情もキャラクタ114に反映させることができる。配信者110が微笑むときにはキャラクタ114も微笑む。配信者110が口をすぼめるとキャラクタ114も口をすぼめる。配信者110の表情とキャラクタ114の表情を連動させることにより、視聴者112はキャラクタ114の存在をいっそう身近に感じることができる。
【0049】
なお、キャラクタ114によって、配信者110の動きに対する追従性が異なる。たとえば、視聴キャラクタ114b1は表情がゆたかなキャラクタであり、配信者110の表情のちょっとした変化も大きく反映されるとしてもよい。一方、視聴キャラクタ114b2は冷静沈着なキャラクタであり、配信者110の表情が大きく変化してもあまりその表情が変化しないとしてもよい。
【0050】
より具体的には、配信者110の口角が5ポイントだけ上がったとき、視聴キャラクタ114b1の口角は10ポイントだけ上がり、視聴キャラクタ114b2の口角は2ポイントしか上がらないとしてもよい。体を大きく動かしやすいアクティブなキャラクタ114がいてもよいし、舌を出すことはない淑やかなキャラクタ114がいてもよい。このように、動作情報がキャラクタ114の動きとしてどの程度まで反映されるかは、キャラクタ114によって異なる。キャラクタ114の個性は、キャラクタ114の有する基本設定と配信者110の個性(表情および会話力)によって形作られる。
【0051】
図11は、特定表情をするときのキャラクタ114を示す画面図である。
配信者110は、表情ボタン202により特定表情(漫画的に表現される表情)を選択する。
図11は、視聴キャラクタ114b1がぐっと目をつぶっているときの特定表情を示している。キャラクタ114は、二次元の漫画として表現されるため、人間にはできないけれども漫画では一般的な表現とされるさまざまな特定表情を示すことができる。たとえば、キャラクタ114が怒っていることを示すときには「怒り」の漫画的表象としてキャラクタ114の頭から「煙」を出してもよいし、こめかみに「青筋」を浮き上がらせてもよいし、キャラクタ114の顔を真っ赤にしてもよいし、眉をつり上がらせてもよい。キャラクタ114の困惑を示すときには、キャラクタ114の顔を真っ青にしてもよいし、キャラクタ114の顔に「汗」を表示してもよい。このように特定表情をいわゆる「漫符」として表現してもよい。涙や大爆笑など、人間にはできない表情あるいは人間が簡単には示せない大きな表情を特定表情の画像パターンとして用意してもよい。表情ボタン202が選択されたときには、特定表情判定部146は表情ボタン202に対応する特定表情を示す表情IDを送信部148から視聴端末108に送信させる。視聴キャラクタ表示部180は、表情IDに対応して視聴キャラクタ114b1の表情を特定表情に変化させる。配信キャラクタ114a1の表情も表情IDに応じて特定表情に変化する。
【0052】
キャラクタ114は、人間(配信者110)にはできないが漫画ではおなじみの特定表情を実現できるため、人間では不可能な非語的コミュニケーションを実現できる。
【0053】
図12は、手を振るときのキャラクタ114を示す画面図である。
配信者110がバイバイ領域204(
図7参照)をタッチしたとき、動作情報生成部144は「手振り」を示す情報(以下、「バイバイ情報」とよぶ)を動作情報に含める。視聴キャラクタ表示部180は、バイバイ情報を受信したときには、視聴キャラクタ114b1に手を振る動作を実行させる。
【0054】
図13は、視聴者112が装飾アイテムを選択するときの画面図である。
視聴者112がプレゼントボタン200をタッチしたとき、視聴端末108の出力部172は提供アイテム選択領域210を表示させる。提供アイテム選択領域210は、視聴者112が保有する、または、購入可能な装飾アイテム212を一覧表示する。装飾アイテム212は、キャラクタ114が着用可能な衣服やアクセサリを示す画像である。
【0055】
視聴者112は、キャラクタ114にプレゼントしたい装飾アイテム212を提供アイテム選択領域210から選択する。提供アイテム選択部178は、装飾アイテム212の選択を検出する。このとき、出力部172は選択された装飾アイテム212がキャラクタ114に「おひねり」として投げ込まれるアニメーションを表示してもよい。また、視聴キャラクタ表示部180は、装飾アイテム212がプレゼントされたときに視聴キャラクタ114b1が驚いたり、喜んだりする表情を表示してもよい。
【0056】
図14は、アイテム格納部160のデータ構造図である。
サーバ102のアイテム格納部160は、キャラクタ114(配信者110)が保有する装飾アイテム212を管理する。
図14によれば、キャラクタID(CID)=C01のキャラクタ114(以下、「キャラクタ114(C01)」のように表記する)は、装飾アイテム212(M01)、装飾アイテム212(M02)等の多数の装飾アイテム212を保有している。いわば、アイテム格納部160はキャラクタ114ごとの「衣装ケース」である。
【0057】
キャラクタ114(配信者110)が視聴者112から装飾アイテム212をもらったとき、ライブ制御部154はキャラクタ114に装飾アイテム212を対応づけて登録する。
図14によれば、キャラクタ114(C01)は、視聴者112(P13)から2018年11月8日に装飾アイテム212(M02)をもらっている。また、キャラクタ114(C01)は、視聴者112(P24)から装飾アイテム212(M01)と装飾アイテム212(M03)をプレゼントされている。したがって、視聴者112(P24)は、キャラクタ114(C01)を応援する気持ちを強く持っていると推測できる。
【0058】
どのキャラクタ114(配信者110)がどの視聴者112からどのような装飾アイテム212をどのくらいもらっているかにより、キャラクタ114の人気や支持層を確認できる。
【0059】
図15は、キャラクタ114が装飾アイテム212を着用したときの画面図である。
配信者110は、保有している装飾アイテム212を選んでキャラクタ114に着用させることができる。視聴者112は、多数の視聴者112(ファン)からプレゼントされた多数の装飾アイテム212のうち、自分がプレゼントした装飾アイテム212をキャラクタ114が着用してくれれば、自分の真心がキャラクタ114に通じたかのような満足感を味わえる。配信者110も装飾アイテム212をキャラクタ114に着用させることにより、視聴者112(ファン)たちの期待に応える楽しみを味わえる。また、視聴者112は、装飾アイテム212をプレゼントすることにより、お気に入りのキャラクタ114のファッションの変化を楽しむことができる。配信者110は、キャラクタ114に複数の装飾アイテム212を同時に着用することでコーディネートを楽しんでもよい。
【0060】
図16は、キャラクタ114に装飾アイテム212をプレゼントし、キャラクタ114が装飾アイテム212を着用する処理過程を示すシーケンス図である。
視聴者112は、提供アイテム選択領域210において装飾アイテム212を選択する。着用アイテム選択部136は、装飾アイテム212の選択を検出する(S30)。送信部148は、装飾アイテム212を特定するアイテムIDをサーバ102に送信する(S32)。サーバ102の通信部152は、配信端末104に対して装飾アイテム212がプレゼントされた旨を通知する(S34)。また、ライブ制御部154は装飾アイテム212をアイテム格納部160に登録する(S36)。以上の処理過程により、視聴者112からキャラクタ114に装飾アイテム212がプレゼントされる。
【0061】
配信者110は、ライブ通信の開始に際して、キャラクタ114に着用させたい装飾アイテム212を選択する。まず、配信者110はサーバ102から装飾アイテム212の保有リストを取得する(S38)。配信端末104の着用アイテム選択部136は、着用アイテム選択画面(不図示)から装飾アイテム212の選択を受付ける(S40)。配信端末104の送信部148は選択された装飾アイテム212のアイテムIDをサーバ102に送信する(S42)。サーバ102は、アイテムIDをすべての視聴端末108に通知する(S44)。
【0062】
配信キャラクタ表示部138は、キャラクタ配信キャラクタ114aに装飾アイテム212を着用させた画像を生成し(S46)、配信端末104に表示させる(S48)。また、視聴端末108の視聴キャラクタ表示部180も、キャラクタ視聴キャラクタ114bに装飾アイテム212を着用させた画像を生成し(S50)、配信端末104に表示させる(S52)。
【0063】
<総括>
以上、実施形態に基づいて、ライブ通信システム100について説明した。
配信端末104は、キャラクタ114の動画像そのものではなく、動作情報を視聴端末108に送信する。視聴端末108は、動作情報に基づいてキャラクタ114の動画像をローカルに生成する。動作情報のデータ量は動画像のデータ量に比べると格段に小さいため、視聴者112はキャラクタ114(配信者110)とリアルタイム性の高い会話を楽しむことができる。
【0064】
通信スループットが高いため、ライブ通信システム100においては、1人の配信者110と複数の視聴者112が同時並行的に会話を楽しめる。このため、1人のキャラクタ114を囲んで複数の視聴者112で楽しむトークセッションのような場をつくることができる。配信者110も多数の視聴者112から話題を提供されるため、話の接ぎ穂をつかみやすくなると考えられる。
【0065】
キャラクタ114は、配信者110の声だけでなく、体の動きや表情といった非言語的コミュニケーションも可能であるため、視聴者112はキャラクタ114の存在をいっそう身近に感じやすくなる。キャラクタ114は、本質的には仮想的な存在であるが、配信者110の言葉や態度を反映させることにより、仮想でありながら実在性を感じさせるような特有の存在感を発揮できる。
【0066】
視聴者112は、複数のキャラクタ114(配信者110)の中からおしゃべりをしたい相手を自由に選ぶ。配信者110は、自分の担当するキャラクタ114を指名してくれた視聴者112の数、あるいは、視聴者112から提供される装飾アイテム212によりキャラクタ114の人気を感じることができる。このような人気を感じさせる仕組みは、配信者110がサービス精神や会話力を向上させる動機づけになると考えられる。
【0067】
視聴者112は、装飾アイテム212によりキャラクタ114への愛情を示すことができる。配信者110は、自分の化身であるキャラクタ114に装飾アイテム212を着用させることで視聴者112に感謝を示すことができる。また、視聴者112はキャラクタ114が自分のプレゼントした装飾アイテム212を着用してくれれば、多数の視聴者112から自分が選ばれたかのような優越感やキャラクタ114に対して気持ちが通じたかのような親近感を味わうことができる。
【0068】
なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。
【0069】
[変形例]
<メッセージ>
本実施形態においては、第1メッセージは音声、第2メッセージはテキストであるとして説明した。変形例として、第1メッセージはテキストであってもよいし、第2メッセージは音声であってもよい。また、スタンプ画像や絵文字など、アイコン画像によりメッセージを伝えてもよい。
【0070】
<手の動作>
本実施形態においては、キャラクタ114が手を振る動作について説明した。手をつかった動作としては、このほかにも、両手を合わせて「お願い」をするポーズ、手を上げて「やめろ」を示すポーズ、両手を上げる「バンザイ」のポーズなど、さまざまなポーズをキャラクタ114させてもよい。
【0071】
本実施形態においては、配信者110がバイバイ領域204をタッチしたとき、キャラクタ114が手を振るとして説明した。変形例として、動作検出部130は配信者110の手の動きを検出してもよい。動作情報生成部144は、配信者110の手の動きを動作情報に含めてもよい。そして、配信キャラクタ表示部138と視聴キャラクタ表示部180は動作情報に合わせてキャラクタ114の手を動かしてもよい。
【0072】
<体の動き>
本実施形態においては、撮像画像から配信者110の体の動きを検出するとして説明した。変形例として、配信者110はボタン等の入力インタフェースにより、キャラクタ114の動作を指示してもよい。たとえば、うつむく、首をかしげる、身震い、ジャンプなどさまざまなアクションを入力インタフェースから指示してもよい。
【0073】
<特定表情>
本実施形態においては、配信者110は表情ボタン202により特定表情を表示させるとして説明した。変形例として、配信者110は、自らの表情により特定表情を指示してもよい。たとえば、配信者110が両目を強くつぶったとき、特定表情判定部146は
図11に示したような「目つぶりの特定表情」を実行するための表情条件が成立したと判定してもよい。このときには「目つぶり特定表情」を示す表情IDが配信端末104から視聴端末108に送信され、視聴キャラクタ表示部180はキャラクタ114の表情を「目つぶりの特定表情」に変化させる。目つぶりが1秒以上継続する、口を開けたときの大きさが閾値以上、などさまざまな表情条件を設定しておき、複数の表情条件それぞれに特定表情を対応づけてもよい。表情だけでなく、配信者110のポーズを検出することによって、キャラクタ114に得意なポーズ(キメのポーズ)をさせてもよい。
【0074】
<キャリブレーション>
配信端末104のデータ処理部120は、配信者110の表情補正(キャリブレーション)を実行する「キャリブレーション実行部」を更に備えてもよい。配信者110には表情が豊かな人もいれば表情の変化が乏しい人もいる。キャリブレーション実行部は、配信者110の新規登録にあたっては「大きな声で、あいうえお、としゃべってください」「体を揺らしてください」などさまざまな動作指示を行い、動作検出部130はこの動作指示に対する配信者110の動きを検出してもよい。たとえば、「あ」と発声するとき、配信者110aは大きく口を開ける場合には、キャリブレーション実行部は、配信者110aについてはある程度大きく口を開けたときしかキャラクタ114も大きく口を開けないように設定してもよい。また、配信者110bは大きく口を開けない場合、配信者110bについては少し口を開けたときでもキャラクタ114は大きく口を開けるように設定してもよい。このような制御方法によれば、配信者110ごとの動きの差異を吸収し、配信者110の動きに合わせてキャラクタ114を適切に変化させることができる。
【0075】
<その他>
視聴者112から装飾アイテム212がキャラクタ114に提供されたとき、キャラクタ114はすぐに装飾アイテム212を着用してもよい。本実施形態においては、配信端末104と視聴端末108の通信をサーバ102が中継するとして説明したが、配信端末104と視聴端末108はピア・ツー・ピア(P2P)にて直接通信してもよい。また、配信端末104の第2メッセージ取得部174は、配信者110の声質を変換して視聴端末108に伝えるためのボイスチェンジャーを備えてもよい。
【符号の説明】
【0076】
100 ライブ通信システム、102 サーバ、104 配信端末、106 インターネット、108 視聴端末、110 配信者、112 視聴者、114 キャラクタ、114a 配信キャラクタ、114b 視聴キャラクタ、116 ユーザインタフェース処理部、118 撮像部、120 データ処理部、122 通信部、124 データ格納部、126 入力部、128 出力部、130 動作検出部、132 第1メッセージ取得部、134 ボタン選択部、136 着用アイテム選択部、138 配信キャラクタ表示部、140 第2メッセージ出力部、142 ボタン表示部、144 動作情報生成部、146 特定表情判定部、148 送信部、150 受信部、152 通信部、154 ライブ制御部、156 データ格納部、158 キャラクタ格納部、160 アイテム格納部、162 ユーザインタフェース処理部、164 通信部、166 データ処理部、168 データ格納部、170 入力部、172 出力部、174 第2メッセージ取得部、176 キャラクタ選択部、178 提供アイテム選択部、180 視聴キャラクタ表示部、182 第1メッセージ出力部、184 第2メッセージ出力部、186 送信部、190 受信部、192 キャラクタボタン、194 キャラクタ選択画面、196 視聴者会話画面、198 メッセージ領域、200 プレゼントボタン、202 表情ボタン、204 バイバイ領域、206 配信者会話画面、208 カメラ、210 提供アイテム選択領域、212 装飾アイテム