(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024168180
(43)【公開日】2024-12-05
(54)【発明の名称】コンテンツ配信方法、コンテンツ配信プログラム及びコンテンツ配信システム
(51)【国際特許分類】
H04N 21/442 20110101AFI20241128BHJP
H04N 21/488 20110101ALI20241128BHJP
H04N 21/258 20110101ALI20241128BHJP
【FI】
H04N21/442
H04N21/488
H04N21/258
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2023084634
(22)【出願日】2023-05-23
(71)【出願人】
【識別番号】523186690
【氏名又は名称】Arrowheads株式会社
(74)【代理人】
【識別番号】110004093
【氏名又は名称】弁理士法人アクセル特許事務所
(72)【発明者】
【氏名】松原 冬樹
【テーマコード(参考)】
5C164
【Fターム(参考)】
5C164FA06
5C164SB08P
5C164SC11P
5C164SD12S
5C164UA04S
5C164UA42S
5C164UB10S
5C164UB26S
5C164UB41P
5C164UD11P
5C164UD53S
(57)【要約】
【課題】 コンテンツに対する視聴者の反応を可視化する。
【解決手段】
一実施形態に係るコンテンツ配信方法は、視聴者端末及びコンテンツ配信装置を含むコンテンツ配信システムが実行するコンテンツ配信方法であって、前記視聴者端末にコンテンツを配信するコンテンツ配信ステップと、前記視聴者端末の表示装置に前記コンテンツを表示するコンテンツ表示ステップと、前記コンテンツの表示中に前記視聴者端末の前記表示装置側の撮影装置で視聴者を撮影する視聴者撮影ステップと、前記撮影装置で撮影された前記視聴者が予め設定された対象状態であるか判定する状態判定ステップと、前記視聴者が前記対象状態であると判定された場合、前記コンテンツに状態フラグを付与するフラグ付与ステップと、を含む。
【選択図】
図16
【特許請求の範囲】
【請求項1】
視聴者端末及びコンテンツ配信装置を含むコンテンツ配信システムが実行するコンテンツ配信方法であって、
前記視聴者端末にコンテンツを配信するコンテンツ配信ステップと、
前記視聴者端末の表示装置に前記コンテンツを表示するコンテンツ表示ステップと、
前記コンテンツの表示中に前記視聴者端末の前記表示装置側の撮影装置で視聴者を撮影する視聴者撮影ステップと、
前記撮影装置で撮影された前記視聴者が予め設定された対象状態であるか判定する状態判定ステップと、
前記視聴者が前記対象状態であると判定された場合、前記コンテンツに状態フラグを付与するフラグ付与ステップと、
を含むコンテンツ配信方法。
【請求項2】
前記状態フラグが前記コンテンツに付与されたことを前記視聴者に通知する視聴者通知ステップを更に含む
請求項1に記載のコンテンツ配信方法。
【請求項3】
前記状態フラグが前記コンテンツに付与されたことを前記コンテンツの投稿者に通知する投稿者通知ステップを更に含む
請求項1に記載のコンテンツ配信方法。
【請求項4】
前記コンテンツは、画像又は動画である
請求項1に記載のコンテンツ配信方法。
【請求項5】
前記対象状態は、表情、感情又は姿勢である
請求項1に記載のコンテンツ配信方法。
【請求項6】
前記対象状態は、笑顔である
請求項1に記載のコンテンツ配信方法。
【請求項7】
前記対象状態の判定結果に基づいて、前記視聴者にコンテンツをレコメンドするコンテンツレコメンドステップを更に含む
請求項1に記載のコンテンツ配信方法。
【請求項8】
前記対象状態の判定結果に基づいて、前記視聴者のコンテンツに対する傾向を分析する傾向分析ステップと、
分析結果を前記視聴者端末の前記表示装置に表示する傾向表示ステップを更に含む
請求項1に記載のコンテンツ配信方法。
【請求項9】
前記状態判定ステップは、前記対象状態の評価値を算出し、前記評価値に基づいて、前記視聴者が前記対象状態であるか判定する
請求項1に記載のコンテンツ配信方法。
【請求項10】
前記対象状態の判定結果は、前記評価値及び前記視聴者が前記対象状態と判定されたか否かを示す情報の少なくとも一方を含む
請求項9に記載のコンテンツ配信方法。
【請求項11】
視聴者端末及びコンテンツ配信装置を含むコンテンツ配信システムに、
前記視聴者端末にコンテンツを配信するコンテンツ配信ステップと、
前記視聴者端末の表示装置に前記コンテンツを表示するコンテンツ表示ステップと、
前記コンテンツの表示中に前記視聴者端末の前記表示装置側の撮影装置で視聴者を撮影する視聴者撮影ステップと、
前記撮影装置で撮影された前記視聴者が予め設定された対象状態であるか判定する状態判定ステップと、
前記視聴者が前記対象状態であると判定された場合、前記コンテンツに状態フラグを付与するフラグ付与ステップと、
を含むコンテンツ配信方法を実行させるコンテンツ配信プログラム。
【請求項12】
視聴者端末及びコンテンツ配信装置を含むコンテンツ配信システムであって、
前記視聴者端末にコンテンツを配信するコンテンツ配信部と、
前記視聴者端末の表示装置に前記コンテンツを表示するコンテンツ表示部と、
前記コンテンツの表示中に前記視聴者端末の前記表示装置側の撮影装置で視聴者を撮影する視聴者撮影部と、
前記撮影装置で撮影された前記視聴者が予め設定された対象状態であるか判定する状態判定部と、
前記視聴者が前記対象状態であると判定された場合、前記コンテンツに状態フラグを付与するフラグ付与部と、
を含むコンテンツ配信システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、コンテンツ配信方法、コンテンツ配信プログラム及びコンテンツ配信システムに関する。
【背景技術】
【0002】
近年、動画などのコンテンツを視聴者に配信するシステムが広く利用されている。このシステムでは、視聴者が視聴したコンテンツを分析して、視聴者の好みに合ったコンテンツをレコメンドすることが一般に行われている。例えば、引用文献1には、視聴者によるコンテンツの閲覧履歴とコンテンツの内容情報に基づいて、視聴者にコンテンツをレコメンドする技術が記載されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
引用文献1に記載の技術では、視聴者が視聴したコンテンツに対して、その視聴者がどのような反応を示したかを知ることができない。
【0005】
本発明は、上記の課題を鑑みてなされたものであり、コンテンツに対する視聴者の反応を可視化することを目的とする。
【課題を解決するための手段】
【0006】
一実施形態に係るコンテンツ配信方法は、視聴者端末及びコンテンツ配信装置を含むコンテンツ配信システムが実行するコンテンツ配信方法であって、前記視聴者端末にコンテンツを配信するコンテンツ配信ステップと、前記視聴者端末の表示装置に前記コンテンツを表示するコンテンツ表示ステップと、前記コンテンツの表示中に前記視聴者端末の前記表示装置側の撮影装置で視聴者を撮影する視聴者撮影ステップと、前記撮影装置で撮影された前記視聴者が予め設定された対象状態であるか判定する状態判定ステップと、前記視聴者が前記対象状態であると判定された場合、前記コンテンツに状態フラグを付与するフラグ付与ステップと、を含む。
【発明の効果】
【0007】
一実施形態によれば、コンテンツに対する視聴者の反応を可視化することができる。
【図面の簡単な説明】
【0008】
【
図1】コンテンツ配信システム1000の構成の一例を示す図である。
【
図2】コンテンツ配信装置1のハードウェア構成の一例を示す図である。
【
図3】視聴者端末2のハードウェア構成の一例を示す図である。
【
図4】投稿者端末3のハードウェア構成の一例を示す図である。
【
図5】コンテンツ配信装置1の機能構成の一例を示す図である。
【
図7】コンテンツ情報122の一例を示す図である。
【
図9】状態フラグ情報125の一例を示す図である。
【
図10】視聴者端末2の機能構成の一例を示す図である。
【
図11】投稿者端末3の機能構成の一例を示す図である。
【
図12】コンテンツ配信システム1000が実行する処理の一例を示すフローチャートである。
【
図13】コンテンツ一覧表示画面s1の一例を示す図である。
【
図14】コンテンツ表示画面s2の一例を示す図である。
【
図15】評価値Eの時系列データの一例を示す図である。
【
図16】視聴者への通知方法の一例を示す図である。
【
図17】視聴者への通知方法の一例を示す図である。
【
図18】分析結果表示画面s3の一例を示す図である。
【
図19】対象状態履歴表示画面s4の一例を示す図である。
【発明を実施するための形態】
【0009】
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
【0010】
<コンテンツ配信システム1000の概要>
まず、本実施形態に係るコンテンツ配信システム1000の概要について説明する。コンテンツ配信システム1000は、投稿者が投稿したコンテンツを視聴者に配信するコンテンツ配信サービスを提供する情報処理システムである。ここでいうコンテンツは、例えば、1枚の画像、漫画などの連続した一連の画像、又は動画であるが、これに限られない。
【0011】
コンテンツ配信システム1000は、コンテンツを視聴中の視聴者が対象状態であるか判定し、対象状態であると判定された場合、コンテンツに状態フラグを付与し、状態フラグが付与されたことをコンテンツの視聴者及び投稿者に通知する。
【0012】
対象状態は、予め設定された視聴者の状態である。対象状態は、例えば、表情、感情、姿勢又はこれらの組み合わせである。表情は、例えば、驚き、笑い、恐れ、嫌悪、軽蔑、怒り又は悲しみを表現する表情である。感情は、例えば、驚き、笑い、恐れ、嫌悪、軽蔑、怒り又は悲しみの感情である。姿勢は、例えば、コンテンツが表示された端末に対する位置及び距離、背筋の伸び具合、首の傾き、腕の位置並びにこれらの組み合わせである。対象状態は、1つ設定されてもよいし、複数設定されてもよい。
【0013】
状態フラグは、視聴者がコンテンツを視聴した際に対象状態であると判定されたか否かを示す情報である。対象状態が複数設定されている場合、状態フラグは、対象状態ごとに用意され、付与される。
【0014】
例えば、対象状態として笑顔(笑いの表情)のみが設定されている場合、コンテンツ配信システム1000は、コンテンツを視聴中の視聴者が笑顔であるか判定し、視聴者が笑顔であると判定した場合、笑顔に対応する状態フラグをコンテンツに付与し、笑顔に対応する状態フラグが付与されたことを、その視聴者及びコンテンツの投稿者に通知する。
【0015】
また、対象状態として笑顔及び驚きの表情が設定されている場合、コンテンツ配信システム1000は、コンテンツを視聴中の視聴者が笑顔であるか及び驚きの表情であるかをそれぞれ判定する。そして、コンテンツ配信システム1000は、視聴者が笑顔であると判定した場合、笑顔に対応する状態フラグをコンテンツに付与し、笑顔に対応する状態フラグが付与されたことを、その視聴者及びコンテンツの投稿者に通知する。同様に、コンテンツ配信システム1000は、視聴者が驚きの表情であると判定した場合、驚きの表情に対応する状態フラグをコンテンツに付与し、驚きの表情に対応する状態フラグが付与されたことを、その視聴者及びコンテンツの投稿者に通知する。
【0016】
また、コンテンツ配信システム1000は、視聴者が笑顔かつ驚きの表情であると判定した場合、笑顔に対応する状態フラグ及び驚きの表情に対応する状態フラグをコンテンツに付与し、笑顔に対応する状態フラグ及び驚きの表情に対応する状態フラグが付与されたことを、その視聴者及びコンテンツの投稿者に通知してもよい。また、コンテンツ配信システム1000は、各対象状態の判定結果rに基づいて、いずれか1つの対象状態を択一的に選択してもよい。
【0017】
また、コンテンツ配信システム1000は、対象状態の判定結果rに基づいて、新たなコンテンツを視聴者にレコメンドしたり、視聴者のコンテンツに対する傾向を分析したりすることもできる。このコンテンツ配信システム1000は、動画配信プラットフォームやSNS(Social Networking Service)として利用される。
【0018】
<コンテンツ配信システム1000の構成>
図1は、コンテンツ配信システム1000の構成の一例を示す図である。
図1に示すように、コンテンツ配信システム1000は、ネットワークNを介して相互に通信可能に接続された、コンテンツ配信装置1と、視聴者端末2と、投稿者端末3と、を備える。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網又はこれらの組み合わせである。
図1の例では、コンテンツ配信システム1000は、コンテンツ配信装置1、視聴者端末2及び投稿者端末3をそれぞれ1つずつ備えるが、それぞれ複数備えてもよい。
【0019】
コンテンツ配信装置1は、投稿者が投稿したコンテンツを保存し、保存したコンテンツを視聴者に配信する情報処理装置である。また、コンテンツ配信装置1は、対象状態の判定結果rの通知、コンテンツのレコメンド及び視聴者の傾向の分析などを実行する。コンテンツ配信装置1は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ装置、又はマイクロコンピュータであるが、これに限られない。
【0020】
視聴者端末2は、視聴者が利用する情報処理装置である。ここでいう視聴者は、コンテンツ配信システム1000のユーザのうち、コンテンツ配信装置1から配信されたコンテンツを視聴するもののことである。
【0021】
視聴者端末2は、コンテンツを表示する表示装置206Dと、視聴者端末2の表示装置206D側を撮影する撮影装置205C(いわゆる、インカメラ)と、を備える。視聴者は、表示装置206Dに表示されたコンテンツを視聴する。撮影装置205Cは、表示装置206Dによるコンテンツの表示中に視聴者端末2の表示装置206D側を撮影する。これにより、コンテンツを視聴中の視聴者が撮影される。視聴者端末2は、撮影装置205Cが撮影したコンテンツを視聴中の視聴者の画像に基づいて、視聴者が対象状態であるか判定する。視聴者端末2は、例えば、PC、スマートフォン又はタブレット端末であるが、これに限られない。
【0022】
投稿者端末3は、投稿者が利用する情報処理装置である。ここでいう投稿者は、コンテンツ配信システム1000のユーザのうち、コンテンツ配信装置1にコンテンツを投稿するもののことである。
【0023】
投稿者は、投稿者端末3に保存されたコンテンツを、ネットワークNを介して、コンテンツ配信装置1に投稿(送信)する。コンテンツ配信装置1は、投稿者端末3から投稿された(受信した)コンテンツを保存し、視聴者端末2に配信(送信)する。コンテンツは、投稿者端末3を利用して作成されてもよいし、他の情報処理装置で作成されたコンテンツが投稿者端末3に保存されてもよい。投稿者端末3は、例えば、PC、スマートフォン又はタブレット端末であるが、これに限られない。
【0024】
なお、以上の説明では、便宜的に投稿者と視聴者を分けて説明したが、コンテンツ配信システム1000のユーザは、視聴者であると同時に投稿者であってもよい。この場合、1つの情報処理装置が、視聴者端末2であると同時に投稿者端末3として機能する。
【0025】
<コンテンツ配信装置1のハードウェア構成>
次に、コンテンツ配信装置1のハードウェア構成について説明する。
図2は、コンテンツ配信装置1のハードウェア構成の一例を示す図である。
図2に示すように、コンテンツ配信装置1は、バスBを介して相互に接続された、プロセッサ101と、メモリ102と、ストレージ103と、通信I/F104と、入力装置105と、出力装置106と、ドライブ装置107と、を備える。
【0026】
プロセッサ101は、ストレージ103に記憶されたOS(Operating System)及びコンテンツ配信プログラムを含む各種のプログラムをメモリ102に展開して実行することにより、コンテンツ配信装置1の各構成を制御し、コンテンツ配信装置1の機能を実現する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)又はDSP(Digital Signal Processor)であるが、これに限られない。
【0027】
メモリ102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)又はSRAM(Static RAM)であるが、これに限られない。
【0028】
ストレージ103は、OS及びコンテンツ配信プログラムを含む各種のプログラム及びデータを記憶する。ストレージ103は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はSCM(Storage Class Memories)であるが、これに限られない。
【0029】
通信I/F104は、コンテンツ配信装置1を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F104は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)又はEthernet(登録商標)であるが、これに限られない。
【0030】
入力装置105は、コンテンツ配信装置1に情報を入力するための装置である。入力装置105は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、撮影装置(カメラ)、各種センサ又は操作ボタンであるが、これに限られない。
【0031】
出力装置106は、コンテンツ配信装置1から情報を出力するための装置である。出力装置106は、例えば、表示装置(ディスプレイ)、プロジェクタ、プリンタ、スピーカ又はバイブレータであるが、これに限られない。
【0032】
ドライブ装置107は、記録メディア108のデータを読み書きする装置である。ドライブ装置107は、例えば、磁気ディスクドライブ、光学ディスクドライブ、光磁気ディスクドライブ又はSDカードリーダであるが、これに限られない。記録メディア108は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、FD(Floppy Disk)、MO(Magneto-Optical disk)、BD(Blu-ray(登録商標) Disc)、USB(登録商標)メモリ又はSDカードであるが、これに限られない。
【0033】
なお、本実施形態において、コンテンツ配信プログラムは、コンテンツ配信装置1の製造段階でメモリ102又はストレージ103に書き込まれてもよいし、ネットワークNを介してコンテンツ配信装置1に提供されてもよいし、記録メディア108などの非一時的でコンピュータ読み取り可能な記録媒体を介してコンテンツ配信装置1に提供されてもよい。
【0034】
<視聴者端末2のハードウェア構成>
次に、視聴者端末2のハードウェア構成について説明する。
図3は、視聴者端末2のハードウェア構成の一例を示す図である。
図3に示すように、視聴者端末2は、バスB2を介して相互に接続された、プロセッサ201と、メモリ202と、ストレージ203と、通信I/F204と、入力装置205と、出力装置206と、を備える。
【0035】
プロセッサ201は、ストレージ203に記憶されたOS及びコンテンツ配信プログラムを含む各種のプログラムをメモリ202に展開して実行することにより、視聴者端末2の各構成を制御し、視聴者端末2の機能を実現する。プロセッサ201は、例えば、CPU、MPU、GPU、ASIC又はDSPであるが、これに限られない。
【0036】
メモリ202は、例えば、ROM、RAM、又はこれらの組み合わせである。ROMは、例えば、PROM、EPROM、EEPROM、又はこれらの組み合わせである。RAMは、例えば、DRAM又はSRAMであるが、これに限られない。
【0037】
ストレージ203は、OS及びコンテンツ配信プログラムを含む各種のプログラム及びデータを記憶する。ストレージ203は、例えば、フラッシュメモリ、HDD、SSD又はSCMであるが、これに限られない。
【0038】
通信I/F204は、視聴者端末2を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F204は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)又はEthernet(登録商標)であるが、これに限られない。
【0039】
入力装置205は、視聴者端末2に情報を入力するための装置である。入力装置205は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、撮影装置(カメラ)、各種センサ又は操作ボタンであるが、これに限られない。視聴者端末2は、入力装置205として、撮影装置205Cを備える。
【0040】
出力装置206は、視聴者端末2から情報を出力するための装置である。出力装置206は、例えば、表示装置(ディスプレイ)、プロジェクタ、プリンタ、スピーカ又はバイブレータであるが、これに限られない。視聴者端末2は、出力装置206として、表示装置206Dを備える。
【0041】
なお、本実施形態において、コンテンツ配信プログラムは、視聴者端末2の製造段階でメモリ202又はストレージ203に書き込まれてもよいし、ネットワークNを介して視聴者端末2に提供されてもよい。
【0042】
<投稿者端末3のハードウェア構成>
次に、投稿者端末3のハードウェア構成について説明する。
図4は、投稿者端末3のハードウェア構成の一例を示す図である。
図4に示すように、投稿者端末3は、バスB3を介して相互に接続された、プロセッサ301と、メモリ302と、ストレージ303と、通信I/F304と、入力装置305と、出力装置306と、を備える。
【0043】
プロセッサ301は、ストレージ303に記憶されたOS及びコンテンツ配信プログラムを含む各種のプログラムをメモリ302に展開して実行することにより、投稿者端末3の各構成を制御し、投稿者端末3の機能を実現する。プロセッサ301は、例えば、CPU、MPU、GPU、ASIC又はDSPであるが、これに限られない。
【0044】
メモリ302は、例えば、ROM、RAM、又はこれらの組み合わせである。ROMは、例えば、PROM、EPROM、EEPROM、又はこれらの組み合わせである。RAMは、例えば、DRAM又はSRAMであるが、これに限られない。
【0045】
ストレージ303は、OS及びコンテンツ配信プログラムを含む各種のプログラム及びデータを記憶する。ストレージ303は、例えば、フラッシュメモリ、HDD、SSD又はSCMであるが、これに限られない。
【0046】
通信I/F304は、投稿者端末3を、ネットワークNを介して外部装置に接続し、通信を制御するためのインタフェースである。通信I/F304は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)又はEthernet(登録商標)であるが、これに限られない。
【0047】
入力装置305は、投稿者端末3に情報を入力するための装置である。入力装置305は、例えば、マウス、キーボード、タッチパネル、マイク、スキャナ、撮影装置(カメラ)、各種センサ又は操作ボタンであるが、これに限られない。投稿者端末3は、入力装置305として、撮影装置305Cを備える。
【0048】
出力装置306は、投稿者端末3から情報を出力するための装置である。出力装置306は、例えば、表示装置(ディスプレイ)、プロジェクタ、プリンタ、スピーカ又はバイブレータであるが、これに限られない。
【0049】
なお、本実施形態において、コンテンツ配信プログラムは、投稿者端末3の製造段階でメモリ302又はストレージ303に書き込まれてもよいし、ネットワークNを介して投稿者端末3に提供されてもよい。
【0050】
<コンテンツ配信装置1の機能構成>
次に、コンテンツ配信装置1の機能構成について説明する。
図5は、コンテンツ配信装置1の機能構成の一例を示す図である。
図5に示すように、コンテンツ配信装置1は、通信部11と、記憶部12と、制御部13と、を備える。
【0051】
通信部11は、通信I/F104により実現される。通信部11は、ネットワークNを介して、外部装置との間で情報の送受信を行う。通信部11は、例えば、視聴者端末2にコンテンツを配信する。また、通信部11は、例えば、投稿者端末3からコンテンツを受信する。
【0052】
記憶部12は、メモリ102及びストレージ103により実現される。記憶部12は、ユーザ情報121と、コンテンツ情報122と、コンテンツデータ123と、判定結果情報124と、状態フラグ情報125と、分析結果情報126と、を記憶する。
【0053】
ユーザ情報121は、コンテンツ配信システム1000のユーザ(視聴者及び投稿者)に関する情報である。ユーザ情報121は、ユーザごとに記憶される。
【0054】
図6は、ユーザ情報121の一例を示す図である。
図6のユーザ情報121は、情報項目として、「UID」、「氏名」、「属性」、「視聴履歴」及び「投稿履歴」を含む。
【0055】
「UID」は、ユーザを一意に識別する識別情報である。
図6の例では、「UID」は、U001である。以下、「UID」がUXXXであるユーザ、視聴者及び投稿者を、それぞれユーザXXX、視聴者XXX及び投稿者XXXと称する。
【0056】
「氏名」は、ユーザの氏名を示す情報である。
図6の例では、「氏名」は、N1である。
【0057】
「属性」は、ユーザの属性を示す情報である。属性は、例えば、年齢、性別、生年月日、住所、メールアドレス又は電話番号であるが、これに限られない。
図6の例では、「属性」は、F1である。
【0058】
「視聴履歴」は、ユーザが視聴したコンテンツの履歴を示す情報である。「視聴履歴」は、「視聴日時」及び「CID」を含む。「視聴日時」は、ユーザがコンテンツを視聴した日時を示す情報である。「CID」は、ユーザが視聴したコンテンツを一意に識別する識別情報である。
図6の例では、「視聴日時」は、T1,T2,T3であり、「CID」はC001,C002,C005である。これは、ユーザ001が日時T1,T2,T3に、それぞれ「CID」がC001,C002,C005であるコンテンツを視聴したことを示している。以下、「CID」がCXXXであるコンテンツを、コンテンツXXXと称する。
【0059】
「投稿履歴」は、ユーザが投稿したコンテンツの履歴を示す情報である。「投稿履歴」は、「投稿日時」及び「CID」を含む。「投稿日時」は、ユーザがコンテンツを投稿した日時を示す情報である。「CID」は、ユーザが投稿したコンテンツを一意に識別する識別情報である。
図6の例では、「投稿日時」は、T4であり、「CID」はC002である。これは、ユーザ001が日時T4にコンテンツ002を投稿したことを示している。
【0060】
なお、ユーザ情報121は、
図6の例に限られない。ユーザ情報121は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。
【0061】
コンテンツ情報122は、コンテンツ配信システム1000が配信するコンテンツに関する情報である。コンテンツ情報122は、コンテンツごとに記憶される。
【0062】
図7は、コンテンツ情報122の一例を示す図である。
図7のコンテンツ情報122は、情報項目として、「CID」、「名称」、「属性」、「画像」、「配信履歴」及び「投稿履歴」を含む。
【0063】
「CID」は、コンテンツを一意に識別する識別情報である。
図7の例では、「CID」は、C002である。
【0064】
「名称」は、コンテンツの名称を示す情報である。図の6の例では、「名称」は、N2である。
【0065】
「属性」は、コンテンツの属性を示す情報である。属性は、例えば、コンテンツ種別(音楽、画像、動画など)、ジャンル(ニュース、ドラマ、お笑い、映画など)、ハッシュタグ、データ形式又はデータサイズであるが、これに限られない。
図7の例では、「属性」は、F2である。
【0066】
「画像」は、コンテンツのサムネイル画像のデータである。
図7の例では、「画像」は、P2である。
【0067】
「配信履歴」は、コンテンツ配信装置1がコンテンツを配信した履歴を示す情報である。「配信履歴」は、「配信日時」及び「UID」を含む。「配信日時」は、コンテンツ配信装置1がコンテンツを配信した日時を示す情報である。「UID」は、コンテンツ配信装置1がコンテンツを配信したユーザを一意に識別する識別情報である。
図7の例では、「配信日時」は、T2,T6,T7であり、「UID」はU001,U004,U005である。これは、コンテンツ配信装置1が、コンテンツ002を日時T2,T6,T7に、それぞれ視聴者001,004,005に配信したことを示している。
【0068】
「投稿履歴」は、コンテンツがユーザにより投稿された履歴を示す情報である。「投稿履歴」は、「投稿日時」及び「UID」を含む。「投稿日時」は、ユーザがコンテンツを投稿した日時を示す情報である。「UID」は、コンテンツ投稿したユーザを一意に識別する識別情報である。
図7の例では、「投稿日時」は、T4であり、「UID」はU001である。これは、ユーザ001が日時T4にコンテンツ002を投稿したことを示している。
【0069】
なお、コンテンツ情報122は、
図7の例に限られない。コンテンツ情報122は、上記の情報項目の一部を含まなくてもよいし、上記以外の情報項目を含んでもよい。
【0070】
コンテンツデータ123は、コンテンツ自体のデータである。コンテンツデータ123は、コンテンツ情報122と対応づけて記憶される。
【0071】
判定結果情報124は、視聴者が対象状態であるかの判定結果rに関する情報である。判定結果情報124は、視聴者ごとかつコンテンツごとに記憶される。
【0072】
図8は、判定結果情報124の一例を示す情報である。
図8の例では、視聴者001,002,003がコンテンツ001,002,003を視聴した際のそれぞれの判定結果r1~r9が示されている。判定結果rについて、詳しくは後述する。
【0073】
状態フラグ情報125は、状態フラグに関する情報である。状態フラグ情報125は、視聴者ごとかつコンテンツごとに記憶される。
【0074】
図9は、状態フラグ情報125の一例を示す情報である。
図9の例では、視聴者001,002,003がコンテンツ001,002,003を視聴した際のそれぞれの状態フラグが示されている。
図9の「Y」は、状態フラグが付与された(ユーザが対象状態と判定された)ことを示し、「N」は、状態フラグが付与されなかった(ユーザが対象状態と判定されなかった)ことを示し、「-」は、ユーザがコンテンツを視聴していないことを示す。
図9の例では、視聴者001は、コンテンツ001を視聴した際に対象状態(例えば、笑顔)と判定され、コンテンツ002を視聴した際に対象状態と判定されず、コンテンツ003を視聴していないことを示している。
【0075】
分析結果情報126は、視聴者のコンテンツに対する傾向を示す情報である。分析結果情報126は、視聴者ごとに記憶される。分析結果情報126について、詳しくは後述する。
【0076】
制御部13は、プロセッサ101がメモリ102からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部13は、コンテンツ配信装置1の動作全体を制御する。制御部13は、情報取得部131と、コンテンツレコメンド部132と、コンテンツ配信部133と、状態フラグ付与部134と、フラグ通知部135と、傾向分析部136と、を備える。
【0077】
情報取得部131は、通信部11を介して、外部装置から情報を取得する。情報取得部131は、例えば、投稿者端末3からコンテンツを取得する。
【0078】
コンテンツレコメンド部132は、視聴者がコンテンツを視聴した際の、視聴者の対象状態の判定結果rに基づいて、視聴者にコンテンツをレコメンドする。コンテンツのレコメンド方法について、詳しくは後述する。
【0079】
コンテンツ配信部133は、視聴者にコンテンツを配信する。より詳細には、視聴者の操作に応じて視聴者端末2からの送信されるコンテンツの配信要求に応じて、視聴者端末2にコンテンツを配信する。
【0080】
状態フラグ付与部134は、対象状態の判定結果rに基づいて、コンテンツに状態フラグを付与する。具体的には、状態フラグ付与部134は、視聴者が対象状態と判定された場合、コンテンツに状態フラグを付与し、視聴者が対象状態と判定されなかった場合、コンテンツに状態フラグを付与しない。
【0081】
フラグ通知部135は、コンテンツに状態フラグが付与されたことを、そのコンテンツの視聴者及び投稿者に通知する。
【0082】
傾向分析部136は、対象状態の判定結果rに基づいて、視聴者のコンテンツに対する傾向を分析する。傾向の分析方法について、詳しくは後述する。
【0083】
なお、コンテンツ配信装置1の機能構成は、上記の例に限られない。例えば、コンテンツ配信装置1は、上記の機能構成の一部を備え、残りを視聴者端末2が備えてもよい。また、コンテンツ配信装置1は、上記以外の機能構成を備えてもよい。また、コンテンツ配信装置1の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC(System on Chip)、LSI(Large Scale Integration)、マイクロコンピュータ等のハードウェアによって実現されてもよい。
【0084】
<視聴者端末2の機能構成>
次に、視聴者端末2の機能構成について説明する。
図10は、視聴者端末2の機能構成の一例を示す図である。
図10に示すように、視聴者端末2は、通信部21と、記憶部22と、制御部23と、を備える。
【0085】
通信部21は、通信I/F204により実現される。通信部21は、ネットワークNを介して、外部装置との間で情報の送受信を行う。通信部21は、例えば、コンテンツ配信装置1からコンテンツを受信する。
【0086】
記憶部22は、メモリ202及びストレージ203により実現される。記憶部22は、ユーザ情報221と、コンテンツ情報222と、コンテンツデータ223と、動画データ224と、分析結果情報225と、を記憶する。
【0087】
ユーザ情報221は、視聴者自身のユーザ情報である。ユーザ情報については上述の通りであるため、説明を省略する。
【0088】
コンテンツ情報222は、コンテンツ配信装置1から配信又はレコメンドされたコンテンツのコンテンツ情報である。コンテンツ情報については上述の通りであるため、説明を省略する。なお、コンテンツ情報222は、「配信履歴」及び「投稿履歴」を含まなくてもよい。
【0089】
コンテンツデータ223は、コンテンツ配信装置1から配信されたコンテンツ自体のデータである。
【0090】
動画データ224は、視聴者端末2の撮影装置205Cが撮影した動画データである。
【0091】
分析結果情報225は、視聴者のコンテンツに対する傾向を示す情報である。分析結果情報225について、詳しくは後述する。
【0092】
制御部23は、プロセッサ201がメモリ202からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部23は、視聴者端末2の動作全体を制御する。制御部23は、情報取得部231と、表示制御部232と、視聴者撮影部233と、状態判定部234と、視聴者通知部235と、を備える。
【0093】
情報取得部231は、通信部21を介して、外部装置から情報を取得する。情報取得部231は、例えば、コンテンツ配信装置1からコンテンツ及び状態フラグの付与通知を取得する。
【0094】
表示制御部232は、表示装置206Dに表示される画像を制御する。表示制御部232は、例えば、表示装置206Dにコンテンツを表示させる。
【0095】
視聴者撮影部233は、コンテンツの表示中に撮影装置205Cを起動し、コンテンツを視聴中の視聴者を撮影する。
【0096】
状態判定部234は、コンテンツの表示中に撮影装置205Cにより撮影された視聴者の動画データ224に基づいて、視聴者が対象状態であるか判定する。
【0097】
視聴者通知部235は、コンテンツの視聴者が対象状態であると判定され、視聴者が視聴したコンテンツに状態フラグが付与された場合に、状態フラグが付与されたことを視聴者に通知する。
【0098】
なお、視聴者端末2の機能構成は、上記の例に限られない。例えば、視聴者端末2は、上記の機能構成の一部を備え、残りをコンテンツ配信装置1が備えてもよい。また、視聴者端末2は、上記以外の機能構成を備えてもよい。また、視聴者端末2の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC、LSI、マイクロコンピュータ等のハードウェアによって実現されてもよい。
【0099】
<投稿者端末3の機能構成>
次に、投稿者端末3の機能構成について説明する。
図11は、投稿者端末3の機能構成の一例を示す図である。
図11に示すように、投稿者端末3は、通信部31と、記憶部32と、制御部33と、を備える。
【0100】
通信部31は、通信I/F304により実現される。通信部31は、ネットワークNを介して、外部装置との間で情報の送受信を行う。通信部31は、例えば、コンテンツ配信装置1にコンテンツを投稿する。
【0101】
記憶部32は、メモリ302及びストレージ303により実現される。記憶部32は、ユーザ情報321と、コンテンツ情報322と、コンテンツデータ323と、を記憶する。
【0102】
ユーザ情報321は、投稿者自身のユーザ情報である。ユーザ情報については上述の通りであるため、説明を省略する。
【0103】
コンテンツ情報322は、コンテンツ配信装置1に投稿するコンテンツのコンテンツ情報である。コンテンツ情報については上述の通りであるため、説明を省略する。なお、コンテンツ情報322は、「CID」、「配信履歴」及び「投稿履歴」を含まなくてもよい。
【0104】
コンテンツデータ323は、コンテンツ配信装置1に投稿するコンテンツ自体のデータである。
【0105】
制御部33は、プロセッサ301がメモリ302からプログラムを読み出して実行し、他のハードウェア構成と協働することにより実現される。制御部33は、投稿者端末3の動作全体を制御する。制御部33は、情報取得部331と、表示制御部332と、投稿者通知部333と、を備える。
【0106】
情報取得部331は、通信部31を介して、外部装置から情報を取得する。情報取得部331は、例えば、コンテンツ配信装置1から状態フラグの付与通知を取得する。
【0107】
表示制御部332は、表示装置306Dに表示される画像を制御する。表示制御部332は、例えば、表示装置306Dにコンテンツを表示させる。
【0108】
投稿者通知部333は、コンテンツの視聴者が対象状態であると判定され、視聴者が視聴したコンテンツに状態フラグが付与された場合に、状態フラグが付与されたことをそのコンテンツの投稿者に通知する。
【0109】
なお、投稿者端末3の機能構成は、上記の例に限られない。例えば、投稿者端末3は、上記の機能構成の一部を備え、残りをコンテンツ配信装置1が備えてもよい。また、投稿者端末3は、上記以外の機能構成を備えてもよい。また、投稿者端末3の各機能構成は、上記の通り、ソフトウェアにより実現されてもよいし、ICチップ、SoC、LSI、マイクロコンピュータ等のハードウェアによって実現されてもよい。
【0110】
<コンテンツ配信システム1000が実行する処理>
次に、コンテンツ配信システム1000が実行する処理について説明する。
図12は、コンテンツ配信システム1000が実行する処理の一例を示すフローチャートである。以下では、対象状態が笑顔であり、投稿者002により投稿されたコンテンツ001を視聴者001が視聴する場合を例に説明する。
【0111】
(ステップS101)
まず、投稿者002が投稿者端末3からコンテンツ配信装置1にコンテンツ001を投稿する(ステップS101)。具体的には、投稿者端末3は、投稿者002の操作に応じて、ユーザ情報321、コンテンツ001のコンテンツ情報322及びコンテンツデータ323を、コンテンツ配信装置1に送信する。
【0112】
(ステップS102)
コンテンツ配信装置1は、投稿者端末3からコンテンツ001の投稿を受け付けると、投稿されたコンテンツ001を保存する(ステップS102)。具体的には、コンテンツ配信装置1の情報取得部131は、投稿者端末3から受信したコンテンツ情報322及びコンテンツデータ323を対応づけて、コンテンツ情報122及びコンテンツデータ123として記憶部12に保存する。この際、コンテンツ情報122に「CID」及び「投稿履歴」が追加される。
【0113】
多数の投稿者からコンテンツが投稿され、ステップS101,S102の処理が繰り返されることにより、コンテンツ配信装置1には、配信可能な多数のコンテンツが蓄積される。
【0114】
(ステップS103)
視聴者001の視聴者端末2の情報取得部231は、視聴者001からの操作に応じて、コンテンツ配信装置1に対してコンテンツの一覧を要求する(ステップS103)。
【0115】
(ステップS104)
視聴者端末2からコンテンツの一覧を要求されると、コンテンツ配信装置1のコンテンツレコメンド部132は、視聴者001にレコメンドするコンテンツを複数選択する(ステップS104)。レコメンドするコンテンツの選択方法について、詳しくは後述する。
【0116】
(ステップS105)
そして、コンテンツレコメンド部132は、選択した複数のコンテンツのコンテンツ情報122を視聴者端末2に送信し、視聴者001にコンテンツをレコメンドする(ステップS105)。
【0117】
(ステップS106)
視聴者001の視聴者端末2の情報取得部231は、コンテンツ配信装置1からコンテンツ情報122を取得すると、コンテンツ情報222として記憶部22に保存する。コンテンツ情報222が保存されると、表示制御部232は、保存されたコンテンツ情報222を参照して、表示装置206Dにレコメンドされたコンテンツの一覧を表示する(ステップS106)。
【0118】
図13は、コンテンツ一覧表示画面s1の一例を示す図である。コンテンツ一覧表示画面s1は、コンテンツ配信装置1からレコメンドされたコンテンツの一覧を表示する画面であり、表示装置206Dに表示される。
図13のコンテンツ一覧表示画面s1には、フォロー数s11と、フォロワー数s12と、笑顔数s13と、サムネイル画像s14と、が表示されている。
【0119】
フォロー数s11は、視聴者001がフォローしているユーザの数である。フォロワー数s12は、視聴者001をフォローしているユーザの数である。笑顔数s13は、視聴者001が投稿したコンテンツに付与された状態フラグの数である。サムネイル画像s14は、レコメンドされたコンテンツのサムネイル画像である。
図13の例では、9つのコンテンツのサムネイル画像14が表示されている。
【0120】
(ステップS107)
情報取得部131は、視聴者001の操作に応じて、コンテンツ001の配信をコンテンツ配信装置1に要求する(ステップS107)。
図13の例では、視聴者001がコンテンツ001のサムネイル画像s14を選択すると、コンテンツ001の配信が要求される。
【0121】
(ステップS108)
コンテンツ配信部133は、コンテンツ001の配信を要求されると、コンテンツ001のコンテンツデータ123を記憶部12から読み出し、視聴者端末2にコンテンツ001のコンテンツデータ123を配信する(ステップS108)。
【0122】
(ステップS109)
視聴者端末2の情報取得部231は、コンテンツ配信装置1からコンテンツ001のコンテンツデータ123を取得すると、コンテンツデータ223として記憶部22に保存する。コンテンツデータ223が保存されると、表示制御部232は、保存されたコンテンツ001のコンテンツデータ223を表示装置206Dに表示を表示する(ステップS109)。
【0123】
図14は、コンテンツ表示画面s2の一例を示す図である。コンテンツ表示画面s2は、コンテンツを表示(再生)する画面であり、表示装置206Dに表示される。
図14のコンテンツ表示画面s2には、コンテンツs21と、撮影ボタンs22と、笑顔数s23と、投稿者情報s24と、が表示されている。
【0124】
コンテンツs21は、コンテンツ配信装置1から配信されたコンテンツ001である。撮影ボタンs22は、視聴者001が撮影装置205Cによる撮影のオン/オフを切り替えるためのボタンである。撮影ボタンs22がオンの場合、撮影装置205Cによる撮影が実行され、撮影ボタンs22がオフの場合、撮影装置205Cによる撮影が実行されない。
図14の例では、撮影がオンに設定されている。笑顔数s23は、表示されたコンテンツ001に付与された状態フラグの数である。投稿者情報s24は、表示されたコンテンツ001の投稿者002に関する情報である。
図14の例では、投稿者情報s24として、投稿者002の画像と名前が表示されている。
【0125】
(ステップS110)
コンテンツ001が表示されると、視聴者撮影部233は、撮影装置205Cを起動し、コンテンツ001を視聴中の視聴者001を撮影する(ステップS110)。撮影装置205Cにより撮影された動画のデータは、動画データ224として記憶部22に順次保存される。視聴者撮影部233は、コンテンツ001の表示が終了するか、視聴者001により撮影ボタンs22がオフに設定されるまで、視聴者001の撮影を継続する。
【0126】
(ステップS111)
記憶部22に動画データ224が保存されると、状態判定部234は、動画データ224に基づいて、視聴者001が笑顔(対象状態)であるか判定する。具体的には、まず、状態判定部234は、動画データ224に対して顔検出処理を実行し、顔が検出された場合、検出された顔の表情判定処理を実行し、笑顔の評価値Eを算出する(ステップS111)。状態判定部234は、コンテンツ001の表示が終了するか、視聴者001により撮影ボタンs22がオフに設定されるまで、評価値Eの算出を継続する。したがって、ステップS111により、コンテンツ001の表示中、笑顔の評価値Eの時系列データが生成される。
【0127】
状態判定部234は、動画データ224の全フレームに対して顔検出処理を実行してもよいし、所定フレーム間隔で顔検出処理を実行してもよい。顔検出処理は、例えば、学習済みの顔検出モデルを利用した推論処理であるが、これに限られない。また、表情推定処理は、例えば、学習済みの表情推定モデルを利用した推論処理であるが、これに限られない。
【0128】
笑顔(対象状態)の評価値Eは、表情推定処理のより判定された、笑顔(対象状態)の度合いを示す値である。表情推定処理が学習済みの表情推定モデルを利用した推論処理である場合、評価値Eは、例えば、表情推定モデルの出力として得られる。
【0129】
図15は、評価値Eの時系列データの一例を示す図である。
図15の例では、評価値Eは、0以上1以下の値であり、1に近いほど笑顔の度合いが高い。動画データ224が30fpsであり、10フレームごとに評価値が算出される場合、
図15は、コンテンツ001が4秒間表示された場合の評価値Eの時系列データに相当する。
【0130】
なお、評価値Eの算出間隔、範囲及び大小関係は、上記の例に限られない。また、評価値Eは、対象状態に応じた算出方法により算出すればよい。例えば、対象状態が表情である場合、表情推定処理により評価値Eを算出できる。また、対象状態が感情である場合、感情推定処理により評価値Eを算出できる。また、対象状態が姿勢である場合、姿勢推定処理により視聴者の姿勢を推定し、推定された姿勢と、対象状態として設定された姿勢と、の近さを評価値Eとして算出できる。また、評価値Eは、表情推定処理、感情推定処理及び姿勢推定処理の1つ以上の組み合わせにより算出されてもよい。
【0131】
(ステップS112)
次に、状態判定部234は、算出した評価値Eに基づいて、視聴者001が笑顔(対象状態)であるか判定する(ステップS112)。状態判定部234は、コンテンツ001の表示中、リアルタイムで判定を行なってもよいし、コンテンツ001の表示終了後に判定を行なってもよい。
【0132】
まず、リアルタイムで判定する方法について説明する。
【0133】
[判定方法1]
状態判定部234は、例えば、評価値Eが閾値以上となった場合、視聴者001が笑顔であると判定する。
図15の例では、閾値は0.7に設定されている。この場合、状態判定部234は、コンテンツ001の表示中、評価値Eが閾値以上となる度に視聴者001が笑顔であると判定してもよいし、評価値Eが1度閾値以上となり、視聴者001が笑顔であると判定した時点で判定を終了してもよい。
【0134】
[判定方法2]
状態判定部234は、評価値Eが所定期間、閾値以上となった場合、視聴者001が笑顔であると判定してもよい。所定期間が評価値Eを2回算出する期間である場合、状態判定部234は、
図15における表示時刻t8に視聴者001が笑顔であると判定する。
【0135】
[判定方法3]
状態判定部234は、評価値Eの所定期間の移動平均が閾値以上となった場合、視聴者001が笑顔であると判定してもよい。所定期間が評価値Eを3回算出する期間である場合、状態判定部234は、
図15における表示時刻t8に視聴者001が笑顔であると判定する。
【0136】
[判定方法4]
状態判定部234は、評価値Eの変化率が閾値以上となった場合、視聴者001が笑顔であると判定してもよい。
【0137】
[判定方法5]
状態判定部234は、上記の判定方法1~4を1つ以上組み合わせて視聴者001が笑顔であるか判定してもよい。例えば、状態判定部234は、評価値Eが閾値以上となり、かつ、評価値Eの変化率も閾値以上となった場合に、視聴者001が笑顔であると判定してもよい。
【0138】
次に、コンテンツの表示終了後に判定する方法について説明する。
【0139】
[判定方法6]
状態判定部234は、例えば、評価値Eが、所定回数以上、閾値以上となった場合、視聴者001が笑顔であると判定する。所定回数が2回である場合、
図15の例では、視聴者001は笑顔であると判定される。なお、閾値以上となる評価値Eは、連続していなくてもよい。
【0140】
[判定方法7]
状態判定部234は、評価値Eが、所定期間以上、閾値以上となった場合、視聴者001が笑顔であると判定する。所定期間が評価値Eを2回算出する期間である場合、
図15の例では、視聴者001は笑顔であると判定される。
【0141】
[判定方法8]
状態判定部234は、評価値Eの所定期間の移動平均が閾値以上となった場合、視聴者001が笑顔であると判定してもよい。所定期間が評価値Eを3回算出する期間である場合、
図15の例では、視聴者001は笑顔であると判定される。
【0142】
[判定方法9]
状態判定部234は、コンテンツ001を表示中の評価値Eの平均値が閾値以上となった場合、視聴者001が笑顔であると判定してもよい。この場合、
図15の例では、視聴者001は笑顔でないと判定される。
【0143】
[判定方法10]
状態判定部234は、評価値Eの変化率が閾値以上となった場合、視聴者001が笑顔であると判定してもよい。
【0144】
[判定方法11]
状態判定部234は、上記の判定方法6~10を1つ以上組み合わせて視聴者001が笑顔であるか判定してもよい。例えば、状態判定部234は、評価値Eが所定回数以上、閾値以上となり、かつ、評価値Eの変化率も閾値以上となった場合に、視聴者001が笑顔であると判定してもよい。
【0145】
なお、判定方法は、上記の例に限られない。また、評価値E、変化率、回数及び期間などの閾値は、ユーザ間で共通の閾値が予め設定されていてもよいし、視聴者ごとに異なる値が設定されてもよい。
【0146】
(ステップS113)
状態判定部234は、視聴者001が笑顔であるか判定すると、判定結果rを、ユーザ情報221及び表示中のコンテンツ001のコンテンツ情報222と対応づけて、コンテンツ配信装置1に送信する(ステップS113)。判定結果rは、視聴者001が笑顔であるか否かを示す情報を含む。また、判定結果rは、評価値Eを含んでもよい。より詳細には、判定結果rは、判定の根拠となった評価値Eを含んでもよいし、評価値Eの最大値、移動平均、変化率を含んでもよいし、評価値Eの時系列データの全部を含んでもよい。コンテンツ配信装置1の情報取得部131は、判定結果rを取得すると、取得した判定結果rを、コンテンツ001の視聴者001の判定結果情報124(
図8の判定結果r1)として記憶部12に保存する。
【0147】
(ステップS114)
判定結果r1が保存されると、状態フラグ付与部134は、判定結果r1を参照して、視聴者001が笑顔であると判定されたか確認する(ステップS114)。視聴者001が笑顔であると判定されている場合(ステップS114:YES)、処理はステップS115へ進む。視聴者001が笑顔ではない判定されている場合(ステップS114:NO)、処理はステップS120へ進む。
【0148】
(ステップS115)
視聴者001が笑顔であると判定されている場合、状態フラグ付与部134は、コンテンツ001に状態フラグを付与する(ステップS115)。具体的には、状態フラグ付与部134は、
図9におけるコンテンツ001の視聴者001の値を「Y」にする。
【0149】
ステップS115により、コンテンツ配信システム1000上で、コンテンツ001に対する視聴者001の反応を可視化することができる。これにより、コンテンツ配信システム1000は、コンテンツに対する視聴者の反応を考慮した各種のサービス(コンテンツのレコメンドや視聴者の傾向の分析)を提供することができる。
【0150】
(ステップS116)
コンテンツ001に状態フラグが付与されると、フラグ通知部135は、視聴者001の視聴者端末2に状態フラグ付与通知を送信し、コンテンツ001に状態フラグが付与されたことを視聴者001に通知する(ステップS116)。
【0151】
(ステップS117)
視聴者001の視聴者端末2の視聴者通知部235は、コンテンツ配信装置1から状態フラグ付与通知を受信すると、コンテンツ001に状態フラグが付与されたことを視聴者001に通知する(ステップS117)。視聴者001への通知は、プッシュ通知により行われてもよいし、視聴者端末2の振動により行われてもよいし、コンテンツ001の笑顔数s23を所定のエフェクトと共に増加させることにより行われてもよい。また、状態フラグの付与がコンテンツ001の表示中にリアルタイムに行われる場合、視聴者001への通知は、コンテンツ001を表示しているコンテンツ表示画面s2に所定のエフェクトを表示することにより行われてもよい。
【0152】
図16は、視聴者への通知方法の一例を示す図である。
図16の例では、コンテンツ001を表示しているコンテンツ表示画面s2の全体に、状態フラグが付与されたことを示す画像s25が、オーバレイ表示されている。このようなエフェクトを所定期間(例えば1秒)行うことで、視聴者通知部235は、コンテンツ001に状態フラグが付与されたことを視聴者001に通知することができる。
【0153】
図17は、視聴者への通知方法の一例を示す図である。
図17の例では、コンテンツ001を表示しているコンテンツ表示画面s2の隅に、視聴者001が対象状態と判定されたことを示すアイコンs26が表示されている。このようなアイコンs26を表示することにより、視聴者通知部235は、コンテンツ001に状態フラグが付与されたことを視聴者001に通知することができる。
【0154】
また、ステップS112の判定結果に応じて、視聴者が対象状態と判定されたことを示すアイコン(
図17の例では笑顔のアイコン)s26と、視聴者が対象状態と判定されていないことを示すアイコン(例えば、無表情のアイコン)と、を切り替えながら表示することにより、視聴者通知部235は、視聴者001の状態をリアルタイムに通知することができる。対象状態が複数設定されている場合には、各対象状態に応じたアイコンを、対象状態の判定結果に応じて切り替えて表示すればよい。
【0155】
ステップS116,S117により、視聴者001に対して、コンテンツ001に対する視聴者001の反応を可視化することができる。これにより、コンテンツ001に対する自分の反応に無自覚な視聴者001に、自分の反応を認識させることができる。また、視聴者001に対して、自分の無意識の反応がコンテンツに対して反映される、という体験を提供し、コンテンツ配信サービスの娯楽性を向上させることができる。
【0156】
なお、コンテンツ001に状態フラグが付与されたことの通知は、コンテンツ001を視聴している、視聴者001以外の視聴者に対しても行われてもよい。このような視聴者として、転送者が挙げられる。転送者は、自分が視聴したコンテンツ001を他の視聴者に転送(共有)した視聴者のことである。例えば、コンテンツ001を視聴した視聴者001が、コンテンツ001を友人である視聴者003に転送した場合、視聴者001はコンテンツ001の転送者となる。このとき、視聴者003によりコンテンツ001に状態フラグが付与されると、そのことが転送者である視聴者001に通知される。
【0157】
このような構成により、視聴者同士で気に入ったコンテンツを転送(共有)しあい、転送したコンテンツに対する互いの反応が共有される、という体験をユーザに提供し、コンテンツ配信サービスの娯楽性を向上させることができる。
【0158】
視聴者001以外の視聴者への通知は、プッシュ通知により行われてもよいし、視聴者端末の振動により行われてもよいし、コンテンツ001の笑顔数s23を所定のエフェクトと共に増加させることにより行われてもよい。
【0159】
(ステップS118)
一方、コンテンツ001に状態フラグが付与されると、フラグ通知部135は、投稿者002の投稿者端末3に状態フラグ付与通知を送信し、コンテンツ001に状態フラグが付与されたことを投稿者002に通知する(ステップS118)。
【0160】
(ステップS119)
投稿者002の投稿者端末3の投稿者通知部333は、コンテンツ配信装置1から状態フラグ付与通知を受信すると、コンテンツ001に状態フラグが付与されたことを投稿者002に通知する(ステップS119)。投稿者002への通知は、プッシュ通知により行われてもよいし、投稿者端末3の振動により行われてもよいし、コンテンツ001の笑顔数を所定のエフェクトと共に増加させることにより行われてもよい。
【0161】
ステップS118,S119により、投稿者002に対して、コンテンツ001に対する視聴者001の反応を可視化することができる。これにより、コンテンツの投稿に対する投稿者002のモチベーションを向上させることができる。また、投稿者002に対して、視聴者の無意識の反応が自分のコンテンツ001に対して反映される、という体験を提供し、コンテンツ配信サービスの娯楽性を向上させることができる。
【0162】
(ステップS120)
視聴者001は、任意のタイミングで、コンテンツに対する自分の傾向の分析結果を要求することができる(ステップS120)。視聴者001の視聴者端末2の情報取得部231は、視聴者001の操作に応じて、コンテンツ配信装置1に分析結果を要求する。
【0163】
(ステップS121)
分析結果を要求されたコンテンツ配信装置1の傾向分析部136は、対象状態の判定結果rに基づいて、視聴者001のコンテンツに対する傾向を分析する(ステップS121)。傾向分析部136は、分析結果を分析結果情報126として記憶部12に保存する。ここで、分析方法の一例について説明する。
【0164】
判定結果情報124に含まれる判定結果rは、以下の行列Rで表される。
【0165】
【0166】
nはユーザ数、mはコンテンツ数である。rは、笑顔と判定されたか否かを示す0又は1の値であってもよいし、1又は複数の評価値であってもよい。
【0167】
傾向分析部136は、行列分解などの方法により、この行列Rを以下の行列に分解する。
【0168】
【0169】
【0170】
行列Uは、n人の視聴者の対象状態の判定結果をk次元で表現したベクトルに相当する。行列Cは、m個のコンテンツに対する対象状態の判定結果をk次元で表現したベクトルに相当する。kは任意に設定可能な自然数であり、R=U×Cが成り立つ。
【0171】
このとき、k次元の各値は、それぞれ対象状態及びコンテンツに関する特徴量に相当する。例えば、対象状態が笑顔である場合、各値は、「笑いの属性」に相当する特徴量となる。すなわち、行列Uの各行は、k種類の「笑いの属性」に対して各視聴者がどの程度笑顔になったか(笑いの好み)を示す視聴者ベクトルとなる。行列Cの各列は、各コンテンツがk種類の「笑いの属性」をどの程度含むか(笑いのジャンル)を示すコンテンツベクトルとなる。
【0172】
したがって、k次元の対象状態の属性を予め設定しておくことにより、傾向分析部136は、判定結果rに基づいて、対象状態に関する各視聴者及び各コンテンツの傾向を分析することができる。
【0173】
(ステップS122)
視聴者001の傾向の分析が終了すると、傾向分析部136は、得られた分析結果を視聴者001の視聴者端末2に送信する(ステップS122)。分析結果は、例えば、視聴者001の視聴者ベクトルであるが、これに限られない。例えば、分析結果は、視聴者001の笑顔の評価値が最も高いコンテンツに関する情報を含んでもよいし、視聴者001の笑顔の評価値が閾値以上のコンテンツに関する情報を含んでもよい。なお、視聴者の傾向の分析は、予め行われ、分析結果情報126として記憶部12に保存されていてもよい。
【0174】
(ステップS123)
視聴者001の視聴者端末2の情報取得部231は、コンテンツ配信装置1から分析結果を受信すると、受信した分析結果を分析結果情報225として記憶部22に保存する。そして、表示制御部232は、保存された分析結果を表示装置206Dに表示する。
【0175】
図18は、分析結果表示画面s3の一例を示す図である。
図18の例では、分析結果s31として、「surreal」、「chaos」、「erotic」、「dark humor」、「relaxing」及び「intelligent」の6種類の「笑いの属性」に関する視聴者001の傾向(6次元の視聴者ベクトル)がレーダーチャートで示されている。
図18によれば、視聴者001は、「surreal」なコンテンツで笑顔になりやすいことがわかる。
【0176】
このように、コンテンツに対する傾向の分析結果を表示することにより、視聴者001に対して、自分の傾向を客観的に知らせることができる。また、この分析結果を他のユーザと共有可能とすることにより、コンテンツ配信サービスの娯楽性を向上させることができる。
【0177】
なお、本実施形態では、視聴者のコンテンツに対する傾向を分析して表示したが、同様の分析をコンテンツごとに行って表示してもよい。例えば、予め設定された「笑いの属性」について、コンテンツベクトルをレーダーチャートで表示してもよい。
【0178】
また、表示制御部232は、視聴者001が対象状態と判定された履歴を、時系列データとして視聴者端末2に表示してもよい。
【0179】
図19は、対象状態履歴表示画面s4の一例を示す図である。
図19の例では、対象状態履歴s41として、一日のうちに視聴者001が対象状態と判定された回数が、1週間分示されている。対象状態と判定された回数は、1時間、1日、1週間など、任意の期間で集計できる。また、対象状態を表示する期間も1日、1週間、1ヶ月など、任意に設定できる。
【0180】
このように、対象状態の履歴を表示することで、視聴者001に、自分がどのくらい対象状態になっているかを客観的に教えることができる。また、視聴者通知部235は、一定期間に判定された対象状態の回数が閾値以下となった場合に、その旨を視聴者001に通知してもよい。
【0181】
<コンテンツのレコメンド方法>
最後に、コンテンツレコメンド部132による視聴者に対するコンテンツのレコメンド方法について詳しく説明する。
【0182】
[レコメンド方法1]
コンテンツレコメンド部132は、例えば、list-wise lossが最小となるように、上述の視聴者ベクトル及びコンテンツベクトルを学習したランキングモデルを生成し、このランキングモデルを利用して視聴者ごとのコンテンツのランキングを生成し、ランキング上位のコンテンツを視聴者にレコメンドする。これにより、コンテンツレコメンド部132は、視聴者の笑いの好みを考慮して、視聴者にコンテンツをレコメンドすることができる。
【0183】
[レコメンド方法2]
コンテンツレコメンド部132は、視聴者ベクトルをクラスタリングして、笑いの好みが似ている視聴者のグループを生成し、グループごとに人気のコンテンツのランキングを作成し、ランキング上位のコンテンツを視聴者にレコメンドしてもよい。これにより、コンテンツレコメンド部132は、グループごとの視聴者の笑いの好みを考慮して、視聴者にコンテンツをレコメンドすることができる。
【0184】
[レコメンド方法3]
コンテンツレコメンド部132は、上記のレコメンド方法1,2を併用して視聴者にコンテンツをレコメンドしてもよい。これにより、個別の及びグループごとの笑いの好みを考慮して、視聴者にコンテンツをレコメンドすることができる。
【0185】
<まとめ>
以上説明した通り、本実施形態によれば、視聴者端末2及びコンテンツ配信装置1を含むコンテンツ配信システム1000が実行するコンテンツ配信方法であって、視聴者端末2にコンテンツを配信するステップS108と、視聴者端末2の表示装置206Dにコンテンツを表示するステップS109と、コンテンツの表示中に視聴者端末2の表示装置側の撮影装置205Cで視聴者を撮影するステップS110と、撮影装置205Cで撮影された視聴者が予め設定された対象状態(例えば、笑顔)であるか判定するステップS112と、視聴者が対象状態であると判定された場合(ステップS114:YES)、コンテンツに状態フラグを付与するステップS115と、を含むコンテンツ配信方法が提供される。また、このコンテンツ配信方法を実行するコンテンツ配信プログラム及びコンテンツ配信システム1000が提供される。
【0186】
このコンテンツ配信方法によれば、コンテンツ配信システム1000上で、コンテンツに対する視聴者の反応を可視化することができる。これにより、コンテンツ配信システム1000は、コンテンツに対する視聴者の反応を考慮した各種のサービス(コンテンツのレコメンドや視聴者の傾向の分析)を提供することができる。
【0187】
<付記>
本実施形態は、以下の開示を含む。
【0188】
(付記1)
視聴者端末及びコンテンツ配信装置を含むコンテンツ配信システムが実行するコンテンツ配信方法であって、
前記視聴者端末にコンテンツを配信するコンテンツ配信ステップと、
前記視聴者端末の表示装置に前記コンテンツを表示するコンテンツ表示ステップと、
前記コンテンツの表示中に前記視聴者端末の前記表示装置側の撮影装置で視聴者を撮影する視聴者撮影ステップと、
前記撮影装置で撮影された前記視聴者が予め設定された対象状態であるか判定する状態判定ステップと、
前記視聴者が前記対象状態であると判定された場合、前記コンテンツに状態フラグを付与するフラグ付与ステップと、
を含むコンテンツ配信方法。
【0189】
(付記2)
前記状態フラグが前記コンテンツに付与されたことを前記視聴者に通知する視聴者通知ステップを更に含む
付記1に記載のコンテンツ配信方法。
【0190】
(付記3)
前記状態フラグが前記コンテンツに付与されたことを前記コンテンツの投稿者に通知する投稿者通知ステップを更に含む
付記1に記載のコンテンツ配信方法。
【0191】
(付記4)
前記コンテンツは、画像又は動画である
付記1に記載のコンテンツ配信方法。
【0192】
(付記5)
前記対象状態は、表情、感情又は姿勢である
付記1に記載のコンテンツ配信方法。
【0193】
(付記6)
前記対象状態は、笑顔である
付記1に記載のコンテンツ配信方法。
【0194】
(付記7)
前記対象状態の判定結果に基づいて、前記視聴者にコンテンツをレコメンドするコンテンツレコメンドステップを更に含む
付記1に記載のコンテンツ配信方法。
【0195】
(付記8)
前記対象状態の判定結果に基づいて、前記視聴者のコンテンツに対する傾向を分析する傾向分析ステップと、
分析結果を前記視聴者端末の前記表示装置に表示する傾向表示ステップを更に含む
付記1に記載のコンテンツ配信方法。
【0196】
(付記9)
前記状態判定ステップは、前記対象状態の評価値を算出し、前記評価値に基づいて、前記視聴者が前記対象状態であるか判定する
付記1に記載のコンテンツ配信方法。
【0197】
(付記10)
前記対象状態の判定結果は、前記評価値及び前記視聴者が前記対象状態と判定されたか否かを示す情報の少なくとも一方を含む
付記9に記載のコンテンツ配信方法。
【0198】
(付記11)
視聴者端末及びコンテンツ配信装置を含むコンテンツ配信システムに、
前記視聴者端末にコンテンツを配信するコンテンツ配信ステップと、
前記視聴者端末の表示装置に前記コンテンツを表示するコンテンツ表示ステップと、
前記コンテンツの表示中に前記視聴者端末の前記表示装置側の撮影装置で視聴者を撮影する視聴者撮影ステップと、
前記撮影装置で撮影された前記視聴者が予め設定された対象状態であるか判定する状態判定ステップと、
前記視聴者が前記対象状態であると判定された場合、前記コンテンツに状態フラグを付与するフラグ付与ステップと、
を含むコンテンツ配信方法を実行させるコンテンツ配信プログラム。
【0199】
(付記12)
視聴者端末及びコンテンツ配信装置を含むコンテンツ配信システムであって、
前記視聴者端末にコンテンツを配信するコンテンツ配信部と、
前記視聴者端末の表示装置に前記コンテンツを表示するコンテンツ表示部と、
前記コンテンツの表示中に前記視聴者端末の前記表示装置側の撮影装置で視聴者を撮影する視聴者撮影部と、
前記撮影装置で撮影された前記視聴者が予め設定された対象状態であるか判定する状態判定部と、
前記視聴者が前記対象状態であると判定された場合、前記コンテンツに状態フラグを付与するフラグ付与部と、
を含むコンテンツ配信システム。
【0200】
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【符号の説明】
【0201】
1:コンテンツ配信装置
2:視聴者端末
3:投稿者端末
11:通信部
12:記憶部
13:制御部
121:ユーザ情報
122:コンテンツ情報
123:コンテンツデータ
124:判定結果情報
125:状態フラグ情報
126:分析結果情報
131:情報取得部
132:コンテンツレコメンド部
133:コンテンツ配信部
134:状態フラグ付与部
135:フラグ通知部
136:傾向分析部
1000:コンテンツ配信システム