IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ シチズンホールディングス株式会社の特許一覧

特開2024-142603判定装置、動画配信システム、判定方法及びプログラム
<>
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図1
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図2
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図3
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図4
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図5
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図6
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図7
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図8
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図9
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図10
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図11
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図12
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図13
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図14
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図15
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図16
  • 特開-判定装置、動画配信システム、判定方法及びプログラム 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024142603
(43)【公開日】2024-10-11
(54)【発明の名称】判定装置、動画配信システム、判定方法及びプログラム
(51)【国際特許分類】
   G06V 40/16 20220101AFI20241003BHJP
   H04N 21/234 20110101ALI20241003BHJP
   H04N 21/24 20110101ALI20241003BHJP
   H04N 21/488 20110101ALI20241003BHJP
   G06T 7/20 20170101ALI20241003BHJP
【FI】
G06V40/16 Z
H04N21/234
H04N21/24
H04N21/488
G06T7/20 300Z
【審査請求】未請求
【請求項の数】13
【出願形態】OL
(21)【出願番号】P 2023054811
(22)【出願日】2023-03-30
(71)【出願人】
【識別番号】000001960
【氏名又は名称】シチズン時計株式会社
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】清水 秀樹
【テーマコード(参考)】
5C164
5L096
【Fターム(参考)】
5C164FA06
5C164SB01P
5C164SB08S
5C164SB41P
5C164SD12S
5C164UB10S
5C164UD11P
5C164YA21
5L096CA04
5L096DA02
5L096FA02
5L096GA38
5L096HA02
5L096JA11
(57)【要約】
【課題】人物が撮影された動画が合成動画であるか否かを判定する。
【解決手段】判定装置が、人物が撮影された動画を取得する動画取得部と、動画に含まれる人物の所定の部位を示す領域を抽出する領域抽出部と、領域から脈波を検出する脈波検出部と、脈波の検出結果に基づいて動画が機械学習モデルにより生成された合成動画であるか否かを判定する動画判定部と、を備える。
【選択図】図3
【特許請求の範囲】
【請求項1】
人物が撮影された動画を取得するように構成されている動画取得部と、
前記動画に含まれる前記人物の所定の部位を示す領域を抽出するように構成されている領域抽出部と、
前記領域から脈波を検出するように構成されている脈波検出部と、
前記脈波の検出結果に基づいて前記動画が機械学習モデルにより生成された合成動画であるか否かを判定するように構成されている動画判定部と、
を備える判定装置。
【請求項2】
請求項1に記載の判定装置であって、
前記動画判定部は、前記領域から前記脈波が検出されなかったとき、前記動画が前記合成動画であると判定するように構成されている、
判定装置。
【請求項3】
請求項2に記載の判定装置であって、
前記部位は、前記人物の頬である、
判定装置。
【請求項4】
請求項1に記載の判定装置であって、
前記領域抽出部は、前記人物の異なる部位を示す複数の領域を抽出するように構成されており、
前記動画判定部は、前記複数の領域それぞれにおける前記脈波の検出結果に基づいて、前記動画が前記合成動画であるか否かを示すスコアを計算するように構成されている、
判定装置。
【請求項5】
請求項4に記載の判定装置であって、
前記動画判定部は、前記人物の頬における前記脈波の検出結果に基づく前記スコアを、前記人物の額又は前記人物の首における前記脈波の検出結果により補正するように構成されている、
判定装置。
【請求項6】
請求項5に記載の判定装置であって、
前記スコアは、値が小さいほど前記動画が前記合成動画であることを示し、
前記動画判定部は、前記額を示す前記領域から前記脈波が検出されたとき、前記スコアの値を大きくし、前記額を示す前記領域から前記脈波が検出されなかったとき、前記スコアの値を小さくするように構成されている、
判定装置。
【請求項7】
請求項6に記載の判定装置であって、
前記動画判定部は、前記首を示す前記領域から前記脈波が検出されなかったとき、前記スコアの値を小さくするように構成されている、
判定装置。
【請求項8】
請求項4に記載の判定装置であって、
前記脈波に基づいて前記人物の感情を判定するように構成されている感情判定部をさらに備え、
前記動画判定部は、前記複数の領域それぞれにおける前記感情の判定結果に基づいて前記スコアを補正するように構成されている、
判定装置。
【請求項9】
請求項8に記載の判定装置であって、
前記スコアは、値が小さいほど前記動画が前記合成動画であることを示し、
前記動画判定部は、前記人物の頬における前記感情の判定結果と前記人物の首における前記感情の判定結果とが異なるとき、前記スコアの値を小さくするように構成されている、
判定装置。
【請求項10】
請求項9に記載の判定装置であって、
前記感情判定部は、複数の時点における前記感情を判定するように構成されており、
前記動画判定部は、前記複数の時点それぞれにおける前記感情の判定結果が異なるとき、前記スコアの値を小さくするように構成されている、
判定装置。
【請求項11】
端末装置及び動画配信装置がネットワークを介して通信可能な動画配信システムであって、
前記動画配信装置は、
前記端末装置からの要求に応じて、人物が撮影された動画を記憶部から取得するように構成されている動画取得部と、
前記動画に含まれる前記人物の所定の部位を示す領域を抽出するように構成されている領域抽出部と、
前記領域から脈波を検出するように構成されている脈波検出部と、
前記脈波の検出結果に基づいて前記動画が機械学習モデルにより生成された合成動画であるか否かを判定するように構成されている動画判定部と、
前記動画及び前記動画判定部による判定結果を前記端末装置に送信するように構成されている動画配信部と、
を備え、
前記端末装置は、
前記動画を前記動画配信装置に要求するように構成されている動画要求部と、
前記判定結果が前記合成動画であることを示すとき、前記動画と共に前記動画が前記合成動画であることを示す情報を表示する動画表示部と、
を備える動画配信システム。
【請求項12】
コンピュータが、
人物が撮影された動画を取得する手順と、
前記動画に含まれる前記人物の所定の部位を示す領域を抽出する手順と、
前記領域から脈波を検出する手順と、
前記脈波の検出結果に基づいて前記動画が機械学習モデルにより生成された合成動画であるか否かを判定する手順と、
を実行する判定方法。
【請求項13】
コンピュータに、
人物が撮影された動画を取得する手順と、
前記動画に含まれる前記人物の所定の部位を示す領域を抽出する手順と、
前記領域から脈波を検出する手順と、
前記脈波の検出結果に基づいて前記動画が機械学習モデルにより生成された合成動画であるか否かを判定する手順と、
を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、判定装置、動画配信システム、判定方法及びプログラムに関する。
【背景技術】
【0002】
インターネット等を利用して様々な電子データを複数のユーザで共有可能な情報通信サービスが利用されている。この種の情報通信サービスでは、ユーザの誤解や悪意により虚偽情報が投稿され、拡散されることがある。
【0003】
例えば、特許文献1には、投稿されたメッセージから所定の内容に対する所定の否定語を含むメッセージを検出することで、所定の内容に虚偽情報が含まれるか否かを判定する情報判定装置が開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2015-5057号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、従来技術では、投稿された電子データ自体から虚偽情報が含まれるか否かを判定することはできない。例えば、特許文献1では、所定の内容を否定するメッセージを検出しなければ、所定の内容に虚偽情報が含まれることを判定できない。
【0006】
本開示の一態様は、人物が撮影された動画が合成動画であるか否かを判定する技術を提供する。
【課題を解決するための手段】
【0007】
本開示の一態様による判定装置は、人物が撮影された動画を取得する動画取得部と、動画に含まれる人物の所定の部位を示す領域を抽出する領域抽出部と、領域から脈波を検出する脈波検出部と、脈波の検出結果に基づいて動画が機械学習モデルにより生成された合成動画であるか否かを判定する動画判定部と、を備える。
【発明の効果】
【0008】
本開示の一態様によれば、人物が撮影された動画が合成動画であるか否かを判定することができる。
【図面の簡単な説明】
【0009】
図1】動画配信システムの全体構成の一例を示すブロック図である。
図2】コンピュータのハードウェア構成の一例を示すブロック図である。
図3】第1実施形態における動画配信システムの機能構成の一例を示すブロック図である。
図4】領域抽出部の機能構成の一例を示すブロック図である。
図5】動画判定部の機能構成の一例を示すブロック図である。
図6】第1実施形態における動画配信方法の一例を示すシーケンス図である。
図7】領域抽出処理の一例を示すフローチャートである。
図8】判定処理の一例を示すフローチャートである。
図9】脈波信号の一例を示すグラフである。
図10】脈波間隔のゆらぎ度の一例を示すグラフである。
図11】基本採点規則の一例を示す図である。
図12】基本採点規則の一例を説明するための図である。
図13】基本採点規則の一例を説明するための図である。
図14】第1補正規則の一例を示す図である。
図15】第2補正規則の一例を示す図である。
図16】第2実施形態における動画配信システムの機能構成の一例を示すブロック図である。
図17】第2実施形態における動画配信方法の一例を示すシーケンス図である。
【発明を実施するための形態】
【0010】
以下、本開示の各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
【0011】
[第1実施形態]
本開示の第1実施形態は、動画配信サービスを提供する動画配信システムである。動画配信サービスは、インターネット等の情報通信ネットワークを介して動画を配信する情報通信サービスである。
【0012】
動画配信サービスは、ユーザが操作する端末装置から動画の投稿を受け付け、投稿された動画に関する情報を他のユーザに提示する。また、動画配信サービスは、他のユーザが操作する端末装置から動画の閲覧要求を受け付け、要求された動画を端末装置に送信する。動画配信サービスの一例は、動画共有サービス又はソーシャルネットワーキングサービス(SNS; Social Networking Service)等である。
【0013】
ユーザ同士で情報を共有可能な情報通信サービスでは、事実とは異なる虚偽情報が投稿され、拡散されることがある。特に、深層学習に基づく動画生成技術の進展に伴い、実写と見分けることが困難な虚偽動画(「ディープフェイク」とも呼ばれる)の拡散が増加している。例えば、敵対的生成ネットワーク(GAN; Generative Adversarial Network)を用いれば、人物が撮影されている動画に別の人物の顔を合成し、あたかも別の人物を実際に撮影したかのような動画を作成することが可能である。例えば、社会的に影響力が強い人物が虚偽の内容を発話する動画を作成し、意図的に拡散する行為が問題となることがある。
【0014】
ディープフェイクを判定する様々な手法が提案されている。例えば、瞳に映る光又は色、若しくは輪郭境界の不自然さ等をディープニューラルネットワークで分析する手法がある。しかしながら、これらのディープニューラルネットワークは層数が多く計算負荷が高いため、広く一般に利用できるものではない。
【0015】
本実施形態における動画配信システムは、人物が撮影された動画が機械学習モデルにより生成された合成動画であるか否かを判定することを目的とする。特に、本実施形態では、少ない計算リソースであっても合成動画を判定可能な技術を実現することを目的とする。
【0016】
一の側面では、本実施形態によれば、閲覧中の動画が合成動画であることをユーザに通知することができる。ユーザが合成動画であることを知ることで、虚偽動画の拡散を抑止することが可能となる。
【0017】
<全体構成>
本実施形態における動画配信システムの全体構成を、図1を参照しながら説明する。図1は、本実施形態における動画配信システムの全体構成の一例を示すブロック図である。
【0018】
図1に示されているように、本実施形態における動画配信システム1は、動画配信装置10及び2台の端末装置20-1,20-2を含む。動画配信装置10及び2台の端末装置20-1,20-2は、LAN(Local Area Network)又はインターネット等の通信ネットワークN1を介してデータ通信可能に接続されている。
【0019】
なお、本実施形態における動画配信装置10は、判定装置の一例である。
【0020】
動画配信装置10は、動画配信サービスを提供するパーソナルコンピュータ、ワークステーション、サーバ等の情報処理装置である。動画配信装置10は、端末装置20-1から動画の投稿要求を受信し、投稿された動画を記憶装置に記憶する。動画配信装置10は、端末装置20-2から動画の閲覧要求を受信し、要求された動画を端末装置20-2に送信する。
【0021】
端末装置20-1は、動画配信サービスに動画を投稿するユーザ(以下、「投稿者」とも呼ぶ)が操作するパーソナルコンピュータ、タブレット端末、スマートフォン等の情報処理端末である。端末装置20-1は、投稿者の操作に応じて、動画の投稿要求を動画配信装置10に送信する。
【0022】
端末装置20-2は、動画配信サービスから配信される動画を閲覧するユーザ(以下、「閲覧者」とも呼ぶ)が操作するパーソナルコンピュータ、タブレット端末、スマートフォン等の情報処理端末である。端末装置20-2は、閲覧者の操作に応じて、動画の閲覧要求を動画配信装置10に送信する。端末装置20-2は、動画配信装置10から動画を受信し、表示装置に出力する。
【0023】
なお、図1に示した動画配信システム1の全体構成は一例であって、用途や目的に応じて様々なシステム構成例があり得る。例えば、動画配信装置10、端末装置20-1及び端末装置20-2の1つ以上が、動画配信システム1に複数台含まれていてもよい。例えば、動画配信装置10は、複数台のコンピュータにより実現してもよいし、クラウドコンピューティングのサービスとして実現してもよい。図1に示す動画配信装置10、端末装置20のような装置の区分は一例である。
【0024】
<ハードウェア構成>
本実施形態における動画配信システム1のハードウェア構成を、図2を参照しながら説明する。
【0025】
≪コンピュータのハードウェア構成≫
本実施形態における動画配信装置10及び端末装置20は、例えばコンピュータにより実現される。図2は、本実施形態におけるコンピュータ500のハードウェア構成の一例を示すブロック図である。
【0026】
図2に示されているように、コンピュータ500は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HDD(Hard Disk Drive)504、入力装置505、表示装置506、通信I/F(Interface)507及び外部I/F508を有する。CPU501、ROM502及びRAM503は、いわゆるコンピュータを形成する。コンピュータ500の各ハードウェアは、バスライン509を介して相互に接続されている。なお、入力装置505及び表示装置506は外部I/F508に接続して利用する形態であってもよい。
【0027】
CPU501は、ROM502又はHDD504等の記憶装置からプログラムやデータをRAM503上に読み出し、処理を実行することで、コンピュータ500全体の制御や機能を実現する演算装置である。コンピュータ500は、CPU501に加えて又はCPU501に代えて、GPU(Graphics Processing Unit)を有していてもよい。
【0028】
ROM502は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM502は、HDD504にインストールされている各種プログラムをCPU501が実行するために必要な各種プログラム、データ等を格納する主記憶装置として機能する。具体的には、ROM502には、コンピュータ500の起動時に実行されるBIOS(Basic Input/Output System)、EFI(Extensible Firmware Interface)等のブートプログラムや、OS(Operating System)設定、ネットワーク設定等のデータが格納されている。
【0029】
RAM503は、電源を切るとプログラムやデータが消去される揮発性の半導体メモリ(記憶装置)の一例である。RAM503は、例えば、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等である。RAM503は、HDD504にインストールされている各種プログラムがCPU501によって実行される際に展開される作業領域を提供する。
【0030】
HDD504は、プログラムやデータを格納している不揮発性の記憶装置の一例である。HDD504に格納されるプログラムやデータには、コンピュータ500全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーション等がある。なお、コンピュータ500はHDD504に替えて、記憶媒体としてフラッシュメモリを用いる記憶装置(例えばSSD:Solid State Drive等)を利用するものであってもよい。
【0031】
入力装置505は、ユーザが各種信号を入力するために用いるタッチパネル、操作キーやボタン、キーボードやマウス、音声等の音データを入力するマイクロホン等である。
【0032】
表示装置506は、画面を表示する液晶や有機EL(Electro-Luminescence)等のディスプレイ、音声等の音データを出力するスピーカ等で構成されている。
【0033】
通信I/F507は、通信ネットワークに接続し、コンピュータ500がデータ通信を行うためのインタフェースである。
【0034】
外部I/F508は、外部装置とのインタフェースである。外部装置には、ドライブ装置510等がある。
【0035】
ドライブ装置510は、記録媒体511をセットするためのデバイスである。ここでいう記録媒体511には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体511には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。これにより、コンピュータ500は外部I/F508を介して記録媒体511の読み取り及び/又は書き込みを行うことができる。
【0036】
なお、HDD504にインストールされる各種プログラムは、例えば、配布された記録媒体511が外部I/F508に接続されたドライブ装置510にセットされ、記録媒体511に記録された各種プログラムがドライブ装置510により読み出されることでインストールされる。あるいは、HDD504にインストールされる各種プログラムは、通信I/F507を介して、通信ネットワークとは異なる他のネットワークよりダウンロードされることでインストールされてもよい。
【0037】
<機能構成>
本実施形態における動画配信システム1の機能構成を、図3を参照しながら説明する。図3は、本実施形態における動画配信システム1の機能構成の一例を示すブロック図である。
【0038】
≪動画配信装置≫
図3に示されているように、本実施形態における動画配信装置10は、動画記憶部100、動画受信部101、要求受信部102、動画取得部103、領域抽出部104、脈波検出部105、動画判定部106及び動画配信部107を備える。
【0039】
動画記憶部100は、図2に示されているHDD504によって実現される。動画記憶部100は、動画配信装置10とは異なる外部の記憶装置によって実現されてもよい。
【0040】
動画受信部101、要求受信部102、動画取得部103、領域抽出部104、脈波検出部105、動画判定部106及び動画配信部107は、図2に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。
【0041】
動画記憶部100には、動画配信サービスで配信される動画の内容を示す電子データが記憶される。以下、動画の内容を示す電子データを、単に動画と呼ぶことがある。動画記憶部100に記憶される動画には、その動画を識別する識別情報が関連付けられる。識別情報は、例えば、動画の位置を示すURL(Uniform Resource Locator)でもよいし、動画配信装置10が各動画に一意に割り当てた識別番号でもよい。
【0042】
動画受信部101は、端末装置20-1から動画の投稿要求を受信する。投稿要求には、動画の内容を示す電子データが含まれる。動画受信部101は、受信した動画を識別する識別情報を生成し、受信した動画と関連付けて動画記憶部100に記憶する。
【0043】
要求受信部102は、端末装置20-2から動画の閲覧要求を受信する。閲覧要求には、閲覧者により指定された動画(以下、「対象動画」とも呼ぶ)を識別する識別情報が含まれる。
【0044】
動画取得部103は、要求受信部102が受信した閲覧要求に基づいて、対象動画を動画記憶部100から読み出す。本実施形態では、対象動画には、少なくとも1人の人物が撮影されているものとする。
【0045】
領域抽出部104は、動画取得部103が取得した対象動画に含まれる人物の所定の部位を示す領域(以下、「測定領域」とも呼ぶ)を抽出する。本実施形態では、領域抽出部104は、人物の異なる部位を示す複数の測定領域を抽出する。具体的には、領域抽出部104は、右頬、左頬、額及び首のうち、皮膚が露出している領域を測定領域として抽出する。
【0046】
脈波検出部105は、領域抽出部104が抽出した複数の測定領域それぞれから脈波を検出する。具体的には、脈波検出部105は、各測定領域において、緑色光の輝度変化成分を脈波信号として抽出する。
【0047】
生体を撮影した動画では、皮膚の露出部分において、心拍に同期したヘモグロビン変化により、周期性をもつ緑色光の輝度変化成分が生じる。したがって、動画から皮膚の露出部分における緑色光の輝度変化成分を抽出することで、脈波を観測することができる。
【0048】
一方、敵対的生成ネットワーク等の機械学習モデルにより生成された合成動画は、元の動画に類似した動画から様々なシーンを切り出し、それらを組み合わせて生成される。そのため、このような合成動画では、血流変化に伴う連続性が無く、脈波を観測することができない。したがって、動画から検出した脈波に基づいて、対象動画が機械学習モデルにより生成された合成動画であるか否かを判定することが可能である。
【0049】
動画判定部106は、脈波検出部105が検出した脈波に基づいて、対象動画が合成動画であるか否かを判定する。具体的には、動画判定部106は、各測定領域から抽出された脈波信号に基づいて、対象動画が合成動画であるか否かを示すスコア(以下、「真偽度」とも呼ぶ)を計算する。動画判定部106は、真偽度を予め定めた閾値と比較することで、対象動画が合成動画であるか否かを示す真理値を計算してもよい。
【0050】
動画配信部107は、動画取得部103が取得した対象動画、及び動画判定部106による判定結果を端末装置20-2に送信する。動画配信部107が送信する判定結果は、真偽度の値でもよいし、真偽を示す真理値でもよいし、それらの両方を含んでもよい。
【0051】
(領域抽出部の詳細)
領域抽出部104の機能構成を、図4を参照しながらより詳しく説明する。図4は、領域抽出部の機能構成の一例を示す図である。
【0052】
図4に示されているように、本実施形態における領域抽出部104は、対象動画を入力とし、測定領域を示す測定領域情報を出力する。領域抽出部104は、顔認識部401、皮膚判定部402及び領域決定部403を含む。
【0053】
顔認識部401は、対象動画から人物の顔を認識する。次に、顔認識部401は、顔の認識結果に基づいて所定の部位の領域を特定する。本実施形態では、所定の部位は、右頬、左頬、額及び首である。
【0054】
皮膚判定部402は、顔認識部401が特定した領域それぞれについて、皮膚が露出しているか否かを判定する。
【0055】
領域決定部403は、顔認識部401が特定した領域のうち、皮膚判定部402により皮膚が露出していると判定された領域を特定する。領域決定部403は、特定した領域を測定領域に決定し、その測定領域を示す測定領域情報を出力する。測定領域情報には、測定領域の範囲及び測定領域に含まれる部位の種類が含まれる。
【0056】
(動画判定部の詳細)
動画判定部106の機能構成を、図5を参照しながらより詳しく説明する。図5は、動画判定部の機能構成の一例を示す図である。
【0057】
図5に示されているように、本実施形態における動画判定部106は、各測定領域で検出された脈波信号を入力とし、対象動画に関する判定結果を出力する。動画判定部106は、間隔検出部601、周期性判定部602、カオス解析部603、感情判定部604、真偽度計算部605、真偽度記憶部606及び結果出力部607を含む。
【0058】
間隔検出部601は、各測定領域で検出された脈波信号について、脈波の間隔を計算する。間隔検出部601は、脈波の間隔を時系列に並べた脈波間隔の時系列データを生成する。
【0059】
周期性判定部602は、各測定領域で検出された脈波信号について、脈波に所定の周期性があるか否かを判定する。周期性判定部602は、脈波に所定の周期性がない場合、その測定領域における脈波の検出結果を「未検出」とする。
【0060】
カオス解析部603は、各測定領域で検出された脈波信号について、脈波間隔のゆらぎを解析する。具体的には、カオス解析部603は、間隔検出部601が生成した脈波間隔の時系列データに基づいて、脈波間隔のゆらぎ度を算出する。
【0061】
感情判定部604は、カオス解析部603が計算した脈波間隔のゆらぎ度に基づいて、感情を判定する。具体的には、感情判定部604は、脈波間隔のゆらぎ度を予め定めた閾値と比較することで、予め定めた複数の感情のいずれかに分類する。
【0062】
真偽度計算部605は、脈波検出結果及び感情判定結果に基づいて、真偽度を計算する。真偽度計算部605は、予め定めた時間間隔(例えば30秒程度)で、真偽度を計算する。
【0063】
本実施形態では、真偽度は0以上100以下の値を取る。真偽度は、値が大きいほど動画が真実である(言い替えると、合成動画ではない)可能性が高いことを示し、値が小さいほど動画が虚偽である(言い替えると、合成動画である)可能性が高いことを示す。
【0064】
真偽度記憶部606には、真偽度計算部605により計算された真偽度が、対象動画ごとに時系列で蓄積される。したがって、真偽度記憶部606には、対象動画に関する真偽度の時系列データが記憶される。
【0065】
結果出力部607は、真偽度記憶部606から読み出した真偽度の時系列データに基づいて、対象動画に関する真偽度の平均値を計算する。結果出力部607は、真偽度の平均値に基づいて対象動画に関する判定結果を生成する。
【0066】
≪端末装置≫
図3に示されているように、本実施形態における端末装置20-1は、動画送信部201を備える。本実施形態における端末装置20-2は、動画要求部202及び動画表示部203を備える。
【0067】
なお、端末装置20-1と端末装置20-2とは同一の機能構成であってよい。すなわち、端末装置20-1はさらに動画要求部202及び動画表示部203を備えてもよい。また、端末装置20-2はさらに動画送信部201を備えてもよい。
【0068】
動画送信部201、動画要求部202及び動画表示部203は、図2に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。
【0069】
動画送信部201は、投稿者の操作に応じて、動画の投稿要求を動画配信装置10に送信する。動画の投稿要求には、投稿者により指定された動画の内容を示す電子データが含まれる。
【0070】
動画要求部202は、閲覧者の操作に応じて、動画の閲覧要求を動画配信装置10に送信する。動画の閲覧要求には、閲覧者により指定された動画を識別する識別情報が含まれる。
【0071】
動画表示部203は、動画配信装置10から対象動画及び対象動画に関する判定結果を受信する。動画表示部203は、対象動画及び判定結果を表示装置506に出力する。
【0072】
<処理手順>
本実施形態における動画配信システム1が実行する動画配信方法の処理手順を、図6を参照しながら説明する。図6は、本実施形態における動画配信方法の処理手順の一例を示すシーケンス図である。
【0073】
ステップS1において、端末装置20-1の動画送信部201は、投稿者による動画の投稿操作を受け付ける。動画の投稿操作は、例えば、動画配信システム1から提示される動画投稿画面において、投稿を所望する動画を指定することで行われる。
【0074】
次に、動画送信部201は、動画の投稿要求を動画配信装置10に送信する。動画の投稿要求には、投稿者により指定された動画の内容を示す電子データが含まれる。
【0075】
ステップS2において、動画配信装置10の動画受信部101は、端末装置20-1から動画の投稿要求を受信する。次に、動画受信部101は、投稿要求に含まれる動画を取得する。続いて、動画受信部101は、取得した動画を識別する識別情報を生成する。そして、動画受信部101は、動画と識別情報とを関連付けて動画記憶部100に記憶する。
【0076】
ステップS3において、端末装置20-2の動画要求部202は、閲覧者による動画の閲覧操作を受け付ける。動画の閲覧操作は、例えば、動画配信システム1から提示される動画一覧画面において、閲覧者が閲覧を所望する対象動画を指定する操作である。
【0077】
次に、動画要求部202は、動画の閲覧要求を動画配信装置10に送信する。動画の閲覧要求には、閲覧者により指定された対象動画を識別する識別情報が含まれる。
【0078】
ステップS4において、動画配信装置10の要求受信部102は、端末装置20-2から動画の閲覧要求を受信する。次に、要求受信部102は、動画の閲覧要求に含まれる識別情報を動画取得部103に送る。
【0079】
動画取得部103は、要求受信部102から識別情報を受け取る。次に、動画取得部103は、識別情報に基づいて動画記憶部100に記憶されている対象動画を特定する。続いて、動画取得部103は、対象動画を動画記憶部100から読み出す。そして、動画取得部103は、読み出した対象動画を領域抽出部104及び動画配信部107に送る。
【0080】
ステップS5において、動画配信装置10の領域抽出部104は、動画取得部103から対象動画を受け取る。次に、領域抽出部104は、対象動画から測定領域を抽出する。そして、領域抽出部104は、測定領域を示す測定領域情報を脈波検出部105に送る。
【0081】
≪領域抽出処理≫
本実施形態における領域抽出処理(図6のステップS5)について、図7を参照しながらより詳細に説明する。図7は、本実施形態における領域抽出処理の一例を示すフローチャートである。
【0082】
ステップS11において、領域抽出部104の顔認識部401は、対象動画から人物の顔を認識する。具体的には、顔認識部401は、まず、対象動画から顔の態様(顔の範囲、向き、各部位の特徴点等)を分析する。顔の態様の分析には、例えば、輪郭検知アルゴリズム及び特徴点抽出アルゴリズム等を用いることができる。
【0083】
次に、顔認識部401は、顔の態様の分析結果に基づいて、所定の部位の領域を特定する。本実施形態では、所定の部位は、右頬、左頬、額及び首である。そして、顔認識部401は、所定の部位の領域を示す領域情報を皮膚判定部402に送る。
【0084】
ステップS12において、領域抽出部104の皮膚判定部402は、顔認識部401から領域情報を受け取る。次に、皮膚判定部402は、領域情報に示される各領域について、皮膚が露出しているか否かを判定する。皮膚判定部402は、例えば、各領域を代表する色(例えば平均色)が人間の皮膚色の範囲に含まれるか否かを判定する。そして、皮膚判定部402は、皮膚が露出している領域を示す皮膚領域情報を領域決定部403に送る。
【0085】
ステップS13において、領域抽出部104の領域決定部403は、皮膚判定部402から皮膚領域情報を受け取る。次に、領域決定部403は、皮膚領域情報に示される領域を測定領域に決定する。そして、領域決定部403は、測定領域を示す測定領域情報を出力する。
【0086】
図6に戻って説明する。ステップS6において、動画配信装置10の脈波検出部105は、領域抽出部104から測定領域情報を受け取る。次に、脈波検出部105は、測定領域情報に基づいて、対象動画における測定領域を特定する。
【0087】
続いて、脈波検出部105は、特定した各測定領域において、皮膚色の時系列信号を生成する。次に、脈波検出部105は、皮膚色の時系列信号から緑色光の輝度変化成分を抽出する。また、脈波検出部105は、抽出した緑色光の輝度変化成分に対して、矩形波相関フィルタを用いてノイズ除去を行う。そして、脈波検出部105は、ノイズ除去後の輝度変化成分を脈波信号として動画判定部106に送る。
【0088】
ステップS7において、動画配信装置10の動画判定部106は、脈波検出部105から各測定領域における脈波信号を受け取る。次に、動画判定部106は、各脈波信号に基づいて、対象動画が合成動画であるか否かを判定する。そして、動画判定部106は、対象動画に関する判定結果を動画配信部107に送る。
【0089】
≪判定処理≫
本実施形態における判定処理(図6のステップS7)について、図8を参照しながらより詳細に説明する。図8は、本実施形態における判定処理の一例を示すフローチャートである。
【0090】
ステップS21において、動画判定部106の間隔検出部601は、各測定領域における脈波信号について、脈波信号のピーク点を検出する。次に、間隔検出部601は、検出した各ピーク点の間隔を計算する。続いて、間隔検出部601は、各ピーク点の間隔を時系列に並べた脈波間隔の時系列データを生成する。そして、間隔検出部601は、脈波間隔の時系列データを周期性判定部602及びカオス解析部603に送る。
【0091】
図9は、脈波信号の一例を示すグラフである。図9に示されているグラフは、横軸tを時間(ミリ秒)とし、縦軸Aを脈波の振幅の強さとし、脈波信号PWを示したグラフである。図9に示されているように、脈波信号PWは、心臓の拍動による血流量の変動を反映した三角波状である。間隔検出部601は、脈波信号PWから最も血流量が強いピーク点P1~Pnを検出し、脈波間隔d1~dnを計算する。
【0092】
図8に戻って説明する。ステップS22において、動画判定部106の周期性判定部602は、間隔検出部601から脈波間隔の時系列データを受け取る。次に、周期性判定部602は、各測定領域における脈波間隔の時系列データについて、脈波に周期性があるか否かを判定する。脈波に周期性がないと判定した場合、周期性判定部602は、その測定領域における脈波の検出結果を「未検出」とする。
【0093】
また、周期性判定部602は、脈波に周期性があると判定した測定領域について、脈波の周期が人間の心拍が取り得る範囲内か否かを判定する。具体的には、周期性判定部602は、まず、所定の時間単位におけるピーク点Pの数を計算する。次に、周期性判定部602は、ピーク点Pの数が人間の心拍数が取り得る範囲内であるか否かを判定する。非運動時の人間の心拍数が取り得る範囲は、例えば、1分当たりに換算して40~100回程度と定めればよい。ピーク点Pの数が人間の心拍数が取り得る範囲外である場合、周期性判定部602は、その測定領域における脈波の検出結果を「未検出」とする。
【0094】
周期性判定部602は、脈波に所定の周期性があると判定した測定領域について、その測定領域における脈波の検出結果を「検出」とする。周期性判定部602は、各測定領域に関する脈波の検出結果を真偽度計算部605に送る。
【0095】
ステップS23において、動画判定部106のカオス解析部603は、間隔検出部601から脈波間隔の時系列データを受け取る。次に、カオス解析部603は、脈波間隔の時系列データに基づいて、脈波間隔のゆらぎ度を算出する。本実施形態における脈波間隔のゆらぎ度は、最大リアプノフ指数である。そして、カオス解析部603は、各測定領域に関する最大リアプノフ指数を感情判定部604に送る。
【0096】
図10は、脈波間隔のゆらぎ度の一例を示すグラフである。図10に示されているグラフは、ローレンツプロットとも呼ばれる。ローレンツプロットは、横軸を脈波間隔dnとし、縦軸を脈波間隔dn-1(ともに単位はミリ秒)とし、n=1,2,・・・について座標(dn,dn-1)上に脈拍間隔の時系列データをプロットしたものである。
【0097】
最大リアプノフ指数は、ローレンツプロットにおける座標(dn,dn-1)を用いて、例えば、式(1)により計算することができる。
【0098】
【数1】
【0099】
ただし、λは最大リアプノフ指数であり、Mは総サンプル時間であり、dは時系列データの時刻kと時刻k-1とのパターン間距離(ローレンツプロットにおける2次元平面上の距離)である。
【0100】
図8に戻って説明する。ステップS24において、動画判定部106の感情判定部604は、カオス解析部603から各測定領域における脈波間隔のゆらぎ度を受け取る。次に、感情判定部604は、各測定領域における脈波間隔のゆらぎ度に基づいて、感情を判定する。感情判定部604は、例えば、脈波間隔のゆらぎ度を予め定めた閾値と比較することで、予め定めた複数の感情のいずれかに分類する。感情判定部604は、各測定領域における感情の判定結果を真偽度計算部605に送る。
【0101】
例えば、感情判定部604は、最大リアプノフ指数が予め定めた負の閾値(例えば-0.6程度)以下である場合、脳疲労、不安もしくは抑うつがある「負の感情」であると判定してもよい。また、例えば、感情判定部604は、最大リアプノフ指数が0以上である場合、脳疲労、不安及び抑うつがない「正の感情」であると判定してもよい。
【0102】
感情判定部604が判定する感情の種類、数及びそれらを判定するための閾値は任意に定めることができる。例えば、感情判定部604は、「ストレスフリー」、「活動中」、「軽疲労状態」及び「疲労状態」の4つの感情を判定してもよい。
【0103】
ステップS25において、動画判定部106の真偽度計算部605は、周期性判定部602から各測定領域における脈波の検出結果を受け取る。また、真偽度計算部605は、感情判定部604から各測定領域における感情の判定結果を受け取る。
【0104】
次に、真偽度計算部605は、頬における脈波の検出結果に基づいて、基本真偽度を決定する。真偽度計算部605は、予め定めた基本採点規則に従って、基本真偽度を決定する。
【0105】
図11は、基本採点規則の一例を示す図である。図11に示されているように、基本採点規則は、対象動画に撮影されている顔の向きに応じて、頬における脈波の検出有無に対する条件を適用し、真偽度を決定する規則である。
【0106】
例えば、対象動画に正面向きの顔が撮影されているとき、両頬で脈波を検出した場合、基本真偽度は90点となる。一方、片頬のみで脈波を検出した場合、基本真偽度は80点となる。また、両頬で脈波を検出しなかった場合、基本真偽度は20点となる。
【0107】
例えば、対象動画に横向きの顔が撮影されているとき、撮影されている側の頬で脈波を検出した場合、基本真偽度は80点となる。一方、撮影されている側の頬で脈波を検出しなかった場合、基本真偽度は50点となる。
【0108】
図12及び図13は、基本採点規則の一例を説明するための図である。図12には、正面向きの顔が撮影された対象動画410の一例が示されている。図12に示されているように、正面向きの顔が撮影された対象動画410では、右頬領域411及び左頬領域412で皮膚が露出していることが多い。一方、額領域413は帽子又は前髪等で皮膚が露出しない可能性がある。また、首領域414は衣服等で皮膚が露出しない可能性がある。したがって、正面向きの顔が撮影された対象動画410では、両頬における脈波の検出結果に基づいて、基本真偽度を決定する。
【0109】
両頬いずれも脈波を検出しなかった場合、人物の顔が機械学習モデルにより合成されたものである可能性が高い。そのため、基本真偽度は低く設定するとよい。一方、両頬で脈波を検出した場合、人物の顔が実際に撮影されたものである可能性が高い。そのため、基本真偽度は高く設定するとよい。なお、機械学習モデルによる合成動画では顔全体を合成することが多いため、片頬のみで脈波を検出した場合も高い基本真偽度を設定してよい。
【0110】
図13には、横向きの顔が撮影された対象動画420の一例が示されている。図13に示されているように、横向きの顔が撮影された対象動画420では、片頬のみ(図13の例では左頬領域412)で皮膚が露出していることが多い。したがって、横向きの顔が撮影された対象動画420では、片頬における脈波の検出結果に基づいて、基本真偽度を決定する。
【0111】
片頬で脈波を検出しなかった場合、人物の顔が機械学習モデルにより合成されたものであるか否か判断が困難である。そのため、基本真偽度は中間程度に設定するとよい。一方、片頬で脈波を検出した場合、人物の顔が実際に撮影されたものである可能性が高い。そのため、基本真偽度は高く設定するとよい。
【0112】
図8に戻って説明する。ステップS26において、動画判定部106の真偽度計算部605は、額又は首における脈波の検出結果に基づいて、ステップS25で決定した基本真偽度を補正する。真偽度計算部605は、予め定めた第1補正規則に従って、真偽度を補正する。第1補正規則は、脈波の検出結果に基づいて真偽度を補正するための規則である。
【0113】
図14は、第1補正規則の一例を示す図である。図14に示されているように、第1補正規則は、額及び首における脈波の測定有無及び検出有無に対する条件を適用し、真偽度を加減算する規則である。例えば、額において脈波を検出した場合、真偽度を加算するとよい(例えば、+10点)。また、額において脈波を検出しなかった場合、真偽度を減算するとよい(例えば、-10点)。機械学習モデルによる合成動画では顔全体を合成することが多いため、額で脈波を検出できれば、人物の顔が実際に撮影されたものである可能性が高い。
【0114】
また、例えば、首において脈波を検出しなかった場合、真偽度を減算するとよい(例えば、-10点)。一方、首において脈波を検出した場合、真偽度の加減算は行わなくてもよい。機械学習モデルによる合成動画では顔のみを合成することが多いため、首で脈波を検出できても合成前の動画で撮影されたものである可能性が高い。
【0115】
なお、額及び首において脈波が測定できない場合、真偽度の加減算は行わなくてもよい。これらの領域は服装や髪型により測定できないことは通常に起こり得るためである。
【0116】
図8に戻って説明する。ステップS27において、動画判定部106の真偽度計算部605は、感情の判定結果に基づいて、ステップS25で決定した基本真偽度(又はステップS26で補正した真偽度)をさらに補正する。真偽度計算部605は、予め定めた第2補正規則に従って、真偽度を補正する。第2補正規則は、感情の判定結果に基づいて真偽度を補正するための規則である。
【0117】
図15は、第2補正規則の一例を示す図である。図15に示されているように、第2補正規則は、感情の判定結果に対する条件を適用し、真偽度を加減算する規則である。例えば、頬において判定された感情と首において判定された感情とが異なる場合、真偽度を大きく減算するとよい(例えば、-100点)。機械学習モデルによる合成動画では顔のみを合成することが多いため、顔の領域内にある頬と顔の領域外にある首とで感情が異なる場合、機械学習モデルによる合成動画である可能性が高い。
【0118】
また、例えば、同じ測定領域で複数回感情を判定した結果、感情の起伏が認められない場合、真偽度を減算するとよい(例えば、-20点)。長時間にわたり感情の起伏が生じないことは、特別な訓練をした人物でなければ起こり得ないため、機械学習モデルによる合成動画である可能性が高いと判断してよい。
【0119】
図8に戻って説明する。真偽度計算部605は、ステップS25からステップS27で計算した真偽度を真偽度記憶部606に記憶する。真偽度記憶部606には、対象動画ごとに真偽度が時系列で蓄積される。
【0120】
ステップS28において、動画判定部106は、対象動画が終了したか否かを判定する。対象動画が終了した場合(YES)、動画判定部106はステップS29に処理を進める。一方、対象動画が終了していない場合(NO)、動画判定部106はステップS21に処理を戻す。
【0121】
その後、動画判定部106は、対象動画が終了するまでステップS21からステップS27の処理を繰り返す。これにより、対象動画全体における真偽度の時系列データが真偽度記憶部606に記憶される。
【0122】
ステップS29において、動画判定部106の結果出力部607は、真偽度記憶部606から対象動画に関する真偽度の時系列データを読み出す。次に、結果出力部607は、対象動画に関する真偽度の平均値を計算する。そして、結果出力部607は、真偽度の平均値に基づいて、対象動画に関する判定結果を出力する。
【0123】
判定結果は、真偽度の平均値であってもよい。判定結果は、真偽度の平均値が予め定めた閾値(例えば、50)以上であるか否かを示す真理値であってもよい。例えば、真偽度の平均値が閾値以上であれば、対象動画が真実であることを示す真値(例えば、1)となり、真偽度の平均値が閾値未満であれば、対象動画が虚偽であることを示す偽値(例えば、0)となる。判定結果は、真偽度の平均値及び真偽を示す真理値の両方を含んでもよい。
【0124】
図6に戻って説明する。ステップS8において、動画配信装置10の動画配信部107は、動画取得部103から対象動画を受け取る。また、動画配信部107は、動画判定部106から対象動画に関する判定結果を受け取る。そして、動画配信部107は、対象動画及び判定結果を端末装置20-2に送信する。
【0125】
ステップS9において、端末装置20-2の動画表示部203は、動画配信装置10から対象動画及び対象動画に関する判定結果を受信する。そして、動画表示部203は、対象動画及び判定結果を表示装置506に出力する。
【0126】
閲覧者は、表示装置506に表示された対象動画を閲覧する。このとき、表示装置506には、対象動画と共に対象動画に関する判定結果が表示されている。判定結果が合成動画であることを示すものであれば、閲覧者は閲覧中の動画が合成動画である可能性が高いことを知ることができる。
【0127】
合成動画であることを知った閲覧者は、対象動画が虚偽動画である旨を示すメッセージやコメントを動画配信システム1に投稿することができる。若しくは、合成動画であることを知った閲覧者は、合成動画である可能性が高い対象動画をさらに拡散することを控えることができる。結果として、動画配信システム1における合成動画の拡散を抑止することができる。
【0128】
<第1実施形態の効果>
本実施形態における動画配信装置10は、動画に含まれる人物の所定の部位を示す領域から脈波を検出し、脈波の検出結果に基づいて動画が機械学習モデルにより生成された合成動画であるか否かを判定する。機械学習モデルにより生成された合成動画では、他の動画から切り出した様々なシーンを組み合わせて生成される。そのため、このような合成動画では、血流変化に伴う連続性が無く、脈波を検出することができない。したがって、本実施形態によれば、人物が撮影された動画が合成動画であるか否かを判定することができる。
【0129】
本実施形態における動画配信装置10は、人物の所定の部位を示す領域から脈波が検出されなかったとき、動画が合成動画であると判定してもよい。所定の部位は、頬でもよい。機械学習モデルにより生成された合成動画では、人物が撮影されている動画に別の人物の顔を合成した合成動画が作成されることがある。頬は人物の顔のうち皮膚が露出することが多い部位である。したがって、本実施形態によれば、人物の顔が合成された動画を精度よく判定することができる。
【0130】
本実施形態における動画配信装置10は、人物の異なる部位を示す複数の領域を抽出し、各領域における脈波の検出結果に基づいて、動画が合成動画であるか否かを示すスコアを計算してもよい。複数の部位それぞれにおける脈波の検出結果を用いて総合的に判定することで、人物の顔の一部が合成された様々な合成動画を判定することが可能となる。したがって、本実施形態によれば、人物の顔の一部が合成された動画を精度よく判定することができる。
【0131】
本実施形態における動画配信装置10は、人物の頬における脈波の検出結果に基づくスコアを、人物の額又は人物の首における脈波の検出結果により補正してもよい。頬は人物の顔のうち皮膚が露出することが多い部位である。額及び首は皮膚が露出しないことがある。頬における脈波の検出結果に加えて、額又は首における脈波の検出結果を補完的に用いることで、人物の顔が合成された動画を精度よく判定することができる。
【0132】
本実施形態における動画配信装置10は、人物の異なる部位を示す複数の領域を抽出し、各領域における感情の判定結果に基づいてスコアを補正してもよい。異なる部位を示す複数の領域で異なる感情が判定されることは通常起こり得ない。したがって、本実施形態によれば、人物の顔が合成された動画を精度よく判定することができる。
【0133】
本実施形態における動画配信装置10は、複数の時点それぞれにおける感情の判定結果が異なるとき、スコアの値を小さくしてもよい。長時間にわたり感情の起伏が生じないことは通常起こり得ない。したがって、本実施形態によれば、人物の顔が合成された動画を精度よく判定することができる。
【0134】
本実施形態における動画配信システム1は、閲覧対象とする動画と共にその動画が合成動画であるか否かを示す判定結果を表示する。動画の閲覧者は、判定結果を参照することで、閲覧中の動画が合成動画であるか否かを知ることができる。したがって、本実施形態における動画配信システム1によれば、機械学習モデルにより生成された合成動画の拡散を抑止することができる。
【0135】
[第2実施形態]
第1実施形態では、動画配信装置10が、対象動画が合成動画であるか否かを判定し、対象動画と共に判定結果を端末装置20-2に送信する構成を説明した。第2実施形態では、端末装置20-2が、対象動画が合成動画であるか否かを判定し、対象動画と共に判定結果を表示する構成を説明する。
【0136】
なお、本実施形態における端末装置20-2は、判定装置の一例である。
【0137】
以下、本実施形態における動画配信システム1について、第1実施形態における動画配信システム1との相違点を中心に説明する。
【0138】
<機能構成>
本実施形態における動画配信システム1の機能構成を、図16を参照しながら説明する。図16は、本実施形態における動画配信システム1の機能構成の一例を示すブロック図である。
【0139】
≪動画配信装置≫
図16に示されているように、本実施形態における動画配信装置10は、動画記憶部100、動画受信部101、要求受信部102及び動画配信部107を備える。すなわち、本実施形態における動画配信装置10は、第1実施形態における動画配信装置10と比較して、動画取得部103、領域抽出部104、脈波検出部105及び動画判定部106を備えない点が異なる。
【0140】
本実施形態における動画配信部107は、要求受信部102が受信した閲覧要求に基づいて、対象動画を動画記憶部100から読み出す。動画配信部107は、読み出した対象動画を端末装置20-2に送信する。
【0141】
≪端末装置≫
図16に示されているように、本実施形態における端末装置20-2は、動画取得部103、領域抽出部104、脈波検出部105、動画判定部106、動画要求部202及び動画表示部203を備える。すなわち、本実施形態における端末装置20-2は、第1実施形態における端末装置20-2と比較して、動画取得部103、領域抽出部104、脈波検出部105及び動画判定部106をさらに備える点が異なる。
【0142】
本実施形態における端末装置20-2が備える領域抽出部104、脈波検出部105及び動画判定部106は、実施形態における動画配信装置10が備える領域抽出部104、脈波検出部105及び動画判定部106と同様である。
【0143】
本実施形態における動画取得部103は、動画配信装置10から対象動画を受信する。
【0144】
本実施形態における動画表示部203は、動画取得部103が受信した対象動画、及び動画判定部106による判定結果を表示装置506に出力する。
【0145】
<処理手順>
本実施形態における動画配信システム1が実行する動画配信方法の処理手順を、図17を参照しながら説明する。図17は、本実施形態における動画配信方法の処理手順の一例を示すシーケンス図である。
【0146】
ステップS31からステップS33は、第1実施形態における動画配信方法のステップS1からステップS3と同様である(図6参照)。
【0147】
ステップS34において、動画配信装置10の要求受信部102は、端末装置20-2から動画の閲覧要求を受信する。次に、要求受信部102は、動画の閲覧要求に含まれる識別情報を動画配信部107に送る。
【0148】
動画配信部107は、要求受信部102から識別情報を受け取る。次に、動画配信部107は、識別情報に基づいて動画記憶部100に記憶されている対象動画を特定する。続いて、動画配信部107は、対象動画を動画記憶部100から読み出す。そして、動画配信部107は、読み出した対象動画を端末装置20-2に送信する。
【0149】
ステップS35において、端末装置20-2の動画取得部103は、動画配信装置10から対象動画を受信する。動画取得部103は、受信した対象動画を領域抽出部104及び動画表示部203に送る。
【0150】
ステップS36において、端末装置20-2の領域抽出部104は、動画取得部103から対象動画を受け取る。次に、領域抽出部104は、対象動画に含まれる測定領域を抽出する。そして、領域抽出部104は、測定領域を示す測定領域情報を脈波検出部105に送る。
【0151】
ステップS37において、端末装置20-2の脈波検出部105は、領域抽出部104から測定領域情報を受け取る。次に、脈波検出部105は、測定領域情報に基づいて、対象動画における測定領域を特定する。続いて、脈波検出部105は、特定した各測定領域において、脈波信号を抽出する。そして、脈波検出部105は、各測定領域における脈波信号を動画判定部106に送る。
【0152】
ステップS38において、端末装置20-2の動画判定部106は、脈波検出部105から各測定領域における脈波信号を受け取る。次に、動画判定部106は、各脈波信号に基づいて、対象動画が合成動画であるか否かを判定する。そして、動画判定部106は、対象動画に関する判定結果を動画表示部203に送る。
【0153】
ステップS39において、端末装置20-2の動画表示部203は、動画取得部103から対象動画を受け取る。また、動画表示部203は、動画判定部106から対象動画に関する判定結果を受け取る。次に、動画表示部203は、対象動画及び判定結果を表示装置506に出力する。
【0154】
<第2実施形態の効果>
本実施形態における端末装置20-2は、動画に含まれる人物の所定の部位を示す領域から脈波を検出し、脈波の検出結果に基づいて動画が機械学習モデルにより生成された合成動画であるか否かを判定する。したがって、本実施形態によれば、人物が撮影された動画が合成動画であるか否かを判定することができる。
【0155】
本実施形態における判定処理は、動画から検出した脈波に基づいて合成動画であるか否かを判定するため、例えばパーソナルコンピュータ、スマートフォン又はタブレット端末のように計算リソースに制限のあるコンピュータであっても実行することが可能である。したがって、本実施形態によれば、動画を閲覧する端末装置20-2で判定処理を行うことが可能である。
【0156】
[変形例]
上記の各実施形態では、対象動画の閲覧が要求された後に、対象動画が合成動画であるか否かを判定する構成を説明した。対象動画が合成動画であるか否かを判定するタイミングは上記に限定されない。
【0157】
例えば、対象動画の閲覧が要求される前に、対象動画が合成動画であるか否かを判定してもよい。例えば、動画配信装置10に動画が投稿されたときに、その動画が合成動画であるか否かを判定し、判定結果を動画と関連付けて動画記憶部100に記憶してもよい。この場合、動画配信装置10は、対象動画の閲覧が要求されたときに、対象動画と共に判定結果を配信すればよい。
【0158】
第2実施形態では、端末装置20-2が、動画配信サービスで配信された動画が合成動画であるか否かを判定する構成を説明した。判定対象とする動画は動画配信サービスで配信された動画に限定されない。
【0159】
例えば、電子メール又はメッセージングサービス等を介して端末装置20-2が受信した動画を判定対象としてもよい。また、例えば、DVD-ROM又はUSBメモリ等の可搬記憶媒体等を介して端末装置20-2に入力された動画を判定対象としてもよい。
【0160】
また、例えば、ビデオ通話又は会議システム等を介して端末装置20-2がリアルタイムに受信する動画を判定対象としてもよい。リアルタイムに受信する動画を判定対象とする場合、対象動画全体の平均真偽度の代わりに、予め定めた時間間隔(例えば10秒程度)で計算した真偽度を判定結果として出力してもよい。
【0161】
[補足]
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等の機器を含むものとする。
【0162】
以上、本開示の実施形態について詳述したが、今回開示された実施形態は、すべての点において例示であって制限的なものではない。実施形態は、添付の請求の範囲及びその主旨を逸脱することなく、様々な形態で変形及び改良が可能である。上記複数の実施形態に記載された事項は、矛盾しない範囲で他の構成も取り得ることができ、また、矛盾しない範囲で組み合わせることができる。
【符号の説明】
【0163】
1 動画配信システム
10 動画配信装置
100 動画記憶部
101 動画受信部
102 要求受信部
103 動画取得部
104 領域抽出部
105 脈波検出部
106 動画判定部
107 動画配信部
20 端末装置
201 動画送信部
202 動画要求部
203 動画表示部
401 顔認識部
402 皮膚判定部
403 領域決定部
601 間隔検出部
602 周期性判定部
603 カオス解析部
604 感情判定部
605 真偽度計算部
606 真偽度記憶部
607 結果出力部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17