IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通株式会社の特許一覧

特開2022-175709集中度算出プログラム,集中度算出方法および集中度算出装置
<>
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図1
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図2
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図3
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図4
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図5
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図6
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図7
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図8
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図9
  • 特開-集中度算出プログラム,集中度算出方法および集中度算出装置 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022175709
(43)【公開日】2022-11-25
(54)【発明の名称】集中度算出プログラム,集中度算出方法および集中度算出装置
(51)【国際特許分類】
   G06T 7/20 20170101AFI20221117BHJP
【FI】
G06T7/20 300B
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2021082347
(22)【出願日】2021-05-14
(71)【出願人】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】100092978
【弁理士】
【氏名又は名称】真田 有
(74)【代理人】
【識別番号】100189201
【弁理士】
【氏名又は名称】横田 功
(72)【発明者】
【氏名】豊田 雄志
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096BA02
5L096CA04
5L096DA02
5L096FA32
5L096GA51
5L096HA02
5L096HA09
(57)【要約】
【課題】ユーザの個人差に影響を受けることなく、ユーザの集中度を高精度に推定する。
【解決手段】ユーザの顔を撮像した複数の撮像画像を取得し、複数の撮像画像のうち、第1の時間帯に対応する第1の複数の画像と第2の時間帯に対応する第2の複数の画像とを特定し、第1の複数の画像に基づいて、顔の表情筋の動きの第1の発生状況を判定し、第2の複数の画像に基づいて、顔の表情筋の動きの第2の発生状況を判定し、第1の発生状況と前記第2の発生状況とに基づいて、ユーザの集中度を算出する.
【選択図】図9
【特許請求の範囲】
【請求項1】
ユーザの顔を撮像した複数の撮像画像を取得し、
前記複数の撮像画像のうち、第1の時間帯に対応する第1の複数の画像と第2の時間帯に対応する第2の複数の画像とを特定し、
前記第1の複数の画像に基づいて、前記顔の表情筋の動きの第1の発生状況を判定し、
前記第2の複数の画像に基づいて、前記顔の表情筋の動きの第2の発生状況を判定し、
前記第1の発生状況と前記第2の発生状況とに基づいて、前記ユーザの集中度を算出する、
処理をコンピュータに実行させることを特徴とする集中度算出プログラム。
【請求項2】
前記ユーザの集中度を算出する処理は、前記ユーザの集中度を、前記第1の発生状況に対する前記第2の発生状況の比に基づく相対値を用いて算出する処理を含む、
ことを特徴とする請求項1に記載の集中度算出プログラム。
【請求項3】
前記ユーザの集中度を算出する処理は、複数種類の前記顔の表情筋の動きの発生状況に基づく複数の前記相対値をそれぞれ算出し、これらの複数の前記相対値の平均値を算出することで前記ユーザの集中度を求める処理を含む、
ことを特徴とする請求項2に記載の集中度算出プログラム。
【請求項4】
前記第1の時間帯は前記ユーザが集中不要な期間であり、前記第2の時間帯は前記ユーザが集中すべき期間である、
ことを特徴とする請求項1~3のいずれか1項に記載の集中度算出プログラム。
【請求項5】
前記顔の表情筋の動きは、眉の内側を上げる動作、眉の外側を上げる動作およびまばたきをする動作のうちの少なくとも一つを含む、
ことを特徴とする請求項1~4のいずれか1項に記載の集中度算出プログラム。
【請求項6】
前記第1の発生状況および前記第2の発生状況は、前記眉の内側を上げる動作および前記眉の外側を上げる動作の、前記第2の時間帯における平均強度、分散および発生頻度のうちの少なくとも一つで表される、
ことを特徴とする請求項5に記載の集中度算出プログラム。
【請求項7】
前記第1の発生状況および前記第2の発生状況は、前記まばたきをする動作の発生頻度で表される、
ことを特徴とする請求項5または6に記載の集中度算出プログラム。
【請求項8】
ユーザの顔を撮像した複数の撮像画像を取得し、
前記複数の撮像画像のうち、第1の時間帯に対応する第1の複数の画像と第2の時間帯に対応する第2の複数の画像とを特定し、
前記第1の複数の画像に基づいて、前記顔の表情筋の動きの第1の発生状況を判定し、
前記第2の複数の画像に基づいて、前記顔の表情筋の動きの第2の発生状況を判定し、
前記第1の発生状況と前記第2の発生状況とに基づいて、前記ユーザの集中度を算出する、
処理をコンピュータが実行することを特徴とする集中度算出方法。
【請求項9】
ユーザの顔を撮像した複数の撮像画像を取得し、
前記複数の撮像画像のうち、第1の時間帯に対応する第1の複数の画像と第2の時間帯に対応する第2の複数の画像とを特定し、
前記第1の複数の画像に基づいて、前記顔の表情筋の動きの第1の発生状況を判定し、
前記第2の複数の画像に基づいて、前記顔の表情筋の動きの第2の発生状況を判定し、
前記第1の発生状況と前記第2の発生状況とに基づいて、前記ユーザの集中度を算出する、
処理を実行する制御部、
を含むことを特徴とする集中度算出装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザの集中度を算出する技術に関する。
【背景技術】
【0002】
近年、インターネットを介して授業や講義を遠隔で行なうオンライン授業が一般的に行なわれている。
【0003】
また、講義の途中で、理解不足や飽きなどの影響で授業に集中できていない受講者に対して、講師が指導行動の内容を変更する対処を行なうことも一般的に行なわれている。
【0004】
しかしながら、オンライン授業においては、Webカメラ越しでの指導となるため、講師にとっては、受講者が集中できているかの判断が難しい。そのため、受講者の集中度に応じて指導行動や内容を変更する対処が困難である。
【0005】
なお、オンライン授業においては、例えば、1対Nで行なわれる形態と、1対1で行なわれる形態とがあるが、特に1対Nの形態で行なわれる場合において、受講者の集中状態の判断が難しい。
【0006】
そのため、講師が受講者の集中低下に対策できるように、受講者の集中度を推定する技術が求められている。受講者の集中状態を表す数値を集中度といってもよい。このような受講者の集中度を推定する技術は、遠隔授業の品質向上や講師による指導行動の評価・可視化にも有用である。
従って、指導品質の改善を行なうために、オンライン授業中の受講者の集中度を推定する技術が求められている。
例えば、映像コンテンツを用いて講義を受けている受講者の集中度を、Webカメラで撮影した表情や頭部動作,視線動作から推定する手法が知られている。
【0007】
当該手法においては、例えば、Webカメラ画像から、受講者の表情,視線および頭部動作の特徴量を生成する。そして、これらの特徴量(表情,視線,頭部動作)と集中度との相関を大量のデータを用いて機械学習を行なって、集中度を推定する推定モデル(機械学習モデル)を生成する。このようにして生成した推定モデルを用いて、受講者の集中度の推定を行なう。
【先行技術文献】
【特許文献】
【0008】
【特許文献1】特開2013-97311号公報
【特許文献2】特開2011-039934号公報
【特許文献3】特開2018-49481号公報
【特許文献4】特開2019―179235号公報
【非特許文献】
【0009】
【非特許文献1】Automatic Engagement Prediction with GAP Feature CMI '18: Proceedings of the 20th ACM International Conference on Multimodal Interaction October 2018
【発明の概要】
【発明が解決しようとする課題】
【0010】
表情筋の変化は個人毎に異なるので、受講者の画像から集中度を判定する場合に、一律の基準を用いると判定精度が悪くなる。従来の集中度推定手法においては、受講者の個人差にロバストな推定モデルを生成するためには、訓練データとして、事前に大量のデータ収集が必要になる。例えば、数百人~千人を対象に、授業時間に相当する時間を費やして表情の撮像を行なう必要がある他、正解データとして用いるためのラベル付け等を行なう必要もあり高コストとなる。
1つの側面では、本発明は、ユーザの個人差による影響を抑制し、ユーザの集中度を推定することを目的とする。
【課題を解決するための手段】
【0011】
このため、この集中度算出プログラムは、ユーザの顔を撮像した複数の撮像画像を取得し、前記複数の撮像画像のうち、第1の時間帯に対応する第1の複数の画像と第2の時間帯に対応する第2の複数の画像とを特定し、前記第1の複数の画像に基づいて、前記顔の表情筋の動きの第1の発生状況を判定し、前記第2の複数の画像に基づいて、前記顔の表情筋の動きの第2の発生状況を判定し、前記第1の発生状況と前記第2の発生状況とに基づいて、前記ユーザの集中度を算出する、処理をコンピュータに実行させる。
【発明の効果】
【0012】
一実施形態によれば、ユーザの個人差による影響を抑制し、ユーザの集中度を推定できる。
【図面の簡単な説明】
【0013】
図1】実施形態の一例としてのコンピュータシステムにおける集中度推定機能の原理を説明するための図である。
図2】実施形態の一例としてのコンピュータシステムにおける集中度推定機能の原理を説明するための図である。
図3】実施形態の一例としてのコンピュータシステムにおける集中度推定機能の原理を説明するための図である。
図4】実施形態の一例としてのコンピュータシステムの構成を模式的に示す図である。
図5】実施形態の一例としてのコンピュータシステムの情報処理装置の機能構成を例示する図である。
図6】実施形態の一例としてのコンピュータシステムの情報処理装置における第1表情筋動作情報の作成方法を説明するための図である。
図7】実施形態の一例としてのコンピュータシステムにおけるAU1およびAU2の第1表情筋動作情報の検出結果を例示する図である。
図8】実施形態の一例としてのコンピュータシステムにおけるAU45の第1表情筋動作情報の検出結果を例示する図である。
図9】実施形態の一例としてのコンピュータシステムの情報処理装置における集中度算出部による処理を説明するための図である。
図10】実施形態の一例としてのコンピュータシステムの情報処理装置の処理を説明するためのフローチャートである。
【発明を実施するための形態】
【0014】
以下、図面を参照して本集中度算出プログラム,集中度算出方法および集中度算出装置にかかる実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
【0015】
(A)原理
本コンピュータシステム1においては、オンライン授業の受講者の集中度を推定する集中度推定機能を実現する。
図1図3は、それぞれ実施形態の一例としてのコンピュータシステム1における集中度推定機能の原理を説明するための図である。
本コンピュータシステム1においては、FACS(Facial Action Coding System)を用いて受講者の表情を解析する。
【0016】
FACSは、表情表出時に現れる顔面上の特定の部位における動作の体系であって、表情の記述や識別に広く用いられている。FACSでは、表情表出に深く関与する顔面上の動作が顔面筋の解剖学的知見に基づいて定義されており、表情動作の最小単位をAU(Action Unit)という。Action Unit をFacial Action Unitといってもよい。FACSでは、AU1~AU46の46種類の表情筋の動作単位が規定されている。
【0017】
本コンピュータシステム1においては、これらの46種類のAUのうちAU1,AU2およびAU45に着目して受講者の集中度推定に用いる。AU1は眉の内側を上げる表情動作を、AU2は眉の外側を上げる表情動作を、AU45はまばたきをする表情動作を、それぞれ表す。
図2は集中時および非集中時におけるAU1の変化を表すグラフであり、複数の被験者に対する実験結果を分析することにより得られたものである。
【0018】
この図2においては、縦軸がAU1の平均強度を示し、横軸が経過時間を示す。経過時間においては、雑談等の受講者にとって集中が不要の期間(時間帯)である「非集中期間」と、講義の受講中等の受講者が集中すべき期間(時間帯)である「集中期間」とを備える。非集中期間を第1の時間帯という場合がある。また、集中期間を第2の時間帯という場合がある。
【0019】
この図2に示すように、集中した状態にある被験者(集中グループ)は、集中が不要の期間(非集中期間)におけるAU1の平均強度に比べ、集中期間におけるAU1の平均強度が著しく小さくなる。すなわち、集中した状態にある被験者は、非集中期間におけるAU1の平均強度と、集中期間におけるAU1の平均強度との差が大きい(符号P1参照)。
【0020】
これに対して、集中していない状態にある被験者(非集中グループ)は、集中グループに比べて、非集中期間におけるAU1の平均強度と集中期間におけるAU1の平均強度との差が小さい(符号P2参照)。
【0021】
また、図2においては、AU1の平均強度を示しているが、AU1の頻度および分散についても同様の傾向が得られる。さらに、AU2およびAU45においても同様の傾向が得られる。
【0022】
そこで、本コンピュータシステム1においては、AU1,AU2およびAU45の変化量に基づいて受講者の集中状態および非集中状態(以下、単に受講者の集中状態という)を判別する。
【0023】
なお、図2に示す例においては、集中すべき期間の平均強度のみで受講者の集中状態を判別できるように見えるが、出力される各AUの平均強度にはばらつき(個人毎のバイアス)があるため、非集中期間の値との相対比較を行なうことが望ましい。
【0024】
そこで、本コンピュータシステム1においては、図3に示すように、非集中期間と集中すべき期間とのそれぞれにおいて、期間内における、AU1およびAU2の平均強度,分散および発生頻度と、AU45の発生頻度とを算出し、これらの値を用いて受講者の集中度を求める。
(B)構成
図4は実施形態の一例としてのコンピュータシステム1の構成を模式的に示す図である。
【0025】
図4に例示するコンピュータシステム1は、情報処理装置10と複数の受講者端末2とをそなえ、これらの情報処理装置10と複数の受講者端末2とはネットワーク18を介して相互に通信可能に接続されている。
【0026】
コンピュータシステム1は、遠隔の受講者に対して講師がネットワーク18を介して講義を行なうオンライン授業を実現する。オンライン授業をリモート授業といってもよい。
図4に例示するコンピュータシステム1においては、講師が情報処理装置10を用いて行なう講義を、受講者が端末2を用いて受講する。
【0027】
情報処理装置10は、図4に示すように、CPU(Central Processing Unit)11,メモリ12,記憶装置13,カメラ14,キーボード15,マウス16およびディスプレイ17を備える。
【0028】
CPU(制御部)11は、情報処理装置10全体を制御するプロセッサである。なお、CPU11は、マルチプロセッサであってもよい。CPUに代えて、例えば、MPU(Micro Processing Unit),DSP(Digital Signal Processor),ASIC(Application Specific Integrated Circuit),PLD(Programmable Logic Device),FPGA(Field Programmable Gate Array)のいずれか一つであってもよい。また、CPUに代えて、CPU,MPU,DSP,ASIC,PLD,FPGAのうちの2種類以上の要素の組み合わせであってもよい。
【0029】
そして、本コンピュータシステム1においては、CPU11が集中度推定プログラムを実行することで、図5を用いて後述する、映像取得部101,非集中期間表情筋動作算出部102,対象期間表情筋動作算出部103,集中度算出部104および提示部105としての機能を実現する。
【0030】
なお、これらの映像取得部101,非集中期間表情筋動作算出部102,対象期間表情筋動作算出部103,集中度算出部104および提示部105としての機能を実現するためのプログラム(集中度推定プログラム)は、例えばフレキシブルディスク,CD(CD-ROM,CD-R,CD-RW等),DVD(DVD-ROM,DVD-RAM,DVD-R,DVD+R,DVD-RW,DVD+RW,HD DVD等),ブルーレイディスク,磁気ディスク,光ディスク,光磁気ディスク等の、コンピュータ読取可能な記録媒体に記録された形態で提供される。そして、情報処理装置10はその記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置に転送し格納して用いる。また、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供するようにしてもよい。
【0031】
映像取得部101,非集中期間表情筋動作算出部102,対象期間表情筋動作算出部103,集中度算出部104および提示部105としての機能を実現する際には、内部記憶装置(本実施形態ではメモリ12)に格納されたプログラムがコンピュータのマイクロプロセッサ(本実施形態ではCPU11)によって実行される。このとき、記録媒体に記録されたプログラムをコンピュータが読み取って実行するようにしてもよい。
【0032】
メモリ12はROM(Read Only Memory)およびRAM(Random Access Memory)を含む記憶メモリである。メモリ12のROMには、情報処理装置10を動作させるためのソフトウェアプログラムやこのプログラム用のデータ類が書き込まれている。メモリ12上のソフトウェアプログラムは、CPU11に適宜読み込まれて実行される。また、メモリ12のRAMは、一次記憶メモリあるいはワーキングメモリとして利用される。
【0033】
記憶装置13は、ハードディスクドライブ(Hard Disk Drive:HDD)、SSD(Solid State Drive),ストレージクラスメモリ(Storage Class Memory:SCM)や、等の記憶装置であって、ソフトウェアプログラムや種々のデータを格納するものである。
【0034】
図4に示す例においては、記憶装置13に集中度推定プログラムが格納され、この集中度推定プログラムが、メモリ12のRAMに展開された後、CPU11によって実行される。
【0035】
メモリ12や記憶装置13には、図5を用いて後述する、映像取得部101,非集中期間表情筋動作算出部102,対象期間表情筋動作算出部103,集中度算出部104および提示部105がそれぞれの処理を実行する過程で生じたデータ等を記憶してもよい。
【0036】
ディスプレイ17は種々の情報を表示する表示装置であり、例えば、液晶ディスプレイ装置やCRT(Cathode Ray Tube)ディスプレイ装置である。本コンピュータシステム1においては、このディスプレイ17に、各受講者端末2のカメラによって撮像された受講者の画像が表示される。また、ディスプレイ17には提示部105が出力するメッセージ等が表示される。
マウス16およびキーボード15は講師が種々の入力を行なうために操作する入力装置である。
情報処理装置10は、受講者端末2を利用する受講者の集中状態を推定する集中度推定機能を実現する。
図5は実施形態の一例としてのコンピュータシステム1の情報処理装置10の機能構成を例示する図である。
【0037】
情報処理装置10は、映像取得部101,非集中期間表情筋動作算出部102,対象期間表情筋動作算出部103,集中度算出部104および提示部105としての機能を備える。
【0038】
映像取得部101は、各受講者端末2から送信される受講者の顔の映像をそれぞれ取得する。受講者の顔の映像は、受講者端末2のカメラによって撮影されたものであり、受講者(ユーザ)の顔を撮像した画像(撮像画像)である。
【0039】
映像取得部101は、非集中期間における受講者の顔映像と、集中期間における受講者の顔映像とを受信する。非集中期間は、ユーザが集中不要な期間(第1の時間帯)であり、集中期間は、ユーザが集中すべき時間帯(第2の時間帯)である。
非集中期間と集中期間とは、例えば、予め設定されたタイムスケジュールに従って判断してもよい。例えば、講師は、予め、50分の講義に対して、講義開始後の5分間の時間帯を非集中期間と設定するとともに、5分経過した後の時間帯を集中期間として予め設定してもよい。これにより、映像取得部101は、例えば、顔映像のフレームのタイムスタンプを参照することで、受信中の受講者の顔映像が非集中期間のものであるか集中期間のものであるかをフレーム単位で判断することができる。
【0040】
情報処理装置10においては、このようにして、受講者端末から受信した受講者の顔画像(複数の撮像画像)のうち、非集中期間(第1の時間帯)に対応する映像(第1の複数の画像)と判定期間(第2の時間帯)に対応する映像(第2の複数の画像)とが特定される。
映像取得部101は、受信した各受講者の顔映像を、非集中期間と集中期間とに分けて記憶装置13の所定の記憶領域等に記憶させる。
【0041】
非集中期間表情筋動作算出部102は、映像取得部101によって取得された非集中期間の受講者の顔映像に基づき、非集中期間における表情筋動作を表す第1表情筋動作情報を作成する。非集中期間表情筋動作算出部102は、受講者毎に第1表情筋動作情報の作成(算出)を行なう。
第1表情筋動作情報は、非集中期間における、AU1およびAU2の平均強度,分散および発生頻度と、AU45の発生頻度とを備える。これらのAU1およびAU2の平均強度,分散および発生頻度と、AU45の発生頻度とは、表情筋の動きの発生状況を表す。
非集中期間における、AU1およびAU2の平均強度,分散および発生頻度と、AU45の発生頻度とは、顔の表情筋の動きの第1の発生状況に相当する。
【0042】
平均強度は、例えば、所定時間(例えば、5分間)における、受講者の顔映像のフレーム毎のAU強度の平均値である。分散は、例えば、受講者の顔映像のフレーム毎のAU強度の平均値に対する分散であってもよく、また、AU強度の平均値に対する分散であってもよい。発生頻度は、受講者の顔映像のフレーム毎に判定されたAU1,AU2およびAU45のそれぞれの発生ありの数の合計である。
【0043】
以下、AU1,AU2およびAU45についての平均強度,分散および発生頻度を、データ項目という場合がある。また、平均強度,分散および発生頻度の各値をデータ項目値という場合がある。
図6は実施形態の一例としてのコンピュータシステム1の情報処理装置10における第1表情筋動作情報の作成方法を説明するための図である。
【0044】
非集中期間表情筋動作算出部102は、動画データからフレームを抽出し、フレーム毎にAUを検出する。また、非集中期間表情筋動作算出部102は、全フレームに対するAU検出処理を繰り返し行なうことで、動画データ全体のAU値を出力する。
【0045】
AUの検出は、例えば、“Unmasking the Devil in the Details: What Works for Deep Facial Action Coding?”BMVC 2019: proceedings of the British Machine Vision Conference. British Machine Vision Conference等に開示された既知の手法を用いて行なってもよい。
【0046】
図6に示す例においては、各AUの発生強度は0.0~5.0の値であり、値が小さいほど強度が小さいことを表す。AUの発生有無として、発生ありの場合には1を、発生なしの場合には0が出力される。従って、発生状況は発生の有無や発生の強度を含む。
【0047】
図7は実施形態の一例としてのコンピュータシステム1におけるAU1およびAU2の第1表情筋動作情報の検出結果を例示する図、図8はそのAU45の第1表情筋動作情報の検出結果を例示する図である。
図7においては、AU1およびAU2の発生強度を時系列で表した例を示す。また、図8においては、AU45の発生有無を時系列で表した例を示す。
非集中期間表情筋動作算出部102は、算出した第1表情筋動作情報を記憶装置13等の所定の記憶領域に記憶させる。
【0048】
対象期間表情筋動作算出部103は、映像取得部101によって取得された集中期間の受講者の顔映像に基づき、集中期間における表情筋動作を表す第2表情筋動作情報を作成する。対象期間表情筋動作算出部103は、受講者毎に第2表情筋動作情報の作成(算出)を行なう。
【0049】
対象期間表情筋動作算出部103は、非集中期間表情筋動作算出部102と同様の手法を用いて、第2表情筋動作情報の算出を行なうものであり、その詳細な説明は省略する。
第2表情筋動作情報は、集中期間における、AU1およびAU2の平均強度,分散および発生頻度と、AU45の発生頻度とを備える。集中期間における、これらのAU1およびAU2の平均強度,分散および発生頻度と、AU45の発生頻度とは、顔の表情筋の動きの第2の発生状況に相当する。
対象期間表情筋動作算出部103は、算出した第2表情筋動作情報を記憶装置13等の記憶領域に記憶させる。
【0050】
集中度算出部104は、非集中期間表情筋動作算出部102によって算出された第1表情筋動作情報と、対象期間表情筋動作算出部103によって算出された第2表情筋動作情報とに基づいて、集中期間における各受講者の集中度を算出する。集中度は受講者の集中状態を数値で表す。集中度の算出対象とする集中期間を対象集中期間といってもよい。対象集中期間を判定期間もしくは対象期間いってもよい。
図9は実施形態の一例としてのコンピュータシステム1の情報処理装置10における集中度算出部104による処理を説明するための図である。
【0051】
集中度算出部104は、非集中期間表情筋動作算出部102が算出した非集中期間(第1の時間帯)における第1表情筋動作情報と、対象期間表情筋動作算出部103が算出した集中期間(第2の時間帯)における第2表情筋動作情報とを用いて、AU1,AU2およびAU45のそれぞれについて、データ項目毎に相対値を算出する。
【0052】
相対値は、非集中期間におけるデータ項目の値と集中期間におけるデータ項目の値との比に基づいて算出される、ユーザの集中度を表す値であり、例えば、以下の式(1)により算出される。なお、式(1)において、nは1,2,45のいずれかを表す。

AUnの相対値=1 - 集中期間のAUnのデータ項目値/非集中期間のAUnのデータ項目値 ・・・(1)

上記式(1)において、AUnの相対値は、0~1の範囲とし、負値の場合は0に丸めることが望ましい。
集中度算出部104は、ユーザの集中度を、第1の発生状況に対する第2の発生状況の比に基づく相対値を用いて算出する。
【0053】
集中度算出部104は、AU1,AU2のそれぞれについて、平均強度,分散および発生頻度の相対値をそれぞれ算出する。また、集中度算出部104は、AU45について発生頻度の相対値を算出する。
なお、平均強度の相対値を強度相対値といってもよく、分散の相対値を分散相対値といってもよく、発生頻度の相対値を頻度相対値といってもよい。
【0054】
例えば、上記の式(1)に基づき、AU1の強度相対値は以下の式(2)で求められる。

AU1の強度相対値=1 - 集中期間のAU1の平均強度/非集中期間のAU1の平均強度 ・・・(2)
【0055】
図2を用いて前述した如く、集中した状態にある受講者においては、データ項目(例えば平均強度)の値は、非集中期間において高く、集中期間において低く、これらの差が大きくなる傾向にある。
【0056】
従って、上記式(1)において、集中している人の「集中期間のAUnのデータ項目値/非集中期間のAUnのデータ項目値」の値は小さな値となる。これに対して、集中していない人の「集中期間のAUnのデータ項目値/非集中期間のAUnのデータ項目値」の値は大きい値となる。
従って、図9に例示する相対値は、集中している人は大きな値となり、集中していない人は小さな値となる。相対値は、受講者の集中状態を表すといえる。
そして、集中度算出部104は、算出したAU1,AU2およびAU45の各データ項目の相対値に基づき、相対値の平均値を算出する。
【0057】
集中度算出部104は、データ項目毎にAU1,AU2およびAU45の相対値の平均を算出してもよい。例えば、平均強度について、算出したAU1,AU2およびAU45の各強度相対値を合計して3で除算することで平均を算出する。
すなわち、集中度算出部104は、複数種類の顔の表情筋の動き(AU1,AU2,AU45)に応じた複数の相対値を算出し、ユーザの集中度を、これらの複数の相対値の平均値を算出することで求める。
集中度算出部104は、上述の如く算出した相対値の平均値を、メモリ12や記憶装置13の所定の記憶領域に、集中期間における集中度として記憶させる。
提示部105は、受講者の集中状態を表す情報を講師に提示する。
【0058】
提示部105は、集中度算出部104が算出した相対値の平均値(集中度)を所定の閾値(例えば、0.5)と比較して、集中度が閾値以上の場合に受講者が集中状態であると判断し、集中度が閾値未満の場合に受講者が集中状態にないと判断する。提示部105部は、受講者毎に集中状態の判定を行なう。
提示部105は、少なくとも一人の受講者において集中状態にないと判断した場合に、講師に対してその旨の通知を行なう。
【0059】
提示部105部による講師への通知は、例えば、ディスプレイ17にその旨を表すメッセージやアイコンを表示させることで実現してもよく、適宜変更して実施することができる。
【0060】
提示部105は、受講者毎に算出した集中度を講師に通知してもよい。また、提示部105は、集中度をグラフ等で講師に通知してもよく、集中度に応じてアイコン等の色を変化させることで通知してもよく、適宜変更して実施することができる。
【0061】
受講者端末2は、受講者が使用するコンピュータであり、情報処理装置10から送信される講義の映像データや音声データを受信して再生する。各受講者端末2は互いに同様の構成を有する。受講者端末2は、情報処理装置10と同様に、CPU,メモリ12,記憶装置,カメラ,キーボード,マウスおよびディスプレイを備える。これらのハードウェア構成は、情報処理装置10と同様に機能するものであり、これらの説明は省略する。
【0062】
受講者端末2は、情報処理装置10において行なわれる講義の映像データを受信し、ディスプレイに表示させる。また、受講者端末2は、スピーカー等の音声出力装置を備え、講義の音声データを再生する。
受講者端末2においては、カメラにより受講者の顔を撮影し、その映像データをネットワーク18を介して情報処理装置10に送信する。
【0063】
(C)動作
上述の如く構成された実施形態の一例としてのコンピュータシステム1の情報処理装置10の処理を、図10に示すフローチャート(ステップS1~S7)に従って説明する。
ステップS1において、映像取得部101は、各受講者端末2においてカメラで撮影された受講者の顔映像をネットワーク18を介して取得する。
【0064】
ステップS2において、非集中期間表情筋動作算出部102が、各受講者の非集中期間におけるAU1,AU2およびAU45の各データ項目値を算出する。すなわち、非集中期間表情筋動作算出部102は、AU1およびAU2の平均強度,分散および発生頻度と、AU45の発生頻度とを算出する。
【0065】
ステップS3において、対象期間表情筋動作算出部103が、各受講者の集中期間におけるAU1,AU2およびAU45の各データ項目値を算出する。すなわち、非集中期間表情筋動作算出部102は、AU1およびAU2の平均強度,分散および発生頻度と、AU45の発生頻度とを算出する。
ステップS4において、集中度算出部104が、各受講者のAU1,AU2およびAU45のそれぞれについて、データ項目毎に相対値を算出する。
ステップS5において、集中度算出部104は、対象集中期間における各受講者の集中度を算出する。
【0066】
集中度算出部104は、各受講者に対して、非集中期間における第1表情筋動作情報と、集中期間における第2表情筋動作情報とを用いて、AU1,AU2およびAU45のそれぞれについて、データ項目毎に相対値を算出する。
集中度算出部104は、各受講者に対して、算出したAU1,AU2およびAU45の各データ項目の相対値に基づき、相対値の平均値(集中度)を算出する。
【0067】
ステップS6において、情報処理装置10は講義が終了したかを確認する。講義が終了していない場合には(ステップS6のNOルート参照)、ステップS7に移行する。ステップS7においては所定時間(例えば、5分間)待機し、その後、ステップS3に戻る。すなわち、集中度算出部104は集中度期間における集中度を定期的(所定時間毎)に算出する。
ステップS6における確認の結果、講義が終了した場合には(ステップS6のYESルート参照)、処理を終了する。
【0068】
(D)効果
このように、実施形態の一例としてのコンピュータシステム1によれば、非集中期間表情筋動作算出部102が、映像取得部101によって取得された非集中期間の受講者の顔映像に基づき、非集中期間における表情筋動作を表す第1表情筋動作情報を作成する。また、対象期間表情筋動作算出部103が、映像取得部101によって取得された集中期間の受講者の顔映像に基づき、集中期間における表情筋動作を表す第2表情筋動作情報を作成する。
そして、集中度算出部104が、受講者の第1表情筋動作情報と第2表情筋動作情報とに基づいて、集中期間における各受講者の集中度を算出する。
【0069】
これにより、受講者について、非集中期間に撮影された当該受講者の顔映像から作成された第1表情筋動作情報と、集中期間に撮影された当該受講者の顔映像から作成された第2表情筋動作情報とに基づいて、その集中度が算出される。従って、受講者の表情筋の変化の個人差に影響を受けることなく、受講者の集中度の推定を高精度に実現できる。
また、受講者の集中度を、一律の基準を用いることなく受講者の表情筋の変化を高精度に検出することができる。
【0070】
さらに、非集中期間に撮影された当該受講者の顔映像から作成された第1表情筋動作情報と、集中期間に撮影された当該受講者の顔映像から作成された第2表情筋動作情報とに基づいて、その集中度を算出するので、予め機械学習モデルや訓練データを用意する必要がなく、低コストで受講者の集中度の推定実現することができる。
【0071】
また、集中度算出部104が、非集中期間における第1表情筋動作情報と集中期間における第2表情筋動作情報とを用いて、AU1,AU2およびAU45のそれぞれについて、データ項目(平均強度,分散および発生頻度)毎に相対値を算出する。
【0072】
AU1,AU2およびAU45は、いずれも平均強度,分散および発生頻度の各データ項目の値において、受講者の非集中期間での値と集中期間での値との差が、集中状態にある受講者と集中していない状態の受講者との間で大きく異なる傾向を示す。従って、受講者の集中状態の判定に、これらの値を用いて算出した相対値を用いることで、集中状態にある受講者と集中していない状態の受講者とを容易に識別することができる。
【0073】
集中度算出部104が、非集中期間における第1表情筋動作情報に対する集中期間における第2表情筋動作情報の比を用いて相対値を算出することで、受講者の集中状態を容易に数値化することができ、利便性が高い。
【0074】
受講者の集中度を、複数種類の顔の表情筋の動き(AU1,AU2,AU45)に応じた複数の相対値を算出し、これらの複数の相対値の平均値算出することで求めることで、集中度の算出に受講者の複数種類の顔の表情筋の動きを反映させることができる。これにより信頼性を向上させることができる。
【0075】
(E)その他
本実施形態の各構成および各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
そして、開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。
【0076】
例えば、上述した実施形態においては、本コンピュータシステム1を遠隔の受講者に対して講師がネットワーク18を介して講義を行なうオンライン授業に適用した例を示しているが、これに限定されるものではない。例えば、講義以外の情報を配信する動画配信や、遠隔で会議を行なうオンライン会議に適用してもよく、種々変形して実施することができる。
【0077】
また、上述した実施形態においては、受講者の集中度の判定に、AU1,AU2およびAU45について第1表情筋動作情報および第2表情筋動作情報を用いているが、これに限定されるものではない。すなわち、FAUにおけるAU1,AU2およびAU45以外について第1表情筋動作情報および第2表情筋動作情報を用いて受講者の集中度を算出してもよく、適宜変更して実施することができる。
【0078】
図6に例示した手法においては、AU1,AU2,AU4,AU5,AU6,AU7,AU9,AU10,AU12,AU14,AU15,AU17,AU20,AU23,AU25,AU26,AU28およびAU45を出力することができる。従って、AU1,AU2およびAU45以外として、AU4,AU5,AU6,AU7,AU9,AU10,AU12,AU14,AU15,AU17,AU20,AU23,AU25,AU26およびAU28の少なくとも1つを用いて集中度の判定を行なってもよい。
【0079】
また、上述した実施形態においては、データ項目として平均強度,分散および発生頻度を用いる例を示しているが、これに限定されるものではない。データ項目として平均強度,分散および発生頻度以外の値を用いてもよく、種々変形して実施することができる。
【0080】
上述した実施形態においては、集中度算出部104が、算出したAU1,AU2およびAU45の各データ項目の相対値に基づき、相対値の平均値を算出しているが、これに限定されるものではない。AU1,AU2およびAU45の各データ項目の相対値の少なくとも一つを集中度として用いてもよい。提示部105は、AU1,AU2およびAU45の各データ項目の相対値の少なくとも一つが閾値以上となった場合に、当該受講者が集中状態にないこことを通知してもよい。
また、上述した開示により本実施形態を当業者によって実施・製造することが可能である。
【0081】
(F)付記
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
ユーザの顔を撮像した複数の撮像画像を取得し、
前記複数の撮像画像のうち、第1の時間帯に対応する第1の複数の画像と第2の時間帯に対応する第2の複数の画像とを特定し、
前記第1の複数の画像に基づいて、前記顔の表情筋の動きの第1の発生状況を判定し、
前記第2の複数の画像に基づいて、前記顔の表情筋の動きの第2の発生状況を判定し、
前記第1の発生状況と前記第2の発生状況とに基づいて、前記ユーザの集中度を算出する、
処理をコンピュータに実行させることを特徴とする集中度算出プログラム。
【0082】
(付記2)
前記ユーザの集中度を算出する処理は、前記ユーザの集中度を、前記第1の発生状況に対する前記第2の発生状況の比に基づく相対値を用いて算出する処理を含む、
ことを特徴とする付記1に記載の集中度算出プログラム。
【0083】
(付記3)
前記ユーザの集中度を算出する処理は、複数種類の前記顔の表情筋の動きの発生状況に基づく複数の前記相対値をそれぞれ算出し、これらの複数の前記相対値の平均値を算出することで前記ユーザの集中度を算出する処理を含む、
ことを特徴とする付記2に記載の集中度算出プログラム。
【0084】
(付記4)
前記第1の時間帯は前記ユーザが集中不要な期間であり、前記第2の時間帯は前記ユーザが集中すべき期間である、
ことを特徴とする付記1~3のいずれか1項に記載の集中度算出プログラム。
【0085】
(付記5)
前記顔の表情筋の動きが、眉の内側を上げる動作、眉の外側を上げる動作およびまばたきをする動作のうちの少なくとも一つを含む、
ことを特徴とする付記1~4のいずれか1項に記載の集中度算出プログラム。
【0086】
(付記6)
前記第1の発生状況および前記第2の発生状況は、前記眉の内側を上げる動作および前記眉の外側を上げる動作の、前記第2の時間帯における平均強度、分散および発生頻度のうちの少なくとも一つで表される、
ことを特徴とする付記5に記載の集中度算出プログラム。
【0087】
(付記7)
前記第1の発生状況および前記第2の発生状況は、前記まばたきをする動作の発生頻度で表される、
ことを特徴とする付記5または6に記載の集中度算出プログラム。
【0088】
(付記8)
ユーザの顔を撮像した複数の撮像画像を取得し、
前記複数の撮像画像のうち、第1の時間帯に対応する第1の複数の画像と第2の時間帯に対応する第2の複数の画像とを特定し、
前記第1の複数の画像に基づいて、前記顔の表情筋の動きの第1の発生状況を判定し、
前記第2の複数の画像に基づいて、前記顔の表情筋の動きの第2の発生状況を判定し、
前記第1の発生状況と前記第2の発生状況とに基づいて、前記ユーザの集中度を算出する、
処理をコンピュータが実行することを特徴とする集中度算出方法。
【0089】
(付記9)
前記ユーザの集中度を算出する処理は、前記ユーザの集中度を、前記第1の発生状況に対する前記第2の発生状況の比に基づく相対値を用いて算出する処理を含む、
ことを特徴とする付記8に記載の集中度算出方法。
【0090】
(付記10)
前記ユーザの集中度を算出する処理は、複数種類の前記顔の表情筋の動きの発生状況に基づく複数の前記相対値をそれぞれ算出し、これらの複数の前記相対値の平均値を算出することで前記ユーザの集中度を求める処理を含む、
ことを特徴とする付記9に記載の集中度算出方法。
【0091】
(付記11)
前記第1の時間帯は前記ユーザが集中不要な期間であり、前記第2の時間帯は前記ユーザが集中すべき期間である、
ことを特徴とする付記8~10のいずれか1項に記載の集中度算出方法。
【0092】
(付記12)
前記顔の表情筋の動きは、眉の内側を上げる動作、眉の外側を上げる動作およびまばたきをする動作のうちの少なくとも一つを含む、
ことを特徴とする付記8~11のいずれか1項に記載の集中度算出方法。
【0093】
(付記13)
前記第1の発生状況および前記第2の発生状況は、前記眉の内側を上げる動作および前記眉の外側を上げる動作の、前記第2の時間帯における平均強度、分散および発生頻度のうちの少なくとも一つで表される、
ことを特徴とする付記12に記載の集中度算出方法。
【0094】
(付記14)
前記第1の発生状況および前記第2の発生状況は、前記まばたきをする動作の発生頻度で表される、
ことを特徴とする付記12または13に記載の集中度算出方法。
【0095】
(付記15)
ユーザの顔を撮像した複数の撮像画像を取得し、
前記複数の撮像画像のうち、第1の時間帯に対応する第1の複数の画像と第2の時間帯に対応する第2の複数の画像とを特定し、
前記第1の複数の画像に基づいて、前記顔の表情筋の動きの第1の発生状況を判定し、
前記第2の複数の画像に基づいて、前記顔の表情筋の動きの第2の発生状況を判定し、
前記第1の発生状況と前記第2の発生状況とに基づいて、前記ユーザの集中度を算出する、
処理を実行する制御部、
を含むことを特徴とする集中度算出装置。
【0096】
(付記16)
前記ユーザの集中度を算出する処理は、前記ユーザの集中度を、前記第1の発生状況に対する前記第2の発生状況の比に基づく相対値を用いて算出する処理を含む、
ことを特徴とする付記15に記載の集中度算出装置。
【0097】
(付記17)
前記ユーザの集中度を算出する処理は、複数種類の前記顔の表情筋の動きの発生状況に基づく複数の前記相対値をそれぞれ算出し、これらの複数の前記相対値の平均値を算出することで前記ユーザの集中度を求める処理を含む、
ことを特徴とする付記16に記載の集中度算出装置。
【0098】
(付記18)
前記第1の時間帯は前記ユーザが集中不要な期間であり、前記第2の時間帯は前記ユーザが集中すべき期間である、
ことを特徴とする付記15~17のいずれか1項に記載の集中度算出装置。
【0099】
(付記19)
前記顔の表情筋の動きは、眉の内側を上げる動作、眉の外側を上げる動作およびまばたきをする動作のうちの少なくとも一つを含む、
ことを特徴とする付記15~18のいずれか1項に記載の集中度算出装置。
【0100】
(付記20)
前記第1の発生状況および前記第2の発生状況は、前記眉の内側を上げる動作および前記眉の外側を上げる動作の、前記第2の時間帯における平均強度、分散および発生頻度のうちの少なくとも一つで表される、
ことを特徴とする付記19に記載の集中度算出装置。
【0101】
(付記21)
前記第1の発生状況および前記第2の発生状況は、前記まばたきをする動作の発生頻度で表される、
ことを特徴とする付記19または20に記載の集中度算出装置。
【符号の説明】
【0102】
1 コンピュータシステム
2 受講者端末
10 情報処理装置
11 CPU(制御部)
12 メモリ
13 記憶装置
14 カメラ
15 キーボード
16 マウス
16 光学ドライブ装置
17 ディスプレイ
18 ネットワーク
101 映像取得部
102 非集中期間表情筋動作算出部
103 対象期間表情筋動作算出部
104 集中度算出部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10