(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-25
(45)【発行日】2024-10-03
(54)【発明の名称】学習支援装置
(51)【国際特許分類】
G06Q 50/20 20120101AFI20240926BHJP
G09B 5/00 20060101ALI20240926BHJP
G06T 1/00 20060101ALI20240926BHJP
【FI】
G06Q50/20
G09B5/00
G06T1/00 340B
(21)【出願番号】P 2020188094
(22)【出願日】2020-11-11
【審査請求日】2023-08-04
(73)【特許権者】
【識別番号】392026693
【氏名又は名称】株式会社NTTドコモ
(74)【代理人】
【識別番号】110003177
【氏名又は名称】弁理士法人旺知国際特許事務所
(72)【発明者】
【氏名】横野 脩也
(72)【発明者】
【氏名】チェ ユンジ
(72)【発明者】
【氏名】稲垣 章弥
【審査官】田川 泰宏
(56)【参考文献】
【文献】特開2002-169901(JP,A)
【文献】特開2003-280506(JP,A)
【文献】特開平06-070313(JP,A)
【文献】国際公開第2018/097177(WO,A1)
【文献】特開2018-205638(JP,A)
【文献】特開2011-107329(JP,A)
【文献】特開2019-132567(JP,A)
【文献】特許第6754908(JP,B1)
【文献】特開2017-188771(JP,A)
【文献】特開2009-194687(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00-99/00
G09B 5/00
G06T 1/00
(57)【特許請求の範囲】
【請求項1】
カメラを用いて第1学習者を撮像することによって生成される画像情報
と、前記第1学習者における意識の集中の程度に関する指標と、を取得する取得部と、
前記画像情報
と前記指標とに基づいて、前記第1学習者に関連するシルエットを示すシルエット情報を生成する生成部と、
前記シルエット情報を、第2学習者が使用する端末装置に提供する提供部と、
を含む学習支援装置。
【請求項2】
前記第1学習者に関連するシルエットは、前記第1学習者のシルエットである、
請求項1に記載の学習支援装置。
【請求項3】
前記第1学習者に関連するシルエットは、前記第1学習者のシルエットに基づく形状を有するキャラクターのシルエットである、
請求項1に記載の学習支援装置。
【請求項4】
前記画像情報は、前記第1学習者の動きを示し、
前記シルエット情報は、前記画像情報が示す前記第1学習者の動きに応じて変化するシルエットを示す情報である、
請求項1から3のいずれか1項に記載の学習支援装置。
【請求項5】
前記シルエット情報は、前記画像情報が示す前記第1学習者の動きに応じて変化する形状を有するシルエットを示す情報である、
請求項4に記載の学習支援装置。
【請求項6】
前記生成部は、前記指標に基づいて、前記シルエット情報が示すシルエットの色を決定する、
請求項
1から5のいずれか1項に記載の学習支援装置。
【請求項7】
前記生成部は、前記指標に基づいて、前記シルエット情報が示すシルエットの位置を決定する、
請求項
1から6のいずれか1項に記載の学習支援装置。
【請求項8】
前記生成部は、前記指標に基づいて、前記シルエット情報が示すシルエットの大きさを決定する、
請求項
1から7のいずれか1項に記載の学習支援装置。
【請求項9】
前記生成部は、前記指標に基づいて、前記シルエット情報が示すシルエットの数を決定する、
請求項
1から8のいずれか1項に記載の学習支援装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習支援装置に関する。
【背景技術】
【0002】
特許文献1は、離れた場所で同時に勉強する複数の学習者の各々が他の学習者の存在を意識しながら学習できる環境を提供する技術を開示する。特許文献1に開示される技術では、電子教育サーバが、学習者Aが使用する端末装置に、学習者Bの肖像を表す肖像情報を提供する。学習者Aが使用する端末装置は、肖像情報が表す学習者Bの肖像を表示する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に開示される技術は、肖像情報が他人の端末装置に提供されることに抵抗感を持つ学習者には使用され難い。このため、肖像情報が他人の端末装置に提供されなくても、学習者が他の学習者の存在を意識しながら学習できる環境を提供する技術が望まれる。
【0005】
本発明の目的は、肖像情報が他人の端末装置に提供されなくても学習者が他の学習者の存在を意識しながら学習できる環境を提供する技術を提供することである。
【課題を解決するための手段】
【0006】
本発明の一態様に係る学習支援装置は、カメラを用いて第1学習者を撮像することによって生成される画像情報を取得する取得部と、前記画像情報に基づいて、前記第1学習者に関連するシルエットを示すシルエット情報を生成する生成部と、前記シルエット情報を、第2学習者が使用する端末装置に提供する提供部と、を含む。
【発明の効果】
【0007】
本発明の一態様によれば、肖像情報が他人の端末装置に提供されなくても学習者が他の学習者の存在を意識しながら学習できる環境を提供できる。
【図面の簡単な説明】
【0008】
【
図7】学習支援装置400の動作を説明するための図である。
【
図8】第6変形例に係る学習者システム100を示す図である。
【
図9】第6変形例に係る学習者システム200を示す図である。
【
図10】第6変形例に係る学習者システム300を示す図である。
【発明を実施するための形態】
【0009】
<A:第1実施形態>
<A1:学習支援システム1>
図1は、学習支援システム1を示す図である。学習支援システム1は、学習者が学習することを支援する。学習支援システム1は、学習者システム100、200及び300と、学習支援装置400と、を含む。
【0010】
学習者システム100、200及び300の各々は、ネットワークNWを介して学習支援装置400と通信する。学習者システム100、200及び300の少なくとも1つは、ネットワークNWを介さずに学習支援装置400と直接通信してもよい。学習者システムの数は、3に限らず2以上であればよい。
【0011】
学習者システム100は、学習者A1によって使用される。学習者システム200は、学習者A2によって使用される。学習者システム300は、学習者A3によって使用される。
【0012】
学習者A1~A3の各々は、試験のために勉強しているグループに属する。学習者A1~A3の各々は、当該グループに属さなくてもよい。学習者A1は、第1学習者の一例である。学習者A2及びA3の各々は、第2学習者の一例である。なお、学習者A1は、第2学習者の他の例でもある。学習者A2及びA3の各々は、第1学習者の他の例でもある。
【0013】
学習者システム100は、学習者A1を画像によって示す画像情報v1を生成する。学習者システム100は、学習者A1の心拍を示す心拍情報h1を生成する。学習者システム100は、画像情報v1と心拍情報h1とを学習支援装置400に提供する。
【0014】
学習者システム200は、学習者A2を画像によって示す画像情報v2を生成する。学習者システム200は、学習者A2の心拍を示す心拍情報h2を生成する。学習者システム200は、画像情報v2と心拍情報h2とを学習支援装置400に提供する。
【0015】
学習者システム300は、学習者A3を画像によって示す画像情報v3を生成する。学習者システム300は、学習者A3の心拍を示す心拍情報h3を生成する。学習者システム300は、画像情報v3と心拍情報h3とを学習支援装置400に提供する。
【0016】
学習支援装置400は、画像情報v2及びv3と、心拍情報h2及びh3と、に基づいて、学習者A2のシルエットと、学習者A3のシルエットと、を示すシルエット情報s1を生成する。学習支援装置400は、学習者システム100にシルエット情報s1を提供する。
【0017】
学習支援装置400は、画像情報v3及びv1と、心拍情報h3及びh1と、に基づいて、学習者A3のシルエットと、学習者A1のシルエットと、を示すシルエット情報s2を生成する。学習支援装置400は、学習者システム200にシルエット情報s2を提供する。
【0018】
学習支援装置400は、画像情報v1及びv2と、心拍情報h1及びh2と、に基づいて、学習者A1のシルエットと、学習者A2のシルエットと、を示すシルエット情報s3を生成する。学習支援装置400は、学習者システム300にシルエット情報s3を提供する。
【0019】
<A2:学習者システム100>
学習者システム100は、心拍センサ110と、カメラ120と、プロジェクタ130と、端末装置150と、を含む。
【0020】
心拍センサ110は、学習者A1の耳に装着されるウェアラブル型のセンサである。心拍センサ110は、例えば、学習者A1の耳介に装着された状態において学習者A1の心拍を検出する。心拍センサ110は、イヤホンのように学習者A1の外耳道に装着された状態において学習者A1の心拍を検出するセンサでもよい。心拍センサ110は、学習者A1の耳以外の部分(例えば、手首)に装着された状態において学習者A1の心拍を検出するセンサでもよい。心拍センサ110は、学習者A1の心拍を検出することによって心拍情報h1を生成する。
【0021】
心拍情報h1は、上述の通り、学習者A1の心拍を示す。心拍情報h1が示す心拍の単位時間における数(心拍数i1)が大きいほど、学習者A1における意識の集中の程度は高い。このため、心拍数i1は、学習者A1における意識の集中の程度を示す。心拍情報h1は、学習者A1のLF/HF値を特定するために使用可能である。LF/HF値は、交感神経と副交感神経とのバランスを表す。学習者A1のLF/HF値が大きいほど、学習者A1における意識の集中の程度は高い。このため、学習者A1のLF/HF値は、学習者A1における意識の集中の程度を示す。心拍情報h1は、学習者A1における意識の集中の程度に関する指標の一例である。
【0022】
カメラ120は、学習者A1を撮像することによって画像情報v1を生成する。すなわち、画像情報v1は、カメラ120を用いて学習者A1を撮像することによって生成される。画像情報v1は、学習者A1の姿を示す。学習者A1が動く場合、画像情報v1は、学習者A1の動きを示す。
【0023】
カメラ120は、撮像レンズと、イメージセンサと、を含む。撮像レンズは、学習者A1の光学像をイメージセンサに結像する。イメージセンサは、CCD(Charge Coupled Device)イメージセンサである。イメージセンサは、CCDイメージセンサに限らず、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサでもよい。イメージセンサは、撮像レンズによって結像される光学像に基づいて、画像情報v1を生成する。
【0024】
カメラ120は、プロジェクタ130及び端末装置150とは別の構成である。カメラ120は、プロジェクタ130及び端末装置150のいずれか一方に組み込まれてもよい。
【0025】
プロジェクタ130は、種々の画像を表示面に表示する。表示面は、壁である。表示面は、壁に限らず、例えば、スクリーン、机の甲板、天井又は扉でもよい。プロジェクタ130は、表示装置の一例である。表示装置は、プロジェクタに限らず、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイでもよい。
【0026】
端末装置150は、スマートフォンである。端末装置150は、スマートフォンに限らず、例えば、パーソナルコンピュータ又はタブレットでもよい。端末装置150は、心拍センサ110、カメラ120、プロジェクタ130及び学習支援装置400の各々と無線で通信する。端末装置150は、心拍センサ110、カメラ120、プロジェクタ130及び学習支援装置400の各々と有線で通信してもよい。
【0027】
<A3:学習者システム200>
学習者システム200は、心拍センサ210と、カメラ220と、プロジェクタ230と、端末装置250と、を含む。
【0028】
心拍センサ210は、心拍センサ110と同じ型のセンサでもよいし、心拍センサ110と異なる型のセンサでもよい。心拍センサ210は、学習者A2の心拍を検出することによって心拍情報h2を生成する。
【0029】
心拍情報h2は、上述の通り、学習者A2の心拍を示す。心拍情報h2が示す心拍の単位時間における数(心拍数i2)が大きいほど、学習者A2における意識の集中の程度は高い。このため、心拍数i2は、学習者A2における意識の集中の程度を示す。心拍情報h2は、学習者A2のLF/HF値を特定するために使用可能である。学習者A2のLF/HF値が大きいほど、学習者A2における意識の集中の程度は高い。このため、学習者A2のLF/HF値は、学習者A2における意識の集中の程度を示す。心拍情報h2は、学習者A2における意識の集中の程度に関する指標の一例である。
【0030】
カメラ220は、学習者A2を撮像することによって画像情報v2を生成する。画像情報v2は、学習者A2の姿を示す。学習者A2が動く場合、画像情報v2は、学習者A2の動きを示す。カメラ220は、カメラ120と同様に、撮像レンズと、イメージセンサと、を含む。カメラ220は、カメラ120と同じ型のカメラでもよいし、カメラ120と異なる型のカメラでもよい。
【0031】
カメラ220は、プロジェクタ230及び端末装置250とは別の構成である。カメラ220は、プロジェクタ230及び端末装置250のいずれか一方に組み込まれてもよい。
【0032】
プロジェクタ230は、種々の画像を、壁等の表示面に表示する。プロジェクタ230は、表示装置の一例である。
【0033】
端末装置250は、スマートフォンである。端末装置250は、スマートフォンに限らず、例えば、パーソナルコンピュータ又はタブレットでもよい。端末装置250は、心拍センサ210、カメラ220、プロジェクタ230及び学習支援装置400の各々と無線で通信する。端末装置250は、心拍センサ210、カメラ220、プロジェクタ230及び学習支援装置400の各々と有線で通信してもよい。
【0034】
<A4:学習者システム300>
学習者システム300は、心拍センサ310と、カメラ320と、プロジェクタ330と、端末装置250と、を含む。
【0035】
心拍センサ310は、心拍センサ110と同じ型のセンサでもよいし、心拍センサ110と異なる型のセンサでもよい。心拍センサ310は、学習者A3の心拍を検出することによって心拍情報h3を生成する。
【0036】
心拍情報h3は、上述の通り、学習者A3の心拍を示す。心拍情報h3が示す心拍の単位時間における数(心拍数i3)が大きいほど、学習者A3における意識の集中の程度は高い。このため、心拍数i3は、学習者A3における意識の集中の程度を示す。心拍情報h3は、学習者A3のLF/HF値を特定するために使用可能である。学習者A3のLF/HF値が大きいほど、学習者A3における意識の集中の程度は高い。このため、学習者A3のLF/HF値は、学習者A3における意識の集中の程度を示す。心拍情報h3は、学習者A3における意識の集中の程度に関する指標の一例である。
【0037】
カメラ320は、学習者A3を撮像することによって画像情報v3を生成する。画像情報v3は、学習者A3の姿を示す。学習者A3が動く場合、画像情報v3は、学習者A3の動きを示す。カメラ320は、カメラ120と同様に、撮像レンズと、イメージセンサと、を含む。カメラ320は、カメラ120と同じ型のカメラでもよいし、カメラ120と異なる型のカメラでもよい。
【0038】
カメラ320は、プロジェクタ330及び端末装置350とは別の構成である。カメラ320は、プロジェクタ330及び端末装置350のいずれか一方に組み込まれてもよい。
【0039】
プロジェクタ330は、種々の画像を、壁等の表示面に表示する。プロジェクタ330は、表示装置の一例である。
【0040】
端末装置350は、スマートフォンである。端末装置350は、スマートフォンに限らず、例えば、パーソナルコンピュータ又はタブレットでもよい。端末装置350は、心拍センサ310、カメラ320、プロジェクタ330及び学習支援装置400の各々と無線で通信する。端末装置350は、心拍センサ310、カメラ320、プロジェクタ330及び学習支援装置400の各々と有線で通信してもよい。
【0041】
<A5:端末装置150の一例>
図2は、端末装置150の一例を示す図である。端末装置150は、入力出力装置151と、通信装置153及び154と、記憶装置155と、処理装置156と、を含む。
【0042】
入力出力装置151は、タッチパネルを含む。入力出力装置151は、タッチパネルに加えて、複数の操作キーを含んでもよい。入力出力装置151は、タッチパネルを含まずに、複数の操作キーと表示装置とを含んでもよい。入力出力装置151は、ユーザが行う操作を受け付ける。入力出力装置151は、種々の情報を表示する。
【0043】
通信装置153は、心拍センサ110、カメラ120及びプロジェクタ130と通信する。通信装置153は、例えば、ブルートゥース(登録商標)によって、心拍センサ110、カメラ120及びプロジェクタ130の各々と無線通信する。ブルートゥースは、近距離無線通信の一例である。
【0044】
通信装置154は、学習支援装置40と通信する。通信装置154は、例えば、ネットワークNWを介して学習支援装置400と通信する。通信装置154は、ネットワークNWを介さずに学習支援装置400と通信してもよい。
【0045】
記憶装置155は、処理装置156が読み取り可能な記録媒体である。記憶装置155は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)及びEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。記憶装置155は、アプリケーションプログラム551を記憶する。アプリケーションプログラム551は、学習支援装置400が提供するサービスを受けるために使用される。学習支援装置400が提供するサービスは、シルエット情報を提供するサービスである。
【0046】
処理装置156は、1又は複数のCPU(Central Processing Unit)によって構成される。1又は複数のCPUは、1又は複数のプロセッサの一例である。プロセッサ及びCPUの各々は、コンピュータの一例である。
【0047】
処理装置156は、記憶装置155からアプリケーションプログラム551を読み取る。処理装置156は、アプリケーションプログラム551を実行することによって、動作制御部561として機能する。動作制御部561は、学習者システム100を制御する。動作制御部561は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって実現されてもよい。
【0048】
<A6:端末装置250>
端末装置250は、端末装置150が有する構成要素と同様の構成要素を有する。端末装置250は、上述の端末装置150の説明において、心拍センサ110、カメラ120、プロジェクタ130、学習者システム100を、心拍センサ210、カメラ220、プロジェクタ230、学習者システム200と読み替えることによって説明される。
【0049】
<A7:端末装置350>
端末装置350は、端末装置150が有する構成要素と同様の構成要素を有する。端末装置350は、上述の端末装置150の説明において、心拍センサ110、カメラ120、プロジェクタ130、学習者システム100を、心拍センサ310、カメラ320、プロジェクタ330、学習者システム300と読み替えることによって説明される。
【0050】
<A8:学習支援装置400>
図3は、学習支援装置400の一例を示す図である。学習支援装置400は、サーバである。学習支援装置400は、通信装置410と、記憶装置420と、処理装置430と、を含む。
【0051】
通信装置410は、学習者システム100、200及び300の各々と通信する。通信装置410は、例えば、ネットワークNWを介して学習者システム100、200及び300の各々と通信する。通信装置410は、ネットワークNWを介さずに学習者システム100、200及び300の各々と通信してもよい。
【0052】
記憶装置420は、処理装置430が読み取り可能な記録媒体である。記憶装置420は、例えば、不揮発性メモリーと揮発性メモリーとを含む。記憶装置420は、プログラム421を記憶する。
【0053】
処理装置430は、1又は複数のCPUによって構成される。処理装置430は、記憶装置420からプログラム421を読み取る。処理装置430は、プログラム421を実行することによって、取得部431、生成部432及び提供部433として機能する。取得部431、生成部432及び提供部433の少なくとも1つは、DSP、ASIC、PLD、FPGA等の回路によって実現されてもよい。
【0054】
取得部431は、端末装置150から画像情報v1と心拍情報h1とを取得する。取得部431は、端末装置250から画像情報v2と心拍情報h2とを取得する。取得部431は、端末装置350から画像情報v3と心拍情報h3とを取得する。
【0055】
生成部432は、画像情報v1~v3と心拍情報h1~h3とを用いることによって、シルエット情報s1~s3を生成する。
【0056】
生成部432は、画像情報v2及びv3と、心拍情報h2及びh3と、に基づいて、シルエット情報s1を生成する。シルエット情報s1は、学習者A2のシルエットと、学習者A3のシルエットと、を示す。
【0057】
生成部432は、画像情報v3及びv1と、心拍情報h3及びh1と、に基づいて、シルエット情報s2を生成する。シルエット情報s2は、学習者A3のシルエットと、学習者A1のシルエットと、を示す。
【0058】
生成部432は、画像情報v1及びv2と、心拍情報h1及びh2と、に基づいて、シルエット情報s3を生成する。シルエット情報s3は、学習者A1のシルエットと、学習者A2のシルエットと、を示す。
【0059】
提供部433は、シルエット情報s1を端末装置150に提供する。提供部433は、シルエット情報s2を端末装置250に提供する。提供部433は、シルエット情報s3を端末装置350に提供する。
【0060】
<A9:シルエット情報>
図4は、シルエット情報s1が示すシルエット画像G1の一例を示す図である。シルエット画像G1は、学習者A2のシルエットA2sと、学習者A3のシルエットA3sと、を表す。学習者A2のシルエットA2sと、学習者A3のシルエットA3sと、の位置関係は、
図4に示す位置関係に限らず適宜変更可能である。
【0061】
図5は、シルエット情報s2が示すシルエット画像G2の一例を示す図である。シルエット画像G2は、学習者A3のシルエットA3sと、学習者A1のシルエットA1sと、を表す。学習者A3のシルエットA3sと、学習者A1のシルエットA1sと、の位置関係は、
図5に示す位置関係に限らず適宜変更可能である。
【0062】
図6は、シルエット情報s3が示すシルエット画像G3の一例を示す図である。シルエット画像G3は、学習者A1のシルエットA1sと、学習者A2のシルエットA2sと、を表す。学習者A1のシルエットA1sと、学習者A2のシルエットA2sと、の位置関係は、
図6に示す位置関係に限らず適宜変更可能である。
【0063】
学習者A1のシルエットA1sは、学習者A1に関連するシルエットの一例である。学習者A2のシルエットA2sは、学習者A2に関連するシルエットの一例である。学習者A3のシルエットA3sは、学習者A3に関連するシルエットの一例である。
【0064】
<A10:動作の説明>
図7は、学習支援装置400の動作を説明するための図である。
図7に示される学習支援装置400の動作を中心に学習支援システム1の動作を説明する。以下では、説明の簡略化のため、通信装置53、54及び410の各々に関する記載を省略する。例えば、「端末装置150の処理装置156が、通信装置53を介して、心拍センサ110と通信する」という記載に代えて、「端末装置150の処理装置156が、心拍センサ110と通信する」という記載が用いられる。
【0065】
端末装置150の動作制御部561は、心拍センサ110から心拍情報h1を取得する。端末装置150の動作制御部561は、カメラ120から画像情報v1を取得する。端末装置150の動作制御部561は、心拍情報h1と画像情報v1とを、学習支援装置400に提供する。
【0066】
端末装置250の動作制御部561は、心拍センサ210から心拍情報h2を取得する。端末装置250の動作制御部561は、カメラ220から画像情報v2を取得する。端末装置250の動作制御部561は、心拍情報h2と画像情報v2とを、学習支援装置400に提供する。
【0067】
端末装置350の動作制御部561は、心拍センサ310から心拍情報h3を取得する。端末装置350の動作制御部561は、カメラ320から画像情報v3を取得する。端末装置350の動作制御部561は、心拍情報h3と画像情報v3とを、学習支援装置400に送信する。
【0068】
ステップS101において学習支援装置400の取得部431は、心拍情報h1及び画像情報v1と、心拍情報h2及び画像情報v2と、心拍情報h3及び画像情報v3と、を取得する。
【0069】
例えば、取得部431は、端末装置150から心拍情報h1及び画像情報v1を取得する。取得部431は、端末装置250から心拍情報h2及び画像情報v2を取得する。取得部431は、端末装置350から心拍情報h3及び画像情報v3を取得する。
【0070】
続いて、ステップS102において生成部432は、心拍情報h1~h3と画像情報v1~v3とを用いることによって、シルエット情報s1~s3を生成する。
【0071】
ステップS102では生成部432は、まず、心拍情報h1~h3と画像情報v1~v3とを用いることによって、学習者A1のシルエットA1sと、学習者A2のシルエットA2sと、学習者A3のシルエットA3sと、を決定する。
【0072】
生成部432は、学習者A1のシルエットA1sとして、学習者A1のシルエットA1sの形状と、学習者A1のシルエットA1sの色と、を決定する。
【0073】
生成部432は、画像情報v1に基づいて、学習者A1のシルエットA1sの形状を決定する。例えば、生成部432は、画像情報v1によって示される学習者A1の姿から、学習者A1の輪郭を特定する。続いて、生成部432は、学習者A1の輪郭の形状を、学習者A1のシルエットA1sの形状として決定する。
【0074】
生成部432は、心拍情報h1に基づいて、学習者A1のシルエットA1sの色を決定する。
【0075】
例えば、生成部432は、まず、心拍情報h1に基づいて、学習者A1の心拍数i1を算出する。続いて、生成部432は、心拍数i1が基準値j1よりも小さいか否かを判定する。基準値j1は、学習者A1の心拍数i1の平均値である。基準値j1は、学習者A1の心拍数i1の平均値に限らず、例えば、固定値でもよいし、学習者A1~A3の心拍数の平均値でもよい。基準値j1は、所定の程度の一例である。心拍数i1が基準値j1よりも小さいか否かの判定は、学習者A1における意識の集中の程度が所定の程度よりも低いか否かの判定の一例である。
【0076】
生成部432は、心拍数i1が基準値j1よりも小さい場合、学習者A1における意識の集中の程度が所定の程度よりも低いと判定する。生成部432は、心拍数i1が基準値j1以上である場合、学習者A1における意識の集中の程度が所定の程度以上であると判定する。
【0077】
なお、生成部432は、心拍数i1の代わりに、学習者A1のLF/HF値を用いてもよい。この場合、生成部432は、心拍情報h1に基づいて、学習者A1のLF/HF値を算出する。
【0078】
生成部432は、学習者A1における意識の集中の程度が所定の程度よりも低いと判定する場合、学習者A1のシルエットA1sの色として赤を決定する。生成部432は、学習者A1における意識の集中の程度が所定の程度よりも低いと判定する場合、学習者A1のシルエットA1sの色として、赤とは異なる色を決定してもよい。
【0079】
生成部432は、学習者A1における意識の集中の程度が所定の程度以上であると判定する場合、学習者A1のシルエットA1sの色として青を決定する。生成部432は、学習者A1における意識の集中の程度が所定の程度以上であると判定する場合、学習者A1のシルエットA1sの色として、青とは異なる色を決定してもよい。
【0080】
なお、生成部432は、学習者A1における意識の集中の程度が所定の程度以上であるときの学習者A1のシルエットA1sの色を、学習者A1における意識の集中の程度が所定の程度よりも低いときの学習者A1のシルエットA1sの色と異ならせる。
【0081】
さらに、生成部432は、学習者A2のシルエットA2sとして、学習者A2のシルエットA2sの形状と、学習者A2のシルエットA2sの色と、を決定する。生成部432は、画像情報v2に基づいて、学習者A2のシルエットA2sの形状を決定する。学習者A2のシルエットA2sの形状を決定する手法は、学習者A1のシルエットA1sの形状を決定する手法に準ずる。生成部432は、心拍情報h2に基づいて、学習者A2のシルエットA2sの色を決定する。学習者A2のシルエットA2sの色を決定する手法は、学習者A1のシルエットA1sの色を決定する手法に準ずる。
【0082】
さらに、生成部432は、学習者A3のシルエットA3sとして、学習者A3のシルエットA3sの形状と、学習者A3のシルエットA3sの色と、を決定する。生成部432は、画像情報v3に基づいて、学習者A3のシルエットA3sの形状を決定する。学習者A3のシルエットA3sの形状を決定する手法は、学習者A1のシルエットA1sの形状を決定する手法に準ずる。生成部432は、心拍情報h3に基づいて、学習者A3のシルエットA3sの色を決定する。学習者A3のシルエットA3sの色を決定する手法は、学習者A1のシルエットA1sの色を決定する手法に準ずる。
【0083】
続いて、生成部432は、学習者A2のシルエットA2sと学習者A3のシルエットA3sとを示すシルエット情報s1を生成する。続いて、生成部432は、学習者A3のシルエットA3sと学習者A1のシルエットA1sとを示すシルエット情報s2を生成する。続いて、生成部432は、学習者A1のシルエットA1sと学習者A2のシルエットA2sとを示すシルエット情報s3を生成する。シルエット情報s1とシルエット情報s2とシルエット情報s3とを生成する順序は、シルエット情報s1、シルエット情報s2、シルエット情報s3の順序に限らず適宜変更可能である。
【0084】
続いて、ステップS103において提供部433は、シルエット情報s1を端末装置150に提供する。さらに、提供部433は、シルエット情報s2を端末装置250に提供する。さらに、提供部433は、シルエット情報s3を端末装置350に提供する。シルエット情報s1とシルエット情報s2とシルエット情報s3とを提供する順序は、シルエット情報s1、シルエット情報s2、シルエット情報s3の順序に限らず適宜変更可能である。
【0085】
端末装置150の動作制御部561は、シルエット情報s1を受信すると、シルエット情報s1を、プロジェクタ130に提供する。プロジェクタ130は、シルエット情報s1に基づいて、学習者A2のシルエットA2sと学習者A3のシルエットA3sとを表すシルエット画像G1(
図4参照)を、壁等の表示面に表示する。
【0086】
端末装置250の動作制御部561は、シルエット情報s2を受信すると、シルエット情報s2を、プロジェクタ230に提供する。プロジェクタ230は、シルエット情報s2に基づいて、学習者A3のシルエットA3sと学習者A1のシルエットA1sとを表すシルエット画像G2(
図5参照)を、壁等の表示面に表示する。
【0087】
端末装置350の動作制御部561は、シルエット情報s3を受信すると、シルエット情報s3を、プロジェクタ330に提供する。プロジェクタ330は、シルエット情報s3に基づいて、学習者A1のシルエットA1sと学習者A2のシルエットA2sとを表すシルエット画像G3(
図6参照)を、壁等の表示面に表示する。
【0088】
その後、
図7に示す動作が繰り返される。このため、画像情報v1は、学習者A1の動きを示し、シルエット情報s2及びs3は、画像情報v1が示す学習者A1の動きに応じて変化するシルエットA1sを示す。例えば、シルエット情報s2及びs3は、画像情報v1が示す学習者A1の動きに応じて変化する形状を有するシルエットA1sを示す。
【0089】
画像情報v2は、学習者A2の動きを示し、シルエット情報s3及びs1は、画像情報v2が示す学習者A2の動きに応じて変化するシルエットA2sを示す。例えば、シルエット情報s3及びs1は、画像情報v2が示す学習者A2の動きに応じて変化する形状を有するシルエットA2sを示す。
【0090】
画像情報v3は、学習者A3の動きを示し、シルエット情報s1及びs2は、画像情報v3が示す学習者A3の動きに応じて変化するシルエットA3sを示す。例えば、シルエット情報s1及びs2は、画像情報v3が示す学習者A3の動きに応じて変化する形状を有するシルエットA3sを示す。
【0091】
<A11:第1実施形態のまとめ>
第1実施形態によれば、学習者A1~A3の各々は、他の学習者のシルエットを見ることによって、他の学習者の存在を意識しながら学習できる。学習者A1は、学習者A2及びA3から離れた場所にいても、学習者A2及びA3と一緒に勉強している感覚を得られる。
【0092】
学習者の肖像情報が、他人の端末装置に提供されないので、肖像情報が他人の端末装置に提供されることに抵抗感がある学習者でも、抵抗なく、学習支援システム1を使用できる。
【0093】
学習者に関連するシルエットとして、当該学習者のシルエットが用いられるため、学習者は、他の学習者のシルエットを見ることによって、当該他の学習者を意識しやすくなる。また、シルエットは学習者の表情を表さないため、他の学習者の表情が気になりすぎて意識の集中が妨げられることを抑制できる。
【0094】
学習者A1のシルエットA1sの色は、学習者A1における意識の集中の程度に応じて変化する。学習者A1のシルエットA1sの色は、学習者A2及びA3によって視認される。学習者A2のシルエットA2sの色は、学習者A2における意識の集中の程度に応じて変化する。学習者A2のシルエットA2sの色は、学習者A3及びA1によって視認される。学習者A3のシルエットA3sの色は、学習者A3における意識の集中の程度に応じて変化する。学習者A3のシルエットA3sの色は、学習者A1及びA2によって視認される。
【0095】
このため、学習者A1~A3の各々には、意識の集中の程度が低い時間が長くなることを避けようとする意識が生じやすくなる。よって、学習支援装置400は、学習の効率向上を支援できる。
【0096】
<B:変形例>
上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
【0097】
<B1:第1変形例>
第1実施形態では、学習者に関連するシルエットとして、当該学習者のシルエットが用いられる。しかしながら、学習者に関連するシルエットは、当該学習者のシルエットに限らない。学習者に関連するシルエットは、当該学習者のシルエットに基づく形状を有するキャラクターのシルエットでもよい。
【0098】
例えば、生成部432は、事前に記憶装置420に登録されている第1キャラクターのシルエットの形状を、画像情報v1が示す学習者A1の動きに応じて変更することによって、第1シルエットを生成する。
【0099】
一例を挙げると、画像情報v1が右手を上げる学習者A1を示す場合、すなわち、画像情報v1が右手を上げる学習者A1のシルエットを示す場合、生成部432は、右手を上げる第1キャラクターのシルエットを、第1シルエットとして生成する。
【0100】
生成部432は、第1シルエットを、学習者A1のシルエットA1sの代わりに用いる。なお、生成部432は、第1シルエットの色を、予め定められた色に決定してもよいし、心拍情報h1に基づいて上述のように決定してもよい。
【0101】
ここで、右手を上げる第1キャラクターのシルエットは、学習者のシルエットに基づく形状を有するキャラクターのシルエットの一例である。
【0102】
第1キャラクターは、例えば、複数のキャラクターの中から学習者A1によって事前に選択されたキャラクターである。第1キャラクターは、例えば、人間のキャラクターである。第1キャラクターは、人間のキャラクターに限らず、例えば、擬人化された生物のキャラクター、擬人化された物体のキャラクター、擬人化された仮想のキャラクターでもよい。
【0103】
生成部432は、事前に記憶装置420に登録されている第2キャラクターのシルエットの形状を、画像情報v2が示す学習者A2の動きに応じて変更することによって、第2シルエットを生成してもよい。生成部432は、第2シルエットを、学習者A2のシルエットA2sの代わりに用いる。なお、生成部432は、第2シルエットの色を、予め定められた色に決定してもよいし、心拍情報h2に基づいて上述のように決定してもよい。
【0104】
第2キャラクターは、例えば、複数のキャラクターの中から学習者A2によって事前に選択されたキャラクターである。第2キャラクターは、第1キャラクターとは異なる。第2キャラクターは、例えば、人間のキャラクター、擬人化された生物のキャラクター、擬人化された物体のキャラクター、又は、擬人化された仮想のキャラクターである。
【0105】
生成部432は、事前に記憶装置420に登録されている第3キャラクターのシルエットの形状を、画像情報v3が示す学習者A3の動きに応じて変更することによって、第3シルエットを生成してもよい。生成部432は、第3シルエットを、学習者A3のシルエットA3sの代わりに用いる。なお、生成部432は、第3シルエットの色を、予め定められた色に決定してもよいし、心拍情報h3に基づいて上述のように決定してもよい。
【0106】
第3キャラクターは、例えば、複数のキャラクターの中から学習者A3によって事前に選択されたキャラクターである。第3キャラクターは、第1キャラクター及び第2キャラクターのいずれとも異なる。第3キャラクターは、例えば、人間のキャラクター、擬人化された生物のキャラクター、擬人化された物体のキャラクター、又は、擬人化された仮想のキャラクターである。
【0107】
第1変形例によれば、学習者は、他の学習者に対応するキャラクターのシルエットによって、他の学習者の存在を意識できる。また、他の学習者のシルエットではなく、他の学習者に対応するキャラクターのシルエットが用いられるため、他の学習者の存在を必要以上に意識することを抑制できる。
【0108】
<B2:第2変形例>
第1実施形態及び第1変形例において、生成部432は、画像情報v1が示す学習者A1の動きに応じて、学習者A1のシルエットA1sの大きさ、又は、第1シルエットの大きさを変更してもよい。
【0109】
例えば、学習者A1の動きの頻度が高いほど、生成部432は、学習者A1のシルエットA1sを小さくする。生成部432は、学習者A1の動きの頻度が高いほど、学習者A1のシルエットA1sを大きくしてもよい。
【0110】
生成部432は、心拍情報h1にかかわらず、画像情報v1が示す学習者A1の動きに応じて、学習者A1のシルエットA1sの色、又は、第1シルエットの色を変更してもよい。
【0111】
例えば、学習者A1の動きの頻度が閾値未満である場合、生成部432は、学習者A1のシルエットA1sを赤にする。学習者A1の動きの頻度が閾値未満であるときの学習者A1のシルエットA1sの色は、赤に限らず、赤とは異なる色でもよい。生成部432は、学習者A1の動きの頻度が閾値以上である場合、学習者A1のシルエットA1sの色を緑にする。学習者A1の動きの頻度が閾値以上であるときの学習者A1のシルエットA1sの色は、緑に限らず、緑とは異なる色でもよい。なお、生成部432は、学習者A1の動きの頻度が閾値以上であるときの学習者A1のシルエットA1sの色を、学習者A1の動きの頻度が閾値未満であるときの学習者A1のシルエットA1sの色と異ならせる。
【0112】
生成部432は、画像情報v2が示す学習者A2の動きに応じて、学習者A2のシルエットA2sの大きさ、又は、第2シルエットの大きさを変更してもよい。学習者A2のシルエットA2sの大きさを変更する手法、及び、第2シルエットの大きさを変更する手法は、学習者A1のシルエットA1sの大きさを変更する手法に準ずる。
【0113】
生成部432は、画像情報v3が示す学習者A3の動きに応じて、学習者A3のシルエットA3sの大きさ、又は、第3シルエットの大きさを変更してもよい。学習者A3のシルエットA3sの大きさを変更する手法、及び、第3シルエットの大きさを変更する手法は、学習者A1のシルエットA1sの大きさを変更する手法に準ずる。
【0114】
第2変形例によれば、学習者は、他の学習者に関連するシルエットの動きによって、他の学習者の動きを意識できる。
【0115】
<B3:第3変形例>
第1実施形態及び第1~第2変形例において、生成部432は、学習者A1における意識の集中の程度に応じて、学習者A1のシルエットA1sの位置、大きさ、数及び動きのうち、少なくとも1つを変更してもよい。
【0116】
例えば、生成部432は、学習者A1における意識の集中の程度が高いほど、学習者A1のシルエットA1sの位置を、シルエット画像G2及びG3において中央に近づける。生成部432は、学習者A1における意識の集中の程度が高いほど、学習者A1のシルエットA1sの位置を、シルエット画像G2及びG3において、上部、下部、右部又は左部に近づけてもよい。
【0117】
生成部432は、学習者A1における意識の集中の程度が高いほど、学習者A1のシルエットA1sを大きくする。生成部432は、学習者A1における意識の集中の程度が高いほど、学習者A1のシルエットA1sを小さくしてもよい。
【0118】
生成部432は、学習者A1における意識の集中の程度が高いほど、学習者A1のシルエットA1sの数を増やす。生成部432は、学習者A1における意識の集中の程度が高いほど、学習者A1のシルエットA1sの数を減らしてもよい。
【0119】
生成部432は、学習者A1における意識の集中の程度が高いほど、学習者A1のシルエットA1sの動きを減らす。
【0120】
生成部432は、学習者A1における意識の集中の程度に応じて、第1シルエットの位置、大きさ、数及び動きのうち、少なくとも1つを変更してもよい。第1シルエットを変更する手法は、学習者A1のシルエットA1sを変更する手法に準ずる。
【0121】
生成部432は、学習者A2における意識の集中の程度に応じて、学習者A2のシルエットA2sの位置、大きさ、数及び動きのうち、少なくとも1つを変更してもよい。学習者A2のシルエットA2sを変更する手法は、学習者A1のシルエットA1sを変更する手法に準ずる。
【0122】
生成部432は、学習者A2における意識の集中の程度に応じて、第2シルエットの位置、大きさ、数及び動きのうち、少なくとも1つを変更してもよい。第2シルエットを変更する手法は、学習者A1のシルエットA1sを変更する手法に準ずる。
【0123】
生成部432は、学習者A3における意識の集中の程度に応じて、学習者A3のシルエットA3sの位置、大きさ、数及び動きのうち、少なくとも1つを変更してもよい。学習者A3のシルエットA3sを変更する手法は、学習者A1のシルエットA1sを変更する手法に準ずる。
【0124】
生成部432は、学習者A3における意識の集中の程度に応じて、第3シルエットの位置、大きさ、数及び動きのうち、少なくとも1つを変更してもよい。第3シルエットを変更する手法は、学習者A1のシルエットA1sを変更する手法に準ずる。
【0125】
第3変形例によれば、学習者は、他の学習者に関連するシルエットの位置、大きさ、数及び動きのうち少なくとも1つによって、他の学習者における意識の集中の程度を把握できる。
【0126】
<B4:第4変形例>
第1実施形態及び第1~第3変形例において、生成部432は、学習者A2のシルエットA2sと学習者A3のシルエットA3sに加えて学習者A1のシルエットA1sを示す情報を、シルエット情報s1として生成してもよい。
【0127】
生成部432は、学習者A3のシルエットA3sと学習者A1のシルエットA1sに加えて学習者A2のシルエットA2sを示す情報を、シルエット情報s2として生成してもよい。
【0128】
生成部432は、学習者A1のシルエットA1sと学習者A2のシルエットA2sに加えて学習者A3のシルエットA3sを示す情報を、シルエット情報s3として生成してもよい。
【0129】
また、生成部432は、学習者A2のシルエットA2sと学習者A3のシルエットA3sに加えて学習者A1のダミーのシルエットを示す情報を、シルエット情報s1として生成してもよい。生成部432は、学習者A1のダミーのシルエットの色、位置、大きさ、数及び動きのうち、少なくとも1つを、学習者A1における意識の集中の程度に応じて変更してもよい。学習者A1のダミーのシルエットを変更する手法は、学習者A1のシルエットA1sを変更する手法に準ずる。
【0130】
生成部432は、学習者A3のシルエットA3sと学習者A1のシルエットA1sに加えて学習者A2のダミーのシルエットを示す情報を、シルエット情報s2として生成してもよい。生成部432は、学習者A2のダミーのシルエットの色、位置、大きさ、数及び動きのうち、少なくとも1つを、学習者A2における意識の集中の程度に応じて変更してもよい。学習者A2のダミーのシルエットを変更する手法は、学習者A1のシルエットA1sを変更する手法に準ずる。
【0131】
生成部432は、学習者A1のシルエットA1sと学習者A2のシルエットA2sに加えて学習者A3のダミーのシルエットを示す情報を、シルエット情報s3として生成してもよい。生成部432は、学習者A3のダミーのシルエットの色、位置、大きさ、数及び動きのうち、少なくとも1つを、学習者A3における意識の集中の程度に応じて変更してもよい。学習者A3のダミーのシルエットを変更する手法は、学習者A1のシルエットA1sを変更する手法に準ずる。
【0132】
第4変形例によれば、学習者は、他の学習者における意識の集中の程度に加えて、自分自身における意識の集中の程度を容易に確認できる。
【0133】
<B5:第5変形例>
第1実施形態において、生成部432は、学習者A1のシルエットA1sの色を心拍情報h1に基づいて決定せずに、学習者A1のシルエットA1sの色を予め定められた色に決定してもよい。この場合、心拍情報h1及び心拍センサ110を省略できる。
【0134】
第1実施形態において、生成部432は、学習者A2のシルエットA2sの色を心拍情報h2に基づいて決定せずに、学習者A2のシルエットA2sの色を予め定められた色に決定してもよい。この場合、心拍情報h2及び心拍センサ210を省略できる。
【0135】
第1実施形態において、生成部432は、学習者A3のシルエットA3sの色を心拍情報h3に基づいて決定せずに、学習者A3のシルエットA3sの色を予め定められた色に決定してもよい。この場合、心拍情報h3及び心拍センサ310を省略できる。
【0136】
<B6:第6変形例>
第1実施形態及び第1~第5変形例において、学習者システム100、200及び300の各々は、マイクとスピーカをさらに含んでもよい。
【0137】
図8は、マイク160とスピーカ170をさらに含む学習者システム100を示す図である。マイク160は、学習者A1の周囲に設置される。マイク160は、学習者A1の声等を含む音に基づいて音情報b1を生成する。端末装置150は、音情報b1を学習支援装置400に提供する。
【0138】
図9は、マイク260とスピーカ270をさらに含む学習者システム200を示す図である。マイク260は、学習者A2の周囲に設置される。マイク260は、学習者A2の声等を含む音に基づいて音情報b2を生成する。端末装置250は、音情報b2を学習支援装置400に提供する。
【0139】
図10は、マイク360とスピーカ370をさらに含む学習者システム300を示す図である。マイク360は、学習者A3の周囲に設置される。マイク360は、学習者A3の声等を含む音に基づいて音情報b3を生成する。端末装置350は、音情報b3を学習支援装置400に提供する。
【0140】
学習支援装置400の取得部431は、端末装置150から音情報b1を取得する。取得部431は、端末装置250から音情報b2を取得する。取得部431は、端末装置350から音情報b3を取得する。
【0141】
提供部433は、音情報b2及びb3を端末装置150に提供する。提供部433は、音情報b3及びb1を端末装置250に提供する。提供部433は、音情報b1及びb2を端末装置350に提供する。
【0142】
端末装置150は、音情報b2と音情報b3とをスピーカ170に提供する。スピーカ170は、音情報b2に基づく音と、音情報b3に基づく音と、を出力する。
【0143】
端末装置250は、音情報b3と音情報b1とをスピーカ270に提供する。スピーカ270は、音情報b3に基づく音と、音情報b1に基づく音と、を出力する。
【0144】
端末装置350は、音情報b1と音情報b2とをスピーカ370に提供する。スピーカ370は、音情報b1に基づく音と、音情報b2に基づく音と、を出力する。
【0145】
第6変形例によれば、学習者A1~A3の各々は、他の学習者のシルエットに加えて、他の学習者が発する声等を知覚することによって、他の学習者の存在を意識しながら学習できる。また、学習者A1~A3の各々は、必要に応じて、他の学習者と議論でき、学習効率の向上が図れる。
【0146】
<B7:第7変形例>
第1実施形態及び第1~第6変形例においては、学習者における意識の集中の程度に関する指標の一例として、心拍情報が用いられる。しかしながら、学習者における意識の集中の程度に関する指標は、心拍情報に限らない。例えば、学習者における意識の集中の程度に関する指標は、学習者の呼吸の深さを示す呼吸情報、又は、学習者の脳波を示す脳波情報でもよい。
【0147】
学習者の呼吸が深いほど、学習者における意識の集中の程度は高い。このため、呼吸情報は、学習者における意識の集中の程度を示す。この場合、呼吸情報を生成する呼吸センサが、心拍センサ110の代わりに用いられる。呼吸センサは、例えば、呼吸に伴う学習者の体の動き(例えば、呼吸に伴う学習者の腹部又は胸部の動き)を検出する。呼吸センサは、学習者が身に着けているベルト又は衣服の衿に装着される。呼吸センサは、呼吸に伴う学習者の体の動きに基づいて、呼吸情報を生成する。生成部432は、呼吸情報を心拍情報の代わりに用いることによって、例えば、学習者のシルエットの色を決定する。
【0148】
また、学習者が脳波としてアルファー波を出している場合、学習者における意識の集中の程度は高い。このため、脳波情報は、学習者における意識の集中の程度を示す。この場合、脳波情報を生成する脳波センサが、心拍センサ110の代わりに用いられる。脳波センサは、学習者の頭に装着されるウェアラブル型のセンサである。脳波センサは、例えば、キャップ型のセンサ、又は、ヘッドセット型のセンサである。脳波センサは、学習者の脳波を検出する。脳波センサは、学習者の脳波を示す脳波情報を生成する。生成部432は、脳波情報を心拍情報の代わりに用いることによって、例えば、学習者のシルエットの色を決定する。
【0149】
第7変形例によれば、心拍情報とは異なる情報に基づいて、学習者における意識の集中の程度を特定できる。
【0150】
<C:その他>
(1)第1実施形態及び第1変形例~第5変形例の各々においては、記憶装置155及び420は、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体を含んでもよい。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
【0151】
(2)第1実施形態及び第1変形例~第5変形例の各々は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
【0152】
(3)第1実施形態及び第1変形例~第5変形例の各々において説明した情報などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、情報などは、電圧、電流、電磁波、磁界、磁性粒子、光場、光子、又はこれらの任意の組み合わせにて表されてもよい。
なお、本明細書において説明した用語及び/又は本明細書の理解に必要な用語は、同一の又は類似する意味を有する用語と置き換えられてもよい。
【0153】
(4)第1実施形態及び第1変形例~第5変形例の各々において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルによって管理されてもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
【0154】
(5)第1実施形態及び第1変形例~第5変形例の各々において、判定は、1ビットによって表される値(0か1か)に基づいて行われてもよいし、真偽値(Boolean:true又はfalse)に基づいて行われてもよいし、数値の比較(例えば、所定の値との比較)に基づいて行われてもよい。
【0155】
(6)第1実施形態及び第1変形例~第5変形例の各々において例示した処理手順、シーケンス、又はフローチャート等は、矛盾のない限り、順序を入れ替えてもよい。例えば、本明細書において説明した方法については、例示的な順序において様々なステップの要素を提示しており、提示した特定の順序に限定されない。
【0156】
(7)
図2又は3に例示された各機能は、ハードウェア及びソフトウェアの任意の組み合わせによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体にて構成された2以上の装置によって実現されてもよい。
【0157】
(8)第1実施形態及び第1変形例~第5変形例の各々において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。
また、ソフトウェア、又は命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
【0158】
(9)第1実施形態及び第1変形例~第5変形例の各々において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
【0159】
(10)第1実施形態及び第1変形例~第5変形例の各々において、端末装置150、250及び350の少なくとも1つは、移動局でもよい。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語を用いて称される場合もある。
【0160】
(11)第1実施形態及び第1変形例~第5変形例の各々において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
【0161】
(12)本明細書において使用する「第1」及び「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること又は何らかの形において第1要素が第2要素に先行しなければならないことを意味しない。
【0162】
(13)第1実施形態及び第1変形例~第5変形例の各々において「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲において使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
【0163】
(14)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。
【0164】
(15)本明細書において、「装置」という用語は、回路、デバイス又はユニット等の他の用語に読み替えられてもよい。
【0165】
(16)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
【0166】
<D:上述の形態又は変形例から把握される態様>
上述の形態又は変形例の少なくとも1つから以下の態様が把握される。
【0167】
<D1:第1態様>
第1態様に係る学習支援装置は、取得部と、生成部と、提供部と、を含む。取得部は、カメラを用いて第1学習者を撮像することによって生成される画像情報を取得する。生成部は、取得部が取得した画像情報に基づいて、第1学習者に関連するシルエットを示すシルエット情報を生成する。提供部は、生成部が生成したシルエット情報を、第2学習者が使用する端末装置に提供する。この態様によれば、第1学習者の肖像情報が、第2学習者が使用する端末装置に提供されなくても、第2学習者は、第1学習者のシルエットを見ることによって、第1学習者の存在を意識しながら学習できる。また、第1学習者の肖像情報が、第2学習者が使用する端末装置に提供されないので、肖像情報が他人の端末装置に提供されることに抵抗感がある学習者でも、学習支援装置を抵抗なく使用できる。
【0168】
<D2:第2態様>
第1態様の例(第2態様)において、前記第1学習者に関連するシルエットは、前記第1学習者のシルエットである。この態様によれば、第2学習者は、第1学習者のシルエットを見ることによって、第1学習者を意識しやすくなる。また、第1学習者のシルエットは第1学習者の目を表さないため、第1学習者の視線が気になりすぎて第2学習者が意識を集中できないことを抑制できる。
【0169】
<D3:第3態様>
第1態様の例(第3態様)において、前記第1学習者に関連するシルエットは、前記第1学習者のシルエットに基づく形状を有するキャラクターのシルエットである。この態様によれば、第1学習者を表すためのシルエットとして、第1学習者のシルエットを使用しなくてもよい。このため、第1学習者は、第1学習者のシルエットが他人の端末装置に提供されることに抵抗感を有していても、学習支援装置を抵抗なく使用できる。また、第1学習者を表すためのシルエットとして、第1学習者が好むキャラクターのシルエットを用いることができる。
【0170】
<D4:第4態様>
第1態様から第3態様のいずれかの例(第4態様)において、前記画像情報は、前記第1学習者の動きを示し、前記シルエット情報は、前記画像情報が示す前記第1学習者の動きに応じて変化するシルエットを示す情報である。この態様によれば、第2学習者は、シルエット情報が示すシルエットの変化を視認することによって、第1学習者の動きを把握できる。このため、第2学習者は、第1学習者の存在をより強く意識しながら学習できる。
【0171】
<D5:第5態様>
第4態様の例(第5態様)において、前記シルエット情報は、前記画像情報が示す前記第1学習者の動きに応じて変化する形状を有するシルエットを示す情報である。この態様によれば、第2学習者は、シルエット情報が示すシルエットの形状の変化を視認することによって、第1学習者の動きを把握できる。このため、第2学習者は、第1学習者の存在をより強く意識しながら学習できる。
【0172】
<D6:第6態様>
第1態様から第5態様のいずれかの例(第6態様)において、前記取得部は、前記第1学習者における意識の集中の程度に関する指標を、さらに取得し、前記生成部は、前記画像情報と前記指標とに基づいて、前記シルエット情報を生成する。この態様によれば、第2学習者は、シルエット情報が示すシルエットを視認することによって、第1学習者における意識の集中の程度を確認可能になる。このため、第2学習者は、第1学習者の存在をより強く意識しながら学習できる。
【0173】
<D7:第7態様>
第6態様の例(第7態様)において、前記生成部は、前記指標に基づいて、前記シルエット情報が示すシルエットの色を決定する。この態様によれば、第2学習者は、シルエット情報が示すシルエットの色を確認することによって、第1学習者における意識の集中の程度を確認可能になる。このため、第2学習者は、第1学習者の存在をより強く意識しながら学習できる。
【0174】
<D8:第8態様>
第6態様又は第7態様の例(第8態様)において、前記生成部は、前記指標に基づいて、前記シルエット情報が示すシルエットの位置を決定する。この態様によれば、第2学習者は、シルエット情報が示すシルエットの位置を確認することによって、第1学習者における意識の集中の程度を確認可能になる。このため、第2学習者は、第1学習者の存在をより強く意識しながら学習できる。
【0175】
<D9:第9態様>
第6態様から第8態様のいずれかの例(第9態様)において、前記生成部は、前記指標に基づいて、前記シルエット情報が示すシルエットの大きさを決定する。この態様によれば、第2学習者は、シルエット情報が示すシルエットの大きさを確認することによって、第1学習者における意識の集中の程度を確認可能になる。このため、第2学習者は、第1学習者の存在をより強く意識しながら学習できる。
【0176】
<D10:第10態様>
第6態様から第9態様のいずれかの例(第10態様)において、前記生成部は、前記指標に基づいて、前記シルエット情報が示すシルエットの数を決定する。この態様によれば、第2学習者は、シルエット情報が示すシルエットの数を確認することによって、第1学習者における意識の集中の程度を確認可能になる。このため、第2学習者は、第1学習者の存在をより強く意識しながら学習できる。
【符号の説明】
【0177】
1…学習支援システム、40…学習支援装置、53…通信装置、54…通信装置、100…学習者システム、110…心拍センサ、120…カメラ、130…プロジェクタ、150…端末装置、151…入力出力装置、153…通信装置、154…通信装置、155…記憶装置、156…処理装置、200…学習者システム、210…心拍センサ、220…カメラ、230…プロジェクタ、250…端末装置、300…学習者システム、310…心拍センサ、320…カメラ、330…プロジェクタ、350…端末装置、400…学習支援装置、410…通信装置、420…記憶装置、430…処理装置、431…取得部、432…生成部、433…提供部、561…動作制御部。