【解決手段】プログラムは、コンピュータに、教材に取り組むユーザの顔を撮影した第1撮影装置から顔画像を取得すること、顔画像からユーザの顔情報を認識すること、教材に対する前記ユーザの入力内容を示す入力情報を取得すること、入力情報及び顔情報に基づいて、ユーザの学習支援に関する補助情報を決定すること、補助情報を出力すること、を実行させる。
前記第1撮影装置と前記第2撮影装置とが同じ撮影装置の場合、当該撮影装置により撮影される画像は、前記ユーザの顔を含む領域と、前記ユーザの記入内容を含む領域とを含む、請求項5に記載のプログラム。
【発明を実施するための形態】
【0010】
以下、本発明の実施の形態について、図面を参照しつつ詳細に説明する。なお、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。さらに、当業者であれば、以下に述べる各要素を均等なものに置換した実施の形態を採用することが可能であり、かかる実施の形態も本発明の範囲に含まれる。またさらに、必要に応じて示す上下左右等の位置関係は、特に断らない限り、図示の表示に基づくものとする。さらにまた、図面における各種の寸法比率は、その図示の比率に限定されるものではない。また、同一の要素には同一の符号を付し、重複する説明を省略する。
【0011】
以下、添付図面を参照しながら本開示の実施形態について詳細に説明する。
【0012】
<システム概要>
図1は、本開示のシステム概要を説明するための図である。
図1に示す例では、ユーザUA(第1学習者)が、撮影補助装置30Aを設けた情報処理装置(例えばユーザ端末)20Aを用いて学習を行うことを想定する。情報処理装置(例えばサーバ)10は、ユーザUAの取り組み状況に応じて、問題情報や回答情報、解説情報などを、情報処理装置20Aに送信する。
【0013】
(学習支援システムA)
ここで、ユーザUAが取り組む学習支援システムAについて説明する。ユーザUAは、印刷媒体40に記録された教材を机等に広げて、この教材に取り組む。このとき、撮影補助装置30Aは、ユーザUAの顔画像の撮影を補助するとともに、印刷媒体40の撮影を補助する。ここで、顔画像とは、顔の映像(動画像)及び/又は顔の静止画像を含む。撮影補助装置30Aは、情報処理装置20Aが含む撮影装置のレンズ部分に取り付けられ、鏡体を適切な位置に設けることで、情報処理装置20Aに内蔵される撮影装置は、対面するユーザUAの顔を撮影するとともに、手元に載置された印刷媒体40も撮影する。これにより、情報処理装置20Aに含まれる撮影装置は、ユーザUAの顔画像を含む領域と、印刷媒体40を含む領域とを含む1つの撮影画像を取得することが可能である。撮影補助装置30Aの詳細については後述する。
【0014】
次に、情報処理装置20Aは、ユーザUAの顔画像と印刷媒体40を撮影した画像とを含む画像をサーバ10に送信し、サーバ10は、印刷媒体40の画像からユーザがどの問題に取り組んでいるか等を特定する。例えば、サーバ10は、問題を特定する問題番号などを文字認識することで、問題を特定することが可能である。
【0015】
サーバ10は、ユーザUAが印刷媒体40に記入する内容を画像から取得し、ユーザの記入内容を認識して入力情報を取得し、入力情報に応じたアドバイス等を情報処理装置20Aに送信する。
【0016】
また、サーバ10は、情報処理装置20Aから取得した顔画像から、ユーザUAの視線、目の動き、口の動き、表情などの顔情報を認識する。例えば、顔認識については、公知のアルゴリズムを用いてもよいし、人工知能(AI)を用いて学習時のユーザUAの表情や視線等を認識するモデルが作成され、このモデルに基づいて顔情報が認識されてもよい。
【0017】
また、サーバ10は、認識された入力情報と顔情報とに基づいて、学習支援に関する補助情報を決定し、決定された補助情報を情報処理装置20Aに送信する。例えば、入力情報の入力が停滞し、ユーザUAが悩んだり困ったりした顔をしている場合、サーバ10は、ユーザUAが回答中の問題に関連する第1補助情報(例えば回答するためのヒント)を情報処理装置20Aに送信する。情報処理装置20Aは、ヒントなどの第1補助情報を表示装置に表示する。
【0018】
これにより、ユーザUAは、印刷媒体40を用いて問題を回答中であり、解き方等で悩んでいるまさにその時に、情報処理装置20Aは、その問題のヒントを示す第1補助情報を表示することができる。
【0019】
また、例えば、入力情報が所定時間入力されず、ユーザUAが集中を切らしてよそ見をしていると認識された場合、サーバ10は、ユーザUAに対する休憩又は集中を促す第2補助情報を情報処理装置20Aに送信する。情報処理装置20Aは、受信した第2補助情報を表示装置に表示する。
【0020】
これにより、ユーザUAは、印刷媒体40を用いて問題を回答中であり、集中力が切れているまさにその時に、情報処理装置20Aは、休憩を促す第2補助情報を表示することができる。
【0021】
また、学習支援システムAが、例えば遠隔地にいる先生との学習支援を可能とするオンラインチュータリングシステムを適用する場合、補助情報は、ネットワークでつながっている端末を利用する先生からのアドバイス情報であってもよい。
【0022】
(学習支援システムB)
次に、ユーザUBが受ける学習支援システムBについて説明する。学習支援システムBは、基本的には学習支援システムAと同じであるが、問題に対する回答の方法や顔画像の入力方法が異なる。学習支援システムBでは、ユーザUBは、電子ペン50などを用いて情報処理装置20Bの表示装置に回答を入力する。例えば、情報処理装置20Bはタッチパネルを備え、ユーザUBの回答入力を受け付ける。
【0023】
サーバ10は、情報処理装置20Bに入力される回答を示す入力情報を取得することで、ユーザUBがどの問題を回答中であるかを認識することができる。サーバ10は、認識した入力情報に基づく回答状況に応じた補助情報を情報処理装置20Bに送信する。
【0024】
また、情報処理装置20Bの撮影装置のレンズ部分に設けられた撮影補助装置30Bは、ユーザUBの表情を撮影するために鏡体を用いて撮影範囲を変更する。ユーザUBの顔を撮影した画像はサーバ10に送信され、必要に応じてサーバ10により顔認識される。
【0025】
サーバ10は、ユーザUBの回答内容が所定条件を満たす場合に、認識されたユーザUBの表情に応じて決定された補助情報を情報処理装置20Bに送信する。例えば、サーバ10は、ユーザUBが悩んだり困ったりした顔をしている場合には、第1補助情報(例えば回答するためのヒント)を、ユーザUBが集中していない場合には、第2補助情報を情報処理装置20Bに送信する。また、所定条件とは、回答が不正解であること、入力情報が所定時間以上検知されないことなどである。
【0026】
なお、各情報処理装置20A、20Bが、サーバ10が行う処理の少なくとも1部の処理を行うようにしてもよい。また、撮影補助装置30Aは、顔画像と、印刷媒体40の画像とを取得できればよいため、2つの撮影装置を含むように構成されてもよい。
【0027】
[第1実施形態]
次に、上述したシステムを実現するためのシステム構成例について説明する。
図2は、第1実施形態に係る情報処理システム1の概略構成の一例を示す図である。
図2に示すように、サーバ10と、各ユーザが利用するユーザ端末20A、20B、20C、20D、・・・とが、ネットワークNを介して相互に通信可能に接続されることにより、情報処理システム1が構成される。以降、ユーザ端末を個別に区別する必要がない場合は、符号20を用いる。また、サーバ10について、ネットワークNに接続される数は、複数あってもよい。
【0028】
サーバ10は、情報処理システム1において実行される学習支援を管理する情報処理装置である。サーバ10は、ネットワークNを介して、ユーザ端末20とデータを送受信し、ユーザ端末20を利用するユーザの学習を支援する。
【0029】
ユーザ端末20は、ネットワークNにアクセス可能な情報処理装置であって、限定ではなく例として、スマートフォンなどの携帯端末、コンピュータ(限定でなく例として、デスクトップ、ラップトップ、タブレットなど)を含む。ユーザ端末20は、学習者や先生であるユーザにより用いられる装置である。
【0030】
ネットワークNは、複数種の通信回線や通信網及び種々のネットワーク機器を含んで構成され得る。例えば、ネットワークNは、サーバ10に無線接続される基地局や、無線LANのアクセスポイント(WiFiルータ等)、基地局に接続された移動体通信網、アクセスポイントからルータやモデムを介して接続された電話回線、ケーブルテレビ回線又は光通信回線などの公衆回線、サーバ10に接続されたインターネット、移動体通信網や、公衆回線とインターネットを接続するゲートウェイ装置などを含む。
【0031】
<ハードウェア構成>
次に、学習支援機能を実行する情報処理システム1に係る各装置のハードウェア構成について説明する。
図3は、第1実施形態に係るサーバ10のハードウェア構成の一例を示す図である。
図3に示すように、サーバ10は、制御部102と、通信インターフェース104と、記憶部106と、を有し、各部はバスライン112を介して接続される。
【0032】
制御部102は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等からなる。また、制御部102は、記憶部106に記憶されるアプリケーション等を実行することにより、学習支援を行う機能を実現するように構成される。
【0033】
通信インターフェース104は、ネットワークNを介してユーザ端末20との通信を制御する。
【0034】
記憶部106は、例えば大容量の複数のHDD等からなり、呼制御を行うサーバ機能を実現するためのアプリケーション及びデータ(図示省略)を記憶することに加え、制御プログラム108を記憶する。また、記憶部106は、情報記憶部110を有する。
【0035】
制御プログラム108は、学習支援を行うアプリケーションを実行するプログラムである。例えば、制御プログラム108は、ユーザ端末20から取得した回答内容や記入内容などの入力情報に基づいて学習者の取り組み状況を認識したり、学習者の顔画像から表情を認識したり、それらの情報から補助情報を決定したりする。また、制御プログラム108は、ユーザ端末20に補助情報などを送信したりするプログラムである。
【0036】
情報記憶部110は、学習支援機能を利用する各ユーザ端末の情報などを記憶する。例えば、情報記憶部110は、ユーザ端末20の学習者情報、問題情報、及び補助情報などを記憶してもよい。
【0037】
次に、ユーザ端末20のハードウェア構成について説明する。
図4は、第1実施形態に係るユーザ端末20のハードウェア構成の一例を示す図である。
図4に示すように、ユーザ端末20は、制御部202と、通信インターフェース206と、記憶部208と、表示部214と、入力部216と、マイク220と、スピーカ222、撮影装置224とを有し、各部はバスライン218を介して接続される。
【0038】
制御部202は、CPU、ROM、RAM204等からなる。制御部202は、記憶部208に記憶されるアプリケーション等を実行することにより、一般的な情報処理装置としての機能に加え、学習支援機能を実現するように構成される。また、制御部202は、入力された画像に対して認識機能を実行してもよい。
【0039】
また、RAM204は、各種情報を一時的に保持したり、CPUが各種処理を実行する際のワークエリアとして使用されたりする。
【0040】
通信インターフェース206は、ネットワークNを介してサーバ10との通信を制御する。
【0041】
記憶部208は、例えばHDD等からなり、一般的な情報処理装置としての機能を実現するためのアプリケーション及びデータ(図示省略)を記憶することに加え、アプリプログラム210を記憶する。また、記憶部208は、情報記憶部212を有している。
【0042】
アプリプログラム210は、上述した学習支援機能を実行するためのプログラムである。例えば、アプリプログラム210は、学習者から取得した回答に関する入力情報や、学習者の顔を含む画像情報や、問題に対する記入内容を含む画像情報をサーバ10に送信したり、サーバ10から補助情報など受信したりするプログラムである。
【0043】
情報記憶部212は、システムへのログイン情報や、学習支援に用いるデータなどを記憶する。
【0044】
表示部214は、例えばタッチパネルや液晶モニターなどのディスプレイであり、ユーザに情報を表示する。例えば、表示部214は、アプリケーションの実行画面を表示し、具体的には、問題画面や、補助情報などを表示する。
【0045】
入力部216は、ユーザからの入力を受け付けたり、ユーザからの指示を受け付けたりする。なお、表示部214と入力部216とは、タッチパネルとして構成されてもよい。
【0046】
マイク220は、音声などの音を集音するデバイスであり、ノイズキャンセル機能などを有してもよい。スピーカ222は、音声データを物理振動に変えて、音楽や音声などの音を出力するデバイスである。
【0047】
撮影装置224は、例えばカメラなどの撮影装置であり、所定のタイミングで起動して撮影を行う。撮影された画像は、第2送信部404を介して、適宜サーバ10等に送信される。
【0048】
<機能構成>
次に、
図5を用いて、第1実施形態に係る情報処理システム1の各装置の機能について説明する。
図5は、第1実施形態に係るサーバ10の機能構成の一例を示すブロック図である。
図5に示すサーバ10は、第1通信部302、第1記憶部308、アプリ制御部310としての機能を有する。
【0049】
第1通信部302は、例えば、制御部102や通信インターフェース104などにより実現されうる。第1記憶部308は、例えば記憶部106により実現されうる。アプリ制御部310は、例えば制御プログラム108が制御部102により実行されることにより実現されうる。
【0050】
第1通信部302は、ユーザ端末20と、ネットワークNを介して通信を行うものである。例えば、第1受信部306は、ユーザ端末20等から受信したデータを、アプリ制御部310に供給する。また、第1送信部304は、アプリ制御部310から供給されたデータを、ユーザ端末20等へ送信する機能を有する。
【0051】
第1記憶部308は、各種プログラムや各種データを記憶するためのものである。ここで、第1記憶部308に記憶されるプログラムは、後述する処理手順を実行する学習支援アプリケーションに関するプログラムである。また、第1記憶部308には、学習支援に関するデータや表示データや各種演算結果のデータなども記録される。
【0052】
例えば、第1記憶部308には、学習者情報、問題情報、及び補助情報が記憶される。これらの情報は、物理的に別の記憶部に記憶されてもよいし、1つの記憶部が論理的に分割されて記憶されてもよい。第1記憶部308に記憶される各情報の詳細は、
図6〜8を用いて後述する。なお、第1記憶部308は、サーバ10とは別体のデータベースでもよい。
【0053】
図6は、第1実施形態に係る第1記憶部308に記憶される学習者情報の一例を示す図である。
図6に示す例では、学習者情報は、学習者の会員番号、氏名、学校、学年などを含む情報である。また、学習者情報には、学習者の顔写真やイラストなどの画像データを含んでもよい。
【0054】
会員番号は、事業者が提供する問題配信サービスに入会したときに学習者に与えられる学習者識別情報を表す。氏名は、学習者の氏名を表し、学校及び学年は、学習者の学校及び学年を表す。例えば、会員番号「0001」の場合、氏名「AAA」、学校「ABC」、学年「中3」などが会員番号に関連付けられている。
【0055】
図7は、第1実施形態に係る第1記憶部308に記憶される問題情報の一例を示す図である。
図7に示す問題情報は、問題IDごとに、問題内容情報、解答情報、及び解説情報を含む。問題IDは、例えば、問題を特定する問題特定情報を表す。問題内容情報は、例えば、問題の内容を表す。解答情報は、例えば、その問題に対する解答を表す。解説情報は、例えば、その問題に対する解答を導くための解説を表す。また、
図7に図示しないが、問題に対するアドバイス情報が問題情報に含まれてもよい。
【0056】
図8は、第1実施形態に係る第1記憶部308に記憶される補助情報の一例を示す図である。
図8に示す補助情報は、画像認識された学習者の顔情報と、画像認識やタッチパネル等に対する入力により取得された入力情報とが関連付けられる。補助情報は、学習支援に関する補助情報であり、予め設定された情報でもよいし、先生によって入力されたアドバイスなどの情報でもよい。
【0057】
顔情報は、顔画像が認識されることで取得される学習者の視線、目の動き、口の動き、表情、表情の変化などである。例えば、視線や目の動きは、目を検出する公知のアルゴリズムを用いて実現可能であり、口の動きについても、口を検出する公知のアルゴリズムを用いて実現可能である。また、表情については、喜怒哀楽を検出するようなアルゴリズムを用いてもよいし、AIを用いて学習者が悩んだり、困ったりしているような顔を検出するように学習モデルを生成しておいてもよい。
【0058】
例えば、顔情報Aが、困っている、悩んでいる表情であり、入力情報が所定時間入力されていない(例えば条件A)とき、補助情報Aは、問題を解くためのヒントを示す情報である。例えば、問題によってヒントが異なるため、補助情報Aは、アドバイス表示であることを表す情報が含まれる。この場合、学習者が現在取り組んでいる問題が特定され、特定された問題からアドバイス情報が取得され、取得されたアドバイス情報がユーザ端末20に表示される。
【0059】
また、顔情報Bが、学習者がよそ見をしている情報であり、入力情報が所定時間入力されていない(例えば条件B)とき、補助情報Bは、ユーザに対して、休憩又は集中を促す情報であってもよい。なお、表情は、眠っている表情や、悔しい表情などが登録可能であり、それぞれの表情に合わせた補助情報が出力されるとよい。
【0060】
また、顔情報が無表情であり、入力情報が誤答であるとき、補助情報は、解説情報を表す情報であってもよい。例えば、学習者が無表情で回答を間違えている場合は、学習者が間違いに気づいていない可能性が高いので、その場で解答への解説を表示することで、学習者に迅速にフィードバックを与えることが可能になる。なお、第1記憶部308は、
図14を用いて後述する、フラグ内容とフィードバック(FB)内容とを対応付けたフィードバック表示テーブルなどを記憶してもよい。
【0061】
図5に戻り、アプリ制御部310は、第1実施形態における学習支援を例にして説明すれば、機能モジュールとしての、第1取得部312、第2取得部314、画像処理部316、出力部322を備える。機能モジュールは、制御部102で実行される上記各種プログラムにより実現され、或いは、ファームウェアとして制御部102に実装されてもよい。
【0062】
第1取得部312は、教材に取り組む学習者の顔が第1撮影装置により撮影された画像を取得する。顔画像は、ユーザ端末20によって送信され、第1受信部306により受信され、第1取得部312に取得される。第1撮影装置は、例えば、ユーザ端末20に内蔵される撮影装置224である。
【0063】
第2取得部314は、学習者が取り組む教材に対する学習者の入力内容を示す入力情報を取得する。例えば、第2取得部314は、教材に記入された内容が第2撮影装置により撮影され、この撮影された画像(記入画像)を含む入力情報を取得する。第2撮影装置は、第1撮影装置と同じ撮影装置でもよいし、異なる撮影装置でもよい。
【0064】
画像処理部316は、第1取得部312により取得された顔画像や、第2取得部314により取得された記入画像を処理する。例えば、画像処理部316は、認識部318及び決定部320を含む。
【0065】
認識部318は、顔画像を取得すると、顔画像に対して認識処理を実行し、学習者の視線、目の動き、口の動き、表情などを含む顔情報を認識する。認識された顔情報は、決定部320に出力される。
【0066】
また、認識部318は、記入画像を取得すると、文字認識等の処理を実行し、記入画像に含まれる学習者の記入内容を含む入力情報を認識する。認識された入力情報は、決定部320に出力される。
【0067】
決定部320は、取得した入力情報と顔情報とに基づいて、ユーザの学習支援に関する補助情報を決定する。例えば、決定部320は、入力情報が記入なしであり、顔情報が悩んでいることを示す場合、補助情報として解説情報を決定する。また、決定部320は、同じ条件の場合(入力情報が記入なしであり、顔情報が悩んでいることを示す場合)、先生に対して学習者にアドバイスを送るような指示情報を補助情報として決定してもよい。
【0068】
また、決定部320は、補助情報として、学習者に対する応援メッセージや、先生とのチャットやビデオ通話等の指示情報を決定してもよい。例えば、決定部320は、先生とのビデオ通話を指示する指示情報を補助情報として決定すると、先生が利用する端末に、ビデオ通話の指示情報が送信される。先生は、この指示情報に基づき、生徒にビデオ通話を依頼する。指示情報には、生徒名や、生徒の端末アドレスなどが含まれる。このビデオ通話が行われることで、学習者は適切なタイミングで、遠隔地にいる先生とあたかも同じ空間にいるような感覚で気楽に質問等を行うことができる。
【0069】
出力部322は、決定部320により決定された補助情報をユーザ端末20に出力する。ユーザ端末20は、取得した補助情報を表示部214や、スピーカ222などを用いて出力する。
【0070】
これにより、本システムによれば、学習者の教材に対する入力情報と、その学習者の顔画像とを用いて、その学習者に応じた適切な情報を提供することができる。また、ユーザはシステムにより決定された補助情報を参照することで、学習者の取り組み状況に対するフィードバックを迅速に行うことができる。
【0071】
また、決定部320は、顔情報が所定の第1顔情報を示す場合、教材の所定部分の回答に関する補助情報を決定してもよい。例えば、所定の第1情報が悩んだり困ったりしている表情の場合、決定部320は、学習者が取り組んでいる問題に対するアドバイスを示す補助情報に決定する。これにより、学習者は、問題が解けずに悩んでいるときに、ユーザ端末20がアドバイスを提示するため、効率よく問題を解くことができる。
【0072】
また、決定部320は、顔情報が所定の第2顔情報を示す場合、学習者に休憩又は集中を促す補助情報を決定してもよい。例えば、所定の第2情報が学習者の所定時間又は所定回数以上のよそ見を示す場合、決定部320は、学習者に休憩又は集中を促すメッセージを示す補助情報に決定する。これにより、学習者は、無意識に集中していないときなどに、次の行動に対するアドバイスを受けることができる。
【0073】
また、第2取得部314は、教材が印刷媒体に印刷される場合、この印刷媒体に対するユーザの記入内容が第2撮影装置により撮影された記入画像を含む入力情報を取得してもよい。例えば、学習者は、問題等が印刷された紙に回答を記入し、第2撮影装置は、学習者が紙に回答を記入している様子を撮影する。第2撮影装置により撮影された画像は、学習者の回答内容を示す記入画像を含む。第2取得部314は、この記入画像を含む入力情報を第2撮影装置又はユーザ端末20から取得する。これにより、従来のように印刷媒体に印刷された教材を学習者が用いる場合であっても、学習者が記入する内容を認識することが可能になる。その結果、適切なタイミングで、学習者に合わせた適切なアドバイスを提供することができる。また、従来の印刷媒体ベースの学習を好む学習者にも、オンラインチュータリングを適用することが可能である。
【0074】
また、顔画像を撮影する第1撮影装置と、印刷媒体を撮影する第2撮影装置とが同じ撮影装置の場合、この撮影装置により撮影される画像は、学習者の顔を含む第1領域と、この学習者の記入内容を含む第2領域とを含んでもよい。
【0075】
このとき、撮影補助装置30Aを用いることで、第1領域と第2領域とを含む1つの画像を含むことを実現してもよい。撮影補助装置30Aは、詳細は後述するが、広角レンズや鏡体を含む。撮影補助装置30Aを用いて撮影装置により撮影される画像は、第1対象物(例えば、学習者)から、広角レンズを介して、ユーザ端末20Aのレンズに入射される第1画像と、第1対象物とユーザ端末20Aの間にある第2対象物(例えば、印刷媒体)から、鏡体において反射したものが広角レンズを介してレンズに入射される第2画像とを含む。
【0076】
また、出力部322は、第2取得部314により取得された入力情報が示す回答が不正解である場合、正解への解説情報を出力してもよい。例えば、認識部318が、入力情報に含まれる記入画像の文字認識を実行し、学習者の回答を取得する。画像処理部316は、学習者が解いている問題の解答と、ユーザの回答とを比較し、不正解であることを認識した場合、出力部322にこの問題の解説情報を通知する。出力部322は、取得した解説情報を表示装置等に出力する。これにより、学習者に対し、回答した内容が不正解だった場合に、迅速に解説を提示することで可能になる。
【0077】
図9は、第1実施形態に係るユーザ端末20の機能構成の一例を示す図である。
図9に示すユーザ端末20は、学習者や先生が利用するユーザ端末20であり、このユーザ端末20を機能的な観点から示す。ユーザ端末20は、サーバ10からの要求等に応じて、学習支援サービスを受けるためのものであり、そのための機能として、少なくとも第2通信部402、第2記憶部408、アプリ実行部410、及び撮像部416を備える。
【0078】
第2通信部402は、サーバ10とネットワークNとの間で通信を行うものである。例えば、第2受信部406は、サーバ10から受信したデータを、アプリ実行部410に供給し、第2送信部404は、アプリ実行部410から供給されたデータを、サーバ10へ送信する機能を有する。第2通信部402は、具体的には、少なくとも上述した
図4に示す通信インターフェース206等から構成され得る。
【0079】
第2記憶部408は、各種プログラムや各種データを記憶するためのものであり、具体的には、上述した、
図4に示す記憶部208等から構成され得る。ここで、第2記憶部408に記憶されるプログラムは、学習者に対して提供される第1アプリケーションの第1プログラムや、先生に対して提供される第2アプリケーションの第2プログラムである。また、第2記憶部408には、かかる学習支援に関するデータや表示データや各種演算結果のデータなども記録される。
【0080】
アプリ実行部410は、例えば制御部202等から構成され得る。アプリ実行部410は、第1プログラムを実行することで、第1アプリケーション、例えば、学習者側の学習支援サービスを受ける各機能を有する。また、アプリ実行部410は、第2プログラムを実行することで、第2アプリケーション、例えば、先生側の学習支援サービスを受ける各機能を有する。アプリ実行部410は、この学習支援サービスを受ける各機能として、少なくとも受付部412、及び表示制御部414を備える。
【0081】
受付部412、学習者の操作を受け付ける。受付部412は、表示部214、マイク220等を用いて、学習者が入力した操作内容や情報を受け付ける。例えば、受付部412は、学習者によるサーバ10へのアクセス要求や、文字入力や、音声情報等の回答情報を受け付ける。
【0082】
表示制御部414は、学習支援システムが提供する問題や、解説、アドバイスを含む画面情報や、先生の映像等を表示部214に表示するよう制御する。表示部214により表示されるデータは、第1アプリケーションがサーバ10から取得したデータであってもよいし、第1アプリケーションにより生成されたデータであってもよい。
【0083】
学習者は、印刷媒体に印刷された問題を解きつつ、適切なタイミングで表示部214に表示される解説やアドバイス、先生とのチャットやビデオ通話等により、問題や解答に対する理解を深めていくことができる。
【0084】
なお、上述した例では、サーバ10の機能と、ユーザ端末20の機能とを分けて説明したが、サーバ10の機能の少なくとも一部をユーザ端末20が備えるようにしてもよい。例えば、画像処理部316は、ユーザ端末20に設けられてもよい。
【0085】
<撮影補助装置>
次に、
図10〜12を用いて、第1実施形態に係る撮影補助装置30Aについて説明する。
図10は、第1実施形態に係る撮影補助装置30Aを説明するための図である。
図10に示す例では、撮影補助装置30Aが、ユーザ端末20Aに取り付けられている。取付位置については、ユーザ端末20Aに内蔵されたレンズ(以下、「内蔵レンズ」とも称す。)を覆う位置に取り付けられ、例えば、撮影補助装置30Aの広角レンズ502が内蔵レンズを覆うように取り付けられる。
【0086】
ここで、撮影補助装置30Aの構成について説明する。撮影補助装置30Aは、情報処理装置(例えばユーザ端末20A)に取り付ける取付構造506と、情報処理装置が有する撮影装置のレンズ(内蔵レンズ)部分に設置される広角レンズ502と、鏡体504と、取付構造506、広角レンズ502、及び鏡体504を接続する筐体508と、を備える。
【0087】
撮影装置において撮影される画像は、第1対象物(例えば学習者)から広角レンズ502を介して内蔵レンズに入射される第1画像と、第1対象物と情報処理装置との間にある第2対象物(例えば印刷物)から鏡体504において反射したものが広角レンズ502を介して内蔵レンズに入射される第2画像とを含むように、撮影補助装置30Aの各部の位置が調整されている。
【0088】
広角レンズ502は、内蔵レンズが有する画角よりも広い画角を有するものであればよい。取付構造506や筐体508の一部に設けられ、その位置や角度は調整可能に設けられてもよい。
【0089】
鏡体504は、広角レンズ502により広げられた画角の一部を反射させる位置に設けられる鏡体であり、筐体508に接続される。鏡体504の位置は、調整可能に設けられてもよい。
【0090】
取付構造506は、例えばユーザ端末20Aの端部を挟み込むようなクリップ構造や、ユーザ端末20の端部の一辺を覆うキャップ構造であってもよく、ユーザ端末20Aの端部に取り付けられるような構造を有していればよい。
【0091】
筐体508は、撮影補助装置30Aの各部が接続され、各部を支えるボディ部分である。
【0092】
図11は、第1実施形態に係る撮影補助装置30Aの各部の位置関係の一例を示す図である。
図11に示す例では、ユーザ端末20と、印刷媒体40と、ユーザUAとを横から見た時の位置関係を表す。
図11に示す広角レンズ502は、内蔵レンズの画角を広げ、その広げられた画角は、第1画角A10と、第2画角A12とを含む。
【0093】
図11に示す例では、印刷媒体40を含む像は、鏡体504により反射され、画角A10内に含まれて広角レンズ502を介して内蔵レンズに入射される。学習者であるユーザUAを含む像は、広角レンズ502の画角A12に含まれて、広角レンズ502を介して内蔵レンズに入射される。
【0094】
図11に示す例では、鏡体504は、広角レンズ502の上方に設けられて、広角レンズ502の一部の画角内に、ユーザ端末20AとユーザUAとの間に置かれた印刷媒体40の像が反射して入射されるような位置において筐体508に接続される。鏡体504のサイズや位置等は、
図10及び
図11に示す例に限られず、ユーザUAと、印刷媒体40との像が1つのレンズにより入射される位置に設けられればよい。
【0095】
図12は、第1実施形態に係る撮影補助装置30Aを用いて撮影される画像の一例を示す図である。
図12に示すように、ユーザ端末20Aの画面には、撮影補助装置30Aを用いて撮影された画像が表示されている。画像の第2領域AR2には、ユーザUAが手元に置いた教材に回答を記入する様子が撮影された画像が含まれる。画像の第1領域AR4には、ユーザUAが回答をする際の顔周辺が撮影された画像が含まれる。
【0096】
図12に示す例では、画面に第2領域AR2及び第1領域AR4を表示するが、実際にユーザUAが教材に取り組んでいる際には、取り組んでいる問題や解説等が表示されるようにするよい。ユーザ端末20Aは、第2領域AR2に含まれる記入内容を含む画像や、第1領域AR4に含まれるユーザUAの顔画像を、サーバ10に送信する。撮影補助装置30Aを利用することにより、既存の情報処理装置に内蔵される撮影装置を用いて、印刷媒体40と学習者の顔とを含む画像を取得することができるようになる。また、撮影補助装置30Aの構成によれば、別途撮影装置を設ける必要がないため、安価で容易に適用可能な撮影補助装置30Aを提供することができる。
【0097】
<動作処理>
次に、
図13A及びBを用いて、情報処理システム1の動作処理について説明する。
図13A及びBは、第1実施形態に係る情報処理システム1の処理の一例を示すフローチャートである。
【0098】
ステップS102で、学習者UAは、印刷媒体40に印刷された教材を用いて学習を開始する。
【0099】
ステップS104で、学習者UAは、ユーザ端末20Aの一例であるタブレット端末の前に、印刷媒体40に印刷された教材を開く。このとき、ユーザ端末20Aは、学習者UAの操作に応じて第1アプリケーションを起動しておく。これにより、撮像部416のカメラ機能がONになる。
【0100】
ステップS106で、ユーザ端末20Aのアプリ実行部410は、撮影補助装置30Aを用いて撮像部416により撮像された教材を含む画像を読み取って取得する。
図13に示す例において、アプリ実行部410は、サーバ10の画像処理部316の機能を有する。
【0101】
ステップS108で、ユーザ端末20Aのアプリ実行部410は、学習者UAが取り組んでいる教材と、ページとを認識できたか否かを判定する。
【0102】
教材を示す情報は、例えば教材の各ページの所定箇所(例えば左上)等に記載され、ページ番号は、例えば各ページの下中央に記載される。アプリ実行部410は、各ページの所定箇所や、下中央の文字を認識することで、学習者UAがどの教材のどのページを取り組んでいるかを認識することが可能である。上述の認識ができた場合(ステップS108−YES)、処理はステップS110に進み、上述の認識ができなかった場合(ステップS108−NO)、再認識するため、処理はステップS106に戻る。
【0103】
ステップS110で、ユーザ端末20Aの表示制御部414は、認識された教材及びページに基づいて、学習者UAが取り組んでいる教材のページを示す画面情報を表示部214に表示するよう制御する。
【0104】
ステップS112で、学習者UAは、印刷媒体40に印刷された教材の問題に対し、ペンを置く。ペンを置くとは、学習者UAが、把持しているペンのペン先を問題の上に置くことをいう。
【0105】
ステップS114で、ユーザ端末20Aの画像処理部は、撮像部416により撮影される領域AR2の画像を認識することで、ペンの位置を読み取って取得する。ユーザ端末20Aは、ユーザの手やペンをパターンマッチング等により処理することで認識可能である。
【0106】
ステップS116で、ユーザ端末20Aは、ペンの位置が認識されると、ペン先に関連する問題を認識できたか否かを判定する。ペン先に問題が記載されていれば(ステップS116−YES)、ユーザ端末20Aは、ペン先に記載されている問題を認識し、ペン先に問題が記載されていなければ(ステップS116−NO)、ユーザ端末20Aは、処理はステップS114に戻る。
【0107】
ステップS118で、ユーザ端末20Aの表示制御部414は、認識された問題にフォーカスして、この問題を含む画面情報を表示制御部414に表示するよう制御する。また、学習者が記入した内容が表示制御部414に表示されるようにしてもよい。
【0108】
次に、
図13Bに示すステップS120で、学習者UAは、把持しているペンを用いて、印刷媒体40である紙面上で問題に取り組む。例えば、学習者UAは、ペンを用いて紙面上に回答を記入していく。
【0109】
ステップS122で、ユーザ端末20Aは、第2領域AR2内の画像を認識することで、例えば所定の解答欄に回答が記入された否かを判定する。解答欄に回答が記入されれば(ステップS122−YES)、処理はステップS136に進み、解答欄に回答が記入されていなければ(ステップS122−NO)、処理はステップS124に進む。
【0110】
ステップS124で、ユーザ端末20Aの画像処理部は、第2領域AR2に含まれる記入画像から単位時間あたりのペンの動き量を測定する。この動き量は、学習者UAの記入内容を示す入力情報の一例である。
【0111】
ステップS126で、ユーザ端末20Aの画像処理部は、動き量が所定値未満であるか否かを用いて学習者の取り組みに停滞があるか否かを判定する。動き量が所定値未満であれば(ステップS126−YES)、処理はステップS127に進み、動き量が所定値以上であれば(ステップS126−NO)、処理はステップS128に進む。
【0112】
ステップS127で、ユーザ端末20Aの画像処理部は、停滞フラグをONに設定する。停滞フラグは、例えばデフォルトでOFFに設定されている。
【0113】
ステップS128で、ユーザ端末20Aの画像処理部は、撮像部416により撮影される第1領域AR4の顔画像を認識することで、学習者の顔情報を読み取って取得する。顔情報は、目の動きや口の動き、表情等を含む。
【0114】
ステップS130で、ユーザ端末20Aの画像処理部は、第1領域AR4に含まれる顔画像を認識し、躓き・悩みの表情であるか否かを判定する。認識された顔情報が、躓き・悩みの表情であれば(ステップS130−YES)、処理はステップS131に進み、認識された表情が、躓き・悩みの表情でなければ(ステップS130−NO)、処理はステップS132に進む。
【0115】
ステップS131で、ユーザ端末20Aの画像処理部は、躓きフラグをONに設定する。躓きフラグは、例えばデフォルトでOFFに設定されている。
【0116】
ステップS132で、ユーザ端末20Aの決定部は、学習者UAによる記入画像から認識された入力情報と、学習者UAの顔画像から認識された顔情報とに基づいて、補助情報を決定する。補助情報は、学習者UAが取り組んでいる問題のヒントを示す情報を決定し、表示制御部414は、ヒントを表示部214に表示するよう制御する。例えば、決定部は、補助情報として、
図14に示すフィードバック(FB)表示テーブルに基づいて、フラグ状態に応じたフィードバック内容を決定してもよい。
【0117】
図14は、第1実施形態に係るフィードバック表示テーブルの一例を示す図である。
図14に示すように、FB表示テーブルは、フラグと、FB表示内容とが対応付けられた情報を含む。停滞フラグ及び躓きフラグは、入力情報と顔情報とに基づいてON又はOFFが制御される。例えば、停滞フラグ及び躓きフラグがともにONの場合、ヒント1表示が決定される。ヒント1とは、例えば問題に対する解答につながる情報であり、一例として使用する公式などである。また、停滞フラグがONで躓きフラグがOFFの場合、集中の促しが決定される。集中の促しは、休憩の提案などでもよい。また、停滞フラグがOFFで躓きフラグがONの場合、ヒント2表示が決定される。ヒント2とは、例えば問題についてよくあるミスの例示などである。また、停滞フラグ及び躓きフラグがOFFの場合、「特になし」が決定されるが、応援などが決定されてもよい。また、FB表示テーブルは、フラグ以外にも、まぶたの開きや視線などの顔情報、解答の経過などの入力情報にも基づいて補助情報(例えばFB表示)が決定されるテーブルであってもよい。
【0118】
ステップS136で、ユーザ端末20Aの画像処理部は、第2領域AR2内の画像から学習者UAの回答を認識する。
【0119】
ステップS138で、ユーザ端末20Aの画像処理部は、学習者UAの回答が正しいか否かを判定する。回答が正しければ(ステップS138−YES)、処理はステップS144に進み、回答が正しくなければ(ステップS138−NO)、処理はステップS140に進む。
【0120】
ステップS140で、ユーザ端末20Aの決定部は、学習者UAが取り組んでいる問題の解説を特定し、表示制御部414は、解説を含む画面情報を表示部214に表示するよう制御する。
【0121】
ステップS142で、ユーザ端末20Aは、再度この問題周辺にペン先を置いたか否かを判定する。問題周辺にペン先が置かれれば、再度問題に取り組むと判定され(ステップS142−YES)、処理はステップS122に戻り、問題周辺にペン先が置かれなければ、再度問題に取り組まないと判定され(ステップS142−NO)、処理はステップS144に進む。
【0122】
ステップS144で、ユーザ端末20Aは、この問題に対する学習を終了する。なお、次の問題に対して上述した処理を行うため、処理はステップS112に戻ってもよい。
【0123】
以上の処理においては、顔情報から躓き・悩みの表情を認識する例を用いたが、これに限られず、学習者UAの目の動きにより、よそ見、居眠り等を認識し、それに応じたメッセージが決定されるようにしてもよい。
【0124】
また、ステップS132の処理の他の例としては、オンラインで接続されいてる先生に対してアドバイスを行うよう指示する情報が決定され、その指示情報を受信した先生が、学習者UAに対してチャットやビデオ通話を依頼するようにしてもよい。
【0125】
また、ユーザ端末20Aは、取得した記入画像や顔画像をサーバ10に送信し、サーバ10によって決定された補助情報を表示するようにしてもよい。
【0126】
上述した処理のフローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。
【0127】
<適用例>
図15A及びBを用いて、第1実施形態に係る適用例を説明する。
図15Aは、第1実施形態に係る問題認識された画面を示す図である。
図15Aに示すユーザ端末20Aの画面は、印刷媒体40を画像認識して、印刷媒体40と同じ問題が表示される例を示す(
図13Aに示すステップS110)。例えば、ユーザ端末20Aに内蔵された撮影装置は、撮影補助装置30Aを用いることで、印刷媒体40を撮影することが可能になる(
図11及び
図12参照)。撮影された画像は、画像認識されることで、教材が特定され、ページなども特定される。
【0128】
また、
図15Bは、学習者が取り組んでいる問題を認識し、その問題がフォーカスして表示される例を示す図である。
図15Bに示すユーザ端末20Aの画面は、学習者が印刷媒体40に記入した3×2+4=10が画像認識され、学習者の記入内容が画面に表示される例を示す(
図13Aに示すステップS118)。例えば、ユーザ端末20Aに内蔵された撮影装置は、撮影補助装置30Aを用いることで、印刷媒体40に記入された内容を撮影することが可能になる(
図11及び
図12参照)。撮影された画像は、画像認識されることで、学習者による回答が認識される。
【0129】
以上、第1実施形態によれば、学習者の教材に対する入力情報と、その学習者の顔画像とを用いて、その学習者に応じた適切な情報を提供することができる。また、第1実施形態によれば、従来のように印刷媒体に印刷された教材を学習者が用いる場合であっても、学習者が記入する内容を認識することが可能であり、その結果、適切なタイミングで、学習者に合わせた適切なアドバイスを提供することができる。また、従来の印刷媒体ベースの学習を好む学習者にも、オンラインチュータリングを適用することが可能である。
【0130】
[第2実施形態]
次に、第2実施形態に係る情報処理システムについて説明する。第2実施形態に係る情報処理システムでは、ユーザの回答を示す入力情報の取得の仕方と、ユーザの顔画像の撮影の仕方が、第1実施形態に係る情報処理システムと異なる。その他のシステム構成、サーバ及びユーザ端末それぞれのハードウェア構成、機能構成等は同様である。
【0131】
図16は、第2実施形態に係る撮影補助装置30Bの一例を示す図である。
図16に示す例では、撮影補助装置30Bは、情報処理装置20Bの端部に取り付けられる取付構造604と、鏡体602とを含む。鏡体602は、情報処理装置20Bの表示面に対して角度を調整可能に設けられ、問題に取り組む学習者の顔が情報処理装置20Bのレンズ610に入射されるようにする。情報処理装置20Bに取得された顔画像は、サーバ10に送信される。
【0132】
また、第2実施形態では、学習者は、電子ペン50などを用いて、情報処理装置20Bのタッチパネルに回答を入力する。情報処理装置20Bは、入力された回答を入力情報としてサーバ10に送信する。このとき、取得された顔画像と入力情報とは取得時間等で対応付けて送信されるとよい。
【0133】
この場合、サーバ10の第1取得部312は、情報処理装置20Bから送信される顔画像を取得する。また、サーバ10の第2取得部314は、教材が情報処理装置20Bの表示部に表示される場合、この表示部を介してユーザから入力される入力情報を取得する。
【0134】
サーバ10は、入力情報と顔画像とを取得すると、その後の処理は第1実施形態に係る処理と同様である。これにより、ペーパーレス型の学習支援システムにおいても、本開示の技術を用いることができる。
【0135】
なお、上述したとおり、本発明は、上記の実施形態、及び、既に述べた変形例に限定されるものではなく、その要旨を逸脱しない範囲内において様々な変形が可能である。すなわち、上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。