IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤマハ株式会社の特許一覧

特開2024-170465情報処理方法、情報処理システムおよびプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024170465
(43)【公開日】2024-12-10
(54)【発明の名称】情報処理方法、情報処理システムおよびプログラム
(51)【国際特許分類】
   G09B 15/00 20060101AFI20241203BHJP
   G10G 1/00 20060101ALI20241203BHJP
【FI】
G09B15/00 Z
G10G1/00
【審査請求】有
【請求項の数】19
【出願形態】OL
(21)【出願番号】P 2024147313
(22)【出願日】2024-08-29
(62)【分割の表示】P 2022553714の分割
【原出願日】2021-09-03
(31)【優先権主張番号】P 2020164977
(32)【優先日】2020-09-30
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000004075
【氏名又は名称】ヤマハ株式会社
(74)【代理人】
【識別番号】110003177
【氏名又は名称】弁理士法人旺知国際特許事務所
(72)【発明者】
【氏名】伊藤 理恵
(72)【発明者】
【氏名】日置 友佳子
(72)【発明者】
【氏名】青木 孝光
(72)【発明者】
【氏名】小関 信也
(72)【発明者】
【氏名】田邑 元一
(57)【要約】
【課題】楽器を使った演奏の教習に必要な演奏者の画像を特定できる技術を提供する。
【解決手段】コンピュータによって実行される情報処理方法は、楽器を演奏する演奏者の身体における注目箇所を、前記演奏者の演奏を確認する人物に関する情報に基づいて決定し、 決定した前記注目箇所の画像を表す画像情報を取得する。
【選択図】図4
【特許請求の範囲】
【請求項1】
コンピュータによって実行される情報処理方法であって、
楽器を演奏する演奏者の身体における注目箇所を、前記演奏者の演奏を確認する人物に関する情報に基づいて決定し、
決定した前記注目箇所の画像を表す画像情報を取得する、
情報処理方法。
【請求項2】
前記人物に関する情報は、前記人物の識別情報を含む
請求項1に記載の情報処理方法。
【請求項3】
前記人物に関する情報は、前記人物の動きを示す動き情報を含む
請求項1に記載の情報処理方法。
【請求項4】
前記人物に関する情報は、前記人物によって示された演奏についての注意事項を示す注意情報を含む
請求項1から3のいずれか1項に記載の情報処理方法。
【請求項5】
前記演奏者によって演奏される楽器の種類は、前記人物によって演奏される楽器の種類と同一であり、
前記人物に関する情報は、前記人物によって演奏される楽器の種類を示す情報を含む
請求項1から4のいずれか1項に記載の情報処理方法。
【請求項6】
コンピュータによって実行される情報処理方法であって、
楽器を演奏する演奏者に関する情報に基づいて、前記演奏者の身体における注目箇所を決定し、
決定した前記注目箇所の画像を表す画像情報を取得する、
情報処理方法。
【請求項7】
前記演奏者に関する情報は、前記演奏者の識別情報を含む
請求項6に記載の情報処理方法。
【請求項8】
前記演奏者に関する情報は、前記演奏者の動きを示す動き情報を含む
請求項6に記載の情報処理方法。
【請求項9】
前記注目箇所を決定することは、前記演奏者によって演奏される楽器の種類を示す楽器情報に基づいて、前記注目箇所を決定することを含む
請求項1から8のいずれか1項に記載の情報処理方法。
【請求項10】
さらに、前記演奏者によって演奏される楽器の種類に関する関連情報を用いて、前記楽器情報を特定し、
前記注目箇所を決定することは、特定した前記楽器情報に基づいて、前記注目箇所を決定する
請求項9に記載の情報処理方法。
【請求項11】
前記関連情報は、
前記演奏者によって演奏される楽器が出力する音を示す情報、
前記演奏者によって演奏される楽器を表す画像を示す情報、
前記演奏者によって演奏される楽器の種類に応じた楽譜を示す情報、または、
前記演奏者によって演奏される楽器の種類と当該楽器の教習スケジュールとの組合せを示す情報を含む
請求項10に記載の情報処理方法。
【請求項12】
前記注目箇所を決定することは、
前記楽器情報が示す前記種類の楽器から出力される音を示す音情報と、前記楽器情報と、に基づいて、前記注目箇所を決定することを含む
請求項9から11のいずれか1項に記載の情報処理方法。
【請求項13】
前記注目箇所を決定することは、前記演奏者によって演奏される楽器から出力される音を示す音情報に基づいて、前記注目箇所を決定することを含む
請求項1から11のいずれか1項に記載の情報処理方法。
【請求項14】
前記注目箇所を決定することは、音を表す楽譜を示す楽譜情報と、前記音情報と、の関係に基づいて、前記注目箇所を決定することを含む
請求項12または13に記載の情報処理方法。
【請求項15】
前記注目箇所を決定することは、演奏についての注意事項を示す注意情報に基づいて、前記注目箇所を決定することを含む
請求項6から8のいずれか1項に記載の情報処理方法。
【請求項16】
楽器を演奏する演奏者の身体における注目箇所を、前記演奏者の演奏を確認する人物に関する情報に基づいて決定する決定部と、
前記決定部が決定した注目箇所の画像を表す画像情報を取得する取得部と、
を含む情報処理システム。
【請求項17】
楽器を演奏する演奏者に関する情報に基づいて、前記演奏者の身体における注目箇所を決定する決定部と、
前記決定部が決定した注目箇所の画像を表す画像情報を取得する取得部と、
を含む情報処理システム。
【請求項18】
コンピュータに、
楽器を演奏する演奏者の身体における注目箇所を、前記演奏者の演奏を確認する人物に関する情報に基づいて決定し、
決定した前記注目箇所の画像を表す画像情報を取得する、
処理を実行させるプログラム。
【請求項19】
楽器を演奏する演奏者に関する情報に基づいて、前記演奏者の身体における注目箇所を決定し、
決定した前記注目箇所の画像を表す画像情報を取得する、
処理を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理方法および情報処理システムに関する。
【背景技術】
【0002】
特許文献1は、演奏を自動的に評価する演奏評価装置を開示する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平10-63175号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
楽器を使った演奏の教習が、画像を用いて行われる場合、教習に必要な演奏者の画像を特定することが重要である。
本開示は、教習に必要な演奏者の画像を特定できる技術の提供を目的とする。
【課題を解決するための手段】
【0005】
本開示の一態様に係る情報処理方法は、コンピュータによって実行される情報処理方法であって、楽器を示す楽器情報に基づいて、前記楽器情報が示す前記楽器を演奏する演奏者における身体から注目箇所を決定し、前記決定した注目箇所の画像を表す画像情報を取得する。
【0006】
本開示の他の態様に係る情報処理方法は、コンピュータによって実行される情報処理方法であって、楽器から出力される音を示す音情報に基づいて、前記楽器を演奏する演奏者における身体から注目箇所を決定し、前記決定した注目箇所の画像を示す画像情報を取得する。
【0007】
本開示のさらに他の態様に係る情報処理システムは、楽器を示す楽器情報に基づいて、前記楽器情報が示す前記楽器を演奏する演奏者における身体から注目箇所を決定する決定部と、前記決定部が決定した注目箇所の画像を表す画像情報を取得する取得部と、を含む。
【0008】
本開示のさらに他の態様に係る情報処理システムは、楽器から出力される音を示す音情報に基づいて、前記楽器を演奏する演奏者における身体から注目箇所を決定する決定部と、前記決定部が決定した注目箇所の画像を表す画像情報を取得する取得部と、を含む。
【図面の簡単な説明】
【0009】
図1】情報提供システム1の一例を示す図である。
図2】生徒教習システム100の一例を示す図である。
図3】対応テーブルTaの一例を示す図である。
図4】生徒教習システム100の動作を説明するための図である。
図5】生徒画像G3を示す図である。
図6】生徒教習システム100の動作を説明するための図である。
図7】対応テーブルTa1の一例を示す図である。
図8】生徒教習システム101を示す図である。
図9】演奏者の身体の一部を示す画像の切り出しを説明するための図である。
図10】生徒教習システム102を示す図である。
図11】タブ譜の一例を示す図である。
図12】ギターコード譜の一例を示す図である。
図13】ドラム譜の一例を示す図である。
図14】連弾譜の一例を示す図である。
図15】複数音の同時発音を示す音符の一例を表す図である。
図16】スケジュール情報が示すスケジュールの一例を示す図である。
図17】スケジュール情報が示すスケジュールの他の例を示す図である。
図18】生徒教習システム103を示す図である。
図19】生徒教習システム104を示す図である。
図20】ユーザインターフェイスの一例を示す図である。
図21】生徒教習システム105を示す図である。
図22】学習処理部191の一例を示す図である。
図23】学習処理の一例を示す図である。
図24】処理装置180の他の例を示す図である。
【発明を実施するための形態】
【0010】
A:第1実施形態
A1:情報提供システム1
図1は、本開示の情報提供システム1の一例を示す図である。情報提供システム1は、情報処理システムの一例である。情報提供システム1は、生徒教習システム100と、先生指導システム200と、を含む。生徒教習システム100と先生指導システム200は、ネットワークNWを介して相互に通信可能である。先生指導システム200の構成は、生徒教習システム100の構成と同一である。
【0011】
生徒教習システム100は、楽器100Aを用いて楽曲の演奏を学習する生徒100Bによって利用される。生徒教習システム100は、音楽教室に設けられた生徒用の部屋に配置される。生徒教習システム100は、音楽教室に設けられた生徒用の部屋とは異なる場所、例えば、生徒100Bの家に配置されてもよい。
【0012】
楽器100Aは、ピアノまたはフルートである。ピアノとフルートの各々は、楽器の種類の一例、および、楽器の一例である。以下、「楽器の種類」という文言は、「楽器」という文言に置き換えることができる。生徒100Bは、演奏者の一例である。生徒100Bが楽器100Aを演奏する場所は、生徒教習システム100が配置される部屋において予め定められている。このため、演奏中の生徒100B、演奏直前の生徒100B、および、演奏直後の生徒100Bは、固定のカメラによって撮像可能である。
【0013】
先生指導システム200は、楽器200Aを用いて楽曲の演奏を指導する先生200Bによって利用される。楽器200Aの種類は、楽器100Aの種類と同一である。例えば、楽器100Aがピアノである場合、楽器200Aもピアノである。先生指導システム200は、音楽教室に設けられた先生用の部屋に配置される。先生指導システム200は、音楽教室に設けられた先生用の部屋とは異なる場所、例えば、先生200Bの家に配置されてもよい。
【0014】
先生200Bは、演奏者の一例である。先生200Bが楽器200Aを演奏する場所は、先生指導システム200が配置される部屋において予め定められている。このため、演奏中の先生200B、演奏直前の先生200B、および、演奏直後の先生200Bは、固定のカメラによって撮像可能である。
【0015】
生徒教習システム100は、生徒演奏情報aを、先生指導システム200に送信する。生徒演奏情報aは、生徒100Bが楽器100Aを演奏する状況を示す。生徒演奏情報aは、生徒画像情報a1と、生徒音情報a2と、を含む。
【0016】
生徒画像情報a1は、生徒100Bが楽器100Aを演奏する状況を表す画像(以下「生徒画像」と称する)を示す。生徒音情報a2は、生徒100Bが楽器100Aを演奏する状況において楽器100Aから出力される音(以下「生徒演奏音」と称する)を示す。
【0017】
先生指導システム200は、生徒教習システム100から生徒演奏情報aを受信する。先生指導システム200は、生徒演奏情報aに含まれる生徒画像情報a1に基づいて、生徒画像を表示する。先生指導システム200は、生徒演奏情報aに含まれる生徒音情報a2に基づいて、生徒演奏音を出力する。
【0018】
先生指導システム200は、先生演奏情報bを、生徒教習システム100に送信する。先生演奏情報bは、先生200Bが楽器200Aを演奏する状況を示す。先生演奏情報bは、先生画像情報b1と、先生音情報b2と、を含む。
【0019】
先生画像情報b1は、先生200Bが楽器200Aを演奏する状況を表す画像(以下「先生画像」と称する)を示す。先生音情報b2は、先生200Bが楽器200Aを演奏する状況において楽器200Aから出力される楽曲の音(以下「先生演奏音」と称する)を示す。
【0020】
生徒教習システム100は、先生指導システム200から先生演奏情報bを受信する。生徒教習システム100は、先生演奏情報bに含まれる先生画像情報b1に基づいて、先生画像を表示する。生徒教習システム100は、先生演奏情報bに含まれる先生音情報b2に基づいて、先生演奏音を出力する。
【0021】
A2:生徒教習システム100
図2は、生徒教習システム100の一例を示す図である。生徒教習システム100は、カメラ111~115と、マイク120と、表示部130と、スピーカ140と、操作部150と、通信部160と、記憶装置170と、処理装置180と、を含む。
【0022】
カメラ111~115の各々は、光を電気信号に変換するイメージセンサを含む。イメージセンサは、例えば、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。
【0023】
カメラ111は、楽器100Aを操作する生徒100Bの手の各指を撮像することによって、生徒指情報a11を生成する。生徒指情報a11は、楽器100Aを操作する生徒100Bの手の各指と、楽器100Aと、を画像で表す。
【0024】
カメラ112は、楽器100Aを操作する生徒100Bの両足を撮像することによって、生徒足情報a12を生成する。生徒足情報a12は、楽器100Aを操作する生徒100Bの両足と、楽器100Aと、を画像で表す。
【0025】
カメラ113は、楽器100Aを操作する生徒100Bの全身を撮像することによって、生徒全身情報a13を生成する。生徒全身情報a13は、楽器100Aを操作する生徒100Bの全身と、楽器100Aと、を画像で表す。
【0026】
カメラ114は、楽器100Aを操作する生徒100Bの口を撮像することによって、生徒口情報a14を生成する。生徒口情報a14は、楽器100Aを操作する生徒100Bの口と、楽器100Aと、を画像で表す。
【0027】
カメラ115は、楽器100Aを操作する生徒100Bの上半身を撮像することによって、生徒上半身情報a15を生成する。生徒上半身情報a15は、楽器100Aを操作する生徒100Bの上半身と、楽器100Aと、を画像で表す。
【0028】
生徒指情報a11、生徒足情報a12、生徒全身情報a13、生徒口情報a14および生徒上半身情報a15のうち、少なくとも1つは、生徒画像情報a1に含まれる。カメラ111~115の向きおよび姿勢は、調整可能である。カメラ111~115の各々は、撮像部とも称される。
【0029】
マイク120は、生徒演奏音を収音する。マイク120は、生徒演奏音に基づいて、生徒音情報a2を生成する。マイク120は、収音部とも称される。
【0030】
表示部130は、液晶ディスプレイである。表示部130は、液晶ディスプレイに限らず、例えば、OLED(Organic Light Emitting diode)ディスプレイでもよい。表示部130は、タッチパネルでもよい。表示部130は、種々の情報を表示する。表示部130は、例えば、先生画像情報b1に基づく先生画像を表示する。表示部130は、生徒画像情報a1に基づく生徒画像を表示してもよい。
【0031】
スピーカ140は、種々の音を出力する。スピーカ140は、例えば、先生音情報b2に基づく先生演奏音を出力する。スピーカ140は、生徒音情報a2に基づく生徒演奏音を出力してもよい。
【0032】
操作部150は、タッチパネルである。操作部150は、タッチパネルに限らず、例えば、種々の操作ボタンでもよい。操作部150は、生徒100B等のユーザから種々の情報を受け取る。操作部150は、ユーザから、例えば、生徒楽器情報c1を受け取る。生徒楽器情報c1は、楽器100Aの種類を示す。生徒楽器情報c1は、楽器の種類を示す楽器情報の一例である。
【0033】
通信部160は、ネットワークNWを介して有線または無線で先生指導システム200と通信する。通信部160は、ネットワークNWを介さずに有線または無線で先生指導システム200と通信してもよい。通信部160は、生徒演奏情報aを先生指導システム200に送信する。通信部160は、先生演奏情報bを先生指導システム200から受信する。
【0034】
記憶装置170は、コンピュータによって読み取り可能な記録媒体(例えば、コンピュータによって読み取り可能なnon transitoryな記録媒体)である。記憶装置170は、1または2以上のメモリーを含む。記憶装置170は、例えば、不揮発性メモリーと、揮発性メモリーと、を含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。
【0035】
記憶装置170は、処理プログラムと、演算プログラムと、種々のデータと、を記憶する。処理プログラムは、生徒教習システム100の動作を規定する。演算プログラムは、入力X1から出力Y1を特定する演算を規定する。
【0036】
記憶装置170は、不図示のサーバにおける記憶装置から読み取られた処理プログラムおよび演算プログラムを記憶してもよい。この場合、サーバにおける記憶装置は、コンピュータによって読み取り可能な記録媒体(例えば、コンピュータによって読み取り可能なnon transitoryな記録媒体)の一例である。種々のデータは、後述の複数の変数K1を含む。
【0037】
処理装置180は、1または2以上のCPU(Central Processing Unit)を含む。1または2以上のCPUは、1または2以上のプロセッサの一例である。処理装置、プロセッサおよびCPUの各々は、コンピュータの一例である。処理装置180が有する機能の一部又は全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路で実現されてもよい。
【0038】
処理装置180は、記憶装置170から処理プログラムと演算プログラムとを読み取る。処理装置180は、処理プログラムを実行することによって、特定部181、決定部183、取得部184、送信部185および出力制御部186として機能する。処理装置180は、演算プログラムを実行しつつ複数の変数K1を用いることによって、学習済みモデル182として機能する。処理装置180は、情報処理装置の一例である。
【0039】
特定部181は、生徒音情報a2を用いて、生徒楽器情報c2を特定する。生徒楽器情報c2は、楽器100Aの種類を示す。生徒楽器情報c2は、楽器の種類を示す楽器情報の一例である。楽器の種類(例えば、ピアノ)を示す楽器情報は、楽器(例えば、ピアノ)を示す楽器情報の一例である。生徒音情報a2は、楽器の種類に関連する関連情報の一例である。楽器の種類(例えば、ピアノ)に関連する関連情報は、楽器(例えば、ピアノ)に関する関連情報の一例である。生徒音情報a2がピアノの音を示す場合、特定部181は、楽器100Aの種類としてピアノを示す生徒楽器情報c2を特定する。特定部181は、例えば、学習済みモデル182を使用することによって、生徒楽器情報c2を特定する。
【0040】
学習済みモデル182は、ニューラルネットワーク(Neural Network)で構成される。例えば、学習済みモデル182は、深層ニューラルネットワーク(DNN:Deep Neural Network)で構成される。学習済みモデル182は、例えば、畳込ニューラルネットワーク(CNN:Convolutional Neural Network)で構成されてもよい。深層ニューラルネットワークと、畳込ニューラルネットワークとの各々は、ニューラルネットワークの一例である。学習済みモデル182は、複数種のニューラルネットワークの組合せで構成されてもよい。学習済みモデル182は、Self-Attention等の付加的な要素を有してもよい。学習済みモデル182は、ニューラルネットワークで構成されずに、隠れマルコフモデル(HMM:Hidden Markov Model)、またはサポートベクターマシーン(SVM:support vector machine)で構成されてもよい。
【0041】
学習済みモデル182は、楽器の種類に関連する第1情報と、第1情報が関連する楽器の種類を示す第2情報と、の関係を学習済みである。第1情報は、楽器に関する学習用関連情報の一例である。第2情報は、学習用関連情報から特定される楽器を示す学習用楽器情報の一例である。学習済みモデル182は、第1情報として、楽器が出力する音を示す出力音情報を用いる。学習済みモデル182は、第2情報として、出力音情報が示す音を出力する楽器の種類を示す情報を用いる。学習済みモデル182は、第1学習済みモデルの一例である。
【0042】
学習済みモデル182を実現するために用いられる複数の変数K1は、複数の訓練データT1を利用した機械学習によって特定される。訓練データT1は、訓練用の入力データと、訓練用の出力データと、の組合せを含む。訓練データT1は、訓練用の入力データとして第1情報を含む。訓練データT1は、訓練用の出力データとして第2情報を含む。訓練データT1の一例は、楽器が出力する音を示す出力音情報(第1情報)と、出力音情報が示す音を出力する楽器の種類を示す情報(第2情報)と、の組合せである。
【0043】
学習済みモデル182は、入力X1に応じた出力Y1を生成する。学習済みモデル182は、入力X1として「楽器の種類に関連する関連情報(例えば、生徒音情報a2)」を用い、出力Y1として「関連情報が示す音を出力する楽器の種類を示す情報」を用いる。
【0044】
なお、複数の訓練データT1は、訓練用の出力データ(第2情報)を有さずに訓練用の入力データ(第1情報)のみを有してもよい。この場合、複数の訓練データT1が複数の訓練データT1の類似度に基づいて複数のクラスタに分けられるように、機械学習によって複数の変数K1が特定される。そして、学習済みモデル182において、クラスタごとに、当該クラスタに適した第2情報が人によって対応づけられる。学習済みモデル182は、入力X1に応じたクラスタを特定し、特定したクラスタに対応する第2情報を、出力Y1として生成する。
【0045】
決定部183は、楽器情報(生徒楽器情報c1またはc2)に基づいて、楽器情報が示す種類の楽器を用いる演奏者(例えば、生徒100B)における身体から注目箇所を決定する。楽器情報が示す種類の楽器を用いる演奏者は、楽器情報が示す楽器を演奏する演奏者の一例である。注目箇所は、楽器情報が示す種類の楽器についての教師によって注目される身体の箇所である。決定部183は、楽器の種類と、身体の箇所(注目箇所)と、の対応関係を示す対応テーブルTaを参照することによって、注目箇所を決定する。注目箇所は、例えば、生徒100Bの手の各指、生徒100Bの両足、生徒100Bの全身、生徒100Bの口および生徒100Bの上半身のうち少なくとも1つである。対応テーブルTaは、記憶装置170に記憶される。
【0046】
取得部184は、種々の情報を取得する。例えば、取得部184は、決定部183が決定した注目箇所の画像を表す画像情報を取得する。取得部184は、生徒指情報a11、生徒足情報a12、生徒全身情報a13、生徒口情報a14および生徒上半身情報a15のうち、決定部183が決定した注目箇所の画像を表す情報を、対象画像情報として取得する。対象画像情報は、画像情報の一例である。取得部184は、対象画像情報を用いることによって、生徒画像情報a1を生成する。例えば、取得部184は、対象画像情報を含む生徒画像情報a1を生成する。
【0047】
送信部185は、取得部184が生成した生徒画像情報a1を、通信部160から先生指導システム200に送信する。先生指導システム200は、送信先の一例である。送信先は、外部機器の一例である。
【0048】
出力制御部186は、表示部130およびスピーカ140を制御する。例えば、出力制御部186は、先生画像情報b1に基づいて、先生画像を表示部130に表示させる。この場合、まず、取得部184が、通信部160から先生画像情報b1を取得する。取得部184は、先生画像情報b1を出力制御部186に提供する。出力制御部186は、先生画像情報b1を用いて先生画像を表示部130に表示させる。
【0049】
出力制御部186は、生徒画像情報a1に基づいて、生徒画像を表示部130に表示させてもよい。この場合、取得部184が、生徒画像情報a1を出力制御部186に提供する。出力制御部186は、生徒画像情報a1を用いて生徒画像を表示部130に表示させる。この場合、生徒100Bは、先生200Bが不在であっても、生徒画像情報a1が示す生徒画像(注目箇所の画像)を見ながら、楽器100Aの演奏を独習できる。また、先生指導システム200が存在せずに少なくとも生徒教習システム100が存在する状況であれば、生徒100Bは、生徒画像情報a1が示す生徒画像(注目箇所の画像)を見ながら、楽器100Aの演奏を独習できる。
【0050】
出力制御部186は、先生画像情報b1と生徒画像情報a1とに基づいて、先生画像と生徒画像とを相互に並べて表示部130に表示させてもよい。この場合、取得部184が、先生画像情報b1と生徒画像情報a1との各々を上述のように取得する。取得部184は、先生画像情報b1と生徒画像情報a1とを出力制御部186に提供する。出力制御部186は、先生画像情報b1と生徒画像情報a1とに基づいて、先生画像と生徒画像とを相互に並べて表示部130に表示させる。
【0051】
出力制御部186は、先生音情報b2に基づいて、先生演奏音をスピーカ140に出力させる。この場合、まず、取得部184が、通信部160から先生音情報b2を取得する。取得部184は、先生音情報b2を出力制御部186に提供する。出力制御部186は、先生音情報b2を用いて先生演奏音をスピーカ140に出力させる。
【0052】
出力制御部186は、生徒音情報a2に基づいて、生徒演奏音をスピーカ140に出力させてもよい。この場合、まず、取得部184が、マイク120から生徒音情報a2を取得する。取得部184は、生徒音情報a2を出力制御部186に提供する。出力制御部186は、生徒音情報a2を用いて生徒演奏音をスピーカ140に出力させる。
【0053】
出力制御部186は、先生音情報b2と生徒音情報a2とに基づいて、先生演奏音と生徒演奏音とを交互にスピーカ140に出力させてもよい。この場合、取得部184が、先生音情報b2と生徒音情報a2との各々を上述のように取得する。取得部184は、先生音情報b2と生徒音情報a2とを出力制御部186に提供する。出力制御部186は、先生音情報b2と生徒音情報a2とに基づいて、先生演奏音と生徒演奏音とを交互にスピーカ140に出力させる。
【0054】
A3:先生指導システム200
先生指導システム200は、生徒100Bではなく先生200Bによって利用される点において、生徒教習システム100と異なる。先生指導システム200の構成は、上述の通り生徒教習システム100の構成と同一である。
【0055】
先生指導システム200の構成の主な説明は、上述の生徒教習システム100の説明において、以下の読み替えを行うことによって実現される。「楽器100A」を「楽器200A」と読み替える。「生徒100B」を「先生200B」と読み替える。「生徒演奏情報a」を「先生演奏情報b」と読み替える。「生徒画像情報a1」を「先生画像情報b1」と読み替える。「生徒指情報a11」を「先生指情報b11」と読み替える。「生徒足情報a12」を「先生足情報b12」と読み替える。「生徒全身情報a13」を「先生全身情報b13」と読み替える。「生徒口情報a14」を「先生口情報b14」と読み替える。「生徒上半身情報a15」を「先生上半身情報b15」と読み替える。「生徒音情報a2」を「先生音情報b2」と読み替える。「生徒楽器情報c1、c2」を「先生楽器情報d1、d2」と読み替える。「先生演奏情報b」を「生徒演奏情報a」と読み替える。「先生画像情報b1」を「生徒画像情報a1」と読み替える。「先生音情報b2」を「生徒音情報a2」と読み替える。このため、先生指導システム200の構成について詳細な説明は割愛する。
【0056】
A4:対応テーブルTa
図3は、対応テーブルTaの一例を示す図である。対応テーブルTaは、楽器の種類と、身体の箇所(注目箇所)と、の対応関係を示す。対応テーブルTaにおける楽器の種類の欄は、教習の対象である楽器の種類を示す。対応テーブルTaは、楽器の種類として、「ピアノ」と「フルート」を示す。対応テーブルTaにおける身体の箇所(注目箇所)の欄は、楽器の種類の欄に示された楽器についての教習において画像として必要な演奏者の身体の箇所を示す。
【0057】
ピアノの教習では、生徒は、生徒が好む姿勢でピアノに向き合い、生徒の手の各指でピアノの鍵盤を押し、生徒の足でピアノのダンパーペダルを操作する。先生は、生徒を指導するために、生徒の手の各指、生徒の両足および生徒の全身(例えば、姿勢)に注目する。例えば、先生は、楽曲のパッセージ部分における手の各指の動きを指導するために、生徒の手の各指に注目する。先生は、ダンパーペダルの操作を指導するために、生徒の足に注目する。先生は、正しい打鍵を指導するために、生徒の手の各指と鍵盤との位置関係に注目する。先生は、演奏時における生徒の姿勢を指導するために、生徒の全身に注目する。先生は、先生の手の各指、先生の両足および先生の全身(姿勢等)の少なくとも1つを生徒に示すことによって、生徒を指導する。このため、対応テーブルTaでは、楽器の種類「ピアノ」は、身体の箇所「手の各指、両足および全身」と対応づけられる。
【0058】
フルートの教習では、生徒は、生徒の上半身付近にフルートを位置させ、生徒の口からフルートに息を吹き込み、生徒の指でフルートのキーを操作する。先生は、生徒を指導するために、生徒の口および生徒の上半身(例えば、生徒の姿勢、生徒とフルートとの角度および生徒の指使い)に注目する。例えば、先生は、演奏時における唇の形を指導するために、生徒の口に注目する。先生は、生徒とフルートとの位置関係を指導するために、生徒の上半身に注目する。先生は、先生の口および先生の上半身の少なくとも1つを生徒に示すことによって、生徒を指導する。このため、対応テーブルTaでは、楽器の種類「フルート」が、身体の箇所「口および上半身」と対応づけられる。
【0059】
A5:生徒教習システム100の動作
図4は、生徒教習システム100が生徒演奏情報aを送信する動作を説明するための図である。なお、記憶装置170は、カメラ111~115の各々の撮像対象を示す撮像対象情報を記憶している。
【0060】
生徒100Bは、生徒教習システム100に楽器100Aの種類を特定させるために、楽器100Aを鳴らす。ステップS101においてマイク120は、楽器100Aから出力された音に基づいて、生徒音情報a2を生成する。
【0061】
続いて、ステップS102において特定部181は、生徒音情報a2を用いて、楽器100Aの種類を示す生徒楽器情報c2を特定する。
【0062】
ステップS102では、特定部181は、まず、生徒音情報a2を学習済みモデル182に入力する。続いて、特定部181は、生徒音情報a2の入力に応じて学習済みモデル182が出力する情報を、生徒楽器情報c2として特定する。
【0063】
続いて、ステップS103において決定部183は、生徒楽器情報c2に基づいて、演奏者である生徒100Bにおける身体から注目箇所を決定する。
【0064】
ステップS103では、決定部183は、対応テーブルTaにおいて、生徒楽器情報c2が示す楽器の種類に対応する身体の箇所を、注目箇所として決定する。例えば、生徒楽器情報c2がピアノを示す場合、決定部183は、生徒100Bの手の各指、生徒100Bの両足、および生徒100Bの全身の各々を、生徒100Bにおける注目箇所として決定する。
【0065】
なお、操作部150が生徒100B等のユーザから楽器100Aの種類を示す生徒楽器情報c1を受け取る場合、ステップS103において決定部183は、生徒楽器情報c1に基づいて、生徒100Bにおける身体の注目箇所を決定してもよい。
【0066】
続いて、ステップS104において取得部184は、注目箇所に基づいて、カメラ111~115の中から、生徒100Bの撮像に用いるカメラ(以下「使用カメラ」と称する)を決定する。
【0067】
ステップS104では、取得部184は、カメラ111~115の各々の撮像対象を示す撮像対象情報を参照することによって、カメラ111~115のうち注目箇所を撮像するカメラを、使用カメラとして決定する。
【0068】
続いて、ステップS105において取得部184は、使用カメラが生成する情報を、対象画像情報として取得する。
【0069】
続いて、ステップS106において取得部184は、対象画像情報を用いることによって、生徒画像情報a1を生成する。
【0070】
例えば、カメラ114および115の各々が使用カメラである場合、取得部184は、カメラ114が生成する生徒口情報a14と、カメラ115が生成する生徒上半身情報a15と、を含む生徒画像情報a1を生成する。図5は、生徒画像情報a1によって示される生徒画像G3の一例を示す図である。生徒画像G3は、生徒口情報a14が示す画像G1と、生徒上半身情報a15が示す画像G2と、の各々を含む。
【0071】
続いて、図4のステップS107において送信部185は、生徒画像情報a1と生徒音情報a2とを含む生徒演奏情報aを、通信部160から先生指導システム200に送信する。
【0072】
先生指導システム200も、生徒教習システム100と同様に動作することによって、先生演奏情報bを、生徒教習システム100に送信する。
【0073】
図6は、生徒教習システム100が先生演奏情報bに基づいて先生画像および先生演奏音を出力する動作を説明するための図である。
【0074】
ステップS201において通信部160は、先生演奏情報bを受信する。先生演奏情報bは、先生画像情報b1と先生音情報b2とを含む。
【0075】
続いて、ステップS202において出力制御部186は、先生画像情報b1に基づく先生画像を表示部130に表示する。
【0076】
続いて、ステップS203において出力制御部186は、先生音情報b2に基づく先生演奏音をスピーカ140から出力する。なお、ステップS203が実行されるタイミングは、ステップS202が実行されるタイミングよりも前でもよい。
【0077】
先生指導システム200も、生徒教習システム100と同様に動作することによって、生徒画像情報a1に基づく生徒画像を表示し、かつ、生徒音情報a2に基づく生徒演奏音を出力する。
【0078】
本実施形態によれば、楽器の種類に応じて(楽器に応じて)、楽器を使った演奏の教習に必要な演奏者(生徒または先生)の画像を特定できる。また、本実施形態は、教習に必要な演奏者の画像を送信先に伝えることができる。このため、先生200Bは、生徒100Bが楽器100Aを演奏する部屋とは異なる部屋に居ても、楽器100Aを使った演奏の指導に必要な生徒100Bの画像を観察できる。生徒100Bは、先生200Bが楽器200Aを演奏する部屋とは異なる部屋に居ても、楽器200Aを使った演奏の手本である先生200Bによる演奏の画像を見ることができる。
【0079】
生徒教習システム100の決定部183は、生徒楽器情報c1またはc2の代わりに、先生楽器情報d1またはd2を用いて、注目箇所を決定してもよい。例えば、先生指導システム200の通信部160は、先生楽器情報d1またはd2を生徒教習システム100に送信する。生徒教習システム100の決定部183は、生徒教習システム100の通信部160を介して先生楽器情報d1またはd2を入手する。この場合、生徒教習システム100において、特定部181および学習済みモデル182を省略できる。
【0080】
先生指導システム200の決定部183は、先生楽器情報d1またはd2の代わりに、生徒楽器情報c1またはc2を用いて、注目箇所を決定してもよい。例えば、生徒教習システム100の通信部160は、生徒楽器情報c1またはc2を先生指導システム200に送信する。先生指導システム200の決定部183は、先生指導システム200の通信部160を介して生徒楽器情報c1またはc2を入手する。この場合、先生指導システム200において、特定部181および学習済みモデル182を省略できる。
【0081】
B:変形例
上述の実施形態における変形の態様を以下に示す。以下の態様から任意に選択された2個以上の態様が、相互に矛盾しない範囲において適宜に併合されてもよい。
【0082】
B1:第1変形例
上述の実施形態において、楽器の種類は、ピアノとフルートに限らず、2種類以上であればよい。例えば、楽器の種類は、ピアノ、フルート、エレクトーン(登録商標)、バイオリン、ギター、サクソフォンおよびドラムのうち2つ以上であればよい。ピアノ、フルート、エレクトーン、バイオリン、ギター、サクソフォンおよびドラムは、それぞれ、楽器の一例である。
【0083】
図7は、楽器の種類が、ピアノ、フルート、エレクトーン、バイオリン、ギター、サクソフォンおよびドラムである場合に用いられる対応テーブルTa1の一例を示す図である。
【0084】
例えばエレクトーンの教習では、生徒は、以下のようにエレクトーンを操作する。生徒は、生徒が好む姿勢でエレクトーンに向き合う。生徒は、生徒の手の各指でエレクトーンの上鍵盤および下鍵盤を操作する。生徒は、生徒の足(つま先、かかと)でエレクトーンのペダル鍵盤を操作する。生徒は、生徒の右足でエレクトーンのエクスプレッションペダルを操作する。
【0085】
エレクトーンの教習において、先生は、生徒を指導するために、生徒の手の各指、生徒の両足(特に、右足)および生徒の全身(例えば、姿勢)に注目する。先生は、先生の手の各指、先生の両足(特に、右足)および先生の全身(姿勢等)の少なくとも1つを生徒に示すことによって、生徒を指導する。
【0086】
このため、対応テーブルTa1では、楽器の種類「エレクトーン」は、身体の箇所「手の各指、両足、右足および全身」と対応づけられる。
【0087】
バイオリンの教習では、生徒は、以下のようにバイオリンを操作する。生徒は、生徒のあごと肩と左手でバイオリンを支え、生徒の右手で弓を持つ。生徒は、生徒の左手の指でバイオリンの弦を押さえる。生徒は、生徒に対するバイオリンの角度、バイオリンに対する弓の角度、およびバイオリンの絃に対する生徒の左手の指の位置の各々を変更しながらバイオリンを演奏する。
【0088】
バイオリンの教習において、先生は、生徒を指導するために、生徒の上半身(生徒とバイオリンとの位置関係)および生徒の左手に注目する。先生は、先生の上半身(先生とバイオリンとの位置関係)および先生の左手の少なくとも1つを生徒に示すことによって、生徒を指導する。
【0089】
このため、対応テーブルTa1では、楽器の種類「バイオリン」が、身体の箇所「上半身および左手」と対応づけられる。
【0090】
ギターの教習では、生徒は、生徒の左手でギターの弦を押さえ、生徒の右手でギターの絃を弾く。先生は、生徒を指導するために、生徒の右手および生徒の左手に注目する。先生は、先生の右手および先生の左手の少なくとも1つを生徒に示すことによって、生徒を指導する。
【0091】
このため、対応テーブルTa1では、楽器の種類「ギター」が、身体の箇所「左手および右手」と対応づけられる。
【0092】
サクソフォンの教習では、生徒は、生徒の上半身付近にサクソフォンを位置させ、生徒の口でサクソフォンのリードをくわえ、生徒の手の指でサクソフォンのキーおよびレバーを操作する。先生は、生徒を指導するために、生徒の口および生徒の上半身(例えば、サクソフォンのリードのくわえ方、サクソフォンのマウスピースへの口の当て方、生徒の姿勢、生徒とサクソフォンの角度および生徒の指使い)に注目する。先生は、先生の口および先生の上半身の少なくとも1つを生徒に示すことによって、生徒を指導する。
【0093】
このため、対応テーブルTa1では、楽器の種類「サクソフォン」が、身体の箇所「口および上半身」と対応づけられる。
【0094】
ドラムの教習では、生徒は、生徒の手足を使ってドラムを演奏する。先生は、生徒を指導(例えば、手足を動かすタイミングを指導)するために、生徒の手足および生徒の全身に注目する。先生は、先生の手足の動きおよび先生の全身を生徒に示すことによって、生徒を指導する。
【0095】
このため、対応テーブルTa1では、楽器の種類「ドラム」が、身体の箇所「手、足および全身」と対応づけられる。
【0096】
なお、生徒教習システム100および先生指導システム200の各々は、対応テーブルTa1に示される身体の箇所を撮像するためのカメラを有する。
【0097】
第1変形例によれば、ピアノおよびフルートのいずれとも異なる楽器の種類に応じて、楽器を使った演奏の教習に必要な演奏者の画像を切り換えることができ、当該画像を送信先に伝えることができる。
【0098】
B2:第2変形例
上述の実施形態および第1変形例において、決定部183は、対応テーブルTaおよびTa1のいずれも用いることなく、演奏者の身体における注目箇所を決定してもよい。例えば、決定部183は、楽器の種類と身体の箇所との関係を学習した学習済みモデルを用いることによって、演奏者の身体における注目箇所を決定してもよい。
【0099】
図8は、楽器の種類と身体の箇所との関係を学習した学習済みモデル187を含む生徒教習システム101を示す図である。
【0100】
学習済みモデル187は、ニューラルネットワークで構成される。例えば、学習済みモデル187は、深層ニューラルネットワークで構成される。学習済みモデル187は、例えば、畳込ニューラルネットワークで構成されてもよい。学習済みモデル187は、複数種のニューラルネットワークの組合せで構成されてもよい。学習済みモデル187は、Self-Attention等の付加的な要素を有してもよい。学習済みモデル187は、ニューラルネットワークで構成されずに、隠れマルコフモデル、またはサポートベクターマシーンで構成されてもよい。
【0101】
処理装置180は、入力X1から出力Y1を特定する演算を規定する演算プログラムと、複数の変数K2と、の組合せに基づいて、学習済みモデル187として機能する。複数の変数K2は、複数の訓練データT2を利用した機械学習によって特定される。訓練データT2は、楽器の種類を示す情報(訓練用の入力データ)と、身体の箇所を示す情報(訓練用の出力データ)と、の組合せを含む。訓練データT2において楽器の種類を示す情報は、例えば、図7に示される楽器の種類を示す。訓練データT2において身体の箇所を示す情報は、例えば、図7に示される身体の箇所を示す。訓練データT2において、楽器の種類を示す情報と身体の箇所を示す情報との組合せは、図7に示される楽器の種類と身体の箇所との組合せに対応する。このため、訓練データT2において身体の箇所を示す情報は、訓練データT2の訓練用の入力データが示す種類の楽器を用いる演奏者の身体において、当該楽器の教師によって注目される箇所(注目箇所)を示す。
【0102】
決定部183は、生徒楽器情報c1またはc2を学習済みモデル187に入力する。続いて、決定部183は、生徒楽器情報c1またはc2の入力に応じて学習済みモデル187が出力する情報によって示される個所を、演奏者の身体における注目箇所として決定する。
【0103】
なお、複数の訓練データT2は、訓練用の出力データを有さずに訓練用の入力データのみを有してもよい。この場合、複数の訓練データT2が複数の訓練データT2の類似度に基づいて複数のクラスタに分けられるように、機械学習によって複数の変数K2が特定される。そして、学習済みモデル187において、クラスタごとに、当該クラスタに適した身体の箇所(注目箇所)を示す情報が人によって対応づけられる。学習済みモデル187は、入力X1に応じたクラスタを特定し、特定したクラスタに対応する情報を、出力Y1として生成する。
【0104】
第2変形例によれば、決定部183は、対応テーブルTaおよびTa1のいずれも用いることなく、演奏者における身体の箇所を決定できる。
【0105】
B3:第3変形例
上述の実施形態および第1~第2変形例において、注目箇所が身体の一部(例えば、両足)である場合、取得部184は、演奏者の全身を示す全身画像情報から、注目箇所を示す画像情報を取得してもよい。
【0106】
図9は、全身画像情報が示す画像G11と、演奏者の身体の一部を示す画像G12と、の関係の一例を示す図である。画像G12は、演奏者の身体の一部として、演奏者の両足を示す。画像G12は、演奏者の身体の一部として、演奏者の両足とは異なる箇所を示してもよい。
【0107】
画像G11における画像G12の位置は、楽器の種類ごとに、ピクセル単位で予め設定される。このため、画像G11における画像G12の位置は、楽器の種類に応じて変更可能である。取得部184は、画像G11を表す全身画像情報から、生徒楽器情報c1またはc2が示す種類に応じて予め設定された部分を、画像G12を表す画像情報として取得する。
【0108】
画像G11における画像G12の位置は、楽器の種類ごとに、予め設定されなくてもよい。例えば、取得部184は、まず、画像認識技術を用いることによって、画像G1から注目箇所を示す部分を特定する。続いて、取得部184は、全身画像情報から、注目箇所を示す部分を取得する。
【0109】
取得部184は、フルート、バイオリン、ギターおよびサクソフォンのように演奏者と楽器との位置関係が変化しやすい楽器についてのみ、画像認識技術を用いて画像G11における画像G12の位置を特定してもよい。この場合、画像G11における画像G12の位置が固定される構成に比べて、注目箇所を示す画像情報を取得しやすくなる。
【0110】
取得部184は、ピアノ、エレクトーンおよびドラムのように演奏者と楽器との位置関係が変化しにくい楽器については、全身画像情報から、生徒楽器情報c1またはc2が示す種類に応じて予め設定された部分を、画像G12を表す画像情報として取得する。この場合、取得部184は、画像認識技術を用いることなく、画像G12の位置を容易に特定できる。
【0111】
第3変形例によれば、複数のカメラを複数の身体の箇所(注目箇所)と1対1で対応させる構成に比べて、カメラの数を少なくできる。
【0112】
B4:第4変形例
上述の実施形態および第1~第3変形例において、先生演奏情報bの送信先は、生徒教習システム100に限らず、例えば、生徒100Bの保護者(例えば、生徒100Bの親)が使用する電子機器でもよい。電子機器は、例えば、スマートフォン、タブレットまたはノート型パーソナルコンピュータである。先生演奏情報bの送信先は、生徒教習システム100と、生徒100Bの保護者が使用する電子機器と、の両方でもよい。
【0113】
第4変形例によれば、生徒100Bの保護者が、先生の映像を見ながら、生徒100Bを指導できる。
【0114】
B5:第5変形例
上述の実施形態および第1~第4変形例において、楽器の種類に関連する関連情報(楽器に関する関連情報)は、生徒音情報a2に限らない。関連情報は、楽器100Aを示す画像情報(楽器100Aを表す画像を示す画像情報)でもよい。
【0115】
楽器100Aを示す画像情報が、関連情報として用いられる構成では、特定部181は、楽器を画像で示す情報と、当該情報が画像で示す楽器の種類を示す情報と、の関係を学習した学習済みモデルを用いることによって、楽器情報(生徒楽器情報c2)を特定する。
【0116】
図10は、楽器を画像で示す情報と、楽器の種類を示す情報と、の関係を学習した学習済みモデル188を含む生徒教習システム102を示す図である。学習済みモデル188は、第1学習済みモデルの一例である。
【0117】
学習済みモデル188は、ニューラルネットワークで構成される。例えば、学習済みモデル188は、深層ニューラルネットワークで構成される。学習済みモデル188は、例えば、畳込ニューラルネットワークで構成されてもよい。学習済みモデル188は、複数種のニューラルネットワークの組合せで構成されてもよい。学習済みモデル188は、Self-Attention等の付加的な要素を有してもよい。学習済みモデル188は、ニューラルネットワークで構成されずに、隠れマルコフモデル、またはサポートベクターマシーンで構成されてもよい。
【0118】
処理装置180は、入力X1から出力Y1を特定する演算を規定する演算プログラムと、複数の変数K3と、の組合せに基づいて、学習済みモデル188として機能する。複数の変数K3は、複数の訓練データT3を利用した機械学習によって特定される。訓練データT3は、楽器を画像で示す情報(訓練用の入力データ)と、訓練用の入力データが画像で示す楽器の種類を示す情報(訓練用の出力データ)と、の組合せを含む。
【0119】
特定部181は、楽器100Aを示す画像情報を学習済みモデル188に入力する。続いて、特定部181は、楽器100Aを示す画像情報の入力に応じて学習済みモデル188が出力する情報を、生徒楽器情報c2として特定する。
【0120】
なお、複数の訓練データT3は、訓練用の出力データを有さずに訓練用の入力データのみを有してもよい。この場合、複数の訓練データT3が複数の訓練データT3の類似度に基づいて複数のクラスタに分けられるように、機械学習によって複数の変数K3が特定される。そして、学習済みモデル188において、クラスタごとに、当該クラスタに適した「楽器の種類を示す情報」が人によって対応づけられる。学習済みモデル188は、入力X1に応じたクラスタを特定し、特定したクラスタに対応する情報を、出力Y1として生成する。
【0121】
第5変形例によれば、楽器100Aを示す画像情報を、楽器を示す関連情報として用いることができる。
【0122】
B6:第6変形例
第5変形例において、特定部181は、楽器100Aを示す画像情報として、カメラ111~115のいずれかが生成する情報(以下「カメラ画像情報」と称する)を用いてもよい。
【0123】
カメラ画像情報は、楽器100Aと生徒100Bの他に、楽器100Aとは異なる種類の楽器を示すことがある。複数種類の楽器を示すカメラ画像情報が学習済みモデル188に入力される場合、学習済みモデル188から出力される情報が楽器100Aの種類を示さない可能性がある。このため、特定部181は、まず、カメラ画像情報から、楽器100Aのみを示す部分画像情報を抽出する。その後、特定部181は、部分画像情報を学習済みモデル188に入力する。
【0124】
例えば、特定部181は、まず、カメラ画像情報が示す画像から、人間(生徒100B)を特定する。人間は、楽器に比べて認識しやすい。続いて、特定部181は、カメラ画像情報が示す画像において、人間(生徒100B)との距離が最も短い物体を、楽器100Aとして特定する。続いて、特定部181は、楽器100Aとして特定された物体のみを示す部分画像情報をカメラ画像情報から抽出する。続いて、特定部181は、部分画像情報を学習済みモデル188に入力する。
【0125】
第6変形例によれば、カメラ111~115のいずれかが生成するカメラ画像情報を、楽器の種類に関連する関連情報として用いることができる。このため、カメラ111~115のいずれかを、関連情報を生成する機器として兼用できる。
【0126】
B7:第7変形例
上述の実施形態および第1~第6変形例において、楽器の種類に関連する関連情報は、楽器の種類に応じた楽譜を示す楽譜情報でもよい。楽器の種類(例えば、ギター)に応じた楽譜は、楽器(例えば、ギター)に応じた楽譜の一例である。楽譜は、譜面とも称される。楽譜情報は、例えば、楽譜を撮像するカメラによって生成される。カメラ111~115のいずれかが楽譜情報を生成する場合、カメラ111~115のいずれかを、楽譜情報を生成する機器として兼用できる。
【0127】
特定部181は、楽譜情報が示す楽譜に基づいて、生徒楽器情報c2を特定する。例えば、特定部181は、楽譜の種類に基づいて、生徒楽器情報c2を特定する。
【0128】
楽譜情報によって示される楽譜が、タブ譜である場合、特定部181は、楽器の種類としてギターを示す生徒楽器情報c2を特定する。タブ譜は、図11に示すように、互いに平行な6本の線でギターの絃を示す。このため、楽譜情報によって示される楽譜が、互いに平行な6本の線で構成される場合、特定部181は、楽譜情報によって示される楽譜が、タブ譜であると判定する。
【0129】
楽譜情報によって示される楽譜が、ギターコード譜である場合、特定部181は、楽器の種類としてギターを示す生徒楽器情報c2を特定する。ギターコード譜は、図12に示すように、歌詞の並びに沿うギターコードを表す。このため、楽譜情報によって示される楽譜が、ギターコードを表す場合、特定部181は、楽譜情報によって示される楽譜が、ギターコード譜であると判定する。
【0130】
楽譜情報によって示される楽譜が、ドラム譜である場合、特定部181は、楽器の種類としてドラムを示す生徒楽器情報c2を特定する。ドラム譜は、図13に示すように、ドラムセットに含まれる各楽器に対応する記号を表す。このため、楽譜情報によって示される楽譜が、ドラムセットの各楽器に対応する記号を表す場合、特定部181は、楽譜情報によって示される楽譜が、ドラム譜であると判定する。
【0131】
楽譜情報によって示される楽譜が、連弾譜である場合、特定部181は、楽器の種類としてピアノを示す生徒楽器情報c2を特定する。連弾譜は、図14に示すように、連弾を示す記号14aを表す。このため、楽譜情報によって示される楽譜が、連弾を示す記号14aを表す場合、特定部181は、楽譜情報によって示される楽譜が、連弾譜であると判定する。
【0132】
特定部181は、楽譜情報が示す楽譜における音符の並びに基づいて、生徒楽器情報c2を特定してもよい。図15に示すように、楽譜情報によって示される楽譜が、複数音の同時発音を示す音符15aを表す場合、特定部181は、楽譜情報によって示される楽譜が、鍵盤楽器(例えば、ピアノまたはエレクトーン)用の楽譜であると特定する。この場合、特定部181は、楽器の種類としてピアノまたはエレクトーンを示す生徒楽器情報c2を特定する。
【0133】
楽譜情報によって示される楽譜が、楽器の種類を特定する記号(例えば、楽器名を表す文字列、または、楽器の種類に関する符号)を示す場合、特定部181は、当該記号によって特定される楽器の種類を示す情報を、生徒楽器情報c2として特定してもよい。例えば、記憶装置170が、楽器の種類を示す情報と、楽器の種類に関する符号と、の対応関係を示す楽器テーブルを記憶する場合、特定部181は、楽器テーブルを参照することにより、楽譜に示された符号に対応する情報(楽器の種類を示す情報)を、生徒楽器情報c2として特定する。この場合、楽器の種類に関する符号は、関連情報の一例である。楽器テーブルは、楽器の種類に関連する情報と楽器の種類を示す情報との対応関係を示すテーブルの一例である。楽器の種類に関連する情報は、楽器に関する参照用関連情報の一例である。楽器の種類を示す情報は、楽器を示す参照用楽器情報の一例である。
【0134】
楽譜情報は、楽譜を撮像するカメラによって生成される情報に限らず、いわゆる電子楽譜でもよい。電子楽譜が、楽器の種類を示す種類データを有する場合、特定部181は、種類データを、生徒楽器情報c2として特定してもよい。
【0135】
第7変形例によれば、楽譜情報を、楽器の種類に関連する関連情報として用いることができる。
【0136】
B8:第8変形例
上述の実施形態および第1~第7変形例において、生徒100Bのスケジュールを示すスケジュール情報が、楽器の種類を示す場合、楽器の種類に関連する関連情報としてスケジュール情報が用いられてもよい。スケジュール情報は、楽器の種類と、当該種類の楽器の教習スケジュールと、の組合せを示していれば、生徒100B、先生200B、音楽教室における生徒用の部屋、および、音楽教室における先生用の部屋のいずれかのスケジュールを示してもよい。楽器の種類(例えば、ピアノ)と、当該種類の楽器(例えば、ピアノ)の教習スケジュールと、の組合せは、楽器(例えば、ピアノ)と、当該楽器(例えば、ピアノ)の教習スケジュールと、の組合せの一例である。
【0137】
図16は、スケジュール情報が示すスケジュールの一例を示す図である。図16では、教習(レッスン)の時間帯ごとに、教習対象の楽器の種類(ピアノ、フルートまたはバイオリン)が示される。特定部181は、まず、スケジュール情報を用いて、現在の時刻が含まれる教習の時間帯を特定する。続いて、特定部181は、特定した時間帯に対応する教習対象の楽器の種類を特定する。続いて、特定部181は、特定した教習対象の楽器の種類を示す情報を、生徒楽器情報c2として特定する。
【0138】
図17は、スケジュール情報が示すスケジュールの他の例を示す図である。図17では、教習の日付ごとに、教習対象の楽器の種類が示される。特定部181は、まず、スケジュール情報を用いて、現在の日付に対応する教習対象の楽器の種類を特定する。続いて、特定部181は、特定した教習対象の楽器の種類を示す情報を、生徒楽器情報c2として特定する。
【0139】
第8変形例によれば、スケジュール情報を、楽器の種類に関連する関連情報として兼用できる。
【0140】
B9:第9変形例
上述の実施形態および第1~第8変形例において、決定部183は、生徒楽器情報c1またはc2と、生徒音情報a2と、に基づいて、注目箇所を決定してもよい。
【0141】
ピアノの教習では、先生200Bは、指導に使われる楽曲のうち曲調の早い部分について、生徒100Bの手の各指の動きに注目することが多い。このため、ピアノの教習において、生徒音情報a2によって示される生徒演奏音が、楽曲のうち曲調の早い部分の直前部分を示す場合、決定部183は、注目箇所として、手の各指のみを決定する。その後、生徒音情報a2によって示される生徒演奏音が、曲調の早い部分の直後部分を示すと、決定部183は、注目箇所として、演奏者の手の各指、演奏者の両足および演奏者の全身を決定する。
【0142】
この場合、記憶装置170は、曲調の早い部分の直前部分と、曲調の早い部分の直後部分と、を示す楽譜データを記憶する。決定部183は、生徒音情報a2に基づいて、生徒演奏音を示す音符データを生成する。音符データが、楽譜データのうち曲調の早い部分の直前部分と一致する場合、決定部183は、生徒演奏音が曲調の早い部分の直前部分を示すと判断する。なお、決定部183は、音符データと直前部分との一致度が第1閾値(例えば、90%)以上である場合に、生徒演奏音が直前部分を示すと判断してもよい。第1閾値は、90%に限らず適宜変更可能である。音符データが楽譜データのうち曲調の早い部分の直後部分と一致する場合、決定部183は、生徒演奏音が曲調の早い部分の直後部分を示すと判断する。なお、決定部183は、音符データと直後部分との一致度が第2閾値(例えば、90%)以上である場合に、生徒演奏音が直後部分を示すと判断してもよい。第2閾値は、90%に限らず適宜変更可能である。
【0143】
ピアノに関して、注目箇所が変更されるタイミングは、生徒演奏音が曲調の早い部分の直前部分を示すタイミング、および、生徒演奏音が曲調の早い部分の直後部分を示すタイミングに限らず適宜変更可能である。ピアノに関して、注目箇所の遷移は、上述した遷移に限らず適宜変更可能である。
【0144】
ピアノと異なる種類の楽器についても、決定部183は、生徒楽器情報c1またはc2と、生徒音情報a2と、に基づいて、注目箇所を決定してもよい。
【0145】
例えば、フルートの教習では、先生200Bは、楽曲の先頭部分については、生徒100Bの口の形に注目することが多い。このため、フルートの教習において、生徒音情報a2によって示される生徒演奏音が、楽曲の先頭部分を示す場合、決定部183は、注目箇所として、口のみを決定する。その後、生徒音情報a2によって示される生徒演奏音が、楽曲において先頭部分の直後部分を示すと、決定部183は、注目箇所として、演奏者の口および演奏者の上半身を決定する。
【0146】
この場合、記憶装置170は、楽曲における先頭部分と、楽曲における先頭部分の直後部分と、を示す楽譜データを記憶する。決定部183は、生徒音情報a2に基づいて、生徒演奏音を示す音符データを生成する。音符データが楽譜データのうち楽曲における先頭部分と一致する場合、決定部183は、生徒演奏音が楽曲における先頭部分を示すと判断する。なお、決定部183は、音符データと先頭部分との一致度が第3閾値(例えば、90%)以上である場合に、生徒演奏音が先頭部分を示すと判断してもよい。第3閾値は、90%に限らず適宜変更可能である。音符データが、楽譜データのうち楽曲における先頭部分の直後部分と一致する場合、決定部183は、生徒演奏音が楽曲における先頭部分の直後部分を示すと判断する。なお、決定部183は、音符データと先頭部分の直後部分との一致度が第4閾値(例えば、90%)以上である場合に、生徒演奏音が先頭部分の直後部分を示すと判断してもよい。第4閾値は、90%に限らず適宜変更可能である。
【0147】
フルートに関して、注目箇所が変更されるタイミングは、生徒演奏音が楽曲の先頭部分を示すタイミング、および、生徒演奏音が楽曲の先頭部分の直後部分を示すタイミングに限らず適宜変更可能である。フルートに関して、注目箇所の遷移は、上述した遷移に限らず適宜変更可能である。
【0148】
決定部183は、楽器の種類を示す楽器種類情報と、楽器種類情報が示す種類の楽器から出力される音を示す楽器音情報と、を含む情報と、演奏者の身体における注目箇所を示す情報と、の関係を学習した学習済みモデルを用いて注目箇所を決定してもよい。楽器種類情報は、楽器を示す学習用楽器情報の一例である。楽器音情報は、学習用楽器情報が示す楽器から出力される音を示す学習用音情報の一例である。楽器種類情報と楽器音情報とを含む情報は、学習用入力情報の一例である。演奏者の身体における注目箇所を示す情報は、楽器種類情報が示す種類の楽器から楽器音情報が示す音を出力する演奏者の身体において、当該楽器の教師によって注目される箇所を、注目箇所として示す。演奏者の身体における注目箇所を示す情報は、学習用楽器情報が示す楽器であって学習用音情報が示す音を出力する楽器を演奏する演奏者の身体において注目される箇所を示す学習用出力情報の一例である。
【0149】
図18は、楽器種類情報と楽器音情報との組合せと、注目箇所を示す情報と、の対応関係を学習した学習済みモデル189を含む生徒教習システム103を示す図である。学習済みモデル189は、第2学習済みモデルの一例である。
【0150】
学習済みモデル189は、ニューラルネットワークで構成される。例えば、学習済みモデル189は、深層ニューラルネットワークで構成される。学習済みモデル189は、例えば、畳込ニューラルネットワークで構成されてもよい。学習済みモデル189は、複数種のニューラルネットワークの組合せで構成されてもよい。学習済みモデル189は、Self-Attention等の付加的な要素を有してもよい。学習済みモデル189は、ニューラルネットワークで構成されずに、隠れマルコフモデル、またはサポートベクターマシーンで構成されてもよい。
【0151】
処理装置180は、入力X1から出力Y1を特定する演算を規定する演算プログラムと、複数の変数K4と、の組合せに基づいて、学習済みモデル189として機能する。複数の変数K4は、複数の訓練データT4を利用した機械学習によって特定される。訓練データT4は、楽器種類情報と楽器音情報との組(訓練用の入力データ)と、身体における注目箇所を示す注目箇所情報(訓練用の出力データ)と、の組合せを含む。注目箇所情報は、楽器種類情報が示す種類の楽器から楽器音情報が示す音を出力する演奏者の身体において、当該楽器の教師によって注目される箇所を、注目箇所として示す。
【0152】
楽器音情報は、演奏される楽曲の1小節ごとに用いられる。楽器音情報は、1小節ごとに限らず、例えば4小節ごとに用いられてもよい。注目箇所情報(訓練用の出力データ)は、訓練用の入力データ内の楽器音情報が示す小節の直後の小節の演奏時において、楽器種類情報が示す楽器を用いる演奏者の身体における注目箇所を示す。
【0153】
決定部183は、1小節ごとに、生徒楽器情報c1またはc2と生徒音情報a2との組を、学習済みモデル189に入力する。なお、決定部183は、生徒音情報a2に基づいて、生徒演奏音を示す音符データを生成し、当該音符データの並びに基づいて、生徒音情報a2における1小節を特定する。続いて、決定部183は、生徒楽器情報c1またはc2と生徒音情報a2との組の入力に応じて学習済みモデル189が出力する情報によって示される個所を、注目箇所として決定する。
【0154】
なお、複数の訓練データT4は、訓練用の出力データを有さずに訓練用の入力データのみを有してもよい。この場合、複数の訓練データT4が複数の訓練データT4の類似度に基づいて複数のクラスタに分けられるように、機械学習によって複数の変数K4が特定される。そして、学習済みモデル189において、クラスタごとに、当該クラスタに適した「身体の箇所(注目箇所)を示す情報」が人によって対応づけられる。学習済みモデル189は、入力X1に応じたクラスタを特定し、特定したクラスタに対応する情報を、出力Y1として生成する。
【0155】
第9変形例によれば、生徒楽器情報c1またはc2が示す種類の楽器の指導に必要な画像を、演奏音に基づいて特定できる。
【0156】
B10:第10変形例
第9変形例において、生徒教習システム100と先生指導システム200とが、1種類の楽器(例えば、ピアノ)の演奏に対する教習に用いられてもよい。1種類の楽器は、ピアノに限らず適宜変更可能である。この場合、決定部183は、生徒音情報a2に基づいて、演奏者の身体における注目箇所を決定する。例えば、決定部183は、楽器音情報(訓練用の入力データ)と、身体における注目箇所を示す注目箇所情報(訓練用の出力データ)と、の組合せである訓練データを学習済みのモデル(学習済みモデル)に対して、1小節ごとに、生徒音情報a2を入力する。この場合、身体における注目箇所を示す注目箇所情報(訓練用の出力データ)は、楽器音情報(訓練用の入力データ)が示す音を出力する楽器を用いる演奏者の身体において、当該楽器の教師によって注目される箇所(注目箇所)を示す。続いて、決定部183は、生徒音情報a2の入力に応じて当該学習済みモデルが出力する情報によって示される個所を、注目箇所として決定する。第10変形例によれば、楽器の指導に必要な画像を、演奏音に基づいて特定できる。
【0157】
B11:第11変形例
上述の実施形態および第1~第10変形例において、決定部183は、生徒音情報a2と、楽曲の楽譜を示す楽譜情報と、の対応関係に基づいて、身体における注目箇所を決定してもよい。生徒音情報a2と楽譜情報との対応関係は、生徒音情報a2と楽譜情報との関係の一例である。
【0158】
決定部183は、生徒音情報a2が示す音と、楽譜情報が示す楽譜に表された音と、の一致度を判定する。
【0159】
例えば、ピアノの教習では、生徒演奏音が乱れる場合、先生200Bは、生徒100Bの手の各指の動きに注目することが多い。ピアノの教習においては、一致度が閾値未満である場合、決定部183は、注目箇所として、手の各指のみを決定する。一致度が閾値以上である場合、決定部183は、注目箇所として、演奏者の手の各指、演奏者の両足および演奏者の全身を決定する。
【0160】
フルートの教習では、生徒演奏音が乱れる場合、先生200Bは、生徒100Bの口および上半身に注目することが多い。フルートの教習においては、一致度が閾値未満である場合、決定部183は、注目箇所として、口および上半身を決定する。一致度が閾値以上である場合、決定部183は、注目箇所として、演奏者の上半身を決定する。
【0161】
決定部183は、楽器から出力される音を示す出力音情報と、楽譜を示す楽譜関係情報と、を含む情報と、演奏者における身体の箇所を示す情報と、の関係を学習した学習済みモデルを用いて、注目箇所を決定してもよい。出力音情報は、楽器から出力される音を示す学習用音情報の一例である。楽譜関係情報は、楽譜を示す学習用楽譜情報の一例である。出力音情報と楽譜関係情報とを含む情報は、学習用入力情報の一例である。演奏者における身体の箇所を示す情報は、楽譜関係情報が示す楽譜に従って出力音情報が示す音を楽器から出力する演奏者の身体において注目される箇所(注目箇所)を示す。演奏者における身体の箇所を示す情報は、学習用楽譜情報が示す楽譜に従って学習用音情報が示す音を出力する楽器を演奏する演奏者の身体において注目される箇所を示す学習用出力情報の一例である。
【0162】
図19は、出力音情報と楽譜関係情報との組と、演奏者における身体の注目箇所を示す情報と、の関係を学習した学習済みモデル190を含む生徒教習システム104を示す図である。学習済みモデル190は、第3学習済みモデルの一例である。
【0163】
学習済みモデル190は、ニューラルネットワークで構成される。例えば、学習済みモデル187は、深層ニューラルネットワークで構成される。学習済みモデル190は、例えば、畳込ニューラルネットワークで構成されてもよい。学習済みモデル190は、複数種のニューラルネットワークの組合せで構成されてもよい。学習済みモデル190は、Self-Attention等の付加的な要素を有してもよい。学習済みモデル190は、ニューラルネットワークで構成されずに、隠れマルコフモデル、またはサポートベクターマシーンで構成されてもよい。
【0164】
処理装置180は、入力X1から出力Y1を特定する演算を規定する演算プログラムと、複数の変数K5と、の組合せに基づいて、学習済みモデル190として機能する。複数の変数K5は、複数の訓練データT5を利用した機械学習によって特定される。訓練データT5は、出力音情報と楽譜関係情報との組(訓練用の入力データ)と、身体における注目箇所を示す注目箇所情報(訓練用の出力データ)と、の組合せである。注目箇所情報(訓練用の出力データ)は、楽譜関係情報が示す楽譜に従って出力音情報が示す音を楽器から出力する演奏者の身体において、当該楽器の教師によって注目される箇所を示す。
【0165】
出力音情報は、演奏される楽曲の1小節ごとに用いられる。出力音情報は、1小節ごとに限らず、例えば4小節ごとに用いられてもよい。注目箇所情報(訓練用の出力データ)は、訓練用の入力データ内の出力音情報が示す小節の直後の小節における注目箇所を示す。
【0166】
決定部183は、1小節ごとに、生徒音情報a2と楽譜情報との組を、学習済みモデル190に入力する。生徒音情報a2と楽譜情報との組は、音情報と楽譜情報とを含む入力情報の一例である。なお、決定部183は、生徒音情報a2に基づいて、生徒演奏音を示す音符データを生成し、当該音符データの並びに基づいて、生徒音情報a2における1小節を特定する。続いて、決定部183は、生徒音情報a2と楽譜情報との組の入力に応じて学習済みモデル190が出力する情報によって示される個所を、注目箇所として決定する。
【0167】
なお、複数の訓練データT5は、訓練用の出力データを有さずに訓練用の入力データのみを有してもよい。この場合、複数の訓練データT5が複数の訓練データT5の類似度に基づいて複数のクラスタに分けられるように、機械学習によって複数の変数K5が特定される。そして、学習済みモデル190において、クラスタごとに、当該クラスタに適した「身体の箇所(注目箇所)を示す情報」が人によって対応づけられる。学習済みモデル190は、入力X1に応じたクラスタを特定し、特定したクラスタに対応する情報を、出力Y1として生成する。
【0168】
第11変形例によれば、生徒演奏音と楽譜との対応関係に応じて、指導に必要な画像を切り替えられる。
【0169】
B12:第12変形例
上述の実施形態および第1~第11変形例において、生徒教習システム100の決定部183は、身体における注目箇所を、さらに、書込み情報に基づいて決定してもよい。書込み情報は、演奏について書き込まれた注意事項を示す。注意事項は、文字で示されてもよいし、記号で示されてもよい。書込み情報は、演奏についての注意事項を示す注意情報の一例である。
【0170】
例えば、生徒教習システム100の決定部183は、先生書込み情報に基づいて、注目箇所を決定する。先生書込み情報は、先生200Bによって楽譜に書き込まれた注意事項を示す。先生書込み情報は、注意事項が書き込まれた楽譜を撮像する先生指導システム200におけるカメラ111~115のいずれかによって生成される。先生指導システム200の通信部160は、先生書込み情報を、生徒教習システム100に送信する。生徒教習システム100の決定部183は、生徒教習システム100の通信部160を介して、先生書込み情報を受信する。生徒教習システム100の記憶装置170は、注意事項と身体の箇所との対応関係を示す注意事項テーブルを予め記憶する。生徒教習システム100の決定部183は、注意事項テーブルにおいて、先生書込み情報が示す注意事項に対応する身体の箇所を、注目箇所として、さらに決定する。
【0171】
生徒教習システム100の決定部183は、楽譜における注意事項の位置に基づいて、注目箇所を決定してもよい。この場合、生徒教習システム100の記憶装置170は、楽譜における位置と、身体の箇所と、の対応関係を示す位置テーブルを予め記憶する。生徒教習システム100の決定部183は、位置テーブルにおいて、楽譜での注意事項の位置に対応する身体の箇所を、注目箇所として、さらに決定する。
【0172】
注意事項は、楽譜とは異なる物体(例えば、メモ用紙、ノートまたはホワイトボード)に記載されてもよい。
【0173】
第12変形例によれば、演奏について書き込まれた注意事項に基づいて、注目箇所を追加できる。
【0174】
B13:第13変形例
上述の実施形態および第1~第12変形例において、生徒教習システム100の決定部183は、身体における注目箇所を、さらに、演奏者に関する演奏者情報に基づいて決定してもよい。演奏者情報は、例えば、先生200Bの識別情報である。
【0175】
楽器の教習では、先生200Bごとに、注目箇所が異なることがある。例えば、ピアノの教習において、先生200B1は、生徒100Bの手の各指、両足および全身に加えて、生徒100Bの右腕に注目し、先生200B1は、生徒100Bの手の各指、両足および全身に加えて、生徒100Bの左腕に注目することがある。そこで、生徒教習システム100の決定部183は、先生200Bの識別情報(例えば、識別コード)に基づいて、注目箇所を、さらに決定する。
【0176】
先生200Bの識別情報は、例えば、生徒100B等のユーザによって操作部150から入力される。先生200Bの識別情報は、先生指導システム200から生徒教習システム100に送信されてもよい。生徒教習システム100の記憶装置170は、先生200Bの識別情報と、身体の箇所と、の対応関係を示す識別情報テーブルを予め記憶する。生徒教習システム100の決定部183は、識別情報テーブルにおいて、先生200Bの識別情報に対応する身体の箇所を、注目箇所として、さらに決定する。
【0177】
演奏者情報は、先生200Bの識別情報に限らず、例えば、先生200Bの動きを示す動き情報でもよい。例えば、先生指導システム200におけるカメラ111~115のいずれかが、先生200Bを撮像することによって、動き情報を生成する。先生指導システム200の通信部160は、動き情報を、生徒教習システム100に送信する。生徒教習システム100の決定部183は、生徒教習システム100の通信部160を介して、動き情報を受信する。生徒教習システム100の記憶装置170は、人の動きと、身体の箇所と、の対応関係を示す動きテーブルを予め記憶する。生徒教習システム100の決定部183は、動きテーブルにおいて、動き情報が示す動きに対応する身体の箇所を、注目箇所として、さらに決定する。このため、先生200Bは、先生200Bの動きに応じて、注目箇所を指定できる。演奏者情報は、生徒100Bの識別情報、または、生徒100Bの動きを示す動き情報でもよい。この場合、決定部183は、生徒100Bに応じて注目箇所を決定できる。
【0178】
第13変形例によれば、演奏者に関する演奏者情報に基づいて、演奏者における身体の箇所を追加できる。
【0179】
B14:第14変形例
上述の実施形態および第1~第13変形例において、タッチパネルである操作部150は、生徒楽器情報c1を受け付けるユーザインターフェイスとして、図20に示すようなユーザインターフェイスを有してもよい。ピアノボタン151へのタッチは、楽器の種類としてピアノを示す生徒楽器情報c1の入力を意味する。フルートボタン152へのタッチは、楽器の種類としてフルートを示す生徒楽器情報c1の入力を意味する。生徒楽器情報c1を受け付けるユーザインターフェイスは、図20に示されるユーザインターフェイスに限らない。第14変形例によれば、ユーザは直感的に生徒楽器情報c1を入力できる。
【0180】
B15:第15変形例
上述の実施形態および第1~第14変形例において、先生指導システム200の通信部160は、先生楽器情報d1またはd2を、生徒教習システムに送信し、生徒教習システムの決定部183は、先生楽器情報d1またはd2に基づいて、注目箇所を決定してもよい。また、生徒教習システムの通信部160は、生徒楽器情報c1またはc2を、先生指導システムに送信し、先生指導システムの決定部183は、生徒楽器情報c1またはc2に基づいて、注目箇所を決定してもよい。また、先生指導システム200の構成は、生徒教習システム101~105のいずれか1つの構成と同一でもよい。
【0181】
B16:第16変形例
上述の実施形態および第1~第15変形例において、処理装置180は、学習済みモデル182を生成してもよい。
【0182】
図21は、第16変形例に係る生徒教習システム105を示す図である。生徒教習システム105は、学習処理部191を有する点において、図19に示される生徒教習システム104と異なる。学習処理部191は、機械学習プログラムを実行する処理装置180によって実現される。機械学習プログラムは、記憶装置170に記憶されている。
【0183】
図22は、学習処理部191の一例を示す図である。学習処理部191は、データ取得部192と訓練部193とを含む。データ取得部192は、複数の訓練データT1を取得する。例えば、データ取得部192は、操作部150または通信部160を介して、複数の訓練データT1を取得する。記憶装置170が複数の訓練データT1を記憶している場合、データ取得部192は、記憶装置170から複数の訓練データT1を取得する。
【0184】
訓練部193は、複数の訓練データT1を利用した処理(以下「学習処理」と称する)を実行することによって学習済みモデル182を生成する。学習処理は、複数の訓練データT1を利用した教師あり機械学習である。訓練部193は、複数の訓練データT1を用いて学習対象モデル182aを訓練することによって、学習対象モデル182aを学習済みモデル182に変更する。
【0185】
学習対象モデル182aは、暫定的な複数の変数K1と、演算プログラムと、を用いる処理装置180によって生成される。暫定的な複数の変数K1は、記憶装置170に記憶されている。学習対象モデル182aは、暫定的な複数の変数K1を用いる点において、学習済みモデル182と異なる。学習対象モデル182aは、入力される情報(入力データ)に応じた情報(出力データ)を生成する。
【0186】
訓練部193は、訓練データT1における入力データを学習対象モデル182aに入力した場合に学習対象モデル182aが生成する出力データと、当該訓練データT1における出力データと、の誤差を表す損失関数Lの値を特定する。訓練部193は、損失関数Lの値が低減するように、暫定的な複数の変数K1を更新する。訓練部193は、暫定的な複数の変数K1を更新する処理を、複数の訓練データT1ごとに実行する。訓練部193による訓練の完了に伴い、複数の変数K1が確定する。訓練部193による訓練後の学習対象モデル182a、すなわち、学習済みモデル182は、未知の入力データに対して統計的に妥当な出力データを出力する。
【0187】
図23は、学習処理の一例を示す図である。例えばユーザからの指示を契機として学習処理が開始される。
【0188】
ステップS301においてデータ取得部192は、複数の訓練データT1の中から未取得の訓練データT1を取得する。続いて、ステップS302において訓練部193は、当該訓練データT1用いて学習対象モデル182aを訓練する。ステップS302では、訓練部193は、当該訓練データT1を用いて特定される損失関数Lの値が低減されるように、暫定的な複数の変数K1を更新する。暫定的な複数の変数K1を損失関数Lの値に応じて更新する処理には、例えば、誤差逆伝播法が利用される。
【0189】
続いて、ステップS303において訓練部193は、学習処理に関する終了条件が成立したか否かを判定する。終了条件は、例えば、損失関数Lの値が所定の閾値を下回ること、または、損失関数Lの値の変化量が所定の閾値を下回ることである。終了条件が成立しない場合、処理がステップS301に戻る。このため、終了条件の成立まで、訓練データT1の取得と、当該訓練データT1を利用した暫定的な複数の変数K1の更新とが、反復される。終了条件が成立した場合、学習処理が終了する。
【0190】
学習処理部191は、処理装置180とは異なる処理装置において実現されてもよい。処理装置180とは異なる処理装置は、少なくとも1つのコンピュータを含む。
【0191】
データ取得部192は、複数の訓練データT1とは異なる複数の訓練データ、例えば、複数の訓練データT2、T3、T4、およびT5の4種類の複数の訓練データのうち、1種類以上の複数の訓練データを取得してもよい。訓練部193は、データ取得部192が取得した複数の訓練データの種類に応じた学習対象モデルを訓練する。複数の訓練データT2に応じた学習対象モデルは、暫定的な複数の変数K2と、演算プログラムと、を用いる処理装置180によって生成される学習対象モデルである。複数の訓練データT3に応じた学習対象モデルは、暫定的な複数の変数K3と、演算プログラムと、を用いる処理装置180によって生成される学習対象モデルである。複数の訓練データT4に応じた学習対象モデルは、暫定的な複数の変数K4と、演算プログラムと、を用いる処理装置180によって生成される学習対象モデルである。複数の訓練データT5に応じた学習対象モデルは、暫定的な複数の変数K5と、演算プログラムと、を用いる処理装置180によって生成される学習対象モデルである。
【0192】
データ取得部192は、複数の訓練データの種類ごとに設けられてもよい。この場合、各データ取得部192は、対応する複数の訓練データを取得する。
【0193】
訓練部193は、複数の訓練データの種類ごとに設けられてもよい。この場合、各訓練部193は、対応する複数の訓練データを用いて、当該対応する複数の訓練データに応じた学習対象モデルを訓練する。
【0194】
第16変形例によれば、学習処理部241は、少なくとも1つの学習済みモデルを生成できる。
【0195】
B17:第17変形例
上述の実施形態および第1~第16変形例において、処理装置180は、図24に示されるように、決定部183および取得部184としてのみ機能してもよい。図24に示される決定部183は、楽器の種類を示す楽器情報に基づいて、当該楽器情報が示す種類の楽器を用いる演奏者における身体から注目箇所を決定する。図24に示される取得部184は、決定部183が決定した注目箇所の画像を表す画像情報を取得する。第17変形例によれば、楽器の種類に応じて、楽器を使った演奏の教習に必要な演奏者の画像を特定することが可能である。
【0196】
B18:第18変形例
第17変形例において、図24に示される決定部183は、楽器の種類を示す楽器情報に基づくことなく、楽器から出力される音を示す音情報に基づいて、当該楽器を用いる演奏者における身体から注目箇所を決定してもよい。さらに、第17変形例において、図24に示される取得部184は、楽器から出力される音を示す音情報に基づいて決定部183が決定した注目箇所の画像を表す画像情報を取得してもよい。第18変形例によれば、楽器から出力される音に応じて、楽器を使った演奏の教習に必要な演奏者の画像を特定することが可能である。
【0197】
C:上述の形態から把握される態様
上述の形態の少なくとも1つから以下の態様が把握される。
【0198】
C1:第1態様
本開示の態様(第1態様)に係る情報処理方法は、コンピュータによって実行される情報処理装置であって、楽器を示す楽器情報に基づいて、前記楽器情報が示す前記楽器を演奏する演奏者における身体から注目箇所を決定し、前記決定した注目箇所の画像を表す画像情報を取得する。この態様によれば、楽器に応じて、楽器を使った演奏の教習に必要な演奏者の画像を特定できる。
【0199】
C2:第2態様
第1態様の例(第2態様)において、さらに、前記取得した画像情報を外部機器に送信する。この態様によれば、楽器を使った演奏の教習に必要な演奏者の画像を外部機器に伝えることができる。
【0200】
C3:第3態様
第1態様または第2態様の例(第3態様)において、さらに、前記楽器に関する関連情報を用いて、前記楽器情報を特定し、前記注目箇所を決定することは、前記特定した楽器情報に基づいて、前記注目箇所を決定することを含む。この態様によれば、楽器に関する関連情報に基づいて、楽器を使った演奏の教習に必要な演奏者の画像を特定できる。
【0201】
C4:第4態様
第3態様の例(第4態様)において、前記関連情報は、前記楽器が出力する音を示す情報、前記楽器を表す画像を示す情報、前記楽器に応じた楽譜を示す情報、または、前記楽器と当該楽器の教習スケジュールとの組合せを示す情報である。この態様によれば、種々の情報を関連情報として用いることが可能である。
【0202】
C5:第5態様
第3態様または第4態様の例(第5態様)において、前記楽器情報を特定することは、前記楽器に関する学習用関連情報と、前記学習用関連情報から特定される楽器を示す学習用楽器情報と、の関係を学習した第1学習済みモデルへ前記関連情報を入力することと、前記関連情報に応じて前記第1学習済みモデルが出力する情報を、前記楽器情報として特定することと、を含む。この態様によれば、学習済みモデルを用いて楽器情報を特定するため、楽器情報は、演奏者が演奏する楽器を高い精度で示すことができる。
【0203】
C6:第6態様
第5態様の例(第6態様)において、前記関連情報および前記学習用関連情報は、前記楽器が出力する音を示し、前記学習用楽器情報は、前記学習用関連情報が示す前記音を出力する楽器を示す。この態様によれば、楽器が出力する音に基づいて、楽器を特定できる。
【0204】
C7:第7態様
第5態様の例(第7態様)において、前記関連情報および前記学習用関連情報は、前記楽器を表す画像を示し、前記学習用楽器情報は、前記学習用関連情報が示す前記画像によって表される前記楽器を示す。この態様によれば、楽器を表す画像に基づいて、楽器を特定できる。
【0205】
C8:第8態様
第3態様の例(第8態様)において、前記楽器情報を特定することは、前記楽器に関する参照用関連情報と、前記楽器を示す参照用楽器情報との対応関係を示すテーブルを参照することにより、前記関連情報に対応する参照用楽器情報を、前記楽器情報として特定することを含む。この態様によれば、学習済みモデルを用いることなく、楽器情報を特定できる。
【0206】
C9:第9態様
第1態様から第8形態のいずれかの例(第9態様)において、前記注目箇所を決定することは、前記楽器情報が示す前記楽器から出力される音を示す音情報と、前記楽器情報と、に基づいて、前記注目箇所を決定することを含む。この態様によれば、楽器から出力される音に基づいて、楽器を使った演奏の教習に必要な演奏者の画像を特定できる。
【0207】
C10:第10態様
第9態様の例(第10態様)において、前記注目箇所を決定することは、前記楽器を示す学習用楽器情報と、前記学習用楽器情報が示す前記楽器から出力される音を示す学習用音情報と、を含む学習用入力情報と、前記学習用楽器情報が示す前記楽器であって前記学習用音情報が示す前記音を出力する前記楽器を演奏する演奏者の身体において注目される箇所を示す学習用出力情報と、の関係を学習した第2学習済みモデルへ、前記楽器情報と前記音情報とを含む入力情報を入力することと、前記入力情報に応じて前記第2学習済みモデルが出力する出力情報に基づいて、前記注目箇所を決定することを含む。この態様によれば、学習済みモデルを用いて注目箇所を特定するため、楽器から出力される音に基づいて、楽器を使った演奏の教習に必要な演奏者の画像を高い精度で特定できる。
【0208】
C11:第11態様
本開示の態様(第11態様)に係る情報処理方法は、コンピュータによって実行される情報処理方法であって、楽器から出力される音を示す音情報に基づいて、前記楽器を演奏する演奏者における身体から注目箇所を決定し、前記決定した注目箇所の画像を示す画像情報を取得する。この態様によれば、楽器から出力される音に応じて、楽器を使った演奏の教習に必要な演奏者の画像を特定できる。
【0209】
C12:第12態様
第9態様または第11態様の例(第12態様)において、前記注目箇所を決定することは、前記注目箇所を、楽譜を示す楽譜情報と、前記音情報と、の関係に基づいて決定することを含む。この態様によれば、楽譜情報と音情報との関係に基づいて、楽器を使った演奏の教習に必要な演奏者の画像を特定できる。
【0210】
C13:第13態様
第11態様の例(第13態様)において、前記注目箇所を決定することは、前記楽器から出力される音を示す学習用音情報と、楽譜を示す学習用楽譜情報と、を含む学習用入力情報と、前記学習用楽譜情報が示す前記楽譜に従って前記学習用音情報が示す前記音を出力する楽器を演奏する演奏者の身体において注目される箇所を示す学習用出力情報と、の関係を学習した第3学習済みモデルへ、楽譜を示す楽譜情報と、前記音情報と、を含む入力情報を入力することと、前記入力情報に応じて前記第3学習済みモデルが出力する出力情報に基づいて、前記注目箇所を決定することを含む。この態様によれば、学習済みモデルを用いて注目箇所を特定するため、楽器を使った演奏の教習に必要な演奏者の画像を高い精度で特定できる。
【0211】
C14:第14態様
第1態様から第13態様のいずれかの例(第14態様)において、前記注目箇所を決定することは、前記注目箇所を、演奏についての注意事項を示す注意情報に基づいて決定することを含む。この態様によれば、演奏についての注意事項に応じて、楽器を使った演奏の教習に必要な演奏者の画像を切り換えることができる。
【0212】
C15:第15態様
第1態様から第14態様のいずれかの例(第15態様)において、前記注目箇所を決定することは、前記注目箇所を、前記演奏者に関する演奏者情報に基づいて決定することを含む。この態様によれば、演奏者に関する演奏者情報に応じて、楽器を使った演奏の教習に必要な演奏者の画像を切り換えることができる。
【0213】
C16:第16態様
本開示の態様(第16態様)に係る情報処理システムは、楽器を示す楽器情報に基づいて、前記楽器情報が示す楽器を演奏する演奏者における身体から注目箇所を決定する決定部と、前記決定部が決定した注目箇所の画像を表す画像情報を取得する取得部と、を含む。この態様によれば、楽器に応じて、楽器を使った演奏の教習に必要な演奏者の画像を特定できる。
【0214】
C17:第17態様
本開示の態様(第17態様)に係る情報処理システムは、楽器から出力される音を示す音情報に基づいて、前記楽器を用いる演奏者における身体から注目箇所を決定する決定部と、前記決定部が決定した注目箇所の画像を表す画像情報を取得する取得部と、を含む。この態様によれば、楽器から出力される音に応じて、楽器を使った演奏の教習に必要な演奏者の画像を特定できる。
【符号の説明】
【0215】
1…情報提供システム、100…生徒教習システム、100A…楽器、100B…生徒、111~115…カメラ、120…マイク、130…表示部、140…スピーカ、150…操作部、160…通信部、170…記憶装置、180…処理装置、181…特定部、182…学習済みモデル、182a…学習対象モデル、183…決定部、184…取得部、185…送信部、186…出力制御部、187~190…学習済みモデル、191…学習処理部、192…データ取得部、193…訓練部、200…先生指導システム、200A…楽器、200B…先生。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24