(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023095713
(43)【公開日】2023-07-06
(54)【発明の名称】携帯端末機器を用いた音楽演奏装置
(51)【国際特許分類】
G10G 1/02 20060101AFI20230629BHJP
G10H 1/00 20060101ALI20230629BHJP
【FI】
G10G1/02
G10H1/00 102Z
G10H1/00 Z
【審査請求】未請求
【請求項の数】3
【出願形態】OL
(21)【出願番号】P 2021211751
(22)【出願日】2021-12-26
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
(71)【出願人】
【識別番号】720010877
【氏名又は名称】太田 享寿
(72)【発明者】
【氏名】太田 享寿
【テーマコード(参考)】
5D182
5D478
【Fターム(参考)】
5D182AA13
5D478HH12
5D478KK02
(57)【要約】
【課題】電子的に表現された楽譜データを読み出して、演奏者の操作に伴って演奏を行う複数の音楽演奏装置を用いて合奏を行う場合に、合奏のメンバーとして設定された装置における演奏のタイミングと速度を、リーダーとして設定された装置における演奏に容易に合わせて演奏可能とする方法、装置を提供することである。
【解決手段】合奏のリーダーとして設定された1台の装置から演奏位置データを同装置の通信手段により送信し、非リーダーとして設定された少なくとも1台の装置においては通信手段により受信された前記演奏位置データを、リファレンスとなる演奏の楽譜データの表示位置として利用して連続的に表示する第1の表示手段と、前記非リーダーとして設定された装置における演奏者の演奏に合わせて表示される同楽譜データを前記リファレンス楽譜画像が見えるように重ねて連続的かつ第1の表示手段とは独立して表示する第2の表示手段を備えた。
【選択図】
図3
【特許請求の範囲】
【請求項1】
電子的に表現された楽譜データを読み出す楽譜入力手段と、演奏イベントを検出するイベント検出手段と、イベント検出手段によって検出したイベントから前記楽譜データの演奏位置を決める演奏位置決定手段を備えた音楽演奏装置において、リファレンスとなる演奏の楽譜データを楽譜画像として連続的に表示する第1の表示手段と、演奏者の演奏に合わせて表示される同楽譜データを前記リファレンスとなる演奏の楽譜画像が見えるように重ねて連続的かつ前記第1の表示手段とは独立して表示する第2の表示手段を備えることを特徴とする音楽演奏装置。
【請求項2】
前記イベント検出手段は、タッチパネル上の回転操作をジェスチャーとして認識するジェスチャー検出手段であることを特徴とする請求項1に記載の音楽演奏装置。
【請求項3】
前記リファレンスとなる演奏として、リーダー設定手段により合奏のリーダーとして設定された1台の装置においては演奏位置決定手段により決定された演奏位置データを同装置に備えられた通信手段により送信し、前記リーダー設定手段により非リーダーとして設定された少なくとも1台の別の装置においては通信手段により受信された前記演奏位置データを、表示位置決定手段によリファレンスとなる演奏の楽譜データの表示位置として利用することを特徴とする請求項1に記載の音楽演奏装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、スマートフォン等の携帯端末機器を用いた音楽演奏装置に関するものである。
【背景技術】
【0002】
従来よりたとえば特許文献1で示されるようにロール紙等に音符を表現する線を印刷記録して楽譜とし、このロール紙等の移動を撮影、記録あるいはそれ以外の方法により作成したデジタル動画データから、連続して静止画像を切り出して入力とする画像入力手段と、入力された静止画像から画像処理により記録されている音符を検出する画像処理手段とを設けることにより、検出した音符に基づいて対応する音符の音を出して前記楽譜を演奏するという自動演奏ピアノを模擬した音楽演奏玩具が知られている。
【0003】
さらにこの玩具の発展形として、特許文献2で示されるように携帯端末機器等の電子装置において、一接触点によるジェスチャー・イベントとして認識されるタッチパネル上の回転操作からジェスチャーの回転速度を検出し、検出した回転速度から演奏用の楽譜の演奏位置を決定し、決定した演奏位置情報に基づいて同楽譜を演奏するための方法、装置が知られている。
【0004】
特許文献2で示されるような携帯端末機器上に実装される方法・装置であれば気軽にこれを持ち寄って、複数人で複数の装置を使った演奏、すなわち合奏をすることが考えられる。そこで実際に合奏を行ってみると、各演奏者の携帯端末のディスプレイ上に表示されるのは、特許文献2の第1図および第7図で開示されているように、演奏者自身のジェスチャーの回転速度に従って画面上から下へ移動する位置と長さの異なる細い線がだけであり、演奏者自身が楽譜のどの部分を演奏しているのかがわかりにくく、一般的な合奏で行われるように合奏のリーダーを決めて他の演奏者(合奏のメンバーと呼ぶ)はリーダーの演奏を耳で聞いて演奏者自身の演奏のタイミングや速度を合わせようとしても正確に合わせることは困難であった。
【0005】
一方現在においては、ネットワーク技術の普及により複数の演奏者が離れた場所にいてもネットワークの通信機能を利用して合奏を行う技術が知られている。
【0006】
例えば特許文献3によれば、ネットワークを介した複数人による合奏および自動演奏に関する技術が開示されており、これは演奏制御ユニットを用いて少なくとも1つの演奏パートと必要な自動演奏パートを選択してネットワークによる合奏を実現するする技術である。
【0007】
また特許文献4によれば、指定された電子楽器の制御情報をネットワークを介して伝送し、送られてきた他のロケーションの電子楽器の演奏状態をディスプレイに表示する技術が開示されている。
【0008】
さらに特許文献5、特許文献6、特許文献7においてもネットワーク機能によるリアルタイムの合奏システムに関する技術が開示されている。
【0009】
また特許文献8、特許文献9においてはネットワーク機能によるリアルタイムの合奏を行った場合のネットワーク通信によって生じる演奏のディレーを補正する方法について開示されている。
【0010】
特許文献10、特許文献11においては、ネットワーク機能によるリアルタイムの合奏を行う場合のタイミングをあわせる方法として、運動状態を予測し、予測された運動状態に従って演奏情報を生成したり、他の装置から入力した操作情報などを視覚/聴覚以外の情報によって報知動作を行う技術が開示されている。
【0011】
また特許文献12においては、複数のレイヤに一般的な五線譜の楽譜を表示し、レイヤ毎に音符等の様々な要素毎に表示態様を設定し、各レイヤを重ね合わせて表示することにより、多彩な表示を行う技術が開示されている。
【0012】
一方、アップル社からは Apple Multipeer Connectivity (以下、Multipeer Connectivityと略す)と呼ばれるフレームワークが提供されており、これはWi-FiネットワークおよびBluetoothパーソナルエリアネットワークにより、近隣の端末機器が提供しているサービスを発見し、それらのサービスを介してメッセージベースのデータ通信やファイル転送等を実行することを可能とする仕組みであり、これを利用すればで特許文献2で開示される技術を用いて合奏のリーダーとして演奏をしている特定の端末機器(以後リーダー端末機器と呼ぶ)上の楽譜の演奏位置情報を他の少なくとも1つの端末機器(以後メンバー端末機器と呼ぶ)にデータ通信によって送信することが可能である。
【0013】
一方メンバー端末機器においては、前記Multipeer Connectivityフレームワークを利用した通信手段によりリーダー端末機器の楽譜の演奏位置情報を受信し、受信した楽譜の演奏位置情報に基づいて自端末機器内に格納された楽譜を演奏する事が可能となるので、この方法によれば特許文献3によって示された演奏制御ユニットを用いることなく演奏パートと自動演奏パートによる合奏が可能となる。なおこのネットワークを介したデータ通信に利用される演奏位置データは、後述するように1つの値で表現できる単純なもので、特許文献5、特許文献6、特許文献7で示されるようなフレーズや音声情報といった複雑なデータを必要としない。
【0014】
また同ネットワークを介した通信に利用されるデータはリーダー端末機器からメンバー端末機器に対しての一方向の情報だけなので、ネットワークの通信によって生じるディレーは一方向のみであり、メンバー端末機器内には自身の演奏する楽譜が格納されているので、受信したリーダー端末機器の楽譜の演奏位置に対してメンバー端末機器で演奏する楽譜の演奏位置を通信によるディレー分だけ早めることにより、特許文献8および特許文献9で示されるような技術を用いることなく、ネットワークの通信によって生じる演奏のディレーを補正することが可能となる。
【0015】
なお、リーダー端末機器が例えばBluetooth接続による外部スピーカーを利用して音を出す場合などに、演奏によるネットワーク通信のディレーよりもリーダー端末機器から外部スピーカーへのデータ転送のディレーのほうが長くなってしまうような場合もあるが、このような場合でも本発明によればメンバー端末機器で演奏する楽譜の読み出し位置を遅く設定にすることにより対応可能である。
【0016】
このようにして、リーダー端末機器の演奏に合わせて各メンバー端末機器の演奏のタイミングと速度を自動的に合わせることは可能となったが、それでもメンバー端末機器の演奏者がリーダー端末機器の演奏に合わせて容易に手動で演奏を可能とするという目的は達せられていない。
【0017】
また特許文献10、特許文献11で示された技術では、ネットワーク機能によるリアルタイムの合奏を行う場合のタイミングをあわせる方法として運動状態を予測する手段や、他の装置から入力した操作情報などを視覚/聴覚以外の情報によって報知するための報知手段が必要で、装置を複雑化してしまう欠点があり、より簡易な方法で実現する方法が求められる。
【0018】
さらに、特許文献12では複数のレイヤを使って一般的な五線譜の楽譜を表示し各レイヤを重ね合わせて表示する技術が開示されているが、例えこの技術を用いてリーダー端末機器の演奏の様子をメンバー端末機器上で同端末機器における演奏の様子を重ね合わせて表示したとしても、既に述べたように本発明が対象としている携帯端末のディスプレイ上に表示されるものは画面上から下へ移動する位置と長さの異なる細い線だけであり、通常リーダーの演奏する楽譜とメンバーの演奏する楽譜は異なっているので、リーダーの演奏に対してメンバーの演奏のタイミングと速度が合っているのかずれているのかをメンバーが視覚的に認識するのに十分ではなかった。
【先行技術文献】
【特許文献】
【0019】
【特許文献1】特願2020-210850
【特許文献2】特願2021-096161
【特許文献3】特表2016ー521381
【特許文献4】特開平6-35456号公報
【特許文献5】特開2005-258267
【特許文献6】特許第3277875号公報
【特許文献7】特開2001-356764
【特許文献8】特開2005-195982
【特許文献9】特開2007-178860
【特許文献10】特開2006-162904
【特許文献11】特開2005-250148
【特許文献12】特開2009-230007
【発明の概要】
【発明が解決しようとする課題】
【0020】
本発明が解決しようとする課題は、電子的に表現された楽譜データを読み出す楽譜入力手段と、演奏者の演奏に伴って発生する演奏イベントを検出するイベント検出手段と、イベント検出手段によって検出したイベントから前記楽譜データの演奏位置を決める演奏位置決定手段を備えた複数の携帯端末機器等の音楽演奏装置を用いて合奏を行う場合に、合奏のリーダーとして設定された装置における演奏に対して容易に合奏のメンバーとして設定された装置がタイミングを合わせて演奏可能とする方法、装置を提供することである。
【課題を解決するための手段】
【0021】
本発明は、リーダー設定手段により合奏のリーダーとして設定された1台の装置においては演奏位置決定手段により決定された演奏位置データを同装置に備えられた通信手段により送信し、前記リーダー設定手段により非リーダーとして設定された少なくとも1台の別の装置においては通信手段により受信された前記演奏位置データを、表示位置決定手段によリファレンスとなる演奏の楽譜データの表示位置として利用し、リファレンスとなる演奏の楽譜データを楽譜画像として連続的に表示する第1の表示手段と、前記非リーダーとして設定された装置における演奏者の演奏に合わせて表示される同楽譜画像を前記リファレンスとなる演奏の楽譜画像が見えるように重ねて連続的かつ前記第1の表示手段とは独立して表示する第2の表示手段を備えることを主要な特徴とする。
【発明の効果】
【0022】
本発明によれば、第1の表示手段によりリーダー端末機器から送信されたリーダーによる演奏位置データに基づいて演奏者が演奏すべき楽譜データ画像を連続的に表示するためその表示画像を演奏のレファレンスとすることができ、第2の表示手段により同じ楽譜データによる演奏者自身の演奏による楽譜画像が前記レファレンスとなる楽譜画像に連続的に重ね合わせて表示されることにより、演奏者自身の演奏がレファレンスの演奏と比較してどの程度進んでいるの遅れているのかが視覚的に認識することが可能となる。
【0023】
このようにして演奏者自身の演奏がレファレンスの演奏と比較してどの程度進んでいるの遅れているのかが認識できれば、認識の結果を反映して自身の演奏速度を修正し続けることにより、リーダー端末機器の演奏にメンバー端末機器の演奏のタイミングと速度を合わせた合奏が可能となる。
【図面の簡単な説明】
【0024】
【
図1】
図1は第1の実施方法における合奏のリーダーとして動作している時の状態を示した説明図である。(実施例1)
【
図2】
図2は第1の実施方法を示した合奏のメンバーとして動作している時の状態を示した説明図である。(実施例1)
【
図3】
図3は実施例1におけるハードウェアおよびソフトウェアの構成を示した説明図である。
【
図4】
図4は実施例1における第1のソフトウェアの動作を示したフローチャートである。
【
図5】
図5は実施例1における第2のソフトウェアの動作を示したフローチャートである。
【
図6】
図6は実施例1における第3のソフトウェアの動作を示したフローチャートである。
【
図7】
図7は一般的な楽譜を説明する説明図である。
【
図8】
図8は実施例1におけるデジタル楽譜画像を説明する説明図である。
【
図9】
図9は実施例1におけるデジタル楽譜画像の重ね合わせを説明する第1の説明図である。
【
図10】
図10は実施例1におけるデジタル楽譜画像の重ね合わせを説明する第2の説明図である。
【
図11】
図11は実施例1におけるデジタル楽譜画像の重ね合わせを説明する第3の説明図である。
【
図12】
図12は実施例2における第2のソフトウェアの動作を示したフローチャートである。
【発明を実施するための形態】
【0025】
電子的に表現された楽譜データを読み出す楽譜入力手段と、演奏に伴って発生する演奏イベントを検出するイベント検出手段と、イベント検出手段によって検出したイベントから前記楽譜データの演奏位置を決める演奏位置決定手段を備えた複数の音楽演奏装置を用いて合奏を行う場合に、合奏のメンバーとして設定された装置における演奏のタイミングと速度を、リーダーとして設定された装置における演奏に容易に合わせて演奏可能とする方法、装置を提供するという目的を、リーダー設定手段により合奏のリーダーとして設定された1台の装置においては演奏位置決定手段により決定された演奏位置データを同装置に備えられた通信手段により送信し、前記リーダー設定手段により非リーダーとして設定された少なくとも1台の別の装置においては通信手段により受信された前記演奏位置データを、表示位置決定手段によリファレンスとなる演奏の楽譜データの表示位置として利用し、リファレンスとなる演奏の楽譜データを楽譜画像として連続的に表示する第1の表示手段と、前記非リーダーとして設定された装置における演奏者の演奏に合わせて表示される同楽譜データを第1の表示手段により表示された前記リファレンスとなる演奏の楽譜画像が見えるように重ねて連続的かつ前記第1の表示手段とは独立して表示する第2の表示手段を備えることにより実現した。
【実施例0026】
図1は、第1の実施方法において本発明の装置が合奏のリーダーとして動作している時の状態を示した説明図であり、100はスマートフォン本体、101は液晶パネルによる画像出力部である。同液晶パネルはタッチパネルになっており、ユーザー操作による情報入力部102も兼ねている。1011の破線の枠で示される部分はスマートフォン本体内にある第1の楽譜入力手段から適宜読み出されて、演奏の進行に応じて楽譜の移動する様子をリアルタイムに表示する楽譜画像表示部である。1020の破線は演奏位置を示す仮想的なタイミング線であり、音符がその線上にあるときに音が出るということを表す。2005、2006、2007で示される黒線(他にも同様の黒線があるが説明上省略する)は前記楽譜画像における音符である。2010、2011は同パネル101上に表示された音符の位置検出用に楽譜画像の両端に記録されたマーカー線である。なおこのマーカー線は本実施例においては後述する画像処理手段において利用されるが、デジタルに記録された楽譜を利用して音符の音を出すためには必須のものではない。1012の破線の枠で示される部分は鍵盤表示部で、演奏位置に音符がある場合には、音符に対応する鍵盤が押されたことを示すために白鍵、黒鍵それぞれの色を灰色に変えて表示する。また演奏位置にあった音符が時間経過に伴い移動してなくなった場合には、音符に対応する鍵盤が放されたことを示すために白鍵、黒鍵それぞれの色を元の色に変えて表示する。300は液晶パネル101上でジェスチャー操作をするための一本の指であり301はその指300による回転のジェスチャーの様子を模擬的に示した矢印である。指300を矢印301の方向に回転させると、その回転速度に応じて2005、2006、2007で示される黒線の音符が矢印302の方向に移動し、演奏位置である仮想的なタイミング線1020上に音符が来るとその音を出し、タイミング線1020上から音符が外れるとその音を止めることにより演奏が実現する。3000はデータ通信手段によって本装置が合奏のメンバーとしている装置と通信を行っていることを模式的に表したもので、本実施例においてはジェスチャー操作による演奏進行に伴う演奏位置情報を送信している。
【0027】
図2は、第1の実施方法における本発明の装置が合奏のメンバーとして動作している時の状態を示した説明図である。装置自体は
図1と共通なので物理的な構成は同じであるが、動作が異なるため液晶パネル101上の破線の枠で示される楽譜画像表示部1011に表示される画像が
図1と異なっている。また3000は
図1と同様にデータ通信手段によって本装置が合奏のリーダーとしている装置と通信を行っていることを模式的に表したもので、ここでは合奏のリーダーとしている他の装置が送信した演奏位置情報を受信している。2001、2002、2003で示される黒線は、合奏のリーダーとしている他の装置から受信した演奏位置情報に基づいて第2の楽譜入力手段から適宜読み出されて表示されるリファレンスとなる楽譜画像上の音符であり、2001-2、2002-2、2003-2で示される白線は指300による回転のジェスチャー操作に基づいて第1の楽譜入力手段から適宜読み出されて表示される演奏者の演奏する楽譜画像上の音符であり、元の楽譜画像を白黒反転させ透明度を75%として前記リファレンスとなる楽譜画像の上に重ねて表示されている。黒線と白線の両者は演奏の進行に従ってそれぞれ矢印302の方向に移動するが、その進行のきっかけとなるイベントが前者は合奏のリーダーとして動作している装置からデータ通信手段によって受信される演奏位置情報であり、後者は演奏者自身のジェスチャー操作に基づくイベントであるのでお互いに独立した表示となり、演奏位置である仮想的なタイミング線1020上に後者の白線で表される音符が来るとその音を出し、タイミング線1020上から同音符が外れるとその音を消すことにより合奏のメンバーとしての演奏が実現する。
【0028】
図3は、本発明装置の同実施例のハードウェアおよびソフトウェアを示す構成図である。1はCPU(中央処理ユニット)であり、不揮発性メモリ(図示せず)に記憶されたプログラムに従って各種手段における各種処理を行なうことにより本発明を実現する。2は本発明装置が合奏のリーダーとして動作するのかあるいは合奏のメンバー(非リーダー)として動作するのかを設定するリーダー設定手段であり、装置の各種動作設定画面(図示せず)から設定され、その設定は不揮発性メモリ(図示せず)に記憶される。3は本実施例における演奏イベント検出手段であるジェスチャー・イベント検出手段(略してジェスチャー検出手段)であり、前述のタッチパネル102上の指300による回転ジェスチャーを認識し、一定の時間間隔でタッチパネル102上の指300の位置座標(x,y)を検出する。検出された指300の位置座標(x,y)からCPU1はソフトウェアプログラムにより構成される回転の速度検出手段4により回転の速度を検出する。回転の速度の検出方法については、特許文献2で開示されているのでここでは省略する。
【0029】
5も同様にソフトウェアプログラムにより構成される演奏位置決定手段であり、こちらも同様に特許文献2で開示されている方法を用いてCPU1により前記検出された回転の速度から楽譜の演奏位置を決定する。6は不揮発性メモリなどにより構成される装置本体内の楽譜保存手段(図示せず)に電子的に保存された楽譜データから、演奏位置決定手段5により決定された演奏位置に基づいて後述の画像処理手段7あるいは第1の表示手段12あるいは第2の表示手段13に必要なサイズにトリミング(詳細については後述)して楽譜画像データを読み出すための第1の楽譜入力手段である。
【0030】
7は画像処理手段であり、第1の楽譜入力手段6により読み出された楽譜画像データから特許文献1および特許文献2で示される方法により演奏タイミング(タイミング線1020上に相当する)にある音符の位置を特定し、特定された位置に音符があるかないかを検出する。11はサウンド出力手段であり、画像処理手段7により検出された演奏タイミングの特定の位置にある音符の有り無しの情報とその履歴から、CPU1による対応する音符の音を出すあるいは止めるという判断に従い、予め設定された音色と音量で対応する音符の音を出したり止めたりする機能を有する。
【0031】
8はデータ通信手段であり、本発明装置と同じ構成を持つ複数の装置間でネットワークを介してデータの送受信を行う。例えば、リーダー設定手段2により本装置が合奏のリーダーと設定されている場合に、データ通信手段8は演奏位置決定手段5によって決定された演奏位置を演奏位置データとして逐次合奏のメンバーと設定されている装置に対して送信する。一方、リーダー設定手段2により本装置が合奏のメンバーとして設定されている場合は、リーダーとして設定されている装置から送信される演奏位置データを受信し、そのデータを後述する表示位置決定手段9の入力として利用する。
【0032】
9は表示位置決定手段であり、装置が合奏のメンバーとして設定されている場合に、データ通信手段8により受信した合奏リーダーの演奏位置データに基づいて、装置本体内の楽譜保存手段に電子的に保存された楽譜データを自装置内の液晶パネル101に表示させるため利用するものであり、受信した合奏リーダーの演奏位置データがそのまま楽譜データの表示位置となる。10は第1の楽譜入力手段6と同様に、装置本体内の楽譜保存手段に電子的に保存された楽譜データから、表示位置決定手段9により決定された楽譜の表示位置に基づいて後述の第1の表示手段12に必要なサイズにトリミングして画像データを読み出すための第2の楽譜入力手段である。
【0033】
12は第1の表示手段であり、リーダー設定手段2での設定に基づき、本装置が合奏のリーダーと設定されている場合には第1の楽譜入力手段6により読み出された楽譜データ画像を、また本装置が合奏のメンバーと設定されている場合には、第2の楽譜入力手段10により読み出された楽譜データ画像を液晶パネル101上の楽譜画像表示部1011にそのまま表示する。
【0034】
13は第2の表示手段であり、第1の表示手段の12動作とは独立して動作するもので、リーダー設定手段2での設定に基づき本装置が合奏のメンバーと設定されている場合にのみ、第1の楽譜入力手段10により読み出された楽譜データ画像を、液晶パネル101上の楽譜画像表示部1011に第1の表示手段12によりすでに表示されている画像が見えるように重ねて表示する。
【0035】
図4は本発明装置の同実施例の第1のソフトウェアの動作を示すフローチャートであり、同実施例におけるリーダー設定手段2により本装置が合奏におけるリーダーとして設定されている時の動作を示している。
【0036】
まずCPU1はステップS1においてジェスチャー検出手段3からジェスチャー・イベントが検出されるのを待つ。本実施例の場合、指300によるジェスチャー操作が始まると、1/60秒の間隔でイベントが発生し、パネル上を指300が最初にタッチした位置を原点O:(x,y)=(0,0)として、以降、指300がパネルから離れるまでの間、原点からの相対座標が毎回検出される。ジェスチャーが検出されればステップS2に進み回転の速度検出手段4によりジェスチャーによる回転の速度を求める。
【0037】
ジェスチャー・イベントによる指300のパネル上の位置座標から速度検出手段4による回転の速度を求める方法は特許文献2により開示されているので省略する。
【0038】
回転の速度検出手段4により指300によるジェスチャー操作による回転の速度が求まれば、CPU1はステップS3において演奏位置決定手段5により演奏位置を決定する。
【0039】
ここで楽譜をデジタルに表現した楽譜画像について説明する。
図5および
図6は一般的な楽譜が本発明におけるデジタル楽譜画像としてどのように表現・演奏されるかを説明する図である。
図5に示されるものは一般的な楽譜であり、同楽譜中2004,2005,2006,2007,2008で示されるものはそれぞれ音階の異なる4分音符である。また400で示される記号は速度記号であり、これは4分音符を1分間に80回数える速さで演奏することを示している。
図6は
図5で示された楽譜をデジタル画像に変換した楽譜画像の冒頭部分であり、その座標は右側に正のx軸、上側に正のy軸をとり、
図5の401で示される楕円に含まれる音符が2004、2005、2006、2007、2008として示されている。2010、2011は音符の位置検出用にデジタル楽譜画像の両端に記録されたマーカー線である。本実施例においては楽譜画像の幅の画素数は384ピクセル、音符の幅は2ピクセル、隣りの音符との隙間は1ピクセルとしており、85音(=7オクターブ[1オクターブは半音を含めて12音]+1音)を鳴らすことができるので、マーカー線2010と2011の間は256ピクセル=(2+1)×85+1(+1しているのはマーカー線の隙間分)としている。なお本実施例に置いては音符の位置を検出するためにマーカー線2010と2011を楽譜画像上に配置しているが、ある音符がx軸上のどの位置に配置されるのかを予め定めておけば、本マーカー線2010と2011は必須ではない。なお
図6は
図5で示される楽譜の冒頭部分しか示していないが、実際の楽譜データとしては楽譜全体の画像が装置本体内の楽譜保存手段に電子的に保存されている。
【0040】
図6における4分音符2004は本実施例においては最低音から3オクターブ上に位置するので、最低音から数えて36音目(=12音×3オクターブ)に相当する。従って
図6におけるマーカー線2010との間には、109ピクセル=(2+1)×36+1の間隔が空く。同様に、4分音符2005、2006、2007とマーカー線2010との間にはそれぞれ,115,121、124ピクセルの間隔が空くことになる。
【0041】
また
図6における4分音符2004、2005、2006、2007、2008のy軸方向の長さは4分音符の長さに相当しており、本実施例に置いては4分音符2004の始まりから4分音符2005の始まりまでの距離は180ピクセルとしている。同様に2005と2006、2006と2007、2007と2008との距離も180ピクセルとしている。なおここでは図示しないが8分音符であればその長さは半分の90ピクセル、16分音符であれば45ピクセル、2分音符であれば360ピクセルとなる。
【0042】
図5における楽譜の演奏は、譜面に従って矢印500で示されるように左から右に向かって進んでいく。一方楽譜画像の場合は、
図6の矢印500で示されるように下から上に向かって進んでいく。
図5および
図6における破線501は演奏位置を示しており、一定の時間間隔でこの破線を矢印500の方向に進めていけば、楽譜および楽譜画像上での演奏が進むことになる。そこで、ジェスチャー・イベントが発生するタイミング(本実施例の場合は1/60秒の間隔)でその時の回転速度に応じて破線501の進む距離を決めるようにする。例えば、本実施例の場合、
図5の速度記号400は4分音符を1分間に80回数える速さで演奏することを示しているので、
図6のデジタル楽譜画像上では1分間に、14400ピクセル(=180ピクセル×80回)進めば良い。従ってジェスチャー・イベントは1/60秒の間隔で発生するので、速度記号400の指示に従えばジェスチャー・イベント1回の発生に付き、4ピクセル(=14400ピクセル/60秒/60回)進めば良い事がわかる。一方、ステップS2で求めた回転の速度Vは、実測の結果、おおよその平均値が15.0となることがわかっているので、速度Vが15.0のときにピクセル数が4ピクセルとなるように定数Cを求めれば、4ピクセル=15.0×CよりC=4/15.0=0.2667となる。
従って、回転の速度Vの時に進むピクセル数をNとすれば、
【数1】
となる[ROUND()は小数点以下四捨五入を表す]。以上により、速度Vのときに破線の進む距離であるピクセル数Nが求まるので、前回のジェスチャー・イベント発生時の演奏位置にピクセル数Nを加えて新たな演奏位置とすればよい。このような方法でCPU1はステップS3において演奏位置決定手段5により演奏位置を決定する。
【0043】
ステップS3において演奏位置を決定したら、ステップS4に進みステップS3で決定された演奏位置に基づいて第1の楽譜入力手段6から画像データをトリミングして読み出す。ここでトリミングして読み出すとは、演奏位置に基づいた楽譜画像を液晶パネル101上の楽譜表示部1011に表示できるように部分的に読み出すことで、例えば演奏位置が
図6の破線501で示される位置であれば、この線を縦方向の中央に置いた縦384ピクセル、横384ピクセルの502の破線で囲まれた部分だけを読み出すことを言う。
【0044】
ステップS4においてトリミングした画像データとして読み出された楽譜データは、次のステップS5において画像処理手段7による画像処理により、ステップS3で求めた演奏位置(
図6における破線501上)における85音ある各音符の位置を確定し、各位置における音符の有無を検出する。なお本実施例における画像処理手段7による楽譜データから各音符の位置を確定し、確定した各位置における音符の有無を検出する画像処理の内容については特許文献1に記載されているとおりである。
【0045】
ステップS5において検出された各位置における音符の有無の情報に基づいて、ステップS6においてCPU1は記憶手段(図示せず)に記憶してある一つ前のジェスチャー・イベント発生時に検出された各位置における音符の有無の情報とを比較して、新たに各位置における音符が出現したか、あるいは既に出現していた音符が消失したかを判断し、その判断に基づいてサウンド出力手段11に対して各位置に対応する音符の音を予め定められた音色および音量で出すあるいは止めるという指示を行う。
【0046】
サウンド出力手段11への指示が終了すれば、さらにステップS7に進み、CPU1はステップS4で読み出した楽譜データを第1の表示手段12に渡し、第1の表示手段12は渡された楽譜データ画像を液晶パネル101上の楽譜画像表示部1011にそのまま表示する。
【0047】
最後にステップS8においてCPU1はステップS3において決定された演奏位置を演奏位置データとしてデータ通信手段8を介してネットワークで接続された合奏におけるメンバーとして設定されている本発明装置と同じ構成を持つ複数の他の装置に対して送信する。
【0048】
以上により、ジェスチャー・イベントの発生による一連の処理は終了するので、再びS1に戻り、ジェスチャー検出手段7からジェスチャー・イベントが検出されるのを待つ。
【0049】
なお、ステップS8においてデータ通信手段8を介して演奏位置データを送信しているが、音量その他の情報を追加して同時に送信しても構わない。また、ステップS1においてはジェスチャー検出手段3からのジェスチャー・イベントをトリガとして以下のステップが進むようになっているが、例えば1/60秒の間隔で発生するタイマーによるイベントをトリガとし、ステップS2で決定される回転速度を一定として以下のステップを進めても良い。このようにすれば合奏におけるリーダーの演奏は自動演奏とすることができる。
【0050】
図7は本発明装置の同実施例の第2のソフトウェアの動作を示すフローチャートであり、同実施例におけるリーダー設定手段2により本装置が合奏におけるメンバーとして設定されている場合に、データ通信手段8によりデータを受信した時の動作を示している。
【0051】
まずCPU1はステップS9においてデータ通信手段8からデータが受信されるのを待つ。データ通信手段8によりデータを受信した場合、ステップS10に進み、表示位置決定手段9により受信したデータから楽譜データの表示位置を決定する。この時通信手段8から受信したデータは、合奏におけるリーダーとして設定された他の装置から送信された同装置の演奏位置データであるので、この値を自身の楽譜データの基準表示位置とし、ネットーワークにおける装置間通信のディレー等を考慮した補正値を加減して求めた値を楽譜の表示位置、すなわち自身の演奏のリファレンスとなる演奏位置として決定する。
【0052】
ステップS10により楽譜データの表示位置が決定すれば、ステップS11に進みステップS10によって決定した表示位置に基づいて第2の楽譜入力手段10から画像データをトリミングして読み出す。この読み出し方法はステップS4で説明した第1の楽譜入力手段6から画像データをトリミングして読み出す方法と同様で、ステップS4においてはステップS3で決定された演奏位置に基づいて画像データをトリミングして読み出していたが、本ステップS11においては、ステップS10により決定された楽譜データの表示位置に基づいて楽譜データをトリミングして読み出す。
【0053】
更にステップS12に進み、CPU1はステップS11で読み出した楽譜データを第1の表示手段12に渡し、第1の表示手段12は渡された楽譜データ画像を液晶パネル101上の楽譜画像表示部1011にそのまま表示する。
【0054】
以上により、本装置が合奏におけるメンバーとして設定されている場合にデータ通信手段8によりデータを受信したときに発生する一連の処理は終了するので、再びS9に戻り、データ通信手段8がデータを受信するのを待つ。
【0055】
図8は本発明装置の同実施例の第3のソフトウェアの動作を示すフローチャートであり、同実施例におけるリーダー設定手段2により本装置が合奏におけるメンバーとして設定されている場合に、
図7で示される第2のソフトウェアの動作と並行して同一装置内で動作するもので、ジェスチャー検出手段3によりジェスチャー・イベントを検出した時の動作を示している。
【0056】
まずCPU1はステップS13においてジェスチャー検出手段3からジェスチャー・イベントが検出されるのを待つ。ジェスチャーが検出されればステップS14に進み回転の速度検出手段4によりジェスチャーによる回転の速度を求める。
【0057】
回転の速度検出手段4により指300によるジェスチャー操作による回転の速度が求まれば、CPU1はステップS15において演奏位置決定手段5により演奏位置を決定する。
【0058】
ステップS15において演奏位置を決定したら、ステップS16に進みステップS15で決定された演奏位置に基づいて第1の楽譜入力手段6から画像データをトリミングして読み出す。
【0059】
ステップS16においてトリミングした画像データとして読み出された楽譜データは、次のステップS17において画像処理手段7による画像処理により、ステップS15で求めた演奏位置における85音ある各音符の位置を確定し、各位置における音符の有無を検出する。
【0060】
ステップS17において検出された各位置における音符の有無の情報に基づいて、ステップS18においてCPU1は記憶手段に記憶してある一つ前のジェスチャー・イベント発生時に検出された各位置における音符の有無の情報とを比較して、新たに各位置における音符が出現したか、あるいは既に出現していた音符が消失したかを判断し、その判断に基づいてサウンド出力手段11に対して各位置に対応する音符の音を予め定められた音色および音量で出すあるいは止めるという指示を行う。これらステップS13からステップ18までの動作は
図4で示される第1のソフトウェアの動作のステップS1からステップS6までの動作と同一である。
【0061】
ステップS18においてサウンド出力手段11への指示が終了すれば、ステップS19に進み、ステップS16においてトリミングした画像データとして読み出された楽譜データを第2の表示手段13に渡す。ここで第2の表示手段13は第1の表示手段12とは独立して、既に第1の表示手段により液晶パネル101上の楽譜画像表示部1011に表示されている楽譜データ画像が見えるように、渡された楽譜データ画像を重ねて表示する。
【0062】
ここで楽譜データ画像の重ね合わせ表示について説明する。
図9はステップS11によって読み出された楽譜画像データとステップS16によって読み出された楽譜画像データの重ね合わせをどのように行うかを示した図である。図中2100で示されるものは、ステップS11によって読み出された楽譜画像データであり、図中2101で示されるものはステップS16によって読み出された楽譜画像データを白黒反転させ透明度を75%としたものであり、図中2102で示されるものは透明な背景の上に演奏位置を示す仮想的なタイミング線1020が描かれた画像データであり、これらを下から2100→2101→2102の順番に重ね合わせたものが、
図10及び
図11で示される図である。
【0063】
図10において、2001、2002、2003、2005で示される黒い線は、ステップS11によって読み出された楽譜画像データにある音符を示しており、これはデータ通信手段によって受信されたリーダー端末機器の演奏位置に基づいて表示される演奏のリファレンスとなる音符であり、一方2001-2、2002-2、2003-2、2005-2で示される白い線は演奏者のジェスチャー操作に伴ってステップS16によって読み出された楽譜画像データにある音符を示している。2001、2002、2003、2005はリーダー端末機器の演奏の進行に伴って、また2001-2、2002-2、2003-2、2005-2はメンバー端末機器における演奏者自身の演奏の進行に伴って図中302で示される矢印方向に独立して進んでいく。ところで、もともと音符2001、2002、2003、2005も音符2001-2、2002-2、2003-2、2005-2も同じ楽譜データから読み出されたものであるからリーダー端末機器の演奏とメンバー端末機器における演奏者自身の演奏のタイミングと演奏の速さが一致していれば、両者は同じ場所に重なって進行していくはずである。しかしながら
図10においては白い音符の方が,黒い音符よりも進行方向に向かって後ろにあることから、リファレンスとなる音符2001、2002、2003、2005よりも、演奏者の演奏を表示する音符2001-2、2002-2、2003-2、2005-2のほうが遅れていることがわかる。同様に
図11においては白い音符の方が,黒い音符よりも進行方向に向かって前にあることから、リファレンスとなる音符2001、2002、2003、2005よりも、演奏者の演奏を表示する音符2001-2、2002-2、2003-2、2005-2のほうが進んでいることがわかる。このようにリファレンスとなる演奏を表現する楽譜画層データが見えるように、演奏者の演奏を表現する楽譜画像データとを重ね合わせて連続的に表示することにより、演奏者の演奏がレファレンスの演奏と比較して進んでいるの遅れているのかを視覚的に認識することが可能となる。
【0064】
以上により、第3のソフトウェアによるジェスチャー・イベントの発生による一連の処理は終了するので、再びステップS13に戻り、ジェスチャー検出手段7からジェスチャー・イベントが検出されるのを待つ。
【0065】
なお、ステップS15において演奏位置決定手段5により演奏位置を決定する場合、ジェスチャー検出手段3はパネル上を指300が最初にタッチした位置を原点として、以降指300がパネルから離れるまでの間1/60秒の間隔でイベントを検出し、その最初と最後のイベントについては開始と終了を示す情報も検出可能である。従ってジェスチャーの開始イベントが発生した処理フローにおけるステップS15における演奏位置決定においては、単純に演奏位置を0ピクセルとせず、その直前の時点で表示位置決定手段9で決定されたレファレンス画像の表示位置をコピーして演奏位置の初期値とし、以後この値をベースにジェスチャー・イベント検出毎のスッテプS15における演奏開始位置を決定するようにすれば、演奏者の演奏の開始時のタイミング合わせがより容易になる。
【0066】
以上の様に本実施例によれば、リファレンスとなる演奏の楽譜画像を表示する第1の表示手段と、演奏者による演奏の楽譜画像をリファレンスとなる演奏の楽譜動画画像が見えるように重ね合わせて表示する第2の表示手段とを設け、演奏の進行に合わせて両者を独立して画像表示を行うことにより、演奏者自身の演奏がレファレンスの演奏と比較して進んでいるのか遅れているのかを視覚的に認識することが可能となり、演奏者自身の演奏画像をレファレンスの演奏画像と一致するようにジェスチャー操作による回転速度を調整することにより、従来では困難であった複数台の装置による合奏を容易に実現可能とした。
【0067】
なお、本実施例においてはタッチパネル上の指300による一接触点の回転ジェスチャーとして説明したが、ジェスチャーが認識できるのであれば、例えばタッチペン等を用いた一接触点によるジェスチャーであっても構わない。
【0068】
また本実施例では画像処理手段7により画像処理によってデジタル楽譜画像から音符を検出するという方法を採用しているが、楽譜データとしてはデジタル画像でなくMIDIデータのようなデジタルデータでも良い。例えばMIDIデータであれば、トラックと呼ばれるグループにデルタタイムとイベントの繰り返しという形でデータが保持されており、デルタタイムとは別途指定される4分音符の長さと時間単位とで求められる時間で、一つ前に指定されたデルタタイムからの経過時間を表しており、イベントはその時の音符の音階、音量,オンかオフかを指定するものであるので、演奏位置を画素数でなく時間で表し、MIDIデータを本発明で示されるようなデジタル楽譜画像に変換して表示するようにすれば、全く同じ機能が実現できる。さらに本実施例ではデータ通信手段8を使って合奏のリーダーとなる装置から送信される演奏位置データをリファレンスとして採用したが、合奏のメンバーとなる装置内でタイマーによる定期的なイベントを発生させ、これによって
図7の第2のソフトウェアの動作を示すフローチャートのステップS9を置き換え、ステップS12の後に
図8の第3のソフトウェアの動作を示すフローチャートS17、S18と同等の処理を追加すれば、自装置内での演奏者一人による合奏も69となる。
【0069】
図12は本発明の第2の実施例を示すもので、実施例1の
図7における第2のソフトウェアの動作を示すフローチャートのステップS11とステップS12の間にステップS20、ステップS21、ステップS22を加えたものである。ジェスチャー検出手段3はジェスチャーの開始と終了のイベントを識別可能なので、ステップS20においては装置がジェスチャー操作中であるかどうかを判断して、ジェスチャー中であれば
図7と同様にステップS17に進み、ジェスチャー中でなければステップS21、ステップS21へと進む。ステップS21、ステップS21は
図8における第3のソフトウェアの動作を示すフローチャートのステップS17とステップS18と同様の処理であり、このステップを追加することによりリーダー設定手段3により合奏のメンバーとして設定されている装置は演奏者がジェスチャー操作をしていない時は、合奏のリーダーの演奏に従って自動演奏を行う自動演奏装置として動作することになる。なおその場合、データ通信手段8を介して受信するデータに演奏位置データ以外のものが含まれていた場合にはそれを利用することも可能であり、例えば音量情報が含まれていれば、それをステップS22の中に反映することも可能である。
ジェスチャーの代わりに電気的な信号による回転の速度を検出して演奏位置を決定し、決定した演奏位置に基づいて楽譜を演奏することにより、携帯端末機器等のみならずパーソナルコンピューターによる装置、あるいは単体で動作する音楽演奏装置などにも適用可能である。また視覚的に楽譜の動画画像を一致させるという操作は、ゲームとして利用することも可能である。