(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-08
(45)【発行日】2024-04-16
(54)【発明の名称】プログラム、方法、電子機器、及び演奏データ表示システム
(51)【国際特許分類】
G10G 1/00 20060101AFI20240409BHJP
G10H 1/38 20060101ALI20240409BHJP
【FI】
G10G1/00
G10H1/38 Z
(21)【出願番号】P 2019231922
(22)【出願日】2019-12-23
【審査請求日】2022-12-13
(73)【特許権者】
【識別番号】000001443
【氏名又は名称】カシオ計算機株式会社
(74)【代理人】
【識別番号】110003708
【氏名又は名称】弁理士法人鈴榮特許綜合事務所
(74)【代理人】
【識別番号】100108855
【氏名又は名称】蔵田 昌俊
(74)【代理人】
【識別番号】100103034
【氏名又は名称】野河 信久
(74)【代理人】
【識別番号】100179062
【氏名又は名称】井上 正
(74)【代理人】
【識別番号】100153051
【氏名又は名称】河野 直樹
(74)【代理人】
【識別番号】100199565
【氏名又は名称】飯野 茂
(74)【代理人】
【識別番号】100162570
【氏名又は名称】金子 早苗
(72)【発明者】
【氏名】加福 滋
(72)【発明者】
【氏名】奥田 広子
(72)【発明者】
【氏名】渋谷 敦
【審査官】山下 剛史
(56)【参考文献】
【文献】特開2004-347703(JP,A)
【文献】特開平6-35456(JP,A)
【文献】特開2008-233576(JP,A)
【文献】特開2019-101168(JP,A)
【文献】特開平11-352960(JP,A)
【文献】特開平11-224084(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G10G 1/00-3/04
G10H 1/00-1/46
(57)【特許請求の範囲】
【請求項1】
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、
第1画像グループのなかに含まれる第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、
第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データを表示させ
、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
プログラム。
【請求項2】
前記いずれから入力された演奏データであるかは、入力された演奏データに含まれる情報から判定させる、
請求項1に記載のプログラム。
【請求項3】
前記判定できる情報は、少なくとも音名情報及び、コード種別情報のいずれかを含む、
請求項
1または2に記載のプログラム。
【請求項4】
前記第1機器は、第1電子楽器及びオーディオインタフェースのいずれかを含み、
前記第2機器は、第2電子楽器及びオーディオインタフェースのいずれかを含む、
請求項1乃至
3のいずれか一項に記載のプログラム。
【請求項5】
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、
第1画像グループのなかに含まれる第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、
第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データを表示させ
、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
方法。
【請求項6】
ディスプレイ装置と、
プロセッサと、を含み、前記プロセッサが、
入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定し、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、
第1画像グループのなかに含まれる第1画像データの前記ディスプレイ装置への表示を指示し、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、
第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データの前記ディスプレイ装置への表示を指示
し、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
電子機器。
【請求項7】
第1機器と、第2機器と、ディスプレイ装置と、を備え、
前記第1機器は、
第1ユーザによる演奏操作に応じて前記第1機器を識別可能な第1識別子を含む第1演奏データを生成するとともに、生成された前記第1演奏データを前記ディスプレイ装置に出力し、
前記第2機器は、
第2ユーザによる演奏操作に応じて前記第2機器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された前記第2演奏データを前記ディスプレイ装置に出力し、
前記ディスプレイ装置は、
入力される前記第1演奏データに基づいて判定できる情報に応じて、
第1画像グループのなかに含まれる第1画像データを表示し、
入力される前記第2演奏データに基づいて判定できる情報が、たとえ前記第1演奏データに基づいて判定できる情報と同じであったとしても、
第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データを表示
し、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
演奏データ表示システム。
【発明の詳細な説明】
【技術分野】
【0001】
実施形態は、プログラム、方法、電子機器、及び演奏データ表示システムに関する。
【背景技術】
【0002】
例えば、MIDI(Musical Instrument Digital Interface)楽曲のような音楽の演奏に同期して踊り手(ダンサ)等の画像オブジェクトを動かし、音楽の曲想のみならず、楽音の進行に応じてこれと一体的に変化する動画像を生成することができるコンピュータグラフィックス動画像生成システムが知られている(特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に開示されたコンピュータグラフィックス動画像生成システムでは、単に演奏中に踊り手を示すキャラクタを動的に出現させているだけなので、表現力が乏しいという問題がある。
【0005】
本発明は、このような事情に鑑みなされたものであり、例えば、演奏の視覚的な表現力に優れたプログラム、方法、電子機器、及び演奏データ表示システムを提供することを目的とする。
【課題を解決するための手段】
【0006】
実施形態に係るプログラムによれば、情報処理装置のコンピュータに、入力された演奏データが、少なくとも第1機器及び第2機器のいずれから入力された演奏データであるかを判定させ、前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報に応じて、第1画像グループのなかに含まれる第1画像データを表示させ、前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報が、たとえ前記第1機器と判定された場合と同じであったとしても、第2画像グループのなかに含まれる、前記第1画像データとは異なる態様の第2画像データを表示させ、前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい。
【発明の効果】
【0007】
本発明によれば、例えば、演奏の視覚的な表現力に優れたプログラム、方法、電子機器、及び演奏データ表示システムを提供することができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、適用例に係るプログラムを含む演奏データ表示システムの一例を模式的に例示する図である。
【
図2】
図2は、実施形態に係る演奏データ表示システムの概要を示す図である。
【
図3】
図3は、実施形態に係る電子楽器の制御システムのハードウェアを示す図である。
【
図4】
図4は、実施形態に係る情報処理装置のハードウェアを示す図である。
【
図5】
図5は、ROMのテーブルに、記憶されているテーブルの一例を示す図である。
【
図6】
図6は、画像(キャラクタ)の表示例について示した図である。
【
図7】
図7は、ディスプレイ装置の表示部に表示されるリアルタイム画像における画像(キャラクタ)の軌道パターンの一例について示した図である。
【
図8】
図8は、画像決定部が生成する軌道パターンの一例である渦巻線を示す図である。
【
図9】
図9は、情報処理装置に接続される楽器の接続ケースを示した表である。
【
図10】
図10は、情報処理装置の動作を示すフローチャートである。
【
図11】
図11は、第1ユーザがメロディを弾いている場合における、リアルタイム画像を示している。
【0009】
【
図12】
図12は、第1及び第2ユーザが曲の演奏を終了した後の演奏後画像を示している。
【
図13】
図13は、4つの楽器を情報処理装置に接続する場合におけるリアルタイム画像の一例を示した図である。
【
図14】
図14は、3つ以上の楽器を情報処理装置に接続する場合におけるリアルタイム画像の一例を示した図である。
【
図15】
図15は、情報処理装置の動作を示すフローチャートである。
【発明を実施するための形態】
【0010】
以下、本発明の一側面に係る実施の形態(以下、「実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
【0011】
<0>適用例
まず、
図1を用いて、本発明が適用される場面の一例について説明する。
図1は、適用例に係るプログラムを含む演奏データ表示システムの一例を模式的に例示する。演奏データ表示システムは、ユーザ(演奏者)の演奏(音楽)に合わせてリアルタイムに画像(絵)を描画することにより、ユーザの電子楽器の練習意欲を掻き立てることを想定している。
【0012】
<0-1>適用例の概要
演奏データ表示システムの構成を説明する前に、演奏データ表示システムの概要について説明する。演奏データ表示システムは、例えば複数のユーザの演奏を演奏データ(例えばMIDIデータ)として出力できる電子楽器等から受信した演奏データを解析し、複数のユーザの演奏を画像に変換する。例えば、演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる。
【0013】
<0-2>適用例の構成
図1を参照して、適用例の構成について説明する。
図1は、適用例に係る演奏データ表示システムの構成の一例を示した図である。
【0014】
図1に示すように、演奏データ表示システムは、第1楽器と、第2楽器と、情報処理装置と、ディスプレイ装置と、を含む。
【0015】
第1楽器は、第1ユーザの演奏を演奏データ(例えばMIDIデータ)に変換する。そして、その第1楽器は、演奏データを情報処理装置に出力する。
【0016】
より具体的には、第1楽器は、第1ユーザによる演奏操作に応じて第1楽器を識別可能な第1識別子(例えば、MIDIの第1チャンネル番号)を含む第1演奏データを生成するとともに、生成された第1演奏データを情報処理装置に出力する。第1楽器は、例えば、キーボード、電子ピアノ、エレキギター、または電子バイオリン等の電子楽器である。ただし、第1楽器は、上述したものに限らず、実施の形態に応じて適宜選択されてよい。
【0017】
第2楽器は、第2ユーザの演奏を演奏データ(例えばMIDIデータ)に変換する。そして、その第2楽器は、演奏データを情報処理装置に出力する。
【0018】
より具体的には、第2楽器は、第2ユーザによる演奏操作に応じて第2楽器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された第2演奏データを情報処理装置に出力する。第2楽器は、例えば、電子楽器、ボーカルマイク、またはアコースティックピアノ等である。ただし、第2楽器は、上述したものに限らず、実施の形態に応じて適宜選択されてよい。
【0019】
情報処理装置は、入力された演奏データが、少なくとも第1楽器及び第2楽器のいずれから入力された演奏データであるかを判定する。また、情報処理装置は、入力された演奏データが第1機器からの演奏データであると判定した場合に、入力された演奏データに基づいて判定できる情報(例えば、音名、コード種別等)に応じて、第1画像(キャラクタ)データを出力する。また、情報処理装置は、入力された演奏データが第2機器からの演奏データであると判定した場合に、入力された演奏データに基づいて判定できる情報(例えば、音名、コード種別等)が、たとえ第1演奏データに基づいて判定できる情報と同じあったとしても、第1画像データとは異なる態様の第2画像データ(キャラクタ)を出力する。情報処理装置は、例えば、PC(パーソナルコンピュータ)である。なお、「設定」、または「登録」は、基本的には「記憶」と同様の意味である。
【0020】
ディスプレイ装置は、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を表示部にて表示する。上述したように、第1ユーザの演奏に基づく画像は、第1画像グループに基づき生成されており、第2ユーザの演奏に基づく画像は、第2画像グループに基づき生成されている。そのため、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定することが可能である。
【0021】
<0-3>適用例の動作
次に、適用例に係る演奏データ表示システムの動作の一例について説明する。
【0022】
第1ユーザが第1楽器を用いて演奏を開始すると、情報処理装置は入力された演奏データに含まれる情報から、第1楽器からの演奏データ(第1演奏データ)であると判定する。そして、情報処理装置は、第1楽器の演奏に対して音楽解析を行う。具体的には、情報処理装置は、第1演奏データに含まれる音名(またはコード)に応じて、第1画像グループ(例えば虫のキャラクタを複数含むキャラクタグループ)のなかに含まれる画像(例えばかぶとむしのキャラクタ)を決定し、設定された第1条件(例えばコード進行に応じた表示)に従った軌道に沿って、リアルタイムに描画する。これにより、ディスプレイ装置には、第1画像グループのなかに含まれる画像(キャラクタ)がリアルタイムに表示される。なお、ここでの「リアルタイム」とは、演奏のタイミングと画像(キャラクタ)の表示タイミングと、は必ずしも同タイミングである必要はない。また、演奏に合わせて画像(キャラクタ)が表示される画像を、例えばリアルタイム画像と記載しても良い。つまり、リアルタイム画像の中に、複数の画像(キャラクタ)が描画されることになる。リアルタイム画像の描画方法については後述する。
【0023】
第2ユーザが第2楽器を用いて演奏を開始すると、情報処理装置は入力された演奏データに含まれる情報から、第2楽器からの演奏データ(第2演奏データ)であると判定する。そして、情報処理装置は、第2楽器の演奏に対して音楽解析を行う。具体的には、情報処理装置は、第2演奏データに含まれる音名(またはコード)に応じて、第2画像グループ(例えば動物のキャラクタを複数含むキャラクタグループ)のなかに含まれる画像(例えば、きりんのキャラクタ)を決定し、設定された第1条件(例えばコード進行に応じた表示)に従った軌道に沿って、リアルタイムに描画する。これにより、ディスプレイ装置には、第2画像グループのなかに含まれる画像(キャラクタ)がリアルタイムに表示される。
【0024】
このように、情報処理装置は、リアルタイム画像として、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定できるように描画する。 また、第1ユーザ及び第2ユーザが楽器の演奏を終了した後、情報処理装置は設定された第2条件(例えば渦巻表示)に従って、ディスプレイ装置に画像データを表示させる。なお、このような画像を、例えば演奏後画像と記載しても良い。この演奏後画像としては、第1ユーザ及び第2ユーザユーザの演奏の始めから終わりまでに解析された画像(キャラクタ)が第2条件(例えば渦巻表示)に従って、描画される画像である。この際、リアルタイム画像と同様に、情報処理装置は、演奏後画像として、第1ユーザの演奏に基づく画像と、第2ユーザの演奏に基づく画像と、を判定できるように描画する。
【0025】
<0-4>適用例の効果
以上のように、適用例に係る演奏データ表示システムによれば、第1ユーザ、及び第2ユーザの演奏を判定し、表示する画像のグループを変更できる。換言すると、適用例に係る演奏データ表示システムによれば、第1ユーザ、及び第2ユーザの演奏中に、演奏と無関係な特有な操作を行うことなく、画像に関する設定(描画設定)を適宜行う事ができる。そのため、演奏データ表示システムは、第1ユーザ、及び第2ユーザが演奏に集中したまま、表現力の高い画像を生成することができる。
【0026】
<1>実施形態
<1-1>構成
<1-1-1>演奏データ表示システム
以下、
図2を参照して、実施形態に係る演奏データ表示システムについて説明する。
【0027】
図2は、実施形態に係る演奏データ表示システムの概要を示す図である。
【0028】
図2に示すように、演奏データ表示システムは、例えば情報処理装置(電子機器)1と、電子楽器2(例えば2(0)、及び2(1))と、スピーカ3と、ディスプレイ装置4と、MIDIパッチャ(MIDIパッチベイ)5と、ボーカルマイク6と、アコースティックピアノ7と、オーディオインタフェース8と、を備えている。
【0029】
なお、
図2では、一例として、2つの電子楽器2と、ボーカルマイク6と、アコースティックピアノ7と、を示しているが、これは一例である。少なくとも二つの楽器があれば良い。また、本実施形態では、電子楽器2、ボーカルマイク6、及びアコースティックピアノ7をまとめて楽器として取り扱う。
【0030】
<1-1-2>電子楽器
以下、
図2及び
図3を参照して、実施形態に係る電子楽器について説明する。
図3は、実施形態に係る電子楽器の制御システムのハードウェアを示す図である。
【0031】
図2及び
図3に示すように、本実施形態の情報処理装置1が接続される電子楽器2は、例えば、電子ピアノ、シンセサイザーや電子オルガン等の電子鍵盤楽器である。
【0032】
電子楽器2は、複数の鍵11と、表示部20と、操作部30と、発音部40と、を備えている。
【0033】
また、電子楽器2は、
図3に示すように、押鍵検出部50と、記憶部60と、制御部70と、通信部80と、を備えている。
【0034】
鍵11は、演奏者が音高を指定する操作子であり、演奏者が鍵11を押鍵及び離鍵することで、電子楽器2は、指定された音高に対応する音の発音及び消音を行う。
【0035】
表示部20は、例えば、タッチパネル付きの液晶モニタを有し、演奏者の操作部30の操作に伴うメッセージの表示等を行う部分である。
【0036】
なお、本実施形態では、表示部20がタッチパネル機能を有しているため、表示部20は、操作部30の一端を担うことができるようになっている。
【0037】
操作部30は、演奏者が各種の設定等を行う操作ボタンを有し、音量調整等の各種の設定操作等を行うための部分である。
【0038】
発音部40は、音を出力する部分であり、SPアンプ41(スピーカーアンプ)と、スピーカ42と、HPアンプ43(ヘッドホンアンプ)と、スピーカ3(またはヘッドホン)のプラグを差し込むHPジャック44(ヘッドホンジャック)と、HPジャック44にスピーカ3(またはヘッドホン)のプラグが差し込まれたことを検知するHPジャック挿入検出部45と、を有している。
【0039】
スピーカ3(またはヘッドホン)のプラグがHPジャック44に挿入されると、HPジャック挿入検出部45がその挿入を検出して、音の出力がHPジャック側に行われ、逆に、HPジャック挿入検出部45がプラグの挿入を検知していないときには、音の出力がスピーカ42側に行われる。
【0040】
なお、スピーカ3の代わりに発音部40を用いても良い。
【0041】
押鍵検出部50は、鍵11の押鍵及び離鍵を検知する部分であり、例えば、各鍵11の下側にラバースイッチが設けられ、そのラバースイッチによって、押鍵及び離鍵が検出される。
【0042】
記憶部60は、読み取り専用の記憶部であるROM61と、読み書きが可能な記憶部であるRAM62と、を備えている。
【0043】
ROM61は、例えば、制御部70が実行する制御プログラム(例えば、レッスンモードプログラム用のプログラム等)や各種データテーブル等を記憶している。
【0044】
RAM62は、それぞれの鍵11に対応した楽音データ、楽曲データ等のデータが記憶される記憶領域であるとともに、演奏中に制御部70が生成するデータや制御用プログラムを展開させるための一時記憶領域としても機能する。
【0045】
制御部70は、電子楽器2全体の制御を司る部分である。制御部70は、例えばLSI(Large Scale Integration)である。
【0046】
そして、制御部70は、例えば、鍵11の押鍵に応じて楽音を発音部40から発音させる制御や鍵11の離鍵に応じて発音部40から発音されている楽音を消音する制御等を行う。
【0047】
通信部80は、外部機器との間で通信を行うための無線ユニットや有線ユニットを備えており、本実施形態では、情報処理装置1が有線接続されており、後ほど説明するように、情報処理装置1にデータの送信が行われる。
【0048】
ただし、通信部80は、送信機能だけを行うものに限定される必要はなく、受信機能を併せ持っていてもよい。
【0049】
そして、上記で説明した各部(表示部20、操作部30、発音部40、押鍵検出部50、記憶部60、制御部70、及び通信部80)は、バス100で通信可能に接続されており、各部間で必要なデータのやり取りが行えるようになっている。
【0050】
<1-1-3>MIDIパッチャ
次にMIDIパッチャ(MIDIパッチベイ)5について説明する。
【0051】
MIDIパッチャ5とは、MIDI信号の経路をかえる機器である。
【0052】
具体的には、MIDIパッチャには、MIDI IN端子と、MIDI OUT端子がペアになって複数個用意されており、それぞれに番号が付いている。MIDIパッチャは、スイッチ等で操作することにより、複数のMIDI機器の接続を自在に切り換えることができる。
【0053】
図2の場合、MIDIパッチャ5は、二つの電子楽器2が接続された場合、二つの電子楽器2のMIDI信号を情報処理装置1に転送する。
【0054】
<1-1-4>ボーカルマイク
次にボーカルマイク6について説明する。
【0055】
ボーカルマイク6は、ボーカルや生楽器の音を収集するための機器である。より具体的には、ボーカルマイク6は、音(空気の振動)を電気の信号に変換する。なお、ボーカルマイク6の例としては、ダイナミックマイク(電源不必要)、またはコンデンサーマイク(電源必要)等がある。
【0056】
<1-1-5>アコースティックピアノ
次にアコースティックピアノ7について説明する。
【0057】
アコースティックピアノ7は、電気的なスピーカを使わず、奏者が鍵盤を押すとハンマーが弦を叩いて振動し、その振動が響板、さらにボディ全体へと伝わって音が鳴る楽器である。図示していないが、アコースティックピアノ7の音を電気の信号に変換する際には、ボーカルマイク6と同様の機器を介する必要がある。
【0058】
<1-1-6>オーディオインタフェース
次に、オーディオインタフェース8について説明する。
【0059】
ところで、ボーカルやアコースティックピアノなどの音(アナログ信号といいます)を、情報処理装置1で扱う際には、デジタル信号に変換する必要がある。オーディオインタフェース8では、アナログ信号をデジタル信号に変換(AD変換)することができる機器である。そのため、オーディオインタフェース8を用いる事で、ボーカルマイク6、または、アコースティックピアノ7からのアナログ信号を、デジタル信号に変換し、情報処理装置1に供給することができる。
【0060】
<1-1-7>情報処理装置
続いて、
図2及び
図4を参照して、情報処理装置について説明する。
図4は、実施形態に係る情報処理装置のハードウェアを示す図である。
【0061】
情報処理装置1は、本実施形態では、
図2に示すように、PCであり、後述するような画像をディスプレイ装置4に表示させるためのアプリケーションがインストールされている。
【0062】
ただし、情報処理装置1は、PCに限定される必要はなく、タブレット型の携帯端末等であってもよい。
【0063】
また、情報処理装置1は、電子楽器2からMIDIコードを受信して曲データを再生させるシーケンサ等を備えていてもよい。
【0064】
図4に示すように、情報処理装置1は、主に、操作部101と、表示部102と、通信部103と、音出力部104と、制御部105と、記憶部106と、を備えている。
【0065】
操作部101は、例えば、情報処理装置1の電源のON/OFFを行うための電源スイッチ等のスイッチ類を含む。
【0066】
表示部102は、液晶モニタを有し、画像を表示できる。表示部102は、タッチパネル機能を有しても良い。その場合、表示部102は、操作部101の一端を担うことができる。なお、ディスプレイ装置4の代わりに表示部102を用いても良い。
【0067】
通信部103は、他の機器等との間で通信を行うための無線ユニットや有線ユニットを備えている。通信部103は、例えば電子楽器2、またはオーディオインタフェース8からのデータを受信する。また、通信部103は、例えばディスプレイ装置4の通信部に有線接続され、ディスプレイ装置4にデータを送信する。
【0068】
音出力部104は、音を出力する部分であり、スピーカやイヤホンジャック等を有している。
【0069】
記憶部106は、読み取り専用の記憶部である読み書きが可能な記憶部であるRAM(Random Access Memory)1061と、ROM(Read Only Memory)1062と、を備えている。
【0070】
RAM1061は、揮発性メモリを含み、制御プログラムを動作させる上で必要なデータが記憶される記憶領域であるとともに、制御部105が生成するデータ、電子楽器2から送られたデータ(音高情報を含む演奏情報)、及び、アプリケーションを展開させるための一時記憶領域等としても機能する。
【0071】
ROM1062は、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable ROM)といった不揮発性の半導体メモリであって、いわゆる二次記憶装置又は補助記憶装置としての役割を担う。
【0072】
ROM1062は、プログラム10621及びテーブル10622を記憶する。プログラム10621は、制御部105が各種処理を行うために使用する。テーブル10622は、演奏情報と画像とを紐付けしたテーブルである。
【0073】
制御部105は、情報処理装置1全体の制御を司る部分である。制御部105は、例えばCPU(Central Processing Unit)を備える。制御部105は、記憶部106のROM1062に格納されたプログラム10621を読み出し、記憶部106のRAM1061をワークエリアとして用いることにより、情報処理装置1を統括制御する。
【0074】
次に、実施形態に係る情報処理装置1の制御部105の機能構成について説明する。制御部105は、ROM1062に格納されたプログラム10621を読み出して実行することにより、演奏判定部1051と、画像決定部1052と、画像情報出力部1053と、条件判定部1054と、演奏終了判定部1055と、接続機器判定部1056と、として機能する。なお、演奏判定部1051と、画像決定部1052と、画像情報出力部1053と、条件判定部1054と、演奏終了判定部1055と、接続機器判定部1056と、は、それぞれプログラムではなく、回路構成によって実現されても良い。
【0075】
接続機器判定部1056は、外部(電子楽器2、またはオーディオインタフェース8)から入力された演奏データが、少なくとも第1機器(例えば電子楽器2)及び第2機器(例えば電子楽器2、またはオーディオインタフェース8)のいずれから入力された演奏データであるかを判定する。
【0076】
ところで、MIDIデータは、ポートの中を通って送信される。そして、このポートには、例えば16本の「チャンネル」が用意されている。音源は、1本のチャンネルにつき、1つのパートを再生することができる。そして、電子楽器2は、チャンネルを指定してMIDIデータを送信することができる。例えば、2つの電子楽器2が、異なるチャンネルを指定することで、接続機器判定部1056は、MIDIデータのチャネルから、二つの電子楽器2を判定することができる。
【0077】
また、オーディオインタフェース8からのデジタル信号と、MIDI信号は異なる。そのため、接続機器判定部1056は、電子楽器2からの演奏データと、オーディオインタフェース8からの演奏データを判定することができる。
【0078】
演奏判定部1051は、通信部103を介して電子楽器2から受け付けた演奏情報(演奏データ)に基づいて、曲の調性(例えば、ハ長調からロ短調の24種類)、音名(例えば、ド、レ、ミ…)、コード種別(例えば、Major、Mimor、Sus4、Aug、Dim、7th等)、ベロシティ値(MIDI規格において音の強弱を表す数値)、音長、シンコペーション、コード機能、及びコード進行を判定する。なお、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定方法は、どのようなものでも良い。
【0079】
また、演奏判定部1051は、オーディオインタフェース8から受信したデジタル信号からピッチ抽出を行い、ピッチ情報から変換して得られたMIDI情報を基に音楽解析を行う。また、演奏判定部1051は、オーディオインタフェース8から受信したデジタル信号に対して多重音解析を行い、多重音解析を結果から変換して得られたMIDI情報を基に音楽解析を行う。なお、多重音解析で作られたMIDIは誤認識によるノイズが入る可能性があるため、誤認識により発生しやすい短いノートは無視する仕組みを入れても構わない。そして、演奏判定部1051は、電子楽器2から受信した信号と同様に、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行を判定する。
【0080】
画像決定部1052は、接続機器判定部1056からの情報に基づき、どの楽器からデータを受信したかを判定できる。
【0081】
画像決定部1052は、電子楽器2から演奏情報を受け付ける毎に、演奏判定部1051により判定された情報に基づいて、画像グループ(キャラクタグループ)の中に含まれる何れかの画像データ(キャラクタ)を決定する。
【0082】
ここで、
図5を参照して、演奏判定部1051により判定された情報と、画像データとの関係について説明する。
図5は、ROM1062のテーブル10622に、記憶されているテーブルの一例を示す図である。
【0083】
図5に示すように、テーブル10622には、例えば音名(ここでは、ド、レ、ミ、ファ、ソ、ラ、シの例)に対応して画像(キャラクタ)が設定された第1画像グループと、第2画像グループと、が記憶されている。画像決定部1052は、例えば第1楽器に第1画像グループが割り当てられ、第2楽器に第2画像グループが割り当てられる。また、テーブル10622には、これに限らず、他の音名(例えば、ド♯等)や、コード種別に応じた画像も記憶されていて良い。
【0084】
例えば、画像決定部1052は、第1楽器から受信した第1演奏情報に含まれる音名が「ド」であると判定すると、テーブル10622の第1画像グループの「蝶」の画像(キャラクタ)を決定する。また、画像決定部1052は、第2楽器から受信した第2演奏情報に含まれる音名が「ミ」であると判定すると、テーブル10622の第2画像グループの「猿」の画像(キャラクタ)を決定する。
【0085】
ここで、
図6を参照して、画像(キャラクタ)の表示方法について説明する。
図6は、画像(キャラクタ)の表示例について示した図である。
【0086】
図6に示すように、テーブル10622に記憶されている画像(キャラクタ)は、例えば、基本形である。画像決定部1052は、演奏情報に含まれるベロシティ値に基づいて、ディスプレイ装置4に表示する画像(キャラクタ)のサイズを決定する。基本形のサイズは高さHB、幅WBと決まっている。そして、例えば、ベロシティ値に基づいて、高さHB、及び幅WBのパーセンテージを変更することで、高さHC、及び幅WCへと変更する。また、画像決定部1052は、ランダムに画像(キャラクタ)の基本形をR度回転させたり、左右反転させたり、色を変更しても良い。なお、ここでは詳細に記載しないが、画像決定部1052は、ここに示さない情報に基づいて、サイズ、回転、反転、または色を適宜変更しても良い。
【0087】
画像決定部1052は、リアルタイム画像を表示させる際において、演奏情報(例えばコード進行)に基づいて、ディスプレイ装置4の表示部において画像(キャラクタ)を配置する軌道パターン(第1条件)を決定する。軌道パターン(第1条件)は、例えばROM1062に記憶されている。
【0088】
ここで、
図7を参照して、画像(キャラクタ)を表示する際の軌道パターンの一例について説明する。
図7は、ディスプレイ装置4の表示部401に表示されるリアルタイム画像における画像(キャラクタ)の軌道パターンの一例について示した図である。
図7では、二つの楽器(第1楽器、または第2楽器)に基づくリアルタイム画像を示している。
【0089】
図7に示すように、第1楽器に関する軌道パターンの一例としては、リアルタイム画像の上半分(1st(U)を参照)、且つ矢印A1に沿った仮想の矢印上に画像(キャラクタ)が順に配置される。また、第2楽器に関する軌道パターンの一例としては、リアルタイム画像の下半分(1st(L)を参照)、且つ矢印A2に沿った仮想の矢印上に画像(キャラクタ)が順に配置される。
【0090】
なお、軌道パターンの仮想の矢印(A1、A2)上に各画像(キャラクタ)の少なくとも一部が重なるように、各画像(キャラクタ)が配置される。
【0091】
画像決定部1052は、ユーザの演奏後にディスプレイ装置4に表示させるための演奏後画像の軌道パターン(第2条件)を生成する。画像決定部1052は、それぞれの演奏情報に対応付けた画像(キャラクタ)を配置する軌道パターン(第2条件)を生成する。画像決定部1052は、演奏判定部1051が算出した演奏時間に基づいて演奏の軌道パターン(第2条件)の長さを決定する。例えば、演奏時間が第1演奏時間長の場合の軌道パターン(第2条件)の長さである第1長と、演奏時間が第2演奏時間長の場合の軌道パターン(第2条件)の長さである第2長とについて、第1演奏時間長が第2演奏時間長よりも短い場合、第1長は第2長よりも短くなる。
【0092】
図8を参照して、画像決定部1052が生成する軌道パターン(第2条件)の一例を説明する。
図8は、画像決定部1052が生成する軌道パターン(第2条件)の一例である渦巻線を示す図である。
【0093】
画像決定部1052は、演奏後画像を生成する際、
図8に示すような矢印に沿った仮想の渦巻線上に画像(キャラクタ)が、「演奏の始め」から「演奏の終わり」に向かって順に配置される。特に、第1楽器に関する画像(キャラクタ)は、矢印B1側に設けられ、第2楽器に関する画像(キャラクタ)は、矢印B2側に設けられる。
【0094】
なお、例えば、「演奏の始め」の位置と、「演奏の終わり」の位置と、は固定され、演奏の時間が長くなるにつれて、渦巻線状の軌道パターン(第2条件)の長さが伸びる。
【0095】
画像情報出力部1053は、画像決定部1052が生成した軌道パターン(第2条件)上に、演奏情報について対応付けた画像(キャラクタ)を配置してリアルタイム画像または演奏後画像を生成し、画像を表示するための情報である画像情報を生成する。
【0096】
演奏終了判定部1055は、少なくとも演奏情報の入力を或る時間受け付けないこと、及び通信部103を介して演奏終了を示す情報を受け付けたこと、のいずれかにより演奏が終了したか否かを判定する。
【0097】
条件判定部1054は、通信部103を介して取得される演奏データ、または演奏終了判定部1055からの情報に基づき、第1条件を満たすか否か、または、第2条件を満たすか否かを判定することができる。そして、条件判定部1054は、その旨を、画像決定部1052に通知する。なお、この条件は、例えばRAM1061に設定(記憶)されている。
【0098】
画像決定部1052は、条件判定部1054からの情報に基づいて、リアルタイム画像、または演奏後画像を生成する。
【0099】
そして、上記で説明した各部(操作部101、表示部102、通信部103、音出力部104、制御部105及び記憶部106)は、バス107で通信可能に接続されており、各部間で必要なデータのやり取りが行えるようになっている。
【0100】
ユーザが、演奏のために、電子楽器2の鍵11を押鍵すると、押鍵検出部50によって鍵11の押鍵が検出されることになる。
【0101】
そして、鍵11の押鍵が検出されると、電子楽器2の制御部70は、その押鍵された鍵11に対応する演奏情報(例えば、音高情報等(ノートナンバーやベロシティ値等)を含むノートオン)を生成する。そして、電子楽器2の制御部70は、スピーカ3(または発音部40)から、その演奏情報に応じた音を発音させる制御を行う。
【0102】
一方、ユーザが、押鍵していた鍵11を離鍵すると、押鍵検出部50によって鍵11の離鍵が検出されることになる。
【0103】
そして、鍵11の離鍵が検出されると、電子楽器2の制御部70は、その離鍵された鍵11に対応する演奏情報(例えば、ノートオフ)を生成する。そして、電子楽器2の制御部70は、スピーカ3(または発音部40)から、その演奏情報に応じた音を消音させる制御を行う。
【0104】
そして、この電子楽器2の制御部70が生成する演奏情報は、電子楽器2の通信部80から情報処理装置1の通信部103に送信される。
【0105】
<1-1-8>スピーカ
スピーカ3は、発音部40は、音を出力する部分である。スピーカ3は、電子楽器2のHPジャック44に接続することにより、HPジャック44から音の信号を受信し、音の出力を行う。
【0106】
<1-1-9>ディスプレイ装置
ディスプレイ装置4は、表示部401として液晶モニタを有し、画像を表示できる。ディスプレイ装置4は、情報処理装置1の通信部103に有線接続され、情報処理装置1からのデータを受信する。そして、ディスプレイ装置4は、表示部401に、データに基づく画像を表示する。
【0107】
<1-1-10>楽器の組み合わせ
図9を用いて、本実施形態における、楽器の組み合わせについて説明する。
【0108】
図9に示すように、楽器の組み合わせとしては、おおよそ8通りの組み合わせが想定される。
【0109】
<1-1-10-1>ケース1
ケース1は、電子楽器2(0)(デジタル単音楽器)のみを、情報処理装置1に接続するケースである。
【0110】
この場合は、例えば電子楽器2を介して情報処理装置1に単音の演奏データが供給される(単音入力)。
【0111】
<1-1-10-2>ケース2
ケース2は、電子楽器2(1)(デジタル和音楽器)のみを、情報処理装置1に接続するケースである。
【0112】
この場合は、例えば電子楽器2を介して情報処理装置1に和音の演奏データが供給される(和音入力)。
【0113】
<1-1-10-3>ケース3
ケース3は、電子楽器2(0)(デジタル単音楽器)及び電子楽器2(1)(デジタル単音楽器)を、情報処理装置1に接続するケースである。
【0114】
この場合は、例えばMIDIパッチャ5を介して情報処理装置1に単音の演奏データと、和音の演奏データとが供給される。これは、例えば、一人が伴奏を弾き、もう一人がメロディを弾く場合である。
【0115】
<1-1-10-4>ケース4
ケース4は、電子楽器2(1)(デジタル和音楽器)及びボーカルマイク6(ボーカル、またはアコースティック単音楽器)を、情報処理装置1に接続するケースである。
【0116】
この場合は、例えば電子楽器2を介して情報処理装置1に和音の演奏データが供給され、オーディオインタフェース8を介して情報処理装置1に単音の演奏データが供給される。これは、例えば、伴奏に合せて歌う場合である。
【0117】
<1-1-10-5>ケース5
ケース5は、ボーカルマイク6(ボーカル、またはアコースティック単音楽器)を、情報処理装置1に接続するケースである。
【0118】
この場合は、例えばオーディオインタフェース8を介して情報処理装置1に単音の演奏データが供給される。これは、例えば、歌のみの場合である。
【0119】
<1-1-10-6>ケース6
ケース6は、アコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
【0120】
この場合は、例えばオーディオインタフェース8を介して情報処理装置1に和音の演奏データが供給される。これは、例えば、アコースティック和音楽器、またはカラオケの伴奏音源のみの場合である。
【0121】
<1-1-10-7>ケース7
ケース7は、ボーカルマイク6(ボーカル、またはアコースティック単音楽器)及びアコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
【0122】
この場合は、例えばオーディオインタフェース8を介して情報処理装置1に単音の演奏データと、和音の演奏データが供給される。これは、例えば、アコースティック和音楽器、またはカラオケの伴奏音源に合せて歌う場合である。
【0123】
<1-1-10-8>ケース8
ケース8は、電子楽器2(0)(デジタル単音楽器)及びアコースティックピアノ7(アコースティック和音楽器、またはカラオケの伴奏音源)を、情報処理装置1に接続するケースである。
【0124】
この場合は、例えば電子楽器2を介して情報処理装置1に単音の演奏データが供給され、オーディオインタフェース8を介して情報処理装置1に和音の演奏データが供給される。これは、例えば、カラオケの伴奏音源に合せてメロディを弾く場合である。
【0125】
本実施形態に係る情報処理装置1によれば、上述した全てのケースにおいて、リアルタイム画像及び演奏後画像を生成することが可能である。
【0126】
なお、上述したケースは、一例であり、3つ以上の楽器が情報処理装置1に接続されても良い。
【0127】
<1-2>動作
<1-2-1>フローチャート
次に、
図10を参照して、情報処理装置1の動作を説明する。
図10は、情報処理装置1の動作を示すフローチャートである。
【0128】
なお、以下の説明では、情報処理装置1の通信部103と電子楽器2の通信部80の間は、接続されているものとする。また、これから説明するように、情報処理装置1の制御部105は、画像をディスプレイ装置4に表示させるためのアプリケーションを起動しているものとする。
【0129】
≪S1001≫
図10に示すように、情報処理装置1の制御部105(接続機器判定部1056)は、情報処理装置1に接続される楽器を確認する。例えば、楽器の情報処理装置1への接続のケースは、
図9に示した通りである。そして、情報処理装置1の制御部105(画像決定部1052)は、情報処理装置1に接続された楽器毎に、異なる画像グループを割り当てる。これにより、情報処理装置1の制御部105(画像決定部1052)は、リアルタイム画像、及び演奏後画像に関する描画設定を行う。
【0130】
≪S1002≫
図10に示すように、情報処理装置1の制御部105は、楽器から送信された演奏情報が情報処理装置1の通信部103で受信され、演奏情報の入力が有ったかを判定(ステップS1002)する。情報処理装置1の制御部105は、演奏情報の入力がない場合(ステップS1002:NO)、ステップS1006に進む。
【0131】
≪S1003≫
そして、楽器から送信された演奏情報が情報処理装置1の通信部103で受信されると(ステップS1002:YES)、情報処理装置1の制御部105は、演奏情報の入力を受付ける受付処理を実行し、ステップS1003の演奏判定処理(音楽解析、または音楽解析処理と記載しても良い)を実行する。
【0132】
具体的には、情報処理装置1の制御部105(演奏判定部1051)は、ステップS1003の演奏判定処理として、受付けた演奏情報に基づき、例えば、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定等を行う。
【0133】
ただし、ステップS1003の演奏判定処理として、情報処理装置1の制御部105(演奏判定部1051)は、曲の調性、音名、コード種別、ベロシティ値、音長、シンコペーション、コード機能、及びコード進行の判定のうちのいずれかを行うものとしてもよい。
【0134】
ステップS1003の演奏判定処理として、具体的に、どのようなものが判定されているのか等の詳細については、次のステップS1004のところで説明する。
【0135】
≪S1004≫
情報処理装置1の制御部105(画像決定部1052)は、ステップS1003の演奏判定処理を終えると、ステップS1004に進み、演奏情報を受付けたタイミングに合せて、演奏情報に応じたリアルタイム画像を生成する。そして、情報処理装置1の制御部105(画像情報出力部1053)は、ディスプレイ装置4に出力して表示するリアルタイム画像出力処理を実行する。
【0136】
なお、上述した「演奏情報を受付けたタイミングに合せて」とは、時間的に同時を意味するものではなく、演奏情報を受付けるごとに、を意味する点に留意されたい。
【0137】
本実施形態では、情報処理装置1の記憶部106に記憶されている基礎となる画像をコンピュータグラフィックス(CG)で加工してリアルタイム画像を作成してディスプレイ装置4に表示させるようにしているが、ディスプレイ装置4に表示させるリアルタイム画像は、このような手法によるものに限定される必要はなく、演奏情報に応じたリアルタイム画像であればよい。
【0138】
≪S1005≫
情報処理装置1の制御部105(演奏終了判定部1055)は、楽器から送信された演奏情報が情報処理装置1の通信部103で受信されない場合(ステップS1002:NO)、または演奏データが設定された条件を満たさないと判定する場合(S1004:NO)、またはステップS1004の後、演奏終了判定処理を行う。具体的には、情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過するか否かを判定する。情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過していない場合(ステップS1005:NO)、再び、ステップS1002に進み、演奏情報の入力が有ったか否かを判定する。
【0139】
≪S1006≫
情報処理装置1の制御部105(演奏終了判定部1055)は、演奏情報の入力無しで所定の時間経過した場合(ステップS1005:YES)、つまり、演奏情報の受付が所定の時間検出されない場合、演奏が終了したものと判定する。情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、演奏が終了したものと判定する場合、ステップS1006に進んで、演奏後画像をディスプレイ装置4に出力して表示する演奏後画像出力処理を行い、全体の処理を終了する。
【0140】
また、伴奏データを自動再生し、メロディを演奏者に指定させる場合に本実施形態を適用した場合には、伴奏データの自動再生が終了した時点で演奏が終了したものと判定して演奏後画像出力処理を行ってもよい。すなわち、情報処理装置1の制御部105が、演奏者による演奏終了を判定する理由はどのような理由であってもよく、情報処理装置1の制御部105が、演奏者による演奏終了を判定した時点で、演奏後画像出力処理が実行されればよい。
【0141】
一方、情報処理装置1の制御部105は、演奏情報の入力無しで所定の時間経過していない場合(ステップS1005:NO)、再び、ステップS1002に進み、演奏情報の入力が有ったか否かを判定する。
【0142】
<1-2-2>具体例
次に、情報処理装置1の動作の具体例を説明する。
【0143】
具体例では、例えば、二人のユーザが「故郷(ふるさと)」を弾く場合において、二人のユーザに画像グループが割り当てられる場合について説明する。
【0144】
<1-2-2-1>リアルタイム画像の描画例
続いて、
図11を用いて、二人のユーザが「故郷(ふるさと)」を弾くことにより、異なる画像グループが描画される様子を説明する。
図11は、第1ユーザ及び第2ユーザがメロディを弾いている場合における、リアルタイム画像を示している。
【0145】
図11に示すように、第1ユーザが電子楽器2(0)にてメロディを弾く場合、情報処理装置1の制御部105は、リアルタイム画像として、第1画像グループに含まれる画像(虫のキャラクタ)をディスプレイ装置4に表示させる。この際、例えば、リアルタイム画像の上半分(1st(U)を参照)の矢印A1に沿って画像(虫のキャラクタ)が表示される(図中のC1、及びD1~D6参照)。
【0146】
また、
図11に示すように、第2ユーザが電子楽器2(1)にて伴奏を弾く場合、情報処理装置1の制御部105は、リアルタイム画像として、第2画像グループに含まれる画像(動物のキャラクタ)をディスプレイ装置4に表示させる。この際、例えば、リアルタイム画像の下半分(1st(L)を参照)の矢印A2に沿って画像(動物のキャラクタ)が表示される(図中のC2、及びE1~E6参照)。
【0147】
<1-2-2-5>演奏後画像の描画例
続いて、
図12を用いて、二人のユーザが「故郷」の演奏を終了した後の演奏後画像について説明する。
図12は、二人のユーザが曲の演奏を終了した後の演奏後画像を示している。
【0148】
情報処理装置1の制御部105は、二人のユーザが演奏を終了したと判定すると、演奏後画像をディスプレイ装置4に表示させる。
【0149】
図12に示すように、情報処理装置1の制御部105は、第1ユーザの演奏に対応する個所には第1グループの画像(虫のキャラクタ)を配置(C1参照)し、第2ユーザの演奏に対応する個所には第2グループの画像(動物のキャラクタ)を配置(C2参照)する。
【0150】
これにより、上述した効果と同様の効果を得ることができる。
【0151】
<1-3>効果
上述した実施形態によれば、ユーザの演奏(音楽)に合わせて画像を描く演奏データ表示システムにおいて、複数の演奏が入力された際に、ユーザ毎に異なる表現を出力する。
【0152】
例えば、ユーザの演奏(音楽)に合わせて画像を描く演奏データ表示システムは、ユーザの電子楽器の練習意欲を掻き立てることができる。しかし、複数のユーザにて演奏する場合において、ユーザ毎に画像を変更しないと、一人の演奏の音数が増えたものと同じ表現しか出来ない。この場合、画像と、各演奏との対応関係が不明瞭となる。
【0153】
しかし、上述した実施形態によれば、複数のユーザにそれぞれ描画表現をわりあてることができる。その結果、ユーザの演奏と、画像との関係が明確になり、より楽しさを提供できる。その結果、ユーザの電子楽器の練習意欲を更に掻き立てることができる。
【0154】
また、上述した実施形態では、オーディオインタフェースを用い、且つ、情報処理装置1にて音楽解析を行うことで、生音であっても画像に変換することができる。
【0155】
<2>変形例
なお、上述した実施形態において、情報処理装置1の制御部105は、
図10のステップS1001における描画設定変更の際、画像グループの切り替えを行っている。しかし、これに限らず、例えば、「画像(キャラクタ)の表示位置」、「明るさの変更」、「画像(キャラクタ)のサイズの変更」、「背景色(リアルタイム画像、または演奏後画像の背景の色)や、画像(キャラクタ)の色テーブルの変更」、「特定の条件を満たす際に表示される画像(ボーナスキャラクタ)の種類の変更」、または「画像(キャラクタ)の動きを変更」等でも良い。なお、背景色(リアルタイム画像、または演奏後画像の背景の色)や、画像(キャラクタ)の色テーブルは、例えばROM1062に記憶されている。また、特定の条件を満たす際に表示される画像(ボーナスキャラクタ)とは、例えば情報処理装置1の制御部105がユーザの演奏のリズムなどが安定していると判定する場合に、リアルタイム画像に表示される画像である。また、画像(キャラクタ)はアニメーション等で動いても良い。また、複数の画像グループにおいて、同じ画像(キャラクタ)を含んでいても良い。また、楽器が「ボーカル」の場合、「ボーカル」が目立つように大きく、リアルタイム画像や演奏後画像の中心に表示しても良い。また、低音楽器は丸く、高音楽器はトゲトゲしく表現しても構わない。
【0156】
また、上述した実施形態では、二つの楽器に関する画像を描画する例について示したが、これに限らない。例えば、
図13に示すように、4つの楽器(ピアノ、ベースギター、エレキギター、電子楽器等)を情報処理装置1に接続しても良い。更に、
図13に示すように、例えばリアルタイム画像または演奏後画像を4分割し、それぞれに楽器を割り当てても良い。これにより、誰がどの画像(キャラクタ)を描いているのかは、4分割させた画面の場所でわかる。
【0157】
また、
図14に示すように、リアルタイム画像または演奏後画像を明確に分割せず、1枚の画像として描画しても良い。しかし、楽器毎に、画像(キャラクタ)を変えているので、誰がどの画像(キャラクタ)を描いているのかが判定できる。
【0158】
また、複数のユーザの演奏が所定の条件(例えば、タイミングの一致)を満たす場合、リボン等の特殊な画像(キャラクタ)がリアルタイム画像、または演奏後画像に描画されても良い。
【0159】
以下に、簡単にその特殊な画像(キャラクタ)の描画に関するフローチャートを説明する。
【0160】
図15に示すステップS2001~S2004、S2007、及びS2008については、
図10のステップS1001~S1006と同様である。そこで、ステップS2005と、S2006について説明する。
【0161】
≪S2005≫
情報処理装置1の制御部105(条件判定部1054)は、演奏データが、設定された条件を満たすか否かを判定する。この設定された条件を満たすか否かを判定する例としては、複数のユーザの演奏のタイミングが一致したか否かを判定しても良い。
【0162】
≪S2006≫
情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、演奏データが、設定された条件を満たすと判定する場合(S2005:YES)、リアルタイム画像(及び演奏後画像)の描画設定を変更する。具体的には、情報処理装置1の制御部105(画像決定部1052、及び画像情報出力部1053)は、設定された条件を満たすと判定された演奏データの後に、専用の画像(キャラクタ)を表示させる。具体的には、
図16に示すように、リボンの画像(キャラクタ)を描画する。
【0163】
また、情報処理装置1の制御部105は、「和音」「単音」の判定を、手動(例えばMIDIのチャンネルの選択)で行われても良いし、自動認識で行っても良い。
【0164】
また、情報処理装置1の制御部105は、ピッチ抽出や多重音解析の結果をMIDI形式に変換しているが、特にMIDIの形式にしなくても良い。
【0165】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【0166】
なお、上記実施形態は、以下の付記を含むものである。
【0167】
≪付記1≫
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば第2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
プログラム。
【0168】
≪付記2≫
前記いずれから入力された演奏データであるかは、入力された演奏データに含まれる情報(例えばMIDIのチャンネル情報)から判定させる、
付記1に記載のプログラム。
【0169】
≪付記3≫
前記第1画像データは、第1画像グループのなかに含まれ、
前記第2画像データは、第2画像グループのなかに含まれ、
前記第1画像グループ及び前記第2画像グループのなかには、同じ画像データが含まれていてもよい、
付記1または2に記載のプログラム。
【0170】
≪付記4≫
前記判定できる情報は、少なくとも音名情報(例えば演奏データには音名情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報が判定できる)及び、コード種別情報(例えば音名情報と同様)のいずれかを含む、
付記1乃至3のいずれか一項に記載のプログラム。
【0171】
≪付記5≫
前記第1機器は、第1電子楽器及びオーディオインタフェースのいずれかを含み、
前記第2機器は、第2電子楽器及びオーディオインタフェースのいずれかを含む、
付記1乃至4のいずれか一項に記載のプログラム。
【0172】
≪付記6≫
情報処理装置のコンピュータに、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば第2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定させ、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データを表示させ、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示させる、
方法。
【0173】
≪付記7≫
ディスプレイ装置と、
プロセッサと、を含み、前記プロセッサが、
入力された演奏データが、少なくとも第1機器(例えば第1電子楽器)及び第2機器(例えば2電子楽器又は、オーディオインタフェース)のいずれから入力された演奏データであるかを判定し、
前記第1機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別。演奏データには音名情報やコード種別情報は含まれておらず、演奏データに含まれるノートナンバー情報から音名情報やコード種別情報が判定できる)に応じて、第1画像データの前記ディスプレイ装置への表示を指示し、
前記第2機器と判定された場合に、入力された演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1機器と判定された場合と同じであったとしても、前記第1画像データとは異なる態様の第2画像データの前記ディスプレイ装置への表示を指示する、
電子機器。
【0174】
≪付記8≫
第1機器と、第2機器と、ディスプレイ装置と、を備え、
前記第1機器は、
第1ユーザによる演奏操作に応じて前記第1機器を識別可能な第1識別子(例えばMIDIの第1チャンネル番号)を含む第1演奏データを生成するとともに、生成された前記第1演奏データを前記ディスプレイ装置に出力し、
前記第2機器は、
第2ユーザによる演奏操作に応じて前記第2機器を識別可能な第2識別子を含む第2演奏データを生成するとともに、生成された前記第2演奏データを前記ディスプレイ装置に出力し、
前記ディスプレイ装置は、
入力される前記第1演奏データに基づいて判定できる情報(例えば音名、コード種別)に応じて、第1画像データを表示し、
入力される前記第2演奏データに基づいて判定できる情報(例えば音名、コード種別)が、たとえ前記第1演奏データに基づいて判定できる情報と同じであったとしても、前記第1画像データとは異なる態様の第2画像データを表示する、
演奏データ表示システム。
【符号の説明】
【0175】
1…情報処理装置
2…電子楽器
3…スピーカ
4…ディスプレイ装置
5…MIDIパッチャ
6…ボーカルマイク
7…アコースティックピアノ
8…オーディオインタフェース
11…鍵
20…表示部
30…操作部
40…発音部
41…SPアンプ
42…スピーカ
43…HPアンプ
44…HPジャック
45…HPジャック挿入検出部
50…押鍵検出部
60…記憶部
61…ROM
62…RAM
70…制御部
80…通信部
100…バス
101…操作部
102…表示部
103…通信部
104…音出力部
105…制御部
106…記憶部
107…バス
401…表示部
1051…演奏判定部
1052…画像決定部
1053…画像情報出力部
1054…条件判定部
1055…演奏終了判定部
1056…接続機器判定部
1061…RAM
1062…ROM
10621…プログラム
10622…テーブル