(58)【調査した分野】(Int.Cl.,DB名)
前記音楽情報生成手段は、前記環境検出センサの出力信号が示す値が予め定めた閾値以上の場合に、当該出力信号から曲を表す音楽情報を生成し、前記対象検出センサの出力信号が示す値が予め定めた閾値以上の場合に、当該出力信号から効果音を表す音楽情報を生成する、請求項1に記載の音楽生成装置。
前記曲調変更手段が、前記センサの反応の増加を表す物理量が予め定めた閾値以上の場合に、前記音楽情報生成手段によって生成される前記曲を表す音楽情報の構成要素及び前記効果音を表す音楽情報の構成要素を変化させる、請求項1に記載の音楽生成装置。
【発明を実施するための形態】
【0016】
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。
【0017】
<音楽生成装置>
(全体構成)
まず、本実施の形態に係る音楽生成装置の全体構成について説明する。
図1は本発明の実施の形態に係る音楽生成装置の全体構成の一例を示すブロック図である。本実施の形態に係る音楽生成装置は、車両の外部環境に応じた音楽を生成する音楽生成装置である。
図1に示すように、音楽生成装置10は、環境検出センサ20
1、対象検出センサ20
2、音楽情報生成部30、及び音楽出力部60を備えている。環境検出センサ20
1及び対象検出センサ20
2の各々は、音楽情報生成部30に電気的に接続されており、音楽情報生成部30に出力信号を出力する。また、音楽情報生成部30は、音楽出力部60に電気的に接続されており、音楽出力部60に音楽情報を出力する。
【0018】
環境検出センサ20
1は、車両の外部環境の状況に応じた信号を出力するセンサであり、外部環境から常に信号が取得できる。これに対して、対象検出センサ20
2は、車両の外部環境に対象(対向車両、人物、建物など障害物)が存在することを表す信号を出力するセンサであり、外部環境に対象が存在する場合にだけ信号が取得される。音楽情報生成部30は、環境検出センサ20
1の出力信号に基づいて曲を表す音楽情報を生成し、対象検出センサ20
2の出力信号に基づいて効果音を表す音楽情報を生成する。
【0019】
そして、効果音を表す音楽情報が生成された場合に、曲を表す音楽情報と効果音を表す音楽情報とを合成して、合成した音楽を表す音楽情報を生成して、音楽出力部60に出力する。音楽出力部60は、入力された音楽情報に基づいて音楽を演奏する。なお、音楽情報生成部30の詳細な構成については後述する。
【0020】
音楽には、メロディ(旋律)、ハーモニー(和声)、リズム(律動)の三要素がある。また、音には、高さ(周波数)、大きさ(音圧レベル)、音色(周波数成分)の三要素がある。本実施の形態における「曲」とは、音楽の三要素のうち、「音」の高さが時間と共に変化するメロディと、「音」の時間的な長さが一定の規律で変化するリズムとを、少なくとも含むものである。
【0021】
なお、
図1に示す例では、1個の環境検出センサ20
1と1個の対象検出センサ20
2とを備える例について説明したが、センサの個数は2個に限定されるものではない。複数の環境検出センサを備えていてもよく。複数の対象検出センサを備えていてもよい。なお、環境検出センサ20
1と対象検出センサ20
2とを区別する必要が無い場合は、センサ20と総称する。
【0022】
(センサ)
次に、センサの概略構成について説明する
図2はセンサの構成の一例を示すブロック図である。
図2に示すように、センサ20は、検出部22、A/D変換部24、処理部26、及び送信部28を備えている。A/D変換部24、処理部26、及び送信部28は、検出部22側から記載した順序で電気的に接続されている。環境検出センサ20
1の検出部22は、前方を撮像した前方画像を表す画像信号等のアナログ信号をA/D変換部24に出力する。対象検出センサ20
2の検出部22は、電磁波等の特定の物理量を検出し、検出した物理量に応じたアナログ信号をA/D変換部24に出力する。
【0023】
A/D変換部24は、入力されたアナログ信号をデジタル信号に変換して、処理部26に出力する。処理部26は、入力されたデジタル信号に対して増幅処理やフィルタリング処理等を行い、波形整形されたデジタル信号を送信部28に出力する。送信部28は、入力されたデジタル信号を、音楽情報生成部30に送信する。即ち、波形整形されたデジタル信号を、センサ20の出力信号として、音楽情報生成部30に出力する。
【0024】
(音楽出力部)
次に、音楽出力部の構成について説明する。
図3は音楽出力部の構成の一例を示すブロック図である。
図3に示すように、音楽出力部60は、D/A変換部62、増幅部64、及びスピーカ66を備えている。D/A変換部62、増幅部64、及びスピーカ66は、音楽情報の入力側から記載した順序で電気的に接続されている。
【0025】
音楽情報生成部30は、合成した音楽を表す音楽情報を、デジタル信号として音楽出力部60に出力する。入力されたデジタル信号は、D/A変換部62によりアナログ信号に変換され、増幅部64により増幅されて、スピーカ66に出力される。スピーカ66は、入力されたアナログ信号を応じて音を発生させる。これにより、音楽出力部60では、入力された音楽情報に基づいて、車両の外部環境に応じた音楽が演奏される。
【0026】
(音楽情報生成部)
次に、音楽情報生成部について説明する。
図4は音楽情報生成部のハードウエア構成の一例を示す図である。
図4に示すように、音楽情報生成部30は、各種制御及び各種演算を行うコンピュータとして構成されている。即ち、音楽情報生成部30は、CPU30A、ROM30B、RAM30C、不揮発性メモリ30D、及び入出力インターフェース(I/O)30Eを備えている。CPU30A、ROM30B、RAM30C、不揮発性メモリ30D、及びI/O30Eの各々は、バス30Fを介して接続されている。
【0027】
本実施の形態では、ROM30Bには、後述する「音楽生成処理」を実行するための制御プログラムが記憶されている。また、「MIDI信号変換用のソフトウエア」や、「MIDI信号から音楽情報を生成するソフトウエア」も、ROM30Bに記憶されている。これらのMIDI用ソフトウエアとして、汎用のソフトウエアを用いてもよい。CPU30Aは、ROM30Bに記憶されたプログラムを読み出し、RAM30Cをワークエリアとして使用してプログラムを実行する。なお、ここでは、ソフトウエアはプログラムと同義である。
【0028】
MIDI(Musical Instrument Digital Interface)とは、音楽情報をデジタル信号で通信するための国際規格である。MIDI信号とは、MIDI規格の情報であり、標準的なMIDIファイル形式(SMF:Standard MIDI File Format)の情報である。「MIDI信号変換用のソフトウエア」では、音の基本振動数を「ノートナンバー」、音圧レベルを「ベロシティレベル」、音色を「楽器名を表すナンバー」、時間変化を「ノートオン/ノートオフ」を表すデータに各々変換している。
【0029】
また、「MIDI信号から音楽情報を生成するソフトウエア」では、MIDI信号のノートナンバーに音源を割り当てると共に、音源に付随する表現に関する各種パラメータを設定、変更する。例えば、環境検出センサである画像センサからの出力信号から得られたMIDI信号について、ノートナンバー0〜87をピアノの88鍵盤の音階に割り当ててもよい。また、波形データのある範囲を繰り返し再生するループ、音源の時間変化を示すエンベロープ、各音源の音量変化の設定、音の鮮明度の変化をカットオフ周波数の設定により行うフィルタの設定、音像定位、音の強弱を表すベロシティ、及び同時に発音させる音源の選択等、各種のパラメータを設定、変更してもよい。
【0030】
音楽情報生成部30には、I/O30Eを介して、上記のセンサ20や音楽出力部60に加えて、搭乗者等の操作を受け付ける操作部32、搭乗者に各種情報を表示する表示部34、及び通信回線を介して外部装置と通信を行うためのインターフェースである通信部36の各部が接続されている。音楽情報生成部30は、センサ20から出力信号を受け取り、音楽出力部60に音楽情報を出力する。また、CPU30Aは、音楽出力部60、操作部32、表示部34、及び通信部36の各部を制御する。なお、情報の授受は通信部36を介して行うこともできる。
【0031】
なお、音楽情報生成部30には、各種ドライブが接続されていてもよい。各種ドライブは、フレキシブルディスク、光磁気ディスク、CD−ROMなどのコンピュータ読み取り可能な可搬性の記録媒体からデータを読み込んだり、記録媒体に対してデータを書き込んだりする装置である。各種ドライブを備える場合には、可搬性の記録媒体に制御プログラムを記録しておいて、これを対応するドライブで読み込んで実行してもよい。
【0032】
次に、音楽情報生成部を機能面から説明する。
図5は音楽情報生成部の構成の一例を示す機能ブロック図である。
図5に示すように、音楽情報生成部30は、メモリ40、閾値判定部42、MIDI変換部44、音楽情報生成部46、音楽情報合成部48、曲調変更判定部50、及び曲調変更部52を備えている。
【0033】
センサ20からはデジタルの出力信号が出力されている。音楽情報生成部30は、予め定めた周波数(例えば、30Hz〜60Hz)でサンプリングを行い、センサ20からの出力信号を取得する。メモリ40は、サンプリングした出力信号を一時的に保持する。デジタルの出力信号は、センサ20の出力電圧を時間ごとにデジタル値で表したものである。以下、出力信号の表す値を「センサ20の出力値」という。出力信号の表す値(センサの出力値)は、サンプリング時間内での平均値、最大値等の代表値とすることができる。
【0034】
また、メモリ40は、環境検出センサ20
1からの出力信号と対象検出センサ20
2からの出力信号の各々を、閾値判定部42、MIDI変換部44、及び曲調変更判定部50の各部に出力する。メモリ40は、センサ20からの出力信号を、取得した順序で各部に出力する。
【0035】
閾値判定部42は、センサ20の出力値が、予め定めた閾値以上か否かを判定し、判定結果をMIDI変換部44に通知する。なお、判定手法については後述する。MIDI変換部44は、センサ20の出力値が閾値以上という結果を受け取ると、センサ20からの出力信号をMIDI信号に変換する。そして、MIDI変換部44は、得られたMIDI信号を、音楽情報生成部46、及び曲調変更部52の各部に出力する。音楽情報生成部46は、MIDI信号を受け取ると、MIDI信号から音楽情報を生成する。
【0036】
ここで、出力信号が環境検出センサ20
1からの信号である場合には、MIDI変換部44は曲用のMIDI信号を生成し、音楽情報生成部46は曲用のMIDI信号から曲を表す音楽情報を生成する。一方、出力信号が対象検出センサ20
2からの信号である場合には、MIDI変換部44は効果音用のMIDI信号を生成し、音楽情報生成部46は効果音用のMIDI信号から効果音を表す音楽情報を生成する。曲を表す音楽情報は、常に生成されるが、効果音を表す音楽情報は、外部環境に対象が存在する場合にだけ生成される。
【0037】
音楽情報生成部46は、曲を表す音楽情報と効果音を表す音楽情報とを、音楽情報合成部48に出力する。音楽情報合成部48は、曲を表す音楽情報と効果音を表す音楽情報とを合成し、車両の外部環境に応じた音楽を表す音楽情報を生成する。なお、効果音を表す音楽情報が無い場合は、曲を表す音楽情報が、車両の外部環境に応じた音楽を表す音楽情報となる。そして、音楽情報合成部48は、得られた音楽情報を音楽出力部60に出力する。
【0038】
曲調変更判定部50は、センサ20の出力値から、曲調変更条件を充足しているか否かを判定し、判定結果を曲調変更部52に通知する。なお、曲調変更条件、判定手法については後述する。曲調変更部52は、曲調変更条件を充足しているという結果を受け取ると、MIDI変換部44から得られたMIDI信号を、曲調が変化するように変換する。そして、変換したMIDI信号を、音楽情報生成部46に出力する。音楽情報生成部46は、変換されたMIDI信号を受け取ると、変換されたMIDI信号から音楽情報を生成する。
【0039】
例えば、曲調には、マイナー調、メジャー調、クラシック風、ボサノバ風、日本風、琉球風、アラビック風等がある。曲調の変化とは、楽器(音色)の割り当て、スケール(音の高さの間隔)、コード進行(2音以上の音の重なり)、リズム等の構成要素を変更することである。MIDI信号においてこれ等の構成要素を変更することで曲調が変化する。効果音用のMIDI信号においても、弦楽器から打楽器に変更する等、楽器の割り当てを変更することによって曲調が変化する。
【0040】
曲調変更条件としては、センサの反応の増加が挙げられる。例えば、景色等の外部環境が大幅に変化すると環境検出センサ20
1の反応が増加する。また、外部環境に対象(対向車両、人物、建物など障害物)が出現すると対象検出センサ20
2の反応が増加する。センサの反応量が閾値以上になったら効果音を発生させる等、センサの反応の増加に応じて曲調を変化させることで、対象の存在の有無を含め外部環境の変化が表現される。
【0041】
また、カーナビゲーション・システムを搭載した車両においては、曲調変更条件として、目的地までの距離が挙げられる。カーナビゲーション・システムは、一般に、人工衛星からの電波を受信して車両の位置を取得するGPSを含み、位置センサとして環境検出センサ20
1の1つと位置づけられる。
【0042】
カーナビゲーション・システムによれば、地図情報等を参照して、出発地Aから目的地Bまでの経路上における車両の位置から、目的地Bまでの距離が測定できる。例えば、目的地Bまでの距離が閾値以下になったら効果音を発生させる等、目的地Bまでの距離に応じて曲調を変化させることで、「もうすぐ目的地Bに着く」といった期待感の盛り上がり等、物語性が表現される。
【0043】
<センサの機能>
次に、センサの機能について説明する。
図6(A)及び(B)はセンサ機能の相違を説明する模式図である。本実施の形態では、環境検出センサ20
1と対象検出センサ20
2という2種類のセンサを用いる。
図6(A)に示すように、環境検出センサ20
1は、検出範囲が広いので、外部環境から常に信号が取得できる。しかしながら、外部環境に対象が存在する場合でも、対象を検知するのが難しい。一方、
図6(B)に示すように、対象検出センサ20
2は、指向性が高く検出範囲が狭いので、外部環境に対象が存在する場合にだけ信号が取得される。
【0044】
上述した通り、車両には障害物を検出する対象検出センサが種々設置されているが、対象検出センサにより取得した信号に基づいて音楽を生成した場合、外部環境に対象が存在する場合にしか音楽が生成されない。
【0045】
本実施の形態では、環境検出センサの出力信号に基づいて曲を表す音楽情報を生成し、対象検出センサの出力信号に基づいて効果音を表す音楽情報を生成し、曲を表す音楽情報と効果音を表す音楽情報とを合成して、車両の外部環境に応じた音楽を表す音楽情報を生成するので、常に音楽が生成される。付言すれば、効果音は音楽を演奏するのに必須の要素ではない。対象(対向車両、人物、建物など障害物)の出現等のイベント発生時に、効果音を発生させて、搭乗者にイベントの発生を認識させる。
【0046】
環境検出センサ20
1としては、カメラ等の画像センサ、光センサ、放射温度計等の温度センサ、GPSを含むカーナビゲーション・システム等の位置センサなどがある。対象検出センサ20
2としては、レーダ等の電磁波センサ、ドップラー効果を検出するドップラーセンサ、加速度センサ等がある。例えば、MIDI信号変換時に、曲を表す音楽情報を生成するために、画像センサにはハープ、光センサには尺八、温度センサにはピアノなどの楽器音源を割り当ててもよい。また、効果音を表す音楽情報を生成するために、電磁波センサにはトライアングル、ドップラーセンサにはティンパニーなどの楽器音源を割り当ててもよい。
【0047】
(検出実験)
次に、外部環境に対するセンサの反応を観察する実験について説明する
図7は各種センサの車両への搭載例を示す模式図である。
図7に示すように、実験では、「環境検出センサ」として、搭乗者の目の位置にウエブカメラ(画像センサ)を設置した。また、「対象検出センサ」として、フロント側の車内に5GHzの電磁場センサと10GHzのドップラーセンサとを設置し、フロント側の車外に24GHzのドップラーセンサを設置した。なお、5GHzの電磁場センサは車内をセンシングしている。
【0048】
5GHzの電磁場センサとしては、特開2014−137347号公報の
図3に示す回路構成のセンサを用いた。10GHzのドップラーセンサとしては、検出部及びA/D変換部として機能する浅草技研社製の製品名「DX-XBAND」に、処理部としてFM復調回路を取り付けたセンサを用いた。24GHzのドップラーセンサとしては、検出部及びA/D変換部として機能するイノセント社製の製品名「IPM-165」に、処理部としてFM復調回路を取り付けたセンサを用いた。なお、通信部については説明を省略する。
【0049】
図8(A)は実験1での外部環境の写真であり、
図8(B)及び(C)は実験1の結果であるセンサ波形を示すグラフである。
図8(A)に示すように実験1の外部環境には対象(対向車両、人物、建物)が存在しない。
図8(B)に示すウエブカメラのRGB出力を見ると、縦軸に示す色の強さは、横軸に示す時間に対して旋律を描くように緩やかに変化している。また、
図8(C)に示す各種センサの出力値を見ると、5GHzの電磁場センサの反応(●印で表す)だけが増加し、縦軸に示す電圧値が横軸に示す時間に対して激しく変動している。これに対し、10GHzドップラーセンサの反応(△印で表す)と24GHzのドップラーセンサの反応(×印で表す)は少ない。
【0050】
図9(A)は実験2での外部環境の写真であり、
図9(B)及び(C)は実験2の結果であるセンサ波形を示すグラフである。
図8(A)に示すように実験2の外部環境には対象が多数存在する。
図9(B)に示すウエブカメラのRGB出力を見ると、縦軸に示す色の強さは、横軸に示す時間に対して旋律を描くように緩やかに変化している。また、
図9(C)に示す各種センサの出力値を見ると、10GHzのドップラーセンサの反応(△印で表す)と24GHzのドップラーセンサの反応(×印で表す)が増加している。特に、24GHzのドップラーセンサの反応(×印で表す)は、縦軸に示す電圧値が横軸に示す時間に対して激しく変動している。これに対し、電磁場センサの反応(●印で表す)は少ない。
【0051】
実験1及び実験2の結果から、環境検出センサは外部環境から常に信号が取得でき、環境検出センサの出力信号に基づいて、常に曲を表す音楽情報を生成できることが分かる。また、対象検出センサは、外部環境に対象が存在する場合にだけ信号が取得され、対象検出センサの出力信号に基づいて、イベントの発生を知らせる効果音を表す音楽情報を生成できることが分かる。また、外部環境に対象が存在すると、対象が存在しない場合に比べてセンサの反応が増加することが分かる。
【0052】
<音楽生成処理>
次に、音楽情報生成部30のCPU30Aにより実行される「音楽生成処理」について説明する。「音楽生成処理」は、操作部32を介して搭乗者からの開始指示があると開始される。
図10は「音楽生成処理」の手順の一例を示すフローチャートである。
【0053】
まず、ステップ100で、センサからの出力信号を取得(サンプリング)したか否かを判定する。出力信号を取得した場合は、ステップ102に進み、出力信号を取得していない場合は、ステップ100に戻り判定を繰り返す。次に、ステップ102で、取得した信号が環境検出センサからの出力信号か否かを判定する。
【0054】
環境検出センサからの出力信号である場合は、ステップ104に進む。環境検出センサからの出力信号でない場合は、対象検出センサからの出力信号であるため、ステップ118に進む。この通り、
図10に示すフローチャートには、環境検出センサの出力信号から曲を表す音楽を生成する第1のラインと、対象検出センサの出力信号から効果音を表す音楽を生成する第2のラインとがある。環境検出センサからの出力信号と対象検出センサからの出力信号とは、略同時に取得され並列に処理される。
【0055】
次に、ステップ104で、今回サンプリングした出力信号が表す出力値と、前回サンプリングした出力信号の出力値との差分を算出する。なお、2つの出力信号は、同じ環境検出センサからの出力信号である。次に、ステップ106で、算出した差分が予め定めた閾値X以上か否かを閾値判定する。閾値X以上である場合はステップ108に進み、閾値X未満である場合はステップ110に進む。
【0056】
次に、ステップ108では、MIDI信号を変化させる。一方、ステップ110では、MIDI信号を変化させない。即ち、出力値の差分が閾値以上の場合は、今回サンプリングした出力信号を曲用のMIDI信号に変換するが、出力値の差分が閾値未満の場合は、前回サンプリングした出力信号から生成した曲用のMIDI信号を続けて使用する。これにより、常時、音楽が演奏される。なお、変換後のMIDI信号は何れかの記憶部に記憶され、必要に応じて読み出されて使用される。
【0057】
また、ステップ106の閾値判定と並行して、ステップ112で、環境検出センサからの出力信号に基づいて、曲調変更条件を充足するか否かを判定する。曲調変更条件を充足する場合は、ステップ114とステップ128に進み、各ステップで曲調を変化させる。例えば、ステップ114では、曲用のMIDI信号の構成要素を変更することで曲調を変化させ、ステップ128では、効果音用のMIDI信号の構成要素を変更することで曲調を変化させる。
【0058】
後述する通り、ステップ126で曲調変更条件を充足する場合にも、ステップ114で曲調を変化させる。即ち、効果音を表す音楽を生成する第2のラインにおける判定結果が、曲を表す音楽を生成する第1のラインにおける処理に影響を及ぼす。一方、ステップ112及びステップ126の両方で曲調変更条件を充足しない場合は、ステップ117に進み、ステップ117で、曲調を変化させない旨を通知する。
【0059】
次に、ステップ116で、曲用のMIDI信号から曲を表す音楽情報を生成する。ステップ114で曲調を変化させる場合は、構成要素が変更された変換後の曲用MIDI信号から曲を表す音楽情報を生成する。一方、曲調を変化させない旨を通知を受けた場合は、構成要素が変更されていない曲用MIDI信号から曲を表す音楽情報を生成する。なお、ステップ104からステップ116までが第1のラインである。
【0060】
一方、ステップ102で、対象検出センサからの出力信号であると判定した場合は、ステップ118で、今回サンプリングした出力信号が表す出力値と、前回サンプリングした出力信号の出力値との差分を算出する。なお、2つの出力信号は、同じ対象検出センサからの出力信号である。次に、ステップ120で、算出した差分が予め定めた閾値Y以上か否かを閾値判定する。閾値Y以上である場合はステップ122に進み、閾値Y未満である場合はステップ124に進む。
【0061】
次に、ステップ122では、MIDI信号を変化させる。一方、ステップ124では、効果音を表す音楽情報を生成しない旨の通知を行う。即ち、出力値の差分が閾値以上の場合は、今回サンプリングした出力信号を効果音用のMIDI信号に変換するが、出力値の差分が閾値未満の場合は、ノイズとして処理し、効果音を表す音楽情報を生成しない旨の通知だけを行う。これにより、外部環境において対象の存在を検出した場合にだけ効果音が発生する。
【0062】
また、ステップ120の閾値判定と並行して、ステップ126で、対象検出センサからの出力信号に基づいて、曲調変更条件を充足するか否かを判定する。曲調変更条件を充足する場合は、ステップ114とステップ128に進み、各ステップで曲調を変化させる。
【0063】
上記の通り、ステップ112で曲調変更条件を充足する場合にも、ステップ128で曲調を変化させる。即ち、曲を表す音楽を生成する第1のラインにおける判定結果が、効果音を表す音楽を生成する第2のラインにおける処理に影響を及ぼす。一方、ステップ112及びステップ126の両方で曲調変更条件を充足しない場合は、ステップ117に進み、ステップ117で、曲調を変化させない旨を通知する。
【0064】
次に、ステップ130で、効果音用のMIDI信号から効果音を表す音楽情報を生成する。ステップ128で曲調を変化させる場合は、構成要素が変更された変換後の効果音用MIDI信号から効果音を表す音楽情報を生成する。一方、曲調を変化させない旨を通知を受けた場合は、構成要素が変更されていない効果音用MIDI信号から効果音を表す音楽情報を生成する。なお、ステップ118からステップ130までが第2のラインである。
【0065】
次に、ステップ132で、曲を表す音楽情報と効果音を表す音楽情報とを合成して、車両の外部環境に応じた音楽を表す音楽情報を生成する。対象検出センサの出力値の差分が閾値未満の場合は、ステップ124で、効果音を表す音楽情報を生成しない旨が通知されている。この場合には、曲を表す音楽情報が、車両の外部環境に応じた音楽を表す音楽情報となる。
【0066】
次に、ステップ134で、得られた音楽情報を音楽出力部に出力する。次に、ステップ136で、搭乗者からの停止指示があったか否かを判定する。停止指示があればルーチンを終了し、停止指示が無ければステップ100に戻って、ステップ100からステップ136までの手順を繰り返す。
【0067】
なお、上記の
図10、
図11に示す例では、2つの出力信号が同じセンサからの出力信号であることを前提として、今回サンプリングした出力信号が表す出力値と前回サンプリングした出力信号の出力値との差分を算出し、算出した差分に基づいて閾値判定する例について説明したが、今回サンプリングした出力信号が表す出力値に基づいて閾値判定してもよい。出力値の差分に基づいて閾値判定する方が、リズムの変化に富む音楽を生成することができる。
【0068】
(曲調変更条件の充足判定)
ここで、
図12(A)〜(D)を参照して、曲調変更条件がセンサの反応の増加である場合の条件充足判定手法について説明する。
図12(A)に示すように、センサの出力信号は、センサの出力値の時間変化として得られる。例えば、
図9(C)に示す実験2の結果からも分かるように、外部環境に多数の対象が存在するとセンサの反応が増加する。
【0069】
図12(B)に示すように、センサの出力信号を積分処理することで、センサの反応量の時間変化に変換できる。
図12(C)に示すように、ここで、センサの反応量に対して閾値Zを予め定める。そして、センサの反応量が予め定めた閾値Z以上の場合に、センサの反応が増加した(曲調変更条件を充足した)と閾値判定することができる。
【0070】
なお、曲調の変化が頻繁に起こらないように、時間についても閾値Tを予め定めてもよい。そして、センサの反応量が予め定めた閾値Z以上の状態が、予め定めた閾値T以上の時間続く場合に、センサの反応が増加した(曲調変更条件を充足した)と時間判定してもよい。
【0071】
<変形例>
なお、上記各実施の形態で説明した音楽生成装置の構成は一例であり、本発明の主旨を逸脱しない範囲内においてその構成を変更してもよいことは言うまでもない。
【0072】
例えば、上記の実施の形態では、MIDI信号変換を行うか否かの判定のために閾値X及び閾値Yを定め、曲調変更条件を充足するか否かの判定のために閾値Z及び閾値Tを予め定めているが、閾値X、閾値Y、閾値Z、及び閾値Tの各値は、音楽の演奏が円滑に行われるように、音楽の演奏状況に応じて適宜定めればよい。
【0073】
また、上記の実施の形態では、
図10に示すように、環境検出センサの出力信号に基づいて曲調を変化させるか否かを判定すると共に、対象検出センサの出力信号に基づいて曲調を変化させるか否かを判定しているが、
図11に示すように、対象検出センサの反応の増加に応じて曲調を変化させる等、対象検出センサの出力信号に基づいて曲調を変化させるか否かを判定するだけにしてもよい。
【0074】
具体的には、曲を表す音楽を生成する第1のラインにおいては、
図10のステップ112の曲調変更条件を充足するか否かを判定する手順を省略する。そして、効果音を表す音楽を生成する第2のラインにおいては、ステップ126で曲調変更条件を充足するか否かを判定し、曲調変更条件を充足しない場合は、ステップ117に進み、ステップ117で、曲調を変化させない旨を通知する。
【0075】
曲調を変化させない旨を通知を受けた場合は、第1のラインのステップ116で、構成要素が変更されていない曲用MIDI信号から曲を表す音楽情報を生成すると共に、第2のラインのステップ130で、構成要素が変更されていない効果音用MIDI信号から効果音を表す音楽情報を生成する。なお、その他の手順は
図10と同じであるため説明を省略する。
【0076】
また、上記の実施の形態では、MIDI信号を変換することで曲調を変化させているが、リズムの変更の場合は、センサのダイナミックレンジ、センサ特性、出力信号のサンプリング速度、プログラム処理速度を変更するなどしてもよい。