(58)【調査した分野】(Int.Cl.,DB名)
主となる1つの視点から撮影された主映像に基づいて基本の音楽情報を生成し、前記主映像の撮影とは異なる他の視点から撮影された副映像に基づいて前記基本の音楽情報以外の他の音楽情報を生成する生成手段と、
前記基本の音楽情報と前記他の音楽情報とを合成して1つの音楽情報を出力する合成手段と、
を備えた音楽生成装置。
前記生成手段が、前記主映像及び前記副映像の各々から被写体の動きを検出する動き検出を実施し、検出された被写体の動きに応じて音楽情報を生成する、請求項1に記載の音楽生成装置。
前記生成手段が、前記主映像に基づいてベロシティ、リズム及びコード進行を生成し、前記副映像に基づいてトーンを生成する、請求項1または請求項2に記載の音楽生成装置。
前記副映像が、車載カメラによって撮影された車両後方の映像、他の車両の車載カメラによって撮影された車両前方の映像、または、車両外部のカメラによって撮影された映像である、請求項7に記載の音楽生成装置。
【発明を実施するための形態】
【0011】
<第1の実施の形態>
(音楽生成装置の全体構成)
まず、音楽生成装置の全体構成について説明する。
図1は本発明の実施の形態に係る音楽生成装置の全体構成の一例を示すブロック図である。本実施の形態に係る音楽生成装置は、異なる視点から撮影された複数の映像から1つの音楽を生成すると共に、複数の映像を合成して1つの合成映像を生成する。
【0012】
図1に示すように、音楽生成装置は、映像音楽生成部10、複数のカメラ20、映像出力部59、及び音楽出力部60を備えている。映像音楽生成部10は、映像情報生成部29と音楽情報生成部30とを備えている。複数のカメラ20の各々は、映像音楽生成部10に電気的に接続されており、映像音楽生成部10に出力信号を出力する。カメラ20からの出力信号は、映像情報生成部29及び音楽情報生成部30の各々に入力される。
【0013】
映像情報生成部29は、映像出力部59に電気的に接続されている。映像情報生成部29は、複数のカメラ20の出力信号に基づいて1つの合成映像の映像情報を生成し、映像出力部59に合成映像の映像情報を出力する。映像出力部59は、ディスプレイ、プロジェクター、ヘッド・マウント・ディスプレイ(HMD)等の表示装置であり、入力された映像情報に基づいて合成映像を表示する。
【0014】
音楽情報生成部30は、音楽出力部60に電気的に接続されている。音楽情報生成部30は、複数のカメラ20の出力信号に基づいて1つの音楽情報を生成し、音楽出力部60に出力する。音楽出力部60は、入力された音楽情報に基づいて音楽を演奏する。なお、映像音楽生成部10、カメラ20、及び音楽出力部60の詳細な構成については後述する。
【0015】
「音楽」には、メロディ(旋律)、ハーモニー(和声)、リズム(律動)の三要素がある。また、音楽を構成する「音」には、高さ(周波数)、大きさ(音圧レベル)、音色(周波数成分)の三要素がある。また、音楽の種類を表す「曲調」には、マイナー調、メジャー調、クラシック風、ボサノバ風、日本風、琉球風、アラビック風等がある。
【0016】
本実施の形態で生成される「音楽」は、音楽の三要素のうち、「音」の高さが時間と共に変化するメロディと、「音」の時間的な長さが一定の規律で変化するリズムとを、少なくとも含むものである。
【0017】
また、「音楽の変化」とは、音楽の構成要素が変化することである。音楽の基本の構成要素としては、楽器(音色)の割り当て、ベロシティ(音の強さ)、スケール(音の高さの間隔)、コード進行(2音以上の音の重なり)、リズム等がある。音楽のその他の構成要素としては、トーン(音の高さ)がある。後述するMIDI信号においてこれら音楽の構成要素を変更することで音楽が変化する。
【0018】
(カメラ)
次に、カメラの概略構成について説明する
図2はカメラの構成の一例を示すブロック図である。
図2に示すように、カメラ20は、撮像部22、A/D変換部24、処理部26、及び送信部28を備えている。A/D変換部24、処理部26、及び送信部28は、撮像部22側から記載した順序で電気的に接続されている。カメラ20の撮像部22は、或る視点から撮像した映像を表す映像信号(アナログ信号)をA/D変換部24に出力する。
【0019】
A/D変換部24は、入力されたアナログ信号をデジタル信号に変換して、処理部26に出力する。処理部26は、入力されたデジタル信号に対して増幅処理やフィルタリング処理等を行い、波形整形されたデジタル信号を送信部28に出力する。送信部28は、入力されたデジタル信号を、映像音楽生成部10に出力する。即ち、波形整形されたデジタル信号を、カメラ20の出力信号として、映像音楽生成部10に出力する。
【0020】
本実施の形態では、複数のカメラ20は、主たるカメラ20Mと従たるカメラ20Sとで構成されている。主たるカメラ20Mは、主となる1つの視点から主映像を撮影する。従たるカメラ20Sは、主映像の撮影と並行して他の視点から副映像を撮影する。なお、音楽生成装置は、従たるカメラ20Sを複数個備えていてもよい。また、従たるカメラ20Sは、主映像の撮影とは時間をずらして副映像を撮影してもよい。
【0021】
(音楽出力部)
次に、音楽出力部の構成について説明する。
図3は音楽出力部の構成の一例を示すブロック図である。
図3に示すように、音楽出力部60は、D/A変換部62、増幅部64、及びスピーカ66を備えている。D/A変換部62、増幅部64、及びスピーカ66は、音楽情報の入力側から記載した順序で電気的に接続されている。
【0022】
音楽情報生成部30は、生成した音楽を表す音楽情報を、デジタル信号として音楽出力部60に出力する。入力されたデジタル信号は、D/A変換部62によりアナログ信号に変換され、増幅部64により増幅されて、スピーカ66に出力される。スピーカ66は、入力されたアナログ信号を応じて音を発生させる。これにより、音楽出力部60では、入力された音楽情報に基づいて音楽が演奏される。
【0023】
(映像音楽生成部)
次に、映像音楽生成部のハードウエア構成について説明する。
図4は映像音楽生成部のハードウエア構成の一例を示す図である。
図4に示すように、映像音楽生成部10は、各種制御及び各種演算を行うコンピュータとして構成されている。即ち、映像音楽生成部10は、CPU10A、ROM10B、RAM10C、不揮発性メモリ10D、及び入出力インターフェース(I/O)10Eを備えている。CPU10A、ROM10B、RAM10C、不揮発性メモリ10D、及びI/O10Eの各々は、バス10Fを介して接続されている。
【0024】
本実施の形態では、ROM10Bには、後述する「音楽生成処理」を実行するための制御プログラムが記憶されている。また、「MIDI信号変換用のソフトウエア」や、「MIDI信号から音楽情報を生成するソフトウエア」も、ROM30Bに記憶されている。これらのMIDI用ソフトウエアとして、汎用のソフトウエアを用いてもよい。CPU10Aは、ROM10Bに記憶されたプログラムを読み出し、RAM10Cをワークエリアとして使用してプログラムを実行する。なお、ここでは、ソフトウエアはプログラムと同義である。
【0025】
MIDI(Musical Instrument Digital Interface)とは、音楽情報をデジタル信号で通信するための国際規格である。MIDI信号とは、MIDI規格の情報であり、標準的なMIDIファイル形式(SMF:Standard MIDI File Format)の情報である。「MIDI信号変換用のソフトウエア」では、音の基本振動数を「ノートナンバー」、音圧レベルを「ベロシティレベル」、音色を「楽器名を表すナンバー」、時間変化を「ノートオン/ノートオフ」を表すデータに各々変換している。
【0026】
また、「MIDI信号から音楽情報を生成するソフトウエア」では、MIDI信号のノートナンバーに音源を割り当てると共に、音源に付随する表現に関する各種パラメータを設定、変更する。例えば、カメラ20からの出力信号から得られたMIDI信号について、ノートナンバー0〜87をピアノの88鍵盤の音階に割り当ててもよい。また、波形データのある範囲を繰り返し再生するループ、音源の時間変化を示すエンベロープ、各音源の音量変化の設定、音の鮮明度の変化をカットオフ周波数の設定により行うフィルタの設定、音像定位、音の強弱を表すベロシティ、及び同時に発音させる音源の選択等、各種のパラメータを設定、変更してもよい。
【0027】
映像音楽生成部10には、I/O10Eを介して、上記のカメラ20、映像出力部59、音楽出力部60に加えて、利用者の操作を受け付ける操作部32、利用者に各種情報を表示する表示部34、及びネットワークを介して外部装置と通信を行うためのインターフェースである通信部36の各部が接続されている。映像音楽生成部10は、カメラ20から出力信号を受け取り、映像出力部59に映像情報を出力すると共に、音楽出力部60に音楽情報を出力する。また、CPU10Aは、カメラ20、映像出力部59、音楽出力部60、操作部32、表示部34、及び通信部36の各部を制御する。
【0028】
情報の授受は通信部36を介して行うこともできる。
図4に示すように、従たるカメラ20Sはネットワークを介して映像音楽生成部10に接続されており、従たるカメラ20Sの出力信号(副映像の映像信号)は、通信部36を介して取得される。なお、主たるカメラ20Mは、I/O10Eを介して映像音楽生成部10に接続されている。
【0029】
また、映像音楽生成部10には、各種ドライブが接続されていてもよい。各種ドライブは、フレキシブルディスク、光磁気ディスク、CD−ROMなどのコンピュータ読み取り可能な可搬性の記録媒体からデータを読み込んだり、記録媒体に対してデータを書き込んだりする装置である。各種ドライブを備える場合には、可搬性の記録媒体に制御プログラムを記録しておいて、これを対応するドライブで読み込んで実行してもよい。
【0030】
(カメラの配置例)
次に、第1の実施の形態に係る音楽生成装置のカメラ20の配置について説明する。
図6は音楽生成装置における複数のカメラの配置を示す模式図である。
図6に示す例では、主たるカメラ20Mは、自車両100の正面に搭載され、車両前方を撮影する車載カメラである。主映像(自分の映像)は、自分21Mの視点から撮影される、車両前方の映像である。搭乗者である自分21Mは、車両前方の景色を見ることができる。
【0031】
従たるカメラ20Sは、自車両100の後部に搭載され、車両後方を撮影する車載カメラである。副映像(他者の映像)は、他者21Sの視点から撮影される、車両後方の映像である。同乗者である他者21Sは、車両後方の景色を見ることができる。
【0032】
自車両100には、主たるカメラ20M及び従たるカメラ20Sの外に、映像音楽生成部10、映像出力部59、及び音楽出力部60が搭載されている。搭乗者である自分21M及び同乗者である他者21Sは、利用者として、映像出力部59に表示される合成映像を観ることができるし、音楽出力部60により演奏される音楽を聞くことができる。
【0033】
この例では、自車両100の正面に主たるカメラ20Mが搭載され、自車両100の後部に従たるカメラ20Sが搭載されているので、主映像と副映像を合成した合成映像は、車両後方の映像が折り返されて車両前方の映像に重畳された映像となり、利用者には不可思議な映像空間が提供される。
【0034】
なお、従たるカメラ20Sを、自車両100に対して水平方向に回転可能に構成してもよい。従たるカメラ20Sを回転させると、回転に伴い副映像が変化し、合成映像と音楽も変化する。従たるカメラ20Sが他者21Sの操作により回転駆動される場合は、他者21Sの操作により合成映像と音楽とを意図的に変化させることができる。
【0035】
(映像音楽生成部の機能)
次に、映像音楽生成部10を機能面から説明する。
図5は映像音楽生成部の機能を概念的に示す模式図である。
図5に示すように、映像音楽生成部10は、主映像と副映像とを合成して合成映像を生成すると共に、主映像から生成した音楽情報と副映像から生成した音楽情報とを合成して1つの音楽情報(音楽)を生成する。以下、映像音楽生成部10の構成を詳細に説明する。
【0036】
図7は第1の実施の形態に係る映像音楽生成部の構成の一例を示す機能ブロック図である。
図7に示すように、映像音楽生成部10は、バッファ40、映像情報生成部29、及び音楽情報生成部30を備えている。映像情報生成部29は、映像処理部41及び映像合成部42を備えている。音楽情報生成部30は、信号処理部44、音楽情報生成部46、及び音楽情報合成部48を備えている。
【0037】
主たるカメラ20Mからは主映像の出力信号が出力され、従たるカメラ20Sからは副映像の出力信号が出力されている。映像音楽生成部10は、予め定めた周波数(例えば、30Hz〜60Hz)でサンプリングを行い、主たるカメラ20M及び従たるカメラ20Sからのデジタルの出力信号を取得する。なお、主たるカメラ20Mと従たるカメラ20Sとを区別する必要が無い場合は、カメラ20と総称する。
【0038】
バッファ40は、例えば、数ミリ秒以上200ミリ秒以下の短い期間、サンプリングした出力信号を一時的に保持する。デジタルの出力信号は、カメラ20の出力電圧を時間ごとにデジタル値で表したものである。以下、カメラ20の出力信号の表す値を「カメラ20の出力値」という。出力信号の表す値(カメラ20の出力値)は、サンプリング時間内での平均値、最大値等の代表値とすることができる。バッファ40は、主たるカメラ20M及び従たるカメラ20Sからの出力信号の各々を、映像情報生成部29及び音楽情報生成部30の各々に取得した順序で出力する。
【0039】
まず、映像情報生成部29の機能について説明する。映像処理部41は、主たるカメラ20M及び従たるカメラ20Sからの出力信号に対して、映像処理を実施して映像情報を生成する。映像処理部41は、得られた映像情報の各々を、映像合成部42に出力する。映像合成部42は、主映像の映像情報と副映像の映像情報とを合成して合成映像の映像情報を生成する。そして、映像合成部42は、得られた合成映像の映像情報を、映像出力部59に出力する。主映像及び副映像の少なくとも一方が変化することにより、合成映像も変化する。
【0040】
映像合成部42により合成映像の映像情報を生成する際に、単に画像を重畳するのではなく、再構成処理を加えて抽象化してもよい。例えば、主画像及び副画像の各々を複数のブロック画像に分解し、主画像のブロック画像と副画像のブロック画像とを、例えば交互に並べる等、適宜配置して合成画像を再構成する。
【0041】
複数の映像の各々は、異なる視点から撮影されたものであり、各映像空間はパラレルワールドを表す。本実施の形態では、これら複数の映像が合成された合成映像を生成することで、複数のパラレルワールドが同時に進行しているような不思議な映像空間を利用者に提供することができる。また、再構成処理を加えて抽象化した場合、異なる視点から撮影されたブロック画像が適宜配置された合成映像は、動くキュビズムといった印象を利用者に与える。
【0042】
次に、音楽情報生成部30の機能について説明する。信号処理部44は、主たるカメラ20M及び従たるカメラ20Sの各々からの出力信号に対してフレーム単位でエッジ検出処理を実施し、検出されたエッジの変化量に応じて出力信号をMIDI信号に変換する。そして、信号処理部44は、得られたMIDI信号を、音楽情報生成部46に出力する。音楽情報生成部46は、MIDI信号を受け取ると、MIDI信号から音楽情報を生成する。
【0043】
ここで、信号処理部44は、主たるカメラ20Mの主映像の出力信号から、基本の音楽情報用のMIDI信号を生成する。音楽情報生成部46は、これらのMIDI信号から基本の音楽情報を生成する。一方、信号処理部44は、従たるカメラ20Sの副映像の出力信号から、他の音楽情報用のMIDI信号を生成する。音楽情報生成部46は、これらのMIDI信号から他の音楽情報を生成する。
【0044】
音楽情報生成部46は、基本の音楽情報及び他の音楽情報の各々を、音楽情報合成部48に出力する。音楽情報合成部48は、基本の音楽情報と他の音楽情報とを合成して、主映像及び副映像に応じた1つの音楽情報を生成する。そして、音楽情報合成部48は、得られた音楽情報を演奏用の音楽情報として音楽出力部60に出力する。主映像及び副映像の少なくとも一方が変化することにより、音楽も変化する。
【0045】
上記の通り、異なる視点から撮影された主映像と副映像とは関連性が無く、主映像から生成した音楽情報と副映像から生成した音楽情報とを単に合成して1つの音楽情報としたのでは、無秩序で違和感のある音楽が生成される。
【0046】
本実施の形態では、異なる視点から撮影された複数の映像を、秩序化して使用することで、違和感の無い1つの音楽を生成する。秩序化は音楽のランダム性を低下させる手段である。違和感を発生させないためには、主映像と副映像は1つの音楽に対して同等ではない。音楽の基調を成す基本の音楽情報を主映像から生成することで、秩序化される。ここで「秩序化」について詳しく説明する。
【0047】
具体的には、主映像に基づいて基本の音楽情報である「ベロシティ、リズム及びコード進行」を生成する。例えば、自分が明るい場所に居るならば、他者が暗い場所に居ても、強いベロシティで音が鳴るようにする。その方が、自分が居る環境と対応するからである。また、リズムやコード進行は、主映像の変化速度に応じて変化させる。自分の移動速度に合わせたリズムやコード進行でなければ、自分の体感と一致せず違和感を生じるからである。なお、基本の音楽情報の一部は、一定としてもよい。例えば、「スケール」は、アボイドノート(聞きづらい和音)が生じないように、Cメジャースケール等、全ての楽器に同じスケールを当てはめてもよい。また、「音色」の変化は曲調を変化させるので、主映像に基づいて変化させる。
【0048】
一方、副映像に基づいて基本の音楽情報以外の他の音楽情報である「トーン」を生成する。例えば、副映像が車両前方の景色を撮影した映像等の場合は、副映像の全体からトーンを生成する。この場合は、副映像から生成される音楽は、伴奏音や雰囲気を表すBGM的な音楽となる。また、例えば、副映像が人物を撮影した映像等の場合は、人物の動きからトーンを生成する。この場合は、副映像から生成される音楽は、人物の動きに応じて発生するアクセント的な音となる。そして、基本の音楽情報と他の音楽情報とを合成して1つの音楽情報を得ることで、秩序化されていて違和感の無い1つの音楽を生成することができる。
【0049】
また、本実施の形態では、主映像が車両前方の景色を撮影した映像等の場合は、主映像から物標を検出し、物標が検出された場合の音を生成する。物標があるとドンドンと音がする、物標が近づいてくると連続的に音が変化する等、物標との対応関係に応じて音が発生する。自分の映像からそれらの音を生成する方が、自分が観ている風景に対応する。
【0050】
なお、1つの視点から撮影された主映像(自分の映像)に基づいて音楽を生成する従来技術では、他者の関与が無いために疎外感を生じることがある。本実施の形態では、他の視点から撮影された副映像(他者の映像)を併せて用いることで、映像や音楽の生成に他者を関与させることができ、他者との連帯感を感じることができる。例えば、他者が居てくれたので自分は映像や音楽を生成することができたと他者に感謝し、自分は他者の役に立ったという喜びを感じることができる。
【0051】
(音楽生成処理)
次に、映像音楽生成部10のCPU10Aにより実行される「音楽生成処理」について説明する。「音楽生成処理」は、操作部32を介して搭乗者からの開始指示があり、カメラ20からの出力信号が取得されると開始される。
図8は「音楽生成処理」の手順の一例を示すフローチャートである。
【0052】
まず、ステップ100で、取得した出力信号が主たるカメラ20Mから主映像の出力信号か否かを判定する。主映像の出力信号を取得した場合は、ステップ102に進む。主映像の出力信号を取得していない場合は、取得した出力信号は、従たるカメラ20Sから取得された副映像の出力信号であるため、ステップ110に進む。
【0053】
次に、ステップ102で、主映像の出力信号に対してフレーム単位でエッジ検出処理を実施し、前のフレームと現在のフレームとを比較して、エッジの変化量を算出する。エッジの変化量は、フレーム内での平均値、最大値等の代表値とすることができる。続くステップ104で、算出されたエッジの変化量に応じて主映像の出力信号を、基本の音楽情報用のMIDI信号に変換する。続くステップ106で、上記ステップ104で得られたMIDI信号から基本の音楽情報を生成する。
【0054】
一方、ステップ110では、副映像の出力信号に対してフレーム単位でエッジ検出処理を実施し、前のフレームと現在のフレームとを比較して、エッジの変化量を算出する。続くステップ112で、算出されたエッジの変化量に応じて副映像の出力信号を、他の音楽情報用のMIDI信号に変換する。続くステップ114で、上記ステップ112で得られたMIDI信号から他の音楽情報を生成する。
【0055】
なお、
図9(A)及び(B)に示すように、エッジ検出処理はフレームF全体について実施してもよく、フレームF内の限定した領域A、B、Cの何れかについて実施してもよい。例えば、フレームF全体でエッジ検出処理を実施してエッジの変化量を算出する場合、全体の中の一部で映像が変化してもエッジの変化量は小さい。これに対して、領域A、B、Cのように領域を絞ると、領域内で映像が変化するとエッジの変化量が大きくなる。
【0056】
例えば、主たるカメラ20M及び従たるカメラ20Sの両方が車載カメラである場合、主たるカメラ20Mから得られる主映像については、領域A、Cのように狭い領域についてエッジ検出処理を実施し、従たるカメラ20Sから得られる副映像については、フレームF全体又は領域Bのように広い領域についてエッジ検出処理を実施する。これにより、主映像の変化が、副映像の変化よりも音楽の変化に大きく反映され、より違和感の無い音楽が生成される。
【0057】
なお、本実施の形態では、各映像に対してフレーム単位でエッジ検出処理を実施し、直前のフレームと現在のフレームとを比較して、エッジの変化量を「被写体の動き(画像の変化)」として求めるが、他の方法で「被写体の動き」を求めてもよい。例えば、エッジ検出の代わりにフレーム単位でRGB各色の映像信号から明るさを求め、明るさの変化量を算出してもよい。この場合は、明るさの変化量に応じて主映像の出力信号をMIDI信号に変換する。
【0058】
また、エッジ等の被写体の位置を表す特徴点での変化量を求めるのではなく、フレーム内の各画素の階調値に着目して、直前のフレームと現在のフレームとの差分画像を求め、階調値が「0」ではない部分に「被写体の動き」が在るものとしてもよい。更に、フレーム内の全画素について、階調値の最大値、最小値、平均値等を求め、それぞれの変化量を求めると、「被写体の動き(画像の変化)」がより明確になる。
【0059】
次に、ステップ108で、上記ステップ106で得られた基本の音楽情報と上記ステップ114で得られた他の音楽情報とを合成し、演奏用の1つの音楽情報を生成して、音楽出力部60に出力する。次に、ステップ116で、利用者からの停止指示があったか否かを判定する。停止指示があればルーチンを終了し、停止指示が無ければステップ100に戻って、ステップ100からステップ116までの手順を繰り返す。
【0060】
以上説明したように、第1の実施の形態に係る音楽再生装置によれば、異なる視点から撮影された複数の映像を、秩序化して使用することで、違和感の無い1つの音楽を生成することができる。
【0061】
<第2の実施の形態>
第2の実施の形態は、カメラ20の配置を変更した以外は、第1の実施の形態に係る音楽生成装置と同様の構成であるため、同じ構成部分には同じ符号を付して説明を省略する。
【0062】
(カメラの配置例)
まず、第2の実施の形態のカメラ20の配置について説明する。
図10は第2の実施の形態に係る音楽生成装置における複数のカメラ20の配置を示す模式図である。
図10に示す例では、自車両100と他車両200の2台の車両が在る。主たるカメラ20Mは、自車両100の正面に搭載され、車両前方を撮影する車載カメラである。主映像(自分の映像)は、自分21Mの視点から撮影される、車両前方の映像である。搭乗者である自分21Mは、自車両100の車両前方の景色を見ることができる。
【0063】
従たるカメラ20Sは、他車両200の正面に搭載され、車両前方を撮影する車載カメラである。副映像(他者の映像)は、他者21Sの視点から撮影される、車両前方の映像である。同乗者である他者21Sは、他車両200の車両前方の景色を見ることができる。
【0064】
自車両100には、主たるカメラ20Mの外に、映像音楽生成部10、映像出力部59、音楽出力部60、及び通信部36が搭載されている。搭乗者である自分21Mは、映像出力部59に表示される合成映像を観ることができるし、音楽出力部60により演奏される音楽を聞くことができる。なお、自車両100には、他の搭乗者が搭乗していてもよい。他の搭乗者も、映像出力部59に表示される合成映像を観ることができるし、音楽出力部60により演奏される音楽を聞くことができる。
【0065】
(映像音楽生成部)
図11は第2の実施の形態に係る映像音楽生成部の構成の一例を示す機能ブロック図である。
図11に示すように、映像音楽生成部10に、従たるカメラ20Sが通信部36を介して接続されている以外は、
図7に示す映像音楽生成部10と同様の構成であるため、同じ構成部分には同じ符号を付して説明を省略する。なお、映像音楽生成部10の各機能部については図示を省略する。
【0066】
主たるカメラ20Mは、映像音楽生成部10に接続されている。映像音楽生成部10は、主たるカメラ20Mの出力信号(主映像の映像信号)を取得する。従たるカメラ20Sは、ネットワークを介して映像音楽生成部10に接続される。映像音楽生成部10は、従たるカメラ20Sの出力信号(副映像の映像信号)を、通信部36を介して取得する。
【0067】
第2の実施の形態では、自車両100は、他車両200に搭載された従たるカメラ20Sにより撮影される。従って、主映像と副映像とを合成した合成映像には、自車両100が写り込み、利用者(自分21M)には不可思議な映像空間が提供される。自分21Mは、自車両100に搭乗しながら、自車両100の姿を見ていることになる。自車両100と他車両200との距離が離れていると、前方方向の映像(風景)も異なる。例えば、自車両100の前方方向には道路があるのに、他車両200の前方方向にはビルが存在する場合、合成映像には、道路の前にビルが存在するかのように写り込む。これにより、利用者は、現実世界とは異なる別の世界に居るかのように感じることになる。
【0068】
<変形例>
(他のカメラ配置)
上記の実施の形態では、複数のカメラ20の各々が車載カメラである例について説明したが、複数のカメラ20の各々は車載カメラに限定される訳ではない。以下に、カメラ配置の変形例を示す。
図12〜
図14、及び
図16は複数のカメラの他の配置例を示す模式図である。
【0069】
図12に示す例では、主たるカメラ20Mは、自車両100の正面に搭載され、車両前方を撮影する車載カメラである。主映像(自分の映像)は、自分21Mの視点から撮影される、車両前方の映像である。搭乗者である自分21Mは、自車両100の車両前方の景色を見ることができる。従たるカメラ20Sは、車両とは離間した位置に配置されたカメラである。副映像(他者の映像)は、他者21Sの視点から撮影される、車両とは無関係な映像である。
【0070】
自車両100には、主たるカメラ20Mの外に、映像音楽生成部10、映像出力部59、音楽出力部60、及び通信部36が搭載されている。搭乗者である自分21Mは、映像出力部59に表示される合成映像を観ることができるし、音楽出力部60により演奏される音楽を聞くことができる。図示した例では、従たるカメラ20Sは、車両とは無関係な副映像を撮影する。従って、主映像と副映像とを合成した合成映像には、車両とは無関係な映像が写り込み、利用者(自分21M)には不可思議な映像空間が提供される。
【0071】
図13に示す例では、主たるカメラ20M及び従たるカメラ20Sの各々は、車両とは無関係に互いに離間して配置されたカメラである。主映像(自分の映像)は、自分21Mの視点から撮影される、車両とは無関係な映像である。また、副映像(他者の映像)は、他者21Sの視点から撮影される、車両とは無関係な映像である。
【0072】
自分21Mの周辺には、主たるカメラ20Mの外に、映像音楽生成部10、映像出力部59、音楽出力部60、及び通信部36が配置されている。自分21Mは、映像出力部59に表示される合成映像を観ることができるし、音楽出力部60により演奏される音楽を聞くことができる。図示した例では、主たるカメラ20Mは自分21Mの視点から主映像を撮影し、従たるカメラ20Sは他者21Sの視点から副映像を撮影する。従って、主映像と副映像とを合成した合成映像には、異なる視点から並行して撮影された複数の映像が写り込み、利用者(自分21M)には不可思議な映像空間が提供される。
【0073】
この例では、主たるカメラ20M及び従たるカメラ20Sの各々は、車両と無関係である。例えば、自分21Mは仕事場で作業をしており、主たるカメラ20Mが自分21Mの姿を捉えている(主映像)。他者21Sである子供は動物園におり、従たるカメラ20Sで動物を撮影している(副映像)。主たるカメラ20Mの被写体である自分21Mや従たるカメラ20Sの被写体である動物が動くことで、主映像と副映像とが合成された合成画像と音楽とが変化する。また、離れた位置に居る他者21Sを、従たるカメラ20Sの被写体とした場合、他者21Sの様子を監視することもできる。
【0074】
図14に示す例では、従たるカメラ20Sは、他車両200の正面に搭載され、車両前方を撮影する車載カメラである。副映像(他者の映像)は、他者21Sの視点から撮影される、車両前方の映像である。搭乗者である他者21Sは、他車両200の車両前方の景色を見ることができる。主たるカメラ20Mは、車両とは離間した位置に配置されたカメラである。主映像(自分の映像)は、自分21Mの視点から撮影される、車両とは無関係な映像である。
【0075】
自分21Mの周辺には、主たるカメラ20Mの外に、映像音楽生成部10、映像出力部59、音楽出力部60、及び通信部36が配置されている。自分21Mは、映像出力部59に表示される合成映像を観ることができるし、音楽出力部60により演奏される音楽を聞くことができる。図示した例では、従たるカメラ20Sで撮影される副映像は、他者21Sの視点から撮影される、車両前方の映像である。従って、主映像と副映像とを合成した合成映像には、他者21Sの視点から撮影された車両前方の映像が写り込み、利用者(自分21M)には不可思議な映像空間が提供される。
【0076】
図16に示す例では、主映像を「他者の映像」とし、副映像を「自分の映像」とする。主たるカメラ20Mは、他車両200の正面に搭載され、車両前方を撮影する車載カメラである。主映像(他者の映像)は、他者21Sの視点から撮影される、車両前方の映像である。搭乗者である他者21Sは、他車両200の車両前方の景色を見ることができる。従たるカメラ20Sは、車両とは離間した位置に配置されたカメラである。副映像(自分の映像)は、自分21Mの後方に在る視点から撮影される、自分21Mを被写体とした映像である。
【0077】
自分21Mの周辺には、従たるカメラ20Sの外に、映像音楽生成部10、映像出力部59、音楽出力部60、及び通信部36が配置されている。自分21Mは、映像出力部59に表示される合成映像を観ることができるし、音楽出力部60により演奏される音楽を聞くことができる。図示した例では、主たるカメラ20Mで撮影される副映像は、他者21Sの視点から撮影される、車両前方の映像である。従って、主映像と副映像とを合成した合成映像には、他者21Sの視点から撮影された車両前方の映像に自分21Mが写り込み、利用者(自分21M)には自分がドライブしているような不可思議な映像空間が提供される。
【0078】
また、利用者(自分21M)が見るのは、主たるカメラ20Mで撮影された車両前方の映像(他者の映像)に自分21Mが写り込んだ合成映像である。従って、主映像である「他者の映像」に基づいて基本の音楽情報を生成し、副映像である「自分の映像」に基づいて他の音楽情報を生成する。例えば、自分21Mの動きに応じてポロンポロンというアクセント的な音を発生させる等、副映像に基づいてトーンを生成する。
【0079】
(他の映像合成)
上記実施の形態では、主映像と副映像とを合成して合成映像を生成する例について説明したが、更に他の映像を合成してもよい。
図15はVR映像を使用する映像音楽生成部の機能を概念的に示す模式図である。
図15に示すように、映像音楽生成部10は、主映像と副映像と仮想現実映像(VR映像)とを合成して合成映像を生成する。VR映像により映像空間に架空の物体を加えることで、映像空間がゲーム映像のような仮想空間になる。なお、VR映像は音楽情報の生成には使用しない。VR映像を合成する場合も、主映像から生成した音楽情報と副映像から生成した音楽情報とを合成して1つの音楽情報を生成する。
【0080】
なお、上記実施の形態で説明した音楽生成装置及びプログラムの構成は一例であり、本発明の主旨を逸脱しない範囲内においてその構成を変更してもよいことは言うまでもない。