(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0020】
次に、図面を参照して本発明の実施の形態を説明する。
図1は、本発明の一実施形態に係る映像生成装置1の全体的な構成を示すブロック図である。
図2は、船舶4に備えられる各種の機器を示す側面図である。
【0021】
図1に示す映像生成装置1は、例えば
図2に示すような船舶(水上移動体)4に搭載され、カメラ(撮影装置)3で撮影した映像をベースとして、当該船舶4の 周囲の様子を仮想現実的に表現する映像を生成するための装置である。映像生成装置1が生成した映像は、ディスプレイ2に表示される。
【0022】
ディスプレイ2は、例えば、当該船舶4(自船)で操船を行うオペレータが参照する操船支援装置のディスプレイとして構成することができる。ただし、ディス プレイ2は上記に限定されず、例えば、自船4から周囲の状況を監視する操船補助者が携帯する携帯型コンピュータのディスプレイ、自船4の客室で乗客が鑑賞 するためのディスプレイ、或いは乗船者が装着するウェアラブルグラス等のヘッドマウントディスプレイの表示部とすることが可能である。
【0023】
映像生成装置1は、自船4に設置されたカメラ3によって撮影された自船4の周囲の映像と、自船4の周囲の付加表示情報(後に詳述)を仮想現実的に表現する図形と、を合成することにより、ディスプレイ2への出力映像である合成映像を生成する。
【0024】
次に、主に
図1を参照して、映像生成装置1に電気的に接続されるカメラ3及び各種の船舶機器について説明する。
【0025】
カメラ3は、自船4の周囲を撮影する広角型のビデオカメラとして構成されている。このカメラ3はライブ出力機能を有しており、撮影結果としての動画データ (映像データ)をリアルタイムで生成して映像生成装置1に出力することができる。
図2に示すように、カメラ3は、撮影方向が船体に対して水平前方となるよ うに船舶4に設置される。
【0026】
カメラ3は図略の回転機構を介して船舶4に取り付けられており、パン/チルト動作を指示する信 号が映像生成装置1から入力されることにより、その撮影方向を、船舶4の船体を基準として所定の角度範囲で変更することができる。また、自船4の高さ及び 姿勢は波等により様々に変化するので、それに伴って、カメラ3の高さが変化するとともに姿勢(撮影方向)も3次元的に変化することになる。
【0027】
本実施形態の映像生成装置1は、上記のカメラ3のほか、船舶機器としてのGNSSコンパス(方位センサ、姿勢センサ)5、角速度センサ6、GNSS受信機 7、加速度センサ8、AIS受信機9、ECDIS10、プロッタ11、レーダ装置12、及びソナー13等と電気的に接続されている。
【0028】
GNSSコンパス5は、自船4に固定された複数のGNSSアンテナ(測位用アンテナ)を備える。GNSSコンパス5は、それぞれのGNSSアンテナの位置 関係を、測位衛星から受信した電波に基づいて算出する。特に、本実施形態のGNSSコンパス5は、各GNSSアンテナが受信した電波の搬送波位相の位相差 に基づいてGNSSアンテナの位置関係を求めるように構成されている(この処理は公知であるので、詳細な説明は省略する)。これにより、自船4の船首方位 を精度よく取得することができる。
【0029】
GNSSコンパス5は、船舶4の姿勢を3次元的に取得することができる。言い換えれ ば、GNSSコンパス5は、船首方位(即ち、船舶4のヨー角)だけでなく、船舶4のロール角及びピッチ角を検出することができる。GNSSコンパス5で取 得された自船4の姿勢情報は、映像生成装置1の姿勢取得部16や、当該姿勢情報を利用する他の船舶機器に出力される。
【0030】
角 速度センサ6は、例えば公知の振動ジャイロセンサから構成されており、GNSSコンパス5の姿勢検出間隔(例えば、1秒)より短い周期で、船舶4のヨー角 速度、ロール角速度及びピッチ角速度を検出することができる。GNSSコンパス5が検出した角度と、角速度センサ6が検出した角速度の積分値と、を併用す ることにより、GNSSコンパス5だけを用いる場合よりも短い時間間隔で船舶4の姿勢を取得することができる。また、角速度センサ6は、上述の測位衛星か らの電波が例えば橋等の障害物により遮られて、GNSSコンパス5による姿勢の検出が不能となっている場合に、姿勢情報を取得するための代替的な手段とし て機能する。
【0031】
GNSS受信機7は、前記のGNSSアンテナが測位衛星から受信した電波に基づいて、自船4の位置(詳細に は、GNSSアンテナの緯度、経度及び高さ)を求める。GNSS受信機7は、得られた位置情報を、映像生成装置1の位置取得部15や、当該位置情報を利用 する他の船舶機器に出力する。
【0032】
加速度センサ8は、例えば公知の静電容量検出型のセンサとして構成されており、GNSS受 信機7の位置検出間隔(例えば、1秒)より短い周期で、船舶4のヨー軸、ロール軸及びピッチ軸における加速度を検出することができる。GNSS受信機7が 検出した位置と、加速度センサ8が検出した加速度の2重積分値と、を併用することにより、GNSS受信機7だけを用いる場合よりも短い時間間隔で自船4の 位置を取得することができる。また、加速度センサ8は、上述の測位衛星からの電波が遮られてGNSS受信機7による位置の検出が不能となっている場合に、 位置情報を取得するための代替的な手段として機能する。
【0033】
本実施形態では
図2に示すように、角速度センサ6、GNSS受信 機7及び加速度センサ8は、GNSSコンパス5に内蔵されたものが用いられている。ただし、角速度センサ6、GNSS受信機7及び加速度センサ8のうち全 部又は一部が、GNSSコンパス5とは独立して設けられてもよい。
【0034】
AIS受信機9は、他船や陸上局等から送信される AIS情報を受信するものである。AIS情報には、自船4の周囲を航行している他船の位置(緯度・経度)、当該他船の長さ及び幅、当該他船の種類及び識別 情報、当該他船の船速、針路及び目的地、並びにランドマークの位置及び識別情報等の、様々な情報が含まれる。
【0035】
ECDIS10は、GNSS受信機7から自船4の位置情報を取得するとともに、予め記憶されている電子海図情報に基づいて、自船4の周囲の情報を映像生成装置1に出力する。
【0036】
プロッタ11は、GNSS受信機7から自船4の位置を継続して取得することにより、自船4の航行軌跡の情報を生成することができる。また、プロッタ11 は、ユーザに複数のウェイポイント(自船4が通過する予定の地点)を設定させることにより、これらのウェイポイントを順次繋ぐようにして予定航路を生成す ることができる。
【0037】
レーダ装置12は、自船4の周囲に存在する他船等の物標を探知することができる。また、このレーダ装置12は物標を捕捉及び追尾することが可能な公知の目標追尾機能(TT)を有しており、当該物標の位置及び速度ベクトル(TT情報)を求めることができる。
【0038】
ソナー13は、超音波を水中に送信するとともに、その超音波が魚群等で反射した反射波を受信することにより、魚群等を探知する。
【0039】
映像生成装置1は、ユーザが操作するキーボード31及びマウス32に接続されている。ユーザは、キーボード31及びマウス32を操作することで、映像の生 成に関する各種の指示を行うことができる。この指示には、カメラ3のパン/チルト動作、各種の情報の表示の有無の設定、合成映像の視点の設定等が含まれ る。
【0040】
次に、映像生成装置1の構成について、主に
図1を参照して詳細に説明する。
【0041】
図1に 示すように、映像生成装置1は、撮影映像入力部21、位置取得部15、姿勢取得部16、付加表示情報取得部17、記憶部18、撮影位置設定部25、アンテ ナ位置設定部26、視点設定部27、表示設定部28、合成映像生成部20、物標位置推測部35、物標向き推測部36、及び映像更新部37を備える。
【0042】
具体的には、映像生成装置1は公知のコンピュータとして構成され、図示しないが、CPU、ROM、RAM、及びHDD等を備える。更に、映像生成装置1 は、後述の3次元画像処理を高速で行うためのGPUを備えている。そして、例えばHDDには、本発明の映像合成処理を実行させるためのソフトウェアが記憶 されている。このハードウェアとソフトウェアの協働により、映像生成装置1を、撮影映像入力部21、位置取得部15、姿勢取得部16、付加表示情報取得部 17、記憶部18、撮影位置設定部25、アンテナ位置設定部26、視点設定部27、表示設定部28、合成映像生成部20、物標位置推測部35、物標向き推 測部36、及び映像更新部37等として機能させることができる。
【0043】
撮影映像入力部21は、カメラ3が出力する映像データを、例えば30フレーム毎秒で入力することができる。撮影映像入力部21は、入力された映像データを、合成映像生成部20(後述のデータ合成部23)に出力する。
【0044】
位置取得部15は、GNSS受信機7及び加速度センサ8の検出結果に基づいて、自船4の現在の位置をリアルタイムで取得する。
【0045】
姿勢取得部16は、GNSSコンパス5及び角速度センサ6の検出結果に基づいて、自船4の現在の姿勢をリアルタイムで取得する。
【0046】
付加表示情報取得部17は、AIS受信機9、ECDIS10、プロッタ11、レーダ装置12、及びソナー13等が映像生成装置1に出力する情報に基づい て、カメラ3で撮影した映像に対して付加的に表示する情報(付加表示情報)を取得する。この付加表示情報としては様々なものが考えられるが、例えば
図3に 示すように、AIS受信機9が受信した他船44の情報とすることができる。なお、付加表示情報の詳細は後述する。
【0047】
図1の 記憶部18は、各種の情報を記憶するメモリとして構成されている。この記憶部18は、各種の付加表示情報を表現する仮想現実オブジェクトの3次元形状を、 テンプレートとして記憶することができる。記憶部18が記憶する3次元形状のテンプレートは、例えば、小型の船、大型の船、ブイ、灯台等とすることができ るが、これに限定されない。
【0048】
撮影位置設定部25は、自船4におけるカメラ3の位置(撮影位置)、具体的には、船の長さ方 向及び幅方向でのカメラ3の位置と、上下方向でのカメラの位置(カメラ3の高さ)と、を設定することができる。カメラ3の高さは、自船4において通常想定 される喫水線からの高さとすることができるが、これに限定されず、例えば、船底からの高さとすることができる。この撮影位置の設定は、例えば、ユーザがカ メラ3の位置を実際に計測した結果をキーボード31及びマウス32等を操作して入力することで行うことができる。
【0049】
アンテ ナ位置設定部26は、自船4におけるGNSSアンテナの位置(アンテナ位置)を設定することができる。このアンテナ位置は、例えば、制御の基準として
図2 に示すように自船4に設定される基準点4aを基準とした、船の長さ方向、幅方向、及び上下方向での位置とすることができる。この基準点4aは様々に定める ことができるが、本実施形態では、自船4の船体の中央で、かつ、通常想定される喫水線と同じ高さとなる位置に定められている。アンテナ位置の設定は、上記 の撮影位置と同様に、例えば実際の計測値を入力することで行うことができる。
【0050】
図1の視点設定部27は、後述の合成映像生成部20により生成される映像の視点を、ユーザが例えばキーボード31及びマウス32を操作することにより設定することができる。
【0051】
表示設定部28は、後述の合成映像生成部20により生成される映像における付加表示情報の表示の有無等を設定することができる。表示設定部28に対する設定は、ユーザが例えばキーボード31及びマウス32を操作することにより行うことができる。
【0052】
位置取得部15、姿勢取得部16、付加表示情報取得部17、記憶部18、撮影位置設定部25、アンテナ位置設定部26、視点設定部27、及び表示設定部28は、取得し、記憶し、又は設定された情報を、合成映像生成部20に出力する。
【0053】
合成映像生成部20は、撮影映像入力部21に入力されたカメラ3の撮影映像に3次元コンピュータグラフィックスを合成することにより、拡張現実を表現する映像を生成する。この合成映像生成部20は、3次元シーン生成部22と、データ合成部23と、を備える。
【0054】
3次元シーン生成部22は、
図4に示すように、3次元仮想空間40に、付加表示情報に対応する仮想現実オブジェクト41v,42v,・・・を配置すること により、仮想現実の3次元シーンを構築する。これにより、3次元シーンのデータである3次元シーンデータ(3次元表示用データ)48が生成される。なお、 3次元シーンの詳細は後述する。
【0055】
図1のデータ合成部23は、3次元シーン生成部22が生成した3次元シーンデータ48を 描画することで付加表示情報を3次元的に表現する図形を生成するとともに、
図6に示す合成映像、即ち、当該図形41f,42f,・・・とカメラ3の撮影映 像とを合成した映像を出力する処理を行う。
図6に示すように、この合成画像では、カメラ3で撮影された映像(図では説明の都合により破線で示されている) の海面に、付加表示情報を示す図形41f,42f,・・・が載置されるように重ねられている。データ合成部23は、生成された合成映像をディスプレイ2に 出力する。なお、図形の生成処理及びデータ合成処理の詳細は後述する。
【0056】
図1の物標位置推測部35は、付加表示情報を表示 する対象となる適宜の物標のうち、移動する物標(例えば、
図3の他船44)について、現在の位置を、直近に得られた付加表示情報から推測する。また、物標 向き推測部36は、上記の移動する物標について、現在の向きを、直近に得られた付加表示情報から推測する。物標位置推測部35及び物標向き推測部36によ る推測結果は、3次元シーン生成部22が
図4に示すように仮想現実オブジェクト44vを3次元仮想空間40に配置する位置及び向きとして用いられる。な お、この推測処理の詳細は後述する。
【0057】
映像更新部37は、物標位置推測部35及び物標向き推測部36による推測結果に基づ いて、3次元シーンにおける物標の位置及び向きを更新するための情報(以下、更新情報と呼ぶことがある。)を合成映像生成部20に入力する。合成映像生成 部20の3次元シーン生成部22は、入力された更新情報に基づいて、3次元シーンを更新する。合成映像生成部20のデータ合成部23は、更新された3次元 シーンに基づいて、合成映像を更新する。
【0058】
次に、前述の付加表示情報取得部17で取得される付加表示情報について詳細に説明する。
図3は、映像生成装置1において表示の対象となる付加表示情報の例を説明する概念図である。
【0059】
付加表示情報は、カメラ3で撮影した映像に対して付加的に表示する情報であり、映像生成装置1に接続される船舶機器の目的及び機能に応じて様々なものが考 えられる。例示すると、AIS受信機9に関しては、受信した上述のAIS情報(例えば、他船の位置及び向き、ブイの位置、仮想ブイの位置等)を付加表示情 報とすることができる。ECDIS10に関しては、電子海図に含まれる危険海域、航海禁止領域、灯台、ブイ等の位置を付加表示情報とすることができる。プ ロッタ11に関しては、記録される自船4の軌跡、設定された予定航路、ウェイポイント、到着エリア、立寄エリアの位置等を付加表示情報とすることができ る。レーダ装置12に関しては、探知された物標の位置及び速度等を付加表示情報とすることができる。ソナー13に関しては、探知された魚群の位置を付加表 示情報とすることができる。これらの情報は、船舶機器から映像生成装置1にリアルタイムで入力される。付加表示情報取得部17は、入力されるそれぞれの付 加表示情報に対し、それを一意に特定して管理するための識別情報(例えば、識別番号)を付与する。
【0060】
図3には、自船4の周 囲に位置している付加表示情報の例が示されている。
図3において、海面上(水面上)には、目的地を示すウェイポイント41,41と、目的地までの予定航路 を示す折れ線状のルート線42と、が定められている。また、ルート線42の近傍には、多角形状(矩形状)の立寄エリア43が定められる。ウェイポイント 41、ルート線42、及び立寄エリア43は、ユーザが予めプロッタ11を適宜操作し、各地点の位置を指定することにより設定される。
【0061】
また、
図3の例では、自船4の前方にやや離れた地点で他船44が自船4の右方へ向けて航行中であり、自船4の左斜め前の近くには仮想ブイ45があること が、AIS受信機9が取得したAIS情報により検出されている。なお、仮想ブイとは、設置が困難である等の事情により実際に海上に設けられていないが、ナ ビゲーション装置の画面には標識として表示される、仮想の(実体を持たない)ブイを意味する。
【0062】
それぞれの付加表示情報に は、少なくとも、それが配置される海面(水面)における1又は複数の地点の位置(緯度及び経度)を示す情報が含まれている。例えば、ルート線42を示す付 加表示情報には、折れ線の屈曲部となる2箇所の地点の位置の情報が含まれている(屈曲部の地点の位置は、ウェイポイント41の位置と一致する)。立寄エリ ア43の付加表示情報には、多角形の頂点となるそれぞれの地点の位置の情報が含まれている。また、他船44を示す付加表示情報には、当該他船44の位置、 船首方位、速度、回頭角速度、船の長さ、幅等を示す情報が含まれている。
【0063】
次に、3次元シーン生成部22による3次元シー ンの構築、及び、データ合成部23による映像の合成について、
図4を参照して詳細に説明する。
図4は、3次元仮想空間40に仮想現実オブジェクト 41v,42v,・・・を配置して生成される3次元シーンデータ48と、当該3次元仮想空間40に配置される映写スクリーン51と、を説明する概念図であ る。
【0064】
3次元シーン生成部22によって仮想現実オブジェクト41v,42v,・・・が配置される3次元仮想空間40は、図 4に示すように、自船4の適宜の基準位置(例えば、上述の基準点4a)を原点とする直交座標系で構成され、水平な面であるxz平面が海面(水面)を模擬す るように設定されている。
図4の例では、座標軸は、+z方向が常に船首方位と一致し、+x方向が右方向、+y方向が上方向となるように定められる。この3 次元仮想空間40内の各地点(座標)は、自船4の周囲の現実の位置に対応するように設定される。
【0065】
図4には、
図3に示す自 船4の周囲の状況を表現するために、仮想現実オブジェクト41v,42v,43v,44v,45vを3次元仮想空間40内に配置した例が示されている。各 仮想現実オブジェクト41v,42v,43v,44v,45vは、船首方位を基準として、それが表す付加表示情報の自船4に対する相対位置を反映させるよ うに、xz平面に接するように配置される。これらの仮想現実オブジェクト41v,42v,・・・が配置される位置を決定するにあたっては、
図1に示すアン テナ位置設定部26で設定されたGNSSアンテナの位置を用いた計算が行われる。
【0066】
他船44を示す仮想現実オブジェクト44vは、船舶の形状を有しており、記憶部18に予め記憶されている大型の船のモデルのテンプレートを利用して表現される。また、当該モデルの向きは、AIS情報で取得した他船44の向きを示すように配置されている。
【0067】
仮想ブイ45を示す仮想現実オブジェクト45vも、他船44の仮想現実オブジェクト44vと同様に、記憶部18に予め記憶されているブイのモデルのテンプレートを利用して表現される。
【0068】
ウェイポイント41の仮想現実オブジェクト41vは、薄い円板状の3次元形状で表現されている。ルート線42の仮想現実オブジェクト42vは、一定の厚み 及び幅を有する細長い板を折れ線状に屈曲させた3次元形状で表現されている。立寄エリア43の仮想現実オブジェクト43vは、立寄エリア43の輪郭を有す る一定の厚みの板のような3次元形状で表現されている。これらの仮想現実オブジェクト41v,42v,43vについては、モデルのテンプレートを使用せず に、3次元形状がその都度作成される。
【0069】
3次元シーン生成部22は、上記のようにして、3次元シーンデータ48を生成す る。
図4の例では、仮想現実オブジェクト41v,42v,・・・が自船4の位置を原点とした方位基準で配置されるので、
図3の状態から自船4の位置(東西 方向及び南北方向での位置)が変化したり、回頭等により船首方位が変化したりすると、当該仮想現実オブジェクト41v,42v,・・・を再配置した新しい 3次元シーンが構築されて、3次元シーンデータ48が更新される。また、例えば
図3の状態から他船44が移動する等して付加表示情報の内容が変更される と、最新の付加表示情報を反映するように3次元シーンデータ48が更新される。
【0070】
その後、データ合成部23は、3次元仮想 空間40に、カメラ3の撮影映像が映写される位置及び範囲を定める映写スクリーン51を配置する。この映写スクリーン51と仮想現実オブジェクト 41v,42v,・・・の両方が視野に含まれるように後述の視点カメラ55の位置及び向きを設定することで、映像の合成を実現することができる。
【0071】
データ合成部23は、自船4に搭載されるカメラ3の位置及び向きを3次元仮想空間40においてシミュレートするとともに、映写スクリーン51を、当該カメ ラ3に正対するように配置する。カメラ3の位置のシミュレートに関し、船体を基準とするカメラ3の位置は、
図1に示す撮影位置設定部25の設定値に基づい て得ることができる。
【0072】
カメラ3の位置及び向きのシミュレートにあたっては、上述したカメラ3のパン/チルト動作による向 きの変化が考慮される。更に、当該シミュレートは、位置取得部15及び姿勢取得部16が取得した位置情報及び姿勢情報に基づき、船舶4の姿勢の変化及び高 さの変化によるカメラ3の位置及び向きの変動が反映されるように行われる。データ合成部23は、カメラ3の位置及び向きの変化に連動して、3次元仮想空間 40に配置される映写スクリーン51の位置及び向きを変化させる。
【0073】
そして、データ合成部23は、3次元シーンデータ48 及び映写スクリーン51に対して公知のレンダリング処理を施すことにより、2次元の画像を生成する。より具体的には、データ合成部23は、3次元仮想空間 40に仮想カメラとしての視点カメラ55を配置するとともに、レンダリング処理の対象となる範囲を定める視錐台56を、当該視点カメラ55を頂点とし、そ の視線方向が中心軸となるように定義する。続いて、データ合成部23は、各オブジェクト(仮想現実オブジェクト41v,42v,・・・及び映写スクリーン 51)を構成するポリゴンのうち、当該視錐台56の内部に位置するポリゴンの頂点座標を、透視投影により、ディスプレイ2での合成映像の表示領域に相当す る2次元の仮想スクリーンの座標に変換する。そして、この仮想スクリーン上に配置された頂点に基づいて、所定の解像度でピクセルの生成・加工処理を行うこ とにより、2次元の画像を生成する。
【0074】
このようにして生成された2次元の画像には、3次元シーンデータ48の描画が行われ ることにより得られた図形(言い換えれば、仮想現実オブジェクト41v,42v,・・・のレンダリング結果としての図形)が含まれる。また、2次元の画像 の生成過程において、映写スクリーン51に相当する位置には、カメラ3の撮影映像が貼り付けられるように配置される。これにより、データ合成部23による 映像の合成が実現される。映写スクリーン51は、カメラ3を中心とする球殻に沿うように湾曲した形状となっているので、透視投影による撮影映像の歪みを防 止することができる。
【0075】
視点カメラ55は合成映像の視点を定めるものであり、その位置及び向きは、上述の視点設定部27の 設定により定められる。ただし、視点設定部27において特別に設定することにより、データ合成部23は、合成映像を生成するときのモードとして、視点カメ ラ55の位置及び向きが、カメラ3の位置及び向きと常に一致するように自動的に変化するモードとすることができる(視点追従モード)。この視点追従モード では、視点カメラ55の視野全体が常に映写スクリーン51(即ち、カメラ3の撮影映像)で覆われることになるので、臨場感のある合成映像を実現することが できる。
【0076】
一方、データ合成部23は、視点カメラ55の位置及び向きが、カメラ3の位置及び向きと無関係に、適宜の入力装 置の操作によって視点設定部27に設定された視点に従うモードとすることもできる(独立視点モード)。この入力装置としては、例えば、キーボード31、マ ウス32、図示しないタッチパネル、ジョイスティック等とすることが考えられる。この独立視点モードでは、ユーザは、視点を自由に動かして、カメラ3の撮 影視野から外れた位置にある付加表示情報を確認することができる。
【0077】
次に、カメラ3で撮影した映像と合成映像との関係を、例を参照して説明する。
図5は、カメラ3による撮影映像の例を示す図である。
図6は、データ合成部23が出力する合成映像を示す図である。
【0078】
図5には、
図3に示す状況において、自船4のカメラ3が撮影した映像の例が示されている。この撮影映像には、海面に浮かぶ他船44rが写っている。また、映像の下部中央には、自船4の船首部分が写っている。
【0079】
仮想ブイ45は上述のとおり仮想的なものであるので、
図5に示すとおり、カメラ3に写ることはない。ウェイポイント41、ルート線42及び立寄エリア43も、プロッタ11での設定により作成されるものであるので、カメラ3による撮影映像には現れない。
【0080】
そして、
図5に示す撮影映像に対し、
図4の3次元シーンデータ48のレンダリングによる上記の2次元の画像を合成した結果が、
図6に示されている。ただ し、
図6では、カメラ3による撮影映像が現れている部分が、それ以外の部分と区別し易くなるように便宜的に破線で示されている(これは、合成映像を表す他 の図においても同様である)。
図6の合成映像では、付加表示情報を表現する図形41f,42f,43f,44f,45fが、当該撮影映像に重なるように配 置されている。他船を表す図形44fは、撮影映像における他船44rの位置にほぼ重なるように配置されている。
【0081】
上記の図 形41f,42f,・・・は、
図4に示す3次元シーンデータ48を構成する仮想現実オブジェクト41v,42v,・・・の3次元形状を、カメラ3と同じ位 置及び向きの視点で描画した結果として生成される。従って、カメラ3による写実的な映像に対して図形41f,42f,・・・を重ねた場合でも、見た目の違 和感が殆ど生じないようにすることができる。
【0082】
図6に示すように、付加表示情報を仮想現実的に表現する図形 41f,42f,・・・は、撮影映像の海面にあたかも置かれるかのように、合成映像上に配置されている。別の言い方をすれば、付加表示情報を仮想現実的に 表現する図形41f,42f,・・・は、撮影映像の水面に沿って配置されている。これは、
図4に示す仮想現実オブジェクト41v,42v,・・・を、撮影 位置設定部25(
図1を参照)で設定された高さに基づいて計算された距離だけカメラ3に対して下方に位置しているxz平面に接するように配置するととも に、映写スクリーン51の位置を、カメラ3の位置及び向きを考慮して正しく配置することにより実現される。
【0083】
次に、自船4の揺れに伴う合成映像の変化について説明する。
図7は、
図4の状態から船舶4がピッチ方向及びロール方向に揺動した場合を示す概念図である。
図8は、
図7の場合の合成映像を示す図である。
【0084】
上述したとおり、カメラ3は自船4に取り付けられているので、その位置及び向きは、自船4の姿勢が波等により傾いたり、自船4が波に乗り上げたりすること に伴って変化する。本実施形態において、データ合成部23は、自船4に揺れ(ピッチング、ローリング及びヒービング)が生じた場合、姿勢取得部16が取得 した自船4の姿勢の変化、及び、位置取得部15が取得した自船4の位置の上下方向の変化をシミュレートするように、3次元仮想空間40におけるカメラ3の 位置及び向きを変更し、それに伴って映写スクリーン51の位置を変更する。
【0085】
図7には、
図4の状態から自船4の姿勢がピッ チ方向及びロール方向に変化したときの様子が示されている。
図7の例では、自船4は前下がりかつ左下がりとなるように傾いており、それを反映するように、 カメラ3の位置及び向きが変化する。これに連動して、映写スクリーン51は、そのように位置及び向きが変化したカメラ3に正対するように移動する。
【0086】
図7の例では、上述の視点追従モードにより、視点カメラ55の位置及び向きも、上記のように位置及び向きが変化したカメラ3に追従するように変化する。図 7に対応する合成映像の例が
図8に示され、この図に示すように、自船4の揺れに伴ってカメラ3の位置及び向きが異なっても、それに連動して映写スクリーン 51の位置及び向きが変化するとともに、3次元シーンをレンダリングする視点カメラ55の位置及び向きが変化するので、違和感のない合成映像を継続的に得 ることができる。
【0087】
視点追従モードでは、自船4の揺れによってピッチ角又はロール角が所定値以上変化する毎に、データ合成 部23での3次元シーンデータ48の描画が更新され、最新の視点に基づく図形41f,42f,・・・が生成される。従って、海面が現れる向きが自船4の揺 れにより変化するカメラ3の撮影映像に対し、図形41f,42f,・・・の表示を、当該海面に置かれた状態を維持するように適切に変化させることができ る。
【0088】
これにより、仮想の物体があたかも海面に浮かんでいるように見える、自然で現実感の高い拡張現実の映像を得ることが できる。また、ユーザは、ディスプレイ2に映し出された海面を眺めることで、仮想現実を表す図形41f,42f,・・・が網羅的に視界に入るので、取りこ ぼしなく必要な情報を得ることができる。
【0089】
次に、移動する物標に関する仮想現実オブジェクト(例えば、他船の仮想現実オブジェクト44v)の3次元仮想空間40への配置に関して行われる、物標位置推測部35及び物標向き推測部36の処理について説明する。
【0090】
上記の例で、仮想現実オブジェクト44vが示す他船44の情報は、AIS受信機9によって受信される。即ち、他船44はAIS物標であるということができ る。AIS受信機9はAIS情報を受信する毎に、当該情報をリアルタイムで映像生成装置1に出力する。しかしながら、他船44が自らの位置等をAIS情報 として送信する間隔は、状況によっても変動するが例えば10秒に1回程度ということがあり、情報の更新頻度は高くない。
【0091】
従って、仮に、3次元シーンデータ48を構成する仮想現実オブジェクト44vの位置及び向きを、映像生成装置1がAIS情報を取得したタイミングのみで更 新することとする場合、合成映像において他船を示す図形44fの動きが不連続で粗くなり、違和感が生じるおそれがある。
【0092】
この点、本実施形態の映像生成装置1は、物標位置推測部35、物標向き推測部36及び映像更新部37を備える。物標位置推測部35及び物標向き推測部36 は、前記他船44に関して、直近に得られた付加表示情報(AIS情報)に基づいて、当該付加表示情報の取得時よりも新しいタイミングでの他船44の位置及 び向きを推測する。そして、映像更新部37は、合成映像生成部20に、仮想現実オブジェクト44vの位置及び向きについて、上記の推測による結果を反映さ せるように合成映像を更新させる。
【0093】
以下、
図9を参照して具体的に説明する。
図9は、AIS情報に基づく他船44の付加表示情報に関し、3次元仮想空間40に船舶の仮想現実オブジェクト44vが配置される位置及び向きが更新される様子を示す概念図である。
【0094】
図9には、3次元シーン生成部22が3次元シーンを構築する3次元仮想空間40が示されている。ある時刻(このときの時刻をt=0とする)に、AIS受信 機9が他船44からAIS情報を受信し、これに基づいて、映像生成装置1の付加表示情報取得部17が、当該他船44の位置、速度、船首方位及び回頭角速度 を取得したとする。3次元シーン生成部22は、この結果に基づいて、得られた位置及び船首方位に対応する位置及び向きで、仮想現実オブジェクト44vを配 置する。
【0095】
その後も、映像生成装置1は、付加表示情報取得部17が新しいAIS情報を取得するのを待機する。しかしなが ら、AIS情報の受信が一定時間(例えば、3秒間)受信されなかった場合には、物標位置推測部35及び物標向き推測部36が、その時点での他船44の位置 及び船首方位を推測し、映像更新部37が、その推測結果に基づいて合成映像生成部20に合成映像を更新させる。即ち、映像更新部37は、3次元シーン生成 部22に、他船44の位置及び船首方位に関する上記の推測結果に基づいて仮想現実オブジェクト44vを再配置する形で3次元シーンを更新させるとともに、 データ合成部23に、新しい3次元シーンを撮影映像に合成させる。この推測は、t=0のときに得られた他船44の位置、船首方位を基準とし、同じく得られ た速度と回頭角速度を用いて、公知の式で計算することで得ることができる。これにより、t=3のタイミングにおいても、仮想現実オブジェクト44vの位置 及び向きを更新することができる。
【0096】
図9の例では、物標位置推測部35及び物標向き推測部36による位置及び向きの推測は、3秒が経過する毎に行われる。これにより、t=6及びt=9のタイミングにおいても、仮想現実オブジェクト44vの位置及び向きが、推測に基づいて更新される。
【0097】
前回のAIS情報の受信から10秒が経過したt=10のタイミングで、AIS受信機9が当該他船44から新しいAIS情報を受信したとする。この場合、3 次元シーン生成部22は直ちに、得られた位置及び船首方位となるように、仮想現実オブジェクト44vの位置及び向きを更新する。
【0098】
その後も、物標位置推測部35及び物標向き推測部36による位置及び向きの推測は、3秒が経過する毎に行われる。従って、t=13のタイミングでは、仮想現実オブジェクト44vの位置及び向きが、推測に基づいて更新される。
【0099】
このように構成することで、他船44の位置を示す付加表示情報の取得時間間隔が長い場合でも、当該他船44の位置及び船首方位を推測して仮想現実オブジェ クト44vの位置及び向きを更新することで、合成映像における図形44fの表示を、比較的短い時間間隔で更新することができる。これにより、合成映像にお ける拡張現実的な表現を、滑らかな動きで実現することができる。
【0100】
図9の例では、3秒毎に他船44の位置及び船首方位を推 測して仮想現実オブジェクト44vの位置及び向きを更新しているが、推測による位置等の更新の間隔は、3秒に限らず、1秒、2秒、2.5秒、5秒等、任意 に定めることができる。また、位置等の更新を行う時間間隔は、上記のように等しい時間間隔で行うことに代えて、不等な時間間隔で行われてもよい。
【0101】
なお、このような位置及び向きの推測により仮想現実オブジェクト44vの位置及び向きを更新する処理は、AIS情報に基づく他船44だけではなく、例えば レーダ装置12が探知した他船(TT物標としての他船)に対しても効果的である。即ち、レーダ装置12におけるレーダ映像は、レーダアンテナが1回転する まで更新されないため、TT情報の更新頻度は必ずしも高くない。従って、上記のように位置及び向きを推測して仮想現実オブジェクトの位置及び向きを細かく 更新することで、合成映像での動きの粗さを軽減し、現実感を良好に高めることができる。
【0102】
以上に説明したように、本実施形 態の映像生成装置1は、撮影映像入力部21と、位置取得部15と、姿勢取得部16と、付加表示情報取得部17と、合成映像生成部20と、物標位置推測部 35と、映像更新部37と、を備える。撮影映像入力部21は、船舶(自船)4に設置されるカメラ3が撮影した撮影映像を入力する。位置取得部15は、自船 4の位置を示す位置情報を取得する。姿勢取得部16は、自船4の姿勢を示す姿勢情報を取得する。付加表示情報取得部17は、物標である他船44の位置を示 す情報を含む付加表示情報を取得する。合成映像生成部20は、前記位置情報、前記姿勢情報及び前記付加表示情報に基づいて、付加表示情報を示す3次元の仮 想現実オブジェクト44vを描画した図形44fをカメラ3の撮影映像に合成した合成映像を生成する。物標位置推測部35は、物標である他船44に関して、 前記付加表示情報が直近に取得されたタイミングより新しいタイミングでの当該他船44の位置を、前記付加表示情報に含まれる他船44の速度に基づいて推測 する。映像更新部37は、物標位置推測部35による推測の結果に基づいて、合成映像生成部20に、合成映像における当該他船44の仮想現実オブジェクト 44vの描画(即ち、図形44f)を更新させる。
【0103】
これにより、物標(本実施形態では、他船44)の位置を示す付加表示情 報の取得時間間隔が長い場合でも、他船44の位置を適宜のタイミングで推測することで、仮想現実オブジェクト44vを描画した図形44fを更新することが できる。よって、滑らかな動きの仮想現実的映像を実現することが可能となる。
【0104】
また、本実施形態の映像生成装置1は、物標 向き推測部36を備える。この物標向き推測部36は、他船44に関してAIS情報が取得されてから次のAIS情報が取得されるまでの間の当該他船44の船 首方位を、付加表示情報に含まれる他船44の回頭角速度に基づいて推測する。映像更新部37は、物標向き推測部36による推測の結果に基づいて、合成映像 生成部20に、合成映像における当該他船44の仮想現実オブジェクト44vの描画(即ち、図形44f)を更新させる。
【0105】
これにより、物標(本実施形態では、他船44)の向きを位置と同様に推測することで、仮想現実オブジェクト44vを描画した図形44fを更新することができる。従って、より自然な映像の動きを実現することができる。
【0106】
また、本実施形態の映像生成装置1においては、合成映像生成部20は、船舶の形状の仮想現実オブジェクト44vを描画した図形44fを、カメラ3の撮影画像に合成可能である。
【0107】
これにより、周囲の船舶の動静を、船舶の3次元コンピュータグラフィックスの滑らかな動きで表現することができる。
【0108】
また、本実施形態の映像生成装置1においては、前記付加表示情報には、AIS受信機9で受信されたAIS情報が含まれる。
【0109】
これにより、他船44が、情報の更新頻度が低くなることが多いAIS情報に基づくものであった場合でも、滑らかな動きの仮想現実的映像を実現することができる。
【0110】
また、本実施形態の映像生成装置1においては、前記付加表示情報には、レーダ装置12で取得されたレーダ映像の推移に基づいて取得された他船の位置及び速度の情報が含まれる。
【0111】
これにより、他船が、レーダアンテナが1回転するまで物標の位置等の情報を更新できないレーダ装置12からの情報に基づくものであった場合でも、滑らかな動きの仮想現実的表示を実現することができる。
【0112】
以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。
【0113】
3次元シーン生成部22が、移動する物標の位置及び向きのうち、位置だけについて推測を行う(向きの推測を行わない)ように構成してもよい。
【0114】
付加表示情報は上述のとおり様々であるので、付加表示情報に物標の速度の情報が含まれていない場合も考えられる。この場合、物標位置推測部35は、例えば 付加表示情報に含まれる物標の位置の推移から速度を推定し、これに基づいて物標の位置を推測することが考えられる。このように、物標位置推測部35は、付 加表示情報に含まれる物標の速度ではなく、付加表示情報から推定される物標の速度を用いて、物標の位置を推測してもよい。
【0115】
上記と同様に、付加表示情報に物標の向きの角速度の情報が含まれていない場合も考えられる。この場合、物標向き推測部36は、例えば付加表示情報に含まれ る物標の向きの推移から角速度を推定し、これに基づいて物標の向きを推測することが考えられる。このように、物標向き推測部36は、付加表示情報に含まれ る物標の向きの角速度ではなく、付加表示情報から推定される物標の向きの角速度を用いて、物標の向きを推測してもよい。
【0116】
データ合成部23において、3次元シーンデータ48と、映写スクリーン51と、を同時にレンダリングしないように構成してもよい。即ち、データ合成部23 が、3次元シーンデータ48だけのレンダリング結果である2次元の映像(図形41f,42f,・・・の映像)と、映写スクリーン51だけのレンダリング結 果である2次元の映像(撮影映像が映写スクリーン51に貼り付けられた映像)と、を別々に作成して、その後に2次元の映像同士を合成する構成としてもよ い。この場合、3次元シーンデータ48のレンダリング処理は自船4の移動等に応じて随時行う一方、映写スクリーン51のレンダリング処理はカメラ3による 映像のフレームレートに応じた短い時間間隔で行うようにすることができる。
【0117】
カメラ3において、上記のパン/チルト機能を省略し、撮影方向が例えば前方で固定されるように構成されてもよい。また、カメラ3が前方以外の方向(例えば、後方)を撮影するように配置されてもよい。
【0118】
カメラ3を、自船4の周囲を360度の全方位にわたって同時撮影が可能な構成としてもよい。
【0119】
ユーザが視点カメラ55の向きを変更する操作を行ったときに、それに追従するようにカメラ3のパン/チルト動作が自動的に行われてもよい。
【0120】
3次元シーン生成部22が3次元シーンデータ48を生成するにあたって、上記の実施形態では、
図4で説明したように、仮想現実オブジェクト 41v,42v,・・・が自船4の位置を原点とした船首基準で配置されている。しかしながら、仮想現実オブジェクト41v,42v,・・・を、船首基準で はなく、+z方向が常に真北となる真北基準で配置してもよい。この場合、回頭等によって自船4の船首方位が変化したときは、仮想現実オブジェクト 41v,42v,・・・を再配置する代わりに、3次元仮想空間40での自船4の向きをヨー方向に変化させることになる。そして、このときのカメラ3の位置 及び向きの変化を3次元仮想空間40においてシミュレートするとともに、これに連動して視点カメラ55の位置及び向きを変更してレンダリングを行うこと で、上述の船首基準の場合と全く同じレンダリング結果を得ることができる。
【0121】
また、3次元仮想空間40の座標系は、自船4 の位置を原点にすることに代えて、地球上に適宜定められた固定点を原点とし、例えば、+z方向が真北、+x方向が真東となるように定められてもよい。この 場合、地球に固定された座標系の3次元仮想空間40において、自船4が配置される位置及び向きが位置情報及び姿勢情報に基づいて変化し、これに伴うカメラ 3の位置及び向きの変化が3次元仮想空間40においてシミュレートされることになる。
【0122】
映像生成装置1において、自船4の揺れに伴う合成映像の揺れを軽減する処理が行われてもよい。例えば、3次元シーン生成部22において、自船4が揺れても視点カメラ55の位置及び向きの変動を抑制するようにすることが考えられる。
【0123】
付加表示情報に基づいて仮想現実オブジェクト44vが配置される場合と、物標位置推測部35及び物標向き推測部36が推測した結果に基づいて仮想現実オブ ジェクト44vが配置される場合とで、合成映像における図形44fの表示の態様を異ならせてもよい。例えば、図形44fの近くに、位置及び向きが推測に基 づくことを示すマークを表示することが考えられる。
【0124】
映像生成装置1に接続される船舶機器(付加表示情報の情報源)は、
図1で説明したものに限るものではなく、その他の船舶機器が含まれていてもよい。
【0125】
本発明は、海上を航行する船舶に限らず、例えば、海、湖、又は河川等を航行可能な任意の水上移動体に適用することができる。
【0126】
前述のように、撮影装置が撮影した映像に図形等を重ねて表示する際に、
図10と
図11のように、方位を示す目盛画像等のような付加情報91a、91bを同時に表示することで、限られた表示領域を有効に活用することができる。このとき、当該図形が付加情報によってできる限り隠れないように、自動的に、付加情報の位置が変更や移動をするような構成にしてもよい。また、船体の傾きに応じて、付加情報91a、91bが傾くような表示としてもよい。このような表示をすることで、船体が傾いている状況でも常に正確な付加情報を視認することができる。
【0127】
本発明の実施形態において行う処理を、
図12のフローチャートを参照して説明する。本実施形態では、水上移動体に設置される撮影装置が撮影した撮影映像を入力し(S101)、前記水上移動体の位置を示す位置情報を取得し(S102)、前記水上移動体の姿勢を示す姿勢情報を取得し(S103)、物標の位置を示す情報を含む付加表示情報を取得し(S104)、前記位置情報、前記姿勢情報及び前記付加表示情報に基づいて、前記付加表示情報を示す3次元の仮想現実オブジェクトを描画した図形を前記撮影映像に合成した合成映像を生成し(S105)、物標に関して、前記付加表示情報が直近に取得されたタイミングより新しいタイミングでの当該物標の位置を、前記付加表示情報に含まれる物標の速度又は前記付加表示情報から推定される物標の速度に基づいて推測し(S106)、前記推測された物標の速度に基づいて、前記合成映像における当該物標の仮想現実オブジェクトの描画を更新する(S107)ことで、前述の課題を解決する。