(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6456593
(24)【登録日】2018年12月28日
(45)【発行日】2019年1月23日
(54)【発明の名称】動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置
(51)【国際特許分類】
G06F 3/01 20060101AFI20190110BHJP
G06T 7/20 20170101ALI20190110BHJP
【FI】
G06F3/01 560
G06T7/20 300A
G06T7/20 300B
【請求項の数】19
【外国語出願】
【全頁数】19
(21)【出願番号】特願2014-44872(P2014-44872)
(22)【出願日】2014年3月7日
(65)【公開番号】特開2014-194765(P2014-194765A)
(43)【公開日】2014年10月9日
【審査請求日】2016年12月8日
(31)【優先権主張番号】13/843,092
(32)【優先日】2013年3月15日
(33)【優先権主張国】US
【前置審査】
(73)【特許権者】
【識別番号】500390995
【氏名又は名称】イマージョン コーポレーション
【氏名又は名称原語表記】IMMERSION CORPORATION
(74)【代理人】
【識別番号】100126572
【弁理士】
【氏名又は名称】村越 智史
(72)【発明者】
【氏名】サボウヌ,ジャマール
(72)【発明者】
【氏名】クルス−ヘルナンデス,ファン,マヌエル
【審査官】
円子 英紀
(56)【参考文献】
【文献】
国際公開第2011/007289(WO,A2)
【文献】
特開2003−099177(JP,A)
【文献】
特表2011−501575(JP,A)
【文献】
特表2013−500544(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06T 7/20
(57)【特許請求の範囲】
【請求項1】
コンピュータプログラムモジュールでプログラムされるプロセッサを備えるコンピュータ装置で実行される、動画画像処理に基づいて触覚フィードバックを提供するコンピュータ実行可能な方法であって、
一又は複数の画像フレームを含む一又は複数の動画を読み込む工程と、
当該一又は複数の画像フレームに画像処理を実行する工程と、
当該画像処理に基づいてイベントを検出する工程と、
検出されたイベントに基づいて、触覚出力を発生させるように構成された制御信号を提供する工程と、
前記一又は複数の画像フレームに関連付けられたセンサ情報を取得する工程と、
を備え、
前記制御信号は、さらに前記センサ情報に基づくものであり、
取得された前記センサ情報は、前記一又は複数の動画に出現するオブジェクトのモーションの一又は複数の第1センサ測定結果および前記一又は複数の動画をキャプチャするために用いられる画像キャプチャ装置のモーションの一又は複数の第2センサ測定結果を含む、
方法。
【請求項2】
前記イベントを検出する工程は、画像キャプチャ装置の動き、オブジェクトの外観、体の部分の外観、爆発、移動中のオブジェクト、特定の認識可能な画像の特徴、顔の表情、ジェスチャ、またはシーンのテーマを含む一又は複数の種類のイベントを検出する工程を含む、請求項1に記載のコンピュータ実行可能な方法。
【請求項3】
検出されたときに制御信号が提供される少なくとも1種類のイベントを指定する一又は複数のユーザ選択を受信する工程をさらに備え、
前記制御信号を提供することには、前記一又は複数のユーザ選択によって指定された前記少なくとも1種類のイベントが検出されたときに、前記制御信号を提供することが含まれる、
請求項2に記載のコンピュータ実行可能な方法。
【請求項4】
前記制御信号に基づいて触覚出力装置によって前記触覚フィードバックを生成する工程をさらに含む、請求項1に記載のコンピュータ実行可能な方法。
【請求項5】
前記一又は複数の動画が前記触覚フィードバックと協調して表示されるようにする工程をさらに備える、請求項4に記載のコンピュータ実行可能な方法。
【請求項6】
前記制御信号が前記一又は複数の動画に埋め込まれるように前記イベントをリアルタイムで検出する工程をさらに備える、請求項1に記載のコンピュータ実行可能な方法。
【請求項7】
前記一又は複数の動画に前記制御信号を埋め込む工程と、前記一又は複数の動画を遠隔の装置に送信する工程と、をさらに備え、
前記一又は複数の動画および前記触覚フィードバックは、前記遠隔の装置において提供される、
請求項1に記載のコンピュータ実行可能な方法。
【請求項8】
前記一又は複数の画像フレームは前記一又は複数の画像フレームにキャプチャされたオブジェクトを含み、前記センサ情報は、前記オブジェクトのモーションの一又は複数のセンサ測定結果に関連する、請求項1に記載のコンピュータ実行可能な方法。
【請求項9】
前記一又は複数の画像フレームに基づいて前記オブジェクトの前記モーションの第1推定値を生成し、前記一又は複数のセンサ情報の測定結果に基づいて前記オブジェクトの前記モーションの第2推定値を生成する工程であって、前記オブジェクトの前記モーションは、前記オブジェクトのスピード、加速度、および角速度の中から選択されたものである工程と、
前記第1推定値及び前記第2推定値に基づいて当該オブジェクトの前記モーションの融合された推定値を生成する工程と、をさらに備える、
請求項8に記載のコンピュータ実行可能な方法。
【請求項10】
取得された前記センサ情報は、前記一又は複数の画像をキャプチャするために用いられる画像キャプチャ装置のモーションの一又は複数のセンサ測定結果に関するものである、
請求項1に記載のコンピュータ実行可能な方法。
【請求項11】
前記一又は複数の画像フレームおよび前記一又は複数の第1センサ測定結果に基づいて前記画像キャプチャ装置の前記モーションの推定値を生成する工程と、
前記一又は複数の画像フレームおよび前記一又は複数の第2センサ測定結果に基づいて前記オブジェクトの前記モーションの推定値を生成する工程と、
前記画像キャプチャ装置の前記モーションの前記推定値および前記オブジェクトの前記モーションの前記推定値に基づいて、前記オブジェクトの前記モーションの前記推定値を更新する工程と、
をさらに備える、請求項1に記載のコンピュータ実行可能な方法。
【請求項12】
前記一又は複数の画像フレームに関連付けられたセンサ情報を取得する工程と、
前記センサ情報に基づいて第2の制御信号を提供する工程と、
をさらに備える、請求項1に記載のコンピュータ実行可能な方法。
【請求項13】
コンピュータプログラムモジュールでプログラムされるプロセッサを備えるコンピュータ装置で実行される、動画と関連付けられたセンサ情報に基づいて触覚フィードバックを提供するコンピュータ実行可能な方法であって、
前記一又は複数の動画に関連付けてキャプチャされたモーションの一又は複数の測定結果を含み、一又は複数の動画および当該一又は複数の動画に対応付けられたセンサ情報を読み取る工程と、
前記センサ情報に基づいて、触覚出力を発生させるように構成された制御信号を提供する工程と、
前記一又は複数の動画と関連付けてキャプチャされた前記モーションと同期させて前記制御信号を提供する工程と、
を備え、
前記モーションは、前記一又は複数の動画をキャプチャするために用いられる画像キャプチャ装置のモーションを含む方法。
【請求項14】
前記一又は複数の動画は、当該一又は複数の動画にキャプチャされたオブジェクトを含む一又は複数の画像フレームを有し、前記モーションは、前記オブジェクトのモーションを含む、請求項13に記載のコンピュータ実行可能な方法。
【請求項15】
前記一又は複数の画像フレームに基づいて前記オブジェクトの前記モーションの第1推定値を生成し、前記一又は複数のセンサ情報の測定結果に基づいて前記オブジェクトの前記モーションの第2推定値を生成する工程であって、前記オブジェクトの前記モーションは、前記オブジェクトのスピード、加速度、および角速度の中から選択されたものである工程と、
前記第1推定値及び前記第2推定値に基づいて当該オブジェクトの前記モーションの融合された推定値を生成する工程と、
をさらに備える、請求項14に記載のコンピュータ実行可能な方法。
【請求項16】
取得された前記センサ情報は、前記一又は複数の動画に出現するオブジェクトのモーションの一又は複数の第1センサ測定結果および前記一又は複数の動画をキャプチャするために用いられる画像キャプチャ装置のモーションの一又は複数の第2センサ測定結果を含む、請求項15に記載のコンピュータ実行可能な方法。
【請求項17】
前記一又は複数の動画は、当該一又は複数の動画にキャプチャされたオブジェクトを含む一又は複数の画像フレームを有し、
前記方法は、
前記一又は複数の画像フレームおよび前記一又は複数の第1センサ測定結果に基づいて前記画像キャプチャ装置の前記モーションの推定値を生成する工程と、
前記一又は複数の画像フレームおよび前記一又は複数の第2センサ測定結果に基づいて前記オブジェクトの前記モーションの推定値を生成する工程と、
前記画像キャプチャ装置の前記モーションの前記推定値および前記オブジェクトの前記モーションの前記推定値に基づいて、前記オブジェクトの前記モーションの前記推定値を更新する工程と、
をさらに備える、請求項16に記載のコンピュータ実行可能な方法。
【請求項18】
動画画像処理に基づいて触覚フィードバックを提供するシステムであって、当該システムはプロセッサを備え、当該プロセッサは、
一又は複数の画像フレームを含む一又は複数の動画を読み込み、
当該一又は複数の画像フレームに画像処理を実行し、
当該画像処理に基づいてイベントを検出し、
検出された前記イベントに基づいて触覚出力を発生させるように構成された制御信号を提供し、
前記一又は複数の画像フレームに関連付けられたセンサ情報を取得するように構成され、
前記制御信号は、さらに前記センサ情報に基づくものであり、
取得された前記センサ情報は、前記一又は複数の動画に出現するオブジェクトのモーションの一又は複数の第1センサ測定結果および前記一又は複数の動画をキャプチャするために用いられる画像キャプチャ装置のモーションの一又は複数の第2センサ測定結果を含む、
システム。
【請求項19】
動画画像処理に基づいて触覚フィードバックを提供するシステムであって、当該システムはプロセッサを備え、当該プロセッサは、
前記一又は複数の動画に関連付けてキャプチャされたモーションの一又は複数の測定結果を含み、一又は複数の動画および当該一又は複数の動画に対応付けられたセンサ情報を読み取り、
前記センサ情報に基づいて、触覚出力を発生させるように構成された制御信号を提供し、
前記一又は複数の動画と関連付けてキャプチャされた前記モーションと同期させて前記制御信号を提供する、
ように構成され、
前記モーションは、前記一又は複数の動画をキャプチャするために用いられる画像キャプチャ装置のモーションを含む、システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、動画コンテンツの分析、動画に現れる一又は複数のオブジェクトのモーションの一又は複数の測定結果を含む一又は複数のセンサからのセンサ情報、および/または一又は複数のイメージキャプチャデバイスによるモーションの一又は複数の測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するシステム及び方法に関する。
【背景技術】
【0002】
動画等の従来のマルチメディアコンテンツは触覚フィードバックによって改善可能である。しかしながら、このような改善を実現するためには、通常、触覚フィードバックを符号化した情報を動画に直接埋め込むことが必要となる。よって、この技術では、触覚フィードバックを符号化した情報で注釈が付けられていない既存の動画に対してリアルタイムの触覚フィードバックを提供することはできない。
【0003】
また、従来のメディア再生システムは、触覚フィードバックを生成するために、動画のシーンに登場するオブジェクトのモーションを示すセンサ情報を利用していない。さらに、動画情報に基づくオブジェクトの加速度の推定は、オブジェクトが高速で移動している場合にはブラーやアーチファクトのために不正確なものとなる一方、オブジェクトに取り付けたセンサからの情報を用る場合には低速の場合に不正確となる。
【発明の概要】
【0004】
本発明は、動画コンテンツの分析、動画に現れる人物等の一又は複数のオブジェクトのモーションの一又は複数の測定結果を含む一又は複数のセンサからのセンサ情報、および/または一又は複数のイメージキャプチャデバイスによるモーションの一又は複数の測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するシステム及び方法に関する。一般に、当該システムは、一又は複数のプロセッサを有するコンピュータ装置を備える。当該一又は複数のプロセッサは、動画コンテンツ分析を行い、および/または、当該センサ情報を用いて生成されるべき触覚フィードバックを発生させることによりユーザ体験を向上させることができる。
【0005】
当該触覚フィードバックは、前記画像処理に基づいて定められる、当該動画のシーンのオブジェクトの推定加速度に基づいて変化する。当該推定加速度は、高速ではセンサ情報を用いることにより高精度となり、当該センサ情報に基づく推定加速度は低速では上記の画像処理に基づいて高精度にすることができる。
【0006】
一部の実施態様において、当該動画コンテンツ分析は、当該動画の一又は複数のフレームの画像処理を行うことを含む。当該コンピュータ装置は、当該画像処理に基づいて一又は複数のイベントを特定し、当該一又は複数のイベントに基づいて触覚フィードバックを発生させることができる。このイベントは、例えば、画像キャプチャ装置の動き、オブジェクトの外観、体の部分の外観、爆発、移動中のオブジェクト、特定の認識可能な画像の特徴、顔の表情、ジェスチャ、シーンのテーマ、および/または当該画像処理により特定可能な前記以外のイベントを含む。
【0007】
このコンピュータ装置は、触覚フィードバックを発生させる制御信号を生成し、当該制御信号を、当該触覚フィードバックを出力する一又は複数の触覚出力装置に送信することができる。この触覚出力装置は、当該コンピュータ装置の具体的な用途や実装に応じて様々な方法で構成される。例えば、触覚出力装置は、コンピュータ装置(例えば、共通のハウジングに収容される)、ユーザインタフェース装置、ウェアラブルデバイス、椅子(例えば、当該コンピュータ装置が映画への画像処理を実行し映画視聴中に没入的な触覚フィードバックを提供することができる映画館内にあるもの)、および/または具体的な実装に応じた前記以外の構成と一体に構成されてもよい。
【0008】
当該触覚フィードバックは画像処理に基づいて生成されるので、当該コンピュータ装置は、触覚フィードバックをマルチメディアファイルまたはマルチメディアストリームに符号化した情報の埋め込みや設定を行うことなく、リアルタイムの触覚フィードバックを促進することができる。このように、当該コンピュータ装置は、動画が触覚フィードバックを発生させる情報と対応付けて提供されておらず、または、触覚フィードバックを発生させる情報に組み込まれていなくても、当該動画(および/または画像処理が実行される動画以外のマルチメディアコンテンツ)を触覚フィードバックを用いて改善することができる。
【0009】
一部の実装携帯において、当該コンピュータ装置は、動画等のマルチメディアコンテンツに関連するモーションの一又は複数の測定結果を含むセンサ情報を用い、触覚フィードバックを発生させる制御信号を生成することができる。例えば、動画をキャプチャする時点で、一又は複数のセンサは、当該センサが当該画像キャプチャ装置および/またはオブジェクトのモーションを測定するように、画像キャプチャ装置(例えばビデオカメラ)および/またはトラック対象のオブジェクト(例えば当該動画に出現するオブジェクト)に接続することができ、その測定結果を含む情報を出力することができる。これにより、触覚フィードバックを提供するために用いられるセンサ情報を提供するために、当該オブジェクトおよび/または画像キャプチャ装置のモーションが測定される。キャプチャされた動画および/またはセンサ情報は、リアルタイミングでストリーミングされ、および/または、再生用にコンピュータ装置に提供するために記憶される。
【0010】
コンピュータ装置はセイン差情報を取得し、当該センサ情報に応答して制御信号を生成することができる。たとえば、当該センサ情報は、動画の特定のシーンにおいて画像キャプチャ装置が移動していることを示すことができる。当該コンピュータ装置は、特定のシーンをキャプチャしている間に、画像キャプチャ装置のモーションに応答して、センサ情報に基づいて定められる制御信号を生成することができる。同様に、センサ情報は動画のシーンに登場するオブジェクトが移動していることを示すことができる。当該コンピュータ装置は、特定のシーンをキャプチャしている間に、オブジェクトのモーションに応答して、センサ情報に基づいて定められる制御信号を生成することができる。一部の実装態様において、コンピュータ装置は、画像キャプチャ装置およびトラック対象のオブジェクトのモーションに基づいて、触覚フィードバックを発生させる制御信号を生成することができる。
【0011】
一部の実装態様において、コンピュータ装置は、画像処理に基づいてオブジェクトのスピード、加速度、および/または角速度の第1推定値を生成し、センサ情報に基づいて当該オブジェクトのスピード、加速度、および/または角速度の第2推定値を生成する。コンピュータ装置は、当該第1推定値および第2推定値に基づいて、当該オブジェクトのスピード、加速度、および/または角速度の融合された推定値を生成することができる。融合された推定値を用いることにより、コンピュータ装置は制御信号を生成することができる。一部の実装態様において、コンピュータ装置は、当該第1推定値(画像処理に基づくもの)のみを用いて制御信号を生成することができる。
【0012】
制御信号を生成するために動画に関連するモーション情報の使用に関する上述した実装態様のいずれを用いた場合であっても、コンピュータ装置は、シーンに登場するオブジェクトおよび/またはシーンをキャプチャする画像キャプチャ装置が動いているときに触覚フィードバックを発生させることにより、動画体験を向上させることができる。例えば、コンピュータ装置は、オブジェクトがシーンの間に加速していると決定した場合には、強度(intensity)を増加させる触覚フィードバックを発生させる制御信号を提供することができる。
【0013】
一部の実装態様において、コンピュータ装置は、動画の画像処理のみを用いて触覚フィードバックを発生させる制御信号を生成することができる。他の実装態様において、コンピュータ装置は、センサ情報のみを用いて触覚フィードバックを発生させる制御信号を生成することができる。さらに他の実装態様において、コンピュータ装置は、動画の画像処理をセンサ情報と組み合わせて触覚フィードバックを発生させる制御信号を生成することができる。
【0014】
本技術の上記及び上記以外の特徴、及び性質、並びに、関連する構成要素の動作方法及び機能、そして製造における各部分の組み合わせと経済性については、添付図面を参照しつつ以下の詳細な説明と添付の特許請求の範囲を検討することによってさらに明らかになる。これらはいずれも本明細書の一部を構成する。本明細書において、同様の参照符号は種々の図における対応部分を表している。添付図面は例示及び説明のためのものであり、本発明の発明特定事項の定義として用いることは意図されていない。本明細書及び特許請求の範囲における用法によれば、単数形の“a”,“an”及び“the
”には複数のものへの言及が含まれる。ただし、文脈によって別に解すべきことが明白
な場合はこの限りでない。
【図面の簡単な説明】
【0015】
【
図1】本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するように構成されたシステムを示す。
【0016】
【
図2A】本発明の一態様に従って、静止している画像キャプチャ装置によって撮影(film)されているオブジェクトにIMUセンサが結合されており、触覚フィードバックを生成するために当該オブジェクトのモーションがIMUセンサによって測定されているシナリオの例を示す。
【0017】
【
図2B】本発明の一態様に従って、オブジェクトおよび画像キャプチャ装置にIMUセンサが結合されており、触覚フィードバックを生成するために当該オブジェクトのモーションがIMUセンサによって測定されているシナリオの例を示す。
【0018】
【
図2C】本発明の一態様に従って、移動している画像キャプチャ装置によって撮影(film)されているオブジェクトにIMUセンサが結合されており、触覚フィードバックを生成するために当該オブジェクトのモーションがIMUセンサによって測定されているシナリオの例を示す。
【0019】
【
図3】本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するように構成されたコンピュータ装置の実装態様の例を示す。
【0020】
【
図4】本発明の一態様に従って、様々なユーザ接触点に組み込まれる触覚出力装置の実装態様の例を示す。
【0021】
【
図5】本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するプロセスの例を示す。
【0022】
【
図6】本発明の一態様に従って、動画に現れるオブジェクトのモーションの一又は複数のモーションの測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するプロセスの一例を示す。
【発明を実施するための形態】
【0023】
本開示は、動画コンテンツの分析、および/または、動画に現れる一又は複数のオブジェクトのモーションの一又は複数の測定結果を含むセンサからのセンサ情報、および/または一又は複数のイメージキャプチャデバイスによるモーションの一又は複数の測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するシステム及び方法に関する。
【0024】
図1は、本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するように構成されたシステム100を示す。システム100は、慣性測定ユニット(「IMU」)センサ110、画像キャプチャ装置120、コンピュータ装置130、コンピュータ装置140、動画出力装置141、触覚出力装置143、オーディオ出力装置145、および/または前記以外の構成要素を備える。
図1には、上記の構成要素が一つだけ示されているが、2以上の構成要素を用いることが可能である。例えば、一又は複数のIMUセンサ110を用いることができる。IMUセンサ110は、異なる周波数および/または測定範囲で個別に動作することができる。一部の実施態様において、異なるIMUセンサ110を異なるオブジェクトおよび/または所定のシーンに関連する異なる画像キャプチャ装置120に取り付けることができる。
【0025】
一部の実施態様において、IMUセンサ110は、3次元(「3D」)ジャイロスコープ111、3D加速度計113、3D磁力計115、および/または前記以外のセンサ装置117を備えることができる。3Dジャイロスコープ111、3D加速度計113、3D磁力計115、および/または前記以外のセンサ装置117を用いることにより、IMUセンサ110は、IMUセンサ110のモーションの一又は複数の測定結果を含むセンサ情報112を生成することができる。例えば、IMUセンサ110がオブジェクトに取り付けられたとき、3Dジャイロスコープ111、3D加速度計113、3D磁力計115、および/または前記以外のセンサ装置117は、当該オブジェクトのモーションを測定し、センサ情報112を生成してコンピュータ装置130へ送信することができる。一部の実施態様において、画像キャプチャ装置120は、ビデオカメラおよび/またはそれ以外の画像装置または画像キャプチャ装置を備える。画像キャプチャ装置120は、一又は複数の画像をキャプチャし、動画122を生成してコンピュータ装置130に送信することができる。一部の実施態様においては、2以上の画像キャプチャ装置120によって、所定のシーンにおける同一のまたは異なるオブジェクトを、異なるアングルおよび/またはビューから撮像することができる。一部の実施態様において、IMUセンサ110は、画像キャプチャ装置120のモーションが取得され、センサ情報112においてレポートされるように、画像キャプチャ装置120に取り付けられる。一部の実施態様においては、第1のIMUセンサ110を画像キャプチャ装置120に取付、第2のIMUセンサ110をオブジェクトに取り付けてもよい。さらに別のIMUセンサ110は、さらに別のオブジェクトおよび/または別の画像キャプチャ装置120等に取り付けられてもよい。
【0026】
一部の実施態様において、コンピュータ装置130は、センサ情報112および/または動画112をデータベースに格納し、後でコンピュータ装置140に提供できるようにしてもよい。コンピュータ装置130は、センサ情報112および/または動画122をコンピュータ装置140に提供することができる。センサ情報112および動画122が提供されると、センサ情報112は、データを受け入れるための従来の動画フォーマットを用いて動画112に埋め込まれる。または、コンピュータ装置130は、センサ情報112と動画122を個別に提供することもできる。一部の実施態様において、センサ情報112および/または動画122は、一又は複数の読み取り可能な媒体132の形態でコンピュータ装置140に提供される。この媒体は、コンピュータ装置130および/またはそれ以外の装置により生成できる。
【0027】
一部の実施態様において、コンピュータ装置140は、一又は複数のコンピュータプログラムモジュールでプログラムされる一又は複数のプロセッサ142を備える。当該モジュールは、一又は複数の不揮発性ストレージメディア144に格納されてもよい。コンピュータ装置140は、動画122への画像処理を行い、並びに/または、センサ情報112を組み込んで動画122への画像処理および/もしくはセンサ情報112の使用に基づいて触覚フィードバックを発生させる一又は複数の制御信号を生成できるように、当該モジュールによってプログラムされ得る。
【0028】
このモジュールには、画像処理モジュール150、センサ処理モジュール152、画像ベースモーション推定モジュール154、センサベースモーション推定モジュール156、データ融合モジュール158、設定管理モジュール160、制御信号生成モジュール162、コーディネーションモジュール164、および/または前記以外のモジュールが含まれる。
【0029】
一部の実施態様において、画像処理モジュール150は、動画122に対する動画コンテンツ分析を実行するように構成される。動画122がコンピュータ装置130からストリーミングされるか、ダウンロードされ再生用にローカルに保存されるか、メディア132から読み出されるか、および/または、他の方法により取得されるかによらず、画像処理モジュール150は、動画122をメモリバッファし、関連する一又は複数のイベントを検出するために、当該動画の一又は複数の画像を処理する。異なる種類の関連するイベントを様々な方法で検出することができる。
【0030】
一実施態様において、画像処理モジュール150は、一の画像フレームに関して他の画像フレームに対する当該物体のオプティカル・フローを決定することにより、所定のシーンにおいて静的なオブジェクトに対するモーションを検出することができる。このような処理は、動画122を生成するために用いられる画像キャプチャ装置が動いていたことを示す。画像処理モジュール150は、画像処理に基づいてモーションの速度を決定することができ、速度が決定されると、触覚フィードバックを発生させる制御信号の生成が開始される。画像処理モジュール150は、当業者に容易に理解できる、従来のオプティカル・フロー演算を実行することができる。
【0031】
一部の実施態様において、画像ベースモーション推定モジュール154は、動画122を用いた画像処理に基づいて、シーンに現れるオブジェクトのモーションのスピード(speed)、加速度、および/または速度(velocity)を決定することができる。2以上の動画122を用いた実装においては、並列動画フィードを用いて、シーンの立体視やそれ以外の2以上の異なるパースペクティブを得ることができる。これによって、より少ない数の動画フィードを用いる場合と比べてモーション推定の精度を高めることができる。このような物体のモーションのスピード、加速度、および/または速度は、制御信号の生成を開始させる検出イベントに含まれる。
【0032】
一部の実施態様において、画像処理モジュール150は、体のパーツ(例えば、顔、手など)のデータベースとの比較に基づいて、新しい体のパーツが所定のシーンにエントリーしたことを検出することができる。新しい体のパーツのエントリーは、当該シーンに新しいキャラクタが入ってきたことを示すことができ、これにより、触覚フィードバックを生成する制御信号の生成を開始することができる。
【0033】
一部の実施態様において、画像処理モジュール150は、所定のシーンと次のシーンとでの、色の分布や構成の変化を検出することができる(一又は複数の画像フレームに反映される)。例えば、画像処理モジュール150は、異なるフレーム例えば連続する複数のフレームについてHSV(Hue Saturation Value)カラー・ヒストグラムを決定し、そのHSVカラー・ヒストグラムがあるフレームと別のフレームとで変化しているか決定することができる。HSVカラー・ヒストグラムが変化している場合には、画像処理モジュール150は、新しいオブジェクトまたはそれ以外の変化が当該シーンにおいて発生したと決定することができる。
【0034】
一部の実装態様において、画像処理モジュール150は、明から暗へおよびその逆の変化を検出することができ、これにより、シーンの環境の変化を示すことができる場合がある。この検出により、触覚フィードバックを発生させる制御信号の生成を開始することができる。一部の実装態様において、シーンの環境の変化は、当該環境の変化に基づいて調整される触覚フィードバックを発生させることができる。
【0035】
一部の実装態様において、画像処理モジュール150は、従来の画像処理技術やムード検出技術に基づいて、所定のシーンにおいてアクターのムードや感情を検出することができる。これにより、触覚フィードバックを発生させる制御信号の生成を開始することができる。
【0036】
一部の実装態様において、画像処理モジュール150は、発砲、爆発、および/または画像に於いて特定のパターンの色を発生させる前記以外の出来事を検出することができる。これにより、触覚フィードバックを発生させる制御信号の生成を開始することができる。一部の実装態様において、画像処理モジュール150は、スクリーンにおける特定の人物やオブジェクトを検出することができる。例えば、ユーザは、特定のオブジェクトや人物が所定のシーンに入ってきたときに触覚フィードバックが提供されることを指定することができる。
【0037】
画像処理モジュール150は、画像フレームを処理する際に、上述のイベント検出および/または上記以外のイベント検出の全部または一部を実行することができる。制御信号生成モジュール162は、検出されたイベントに応答して、触覚フィードバックを生成するための一又は複数の制御信号を生成することができる。複数の制御信号によって、検出されたイベントに応じて異なる触覚効果を生成することができる(例えば、より速く動く画像キャプチャ装置やオブジェクトによって、より遅く動く画像キャプチャ装置やオブジェクトよりも大きな振幅またはそれ以外の特性を有する触覚フィードバックを発生させることができる)。また、画像処理モジュール150は、異なる種類の検出イベントおよび/または検出イベントの異なる組み合わせのために異なる制御信号(異なる触覚フィードバックを発生させる)を生成することができる。
【0038】
一部の実施態様において、センサ処理モジュール152は、センサ情報112に基づいてセンサベースイベントを検出するように構成される。例えば、センサベースイベントは、オブジェクト、人物、画像キャプチャ装置120、および/または動画122に関連する前記以外のモーションの特定のモーションを含む。一部の実施態様において、センサベースモーション推定モジュール156は、センサ情報112の処理に基づいて、スピード、加速度、速度、および/または前記以外のモーションの特性を検出するように構成される。センサベースイベントによって、触覚フィードバックを提供するための制御信号が生成される。前記触覚効果は、当該センサベースイベントに基づいて変化してもよい。具体例として、オブジェクトのモーションが検出されると、触覚フィードバックを発生させるための制御信号が生成される。かかる触覚フィードバックは、検出されたモーションのレベルに基づいて変化してもよい。
【0039】
一部の実施態様において、単一の装置がセンサ情報および動画の生成のために用いられたか否かに基づいて、センサ処理モジュール152は、センサ情報112を動画122と同期させることができる(例えば、センサおよび画像キャプチャ装置を両方とも備えるモバイル装置等の装置を用いることにより動画のキャプチャとセンサ情報の収集が両方とも行われる)。動画およびセンサ情報をキャプチャするために単一の装置が用いられた場合には、その動画とセンサ情報は、典型的には、当該単一の装置によって同期される。他方、当該単一の装置がセンサ情報と動画とを同期させない場合には、センサ処理モジュール152が一般的な時刻基準として用いられるタイムスタンプ(例えば、GPS時刻)および/または本明細書で説明されるイベント検出に基づいて当該2つの情報を同期させることができる。
【0040】
一部の実施態様において、データ融合モジュール158は、物体の加速度の推定を向上させるために、画像処理モジュール150、センサ処理モジュール152、画像ベースモーション推定モジュール154、および/またはセンサベースモーション推定モジュール156からの情報を組み合わせるように構成され、これにより、当該加速度の推定値に応じて提供される触覚フィードバックのクオリティを改善することができる。この点は、
図2A〜
図2Cを参照してさらに説明される。
【0041】
一部の実装態様において、設定管理モジュール160は、特定のイベントの検出に応答して提供されるべき触覚フィードバックまたはそのレベルを示すユーザ選択またはそれ以外の入力を取得するように構成される。例えば、ユーザは、触覚効果を発生させるイベント(もしあれば)および/または触覚効果のレベルを特定または指定することができる。これにより、ユーザは、動画視聴と触覚フィードバックの生成をカスタマイズすることができる。
【0042】
一部の実施態様において、制御信号生成モジュール162は、触覚フィードバックを発生させる一又は複数の制御信号を生成するように構成される。制御信号生成モジュール162は、画像処理モジュール150、センサ処理モジュール152、画像ベースモーション推定モジュール154、センサベースモーション推定モジュール156、データ融合モジュール158、および/または設定管理モジュール160によって検出されまたはこれらから出力される上記のイベントに応答して制御信号を生成することができる。一部の実装態様において、制御信号生成モジュール162は、制御信号に応答して触覚フィードバックを生成する一又は複数の触覚出力装置143の特定の設定(例えば、数、種類、場所等)に基づいて制御信号を生成することができる。これにより、コンピュータ装置140は、異なる種類のイベント、イベントの特性(例えば、所定のシーンに登場するオブジェクトの推定スピード)、および/またはユーザ選択/設定に基づいて、様々な種類の触覚フィードバックを促進することができる。
【0043】
一部の実施態様において、コーディネーションモジュール164は、動画出力、制御信号出力、およびオーディオ出力を動画出力装置141は、タッチスクリーンディスプレイ、モニター、および/または動画出力を表示可能な前記以外のディスプレイを含む。一部の実装態様において、コーディネーションモジュール164は、動画122に埋め込まれた同期コードおよび/または動画出力、オーディオ出力、および触覚フィードバックの各々の出力時刻を設定するタイムスタンプに基づいて、動画出力、制御信号(例えば、当該制御信号によって発生する触覚フィードバック)、およびオーディオ出力を同期させる。
【0044】
触覚出力装置143が含み得るアクチュエータは、例えば、偏心質量体がモータにより動かされる偏心回転質量体(「ERM」)などの電磁アクチュエータ、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエータ(「LRA」)、または圧電材料、電気活性ポリマー、もしくは形状記憶合金などの「スマートマテリアル」、マクロ複合繊維アクチュエータ、静電気アクチュエータ、電気触感アクチュエータ、および/または触覚(例えば、振動触知)フィードバックなどの物理的フィードバックを提供する他の種類のアクチュエータ、である。触覚出力装置143は、非機械的または非振動装置、例えば、静電摩擦(「ESF」)や超音波表面摩擦(「USF」)を用いる装置、超音波触覚トランスデューサを用いて音響放射圧力を生じさせる装置、触覚基板および可撓性もしくは変形可能な表面を用いる装置、またはエアジェットを用いた空気の吹きかけなどの発射型の触覚出力を提供する装置などを含んでもよい。
【0045】
オーディオ出力装置145には、スピーカまたはオーディオを発生可能なそれ以外の装置が含まれる。一部の実装態様において、動画出力装置141、触覚出力装置143、および/またはオーディオ出力装置145は、コンピュータ装置140と一体に構成されてもよい。一部の実装態様において、動画出力装置141、触覚出力装置143、および/またはオーディオ出力装置145は、コンピュータ装置140とは別体に収容されてもよい。
【0046】
一部の実装態様において、コンピュータ装置130は、コンピュータ相イット140に関連して説明したモジュールでプログラムされてもよい。このように、コンピュータ装置140に関連して説明された昨日の一部または全部はコンピュータ装置130において実行されてもよい。例えば、コンピュータ装置130は、自らが生成しする画像および/またはそれ以外の方法で提供する動画への画像処理を、提供される動画が当該動画と同期された制御信号で改善されるように実行することができる。これにより、動画および制御信号を使用するユーザ装置は、当該動画を再生し、また、同期された触覚フィードバックを生成することができる。
【0047】
不揮発性ストレージメディア144の電子ストレージメディアには、コンピュータ装置140と一体に(すなわち、実質的に着脱不能に)設けられたシステムストレージ、及び、例えばポート(例えばUSBポート、ファイヤーワイヤーポート等)やドライブ(例えばディスクドライブ等)を介してコンピュータ装置140と着脱可能に接続されたリムーバブルストレージの少なくとも一方が含まれる。不揮発性ストレージメディア144には、光学的に読み取り可能な記憶メディア(例えば光学ディスク等)、磁気的に読み取り可能な記憶メディア(例えば磁気テープ、磁気ハードドライブ、フロッピードライブ等)、電荷型ストレージメディア(例えばEEPROM、RAM等)、ソリッドステート・ストレージメディア(例えばフラッシュドライブ等)、及び/又は前記以外の電子的に読み取り可能なストレージメディアが含まれる。不揮発性ストレージメディア144には、一又は複数の仮想ストレージリソース(例えば、クラウドストレージ、仮想プライベートネットワーク、及び/又はこれら以外の仮想ストレージリソース)が含まれる。不揮発性ストレージメディア144は、ソフトウェアアルゴリズム、単数又は複数のプロセッサ142によって決定された情報、コンピュータ装置140から受信した情報、及び/又はコンピュータ装置140が本明細書で説明したように機能できるようにする前記以外の情報を記憶することができる。
【0048】
単数又は複数のプロセッサ142は、コンピュータ装置140における情報処理能力を提供するように構成される。したがって、単数又は複数のプロセッサ142は、デジタルプロセッサ、アナログプロセッサ、情報処理用のデジタル回路、情報処理用のアナログ回路、ステートマシン、及び/又は電子的に情報を処理する前記以外のメカニズムの一又は複数を備えることができる。
図1においては、単数又は複数のプロセッサ142は単一の要素として示されているが、これは説明の便宜上に過ぎない。一部の実装態様においては、プロセッサ142は複数のプロセッシングユニットを備えることができる。これらのプロセッシングユニットは物理的に同じ装置に配置されてもよいし、単数又は複数のプロセッサ142は、連携して動作する複数の装置の処理機能を表すことができる。単数又は複数のプロセッサ142は、モジュールを実行する際に、ソフトウェア、ハードウェア、ファームウェア、何らかの方法で組み合わされたソフトウェア、ハードウェア、及び/またはファームウェア、及び/または単数又は複数のプロセッサ142の処理能力を構成する他の機構を用いてもよい。
【0049】
本明細書で説明されるモジュールは例示に過ぎない。説明した以外の構成や数のモジュールを用いることもできるし、一又は複数の物理的なプロセッサが本明細書の機能を実現するためにプログラムされる限りにおいては、モジュール化しないアプローチを取ることもできる。
図1においてモジュール150、152、154、156、158、160、162、及び164は単一の処理装置内の同じ位置に配置されるものとして示されるが、プロセッサ142が複数の処理装置を含む実施形態においては、一又は複数のモジュールを他のモジュールとは分離して配置してもよい。以下の異なるモジュールによって提供される機能の記述は説明のためのものであり、限定を意図したものではない。モジュールはいずれも記述されるよりも多くの、または少ない機能を提供してもよい。例えば、当該モジュールのうちの一または複数を取り除き、その機能の一部またはすべてを、当該モジュールのうちの他のモジュールで提供してもよい。他の例として、以下でモジュールのうちの1つに帰せられる機能の一部またはすべてを実行する1または複数の追加的なモジュールを実行するように、プロセッサ142が構成されてもよい。
【0050】
図1に示される構成要素は、ネットワーク等の様々な通信リンクを介して互いに通信可能に結合される。当該ネットワークには、有線接続又は無線接続が含まれる。本発明の一部の態様において、当該ネットワークは、例えば、インターネット、イントラネット、PAN(Personal Area Network)、LAN(Local Area Network)、WAN(Wide Area Network)、SAN(Storage Area Network)、MAN(Metropolitan Area Network)、無線ネットワーク、セルラー通信ネットワーク、公衆交換電話網、および/またはこれら以外のネットワークの一又は複数である。
【0051】
様々な入力、出力、設定、および/または本明細書で記憶され(stored)又は記憶可能(storable)として説明される前記以外の情報は、一又は複数のデータベース(
図1には示されていない)に記憶することができる。かかるデータベースは、例えば、オラクルコーポレーションによって市販されているオラクル(商標)リレーショナル・データベースであり、当該リレーショナル・データベースを含み、または当該リレーショナル・データベースと接続することができる。これ以外のデータベース、たとえば、Informix(商標)、DB2(Database 2)、又はこれら以外のデータストレージを使用し、組み込み、又はこれらにアクセスすることができる。このデータストレージには、ファイルベースのもの、クエリフォーマット、またはOLAP(On Line Analytical Processing)、SQL(On Line Analytical Processing)、SAN(Storage Area Network)、Microsoft Access(商標)又は前記以外のリソースが含まれる。このデータベースは、一又は複数の物理的な装置および一又は複数の物理的な場所に配置されるようなデータベースを含む。このデータベースは、複数の種類のデータおよび/もしくはファイル、並びに/または、関連するデータ記述もしくはファイル記述、管理情報、または前記以外の任意の情報を記憶することができる。
【0052】
図2Aは、本発明の一態様に従って、静止している画像キャプチャ装置120によって撮影(film)されているオブジェクト202AにIMUセンサ110が結合されており、オブジェクト201の加速度の推定を改善するために当該オブジェクト202AのモーションがIMUセンサ110によって測定されているシナリオ200Aの例を示す。
【0053】
画像キャプチャ装置は情報を組み立て、対象となるオブジェクト202Aについての基本的な情報が、従来のコンピュータ・ビジョン・アプローチを用いて固定された画像キャプチャ装置の基準(referential)において、その3次元のモーションおよび位置を推定するために用いられる。オブジェクト202Aに取り付けられたIMUセンサ110は、慣性データ推定(inertial data estimation)を提供する。この慣性データ推定は、画像キャプチャ装置120によって提供されるデータを用いることによって、より正確なものとなる。
【0054】
触覚フィードバックを提供する基礎として用いられるオブジェクト202Aは、事前にユーザによって選択され得る。画像ベースモーション推定モジュール154は、従来のテンプレート照合法(例えば、オプティカルフロー、HOG(Histogram of Oriented Gradients)、3D姿勢推定等)を用いることにより、2以上の連続する画像においてオブジェクト202Aを検出することにより(その特徴または特徴点の一部を前提とする)、オブジェクト202Aの加速度を決定することができる。一部の実装態様において、データ融合モジュール158は、イメージベースモーション推定モジュール154によって推定されたモーションをセンサベースモーション推定モジュール156によって推定されたモーションと組み合わせることにより、オブジェクト202Aのモーションを決定することができる。
【0055】
図2Bは、本発明の一態様に従って、オブジェクト202Bおよび画像キャプチャ装置120にIMUセンサ110が結合されており、オブジェクト202Bの加速度の推定を改善するために当該オブジェクト202BのモーションがIMUセンサ110によって測定されているシナリオ200Bの例を示す。
【0056】
イメージベースモーション推定モジュール154は、コンピュータ・ビジョン・アルゴリズムを適用し、シーンにおける視覚固定不変特性(visual fix invariant features)を用いて、連続するフレームから3Dカメラの姿勢(固定された基準(referential)における位置および向き)を推定することができる。カメラ姿勢の推定は、この例におけるオブジェクト姿勢の推定と等価である。推定されたデータは、データ融合モジュール158を用いて当該データをより正確なものとするために、オブジェクト202Bに取り付けられたIMUセンサ110によって提供されるデータと組み合わせされる。
【0057】
触覚フィードバックが画像キャプチャ装置120のモーションと関連するものである場合には、当該画像キャプチャ装置の内部パラメータのみを用いてもよい。イメージベースモーション推定モジュール154は、シーンにおける幾つかの不変な静的特徴(例えば、Scale−Invariant Feature Transforms、Speeded Up Robust Featuresなど)についてオプティカルフローを決定することができる。画像キャプチャ装置120/オブジェクト202Bのモーションは、算出されるオプティカルフローを反転したものである。
【0058】
図2Cは、本発明の一態様に従って、静止している画像キャプチャ装置120によって撮影(film)されているオブジェクト202CにIMUセンサ110が結合されており、オブジェクト202Cの加速度の推定を改善するために当該オブジェクト202CのモーションがIMUセンサ110によって測定されているシナリオ200Cの例を示す。一部の実装態様において、
図2Cには示されていないが、IMUセンサ110は、画像キャプチャ装置120に結合し、その一又は複数のモーションの測定結果を提供することができる。
【0059】
イメージベースモーション推定モジュール154は、コンピュータ・ビジョン・アルゴリズムを適用し、シーンにおける視覚固定不変特性(visual fix invariant features)を用いて、連続するフレームから3Dカメラの姿勢(固定された基準(referential)における位置および向き)を推定することができる。画像キャプチャ装置は情報を組み立て、オブジェクト202Cについての基本的な情報が、従来のコンピュータ・ビジョン・アプローチを用いて、固定された画像キャプチャ装置の基準(referential)において、その3次元のモーションおよび位置を推定するために用いられる。オブジェクトの位置およびモーションは、グローバル固定基準(global fixed referential)に変換され、データ融合モジュール158を持ち手IMU110からのセンサ情報と融合される。
【0060】
画像キャプチャ装置の内部パラメータおよび触覚フィードバックが生成される動画フィード中のオブジェクト/人物の特徴を用いることができる。イメージベースモーション推定モジュール154は、シーンの不変な静的特徴(invariant stationary features)についてオプティカルフローを計算することにより、画像キャプチャ装置120のモーションを決定する。IMUセンサ110が画像キャプチャ装置120と結合している場合には、このモーションは、データ融合モジュール158を用いることで、より高い精度で推定可能となる。IMUセンサが装置120と結合している場合には、データ融合モジュール158を用いたテンプレート照合により、このモーションはより高い精度で推定可能となり、シーンにおけるオブジェクト202Cの相対的なモーションを推定することができる。両方の値を相互に比較することにより、固定基準(fix referential)におけるモーションが評価される。
【0061】
図3は、本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するように構成されたコンピュータ装置140の実装態様の例を示す。コンピュータ装置140Aは、動画出力装置141(例えばタッチスクリーンディスプレイ)、触覚出力装置143、およびオーディオ出力装置143を内蔵するスマートフォンモバイルデバイスとして構成されている。この実装態様において、コンピュータ装置140Aを用いることにより、当該モバイルデバイスを通じて触覚フィードバックを受けながら動画コンテンツを視聴することができる。一部の実装態様において、有線または無線の接続を介して外部触覚装置をコンピュータ装置140Aに結合することができる。
【0062】
コンピュータ装置140Bは、触覚出力装置143およびオーディオ出力装置145を内蔵するラップトップコンピュータ等のポータブルコンピュータ装置として構成されている。この実装態様において、コンピュータ装置140Bを用いることにより、当該ポータブルコンピュータ装置を通じて触覚フィードバックを受けながら動画コンテンツを視聴することができる。一部の実装態様において、有線または無線の接続を介して外部触覚装置をコンピュータ装置140Bに結合することができる。
【0063】
コンピュータ装置140Cは、デスクトップコンピュータ、ゲームコンソール等のスタンドアローン型のコンピュータ装置として構成されている。この実装態様において、コンピュータ装置140Cは、別体の動画出力装置141、別体のオーディオ出力装置145、および触覚出力装置143を収容できる別体のユーザ接触点302と接続されている。
【0064】
図4は、本発明の一態様に従って、様々なユーザ接触点に組み込まれる触覚出力装置143の実装態様の例を示す。例えば、接触点302Aおよび302Bは、ウェアラブルグラスやウェアラブルガーメント等のウェアラブルデバイスとして構成される。他の種類のウェアラブルデバイスを用いることもできる。接触点302Cは、触覚出力装置143(
図4では触覚出力装置143A、143B・・・143Cとして図示されている)を備える様々なユーザデバイスとして構成される。この接触点302Cには、スマートフォン、キーボード、マウス、ゲームコンソールおよび前記以外のユーザデバイス等のデバイスが含まれる。
【0065】
図5は、本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するプロセス500の例を示す。
図5のフローチャートおよび他の図面に示された様々な処理工程が以下で詳細に説明される。説明される工程は、上述したシステム構成要素の一部または全部を使用して実現される。本発明の一態様に従って、様々な工程が異なるシーケンスで実行され得る。他の実装態様においては、
図5および他の図面に示した工程の一部または全部とともに追加的な工程を実行することができ、一部の工程を省略することができる。さらに他の実装態様においては、一又は複数の工程が同時に実行され得る。また、図示された(また以下で詳細に説明する)工程は、本質的に例示に過ぎず、限定的なものと理解されるべきではない。
【0066】
工程502において、一又は複数の画像フレームを有する動画が取得される。これには、キャプチャされたものおよび/または読み込まれたものが含まれる。工程504において、当該一又は複数の画像フレームに対して画像処理が実行される。工程506において、画像処理に基づくイベントが検出される。工程508において、当該検出されたイベントに基づいて制御信号が提供される。この制御信号により、触覚出力装置は触覚フィードバックを提供する。このように、触覚フィードバックは、動画について実行される画像処理に基づいて生成される。
【0067】
図6は、本発明の一態様に従って、動画に現れるオブジェクトのモーションの一又は複数のモーションの測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するプロセス600の一例を示す。
【0068】
工程602において、動画および当該動画に関連付けられたセンサ情報が取得される。これには、キャプチャされたものおよび/または読み込まれたものが含まれる。このセンサ情報は、当該動画に関連してキャプチャされたモーションの一又は複数の測定結果が含まれる。このモーションには、オブジェクトのモーション、動画のキャプチャ中に移動する画像キャプチャ装置のモーション、および/または当該動画に関連して測定可能な前記以外のモーションが含まれる。
【0069】
工程604において、当該センサ情報に基づいて制御信号が生成される。この制御信号は、触覚効果を発生させるように構成される。一部の実施態様において、この制御信号は、センサ情報および動画の画像処理の出力に基づくものであってもよい。
【0070】
工程606において、この制御信号は、動画に関連してキャプチャされたモーションと同期して提供される。
【0071】
本発明の他の態様、使用、および有利な効果は、明細書を考慮し、本明細書に記載された発明の実施を通じて、当業者に明らかなものとなる。本明細書は例示的なものに過ぎず、本発明の趣旨は以下の特許請求の範囲に基づいてのみ限定されることが意図されている。