特許第6553052号(P6553052)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ハーマン インターナショナル インダストリーズ インコーポレイテッドの特許一覧

特許6553052ジェスチャ相互作用式の装着可能な空間オーディオシステム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6553052
(24)【登録日】2019年7月12日
(45)【発行日】2019年7月31日
(54)【発明の名称】ジェスチャ相互作用式の装着可能な空間オーディオシステム
(51)【国際特許分類】
   H04S 1/00 20060101AFI20190722BHJP
   H04S 7/00 20060101ALI20190722BHJP
   H04R 3/00 20060101ALI20190722BHJP
   G06F 3/01 20060101ALI20190722BHJP
【FI】
   H04S1/00 500
   H04S7/00 340
   H04R3/00 310
   G06F3/01 570
【請求項の数】15
【全頁数】19
(21)【出願番号】特願2016-543219(P2016-543219)
(86)(22)【出願日】2014年12月31日
(65)【公表番号】特表2017-509181(P2017-509181A)
(43)【公表日】2017年3月30日
(86)【国際出願番号】US2014073089
(87)【国際公開番号】WO2015103439
(87)【国際公開日】20150709
【審査請求日】2017年12月28日
(31)【優先権主張番号】61/923,560
(32)【優先日】2014年1月3日
(33)【優先権主張国】US
(31)【優先権主張番号】61/923,571
(32)【優先日】2014年1月3日
(33)【優先権主張国】US
(73)【特許権者】
【識別番号】592051453
【氏名又は名称】ハーマン インターナショナル インダストリーズ インコーポレイテッド
(74)【代理人】
【識別番号】100078282
【弁理士】
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【弁理士】
【氏名又は名称】森下 夏樹
(72)【発明者】
【氏名】コールマン, ティム
(72)【発明者】
【氏名】マルティ, ステファン
(72)【発明者】
【氏名】ディ センソ, ダビデ
【審査官】 柴垣 俊男
(56)【参考文献】
【文献】 特開2013−207759(JP,A)
【文献】 国際公開第2012/120810(WO,A1)
【文献】 特開平05−241573(JP,A)
【文献】 特開2010−258623(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04S 1/00
H04S 7/00
G06F 3/01
H04R 3/00
(57)【特許請求の範囲】
【請求項1】
オーディオパラメータをジェスチャに基づいて修正する方法であって、前記方法が、
ユーザの手に関連したセンサデータを、ヘッドマウント装置内に含まれた少なくとも1つのセンサを介して取得することと
前記センサデータを分析して少なくとも1つの手の位置を決定することと
前記少なくとも1つの手の位置とオーディオストリームに含まれたオーディオイベントに関連した仮想物体との間の交差を検出したことに対応して触覚フィードバックを生成させることと、
前記少なくとも1つの手の位置に基づいて手のジェスチャを検出することと
前記手のジェスチャに対応して、前記オーディオイベントに関連した空間オーディオパラメータを修正して、修正されたオーディオストリームを生成することと
前記修正されたオーディオストリームを前記ユーザに出力するために再生させること
を含む、方法。
【請求項2】
前記空間オーディオパラメータ修正することが、音響空間の第1の側に向かって前記オーディオストリームに含まれた第1のオーディオイベントを移動することと、前記音響空間の第2の側に向かって前記オーディオストリームに含まれた第2のオーディオイベントを移動することとを含む、請求項1に記載の方法。
【請求項3】
前記センサデータを分析することが、前記手のジェスチャが開始された第1の手の位置を決定することと、前記手のジェスチャが完了された第2の手の位置を決定することを含む、請求項1に記載の方法。
【請求項4】
前記空間オーディオパラメータを修正することが、前記第2の手の位置に関連する、音響空間の第2の位置に向かって前記第1の手の位置に関連する、前記音響空間の第1の位置から前記オーディオストリームに含まれたオーディオイベントを移動することを含む、請求項3に記載の方法。
【請求項5】
前記手のジェスチャが把持ジェスチャを含む、請求項4に記載の方法。
【請求項6】
前記空間オーディオパラメータを修正することが、物理モデルを介して、前記オーディオイベントに対応する第1の仮想物体と、前記ユーザの前記手に対応する第2の仮想物体との間の相互作用を決定することをさらに含む、請求項4に記載の方法。
【請求項7】
前記センサデータが画像データと奥行きデータのうち少なくとも1つを含む、請求項1に記載の方法。
【請求項8】
前記少なくとも1つの手の位置と前記仮想物体との間の前記交差の検出に対応して聴覚フィードバックを生成させることをさらに含む、請求項に記載の方法。
【請求項9】
ジェスチャに基づいてオーディオパラメータを修正するシステムであって、前記システムが、
ユーザの手に関連したセンサデータを取得するよう構成された少なくとも1つのセンサであって、前記少なくとも1つのセンサが、ヘッドマウント装置内に含まれている、少なくとも1つのセンサと、
前記少なくとも1つのセンサに連結された処理装置であって、前記処理装置が、
前記センサデータを分析して少なくとも1つの手の位置を決定することと
前記少なくとも1つの手の位置に基づいて手のジェスチャを検出することと
前記少なくとも1つの手の位置とオーディオストリームに含まれたオーディオイベントに関連した仮想物体との間の交差を検出したことに対応して触覚フィードバックを生成させることと、
前記手のジェスチャに対応して、前記オーディオストリームに含まれた第1のオーディオイベントを音響空間の第1の位置から前記音響空間の第2の位置へと移動して修正されたオーディオストリームを生成することと
を実行するよう構成されている、処理装置と、
前記処理装置に連結されたスピーカであって、前記スピーカが、前記修正されたオーディオストリームを再生するよう構成されている、スピーカと
を備えるシステム。
【請求項10】
前記第2の位置が、前記音響空間の第1の側に対応、前記処理装置が、さらに、前記手のジェスチャに対応して、前記オーディオストリームに含まれた第2のオーディオイベントを前記音響空間の第2の側へと移動するよう構成されている、請求項に記載のシステム。
【請求項11】
前記手のジェスチャが分割ジェスチャを含む、請求項10に記載のシステム。
【請求項12】
前記処理装置が前記センサデータを分析して、前記手のジェスチャが開始された第1の手の位置と、前記手のジェスチャが完了された第2の手の位置を決定するよう構成されており、前記音響空間の前記第1の位置が前記第1の手の位置と関連し、前記音響空間の前記第2の位置が前記第2の手の位置と関連する、請求項に記載のシステム。
【請求項13】
前記手のジェスチャが、押圧ジェスチャとスワイプジェスチャのうち少なくとも1つを含む、請求項12に記載のシステム。
【請求項14】
前記処理装置が、前記第1のオーディオイベントを、頭部伝達関数に基づいて、前記音響空間の前記第1の位置から前記音響空間の前記第2の位置へと移動するよう構成されている、請求項に記載のシステム。
【請求項15】
令を含む非一時的なコンピュータ可読記憶媒体であって、前記命令が、処理装置によって実行されるときに、
ユーザの手に関連したセンサデータを、ヘッドマウント装置内に含まれた少なくとも1つのセンサを介して取得するステップと
前記センサデータを分析して第1の手の位置と第2の手の位置とを決定するステップと
前記第1の手の位置と前記第2の手の位置に基づいて手のジェスチャを検出するステップであって、前記手のジェスチャが分割ジェスチャを含む、ステップと
前記分割ジェスチャに対応して、音響空間の第1の側に向かってオーディオストリームに含まれた第1のオーディオイベントを移動することと、前記音響空間の第2の側に向かって前記オーディオストリームに含まれた第2のオーディオイベントを移動することとによって、前記オーディオストリームに関連した空間オーディオパラメータを修正して、修正されたオーディオストリームを生成するステップと
前記修正されたオーディオストリームを前記ユーザに出力するために再生させるステップと
を実行することにより、前記処理装置にジェスチャに基づいてオーディオパラメータを修正させる、非一時的なコンピュータ可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本願は、2014年1月3日に出願された米国仮特許出願第61/923,560号(代理人整理番号HRMN/0078USL)及び2014年1月3日に出願された、米国特許仮出願第61/923,571号(代理人整理番号HRMN/0080USL)の利益を主張する。本関連出願の主題は、参考として本明細書に組み込まれている。
【0002】
本発明の実施形態の分野
本発明の実施形態は、一般に、音響信号処理に関し、より具体的には、ジェスチャ相互作用式の装着可能な空間オーディオシステムに関する。
【背景技術】
【0003】
関連技術
スマートフォン、携帯型メディアプレーヤ及びパーソナルコンピュータのような電子装置の使用は、日常生活のすべての面において、ますます普及しつつある。このような装置により、ストリーミングやダウンロード可能な音楽、映画、ポッドキャスト、テレビ番組等のような、オーディオ及びビデオコンテンツにユーザがアクセスし易くなる。さらに、このような装置は、ユーザが幅広い範囲の通信サービスへのアクセスすることを可能にし、その多くは、ユーザがその他のユーザと相互作用できるオーディオ及び/またはビデオのインターフェースを提供する。
【0004】
電子装置のユーザがしばしば直面する問題は、電子装置が、その装置のユーザに、同時に多数のオーディオイベントを再生するときに起こる。例えば、同一装置上で多数のソフトウェアアプリケーションを操作するユーザは(例えば、マルチタスキング)、あるソフトウェアアプリケーションによって生成されるオーディオコンテンツと別のソフトウェアアプリケーションによって生成されるオーディオコンテンツとを区別することが困難な可能性がある。したがって、場合によっては、ユーザはどのソフトウェアアプリケーションと関連する音かわからない可能性があり、及び/またはユーザは多数のオーディオイベントが同時に起こることによって気が散ってしまい、ユーザが特定のソフトウェアアプリケーションと効果的に相互作用する能力を妨げ得る。この後者の場合を取り込んだ共通のユースケースは、別のソフトウェアアプリケーション(例えば、メディアプレーヤ)を操作するために同一の電子装置を使用している間に、ユーザが1人以上の人と、電子装置上で実行される通信サービスを介して話す時である。ユーザは会話中に、別のソフトウェアアプリケーションに関連した別のオーディオイベントが生成され再生されると、会話に注意を払うのが困難になり得る。
【0005】
前述で示すように、ユーザが、異なるオーディオイベントをより効果的に聴取することを可能にする技術は有用であるだろう。
【発明の概要】
【課題を解決するための手段】
【0006】
本発明の一実施形態はジェスチャに基づいてオーディオパラメータを修正する方法を示す。本方法は、ユーザの手と関連するセンサデータを取得し、センサデータを分析して少なくとも1つの手の位置を決定することを含む。本方法はさらに、少なくとも1つの手の位置に基づいて手のジェスチャを検出し、手のジェスチャに対応して、オーディオストリームに関連した空間オーディオパラメータを修正して、修正されたオーディオストリームを生成することを含む。本方法はさらに、修正されたオーディオストリームをユーザに出力するために再生させることを含む。
【0007】
さらなる実施形態は、とりわけ、上述の方法を実行するよう構成されたシステム及び非一時的なコンピュータ可読媒体を提供する。
【0008】
有利には、この開示された技術はユーザが、オーディオイベントが音響空間内で再生される位置を修正することを可能にする。例えば、ユーザは直感的に、オーディオイベントと関連した仮想物体を把持し、仮想物体を仮想3次元音響空間内の所望の位置に再配置し得る。したがって、オーディオイベントは音響空間内に再配置されてよく、ユーザが、多数のオーディオイベントを同時により効果的に聴取及び/または相互作用することを可能にする。また、ユーザが仮想3次元音響空間内にオーディオイベントを再配置するのをさらに支援するために、ユーザの手がオーディオイベントと関連した仮想物体に隣接した時に、聴覚フィードバック及び/または触覚フィードバックが、ユーザに提供され得る。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
オーディオパラメータをジェスチャに基づいて修正する方法であって、
ユーザの手に関連したセンサデータを取得し、
前記センサデータを分析して少なくとも1つの手の位置を決定し、
前記少なくとも1つの手の位置に基づいて手のジェスチャを検出し、
前記手のジェスチャに対応して、オーディオストリームに関連した空間オーディオパラメータを修正して、修正されたオーディオストリームを生成し、
前記修正されたオーディオストリームを前記ユーザに出力するために再生させることを含む、方法。
(項目2)
前記空間オーディオパラメータの修正が、音響空間の第1の側に向かって前記オーディオストリームに含まれた第1のオーディオイベントを移動することと、前記音響空間の第2の側に向かって前記オーディオストリームに含まれた第2のオーディオイベントを移動することと、を含む、項目1に記載の方法。
(項目3)
前記センサデータを分析することが、前記手のジェスチャが開始された第1の手の位置を決定し、前記手のジェスチャが完了された第2の手の位置を決定することを含む、項目1に記載の方法。
(項目4)
前記空間オーディオパラメータを修正することが、前記第2の手の位置に関連する、音響空間の第2の位置に向かって前記第1の手の位置に関連する、前記音響空間の第1の位置から前記オーディオストリームに含まれたオーディオイベントを移動することを含む、項目3に記載の方法。
(項目5)
前記手のジェスチャが把持ジェスチャを含む、項目4に記載の方法。
(項目6)
前記空間オーディオパラメータを修正することが、物理モデルを介して、前記オーディオイベントに対応する第1の仮想物体と、前記ユーザの前記手に対応する第2の仮想物体との間の相互作用を決定することをさらに含む、項目4に記載の方法。
(項目7)
前記センサデータが画像データと奥行きデータのうち少なくとも1つを含む、項目1に記載の方法。
(項目8)
前記手のジェスチャを検出することが、前記少なくとも1つの手の位置と前記オーディオストリームに含まれたオーディオイベントに関連する仮想物体との間の交差を検出することを含む、項目1に記載の方法。
(項目9)
前記少なくとも1つの手の位置と前記仮想物体との間の前記交差の検出に対応して、聴覚フィードバックと触覚フィードバックのうち少なくとも1つを生成させることをさらに含む、項目8に記載の方法。
(項目10)
ジェスチャに基づいてオーディオパラメータを修正するシステムであって、
ユーザの手に関連したセンサデータを取得するよう構成された少なくとも1つのセンサと、
前記少なくとも1つのセンサに連結された処理装置であって、
少なくとも1つの手の位置を決定するために前記センサデータを分析し、
前記少なくとも1つの手の位置に基づいて手のジェスチャを検出し、
前記手のジェスチャに対応して、オーディオストリームに含まれた第1のオーディオイベントを音響空間の第1の位置から前記音響空間の第2の位置へと移動して修正されたオーディオストリームを生成するよう構成された処理装置と、
前記処理装置に連結され、前記修正されたオーディオストリームを再生するよう構成されたスピーカと、を備えるシステム。
(項目11)
前記音響空間の第1の側に対応する前記第2の位置と、前記処理装置が、さらに、前記手のジェスチャに対応して、前記オーディオストリームに含まれた第2のオーディオイベントを前記音響空間の第2の側へと移動するよう構成された、項目10に記載のシステム。
(項目12)
前記手のジェスチャが分割ジェスチャを含む、項目11に記載のシステム。
(項目13)
前記処理装置が前記センサデータを分析して、前記手のジェスチャが開始された第1の手の位置と、前記手のジェスチャが完了された第2の手の位置を決定するよう構成され、前記音響空間の前記第1の位置が前記第1の手の位置と関連し、前記音響空間の前記第2の位置が前記第2の手の位置と関連する、項目10に記載のシステム。
(項目14)
前記手のジェスチャが、押圧ジェスチャとスワイプジェスチャのうち少なくとも1つを含む、項目13に記載のシステム。
(項目15)
前記第1の手の位置と前記第2の手の位置との間の距離を決定することによって、前記処理装置が、前記第1の前記オーディオイベントを移動するよう構成された、項目13に記載のシステム。
(項目16)
前記少なくとも1つのセンサが第1のセンサと第2のセンサを備え、前記処理装置が、前記第2のセンサの第2の位置に対して前記第1のセンサの第1の位置を決定することにより、前記少なくとも1つの手の位置を決定するよう構成された、項目10に記載のシステム。
(項目17)
前記処理装置が、前記第1のオーディオイベントを、頭部伝達関数に基づいて、前記音響空間の前記第1の位置から前記音響空間の前記第2の位置へと移動するよう構成された、項目10に記載のシステム。
(項目18)
前記少なくとも1つの手の位置と前記第1のオーディオイベントに関連した仮想物体との間の交差の検出に対応して、触覚フィードバックを生成するよう構成されたフィードバック装置をさらに備える、項目10に記載のシステム。
(項目19)
前記処理装置が、前記少なくとも1つの手の位置と前記第1のオーディオイベントに関連した仮想物体との間の交差の検出に対応して、前記スピーカに聴覚フィードバックを生成させるようさらに構成された、項目10に記載のシステム。
(項目20)
処理装置によって実行されるときに、命令を含む非一時的なコンピュータ可読記憶媒体であって、
ユーザの手に関連したセンサデータを取得し、
前記センサデータを分析して第1の手の位置と第2の手の位置とを決定し、
前記第1の手の位置と前記第2の手の位置に基づいて手のジェスチャを検出し、
前記手のジェスチャに対応して、オーディオストリームに関連した空間オーディオパラメータを修正して、修正されたオーディオストリームを生成し、
前記修正されたオーディオストリームを前記ユーザに出力するために再生させる、工程を実行することにより、前記処理装置にジェスチャに基づいてオーディオパラメータを修正させる記憶媒体。
【図面の簡単な説明】
【0009】
上述の本発明の特徴である方法が詳細に理解できるように、上記に簡潔に要約された本発明のより詳細な説明を、実施形態の参考に挙げているが、そのいくつかは添付図面中に図示されている。しかしながら、添付図面は本発明の典型的な実施形態のみ図示していること、そのため本発明の範囲を限定するものと考えるべきではなく、本発明は、その他の等しく効果的な実施形態を認め得ることに注意すべきである。
【0010】
図1】様々な実施形態による、ユーザのジェスチャを認識し、オーディオストリームの空間オーディオパラメータを修正するためのオーディオシステムを示す。
図2】様々な実施形態による、図1のオーディオシステムとともに実行され、またはオーディオシステムに連結され得る計算装置のブロック図である。
図3A】様々な実施形態による、ジェスチャを行うことにより図1のオーディオシステムと相互作用しているユーザを示す。
図3B】様々な実施形態による、ジェスチャを行うことにより図1のオーディオシステムと相互作用しているユーザを示す。
図3C】様々な実施形態による、ジェスチャを行うことにより図1のオーディオシステムと相互作用しているユーザを示す。
図4A】様々な実施形態による、通信サービスによって生成されたオーディオイベントを再配置するために、図1のオーディオシステムと相互作用しているユーザを示す。
図4B】様々な実施形態による、通信サービスによって生成されたオーディオイベントを再配置するために、図1のオーディオシステムと相互作用しているユーザを示す。
図4C】様々な実施形態による、通信サービスによって生成されたオーディオイベントを再配置するために、図1のオーディオシステムと相互作用しているユーザを示す。
図5A】様々な実施形態による、オーディオイベントを再配置するために、仮想物体と相互作用しているユーザを示す。
図5B】様々な実施形態による、オーディオイベントを再配置するために、仮想物体と相互作用しているユーザを示す。
図5C】様々な実施形態による、オーディオイベントを再配置するために、仮想物体と相互作用しているユーザを示す。
図5D】様々な実施形態による、オーディオイベントを再配置するために、仮想物体と相互作用しているユーザを示す。
図5E】様々な実施形態による、オーディオイベントを再配置するために、仮想物体と相互作用しているユーザを示す。
図6】様々な実施形態による、ジェスチャに基づいてオーディオパラメータを修正する方法の工程のフローチャートである。
図7】様々な実施形態による、仮想物体を再配置することにより、オーディオパラメータを修正する方法の工程のフローチャートである。
【発明を実施するための形態】
【0011】
以下の説明においては、多数の具体的な詳細が、本発明の実施形態より十分な理解を提供するために示されている。しかしながら、本発明の実施形態はこれらの1つ以上の具体的詳細なくして実施され得ることが、当業者には明白である。
【0012】
図1は、様々な実施形態による、ユーザのジェスチャを認識し、オーディオストリームの空間オーディオパラメータを修正するためのオーディオシステム100を示す。オーディオシステム100は、スピーカ130及び1つ以上のセンサ140を含み得るがこれらに限定されない。スピーカ130はオーディオシステム100のユーザのために1つ以上のオーディオストリームを再生するよう構成されている。センサ(単数または複数)140は、ユーザによって実行されるジェスチャに関連するデータ並びに/またはオーディオシステム100が、環境に対するユーザの位置及び/または向きを追跡することを可能にするデータを取得するよう構成されている。例えば、これらに限定されないが、センサ(単数または複数)140は、ユーザによって実行される1つ以上のジェスチャを検出するために、ユーザの手(単数または複数)及び/または腕(単数または複数)の画像を取得するよう構成され得る。いくつかの実施形態では、センサ(単数または複数)140は、カメラのような視覚センサを含む。さらに、いくつかの実施形態では、センサ(単数または複数)140は、飛行時間センサ、構造化光センサ等のような超音波センサ、レーダセンサ、レーザセンサ、熱型センサ及び/または深度センサを含む。
【0013】
様々な実施形態では、センサ(単数または複数)140はユーザの素手によって実行される1つ以上のジェスチャを検出するよう構成されている。例えば、これらに限定されないが、センサ(単数または複数)140によって取得されるデータは、ユーザの指先、関節、手、手首、腕等の位置を決定するために分析され得る。1つ以上のこれらの位置は、次に、ユーザによって実行されるジェスチャを検出するために使用され得る。同様のまたはその他の実施形態においては、センサ(単数または複数)140は、ユーザに取り付けられた追加の装置の位置を追跡することによって、ユーザによって実行される1つ以上のジェスチャを検出するよう構成されている。例えば、これらに限定されないが、ユーザの腕(単数または複数)に連結された1つ以上の装置の位置は、ユーザによって実行されるジェスチャを検出するために追跡され得る。4つのセンサ140が図1に示されているが、オーディオシステム100における任意の位置に配置された任意の数のセンサ140は、ユーザのジェスチャを検出するために使用され得る。いくつかの実施形態では、立体画像を取得されることを可能にするために、したがって、ユーザの指、手、腕等の深度がより正確に決定されるために、少なくとも2つのセンサ140がオーディオシステム100に含まれる。その他の実施形態では、ジェスチャは、画像を取り込み、深度測定を取得し、位置の計算等をする単一センサを使用して検出される。さらに、様々な実施形態では、センサ(単数または複数)140は、眼鏡、腕時計、装着可能な装置、ユーザの体(例えば、Thalmic Labs(商標)による、腕に装着するMyo(商標))等の上のような、スピーカ130が配置される装置本体102以外の物体上に配置され得る。
【0014】
スピーカ130は、オーディオシステム100と一体化または連結された電子装置によって出力される多重チャンネルのオーディオストリーム等のオーディオストリームを再生するよう構成されている。例えば、これらに限定されないが、スピーカ130は、音響空間内の特定の位置でオーディオストリームに含まれた(例えば、音声、通知、音楽等の)オーディオイベントをレンダリングすることが可能な2つまたはそれ以上のスピーカを含み得る。いくつかの実施形態では、ユーザの耳に対して特定の位置でオーディオイベントをレンダリングするために、多数のスピーカはヘッドホン内に配布される。同様のまたはその他の実施形態においては、音響信号の処理技術は、2つまたはそれ以上のスピーカを使用して音響空間内の特定の位置でオーディオイベントを仮想でレンダリングするために使用され得る。
【0015】
様々な実施形態では、オーディオシステム100は、図1に示されたオーバーイヤーヘッドホンのような、1組のヘッドホンを含む。しかしながら、一般に、耳を覆うヘッドホン、耳載せヘッドホン及び耳の中に入れるヘッドホンを含む、任意のタイプの有線または無線のヘッドホンは、本明細書で記載された技術を実行するために使用され得る。その他の実施形態では、オーディオシステム100は、補聴器のような補助医療装置、ブルートゥース(登録商標)のヘッドセットのような携帯型の通信装置を含む、ユーザのために音を再生することが可能な、任意の音響装置であり得る。
【0016】
図2は、様々な実施形態による、図1のオーディオシステム100とともに実行され、またはオーディオシステム100に連結され得る計算装置のブロック図である。ここに示すように、計算装置200は、処理装置210、入力/出力(I/O)装置220及び記憶装置230を含む。記憶装置230は、データベース234と相互作用するよう構成されたアプリケーション232を含む。
【0017】
処理装置210は、中央処理装置(CPU)、デジタル信号処理装置(DSP)等を含み得る。様々な実施形態では、処理装置210は、ユーザのジェスチャを検出し、並びに/または周囲環境に対するユーザの位置及び/または向きを決定するために、センサ(単数または複数)140によって取得されたセンサデータを分析するよう構成されている。さらに処理装置210は、オーディオシステム100によって再生されるオーディオストリームと関連した空間オーディオパラメータを修正するよう構成され得る。例えば、これらに限定されないが、処理装置210は、スピーカ130によって生成された音響空間中の特定の位置でのオーディオイベントをレンダリングするためのオーディオストリームに含まれた、1つ以上のオーディオイベントを処理するアプリケーション232を実行し得る。
【0018】
様々な実施形態では、処理装置210は、ユーザによって実行された1つ以上のジェスチャを検出するために、センサ(単数または複数)140によって取得されたデータの分析を行う。次に、ジェスチャの検出に対応して、処理装置210は、オーディオシステム100によって再生されたオーディオストリームの空間オーディオパラメータを修正する。例えば、これらに限定されないが、処理装置210は、音響空間内のオーディオイベントの認識された位置(単数または複数)を修正するために空間オーディオパラメータを修正し得る。いくつかの実施形態では、処理装置210は、バイノーラルキュー(例えば、両耳間時間差、両耳間強度差)、スペクトルキュー、ダイナミックレンジキュー、頭部伝達関数(例えば、音波がどのように聴取者の体と相互作用するかを記載する空間フィルタ)、反響等に基づいて、オーディオストリームの空間オーディオパラメータを修正する。例えば、これらに限定されないが、処理装置210は、オーディオイベントが再生される角度分解能を上げるために、ユーザの耳、外耳道及び/または頭部の形状に関連する1つ以上のパラメータに基づいてオーディオストリームを処理し得る。同様のまたはその他の実施形態においては、処理装置210は、どのスピーカ130がオーディオイベントを再生しているかを修正することによりオーディオストリームの空間オーディオパラメータを修正し、及び/またはオーディオイベントが1つ以上のスピーカ130によって再生されているレベル(単数または複数)を修正する。例えば、これらに限定されないが、処理装置210は、特定のスピーカ130がオーディオイベントを再生しているレベル(単数または複数)を上げる及び/または下げることによって、音響空間内のオーディオイベントの認識された位置(単数または複数)を修正し得る。いくつかの実施形態では、音響信号処理は、OpenALのようなミドルウェアを介して処理装置210によって実行される。
【0019】
I/O装置220は、入力装置、出力装置及び入力を受信し出力を提供することの両方が可能な装置を含み得る。例えば、これらに限定されないが、I/O装置220は、オーディオシステム100に含まれたセンサ(単数または複数)140にデータを送信及び/または受信する、有線及び/または無線の通信装置を含み得る。さらに、I/O装置220は、(例えば、ローカルエリアネットワーク及び/またはインターネットのようなネットワークを介して)スピーカ130によって再生されるオーディオストリームを受信する、1つ以上の有線または無線通信装置を含み得る。
【0020】
メモリ装置230は、メモリモジュールまたはメモリモジュールの収集を含み得る。メモリ装置230内のソフトウェアアプリケーション232は、計算装置200の全体の機能を実行するために、及び、全体としてオーディオシステム100の操作を調整するために、処理装置210によって実行され得る。データベース234は、デジタル信号処理アルゴリズム、オーディオストリーム、ジェスチャ認識データ等を格納し得る。
【0021】
計算装置200は、全体として、マイクロプロセッサ、特定用途向け集積回路(ASIC)、システムオンアチップ(SoC)、タブレット型コンピュータ、携帯電話、メディアプレーヤ等のような携帯型計算装置であり得る。一般に、計算装置200は、オーディオシステム100の全体の操作を調整するよう構成され得る。その他の実施形態では、計算装置200は、オーディオシステム100に連結され得るが、分離している。このような実施形態においては、オーディオシステム100は、データ(例えば、オーディオストリーム)を計算装置200から受信し、データ(例えば、センサデータ)を計算装置200に送信する別の処理装置を含んでよく、スマートフォン、携帯型メディアプレーヤ、パーソナルコンピュータ等のような消費者用電子装置に含まれてよい。しかしながら、本明細書にて開示された実施形態は、オーディオシステム100の機能性を実行するよう構成された、任意の技術的に可能なシステムを意図している。
【0022】
図3A図3Cは、様々な実施形態による、ジェスチャを行うことにより図1のオーディオシステム100と相互作用しているユーザを示す。上記のように、オーディオシステム100は、ユーザによって実行されるジェスチャを検出し、それに対して、オーディオシステム100によって再生されるオーディオストリームの1つ以上のパラメータを修正する。例えば、これらに限定されないが、図3Aにて示すように、ユーザは、オーディオシステム100によって生成された音響空間中のオーディオイベントの認識された位置にユーザの手を移動することにより、ジェスチャを行ってオーディオストリームに含まれるオーディオイベントの空間オーディオパラメータを修正し得る。一旦、ユーザの手がオーディオイベントの認識された位置に近づくと、ユーザはジェスチャを行ってオーディオイベントと相互作用する。次に、図3Bにて示すように、ユーザは、音響空間内で手を右や左及び/または上下や前後(例えば、2次元のX、Y面内または3次元のX、Y、Z空間内)に動かすなどにより、オーディオイベントを再配置し得る。手のジェスチャ及びオーディオイベントの新しい位置は、次にセンサ140を介して検出され、オーディオストリームの1つ以上のパラメータを修正するために処理装置210に送られる。
【0023】
いくつかの実施形態では、ユーザは、手を、音響空間内のオーディオイベント(例えば、点音源)の認識された位置に関連する位置に動かし、オーディオイベントに対応する仮想物体を把持する把持ジェスチャを行う。次に、把持ジェスチャを行いつつ、ユーザはオーディオイベントを所望の位置に移動する。それに対して、処理装置210は、ユーザがオーディオイベントをユーザに対する所望の角度及び/または位置からレンダリングする際に認識するものとして、オーディオストリームに関連する1つ以上のパラメータ(例えば、空間オーディオパラメータ)を修正する。
【0024】
例えば、これらに限定されないが、ユーザは1人以上の人の音声を捕捉して再配置してよく、図4A図4Cにて示すように、様々な実施形態による、通信サービスによって生成されたオーディオイベントを再配置するために、図1のオーディオシステム100と相互作用しているユーザを示す。図4Aにて示すように、最初はユーザが話している人の音声は音響空間内の同一の位置からレンダリングされ得る。しかしながら、ユーザは、音声に関連する位置に手を移動し、それぞれの声に対応する仮想物体を把持するためにジェスチャを行い得る。ユーザは次に、図4B及び図4Cにて示すように、所望の位置にそれぞれの音声に関連するオーディオイベントを移動し得る。それに対して、処理装置210は、ユーザが新しい位置(例えば、多数の異なる点音源)に配置されるときに音声を認識するように、それぞれのオーディオイベントに関連する1つ以上のパラメータを修正する。したがって、オーディオシステム100は、多数の人がユーザに対して異なる位置に配置された場合に、生の会話を正確にシミュレートし、ユーザが多数の音声をより容易に区別するのを可能にし得る。
【0025】
一旦、ユーザの指、手、腕等(単数または複数)がオーディオイベント(例えば、オーディオイベントに関連する仮想物体)の現在位置に近づくと、オーディオシステム100は、音声告知、振動、超音波、空気圧等のような聴覚フィードバック及び/または触覚フィードバックを1つ以上のフィードバック装置を介して生成し得る。聴覚フィードバック及び/または触覚フィードバックの生成をすることで、ユーザはより容易にオーディオイベントと相互作用し再配置することができる。同様のまたはその他の実施形態においては、オーディオシステム100は、一旦、ジェスチャが開始されるとき、及び/または、ユーザが仮想物体を放すなど、ジェスチャが完了したとき、聴覚フィードバック及び/または触覚フィードバックをユーザに提供し得る。
【0026】
処理装置210は、ユーザが様々な技術を使用してオーディオイベントを再配置しようとしているか否かを決定し得る。ある技術においては、処理装置210は、オーディオイベントに関連した第1の仮想物体の位置を追跡し、いつユーザの指、手及び/または腕に関連する第2の仮想物体が第1の仮想物体と相互作用(例えば、把持)しているかを、(例えば、センサ(単数または複数)140を介して)決定する。処理装置210は、次に物理モデルを使用して第1の仮想物体の新しい位置を第2の仮想物体との相互作用に基づいて決定し得る。例えば、これらに限定されないが、いくつかの実施形態では、処理装置210は、ユーザの手の位置を検出し、ユーザがいつオーディオイベントと関連する仮想物体を把持し、押圧し、牽引し、スワイプ等をしたかを決定する。処理装置210は、次に、物理モデルを使用して、(例えば、速度、距離並びに/または把持、押圧、牽引及び/またはスワイプの持続時間に基づいて)オーディオイベントの新しい位置を判断する。1つ以上のオーディオストリームのパラメータは、次に、ユーザが新しい位置に配置されるものとしてオーディオイベントを認識するよう修正され得る。
【0027】
例えば、これらに限定されないが、ユーザはスワイプジェスチャを使用して図5A図5Eに示されたオーディオイベントを再配置してよく、これらは、様々な実施形態による、オーディオイベントを再配置するために、仮想物体と相互作用しているユーザを示す。例えば、これらに限定されないが、図5A及び図5Bにて示すように、ユーザはメディアプレーヤによって生成された周囲の音源(例えば、音楽)を聴取しながら、ユーザは、通信サービスから着信の通知を受信し得る。ユーザは、次に、図5C及び図5Dに示されているように、音響空間の左側へと、音楽に関連する仮想物体をスワイプすることを選択し得る。それに対して、処理装置210は、ユーザの手の位置を追跡し、必要に応じて物理モデルを使用して、速度、距離及び/またはスワイプジェスチャの持続時間に基づいた音楽に関連する仮想物体の新しい位置を決定する。いくつかの実施形態では、処理装置210は、センサ(単数または複数)140から受信されたデータを使用して、スワイプジェスチャがどこで開始され及び/またはどこで終わるかを決定する。処理装置210は、次に、ユーザが音響空間の左側から受信されたものとして音楽を認識するように、仮想物体の新しい位置に基づいて、周囲の音源の1つ以上のパラメータ(例えば、音バランス及び/または音方向)を修正する。したがって、図5Eにて示すように、音楽のような周囲の音源は音響空間の左側から流れ続ける一方、着信のような点音源は、音響空間の右側に配置され得る。したがって、音楽は実質的に着信を邪魔せず、ユーザは、多数のオーディオイベントを同時により効率的に、聴取及び/または相互作用することを可能にする。
【0028】
別の技術においては、音響空間内の1つ以上のオーディオイベントの位置(単数または複数)は、ユーザが腕で個々のオーディオイベントを把持し、押圧し、牽引し、スワイプ等をする必要なく、片手の位置(例えば、静止したジェスチャ)に基づいて修正される。このような実施形態においては、手の位置に関連した1つ以上の指の向きは、オーディオシステム100に音響空間内の1つ以上のオーディオイベントの位置(単数または複数)がどのように修正されるかを示し得る。例えば、これらに限定されないが、ユーザは、(例えば、ユーザの人差し指と中指を使用してV字を作ることによって)「V」の手の位置を使用して1つ以上のオーディオイベントを音響空間の側に移動(例えば、分割)させる。具体的な実施例では、ユーザが通信サービスを介して2人に話しかけているとき、オーディオシステム100は、(例えば、「V」の手の位置に基づいて)、分割ジェスチャが検出されたことを検出し、それに対して、第1の人の声に関連する第1のオーディオイベントを音響空間の片側へと移動させ、第2の人の声に関連する第2のオーディオイベントを音響空間の反対側へと移動させる。さらに、分割ジェスチャは、他の種類のオーディオイベント(例えば、音楽、ポッドキャスト、通知等)を音響空間の側に移動するために使用され得る。同様のまたはその他の実施形態においては、ジェスチャは、音響空間内でオーディオイベントを均等に配布し、所定のパターンによって音響空間内にオーディオイベントを配布し、多数の位置からオーディオイベントを流し、及び/または1つ以上のオーディオイベントを消音するために使用され得る。
【0029】
いくつかの実施形態では、処理装置210は、音響空間内にオーディオイベントを再配置する前に、1つ以上のアルゴリズムを使用して個々のオーディオイベントを識別する。例えば、これらに限定されないが、処理装置210は、アルゴリズムを使用して、通信サービスを介して受信された2つまたはそれ以上の音声を識別し得る。次に、一旦、それぞれの音声に関連する特徴(例えば、基準ピッチ、周波数スペクトル、ケイデンス、イントネーション等)が識別されると、それぞれの音声に関連する空間オーディオパラメータは、音響空間中の音声を再配置するために修正され得る。類似した技術は、その他の種類のオーディオイベント(例えば、音楽、通知等)を識別し及び音響空間内にオーディオイベントを再配置するために使用され得る。したがって、個々のオーディオイベントは、オーディオイベントは、処理装置210によって受信され処理される前に、単一のオーディオチャンネルに一体化されたときであっても、分離され、音響空間内に再配置される。
【0030】
上記のように、いくつかの実施形態では、センサ(単数または複数)140は、環境内でのユーザの位置及び/または向きを追跡するよう構成されている。このような実施形態においては、ユーザの位置及び/または向きは、ユーザの環境に対応してオーディオイベントの位置を維持するために、オーディオシステム100によって使用され得る。例えば、これらに限定されないが、ユーザが、最初に音響空間の片側上に配置されたオーディオイベントに頭を向けると、オーディオシステム100は、環境に対してユーザの頭の向きの変化を追跡し、それに対応して、オーディオイベントがユーザの前に再配置されるように、オーディオイベントに関連した空間オーディオパラメータを修正し得る。したがって、オーディオイベントは、ユーザの環境に対する比較的静止角度位置及び/または距離で、ユーザに再生される。加えて、ユーザが周囲環境内で位置を変更すると、オーディオシステム100は、ユーザがユーザの環境内のオブジェクトに向かって移動する(より大きく)または、物体から離れて移動するか(より静かに)に基づいて、特定のオーディオイベントの音の強さを修正し得る。
【0031】
図6は、様々な実施形態による、ジェスチャに基づいてオーディオパラメータを修正する方法の工程のフローチャートである。この方法の工程は、図1から図5Eのシステムとともに記載されているが、当業者は、この方法の工程を実行するように構成された任意のシステムはいなかる順序でも、本発明の範囲内であると理解するであろう。
【0032】
ここに示すように、方法600は工程610で開始し、処理装置210は、センサ(単数または複数)140を介して、ユーザに関連したセンサデータ(例えば、ユーザの手、腕、指等)を取得する。工程620では、処理装置210はセンサデータを分析して、ユーザの手(単数または複数)、指(単数または複数)、腕(単数または複数)等の位置(単数または複数)及び/または向き(単数または複数)に基づいて1つ以上の手の位置を決定する。次に、工程630では、処理装置210は、ジェスチャ(例えば、分割ジェスチャ)が1つ以上の手の位置に基づいて実行されているか否かを決定する。ジェスチャがユーザによって実行されていない場合には、方法600は次に、工程610に戻り、処理装置210はセンサデータを取得し続ける。
【0033】
ジェスチャがユーザによって実行されている場合には、方法600は次に、工程640に進み、処理装置210は、オーディオストリームに関連した1つ以上のパラメータを修正する。例えば、これらに限定されないが、ジェスチャが分割ジェスチャである場合には、処理装置210は次に、オーディオストリームに関連した1つ以上の空間オーディオパラメータを修正し、1つ以上のオーディオイベントを音響空間の側に移動させ得る。次に、工程650で、処理装置210は、修正されたオーディオストリームを、修正された空間オーディオパラメータに基づいたスピーカ130を介してユーザに再生させる。次に、方法600は終了する。
【0034】
図7は、様々な実施形態による、仮想物体を再配置することにより、オーディオパラメータを修正する方法の工程のフローチャートである。この方法の工程は、図1から図5Eのシステムとともに記載されているが、当業者は、この方法の工程を実行するように構成された任意のシステムはいなかる順序でも、本発明の範囲内であると理解するであろう。
【0035】
ここに示すように、方法700は工程710で開始し、処理装置210は、センサ(単数または複数)140を介して、ユーザに関連したセンサデータ(例えば、ユーザの手、腕、指等)を取得する。工程720では、処理装置210はセンサデータを分析して、ユーザの手(単数または複数)、指(単数または複数)、腕(単数または複数)等の位置(単数または複数)及び/または向き(単数または複数)に基づいて1つ以上の手の位置を決定する。工程730では、処理装置210は、オーディオイベントと関連した仮想物体が手の位置のうち1つ以上に隣接した配置されているか否かを決定する。仮想物体が手の位置に隣接して配置されていない場合には、次に、方法700は工程710に戻り、処理装置210はセンサデータを取得し続ける。仮想物体が手の位置に隣接して配置されている場合には、次に、方法700は工程740に進み、処理装置210は、ユーザが手の位置(単数または複数)に基づいてジェスチャ(例えば、把持ジェスチャ)を実行しているか否かを検出する。
【0036】
ジェスチャがユーザによって実行されていない場合には、方法700は次に、工程710に戻り、処理装置210はセンサデータを取得し続ける。ジェスチャがユーザによって実行されている場合には、次に、方法700は工程750に進み、処理装置210はユーザと仮想物体との間の相互作用を決定する。例えば、これらに限定されないが、処理装置210はセンサデータを取得し続け、追加の手/腕/指等の位置を決定し、ユーザが仮想物体を移動している位置を決定する。
【0037】
次に、工程760で、処理装置210は、ユーザと仮想物体との間の相互作用に基づいたオーディオストリームに関連する1つ以上のパラメータを修正する。例えば、これらに限定されないが、ユーザがオーディオイベントと関連した仮想物体を把持する場合には、処理装置210は、ユーザが、音響空間内で移動するオーディオイベントを聴取することが出来るように、オーディオイベントに関連した空間オーディオパラメータを動的に修正し得る。工程770では、処理装置210は、(例えば、仮想物体を解放することによって)ユーザがジェスチャを完了したか否かを決定する。ユーザがジェスチャを完了していない場合には、次に、方法700は工程750に戻る。ユーザがジェスチャを完了した場合には、次に、処理装置210はオーディオイベントに関連したパラメータを修正するのを停止し、方法700が終了する。
【0038】
要するに、処理装置は、1つ以上のセンサを介してユーザが実行するジェスチャを検出する。ジェスチャに対応して、処理装置は、オーディオストリームに関連した1つ以上のパラメータを修正する。オーディオストリームは次に、修正されたパラメータに基づいて、ユーザにオーディオストリームを再生する。さらに、オーディオシステムは、ユーザと、物理モデルを介して1つ以上のオーディオイベントに関連する仮想物体との間の相互作用を決定し得る。オーディオストリームに関連する1つ以上のパラメータは、次に、相互作用に基づいて修正され得る。
【0039】
本明細書で記載された技術の利点の少なくとも1つは、ユーザが、オーディオイベントが音響空間内で再生されている位置を修正できることである。例えば、ユーザは直感的に、オーディオイベントと関連した仮想物体を把持し、仮想物体を仮想3次元音響空間内の所望の位置に再配置し得る。したがって、オーディオイベントは音響空間内に再配置されてよく、ユーザが、多数のオーディオイベントを同時により効果的に聴取及び/または相互作用することを可能にする。また、ユーザが仮想3次元音響空間内にオーディオイベントを再配置するのをさらに支援するために、ユーザの手がオーディオイベントと関連した仮想物体に隣接した時に、聴覚フィードバック及び/または触覚フィードバックが、ユーザに提供され得る。
【0040】
様々な実施形態についての説明は、実例の目的で提示されてきたが、網羅的であること、または開示される実施形態に限定されることを意図しない。多数の修正及び差異が、記載された実施形態の範囲及び趣旨から逸脱することなく、当業者には明白となろう。
【0041】
本実施形態の態様は、システム、方法またはコンピュータプログラム製品として体現され得る。したがって、本開示の態様は、全体的にハードウェアの実施形態、全体的にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)または本明細書においては、通常すべて、「回路」、「モジュール」または「システム」と称される、ソフトウェアとハードウェアの態様を組み合わせた実施形態の形を成し得る。さらに、本開示の態様は、そのなかに組み込まれたコンピュータ可読プログラムコードを有する、1つ以上のコンピュータ可読媒体(単数または複数)に組み込まれた、コンピュータプログラム製品の形を成し得る。
【0042】
1つ以上のコンピュータ可読媒体(単数または複数)の任意の組み合わせが使用され得る。コンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体であり得る。例えば、コンピュータ可読記憶媒体は、制限するのではないが、電子、磁気、光学、電磁、赤外線または半導体のシステム、器具、装置または前述の任意の好適な組み合わせであり得る。コンピュータ可読記憶媒体のより具体的な例(網羅的なリストではない)は以下のものを含むだろう。それらは、1つ以上のワイヤを有する電気的接続、携帯用コンピュータのディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、携帯用コンパクトディスク読み出し専用メモリ(CD−ROM)、光学記憶装置、磁気記憶装置または前述の任意の好適な組み合わせである。本明細書の文脈において、コンピュータ可読記憶媒体は、命令実行システム、器具または装置によって、またはこれらに関連して使用するためのプログラムを含むか、または記憶する、任意の有形の媒体であり得る。
【0043】
本開示の実施形態によると、本開示の態様については、方法、器具(システム)及びコンピュータプログラム製品のフローチャート図及び/またはブロック図に関する上述の通りである。フローチャート図及び/またはブロック図の各ブロックならびにフローチャート図及び/またはブロック図中のブロックの組み合わせは、コンピュータプログラム命令によって実行され得ると理解されるであろう。これらのコンピュータプログラム命令は、機械を製造するために汎用コンピュータ、専用コンピュータまたはその他のプログラムが可能なデータ処理装置の処理装置に提供されてよく、命令は、コンピュータの処理装置またはその他のプログラムが可能なデータ処理装置を介して実行され、フローチャート及び/またはブロック図またはブロックに特定された機能/行動の遂行を可能にする。このような処理装置は、汎用処理装置、専用処理装置、特定用途向け処理装置またはフィールド・プログラマブルプロセッサであるがこれらに限定されない。
【0044】
本開示の様々な実施形態によると、図面中のフローチャート及びブロック図は、構造、機能性ならびにシステム、方法及びコンピュータプログラム製品の可能な実装の操作を示す。この点において、フローチャートまたはブロック図における各ブロックは、モジュール、セグメントまたはコードの一部を表し、特定の論理関数(単数または複数)を実行するための、1つ以上の実行可能な命令を含む。いくつかの代替的な実施形態においては、ブロックに記された機能は、図中に記された順が狂うことがあり得ることに注目すべきである。例えば、連続して示された2つのブロックは、実際には、ほぼ同時に実行され得る。または、関連する機能性によって、ブロックは時に逆の手順で実行され得る。ブロック図及び/またはフローチャート図の各ブロック、ブロック図及び/またはフローチャート図中のブロックの組合せは、特定の機能や行動または特定の目的のハードウェアとコンピュータ命令の組合せを実行する、特定の目的のハードウェアをベースにしたシステムによって実行され得ることに注目すべきである。
【0045】
本発明は、特定の実施形態に関して上記に記載してきた。しかしながら、様々な修正や変更が、添付の特許請求の範囲に記述されているように、より広い精神と本発明の範囲から逸脱することなく成され得るということを、当業者は理解するであろう。例えば、これらに限定されないが、本明細書の記載の多くは、ユーザのジェスチャ及び/またはユーザの環境に関連したデータを取得し、処理し得る、特定の種類のセンサ及びアルゴリズムを意味するものの、当業者は、本明細書で記載されたシステム及び技術は他の種類のセンサ及びアルゴリズムに対して適用可能であることを理解するであろう。したがって、前述の明細書及び図面は、制限を意味するというよりも、むしろ例証として考慮されるべきである。
【0046】
上記は、本開示の実施形態を対象とするが、他の、及び、さらなる本開示の実施形態は、本発明の実施形態の基本的な範囲から逸脱しないで考案され得る。本発明の実施形態の範囲は、以下の特許請求の範囲により定められる。
図1
図2
図3A
図3B
図3C
図4A
図4B
図4C
図5A
図5B
図5C
図5D
図5E
図6
図7