IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

7401199情報処理装置、情報処理方法、およびプログラム
<>
  • -情報処理装置、情報処理方法、およびプログラム 図1
  • -情報処理装置、情報処理方法、およびプログラム 図2
  • -情報処理装置、情報処理方法、およびプログラム 図3
  • -情報処理装置、情報処理方法、およびプログラム 図4
  • -情報処理装置、情報処理方法、およびプログラム 図5
  • -情報処理装置、情報処理方法、およびプログラム 図6
  • -情報処理装置、情報処理方法、およびプログラム 図7
  • -情報処理装置、情報処理方法、およびプログラム 図8
  • -情報処理装置、情報処理方法、およびプログラム 図9
  • -情報処理装置、情報処理方法、およびプログラム 図10
  • -情報処理装置、情報処理方法、およびプログラム 図11
  • -情報処理装置、情報処理方法、およびプログラム 図12
  • -情報処理装置、情報処理方法、およびプログラム 図13
  • -情報処理装置、情報処理方法、およびプログラム 図14
  • -情報処理装置、情報処理方法、およびプログラム 図15
  • -情報処理装置、情報処理方法、およびプログラム 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-11
(45)【発行日】2023-12-19
(54)【発明の名称】情報処理装置、情報処理方法、およびプログラム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20231212BHJP
   G06F 3/04815 20220101ALI20231212BHJP
   G06T 7/00 20170101ALI20231212BHJP
【FI】
G06T19/00 C
G06F3/04815
G06T7/00 660B
【請求項の数】 17
(21)【出願番号】P 2019110204
(22)【出願日】2019-06-13
(65)【公開番号】P2020201863
(43)【公開日】2020-12-17
【審査請求日】2022-05-25
(73)【特許権者】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】110001243
【氏名又は名称】弁理士法人谷・阿部特許事務所
(72)【発明者】
【氏名】阿達 大地
【審査官】橘 高志
(56)【参考文献】
【文献】特開2010-193458(JP,A)
【文献】特開2019-009752(JP,A)
【文献】特開2014-106685(JP,A)
【文献】特表2009-539155(JP,A)
【文献】特開2013-232181(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
G06F 3/04815
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
異なる位置に配された複数の撮像装置により撮像された第1オブジェクトの画像に基づいて、3次元空間における前記第1オブジェクトの形状を表す第1三次元モデルを取得する第1取得手段と、
前記3次元空間における前記第1オブジェクトの位置を取得する第2取得手段と、
前記3次元空間における第2オブジェクトの形状を表す第2三次元モデルを取得する第3取得手段と、
前記3次元空間における前記第2オブジェクトの位置を取得する第4取得手段と、
前記第1オブジェクトの複数の部位を識別する識別手段と、
取得された前記第1三次元モデル及び前記第2三次元モデルと、前記複数の部位の識別結果とに基づいて、前記第1オブジェクトの特定の部位と前記第2オブジェクトとの接触を判定する判定手段と、
指定された仮想視点の位置及び向きに応じた仮想視点画像を、取得された前記第1三次元モデル及び前記第2三次元モデルに基づいて生成する生成手段と、
前記接触の判定結果に応じた情報を、生成された前記仮想視点画像に重畳させて表示装置に表示出力する出力手段と、
を有することを特徴とする情報処理装置。
【請求項2】
前記判定手段は、前記複数の撮像装置により撮像が行われる期間内の複数の時点にそれぞれ対応する複数の前記第1三次元モデルと、前記複数の時点にそれぞれ対応する複数の前記第2三次元モデルと、前記複数の部位の識別結果とに基づいて、前記期間内における前記第1オブジェクトの前記特定の部位と前記第2オブジェクトとの複数の接触を判定し、
前記出力手段は、判定された前記複数の接触の時間関係及び/又は位置関係に基づく情報を出力する、
ことを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記第1オブジェクトの前記特定の部位と前記第2オブジェクトとの接触の判定は、
取得された前記第1三次元モデル及び前記第2三次元モデルに基づいて前記第1オブジェクトと前記第2オブジェクトとの接触を判定することと、
前記第1オブジェクトと前記第2オブジェクトとの接触が判定された場合に、前記第1オブジェクトの前記複数の部位のうち前記第2オブジェクトに接触した部位を識別することと、
を含むことを特徴とする請求項1または2に記載の情報処理装置。
【請求項4】
前記第1オブジェクトの前記特定の部位と前記第2オブジェクトとの接触の判定は、
前記第1オブジェクトの前記複数の部位のうち識別された前記特定の部位に対応する前記第1三次元モデルの部分モデルを特定することと、
前記第1三次元モデルの前記特定された部分モデルと前記第2三次元モデルとの接触を判定することと、
を含むことを特徴とする請求項1または2に記載の情報処理装置。
【請求項5】
出力された前記情報は、前記接触の位置、向き、及び時刻の少なくとも何れかを示す情報を含むことを特徴とする請求項1から4のいずれか一項に記載の情報処理装置。
【請求項6】
出力された前記情報は、前記特定の部位を示す情報を含むことを特徴とする請求項1から4のいずれか一項に記載の情報処理装置。
【請求項7】
前記第1オブジェクトは、前記複数の撮像装置の撮像範囲内に位置する人物であり、
前記第2オブジェクトは、地面である、
ことを特徴とする請求項1から6のいずれか一項に記載の情報処理装置。
【請求項8】
前記特定の部位は、前記人物の足である、ことを特徴とする請求項7に記載の情報処理装置。
【請求項9】
出力された前記情報は、前記人物の歩幅を示す情報と、前記人物の接地時の足の向きを示す情報との、少なくとも何れかを含むことを特徴とする請求項に記載の情報処理装置。
【請求項10】
前記第2オブジェクトは、前記3次元空間内に設定された仮想的な平面であることを特徴とする請求項1乃至9のいずれか一項に記載の情報処理装置。
【請求項11】
前記複数の部位は、各部位の特徴に関する機械学習の結果に基づいて識別されることを特徴とする請求項1から10のいずれか一項に記載の情報処理装置。
【請求項12】
前記複数の部位は、UI画面を介して行われたユーザ入力に基づいて識別されることを特徴とする請求項1から10のいずれか一項に記載の情報処理装置。
【請求項13】
前記接触の判定結果に応じた前記情報は、表示装置へ出力されることを特徴とする請求項1乃至10のいずれか一項に記載の情報処理装置。
【請求項14】
異なる位置に配された複数の撮像装置により撮像された第1オブジェクトの画像に基づいて、3次元空間における前記第1オブジェクトの形状を表す第1三次元モデルを取得する第1取得ステップと、
前記3次元空間における前記第1オブジェクトの位置を取得する第2取得ステップと、
前記3次元空間における第2オブジェクトの形状を表す第2三次元モデルを取得する第3取得ステップと、
前記3次元空間における前記第2オブジェクトの位置を取得する第4取得ステップと、
前記第1オブジェクトの複数の部位を識別する識別ステップと、
取得された前記第1三次元モデル及び前記第2三次元モデルと、前記複数の部位の識別結果とに基づいて、前記第1オブジェクトの特定の部位と前記第2オブジェクトとの接触を判定する判定ステップと、
指定された仮想視点の位置及び向きに応じた仮想視点画像を、取得された前記第1三次元モデル及び前記第2三次元モデルに基づいて生成する生成ステップと、
前記接触の判定結果に応じた情報を、生成された前記仮想視点画像に重畳させて表示装置に表示出力する出力ステップと、
を含むことを特徴とする情報処理方法。
【請求項15】
前記判定ステップでは、前記複数の撮像装置により撮像が行われる期間内の複数の時点にそれぞれ対応する複数の前記第1三次元モデルと、前記複数の時点にそれぞれ対応する複数の前記第2三次元モデルと、前記複数の部位の識別結果とに基づいて、前記期間内における前記第1オブジェクトの前記特定の部位と前記第2オブジェクトとの複数の接触が判定され、
前記出力ステップでは、判定された前記複数の接触の時間関係及び/又は位置関係に基づく情報が出力される、
ことを特徴とする請求項14に記載の情報処理方法。
【請求項16】
前記生成ステップでは、指定された仮想視点の位置及び向きに応じた仮想視点画像を、取得された前記第1三次元モデル及び前記第2三次元モデルに基づいて生成し、
前記出力ステップでは、生成された前記仮想視点画像と前記接触の判定結果に応じた前記情報とが共に表示装置に表示されるように、前記仮想視点画像と前記情報とが出力される、
ことを特徴とする請求項14に記載の情報処理方法。
【請求項17】
コンピュータを、請求項1から13のいずれか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、オブジェクトの三次元モデルを解析する技術に関するものである。
【背景技術】
【0002】
複数のカメラを異なる位置に設置して同期撮像し、当該撮像により複数の視点で得られた複数の撮像画像を用いて仮想視点画像を生成する技術が注目されている。このような技術によれば、例えば、サッカーまたはバスケットボール等のハイライトシーンを様々な角度から視聴することができるため、通常の画像と比較してユーザに高臨場感を与えることが出来る。
【0003】
特許文献1には、複数のカメラを用いて取得した複数の撮像画像に基づいてオブジェクトの三次元モデルを生成し、当該三次元モデルを用いて仮想視点画像を生成する技術が記載されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2017-212592号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
サッカーの試合における選手の動きの解析など、所定のオブジェクトに関する解析を行うために、従来技術により生成されるオブジェクトの三次元モデルを用いることが考えられる。しかしながら、オブジェクトに関する解析の利便性をさらに向上させることが求められる。例えば、オブジェクトの三次元モデルを利用すれば、オブジェクトと地面との接触を判定できる。しかしながら、オブジェクトのどの部位が接触したかがわからなければ、選手の歩幅や足の向きなどを解析することはできない。
【0006】
本発明は上記課題に鑑み、オブジェクトに関する解析の利便性を向上させることを目的とする。
【課題を解決するための手段】
【0007】
本発明の一態様に係る情報処理装置は、異なる位置に配された複数の撮像装置により撮像された第1オブジェクトの画像に基づいて、3次元空間における前記第1オブジェクトの形状を表す第1三次元モデルを取得する第1取得手段と、前記3次元空間における前記第1のオブジェクトの位置を取得する第2取得手段と、前記3次元空間における第2オブジェクトの形状を表す第2三次元モデルを取得する第3取得手段と、前記3次元空間における前記第2のオブジェクトの位置を取得する第4取得手段と、前記第1オブジェクトの複数の部位を識別する識別手段と、取得された前記第1三次元モデル及び前記第2三次元モデルと、前記複数の部位の識別結果とに基づいて、前記第1オブジェクトの特定の部位と前記第2オブジェクトとの接触を判定する判定手段と、指定された仮想視点の位置及び向きに応じた仮想視点画像を、取得された前記第1三次元モデル及び前記第2三次元モデルに基づいて生成する生成手段と、前記接触の判定結果に応じた情報を、生成された前記仮想視点画像に重畳させて表示装置に表示出力する出力手段と、を有することを特徴とする。
【発明の効果】
【0008】
本発明によれば、オブジェクトに関する解析の利便性を向上させることができる。
【図面の簡単な説明】
【0009】
図1】システムの全体構成を示す図。
図2】情報処理装置のハードウェア構成図。
図3】情報処理装置の処理の流れを示すフローチャート。
図4】オブジェクトの三次元モデルを説明する図。
図5】接触箇所の三次元座標の集合を示す図。
図6】識別結果を説明する図。
図7】仮想視点画像に解析結果が重畳して表示されている例を示す図。
図8】システムの全体構成を示す図。
図9】情報処理装置の処理の流れを示すフローチャート。
図10】接触箇所の方向を説明する図。
図11】解析結果を示す画像の一例。
図12】解析結果の例を示す図。
図13】解析結果の画像を示す図。
図14】システムの全体構成を示す図。
図15】情報処理装置の処理の流れを示すフローチャート。
図16】モデル部位識別用UIの一例を示す図。
【発明を実施するための形態】
【0010】
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
【0011】
<<実施形態1>>
本実施形態では、サッカースタジアムに複数のカメラを設置し、それら複数のカメラによって撮像された複数の画像データを用いて生成される三次元モデルを解析するシステムを例に挙げて説明する。また、解析結果を仮想視点画像に重畳表示する例を説明する。
【0012】
<システムの全体構成>
図1は、本実施形態で用いられるシステムの全体構成を示す図である。システムは、複数のカメラ110、コントローラ120、サーバ130、画像生成装置140、記憶装置160、情報処理装置200、および表示装置300を有する。情報処理装置200は、モデル取得部210、接触箇所導出部220、モデル部位識別部230、および接触箇所処理部240を有する。情報処理装置200は、オブジェクトの部位の動きを解析する解析装置として機能する。なお、図1に示した構成は一例に過ぎず、図1に示した複数の装置の機能を集約した装置を有してもよい。また、例えば情報処理装置200の機能が複数の装置によって分散処理されてもよい。また、情報処理装置200と画像生成装置140とが同一の装置によって実現されてもよい。
【0013】
複数のカメラ110は、サッカーフィールド上のオブジェクトを複数の方向から撮像するように設置されている。複数のカメラ110は、撮像によって得られたそれぞれの撮像データを、ネットワークを介してサーバ130へ送信する。なお、複数のカメラ110は同一符号を用いて説明するが、性能および機種が異なっていてもよい。本実施形態では、カメラ110は、計26台のカメラで構成されるが台数はこれに限らない。
【0014】
サーバ130は、複数のカメラ110から送信される撮像データを用いて、前景オブジェクト(例えばサッカープレーヤーおよびボール)を抽出する。また、サーバ130は、ステレオ計測の原理から前景オブジェクトの三次元モデル180を生成し、ネットワークを介して記憶装置160に記憶する。また、サーバ130はあらかじめレーザースキャナの計測により得られる背景オブジェクト(サッカースタジアム、サッカーフィールド、およびサッカーゴール)の三次元モデル180を記憶装置160に記憶する。
【0015】
コントローラ120は、ネットワークを介して接続されている画像生成装置140にユーザの指示を送信するユーザインタフェース(UI)である。コントローラ120は、ユーザの操作に基づき仮想視点の位置、姿勢、および焦点距離の情報を生成し、画像生成装置140に送信する。
【0016】
画像生成装置140は、コントローラ120、記憶装置160、および情報処理装置200とネットワークを介して接続する。画像生成装置140は、記憶装置160に記憶されているオブジェクトの三次元モデル180およびコントローラ120からの情報に基づき、仮想視点画像を生成する。また、画像生成装置140は、情報処理装置200から送信された解析結果を重畳した画像を生成する。画像生成装置140は、表示装置300とネットワークまたはSDI(Serial Digital Interface)などの映像伝送経路を介して接続し、解析結果を仮想視点画像に重畳した画像を表示装置300に表示する。
【0017】
記憶装置160に記憶される三次元モデル学習データ170は、予めオブジェクト(本例では人間)の三次元モデルを、その部位とともに学習して作成されたデータである。三次元モデル学習データ170は、予め記憶装置160に記憶されているものとする。
【0018】
<情報処理装置の構成>
情報処理装置200のモデル取得部210は、記憶装置160とネットワークを介して接続し、オブジェクトの三次元モデル180を取得する。接触箇所導出部220は、前景オブジェクトの三次元モデルと背景オブジェクトの三次元モデルとの間の接触箇所を導出する。モデル部位識別部230は、三次元モデル学習データ170を取得し、前景オブジェクトの三次元モデル180の部位を識別する。接触箇所処理部240は、モデル部位識別部230で識別された部位の接触箇所を解析する解析部である。接触箇所処理部240は、ネットワークを介して接続されている画像生成装置140へ解析結果を送信する。
【0019】
図2は、情報処理装置200のハードウェア構成図である。情報処理装置200は、CPU201、ROM202、RAM203、記憶部204、及び通信部205を有する。
【0020】
CPU201は、情報処理装置200の全体を制御する中央演算ユニットであり、情報処理装置200の処理シーケンスを統括的に制御する。ROM202及び記憶部204は、後述する処理フローを実現するためのプログラムおよびデータを格納する。RAM203は、データの一時保存およびプログラムのロードに使用される。通信部205は、ネットワーク206を介した外部装置との間でデータ送受信を行う。通信部205は、接触箇所処理部240で解析した結果を画像生成装置140へ送信する。情報処理装置200の各構成要素は、バス207を介して相互に接続される。なお、情報処理装置200がCPU201とは異なる専用の1又は複数のハードウェアあるいはGPU(Graphics Processing Unit)を有してもよい。そして、CPU201による処理の少なくとも一部をGPUあるいは専用のハードウェアが行うようにしてもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(field programmable gate array)、またはDSP(デジタルシグナルプロセッサ)等がある。
【0021】
<フローチャート>
図3は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図3は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の仮想視点画像が表示装置300に表示される一連の処理を示している。図3のフローチャートで示される一連の処理は、CPU201がROM202に記憶されているプログラムコードをRAM203に展開し実行することにより行われる。あるいはまた、図3におけるステップの一部または全部の機能をASICまたは電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。
【0022】
S301においてモデル取得部210は、記憶装置160から所定の期間におけるオブジェクトの三次元モデル180を取得する。三次元モデルは、メッシュポリゴンまたは点群データとして表現され、オブジェクト(人または物)ごとに三次元モデルを記述するフォーマット、例えばWavefront OBJフォーマットで記述されたファイルを読み出すことで取得される。このように、三次元モデルは、所定のフォーマットで記述されたデータである。
【0023】
また、モデル取得部210は、背景オブジェクトの三次元モデルと前景オブジェクトの三次元モデルとを、区別して取得する。即ち、モデル取得部210は、接触対象のオブジェクト(ここでは前景オブジェクト)の三次元モデルと、被接触対象のオブジェクト(ここでは背景オブジェクト)の三次元モデルとを、区別して取得する。
【0024】
図4は、オブジェクトの三次元モデルを説明する図である。図4(a)は、所定の期間における、ある時点のオブジェクトの三次元モデルを示す図である。図4(b)は、当該時点のカメラ110の撮像画像を示す図である。図4(b)では、カメラ110a~110zのうち、代表的にカメラ110aの撮像画像とカメラ110kの撮像画像とを示している。図4(a)は、サッカーフィールド01のメッシュポリゴン、ならびに、選手02~05およびボール06を点群で表現した三次元モデルを含む。図4(a)は、それぞれオブジェクト(人または物)ごとにファイル単位で分割された三次元モデルを読み込むことで世界座標系の各位置に三次元モデルが現れる。なお、ここでは説明のために図示しているものであり、情報処理装置200が接続する不図示の表示部などに図4(a)に示す画面が表示されているものではない(もちろん、表示されてもよい)。図4(b)において像22~26は、それぞれ図4(a)の選手02~05およびボール06に対応している。
【0025】
S302においてモデル部位識別部230は、記憶装置160から三次元モデル学習データ170を取得する。三次元モデル学習データ170は、人体の距離画像と距離画像中の部位(頭、肩、右肘、左肘、右手、左手、腰、右膝、左膝、右足、左足)の位置および方向とを用いて予め学習されているデータである。この学習データは、例えばMicrosoft Kinect(登録商標)で用いられている公知の方法で作成されている。すなわち、様々な姿勢の人体の距離画像を入力として、距離画像中の画素と部位とを決定木を用いて教師あり学習することで作成されたデータである。なお、学習の方法についてはこれに限らず、ニューラルネットワークまたはサポートベクターマシンなどの回帰学習を用いてもよい。人体のほかにサッカーボールまたはラグビーボールを追加で学習させてもよい。また、本実施形態では距離画像を用いて学習したデータを用いるが、RGBカラー画像を用いて人体の部位を学習したデータを用いてもよい。なお、図3のフローチャートでは、S302で三次元モデル学習データ170を取得する例を示しているが、後述するS306のモデル部位を識別する処理の前に三次元モデル学習データ170が取得されていればよい。
【0026】
S303において接触箇所導出部220は、背景オブジェクトの三次元モデルと前景オブジェクトの三次元モデルとの間の接触計算を行い、接触が発生した箇所(以下、接触箇所という)を導出する。接触計算は、物理演算およびCGシミュレーションの分野で広く用いられているBlenderを用いることができる。なお、接触計算は、これに限らず、任意の手法を用いてよい。接触箇所は、世界座標系の三次元座標の集合で表現される。また、接触箇所導出部220は、接触箇所の三次元座標の集合をクラスタリングして、その集合の重心座標を求める。
【0027】
図5は、接触箇所の三次元座標の集合を示す図である。クラスタリングにより、集合は、4つのクラスタ11~14に区分される。各クラスタは、それぞれ重心座標が(x,y,z)=(-39.0,9.2,0)、(-37.8,12.7,0)、(-38.4,16.9,0)、(-37.1,19.4,0)として導出されている。接触箇所導出部220は、所定の期間の三次元モデルの接触計算を時刻ごとに行い、各時刻の接触箇所をそれぞれ導出する。
【0028】
S301で取得される三次元モデルは、オブジェクトごとのデータであるので、接触箇所導出部220は、各クラスタがどのオブジェクト(人物またはボール)に属するクラスタであるかも導出可能である。接触箇所導出部220によって導出された接触箇所の集合の重心座標は、オブジェクトを識別する情報と関連付けて時刻ごとのデータとしてRAM203に記憶される。
【0029】
S304において接触箇所導出部220は、接触計算の結果、接触箇所があるかを判定する。例えば、RAM203を参照して、接触箇所を表す三次元座標の数が0であるか、または0より大きいかを判定する。接触箇所がある場合、S306へ進む。接触箇所がない場合、S305に進む。
【0030】
S305において情報処理装置200は、画像生成装置140に仮想視点画像を生成させる。例えば情報処理装置200は、重畳すべきものがないことを示す指示を画像生成装置140に送信する。画像生成装置140は、コントローラ120から指定された仮想視点を示すパラメータ等に従って、所定の期間における仮想視点画像を生成し、表示装置300に表示させる。仮想視点画像は、仮想視点から見た画像をコンピュータグラフィックスの技術を用いることで生成することができる。この生成処理には公知の技術を適宜適用すればよい。そして、処理を終了する。
【0031】
S306においてモデル部位識別部230は、各三次元モデルの部位を、S302で取得した学習データを用いて識別する。識別の結果、各三次元モデルに属する点データが、いずれかの部位に関連付けられる。なお、S306の処理は、接触箇所以外の部位も識別する処理であるが、接触箇所の部位だけを識別する処理としてもよい。これにより、S304で導出した接触箇所のクラスタが、いずれの部位であるかが識別される。
【0032】
図6は、S306の識別結果を説明する図である。図6(a)は、部位識別の結果を示している。図6(b)は、部位ごとの接触箇所を時系列でテーブル情報として記憶した結果を示している。この例では、オブジェクト(選手)02~05の左足は、それぞれ02-01,03-01,04-01,05-01と識別IDを付けて識別される。オブジェクト02~05の右足は、それぞれ02-02,03-02,04-02,05-02と識別IDを付けて識別される。また、図6(b)に示すように、各部位の接触箇所の重心座標が、接触時刻と紐づけてRAM203に記憶される。なお、図示しないがオブジェクト02の頭、肩、右肘、左肘、右手、左手、腰、右膝、左膝は、それぞれ02-03,02-04,02-05,02-06,02-07,02-08,02-09,02-10,02-11として識別IDを付けて識別される。これらの接触箇所があれば、図6(b)のように、各部位の接触箇所の重心座標が、接触時刻と紐づけてテーブル情報としてRAM203に記憶される。
【0033】
S307において接触箇所処理部240は、RAM203に記憶されている接触箇所の解析を行い、解析結果を画像生成装置140へ送信する。本実施形態の接触箇所処理部240は、オブジェクトの歩幅を導出する。前述したように、モデル部位識別部230によって、特定のオブジェクト(例えばオブジェクト03)の左足および右足が識別されている。歩幅は、一方の足の接触終了位置から、他方の足の接触開始位置までの距離として求めることができる。そこで、接触箇所処理部240は、RAM203に記憶されているテーブル情報を参照して、第1注目部位03-02(オブジェクト03の右足)の接触終了から第2注目部位03-01(オブジェクト03の左足)の接触開始に至るまでの接触位置を特定する。そして、これらの接触位置間の距離を計算することで、第1注目部位03-02の接触終了位置(-36.2,12.3,0)から第2注目部位03-01の接触開始位置(-37.8,12.7,0)までの距離が導出される。本例では、オブジェクト03の歩幅が1.65mとして導出される。接触箇所処理部240は、このように求めた接触終了位置、接触開始位置、および歩幅の値を画像生成装置140へ送信する。上記の説明では、オブジェクト03を例に挙げて説明したが、各オブジェクトの接触箇所の解析処理が同様に行われてよい。なお、接触箇所処理部240によってどのような解析を行うのか(本例では、歩幅の解析)は、予め情報処理装置100にユーザからの指示が入力され、その指示に基づいて設定がされているものとする。
【0034】
S308において情報処理装置200は、解析結果を重畳した仮想視点画像を生成する指示を画像生成装置140に送信する。画像生成装置140は、この指示に従い、S305で説明した処理と同様に仮想視点画像を生成し、さらに、解析結果を仮想視点画像に重畳させた画像を表示装置300に表示させる。
【0035】
図7は、表示装置300において仮想視点画像に解析結果が重畳して表示されている例を示す図である。画像生成装置140は、接触箇所処理部240から送信された接触終了位置、接触開始位置、および歩幅の値を、所定の大きさの円と矢印のオブジェクトとを用いて仮想視点画像に重畳した画像を生成し、表示装置300に表示する。図7においては、オブジェクト03の地面との接触位置および歩幅が、その足元に表示される。なお、図7においては、簡略的にオブジェクト03の歩幅のみが表示されているに過ぎず、画像生成装置140は、接触箇所処理部240から送信された各オブジェクトの接触終了位置、接触開始位置、および歩幅の値を、同様に表示することができる。
【0036】
以上述べたように、本実施形態では、前景のオブジェクトの三次元モデルと、背景のオブジェクトの三次元モデルとの間の接触箇所を部位ごとに識別することで、オブジェクトの部位ごとの動きを容易に解析することができる。例えば、選手ごとに歩幅を導出し、仮想視点画像に重畳することができる。これにより特定のサッカー選手がプレー中にどれくらいの歩幅で移動しているかを容易に解析することができる。また、複数の選手のプレー中の動きを容易に解析することもできる。また、オブジェクトの部位ごとに識別がされているので、例えば地面に手をついたり、転倒してしまっていたりして生じた接触箇所が、誤って歩幅の導出に用いられてしまうことを抑制することができる。
【0037】
なお、本実施形態では背景オブジェクトのメッシュポリゴンと前景オブジェクトの点群との接触を計算したが、メッシュポリゴン同士、点群同士、または点群とメッシュポリゴンの組み合わせでもよい。また、接触箇所は、三次元座標の集合でなく、メッシュIDとテクスチャ座標とによって表現されてもよい。また、歩幅は、右足の接触箇所と左足の接触箇所との間の距離であるとして説明したが、右足同士の接触箇所、または、左足同士の接触箇所の距離として導出してもよいし、そのほかの部位の組み合わせでもよい。
【0038】
また、S307では肩または腰が地面と接触している場合に異常とみなして異常事態であることを記憶するとともに画像生成装置140にその情報を出力してもよい。そして、画像生成装置140は、仮想視点画像に所定の通知、例えば、異常事態であることを示す情報を重畳してもよい。
【0039】
また、画像生成装置140は、解析結果を仮想視点画像に重畳する例を説明したが、このとき全ての解析結果を重畳せず、一部の解析結果のみを重畳させてもよい。例えば、コントローラ120から解析対象とすべきオブジェクトの指定があった場合には、画像生成装置140は、指定されたオブジェクトの解析結果のみを仮想視点画像に重畳して表示してもよい。
【0040】
また、S307における解析処理および結果の送信は、解析対象の所定の期間の結果をまとめて画像生成装置140に送信し、画像生成装置140において、該当する時刻の画像に重畳表示する例を説明したが、これに限られない。例えば、S307における解析処理および結果の送信は、所定の期間における時刻ごとに都度、処理が行われてもよい。例えば、第1時刻における解析の結果、所定のオブジェクトに接触があった場合には、その解析処理の結果が画像生成装置140に送信されて、第1時刻の画像の所定のオブジェクト上に重畳表示が行われる。その後、第2時刻における解析の結果、接触がない場合には、重畳表示される解析結果は更新されず、そのまま第2時刻の画像に第1時刻の解析結果が重畳表示される。その後、第3時刻における解析の結果、所定のオブジェクトに再度の接触があった場合には、その解析処理の結果が画像生成装置140に送信されて、第3時刻の画像の所定のオブジェクト上に、第3時刻における解析結果の重畳表示が行われる。即ち、第1時刻の解析結果は、第2時刻には更新されず、第3時刻の解析結果で更新される。このように、解析結果を逐次追加表示してもよい。
【0041】
<<実施形態2>>
実施形態1では、解析によってオブジェクトの歩幅を求める例を中心に説明した。本実施形態では、解析によって接触箇所の部位の向き(例えば足の向き)を求める例について説明する。また、本実施形態では、仮想視点画像に解析結果を重畳表示せず、情報処理装置200が、解析結果を表示装置300に表示する例を説明する。また、本実施形態では、情報処理装置200のモデル取得部210が取得する三次元モデルが、実施形態1と異なり、オブジェクトごとのモデルデータでない場合の処理も併せて説明する。
【0042】
このように、本実施形態は、実施形態1と異なる構成および処理などを含んだものであるが、主な相違点は、解析の目的が相違する点である。他の点は、実施形態1と同様としてもよい。即ち、仮想視点画像に足の向きを重畳表示させてもよいし、モデル取得部210が取得する三次元モデルが実施形態1と同様に、オブジェクトごとのモデルデータであってもよい。実施形態1と同様の構成、処理フローについては説明を省略する。
【0043】
<システムの全体構成>
図8は、本実施形態のシステムの全体構成を示す図である。図8に示すシステムでは、図1に示したコントローラ120および画像生成装置140を有していない。接触箇所処理部240は、表示装置300とネットワークまたはSDIなどの映像伝送経路を介して接続し、接触箇所の向きの解析結果を画像として表示装置300に表示させる。
【0044】
本実施形態の記憶装置160に記憶されているオブジェクトの三次元モデル180は、実施形態1と異なり、前景オブジェクトに関してオブジェクトごとに区別されていないデータである。モデル取得部210は、ファイル読み出しによりオブジェクトの三次元モデル180を取得する。モデル取得部210は、被接触対象の背景オブジェクトの三次元モデルと接触対象の前景オブジェクトの三次元モデルとを、区別して取得する。
【0045】
本実施形態のモデル部位識別部230は、実施形態1と異なり、接触箇所の導出前にモデル部位の識別処理を行う構成となっているが、実施形態1と同様に、接触箇所の導出後にモデル部位の識別処理を行ってもよい。
【0046】
モデル部位識別部230は、前景オブジェクトの三次元モデルをオブジェクトごとに区別(分割)しながら、三次元モデル学習データ170に基づいて各オブジェクトの部位を識別する。接触箇所導出部220は、モデル部位識別部230によって識別されたオブジェクトの三次元モデル180の接触箇所を、モデル部位識別部230によって識別された部位ごとに導出する。接触箇所処理部240は、接触箇所の各部位を解析して、各部位の方向を三次元ベクトルとしてRAM203に記憶する。
【0047】
<フローチャート>
図9は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図9は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の解析結果が表示装置300に表示される一連の処理を示している。
【0048】
S901においてモデル取得部210は、所定の期間におけるオブジェクトの三次元モデル180を記憶装置160から取得する。本実施形態の三次元モデル180は、前景オブジェクトに関してオブジェクトごとに区別されていないデータである。
【0049】
S902においてモデル部位識別部230は、記憶装置160から三次元モデル学習データ170を取得する。実施形態1でも説明したように、三次元モデル学習データ170は、人体の距離画像と距離画像中の部位(頭、肩、右肘、左肘、右手、左手、腰、右膝、左膝、右足、左足)の位置および方向とを用いて予め学習されているデータである。即ち、三次元モデル学習データ170の各部位は、方向のデータを有するものである。例えば、足の部位の場合、かかとからつま先の方向を正の方向とするデータを有する。
【0050】
S903においてモデル部位識別部230は、モデル部位を識別する処理を行う。S903でモデル部位識別部230は、まずS901で取得された前景オブジェクトの三次元モデルをクラスタリングすることにより、データをオブジェクトごとに区別する。そしてモデル部位識別部230は、三次元モデル学習データ170を用いて各オブジェクトの部位を識別する。識別の結果、オブジェクトに属する点データは、いずれかの部位に関連付けられる。また、三次元モデル学習データ170中の各部位は方向のデータを有するので、モデル部位識別部230は、方向を示す三次元ベクトルを識別結果に関連付ける。
【0051】
なお、本実施形態でモデル取得部210が取得するオブジェクトの三次元モデル180は、オブジェクトごとに区別されていないデータである。このため、時間方向の動きを特定するため、モデル部位識別部230は、オブジェクト(全体)の重心を導出し、直前の時刻のオブジェクト重心位置との距離が最小になるように時間方向にオブジェクトを関連付けることでトラッキングする。これにより、時間方向の動きも特定することができ、実施形態1で説明したようなオブジェクトごとに区別されているデータを取得した状態と同等の状態となる。なお、オブジェクト(全体)の重心を導出する代わりに、部位ごとの重心を導出して、トラッキングしてもよい。
【0052】
S904において接触箇所導出部220は、区別され時間方向にトラッキングされたオブジェクトごとに、背景オブジェクトの三次元モデルと前景オブジェクトの三次元モデルと間の接触計算を行い、接触箇所を導出する。接触箇所導出部220は、導出した接触箇所に、オブジェクトと、オブジェクトの部位と、部位の方向と、を関連付けて時刻ごとのデータとしてRAM203に記憶する。
【0053】
なお、本実施形態では、モデル部位を識別した後に、接触箇所の導出を行う例を示しているが、実施形態1で説明したように、接触箇所の導出を行った後に、モデル部位を識別してもよい。接触箇所の導出およびモデル部位の識別が行われれば処理順はいずれでもよい(実施形態1についても同様である)。
【0054】
S905において接触箇所導出部220は、接触計算の結果、接触箇所があるかを判定する。例えば、RAM203を参照して、接触箇所に対応する部位の方向を示す数が0であるか、または0より大きいかを判定する。接触箇所がある場合、S906に進む。接触箇所がない場合、処理を終了する。
【0055】
S906において接触箇所処理部240は、接触箇所を解析する。接触箇所処理部240は、接触箇所の接触面内における方向を導出する。図10は、接触箇所の方向を説明する図である。図10(a)は、識別した部位の方向(例えば足の向き)を示す図であり、部位02-01、03-01の方向が、それぞれ三次元ベクトル02-01v、03-01vで示されている。同様に、部位02-02、03-02の方向が、それぞれ三次元ベクトル02-02v、03-02vで示されている。本例の三次元ベクトルは、単位ベクトルであり、方向のみの情報を現わしているものとする。即ち、図中の矢印は、単に方向を現わすものであり、大きさの情報を有していない。接触箇所処理部240は、図示しない他の接触箇所の部位についても方向を取得する。
【0056】
図10(b)は、接触面内における接触箇所と各部位の方向とを示す図である。図10(b)の接触面内には、クラスタ11およびクラスタ12が含まれている。クラスタ11は、部位02-01の接触部位に相当し、クラスタ12は、部位03-01の接触部位に相当する。接触箇所02-01,03-01の接触面内における方向は、三次元ベクトル02-01v、03-01vを接触面に射影することで、それぞれ(x、y、z)=(-0.25,0.68,0)、(-0.6,0.2,0)として導出される。この座標は、全オブジェクトで共通の世界座標であり、各クラスタの重心位置からの三次元ベクトル02-01v、03-01v(単位ベクトル)を接触面に射影することで導出される。本実施形態では、接触面は地面であるので、z軸は、「0」の値となる。なお、接触箇所の座標は、実施形態1で説明したように、接触箇所導出部220によって導出されているものとする。
【0057】
図10(c)は、接触箇所の方向を時刻とともに記憶したテーブルである。接触箇所処理部240は、解析処理の結果、図10(c)に示すような情報をRAM203に記憶する。図10(c)に示すテーブルにおいて、時刻06:32:06.25の解析結果が、図10(b)に示す接触面内における部位の方向に該当する。このように、接触箇所処理部240は、時刻ごとの接触箇所の部位の方向を解析して、結果を記憶する。なお、図示していないが、実施形態1で説明したように、各クラスタの集合の重心位置が時刻とともにRAM203に記憶されていてもよい。
【0058】
S907において接触箇所処理部240は、解析結果を示す画像を生成して、表示装置300へ画像を送信する。表示装置300は、送信された画像を表示する。図11は、解析結果を示す画像の一例である。接触箇所処理部240は、オブジェクトごとに接触箇所を時系列で描画するとともに、各接触箇所の方向と時刻とを矢印およびテキストで表示する画像を生成する。また、オブジェクトごとに時系列の接触箇所を矩形で囲み、オブジェクト番号(図11では、「02」および「03」)を付与する。接触箇所処理部240は、こうして生成した画像を表示装置300へ送信し表示する。なお、この例では、解析対象期間は、時刻06:32:05.32から時刻06:32:06.25である例を示している。
【0059】
本実施形態では、三次元ベクトルは、方向の情報のみを用いる例を説明したが、各部位を時間方向にトラッキングして速度を導出してもよい。そして、導出した速度を用いて三次元ベクトルの大きさとしてもよい。この場合、接触箇所ごとに、接触直前の速度または前回接触からの平均速度(または最大速度)を関連付けて記憶すればよい。
【0060】
以上説明したように、本実施形態によれば、接触箇所の向きを導出し、図示して表示することで、例えば特定のサッカー選手のプレー中の足の向きを容易に解析することができる。
【0061】
なお、解析結果の表現方法は上記に限らず、複数時刻の解析結果を動画形式で逐次表示してもよいし、各部位の方向と接触箇所の方向とを同時に三次元的に描画してもよい。また、実施形態1で説明した接触部位の動き(歩幅)と合わせて、接触箇所の位置および方向を仮想視点画像に重畳表示してもよい。
【0062】
<<実施形態3>>
実施形態1および2においては、サッカー選手の足の歩幅または足の向きを解析する例を中心に説明した。本実施形態では、競輪における選手および自転車の動きとゴールシーンとを解析する例を述べる。即ち、接触対象が、人間ではない例を説明する。
【0063】
以下では、実施形態2と同様の構成および処理フローを元に説明を行うものとする。なお、実施形態1と同様の構成および処理フローに従って処理を行ってもよい。以下、実施形態2との相違部分を中心に説明を行う。
【0064】
本実施形態におけるオブジェクトの三次元モデル180は、前景オブジェクト(選手および自転車)の三次元モデルおよび背景オブジェクトの三次元モデルに加え、仮想的なゴールライン上の垂直面(ゴール面と呼ぶ)のメッシュポリゴンモデルを含む。ゴール面は、背景オブジェクトの一種として扱われる。
【0065】
本実施形態における三次元モデル学習データ170は、自転車および自転車上の選手の三次元モデルを学習したデータを含む。自転車の部位は、前輪、後輪、その他、の3つに分けて学習して得られたデータである。
【0066】
本実施形態における接触箇所の解析結果は、自転車の前輪および後輪の接触箇所となる。また、本実施形態では、接触対象の前景オブジェクトと非接触対象のゴール面との接触箇所も解析する。ゴール面の接触箇所を解析することで先着したオブジェクトを解析することができる。本実施形態では、S906において上記の解析が行われる。
【0067】
S907で接触箇所処理部240は、S906の解析の結果を表示装置300に送信する。図12は、表示装置300に表示される解析結果の例を示す図である。図12に示すように、前輪および後輪の接触箇所が、所定の時間間隔、例えば0.5秒ごとに接触面に描画され、方向を示す矢印およびテキストを付与して解析結果画像として表示される。
【0068】
図13は、解析対象の所定の期間にゴール面を通過する期間が含まれている場合の解析結果の画像を示す図である。図13(a)は、ゴール面におけるオブジェクトの様子を示す図である。図13(b)は、ゴール面内における接触箇所を示す。ゴール面09に接触箇所がある場合、接触箇所処理部240は、ゴール面09内の接触箇所18に、オブジェクト番号「08」または選手の背番号「2」をテキストとして付与して別途解析結果画像として表示する。
【0069】
以上述べたように、本実施形態によれば、人物が直接地面に足を接触させる以外の競技においても、接触部位の動きを解析することができる。即ち、競輪における選手および自転車の動きとゴールシーンとを解析することができる。また、競輪に限らず、競馬などのレース競技においても同様の解析をすることができる。
【0070】
<<実施形態4>>
実施形態1から3においては、三次元モデル学習データ170を取得し、三次元モデルと学習データとを比較することでモデル部位を識別する例を中心に説明した。本実施形態では、学習データを用いずにモデル部位の識別を行う例を説明する。本実施形態では、ユーザが、入力デバイスを用いてモデル部位を指定するものとする。なお、モデル部位の動きを解析するには、解析対象となる所定の期間において、時系列上の代表時点でそれぞれモデル部位が特定されている必要がある。本実施形態では、ユーザは、時系列上の代表時点それぞれでモデル部位を指定する必要はなく、所定の時点でモデル部位を指定すればよいものとして説明する。
【0071】
図14は、本実施形態におけるシステムの全体構成を示す図である。以下、実施形態2と異なる点を中心に説明する。なお、実施形態1で説明したように、解析結果を仮想視点画像に表示させる形態としてもよい、本実施形態の記憶装置160は、学習データを記憶していない。本実施形態のシステムは、実施形態2の構成と比べて、入力デバイスである部位指定コントローラ190と、第2の表示装置310とをさらに有している。部位指定コントローラ190は、情報処理装置200のモデル部位識別部230に指示を出力する。モデル部位識別部230は、第2の表示装置310の表示を制御する。
【0072】
部位指定コントローラ190は、例えばマウスである。ユーザは、第2の表示装置310に表示されるオブジェクトの三次元モデル180上の部位と方向とを、マウスドラッグで指定する。モデル部位識別部230は、部位指定コントローラ190とネットワークを介して接続し、ユーザが部位をクリックで指定するためのユーザインタフェース画面を生成する。また、モデル部位識別部230は、第2の表示装置310とネットワークまたはSDIなどの映像伝送経路を介して接続し、ユーザが部位を指定するためにオブジェクトの三次元モデルを描画した画像を第2の表示装置310に表示させる。即ち、モデル部位識別部230は、第2の表示装置310の表示を制御する表示制御部として機能する。なお、図14では、2つの表示装置を有する例を示しているが、モデル部位識別部230が接続する第2の表示装置310と、接触箇所導出部220が接続する表示装置300とは、同じ装置でもよい。
【0073】
図15は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図15は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の解析結果が表示装置300に表示される一連の処理を示している。
【0074】
S1501においてモデル取得部210は、記憶装置160から所定の期間におけるオブジェクトの三次元モデル180を取得する。本実施形態の三次元モデル180は、前景オブジェクトに関してオブジェクトごとに区別されていないデータである。
【0075】
S1502においてモデル部位識別部230は、モデル部位識別用のUIを生成する。まず、モデル部位識別部230は、まず前景オブジェクトの三次元モデルをクラスタリングによりオブジェクトごとに区別する。そして、モデル部位識別部230は、オブジェクトごとにモデル部位識別用UIを生成し、オブジェクトの三次元モデルの描画結果(画像データ)とともに第2の表示装置310へ出力する。
【0076】
図16は、モデル部位識別用UIの一例を示す図である。図16では、部位指定コントローラ190が情報処理装置200に接続されており、情報処理装置200と第2の表示装置310とが接続されている例を模している。また、図16では、第2の表示装置310に表示されているモデル部位識別用UI画面を示している。モデル部位識別用UI画面は、オブジェクトの三次元モデルの画像を表示する領域と、ユーザからの指定を受け付ける受付領域とを含む。
【0077】
S1503においてモデル部位識別部230は、モデル部位識別用UI画面を通じてユーザによって指定された指示を用いてモデル部位を識別する。ユーザは、モデル部位識別用UI画面を見ながら次の手順で部位を指定する。まず、プルダウンボタン311をクリックし部位「右足」を選択する。次にユーザは、「右足」と認識している部位の始点から終点まで(部位の範囲)をドラッグする。この例では、点pから点qまでドラッグするものとする。この点pおよびqは、オブジェクト上の三次元の点である。モデル部位識別部230は、指定された点pに隣接する点を所定の数、例えば1000点になるまで連鎖的に選択して部位02-02と決定する。また、モデル部位識別部230は、点pからqへ向かうベクトルを、選択中の部位「右足」の方向02-02vとして導出する。ユーザは、上記作業を、部位を選択しながら全ての部位について行い、最後に「進む」または「戻る」ボタンをクリックしてオブジェクトを切り替える。以上の作業を全オブジェクトの全ての部位について繰り返すことで、モデル部位識別部230は、部位を識別することができる。
【0078】
さらに本実施形態においてモデル部位識別部230は、オブジェクトごとに重心を導出し、直前または直後の時刻のオブジェクト重心位置との距離が最小になるように時間方向にオブジェクトを関連付けることでトラッキングを行う。また、直前または直後のオブジェクト同士の三次元モデルをICP(Iterative Closest Point)アルゴリズムで位置合わせして各部位を対応付けることで各部位のトラッキングを行う。また、点p、qについてもICPによりトラッキングされる。これによりユーザは、ある時刻においてのみ手動で部位を指定することで、その他の時刻については、モデル部位識別部230が部位および部位の方向をトラッキングして自動で指定することができる。
【0079】
即ち、本実施形態では、ユーザによる手動でのオブジェクトの部位を指定する動作が行われることになるが、これらの指定は、解析対象の所定の期間を通じて、1回の指定で済む。即ち、時刻ごとに、ユーザがオブジェクトの部位を指定する動作を行わなくて済む。S1504~S1507の処理は、実施形態2で説明したS904~S907の処理と同等の処理であるので、ここでの説明は省略する。
【0080】
以上説明したように、本実施形態によれば、モデル部位識別用UIを生成し、ユーザが部位を識別することで、学習データを用いずにモデル部位の識別を行うことができる。また、ユーザによる部位の指定は、時間ごとに行わなくてよいので、ユーザの煩雑な作業も抑制することができる。
【0081】
<<その他の実施形態>>
実施形態1または2では、選手と地平面との接触箇所を解析したが、他の三次元モデル間での接触を解析してもよい。例えば、ボールと肩、右肘、左肘、右手、または左手のいずれかとの接触がある場合にペナルティとみなして記憶するとともに、仮想視点画像に重畳してもよい。即ち、前景オブジェクト同士の接触箇所を解析してもよい。接触対象の三次元モデルと、被接触対象の三次元モデルとの接触箇所の解析ができればよい。また、選手同士の接触箇所を解析してもよい。この場合、選手Aおよび選手Bの部位をそれぞれ識別し、接触した部位を解析して特定する形態でもよい。他にも、歩幅および時間間隔から速度を導出して記憶し、表示してもよい。
【0082】
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
【符号の説明】
【0083】
200 情報処理装置
210 モデル取得部
220 接触箇所導出部
230 モデル部位識別部
240 接触箇所処理部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16