IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パッシブロジック,インコーポレイテッドの特許一覧

特表2024-5401442Dスキャンと3Dスキャンを使用した環境特徴のキャプチャ
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-10-31
(54)【発明の名称】2Dスキャンと3Dスキャンを使用した環境特徴のキャプチャ
(51)【国際特許分類】
   G06T 19/00 20110101AFI20241024BHJP
   G06T 7/55 20170101ALI20241024BHJP
   G06T 7/174 20170101ALI20241024BHJP
【FI】
G06T19/00 600
G06T7/55
G06T7/174
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024525539
(86)(22)【出願日】2022-08-25
(85)【翻訳文提出日】2024-04-26
(86)【国際出願番号】 US2022041528
(87)【国際公開番号】W WO2023028231
(87)【国際公開日】2023-03-02
(31)【優先権主張番号】17/459,084
(32)【優先日】2021-09-15
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】524016644
【氏名又は名称】パッシブロジック,インコーポレイテッド
(74)【代理人】
【識別番号】100118902
【弁理士】
【氏名又は名称】山本 修
(74)【代理人】
【識別番号】100106208
【弁理士】
【氏名又は名称】宮前 徹
(74)【代理人】
【識別番号】100196508
【弁理士】
【氏名又は名称】松尾 淳一
(72)【発明者】
【氏名】メイナーズ,ジャスティン
【テーマコード(参考)】
5B050
5L096
【Fターム(参考)】
5B050BA09
5B050CA07
5B050DA04
5B050DA05
5B050EA07
5B050FA05
5B050FA10
5L096AA09
5L096CA04
5L096CA05
5L096DA02
5L096FA66
5L096FA67
5L096FA69
5L096FA77
(57)【要約】
環境の3次元メッシュのキャプチャ時に、対話式に3次元メッシュ環境内に注釈を配置するためにユーザ入力と機械学習との組合せが使用される。完全メッシュが組み立てられると、3次元メッシュのどの部分が関心特徴を構成するかを検出するために注釈が使用される。これらの結果から、間取図の2D画像などの追加の特徴を導出することができる。
【選択図】図4A
【特許請求の範囲】
【請求項1】
空間の画像において関心領域を検出する方法であって、
デバイスに装着された深度センサーによってキャプチャされた複数の深度測定値を取得するステップであって、前記複数の深度測定値が3次元格子を使用して前記深度センサーから前記空間内のそれぞれの点までの距離を定義する、複数の深度測定値を取得するステップと、
それらの深度測定値を前記空間の一部であると宣言するステップと、
前記3次元格子の2次元を使用する機械学習認識システムによってキャプチャされた、前記空間の前記一部の前記画像内の検出関心領域を取得するステップと、
2次元検出関心領域を作成するために、2次元において前記検出関心領域を前記3次元格子にマッピングするステップと、
前記空間の完成深度測定3次元格子を取得するステップと、
投影3次元形状を作成するために前記検出関心領域を前記空間の前記完成深度測定3次元格子に投影するステップと、
前記投影3次元形状と前記空間の前記完成深度測定3次元格子との交差部を関心領域として見つけるステップとを含む、方法。
【請求項2】
前記機械学習認識システムが2Dカメラに関連付けられ、前記3次元格子の前記2次元が前記2Dカメラによって作成された2D格子から変換される、請求項1に記載の方法。
【請求項3】
前記空間の前記一部における検出関心領域を取得するステップが、前記2D格子の表現の表面上への注釈配置を受け付けるステップを含む、請求項2に記載の方法。
【請求項4】
投影3次元形状を作成するために前記2次元検出関心領域を前記空間の前記完成深度測定3次元格子に投影するステップが、前記注釈配置を使用して前記3次元格子と交差する射線を作成し、それによっていくつかの交点を作成するステップを含む、請求項3に記載の方法。
【請求項5】
壁部分を作成するために前記交点の隣接面が識別される、請求項4に記載の方法。
【請求項6】
前記壁部分が、マーカーが前記空間の内部を指した状態でz軸に沿って平坦化され、それによって空間内で方向づけられた2Dマーカーを作成する、請求項5に記載の方法。
【請求項7】
複数の2Dマーカーがあり、前記空間内で方向づけられた前記複数の2Dマーカーが、前記空間の2D輪郭を作成するように延長される、請求項6に記載の方法。
【請求項8】
前記2D格子の表現の表面上にマーカーを配置して前記注釈配置に関連付けられた壁をマークするステップをさらに含む、請求項3に記載の方法。
【請求項9】
前記空間の前記一部における検出関心領域を取得するステップが、前記3次元格子の2次元の変換を使用する画像認識ソフトウェアとともに2次元カメラを使用して前記検出関心領域をキャプチャするステップを含む、請求項1に記載の方法。
【請求項10】
前記3次元格子の2次元を使用する画像認識ソフトウェアとともに2次元カメラを使用して前記検出関心領域をキャプチャするステップが、物体の角に対応する少なくとも3つの点をキャプチャするステップをさらに含む、請求項9に記載の方法。
【請求項11】
マークされた関心領域を有する空間の3Dスキャンを生成するシステムであって、
3次元の空間の一部をスキャンして3Dスキャン部分を作成するように動作可能であり、空間全体をスキャンして全体3Dスキャンを作成するように動作可能な3Dスキャナと、
前記3Dスキャナに動作可能に接続された2Dスキャナであって、2Dスキャン内で関心領域を検出するために機械学習を使用するように動作可能であり、前記3Dスキャン部分から前記3次元のうちの2次元を使用して前記2Dスキャンにおける前記関心領域をマークするように動作可能な2Dスキャナと、
射線を作成するために前記3Dスキャン部分のうちの2次元によって前記2Dスキャン内の前記関心領域をマークするように動作可能な結合器と、
前記関心領域がマークされた空間の3Dスキャンを作成するために前記全体3Dスキャンによって前記射線を位置づけるように動作可能な後処理器とを含む、システム。
【請求項12】
前記関心領域が壁、ドア、窓または機器を含む、請求項11に記載のシステム。
【請求項13】
前記後処理器が、前記射線を第3次元軸に沿って前記全体3Dスキャンと交差させることによって壁部分を判定するように動作可能な、請求項12に記載のシステム。
【請求項14】
関心領域のキャプチャのための命令を記憶する非一過性のコンピュータ可読記憶媒体であって、前記命令がプロセッサによって実行されると前記プロセッサに、
デバイスに取り付けられたLiDARシステムによって、空間の部分3Dスキャンを受け取るステップと、
前記デバイスに取り付けられた2Dカメラによって2D検出関心領域を受け取るステップと、
前記部分3Dスキャン内の前記2D検出関心領域をマークして2DマークROIを作成するステップと、
完成3Dスキャンを受け取るステップと、
前記完成3Dスキャンにおいて前記2DマークROIの交差部を、マークされた関心領域としてマークするステップと、を含むステップを行わせる、非一過性のコンピュータ可読記憶媒体。
【請求項15】
前記デバイスに取り付けられた2Dカメラによって2D検出関心領域を受け取るステップが、前記2D検出関心領域をマークする2Dユーザ入力を受け付けるステップを含む、請求項14に記載の非一過性のコンピュータ可読記憶媒体。
【請求項16】
前記デバイスに取り付けられた2Dカメラによって第2の2D検出関心領域を受け取るステップと、
2次元において前記部分3Dスキャン内の前記第2の2D検出関心領域をマークするステップと、
前記第2の2D検出関心領域を前記完成3Dスキャンと交差させて第2の3Dスキャン交差部を作成するステップと、
前記第2の3Dスキャン交差部を第2のマークされた2D関心領域としてマークするステップと、
延長2D検出関心領域と第2の延長2D検出関心領域とを作成するために、前記2D検出関心領域と前記マークされた第2の2D検出関心領域とを交点まで延長するステップと、
前記延長2D検出関心領域と前記第2の延長2D検出関心領域とを壁間取図部分としてマークするステップと、をさらに含む、請求項15に記載の非一過性のコンピュータ可読記憶媒体。
【請求項17】
前記2D検出関心領域を前記完成3Dスキャンと交差させて3Dスキャン交差部を作成するステップが、前記完成3Dスキャン内で類似の向きを有する隣接面を識別するステップをさらに含み、前記2D検出関心領域を前記完成3Dスキャンと交差させて3Dスキャン交差部を作成するステップが、前記壁間取図部分を2Dマーカーに平坦化するステップを含む、請求項16に記載の非一過性のコンピュータ可読記憶媒体。
【請求項18】
2D検出関心領域を受け取るステップが、関心領域を検出するために、前記デバイスに取り付けられた2Dカメラからのカメラフィードを使用する機械学習画像認識システムを含む、請求項17に記載の非一過性のコンピュータ可読記憶媒体。
【請求項19】
前記第2の2D検出関心領域を前記完成3Dスキャンと交差させて第2の3Dスキャン交差部を作成するステップが、
前記完成3Dスキャン上で表面を探索するステップと、
3つのユーザ関心点の3D延長部を作成して前記完成3Dスキャンの前記表面に対して90°の射線の周囲の領域をマークするステップと、
前記3つのユーザ関心点の前記3D延長部の前記完成3Dスキャンとの交差部を前記関心領域としてマークするステップとを含む、請求項18に記載の非一過性のコンピュータ可読記憶媒体。
【請求項20】
前記2D検出関心領域が、壁、ドア、窓、本棚、机、照明器具、テーブルまたはセンサーの2D表現である、請求項14に記載の非一過性のコンピュータ可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
(1)本開示は、建物のスキャンから特徴を抽出すること、より詳細には、連携する2次元スキャンと3次元スキャンとを使用した特徴抽出に関する。
【背景技術】
【0002】
【発明の概要】
【0003】
(2)本概要は、「発明を実施するための形態」の項で詳述されている一連の概念を簡略化された形態で概説するために示されている。本概要は、特許請求される主題の必要または必須の特徴を特定しない。革新は特許請求の範囲によって定義され、本概要が特許請求の範囲と矛盾するところでは、特許請求の範囲が優先する。
【0004】
(3)一般に、本明細書に記載のいくつかの技術は、2Dスキャンと3Dスキャンとを使用した環境特徴のキャプチャについて説明している。
(4)実施形態において、空間の画像において関心領域を検出する方法であって、方法は、デバイスに装着された深度センサーによってキャプチャされた複数の深度測定値を取得することであって、複数の深度測定値が3次元格子を使用して深度センサーから空間内のそれぞれの点までの距離を定義する、複数の深度測定値を取得することと、それらの深度測定値を空間の一部であると宣言することと、3次元格子の2次元を使用する機械学習認識システムによってキャプチャされた、空間の一部の画像内の検出関心領域を取得することと、2次元検出関心領域を作成するために、2次元において検出関心領域を3次元格子にマッピングすることと、空間の完成深度測定3次元格子を取得することと、投影3次元形状を作成するために2次元検出関心領域を空間の完成深度測定3次元格子に投影することと、投影3次元形状と空間の前記完成深度測定3次元格子との交差部を関心領域として見つけることとを含む、方法が開示される。
【0005】
(5)実施形態において、関心領域は壁または窓である。
(6)実施形態において、部屋の一部の検出領域を取得することが、2次元格子の表現の表面上の注釈配置を受け付けることを含む。
【0006】
(7)実施形態において、投影3次元形状を作成するために2次元検出関心領域を空間の完成深度測定格子上に投影することが、注釈配置を使用して3次元格子と交差する射線を作成し、それによって交点を作成することを含む。
【0007】
(8)実施形態において、壁部分を作成するために交点の隣接面が識別される。
(9)実施形態において、壁部分が、マーカーが空間の内部を指した状態でz軸に沿って平坦化され、それによって空間内で方向づけられた2Dマーカーが作成される。
【0008】
(10)実施形態において、複数の2Dマーカーがあり、空間内で方向づけられた複数の2Dマーカーが、空間の2D輪郭を作成するように延長される。
(11)実施形態において、方法は、2次元格子の表現の表面上にマーカーを配置して注釈に関連付けられた壁をマークすることをさらに含む。
【0009】
(12)実施形態において、部屋の一部における検出関心領域を取得することが、3次元格子の2次元の変換を使用する画像認識ソフトウェアとともに2次元カメラを使用して検出関心領域をキャプチャすることを含む。
【0010】
(13)実施形態において、3次元格子の2次元を使用する画像認識ソフトウェアとともに2次元カメラを使用して検出関心領域をキャプチャすることが、物体の角に対応する少なくとも3つの点をキャプチャすることをさらに含む。
【0011】
(14)実施形態において、マークされた関心領域を有する空間の3Dスキャンを生成するシステムであって、3次元の空間の一部をスキャンして3Dスキャン部分を作成するように動作可能であり、空間全体をスキャンして全体3Dスキャンを作成するように動作可能な3Dスキャナと、3Dスキャナに動作可能に接続された2Dスキャナであって、2Dスキャン内で関心領域を検出するために機械学習を使用するように動作可能であり、3Dスキャン部分から3次元のうちの2次元を使用して2Dスキャンにおける関心領域をマークするように動作可能な2Dスキャナと、射線を作成するために3Dスキャン部分のうちの2次元によって2Dスキャン関心領域をマークするように動作可能な結合器と、関心領域がマークされた空間の3Dスキャンを作成するために全体3Dスキャンによって射線を位置づけるように動作可能な後処理器とを含む、システムが開示される。
【0012】
(15)実施形態において、意味特徴が壁、ドア、窓または機器を含む。
(16)実施形態において、後処理器は、射線を第3次元軸に沿って全体3Dスキャンと交差させることによって壁部分を判定するように動作可能である。
【0013】
(17)実施形態において、関心領域のキャプチャのための命令を記憶する非一過性のコンピュータ可読記憶媒体であって、命令がプロセッサによって実行されるとプロセッサに、デバイスに取り付けられたLiDARシステムによって、空間の部分3Dスキャンを受け取るステップと、デバイスに取り付けられた2Dカメラによって2D検出関心領域を受け取るステップと、部分3Dスキャン内の2D検出関心領域をマークして2DマークROIを作成するステップと、完成3Dスキャンを受け取るステップと、完成3Dスキャン交差部において2DマークROIを、関心領域としてマークするステップと、を含むステップを行わせる、非一過性のコンピュータ可読記憶媒体が開示される。
【0014】
(18)実施形態において、デバイス上に取り付けられた2Dカメラによって2D検出関心領域を受け取ることが、2D検出関心領域をマークする2Dユーザ入力を受け付けることを含む。
【0015】
(19)実施形態において、プロセッサはさらに、デバイス上に取り付けられた2Dカメラによって第2の2D検出関心領域を受け取るステップと、2次元において部分3Dスキャン内の第2の2D検出関心領域をマークするステップと、第2の2D関心領域を完成3Dスキャンと交差させるステップと、第2の3Dスキャン交差部を第2の関心領域としてマークするステップと、延長2D検出関心領域と第2の2D検出関心領域とを作成するように、2D検出関心領域と第2の2D検出関心領域とを交点まで延長するステップと、延長2D検出関心領域と第2の2D検出関心領域とを壁間取図部分としてマークするステップとを行う。
【0016】
(20)実施形態において、2D検出関心領域を完成3Dスキャンと交差させて3Dスキャン交差部を作成することが、完成3Dスキャン内の類似の向きを有する隣接面を識別することをさらに含み、2D検出関心領域を完成3Dスキャンと交差させて3Dスキャン交差部を作成することが、壁間取図部分を2Dマーカーに平坦化することをさらに含む。
【0017】
(21)実施形態において、2D検出関心領域を受け取ることが、関心領域を検出するためにデバイス上に取り付けられた2Dカメラからのカメラフィードを使用する機械学習画像認識システムを含む。
【0018】
(22)実施形態において、第2の2D検出関心領域を3Dスキャンと交差させて3Dスキャン交差部を作成することが、完成3Dスキャン上で表面を探索することと、完成3Dスキャンの表面に対して90°の射線の周囲の領域をマークする3つのユーザ関心点の3D延長部を作成することと、3つのユーザ関心点の3D延長部の完成3Dスキャンとの交差部を関心領域としてマークすることとを含む。
【0019】
(23)実施形態において、関心領域は、壁、ドア、窓、本棚、机、照明器具、テーブルまたはセンサーである。
(24)本発明の上記およびその他の態様は、以下の説明および添付図面とともに検討すればよりよく認識および理解されるであろう。以下の説明は、実施形態のうちの様々な実施形態およびその多くの具体的詳細を示しているが、例示として示されるものであり、限定ではない。実施形態の範囲内で多くの置換、修正、追加または配置変更が行われてもよく、実施形態にはそのようなすべての置換、修正、追加または配置変更が含まれる。
【0020】
(25)本実施形態のうちの非限定的および非網羅的実施形態について以下の図面を参照しながら説明するが、特に明記されていない限り、様々な図面を通じて同様の参照番号は同様の部分を指す。
【図面の簡単な説明】
【0021】
図1】(26)非構造化データアーチファクトを示すLIDARスキャンを示す図である。
図2】(27)スキャニングデバイスのいくつかの特徴の例示の実施形態を示す機能ブロック図である。
図3】(28)特定の記載の実施形態による、2Dスキャンと3Dスキャンとを使用して建物の特徴をキャプチャする方法を示すフローチャートである。
図4A】(29)特定の記載の実施形態による、カメラシステムからの入力を使用する機械学習アルゴリズムによって検出可能な例示の関心領域の映像400Aを示す図である。
図4B】(30)特定の記載の実施形態による、3次元射線に置き換えられた2次元注釈を有する図4Aに示す関心領域を示す図である。
図4C】(31)特定の記載の実施形態による、壁を通って投影するコーンを有する図4Aに示す関心領域を示す図である。
図5A】(32)特定の記載の実施形態による、例示のタッチセンシティブ表面の映像を示す図である。
図5B】特定の記載の実施形態による、例示のタッチセンシティブ表面の映像を示す図である。
図5C】特定の記載の実施形態による、例示のタッチセンシティブ表面の映像を示す図である。
図5D】特定の記載の実施形態による、例示のタッチセンシティブ表面の映像を示す図である。
図6】(33)特定の記載の実施形態によるマルチルームスキャンセッションを示す図である。
図7】(34)図7Aは、特定の記載の実施形態による、3Dメッシュスキャンのスライスを示す図である。 (35)図7Bは、間取図が描き込まれた3Dメッシュスキャンのスライスを示す図である。
図8A】(36)特定の記載の実施形態による、3Dモデル内の元の射線位置から投射されている射線を示す図である。
図8B】特定の記載の実施形態による、3Dモデル内の元の射線位置から投射されている射線を示す図である。
図8C】(37)特定の記載の実施形態による、マーカーの向きが初期射線投射におけるのと同じ向きであることが明らかになった壁の一部を示す図である。
図8D】(38)特定の記載の実施形態による、平坦化された2次元マーカーを示す図である。
図8E】(39)当初配置された射線位置がドリフトに起因して正しくない場合に調整された射線を示す、壁の一部を示す図である。
図8F】(40)特定の記載の実施形態による、マーカーを接続するための例示の方式を示す図である。
図8G】(41)特定の記載の実施形態による、接続されるべきでない例示の1組のマーカーを示す図である。
図8H】(42)特定の記載の実施形態により構築可能な部屋の輪郭を示す図である。
図9】(43)特定の記載の実施形態による、注釈が配置される場合に壁をマークするために画面上に配置可能なマーカーを示す図である。
図10】(44)特定の記載の実施形態による、2Dスキャンと3Dスキャンとを使用して建物の特徴をキャプチャするための例示のシステムを示す機能ブロック図である。
図11】(45)特定の記載の実施形態による、スキャンにおける例示のz軸を示す図である。
図12】(46)特定の記載の実施形態による、2Dスキャンと3Dスキャンとを使用して建物の特徴をキャプチャする方法を示すフローチャートである。
図13】(47)図13Aは、一部の記載の実施形態において使用可能な例示のスキャナの背面を示す図である。 (48)図13Bは、一部の記載の実施形態において使用可能な例示のスキャナの前面を示す図である。
図14】(49)図14Aは、一部の記載の実施形態において使用可能な例示のスキャナの背面を示す図である。 (50)図14Bは、一部の記載の実施形態において使用可能な例示のスキャナの前面を示す図である。
【発明を実施するための形態】
【0022】
(51)図面のうちのいくつかの図を通して、対応する参照文字は対応するコンポーネントを示す。当業者は、図中の要素は簡単にするために示されており、必ずしも一律の縮尺で描かれていないことがわかるであろう。たとえば、様々な実施形態を理解しやすくするために、図中の要素のうちの一部の要素の寸法が他の要素に対して相対的に誇張されている場合がある。また、様々な実施形態の図が見にくくならないようにするために、商業的に実現可能な実施形態において有用または必要な、一般的であるがよく理解されている要素は、多くの場合、図示されていない。
【0023】
(52)以下、配線図を自動的に作成するためのシステムおよび方法に特に適用性を有する、方法、コンピュータ可読媒体およびシステムの代表的な実施形態を開示する。記載の実施形態は、記載の技術のうちの1つまたは複数の技術を実装する。
【0024】
(53)以下の説明では、本実施形態が十分に理解されるようにするために、多くの具体的な詳細が記載されている。しかし、当業者には、この具体的な詳細は本実施形態を実施するために採用される必要はないことがわかるであろう。また、本実施形態がわかりにくくなるのを避けるために、よく知られている材料または方法については詳細に説明されていない。「一実施形態」、「実施形態」、「一実施例」または「実施例」は、その実施形態または実施例との関連で記載されている特定の特徴、構造または特性が本実施形態のうちの少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書全体の様々な箇所における「一実施形態において」、「実施形態において」、「一実施例」、または「実施例」という語句の記載は、必ずしもすべてが同じ実施形態または実施例を指しているとは限らない。本開示の範囲から逸脱することなく、本明細書に記載のシステム、装置および方法に対して、修正、追加または省略が行われてもよい。たとえば、システムおよび装置のコンポーネントが統合または分離されてもよい。また、本明細書で開示されているシステムおよび装置の動作は、より多いかより少ないコンポーネント、または他のコンポーネントによって行われてもよく、記載されている方法は、より多いかより少ないステップ、または他のステップを含んでもよい。さらに、ステップは任意の適切な順序で行われてもよい。
【0025】
(54)便宜上、本開示について、たとえば左、右、最上部、最下部、前部、後部、上部、下部、上方および下方およびその他を含む相対的な語を使用して説明されている場合がある。これらの用語は、例示を目的として使用されているに過ぎず、いかなる形でも限定を意味していない。
【0026】
(55)さらに、本明細書とともに提供される図は、当業者に対する説明を目的としていることと、図面は必ずしも一律の縮尺で描かれていないことを理解されたい。特許庁および本出願に対して発行されるいずれの特許のいずれの読者にも、本出願に添付されている特許請求の範囲を解釈する助けとなるように、出願人らは特定の請求項において「~する手段(means for)」または「~するステップ(step for)」と言う語が明示的に使用されていない限り、添付の特許請求の範囲または請求要素のいずれも米国特許法第112条(f)を行使することを意図していないことを特記したい。
【0027】
(56)本実施形態による実施形態は、装置、方法またはコンピュータプログラム製品として実装可能である。したがって、本実施形態は、完全にハードウェア実施形態、完全にソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、または、「システム」と呼ばれる場合があるソフトウェア態様とハードウェア態様を組み合わせた実施形態の形態をとることができる。また、本実施形態は、媒体において具現化されたコンピュータ使用可能プログラムコードを有する表現の任意の有形媒体で具現化されたコンピュータプログラム製品の形態をとることも可能である。
【0028】
(57)1つまたは複数のコンピュータ使用可能またはコンピュータ可読媒体の任意の組合せが使用されてもよい。たとえば、コンピュータ可読媒体は、可搬型コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)デバイス、読み出し専用メモリ(ROM)デバイス、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)デバイス、可搬型コンパクトディスク読み出し専用メモリ(CDROM)、光記憶デバイス、および磁気記憶デバイスのうちの1つまたは複数を含み得る。本実施形態の動作を実施するためのコンピュータプログラムコードは、1つまたは複数のプログラミング言語の任意の組合せで書くことができる。
【0029】
(58)流れ図におけるフローチャートおよびブロック図は、本実施形態のうちの様々な実施形態によるシステム、方法およびコンピュータプログラム製品の可能な実装形態のアーキテクチャ、機能および動作を示す。これに関連して、フローチャートまたはブロック図における各ブロックは、指定されている論理機能を実施するための1つまたは複数の実行可能命令を含むコードのモジュール、セグメントまたは一部を表す場合がある。ブロック図および/またはフローチャート図の各ブロックおよびブロック図および/またはフローチャート図のブロックの組合せは、指定されている機能または動作を行う専用ハードウェアベースのシステム、または専用ハードウェアとコンピュータ命令との組合せによって実施可能であることにも留意されたい。これらのコンピュータプログラム命令は、コンピュータ可読媒体に記憶されている命令が、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定されている機能/動作を実施する命令手段を含む製造品をもたらすように、コンピュータまたはその他のプログラマブルデータ処理装置に特定の方式で機能するように指示することができるコンピュータ可読媒体に記憶可能である。
【0030】
(59)本明細書で使用されている、「含んでいる(comprises)」、「含む(comprising)」、「含んでいる(including)」、「含む(include)」、「有している(has)」、「有する(having)」またはこれらの任意のその他の変形は、非排他的包含を対象として含むことが意図されている。たとえば、要素の列挙を含むプロセス、物または装置は、必ずしもそれらの要素のみには限定されず、明示的に列挙されていないかまたはそのようなプロセス、物または装置に本来備わるその他の要素を含み得る。
【0031】
(60)また、これに反するように明記されていない限り、「または」は包含的またはを指し、排他的またはを指さない。たとえば、AまたはBという条件は、以下のいずれか1つによって満たされる。すなわち、Aが真であり(または存在し)、Bが偽である(存在しない)、Aが偽であり(または存在せず)、Bが真である(または存在する)、およびAとBの両方が真である(または存在する)。本明細書において「プログラム」は、プログラマー(開発者とも呼ばれる)によって書かれ、および/または自動的に生成される、アプリケーション、カーネル、ドライバ、割り込みハンドラ、ファームウェア、状態機械、ライブラリおよびその他のコードを含むように広義に使用されている。「最適化する」とは、改良を意味し、必ずしも完璧を意味しない。たとえば、最適化されたプログラムまたはアルゴリズムにさらなる改良を加えることが可能な場合がある。
【0032】
(61)さらに、本明細書で示される例または例示は、それとともに使用されるいずれの1つまたは複数の用語の定義の制限、限定または明示的定義と決してみなされるべきではない。そうではなく、これらの例または例示は、1つの特定の実施形態に関して説明されているものとして、および、例示に過ぎないものとみなされるべきである。当業者は、これらの例または例示がそれとともに使用されているいずれの1つまたは複数の用語も、それとともにまたは本出願の他の箇所で示されている場合も示されていない場合もある他の実施形態を包含し、すべてのそのような実施形態がその1つまたは複数の用語の範囲内に含まれることが意図されていることがわかるであろう。このような非限定的な例および例示を示す表現には、「たとえば」、「例として」、「e.g.」および「一実施形態では」が含まれるが、これらには限定されない。
【0033】
(62)本明細書に記載の技術的特徴は、当業者には明らかであり、広範な注意深い読者にもいくつかの方法で明らかであろう。一部の実施形態は、記録を必要とせずに環境内で利用可能なエネルギーに依存する電力柔軟性を使用するセンサーの提供など、コンピューティング技術に根ざした技術活動を扱う。これは、実装に要する労力がはるかに少なく、類似のものよりもはるかに低頻度でバッテリ交換を必要とするセンサーを提供する。本教示の技術的特徴に基づくその他の利点も、提供される説明から当業者には明らかになるであろう。
I.概説
(63)拡張現実AR/LiDAR(Augmented Reality(拡張現実)/Light Detection And Ranging(光検出および測距))は、人が建物内を通って歩き、カメラによってその区域を調べるだけで、妥当な正確さと精度でリアルタイムで詳細な3D点群をキャプチャすることを可能にする。3Dメッシュを作成するためにこの3D点群を自動的に構造化することができる。しかし、図1の100を参照しながら示すように、代表的なLiDARメッシュは、多くのノイズとアーチファクト105、110を有する非構造化「三角形スープ」として現れ、家具、電化製品および存在するその他の物質などから、壁115などの場面のうちの重要な側面を区別するのをきわめて困難にする。また、未加工の細部の量が、壁、窓、ドアなどの関心領域を抽出するのを困難にする。たとえば、建物は、壁ではない多くの平坦な「壁状」表面、たとえば120、戸棚を含み、壁ではないものから壁を指定するための幾何学的基準を判定するのを困難にする。これらの特徴の定義は文脈に大きく依存する。
【0034】
(64)本明細書では、多くの特徴がインテリジェントに検出可能であるかのように3D環境がキャプチャされる方法およびシステムが開示される。環境の3D点群または3Dメッシュが、LiDARなどの深度測定システムを使用して、人工現実(AR)環境において同じ系がキャプチャされるのと同時にキャプチャされる。次に、AR環境上に注釈を配置するためにユーザ入力と機械学習との組合せを使用する。これらの注釈は、3D LiDARシステムから2D座標を使用して配置される。注釈は関心のある特徴のおおよその位置を識別するためのヒントの役割を果たす。しかし、注釈の初期配置は、特徴がどこに位置するかを厳密には示さず、注釈は関心特徴を見つけるために3Dメッシュ内を探索するためのおおよその区域を示唆する。3Dメッシュが完成した後は、後処理ステップにおいて、2D注釈が3D空間における特定の位置に変換され、関心特徴の位置が突き止められる。配置を後処理まで遅らせることによって、正確さと一貫性の有意な向上を可能にする。
【0035】
(65)人間によって壁などの特定の関心特徴上に配置される注釈と、機械学習システムによって認識される注釈の2種類の注釈が開示される。両方の種類の注釈は、最初、メッシュが構築されるときに配置され、次に、後処理ステップにおいて配置が最終的に決定される。移動した経路を取得するために定期的にデバイスの位置を記録するなど、他の注釈の種類も可能である。これは、床またはその他の特徴を検出するために使用することができる。
II.適切なコンピューティング環境
(66)図2に、記載の実施形態を実装可能な適切なコンピューティング環境200の一般化された実施例を示す。本開示は多様な汎用または専用コンピューティング環境において実装可能であるため、コンピューティング環境200は本開示の使用または機能の範囲についていかなる限定を示唆することも意図されていない。
【0036】
(67)図2を参照すると、コア処理がコア処理230ボックスによって示されている。コンピューティング環境200は、少なくとも1つの中央処理装置210と、GPU215と、メモリ220とを含む。中央処理装置210は、コンピュータ実行可能命令を実行し、実プロセッサまたは仮想プロセッサとすることができる。メモリ220は、揮発性メモリ(たとえば、レジスタ、キャッシュ、RAM)、不揮発性メモリ(たとえば、ROM、EEPROM、フラッシュメモリなど)、またはこの2つの何らかの組合せとすることができる。メモリ220は、深度スキャンを使用して建物の特徴をキャプチャする記載の方法を実施するソフトウェア285を記憶する。
【0037】
(68)コンピューティング環境は追加の特徴を有してもよい。たとえば、コンピューティング環境200は、ストレージ240と通信接続270とを含み、通信接続270は1つまたは複数の入力/出力デバイス250、1つまたは複数のネットワーク接続(たとえば、有線、無線など)260と、その他の通信接続(図示せず)とを含むことができる。通信接続270は、無線通信を行うための1つまたは複数の無線送受信器、および/または、有線通信を行うための1つまたは複数の通信ポートを含んでもよい。実施形態において、通信デバイス270は、2Dセンサーおよび3Dセンサーを使用してキャプチャされた建物の特徴を受信するように構成可能である。入力/出力デバイスは、2次元カメラ252を含み得る。LiDAR(光検出および測距)システムなどの深度センサー254と、ユーザが情報を入力し、画像情報を表示することを可能にするタッチスクリーン256も含み得る。バス、コントローラ、またはネットワークなどの相互接続機構(図示せず)が、コンピューティング環境200のコンポーネントを相互接続する。典型的には、オペレーティングシステムソフトウェア(図示せず)が、コンピューティング環境200内で実行される他のソフトウェアに動作環境を与え、コンピューティング環境200のコンポーネントの活動を連携させる。コンピューティングシステムは分散型であってもよく、ソフトウェア285の各部を異なるCPUで実行してもよい。
【0038】
(69)ストレージ240は、取り外し型または非取り外し型であってもよく、磁気ディスク、磁気テープもしくはカセット、CD-ROM、CD-RW、DVD、フラッシュドライブ、または情報を記憶するために使用することができ、コンピューティング環境200内でアクセス可能な任意のその他の媒体とすることができる。ストレージ240は、深度スキャンを使用して建物の特徴をキャプチャする方法を実施する関心領域検出ソフトウェア285などのソフトウェアの命令を記憶する。
【0039】
(70)入力デバイス250は、キーボードなどのタッチ入力デバイス、カメラ252、LIDARシステムなどの深度測定システム254、マイクロフォン、マウス、ペン、またはトラックボール、スキャニングデバイス、タッチスクリーン256、またはコンピューティング環境200に入力を提供する他のデバイスなど、ユーザまたは他のデバイスがコンピューティング環境200とやり取りすることを可能にするデバイスとすることができる。音声のために、入力デバイス250は、アナログまたはデジタルの形態の音声入力を受け付けるサウンドカードまたは同様のデバイス、またはコンピューティング環境に音声サンプルを供給するCD-ROMリーダーであってもよい。出力デバイス250は、タッチスクリーン、ディスプレイ、プリンタ、スピーカー、CDライター、またはコンピューティング環境200から出力を提供する他のデバイスであってもよい。デバイスが、2Dスキャナ252および深度センサー254によってどの方向で映像が撮られるかを判定することができるようにし得るコンパス/マグノメータ290が含まれてもよい。
【0040】
(71)通信接続270は、別のコンピューティングエンティティとの通信媒体を介した通信を可能にする。通信媒体は、コンピュータ実行可能命令、圧縮グラフィックス情報または、その他のデータを変調データ信号として伝達する。通信接続270は、入力/出力デバイス250と、クライアントデバイスがネットワーク260を介して別のデバイスと通信することができるようにする入力/出力デバイスとを含むことができる。通信デバイスは、無線通信を行うための1つまたは複数の無線送受信器、および/または有線通信を行うための1つまたは複数の通信ポートを含んでもよい。これらの接続は、インターネット、イントラネット、LAN、WAN、セルラネットワーク、または他の種類のネットワークなど、有線または無線ネットワークとすることができる、ネットワーク接続を含むことができる。ネットワーク260は、複数の異なる種類の有線または無線ネットワークの組合せであってもよいことを理解されたい。ネットワーク260は、協調して機能するビルディングコントローラであってもよい複数のコンピュータを有する分散ネットワークであってもよい。コンピューティング接続270は、無線ハンドヘルドデバイス、携帯電話デバイスなどの携帯型通信デバイスであってもよい。
【0041】
(72)コンピュータ可読媒体は、コンピューティング環境内でアクセス可能な任意の利用可能な非一過性の有形媒体である。例として、限定ではなく、コンピューティング環境200の場合、コンピュータ可読媒体は、メモリ220、ストレージ240、通信媒体および上記のいずれかの組合せとすることができる。コンピュータ可読媒体を記憶するために使用可能なコンピュータ可読記憶媒体265は、命令275とデータ280を含むことができる。データソースは、通信接続270を介して情報を送受信するように構成された汎用ハードウェアプラットフォームサーバなどのコンピューティングデバイスであってもよい。コンピューティング環境200は、HVACリソースなどの様々なリソースに直接接続され、CPU210、GPU215,メモリ220、入力デバイス250、通信接続270、および/またはコンピューティング環境200において示されているその他の特徴を有する、電気コントローラであってもよい。コンピューティング環境200は、一連の分散コンピュータであってもよい。これらの分散コンピュータは、一連の接続された電気コントローラを含むことができる。
【0042】
(73)本開示の方法のうちの一部の方法の動作について好都合な提示のために順次的な順序で具体的に説明されているが、以下に記載されている特定の言語によって特定の順序付けが必要とされない限り、この説明方法は並べ替えを包含することを理解されたい。たとえば、順次に記載されている動作は並べ替えることができ、または並行して行うことができる。また、簡単にするために、添付図面は、本開示の方法、装置およびシステムを他の方法、装置およびシステムとともに使用することができる様々な方式を示していない場合がある。さらに、説明では、本開示の技術を説明するために、「判定する」、「構築する」および「識別する」のような用語を使用する場合がある。これらの用語は、行われる実際の動作を高度に抽象化したものである。これらの用語に対応する実際の動作は、特定の実施形態に応じて異なることになり、当業者によって容易に識別可能である。
【0043】
(74)また、本開示の方法のいずれかから生成されるデータは、様々な異なるデータ構造または形式を使用して、作成、更新、または有形コンピュータ可読媒体(たとえば、1つまたは複数のCD、揮発性メモリコンポーネント(DRAMまたはSRAMなど)、または不揮発性メモリコンポーネント(ハードドライブなど)に記憶することができる。そのようなデータは、ローカルコンピュータにおいて、またはネットワークを介して(たとえばサーバコンピュータによって)作成または更新することができ、あるいはクラウドコンピューティング環境において記憶およびアクセス可能である。
II.方法実施形態
(75)図3を参照すると、フローチャート300が本明細書で開示されている実施形態におけるデバイスによって使用可能な方法を説明している。以下に示す方法300の動作は、例示であることが意図されている。実施形態によっては、方法300は、記載されていない1つまたは複数の追加の動作とともに、および/または記載の動作のうちの1つまたは複数の動作なしに、行われてもよい。さらに、方法300の動作が図3に示され、以下で説明されている順序は、限定的であることは意図されていない。
【0044】
(76)実施形態によっては、方法300は、中央処理装置210とメモリ素子220とを含むコア処理要素内など、1つまたは複数の処理デバイス(たとえば、デジタルプロセッサ、アナログプロセッサ、マイクロプロセッシングユニット、情報を処理するように設計されたデジタル回路、および/または情報を電子的に処理するための機構)内のプロセッサおよびメモリ素子230に記憶されたプログラム285によって実施可能である。1つまたは複数の処理デバイスは、電子記憶媒体に電子的に記憶されている命令に応答して方法300の動作の一部または全部を実行する、1つまたは複数のデバイスを含み得る。1つまたは複数の処理デバイスは、方法300の動作のうちの1つまたは複数の動作の実行のために特に設計されるハードウェア、ファームウェアおよび/またはソフトウェアにより構成された1つまたは複数のデバイスを含むことができる。動作305は、プロセッサとメモリと入力/出力デバイスと深度センサーとを有するデバイスに装着されたカメラを使用して関心領域を取得することを示しており、カメラは2次元格子を使用してカメラから空間内のそれぞれの点までの距離を定義する。関心領域は、画像認識ソフトウェアを使用して取得されてもよい。この画像認識ソフトウェアは、機械学習ソフトウェア、人工現実ソフトウェア、両者の組合せ、何らかの他のものなどであってもよい。ソフトウェアは、カメラ入力に関連付けることができる。画像認識ソフトウェアは、スキャニングにぴったり合致するように見えない場合がある。従来の拡張現実は、カメラの直前の世界観を構築するためにカメラの視差とフィードを使用する。しかし、これは局所的な世界観に過ぎず、新たな点に移動するとその特定の点で構築された世界と前に記録されたいずれかの世界との間に対応関係がほとんどない場合がある。これは、スキャンのため、または現実世界を表現するために、ARまたはLIDARを使用する誰もが直面する問題である。カメラは、直接視野内にある特徴を追跡することができるかも知れないが、局所的に正しい測定値を大域的な一貫性のあるマップになるようにどのようにして継ぎ合わせるかは不明確である。たとえば、3Dビューを作成するためにLiDARが使用される場合、LiDARは、LiDARのセンサーからの新たな入力に基づいてマップが作成され続けるときにその世界観を絶えず調整する。その結果、特に空間を動き回るときに、前に有効だった位置が無効になる可能性がある。これは、特に物体が現在の3Dキャプチャ視野の範囲外にある場合に、さらなる情報が追加されると3次元キャプチャ内に配置された物体を3次元格子上でドリフトさせる。この現実を念頭に置いて注釈が作成される。3Dメッシュは座標における更新に対して堅牢であるため、注釈は真実性のソースとして3Dメッシュに従う。注釈は、メッシュのおおよその区域のみを示し、これは幾何形状全体が最終決定されるときに精緻化される。
【0045】
(77)空間をキャプチャするために、実施形態によっては、ユーザがカメラと深度スキャナの両方を有するデバイス(たとえば図2)を、複数の観点から空間内の区域に向けながら歩き回る。この2次元キャプチャは、3次元格子の2次元の変換を使用して3D深度幾何形状の表現を提示する。変換は、カメラ、深度スキャナあるいはその両方に関連付けられたソフトウェアによって提供される。このスキャンは、向きとコンパス方位とを含む、センサーからの関連読み取り値を含む。窓、通気孔、ドアなどの関心図は、認識ソフトウェアを使用して認識可能な明確に異なる形状を有する。1つまたは複数の機械学習アルゴリズムなどを含み得る認識ソフトウェアは、例示の関心領域を判定するために2次元キャプチャを使用することができる場合がある。図4Aは、2Dカメラシステムからの入力を使用する機械学習アルゴリズムによって検出可能な例示の関心領域の映像400Aを示す。たとえば、ドアを検出することができる。この検出は、物体の角に対応する少なくとも3つの関心点を検出することを含み得る。図の実施例では、ドアの角に対応する4つの点405A、410A、415Aおよび420Aが検出される。これらの点405A~420Aは、ドアの位置をマークするために2次元で検出される。
【0046】
(78)動作310において、深度センサーによってキャプチャされた複数の深度測定値が取得される。これらの深度測定値は、深度測定キャプチャに関連付けられたプログラムから取得可能である。深度測定値は、3次元格子を使用して深度センサーから空間内のそれぞれの点までの距離を定義する。
【0047】
(79)動作315において、3次元射線を作成するために、(2次元における)検出された関心領域が3次元格子上にマッピングされる。この2次元は2次元格子において検出可能であり、これは次に3Dメッシュ系、2Dカメラ系、何らかの組合せなどとともに、利用可能なソフトウェアを使用して3次元メッシュ格子位置に変換することができる。検出された点について、2次元は次に、関心領域が付属する3次元形状と交差する第3次元尾部を有する射線に変換される。仮想3D場面内で、2Dおよび3D光学系と一致する方式で射線を3D世界に投射する方法およびシステムが当業者に知られている。実施形態によっては、交差は90°とすることができる。他の実施形態は異なる角度での交差部を有してもよく、角度を規定しなくてもよく、特定の割合内の角度を許容してもよい、などとすることができる。次に、射線が3D世界内のどこでメッシュに当たるかを調べるために射線が辿られる。これが3D点を与える射線の点である。これの一例は、図4Bに関して見ることができる。図4Bの400Bは、2次元注釈が、3次元格子に関連付けられた3次元射線に置き換えられ、3Dシステムによって検出された物体と射線が約90°で交差している、図4Aに示す関心領域を示す。3Dキャプチャシステムは空間のより多くをキャプチャするため、個別の3次元点が3Dキャプチャシステムによって調整されてもよい。射線(たとえば405B、410B、415B、420B)は3次元系に関連付けられているため、射線は系に変更が加えられると系とともに移動することになる。
【0048】
(80)実施形態によっては、特定の特徴をマークするための注釈が、格子線によってさらに指定することができる3次元深度ビューの表現の表面(2次元表現)上に配置される。図5Aは、3次元深度ビューを表す格子線505A、510Aを備えた3次元深度ビューの2次元ビューを示す、例示のタッチセンシティブ表面の映像500Aである。この3次元ビューは、完成画像ではなく、このビューが生成されるときなど、空間のスキャンが進行中に生成される映像とみなされるべきである。図5Bは、2次元、すなわちタッチスクリーンの2次元においてユーザによって配置された注釈505Bを有する例示のタッチスクリーンの映像500Bである。この注釈は、壁を定義するために配置されている。この実施形態についてタッチスクリーンを参照しながら説明するが、入力は3次元ビューの2次元版を表示するコンピュータモニターを使用して提供することができ、入力は、マウスポインターが注釈位置の上に位置する間にマウスクリックによって、または当業者に知られているその他の入力方法によって提供される。これらの注釈は保存される。注釈は、注釈内を指す線を表す(3Dビュー内の)第3の次元を有する3D座標系における2つの位置次元に変換された2次元ビューからの2つの既知の次元を有する射線として保存可能である。図5Cの500Cに、注釈505Bから作成され、次に3D座標系内に保存される射線505Cを示す。図5Dの500Dに、スキャン全体が行われたときに移動した例示の3次元座標系を示す。元の注釈点505Dが510Dによって表された位置に移動している。注釈を表す射線が座標シフト位置として3次元座標系とともに保存されるため、射線は他の座標とともに位置をシフトさせることになり、スキャンの終わりにおける射線が位置515Dに残る。
【0049】
(81)動作320で、空間の完成深度測定3次元格子が取得される。ユーザがスキャンを完了した後、このステップを行うことができる。この格子は深度測定デバイスに関連付けられた深度測定ソフトウェアから取得可能である。たとえば、LiDARを有するApple iPhone(登録商標)は、このような情報を提供することができる様々なアプリケーションを有する。再構成ソフトウェアがそのセンサーからの新たな入力に基づいて後のスナップショットにおける世界観を絶えず修正する場合があるため、完成深度測定3次元格子はその特定の注釈が生成されたときの個別のスナップショットによって最初に生成された元の格子とはわずかに異なる可能性がある。その結果、前の注釈位置(たとえば405、505B)が位置を変化させている可能性がある。これの一例は、図5Dで見ることができる。空間全体がスキャンされ、壁などが調整された後、元の注釈位置505Cは位置510Dに移動している。元は505B、505Dにあった射線505C、515Dが、ここでは位置510Dに移動している。
【0050】
(82)図6に、3つの部屋RM1 630、RM2 635およびRM3 640を有するマルチルームスキャンセッション600を示す。これは上面図であり、点線はユーザがスキャンを行うときに歩いた経路を示す。ユーザは、部屋630の1点605から開始し、部屋630の端610まで続けることができる。1つの区域が完了すると、それをたとえば610において明示的に保存してもよい。しかし、ユーザが最初の座標系を維持しながら追加の部屋、たとえばRM2 635およびRM3 640をスキャンすることができるように、スキャンセッションは中断しないままとすることができる。したがって、ユーザは610と615の間の経路の後にRM2 635をスキャンすることができる。615において保存があると仮定すると、中断、たとえば位置615と620との相違は、コンパス/マグノメータ290を使用して正しい向きとされ得る。しかし、異なるスキャンの何らかの縫合を手動で行う必要がある場合がある。スキャンは離散的な区域に分離されることがある。これは、論理構成の理由から、および、メモリ、レンダリング、ストレージなどのリソース限界に対処するために行われる場合がある。スキャンがキャプチャされた後は、実施形態によっては、変換されたスキャンを長期記憶により適するようにするために、変換、圧縮(たとえばgzip、zip、または当業者に知られているその他の圧縮手段)、および/または最適化の何らかの組合せが行われてもよい。実施形態において、スキャンからの3次元メッシュ(LiDARメッシュであってもよい)をチャンクに分割することができる。実施形態によっては、3次元メッシュを異なるデータ構造などに分割するなど、他の方法が使用されてもよい。チャンクが使用される場合、チャンクは、扱われるシステム、使用される機器などにとって適切なサイズのものとすることができる。場合によっては、これはシームレスに嵌め合わされる1立方メートル体積であってもよい。ある実施形態ではチャンクは等しい大きさとすることができ、ある実施形態ではチャンクは異なる大きさなどであってもよい。データは、正確さと一貫性のために元のキャプチャと同じ座標系で記憶可能である。整数演算とは異なり、浮動小数点演算が行われるたびに、精度が失われる。3Dメッシュは多数の点を有し、点はわずかな測定差を有するため、計算時間をスピードアップするためと3Dメッシュ内の正確さが失われるのを防ぐ両方の目的のために、可能な限り少ない浮動小数点演算を行うことが有利である。本明細書に記載の実施形態において、浮動小数点は最初に3Dメッシュに入力されるときに元のデータに対して1回だけで判定される。間取図を組み立てるなどの他の移動は、基礎にある浮動小数点数を変更するのではなく、元のソースを参照し、それを変換するだけである。実施形態によっては、3Dデータは必要以上に詳細である。そのような場合、形状定義を失わずに頂点と面の数を減らすために簡約化ステップが使用されてもよい。これにより、所要記憶量と処理するデータの量とが削減される。簡約化アルゴリズムは当業者に知られている。
【0051】
(83)動作325において、投影3次元形状を作成するために2次元検出関心領域が空間の完成深度測定格子上に投影される。図4Cの400Cに、関心領域、この場合は壁を通って投影するコーンを有する図4Aに示す関心領域を示す。3Dスキャンが完了し、基礎にある3D格子の移動に従って射線が移動した後、関心領域を配置し直す必要がある可能性がある。実施形態によっては、円430Cを画定するように関心領域射線位置405B~420B(ここでは基礎にある移動は示されていない)が使用され、次にこの円430Cが3D格子に投影される部分コーンを画定するために使用される。3つの点が使用されてもよく、4つの点が使用されてもよく、それによって交差部などのために使用される円錐台が作成される。空所(窓または出入口など)を含む関心領域が検索される場合、射線4105B~420Bに対して直角な(大部分が)平坦な表面425C(たとえば425Bなどの壁)が検索される。この表面は、全体が平坦である必要はない。実施形態によっては、「間取図抽出」の項に関連して説明されている方法およびシステムも組み込むことができる。
【0052】
(84)動作330において、投影された3次元形状と空間の完成深度測定3次元格子との交差部が検出され、関心領域としてマークされる。壁位置とコーンに沿って投影された射線405C、410C、415C、420Cとの交差部が関心領域の新たな角になる。この新たな関心領域は次に、図8A図8Fに関連して説明されている方法を使用して点を接続することによってさらに画定されてもよく、または異なる方法が使用されてもよい。
【0053】
(85)間取図の概念は直観的であるように思われるが、厳密に定義するのは難しい。たとえば、「家具がすべて取り除かれた歩きやすい区域」などの定義は、キャビネット、暖炉、段差など、間取図の一部ではない構造体がすべて含まれることになるため、不十分である。図7Aの700Aに、3Dメッシュスキャンのスライスを示す。このスライスにおいて、どの線が間取図を構成するかを恐らく推定することができるが、そのためには、脳は余分な情報を無視し、欠けている詳細を挿入する。また、間取図がどのようなものであるかの決定は幾何形状にのみ基づいているわけではなく、むしろ空間の概念とその時点で人が何を重要とみなすかの暗黙の了解を含み、たとえば、隣接区域が別個の部屋とみなされるか否かは人間の入力を必要とする場合がある。間取図の定義は、幾何形状ではなく用途または美的感覚で表される場合が多い。図7Bを参照すると、恐らくユーザは間取図700Bを描くことができるが、機械にはきわめて困難である。そのために、欠けている隙間を埋めるためにユーザ注釈と文脈分析を使用することができる。壁を識別するために、ユーザは図5Bを参照しながら示したように各壁上にマーカーを配置することができる。
【0054】
(86)図8Aの800Aおよび図8Bの800Bに、3Dモデル内の元の射線位置から投射されている射線を示す。空間のスキャンが完了した後の後処理において、わずかな量だけオフセットされた射線805Aが、元のマーカー位置810Aから3Dモデル内に投射される。実施形態によっては、射線815Aの尾部はスキャンが行われた方向を指す。これらの射線位置805Aは、壁の領域の向きと位置とを判定するためのサンプルの役割を果たす。それらの面の向きの大部分が一致している場所では、壁部分が存在すると判定される。805B、810Bおよび815Bに関して示すように、面の向きが一致しない場合、それらの射線は拒否される。図8Cの800Cに、マーカーの向きが初期射線投射において同じ方向の向き805Cであることが明らかになった壁の一部を示す。実施形態によっては、810Cに示すように、壁のより広い区画を見つけるためにより広い区域がないか格子の向きが調べられる。図8Dの800Dを参照しながら示すように、見つかった区画が、床の推定向きに垂直な2次元マーカー805Dに平坦化される。この床の推定向きはz軸であってもよい。マーカーは位置を提供するだけでなく、そこから向きが導き出される表面法線810Dも提供する。これによって、我々はどちら側が内側でどちら側が外側であるかもわかる。
【0055】
(87)図8Eに、元々配置されていた射線位置805Eがドリフトに起因して正しくない場合に調整される射線を示す壁800Eの一部を示す。ここでは射線位置は3Dスキャンにおける隙間810Eに入る。この場合のように元の配置位置がドリフトに起因して正しくない場合であっても、向き(表面法線)は正しいと想定される。したがって、面によって十分に表現可能で向きにも一致する元の射線投射付近の位置が判定される。グレーで示すように元の射線をわずかにシフトさせる815Eと、今度は意図された表面820Eに当たる。これは、制約付き最適化問題とみなすことができ、変数は注釈位置である。交点への面のフィッティングを、特異値分解などの回帰を使用して解決することができる。実施形態によっては、受容可能な検索領域は注釈位置周辺の小さい立方体、円などの場合がある。
【0056】
(88)図8Fの800Fおよび図8Hの800Hに、マーカーを接続する例示の方法を示す。3Dメッシュ内で見つかった1つのマーカー805Fが、マーカー805Fの法線830Fもその内部に向けられている空間の内部に向けられた法線835Fを有するネイバー810Fを検出する。次に、この2つが接触825Fして角を形成するまで延長され815F、820F、3D交差部を作成する。3Dメッシュの向きおよびコンパス読み取り値がわかっているため、構築される壁の部分がわかる。これは、稜線が延長されるべき方向を判定するのに役立つ。部屋800Hの輪郭が構築されるまで、コンパス向きなどの特徴を使用して稜線がネイバーごとに継ぎ合わされる。これらの輪郭線は稜線からなる閉路と呼ばれる場合がある。
【0057】
(89)図8Gの800Gに、同じ空間の内部を指す法線810G、820Gを持たない2つのマーカー805Gおよび815Gを示す。マーカー815Gによって表される壁は、法線810G、820Gが向けられている異なる方向で表されているように、マーカー805Gの向きとは異なる向きにその内部を有する。これらは同じ空間の方に向けられていない。これらの2つのマーカーは、異なる部屋または部屋状の空間に向けられているため、図8Fを参照しながら示すように接続されるべきではない。
【0058】
(90)図9の900に、注釈が配置される場合に壁をマークするために画面上に配置することができるマーカー910を示す。部屋などの空間をスキャンするとき、壁の前にある、収納部915、電子レンジなどの機器のある棚などの構造体がある場合があり、スキャナが壁深度を正しく測定するのを妨害する可能性がある。壁が見える空間がある場合、電話の画面などの2D表現内に、壁深度をマークする注釈905を配置することができる。実施形態によっては、画定された壁の部分を示す矩形などのマーカー910が2D表現上に示されてもよい。これは、間取図閉路のプレビューとすることができ、したがって接続性(どの注釈がネイバーであるか)と形状とを示すことができる。これにより、この時点までにどのような間取図がわかったかを示す上から見たプレビューを示す、「ミニマップ」が与えられる。一例が図7Aを参照しながら示されている。
IV.システム実施形態
(91)次に図10を参照すると、図10は2Dスキャンと3Dスキャンを使用した建物の特徴をキャプチャするための1つのトポロジを示している。トポロジ1000は、1つまたは複数の中央処理装置210と、メモリ220と、通信接続270とを含むことができる。ストレージ240は、1つまたは複数のコンピュータ可読記憶媒体を含むことができる。コンピューティング環境は、パーソナル電子デバイスにおいて見られるような可搬型とすることができる。
【0059】
(92)システム1000は、3次元の空間をスキャンするように動作可能な3Dスキャナ1005を含む。カメラなどの2Dスキャナ1010が、3Dスキャナに動作可能に接続されている。したがって、2Dスキャナは、3Dスキャナと同じ空間を同時にスキャンすることが可能とすることができる。2Dスキャンと3Dスキャンは、スキャンによって作成される2Dメッシュまたは3Dメッシュの変換を使用して(2D)位置を共有することが可能とすることができる。これらの変換は、2Dスキャナ1010と3Dスキャナ1005とを保持するデバイスに関連付けられたソフトウェアによって提供可能である。2Dスキャナは、2次元における関心領域を検出するために機械学習またはその他の技術を使用するように動作可能である。関心領域は、壁、窓、ドアなど、建物の特徴とすることができる。関心領域は、機器、棚、家具など、移動可能な物体であってもよい。結合器が、関心特徴の2Dスキャン位置を3Dスキャン内の相当する位置に結合することが可能であってもよい。また、結合器は、3Dスキャナからの3次元のうちの2次元を使用して2Dスキャンにおいて関心特徴をマークするように動作可能であってもよい。これらのマークは、キャプチャされた2D次元である2次元を有する射線とすることができる。2D次元は次に、3D格子内のそれらに相当する位置に変換され得る。結合器は、これらの2D次元を、2Dスキャナと3Dスキャナの両方によって共有されている向きとともに射線に変換することが可能とすることができる。射線の尾部は、スキャン上の位置内部を指すz軸(a z axis that points into the location on the scan)とすることができ、ここで「内部を(into)」は、スキャンが行われたときに2Dスキャナ1005と2Dスキャナ1010が指していた方向を表す相対次元である。結合器1020は、2Dスキャナを使用して見つかった関心領域を結合する。
【0060】
(93)図11の1100に、スキャンされている場面1115(たとえば建物正面)の方を指すスキャナ1105を示す。スキャンが行われる線1100は、2Dスキャナ1010にはない軸であるため、第3の次元軸とみなすことができる。これは、z軸とも呼ばれる場合がある。このz軸は、3Dスキャナによって行われるスキャンの座標系によって決定可能とすることができる。次にそれを、射線尾部を作成するために使用することができる。これらのマークは、スキャンが行われている間に作成することができ、2D格子座標が適切な3D格子座標に変換されることを必要とする場合がある。2D格子座標は、2Dスキャナ、3Dスキャナ、または連携する2Dスキャナと3Dスキャナによって作成することができる。実施形態によっては、2D座標は、スキャナを含むデバイスに関連付けられたソフトウェア、ファームウェアおよび/またはハードウェアを使用して3D座標に変換されてもよい。関心領域のそれらの2Dマークを、空間の3D深度メッシュ内の集合体と交差する3D空間内の射線に変換するように動作可能な注釈器1015も含めることができる。集合体は、壁またはその他の大型の特徴であってもよい。集合体は、機器、センサーなどのはるかにより小さい特徴であってもよい。スキャンが行われているときに、3D格子が、スキャン作成プロセス中に3Dスキャナによって発見される新たな情報に従って調整されてもよい。したがって、3Dメッシュにおける3D位置は、元の位置から位置を移動している可能性がある。空間全体がスキャンされた後、たとえばスキャンが完了したとき、全体3Dスキャンに対して動作する後処理器1025が、3Dスキャン内の同等の位置に変換された元の2D位置を使用して関心領域がマークされた空間の3Dスキャンを作成するように動作可能とすることができる。3Dスキャンが作成されるときに、基礎にある3Dメッシュが位置を変える可能性があり、それによって、マークされた関心領域の位置が変わる可能性がある。2Dスキャンにおいて認められた関心領域が3Dスキャン内でマークされるため、新たな情報が組み込まれるために3Dスキャンがシフトすると、関心領域マークがそれらとともに移動する。後処理において、マークされた領域が再び注視され、関心領域により向け直される。これをどのように行うかを示す実施形態が、図8A図8Fおよび周囲のテキストを参照しながら示されている。
V.コンピュータ可読媒体実施形態
(94)図12を参照すると、フローチャート1200が、本明細書で開示されている実施形態におけるデバイスによって使用可能な方法を説明している。以下に示す方法1200の動作は、例示であることが意図されている。実施形態によっては、方法1200は記載されていない1つまたは複数の追加の動作とともに、および/または説明されている動作のうちの1つまたは複数の動作なしに行われてもよい。また、図12に示され、以下で説明されている方法1200の動作の順序は限定的であることが意図されていない。
【0061】
(95)実施形態によっては、方法1200は、関心領域のキャプチャを行うための命令を記憶することができる非一過性のコンピュータ可読記憶媒体に記憶されてもよい。命令がプロセッサ、たとえば210または何らかの類似のプロセッサによって実行されると、プロセッサに方法1200の動作を行わせることができる。
【0062】
(96)動作1205において、空間の3D部分スキャンが受け取られる。このスキャンは、デバイスに取り付けられたLiDAR計器によって元々作成されたものであってもよい。動作1210において、2D関心領域が受け取られてもよい。2D関心領域は、壁、ドア、窓、本棚、机、照明器具、テーブル、センサー、車両、人物、植物などの特徴とすることができる。この2D関心領域は、LiDAR計器を保持する同じデバイスに取り付けられた2Dカメラによって生成されてもよい。3Dセンサーと2Dセンサーの両方を保持し得る一般的なデバイスは、パーソナルハンドヘルドコンピュータである。同じデバイス上の2Dセンサーと3Dセンサーは、連携することもでき、したがって、この2つの間のインターフェースを有してもよい。これは、スキャンされた2Dメッシュ内の2D位置が、部分的に完成された連携スキャン3Dメッシュ、すなわち部分3Dスキャン内の適切な位置内に配置されることを可能にする。メッシュがまだ部分的にのみ完成しているときに、2Dメッシュと3Dメッシュとの間の変換を使用して、2D位置を3D射線に変えることができる。これのいくつかの実施例は、図5A図5Dおよび周辺テキストを参照しながら示されている。
【0063】
(97)動作1210において、スキャンが部分的に完成しているときに、2D関心領域(ROI)が受け取られる。このROIは、2DスキャンがそのROIに遭遇したときに受け取られてもよい。実施形態によっては、この関心領域は、デバイスに取り付けられた2Dカメラからのカメラフィードを使用する機械学習認識システムから受け取られてもよい。実施形態によっては、他の認識システムが使用されてもよい。機械学習認識システムについては当業者によって理解されている。これの一例は、図4A図4Bの400Aおよび400Bにある。実施形態によっては、これは、3Dスキャンが上に重ねされた空間の一部を表示する画面上の関心領域をユーザがマークすることを含む。これの一例は図5A図5Bの500Aおよび500Bにある。
【0064】
(98)動作1215において、スキャンがまだ部分的にのみ完成した状態で、3Dスキャン内でROIがマークされる。2Dスキャン内のROIの位置(または複数の位置)は3Dスキャン内の座標に変換可能である。この座標は次に、尾部が3Dスキャン内の広い表面を指す射線に変えられる。この射線尾部は、2Dカメラ、3Dスキャナ、その両方または異なる方法に関連付けられた、ソフトウェアを使用して、または異なる方法で推定可能である。この射線を2DマークROIと呼ぶ場合がある。これの実施例が図4A図4Bの400Aおよび400Bにある。スキャンが完了した後は、スキャンの継続時に3Dスキャンにおいてマークされている位置がシフトしている可能性があり、それによってさらなる情報が取得される。
【0065】
(99)後処理段階において、元のマークされていたROI位置が新たなスキャン内で配置し直される。動作1220において、完成3Dスキャンが受け取られる。これは、LiDAR計器によって、または、デバイスに関連付けられたプロセッサに3Dスキャンを供給することができるLiDAR計器に接続されたシステムによって受け取られてもよい。3Dスキャンは、3Dデータ、センサー履歴(カメラ情報など)、および配置された任意の注釈であってもよい。これは3Dメッシュに変換可能とすることができる。動作1225において、2DマークROIが完成3Dスキャンと交差させられ、3Dスキャン交差部が作成される。図5Dを参照しながら説明したように、2D検出関心領域がマークされる時点と3Dスキャンの完了との間に、2D検出関心領域の位置が基礎にある3D格子におけるシフトとともに移動する可能性がある。したがって、基礎にある関心領域の位置も移動している可能性がある。動作1230において、3Dメッシュ内のメッシュ面とすることができる3Dスキャン交差部の周辺の区域が、3Dスキャン交差部におけるメッシュ面と類似した向きを有するメッシュ面がないか調べられる。これらのメッシュ面は隣接メッシュ面である可能性がある。類似の向きを有する隣接メッシュ面が見つかった場合、この見つかったメッシュ面の隣接面が調べられる等々が行われてもよい。類似の向きを有するこれらのメッシュ面は、次に関心領域の一部としてマークされる。関心領域の一部が見つかった後は、これが壁間取図部分であると判定されてもよい。この壁間取図部分は、平坦化された部分が床に平行になるようにマーカーを平坦化することによって2Dマーカーに平坦化されてもよい。床は、コンパス向きと、2DカメラおよびLiDAR作成3Dスキャンによって自動的に判定されたその他の向きによって判定可能である。
【0066】
(100)動作1235において、平坦化された関心領域が延長される。延長された領域が角を形成するように、近傍の平坦化された関心領域も延長可能である。動作1240において、一連の関心領域を接続することによって間取図が作成される。これについては図8A図8Fを参照しながら説明されている。動作1245において、建物が組み立てられる。個々の部屋が建物全体の間取図に組み立てられる。組み立ての可能な限り多くの部分が自動化される。たとえば、2つのスキャンが座標系、コンパス、見出しなどの情報を共有していると判定可能な場合、その共有情報をユーザが間取図を組み立てるのを支援するために使用することができる。たとえば、別々の区域がコンパス読み取り値を共有する場合があり、したがってそれらのコンパス読み取り値をそれらの区域を一緒に向けるために使用することができる。同じセッション中の区域(図6を参照しながら示したように)が同じ座標を使用する場合があり、したがってそれぞれが互いに対して相対的に位置づけられるようにするなどとすることができる。
【0067】
(101)図13Aの1300Aおよび図13Bの1300Bは、一部の記載実施形態において使用可能な例示のスキャナの背面と前面である。すなわち、図1に記載されているシステムは、2Dカメラ1305Aと深度スキャナ1310Aとを有する携帯電話1300Aまたはその他の携帯型コンピューティングデバイスを使用して実装可能である。実装形態によっては、システムはユーザ入力デバイスを含む。このユーザ入力/出力デバイスはタッチスクリーン1305Bであってもよい。図5A図5Eおよび図9を参照しながら示した画面を、このようなタッチスクリーン1305B上で実装可能である。
【0068】
(102)図14Aの1400Aおよび図14Bの1400Bは、一部の記載されている実施形態において使用可能な例示のタブレットスキャナの背面と前面である。すなわち、図1に記載されているようなシステムは、タブレット(たとえばiPad(登録商標)、Surface、Thinkpadなど)、またはカメラ11410Cと装着された外部3Dスキャナ1415Aとを有する他の携帯型コンピューティングデバイス1405Aを使用して実装されてもよい。実装形態によっては、深度スキャナがタブレットに組み込まれる。実装形態によっては、システムはユーザ入力/出力デバイスを含む。このユーザ入力/出力デバイスは、タッチスクリーン1505Bであってもよい。実施形態によっては、キーボードと非タッチスクリーンが使用されてもよい。図5A図5Eおよび図9を参照しながら示した画面がそのようなタッチスクリーン1405B上で実装されてもよい。
【0069】
(103)本技術の原理を適用可能な多くの考えられる実施形態に鑑みて、示されている実施形態は例であり、本発明に対する限定であるとみなされるべきではないことを認識されたい。たとえば、本明細書に記載のシステムおよび手段の様々なコンポーネントは、機能および用途の点で組み合わされてもよい。したがって、発明人らは、発明人らの発明として、これらの特許請求の範囲および思想内に含まれるすべての主題について特許請求する。
図1
図2
図3
図4A
図4B
図4C
図5A
図5B
図5C
図5D
図6
図7A
図7B
図8A
図8B
図8C
図8D
図8E
図8F
図8G
図9
図10
図11
図12
図13A
図13B
図14A
図14B
【国際調査報告】