IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ クゥアルコム・インコーポレイテッドの特許一覧

特表2024-504231多視点画像取込みのための折畳み可能電子デバイス
<>
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図1
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図2
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図3A
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図3B
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図3C
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図3D
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図4A
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図4B
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図4C
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図4D
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図5
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図6
  • 特表-多視点画像取込みのための折畳み可能電子デバイス 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-01-31
(54)【発明の名称】多視点画像取込みのための折畳み可能電子デバイス
(51)【国際特許分類】
   H04N 23/611 20230101AFI20240124BHJP
   H04N 23/51 20230101ALI20240124BHJP
   G03B 35/08 20210101ALI20240124BHJP
   G03B 15/00 20210101ALI20240124BHJP
   G06T 7/593 20170101ALI20240124BHJP
   G06T 5/50 20060101ALI20240124BHJP
【FI】
H04N23/611
H04N23/51
G03B35/08
G03B15/00 Q
G06T7/593
G06T5/50
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2023530268
(86)(22)【出願日】2020-11-25
(85)【翻訳文提出日】2023-05-18
(86)【国際出願番号】 CN2020131425
(87)【国際公開番号】W WO2022109855
(87)【国際公開日】2022-06-02
(81)【指定国・地域】
(71)【出願人】
【識別番号】595020643
【氏名又は名称】クゥアルコム・インコーポレイテッド
【氏名又は名称原語表記】QUALCOMM INCORPORATED
(74)【代理人】
【識別番号】110003708
【氏名又は名称】弁理士法人鈴榮特許綜合事務所
(72)【発明者】
【氏名】ジャン、ナン
(72)【発明者】
【氏名】シー、ヨンジュン
【テーマコード(参考)】
2H059
5B057
5C122
5L096
【Fターム(参考)】
2H059AA10
2H059AA13
5B057BA02
5B057BA17
5B057CA01
5B057CA08
5B057CA12
5B057CA16
5B057CB01
5B057CB08
5B057CB12
5B057CB16
5B057CD14
5B057CE04
5B057CE17
5B057DA16
5B057DB03
5B057DB06
5B057DB09
5C122DA04
5C122DA30
5C122FA18
5C122FC04
5C122FH04
5C122FH10
5C122FH11
5C122FH14
5C122FH15
5C122FH18
5C122FH22
5C122GA01
5C122GA31
5C122GE01
5C122GE05
5C122GE07
5C122GE11
5C122HA13
5C122HA35
5C122HA82
5C122HA88
5C122HB01
5L096AA02
5L096AA06
5L096CA05
5L096DA01
5L096DA02
5L096FA09
5L096FA66
5L096FA67
(57)【要約】
画像センサの位置を自動的に調整し、画像センサから取り込まれた画像データに基づいて多視点画像を生成することを自動的に行うための方法、システム、および装置が提供される。たとえば、画像取込みデバイスが、第1の筐体部分と第2の筐体部分とを備える筐体を含み、第1の筐体部分には第1のセンサが結合され、第2の筐体部分には第2のセンサが結合される。ヒンジなどの結合デバイスが、第1の筐体部分を第2の筐体部分に結合する。画像取込みデバイスは、第1のセンサおよび第2のセンサから画像データを取得し、取得された画像データに基づいてオブジェクト深度を決定する。画像取込みデバイスは、オブジェクト深度に基づく調整された角度を出力し、第1および第2のセンサから追加の画像データを取得する。画像取込みデバイスは、追加の画像データに基づいて多視点画像を生成する。
【特許請求の範囲】
【請求項1】
第1の筐体部分と第2の筐体部分とを備える筐体と、
命令を記憶した非一時的機械可読記憶媒体と、
前記非一時的機械可読記憶媒体に結合された少なくとも1つのプロセッサと
を備える画像取込みデバイスであって、前記少なくとも1つのプロセッサが、
前記筐体の前記第1の筐体部分に結合された第1のセンサから第1の画像データを取得することと、
前記筐体の前記第2の筐体部分に結合された第2のセンサから第2の画像データを取得することと、
前記第1の画像データおよび前記第2の画像データに基づいてオブジェクトの深度を決定することと、
前記深度に基づいて前記第1の筐体部分と前記第2の筐体部分との間の調整された角度を出力することと、
前記調整された角度に基づいて画像取込み動作を実施することと
を行うために前記命令を実行するように構成された、画像取込みデバイス。
【請求項2】
前記少なくとも1つのプロセッサが、
前記調整された角度の前記出力に基づいて、前記第1のセンサからの第3の画像データと前記第2のセンサからの第4の画像データとを取得することと、
前記第3のセンサデータおよび前記第4のセンサデータに基づいて多視点画像を生成することと
を行うために前記命令を実行するようにさらに構成された、請求項1に記載の画像取込みデバイス。
【請求項3】
前記少なくとも1つのプロセッサが、
前記多視点画像にフォト効果を適用することに基づいてユーザ作成画像を生成することと、
前記ユーザ作成画像を前記非一時的機械可読記憶媒体に記憶することと
を行うために前記命令を実行するようにさらに構成された、請求項2に記載の画像取込みデバイス。
【請求項4】
前記少なくとも1つのプロセッサが、
前記多視点画像をセグメント化することと、
前記セグメント化された多視点画像に基づいて前記フォト効果を適用することと
を行うために前記命令を実行するようにさらに構成された、請求項3に記載の画像取込みデバイス。
【請求項5】
前記フォト効果がボケ効果を備える、請求項4に記載の画像取込みデバイス。
【請求項6】
前記オブジェクトが顔を備え、
前記少なくとも1つのプロセッサが、前記顔を検出するために前記命令を実行するようにさらに構成された、請求項1に記載の画像取込みデバイス。
【請求項7】
前記少なくとも1つのプロセッサが、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記角度に基づいて前記オブジェクトの前記深度を決定することと
を行うために前記命令を実行するようにさらに構成された、請求項1に記載の画像取込みデバイス。
【請求項8】
前記少なくとも1つのプロセッサが、前記第1の画像データおよび前記第2の画像データに基づいて視差データを生成するために前記命令を実行するようにさらに構成された、請求項1に記載の画像取込みデバイス。
【請求項9】
前記少なくとも1つのプロセッサが、
前記筐体の前記第1の部分と前記第2の部分との間の角度を決定することと、
前記決定された角度に基づいて前記第1のセンサと前記第2のセンサとの間の基線長を決定することと、
前記第1のセンサと前記第2のセンサとのうちの少なくとも一方の焦点距離を決定することと、
前記視差データ、前記基線長、および前記焦点距離に基づいて深度値を生成することと
を行うために前記命令を実行するようにさらに構成された、請求項8に記載の画像取込みデバイス。
【請求項10】
前記少なくとも1つのプロセッサが、
前記視差データに基づいて前記オブジェクトの視差を決定することと、
前記視差および視差しきい値に基づいて前記調整された角度を出力することと
を行うために前記命令を実行するようにさらに構成された、請求項8に記載の画像取込みデバイス。
【請求項11】
前記少なくとも1つのプロセッサが、
位置センサから位置データを取得することと、
前記位置データに基づいて前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて前記調整された角度を決定することと
を行うために前記命令を実行するようにさらに構成された、請求項1に記載の画像取込みデバイス。
【請求項12】
前記少なくとも1つのプロセッサが、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて1つまたは複数のカメラパラメータを決定することと、
前記1つまたは複数のカメラパラメータに基づいて前記調整された角度を出力することと
を行うために前記命令を実行するようにさらに構成された、請求項1に記載の画像取込みデバイス。
【請求項13】
前記1つまたは複数のカメラパラメータが平行移動行列を備え、
前記少なくとも1つのプロセッサが、前記平行移動行列に基づいて前記第1のセンサの基準を前記第2のセンサの対応する基準に平行移動するために前記命令を実行するようにさらに構成された、請求項12に記載の画像取込みデバイス。
【請求項14】
前記第1の筐体部分がディスプレイの第1の部分を備え、
前記第2の筐体部分が前記ディスプレイの第2の部分を備え、
前記第1のセンサが前記ディスプレイの前記第1の部分の下に配置され、前記第2のセンサが前記ディスプレイの前記第2の部分の下に配置された、
請求項1に記載の画像取込みデバイス。
【請求項15】
モータをさらに備える、請求項1に記載の画像取込みデバイス。
【請求項16】
前記モータが、前記調整された角度に基づいて前記第1の筐体部分と前記第2の筐体部分との間の角度を調整するように構成された、請求項15に記載の画像取込みデバイス。
【請求項17】
前記プロセッサが、前記調整された角度に基づいてGUI要素をディスプレイ上に出力するために前記命令を実行するようにさらに構成された、請求項1に記載の画像取込みデバイス。
【請求項18】
画像取込みデバイスを動作させるための方法であって、
前記画像取込みデバイスの筐体の第1の部分に結合された第1のセンサから第1の画像データを取得することと、
前記筐体の第2の部分に結合された第2のセンサから第2の画像データを取得することと、
前記第1の画像データおよび前記第2の画像データに基づいてオブジェクトの深度を決定することと、
前記決定された深度に基づいて前記第1の筐体部分と前記第2の筐体部分との間の調整された角度を出力することと、
前記調整された角度に基づいて画像取込み動作を実施することと
を備える方法。
【請求項19】
前記画像取込み動作を実施することが、
前記調整された角度の前記出力に基づいて、前記第1のセンサからの第3の画像データと前記第2のセンサからの第4の画像データとを取得することと、
前記第3のセンサデータおよび前記第4のセンサデータに基づいて多視点画像を生成することと
を備える、請求項18に記載の方法。
【請求項20】
前記多視点画像にフォト効果を適用することに基づいてユーザ作成画像を生成することと、
前記ユーザ作成画像をメモリデバイスに記憶することと
をさらに備える、請求項19に記載の方法。
【請求項21】
前記ユーザ作成画像を生成することが、
前記多視点画像をセグメント化することと、
前記セグメント化に基づいて前記フォト効果を適用することと
を備える、請求項20に記載の方法。
【請求項22】
前記フォト効果がボケ効果を備える、請求項21に記載の方法。
【請求項23】
前記オブジェクトが顔を備え、前記方法が前記顔を検出することをさらに備える、請求項18に記載の方法。
【請求項24】
前記筐体の前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記角度に基づいて前記オブジェクトの前記深度を決定することと
をさらに備える、請求項18に記載の方法。
【請求項25】
前記オブジェクトの前記深度を決定することが、前記第1の画像データおよび前記第2の画像データに基づいて視差データを生成することを備える、請求項18に記載の方法。
【請求項26】
前記オブジェクトの前記深度を決定することが、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて前記第1のセンサと前記第2のセンサとの間の基線長を決定することと、
前記第1のセンサと前記第2のセンサとのうちの少なくとも一方の焦点距離を決定することと、
前記視差データ、前記基線長、および前記焦点距離に基づいて深度値を生成することと
を備える、請求項25に記載の方法。
【請求項27】
前記視差データに基づいて前記オブジェクトの視差を決定することと、
前記視差および視差しきい値に基づいて前記調整された角度を出力することと
をさらに備える、請求項25に記載の方法。
【請求項28】
位置センサから位置データを取得することと、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて前記調整された角度を決定することと
をさらに備える、請求項18に記載の方法。
【請求項29】
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて1つまたは複数のカメラパラメータを決定することと、
前記1つまたは複数のカメラパラメータに基づいて前記調整された角度を出力することと
をさらに備える、請求項18に記載の方法。
【請求項30】
前記1つまたは複数のカメラパラメータが平行移動行列を備え、
前記方法が、前記平行移動行列に基づいて前記第1のセンサの基準を前記第2のセンサの対応する基準に平行移動することをさらに備える、請求項26に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
[0001] 本開示は、一般に、撮像デバイス(imaging device)に関し、より具体的には、画像取込み能力(image capturing capability)を有する折畳み可能表示デバイス(foldable display device)に関する。
【背景技術】
【0002】
[0002] 電話機、タブレット、およびスマートデバイスなどの画像取込みデバイス(image capture device)は、画像を取り込むための、外側に面するカメラを含むことがある。たとえば、カメラは、内向き表面の反対側の外向き表面上に位置することがあり、内向き表面はディスプレイ(display)を含む。外向き表面上のカメラから取り込まれた画像は、ディスプレイ上で提供される。画像取込みデバイスはまた、「セルフィー(selfie)」の取込みを容易にするなどのために、内向き表面上にカメラを含むこともある。これらの画像取込みデバイスのいくつかは、折畳み可能ディスプレイ(foldable display)を含む。折畳み可能ディスプレイの各面が、外向き表面と内向き表面とを含む。折畳み可能ディスプレイを有する画像取込みデバイスは、外向き表面の各々に、1つまたは複数のカメラを含むことがある。
【0003】
[0003] 加えて、画像取込みデバイスは、高画質の画像をレンダリングしようとして、様々な信号処理技法を使用する。たとえば、画像取込みデバイスは、画像鮮鋭度のためにそのレンズの焦点を自動的に合わせ、光レベルに基づいて露光時間を自動的に設定し、光源の色温度に対応するようにホワイトバランスを自動的に調整することがある。いくつかの例では、画像取込みデバイスは、複数のカメラから取り込まれた画像に基づいて多視点画像(multi-view image)を生成する(generate)ことがある。いくつかの例では、画像取込みデバイスは、顔検出技術を含む。顔検出技術は、画像取込みデバイスがカメラのレンズの視野中で顔(face)を識別するのを可能にする。画像取込みデバイスは、次いで、識別された顔に基づいて様々な信号処理技法を適用してよい。
【発明の概要】
【0004】
[0004] 一態様によれば、画像取込みデバイスを動作させる方法が、画像取込みデバイスの筐体(housing)の第1の部分(first portion)に結合された第1のセンサ(first sensor)から第1の画像データ(first image data)を取得する(obtain)ことを含む。本方法はまた、筐体の第2の部分(second portion)に結合された第2のセンサ(second sensor)から第2の画像データ(second image data)を取得することを含む。本方法はさらに、第1の画像データおよび第2の画像データに基づいてオブジェクト(object)の深度(depth)を決定することを含む。本方法はまた、決定された深度に基づいて、第1の筐体部分(first housing portion)と第2の筐体部分(second housing portion)との間の調整された角度(adjusted angle)を出力することを含む。さらに、本方法は、調整に応答して画像取込み動作(image capture operation)を実施する(perform)ことを含む。
【0005】
[0005] 別の態様によれば、画像取込みデバイスが、第1の筐体部分と第2の筐体部分とを備える筐体を備える。画像取込みデバイスはまた、命令(instruction)を記憶した非一時的機械可読記憶媒体(non-transitory, machine-readable storage medium)と、非一時的機械可読記憶媒体に結合された少なくとも1つのプロセッサ(processor)とを備える。少なくとも1つのプロセッサは、筐体の第1の筐体部分に結合された第1のセンサから第1の画像データを取得するために命令を実行するように構成される。プロセッサはまた、筐体の第2の筐体部分に結合された第2のセンサから第2の画像データを取得するために命令を実行するように構成される。さらに、プロセッサは、第1の画像データおよび第2の画像データに基づいてオブジェクトの深度を決定するために命令を実行するように構成される。プロセッサはまた、深度に基づいて第1の筐体部分と第2の筐体部分との間の調整された角度を出力するために命令を実行するように構成される。プロセッサは、調整された角度に基づいて画像取込み動作を実施するために命令を実行するようにさらに構成される。
【0006】
[0006] 別の態様によれば、非一時的機械可読記憶媒体が命令を記憶し、命令は、少なくとも1つのプロセッサによって実行されたとき、画像取込みデバイスの筐体の第1の筐体部分に結合された第1のセンサから第1の画像データを取得することと、筐体の第2の筐体部分に結合された第2のセンサから第2の画像データを取得することと、第1の画像データおよび第2の画像データに基づいてオブジェクトの深度を決定することと、深度に基づいて第1の部分と第2の部分との間の調整された角度を出力することと、調整された角度に基づいて画像取込み動作を実施することとを備える動作を、少なくとも1つのプロセッサに実施させる。
【0007】
[0007] 別の態様によれば、画像取込みデバイスが、画像取込みデバイスの筐体の第1の筐体部分に結合された第1のセンサから第1の画像データを取得するための手段と、筐体の第2の筐体部分に結合された第2のセンサから第2の画像データを取得するための手段と、第1の画像データおよび第2の画像データに基づいてオブジェクトの深度を決定するための手段と、深度に基づいて第1の部分と第2の部分との間の調整された角度を出力するための手段と、調整された角度に基づいて画像取込み動作を実施するための手段とを備える。
【図面の簡単な説明】
【0008】
図1】[0008] いくつかの実装形態による、例示的な画像取込みデバイスのブロック図。
図2】[0009] いくつかの実装形態による、図1の画像取込みデバイスの例示的な構成要素を示すブロック図。
図3A】[0010] いくつかの実装形態による、例示的な画像取込みデバイスの構成要素を示す図。
図3B】いくつかの実装形態による、例示的な画像取込みデバイスの構成要素を示す図。
図3C】いくつかの実装形態による、例示的な画像取込みデバイスの構成要素を示す図。
図3D】いくつかの実装形態による、例示的な画像取込みデバイスの構成要素を示す図。
図4A】[0011] いくつかの実装形態による、折畳み可能ディスプレイを有する例示的な画像取込みデバイスを示す図。
図4B】いくつかの実装形態による、折畳み可能ディスプレイを有する例示的な画像取込みデバイスを示す図。
図4C】いくつかの実装形態による、折畳み可能ディスプレイを有する例示的な画像取込みデバイスを示す図。
図4D】いくつかの実装形態による、折畳み可能ディスプレイを有する例示的な画像取込みデバイスを示す図。
図5】[0012] いくつかの実装形態による、画像取込みデバイス中で画像取込み動作を実施するための例示的なプロセスのフローチャート。
図6】いくつかの実装形態による、画像取込みデバイス中で画像取込み動作を実施するための例示的なプロセスのフローチャート。
図7】[0013] いくつかの実装形態による、画像取込みデバイス中でユーザ作成画像(user-composed image)を生成するための例示的なプロセスのフローチャート。
【発明を実施するための形態】
【0009】
[0014] 本明細書に記載の特徴、方法、デバイス、およびシステムは様々な形で具体化され得るが、いくつかの例示的で非限定的な実施形態が、図面に示され以下で記述される。本開示で記述される構成要素のいくつかは任意選択であり、いくつかの実装形態は、本開示で明確に記述される構成要素に対して、追加の、異なる、またはより少ない構成要素を含むことがある。
【0010】
[0015] いくつかの実装形態では、画像取込みデバイスは、折畳み可能であってよく、内側表面に沿った折畳み可能ディスプレイを含んでよい。たとえば、画像取込みデバイスは、1つまたは複数の結合デバイス(coupling device)(たとえば、ヒンジ(hinge))を含む中央部に沿って折畳み可能であってよく、中央部は、画像取込みデバイスの第1の部分(たとえば、左側)を画像取込みデバイスの第2の部分(たとえば、右側)から分離してよい。第1の部分および第2の部分の各々は、内側表面と外側表面と(たとえば、第1の内側表面および第2の内側表面)を含んでよい。たとえば、画像取込みデバイスを閉鎖する(たとえば、閉じる)とき、内側表面の各々は、画像取込みデバイスの第1の部分と第2の部分とが相互に近づけられるのに伴って、相互と対面し得る。閉鎖されたとき、第1の部分および第2の部分の外側表面は外側に面し、第1の部分および第2の部分の内側表面は、空洞もしくは空隙空間の境界を確立し得る、またはそれを境界付け得る(たとえば、内側表面は空洞を形成し得る)。折畳み可能ディスプレイはまた、画像取込みデバイスの第1および第2の部分の各内側表面に沿った対応する部分を含んでよい。内側表面(および折畳み可能ディスプレイ)は、画像取込みデバイスの「ユーザに面する」側で提示されてよい。
【0011】
[0016] 画像取込みデバイスは、第1の部分の内側表面上の1つまたは複数のカメラと、第2の部分の内側表面上の1つまたは複数のカメラとを含んでよい。いくつかの例では、画像取込みデバイスは、第1の部分の外側表面上の1つまたは複数のカメラを含んでよい。いくつかの例では、画像取込みデバイスは、第2の部分の外側表面上の1つまたは複数のカメラを含んでよい。
【0012】
[0017] 画像取込みデバイスは、カメラの各々から画像データを取り込んでよい。たとえば、画像取込みデバイスは、第1の部分の内側表面(すなわち、第1の内側表面)上に位置決めされた第1のカメラから第1の画像データを取り込んでよく、また、第2の部分の内側表面(すなわち、第2の内側表面)上に位置決めされた第2のカメラから第2の画像データを取り込んでよい。第1のカメラおよび第2のカメラは、まとめて、ステレオカメラ(たとえば、左および右のカメラ)を確立し得る。
【0013】
[0018] 画像取込みデバイスは、第1の画像データおよび第2の画像データに基づいて、オブジェクトの深度を決定してよい。たとえば、画像取込みデバイスは、第1および第2のカメラの各視野(FOV:field of view)中でオブジェクトを識別してよく、オブジェクトを含む関心領域(ROI:region of interest)についての焦点値を提供するレンズ位置を選択してよい。決定された深度に基づいて、画像取込みデバイスは、第1の部分と第2の部分とを分離する角度(angle)(すなわち、1つまたは複数の結合デバイスの角度)を変更するために、1つまたは複数の結合デバイスを自動的に調整してよい。調整に応答して、角度は増加することもあり(たとえば、画像取込みデバイスを開くとき)、または、角度は減少することもある(たとえば、画像取込みデバイスを閉じるとき)。
【0014】
[0019] いくつかの例では、画像取込みデバイスは、(たとえば、画像取込みデバイスをさらに閉じるかまたはさらに開くことによって)角度を調整するよう示す視覚的なまたは可聴の標識を、画像取込みデバイスのユーザに提供する。
【0015】
[0020] いくつかの例では、画像取込みデバイスは、現在の角度を決定し、深度値(depth value)および現在の角度に基づいて角度を調整する。
【0016】
[0021] いくつかの例では、画像取込みデバイスは、カメラパラメータ(camera parameter)に基づいてオブジェクトの深度を決定する。カメラパラメータは、各カメラにつき、内因性および外因性パラメータ(intrinsic and extrinsic parameter)を含み得る。内因性パラメータおよび外因性パラメータは、事前に決定されてよく、画像取込みデバイスによって維持される(たとえば、有形の非一時的メモリ内の)データリポジトリに記憶されてよい。
【0017】
[0022] 内因性パラメータは、第1および第2のカメラの各々についての、画像平面座標から画素座標への変換を特徴付け得る。たとえば、内因性パラメータは、第1および第2のカメラの各々につき、焦点距離(focal length)、画像センサフォーマット、および主点を含んでよい。外因性パラメータは、第1または第2のカメラの各々の相対的な位置および配向を特徴付ける。たとえば、外因性パラメータは、第1および第2のカメラのうちの1つまたは複数の相対的な位置および配向をそれぞれ特徴付ける回転行列(rotation matrix)および平行移動行列(translation matrix)を含んでよい。たとえば、平行移動行列は、あるカメラの基準枠から別のカメラの基準枠への平行移動を識別し得る。たとえば、第1の平行移動行列は、第1のカメラから第2のカメラへの基準枠の平行移動(translation)を識別し得、第2の平行移動行列は、第2のカメラから第1のカメラへの基準枠の平行移動を識別し得る。回転行列は、あるカメラの基準枠から別のカメラの基準枠への回転を識別し得る。たとえば、第1の回転行列は、第1のカメラから第2のカメラへの基準枠の回転を識別し得、第2の回転行列は、第2のカメラから第1のカメラへの基準枠の回転を識別し得る。
【0018】
[0023] さらに、外因性パラメータは、第1および第2のカメラについての基線長(baseline length)を含んでよい。基線長は、第1および第2のカメラの光心間の距離を定義し得る。いくつかの例では、第1の内側表面と第2の内側表面との間の角度が大きいほど、第1のカメラと第2のカメラとの間の基線長は大きい。例として、画像取込みデバイスの第1の内側表面と第2の内側表面との間の第1の角度が、第1のカメラと第2のカメラとの間の第1の基線長を確立してよく、画像取込みデバイスの第1の内側表面と第2の内側表面との間の第2の角度が、第1のカメラと第2のカメラとの間の第2の基線長を確立してよい。たとえば第1の角度が第2の角度を超えることになる場合、確立される第1の基線長もまた、対応する第2の基線長を超えてそれよりも大きいことがある。
【0019】
[0024] 画像取込みデバイスは、回転行列、平行移動行列、および追加的または代替的に基線長に基づいて、第1のカメラからの第1の画像データを、第2のカメラからの第2の画像データと整合してよい。たとえば、第1の内側表面と第2の内側表面との間の所与の角度に対して、外因性パラメータは、第1および第2のカメラの各々についての回転行列および平行移動行列、ならびに対応する基線長を指定し得る。画像取込みデバイスは、現在の角度を決定してよく、回転行列、平行移動行列、および追加的または代替的に現在の角度に対応する基線長に基づいて、第1のカメラからの第1の画像データを、第2のカメラからの第2の画像データと整合してよい。いくつかの例では、画像取込みデバイスは、使用前の第1および第2のカメラの各々の較正中に、外因性パラメータを決定してよい。
【0020】
[0025] 画像取込みデバイスはまた、第1の画像データおよび第2の画像データの各々の中の特徴(たとえば、オブジェクト)を識別してよい。いくつかの例によれば、第1の画像データ中の、特徴(たとえば、エッジ、明るさ、色)を有する画素が、第2の画像データ中の、対応する特徴を有する画素とマッチングされる。第1および第2の画像データ中のマッチングされた画素に基づいて、画像取込みデバイスは、当技術分野で知られている任意の技法を使用して視差マップ(disparity map)(たとえば、立体深度マップ(stereoscopic depth map))を生成してよい。視差マップは、たとえば、対応する特徴の水平座標の差をエンコードし得、視差値を含み得、ここで、各視差値は、対応する画素場所におけるシーン深度(scene depth)に反比例する。
【0021】
[0026] 画像取込みデバイスは、第1のカメラおよび第2のカメラの各々の内因性パラメータに基づいて深度値を計算してよい。たとえば、画像取込みデバイスは、第1のカメラおよび第2のカメラの各々の、焦点距離、画像センサフォーマット、および主点に基づいて、深度値を決定してよい。いくつかの例では、画像取込みデバイスは、第1および第2のカメラについての回転行列に基づいて、深度値を計算してよい。いくつかの例では、画像取込みデバイスは、第1のカメラから取得された第1の画像データ内、および第2のカメラから取得された第2の画像データ内で分類された特徴に基づいて、また視差マップの一部に基づいて、深度値を計算する。画像取込みデバイスはまた、とりわけ、第1のカメラの焦点距離と、第2のカメラの焦点距離と、第1および第2のカメラの焦点距離の組合せと、対応する基線長と、視差マップの一部とに基づいて、深度値を計算してよい。
【0022】
[0027] いくつかの例では、コンピューティングデバイスは、第1の部分と第2の部分とを有する筐体を含み、第1の部分は、第2の部分に対して相対的な角度を形成する。さらに、筐体の第1の部分は第1のセンサを含んでよく、筐体の第2の部分は第2のセンサを含んでよい。コンピューティングデバイスは、筐体の第1の部分と第2の部分との間の第1の角度を決定してよく、さらに、第1の角度に基づいて、第1のセンサと第2のセンサとの間の基線長を決定してよい。さらに、コンピューティングデバイスは、第1のセンサと第2のセンサとのうちの少なくとも一方の焦点距離を決定してよい。コンピューティングデバイスは、基線長と、焦点距離と、視差マップの一部とに基づいて、深度値を生成してよい。
【0023】
[0028] さらに、画像取込みデバイスは、計算された深度値に基づいて、第1の内側表面と第2の内側表面との間の角度を調整してよい。たとえば、画像取込みデバイスは、分類された特徴に基づいてオブジェクトを識別し、前述のようにオブジェクトについての深度値を計算してよい。画像取込みデバイスは、深度値に基づいて、オブジェクトについてのオブジェクト深度(object depth)を計算してよい。さらに、画像取込みデバイスは、オブジェクト深度に基づいて、識別されたオブジェクトの画像を取り込むための第1のカメラと第2のカメラとの間の所望の基線長を決定してよい。たとえば、画像取込みデバイスは、オブジェクト深度が大きいオブジェクトほど、大きい基線長を計算し、オブジェクト深度が小さいオブジェクトほど、小さい基線長を計算してよい。いくつかの例では、画像取込みデバイスは、特定のオブジェクトについてのオブジェクト深度に対する所望の基線長のマッチングを識別する1つまたは複数のテーブルを、メモリデバイス内で維持する。たとえば、第1のテーブルは、「顔」に分類されたオブジェクトについての複数のオブジェクト深度の各々に対する所望の基線長を識別してよく、第2のテーブルは、「木」に分類されたオブジェクトについての複数のオブジェクト深度の各々に対する所望の基線長を識別してよい。
【0024】
[0029] 所望の基線長に基づいて、画像取込みデバイスは、第1の内側表面と第2の内側表面との間の角度に対する調整を決定してよい。たとえば、画像取込みデバイスは、第1のカメラと第2のカメラとの間の現在の基線長を決定してよく、現在の基線長を所望の基線長と比較して角度調整量を決定してよい。画像取込みデバイスは、決定された角度調整量に基づいて角度を調整してよい。
【0025】
[0030] いくつかの例では、角度が調整された後、画像取込みデバイスは、第1のカメラからの第3の画像データ(third image data)と、第2のカメラからの第4の画像データ(fourth image data)とを取り込み、第3の画像データおよび第4の画像データに基づいて多視点画像を生成する。たとえば、画像取込みデバイスは、第3の画像データおよび第4の画像データ中の特徴を識別し、識別された特徴に基づいて第2の視差マップを生成してよい。画像取込みデバイスは、知られている任意の技法を使用して、第3の画像データと、第4の画像データと、第2の視差マップの一部とに基づいて多視点画像を生成してよい。多視点画像は、たとえば、3次元(3D)画像を含み得る。追加の例では、多視点画像は、「高ダイナミックレンジ」画像または「非高ダイナミックレンジ」画像を含み得る。
【0026】
[0031] いくつかの例では、画像取込みデバイスは、ユーザがシーンの画像を取り込んでいる間に、角度が調整されるべきかどうかを定期的に決定してよい。たとえば、画像取込みデバイスは、多視点画像を生成するために画像データが取り込まれる前の所与の時間量まで、第1および第2のカメラの各々から画像データを定期的に取得し、本明細書に記載のように角度を調整してよい。
【0027】
[0032] いくつかの実装形態では、画像取込みデバイスは、改善された自動焦点(AF)、自動露光(AE)、自動利得(AG)、または自動ホワイトバランス(AWB)制御のために、角度を調整した後でROIを決定してよい。たとえば、画像取込みデバイスは、本明細書に記載のように角度を調整し、被写体である特徴を(たとえば、図3の画像データおよび第4の画像データ内で)識別し、被写体の顔を含むROIを決定してよい。画像取込みデバイスは、次いで、ROI内の画像データに基づいて、AF、AE、AG、またはAWB制御のうちの1つまたは複数を決定(たとえば、調整、適用)してよい。
【0028】
[0033] いくつかの例では、画像取込みデバイスは、角度調整に応答して生成された多視点画像に、自動化された画像取込み向上(たとえば、3D画像向上)を提供してよい。たとえば、画像取込みデバイスは、ユーザ作成画像を生成するために、フォト効果(photoeffect)を多視点画像に適用してよい。ユーザは、たとえば、画像取込みのためのフォト効果を選択してよい。フォト効果の例は、カラーシフト、セグメント化効果(たとえば、被写界深度効果、ボケ効果(Bokeh effect)、ブルースクリーニング、顔フィルタなどのオブジェクトフィルタ、拡張現実(AR)、仮想現実(VR)、および平均化効果を含む。平均化効果は、たとえば、異なる2つの画像中の画素のうちのすべてまたは選択されたグループの、カラーチャネル値を平均し得る。被写界深度効果(たとえば、ボケ効果)は、第3の画像データ中の画素および第4の画像データ中の画素のカラーチャネル値に依拠し得る。
【0029】
[0034] 図1は、例示的な画像取込みデバイス100のブロック図である。画像取込みデバイス100の機能は、1つもしくは複数のプロセッサ、1つもしくは複数のフィールドプログラマブルゲートアレイ(FPGA)、1つもしくは複数の特定用途向け集積回路(ASIC)、1つもしくは複数のステートマシン、デジタル回路、いずれか他の適切な回路、または任意の適切なハードウェアにおいて実装されてよい。
【0030】
[0035] この例では、画像取込みデバイス100は少なくとも1つのプロセッサ160を含み、プロセッサ160は、対応する画像を取り込むために、カメラ光学機構およびセンサ115Aとカメラ光学機構およびセンサ115Bとに動作可能に結合される(たとえば、それらと通信状態にある)。カメラ光学機構およびセンサ115Aおよび115Bは、各々、画像を取り込むために1つまたは複数の画像センサと1つまたは複数のレンズとを含んでよい。カメラ光学機構およびセンサ115Aは、画像取込みデバイス100の第1の部分117A内に配置されてよく、カメラ光学機構およびセンサ115Bは、画像取込みデバイス100の第2の部分117B内に配置されてよい。カメラ光学機構およびセンサ115Aおよび115Bの各々は、たとえば、飛行時間(TOF:time-of-flight)または構造化光(たとえば、赤外線、ランダムドット投影)画像取込みシステムに基づいてよい。プロセッサ160はまた、ヒンジ制御119に動作可能に結合され、ヒンジ制御119は、第1の部分117Aを第2の部分117Bに結合するヒンジのヒンジ角度の制御(たとえば、機械的調整)を可能にし得る。たとえば、プロセッサ160は、ヒンジ制御119を制御して、ヒンジ角度を0度と180度の間(0度および180度を含む)で調整してよい。
【0031】
[0036] プロセッサ160はまた、命令メモリ130、ワーキングメモリ105、入力デバイス170、送受信機(transceiver)111、折畳み可能ディスプレイ125、および記憶媒体110に動作可能に結合されてよい。入力デバイス170は、たとえば、キーボード、タッチパッド、スタイラス、タッチスクリーン、またはいずれか他の適切な入力デバイスであってよい。
【0032】
[0037] 画像取込みデバイス100は、画像取込み能力を有するコンピュータ、専用カメラ、撮像および非撮像アプリケーションを実施できる多目的デバイス、またはいずれか他の適切なデバイスにおいて実装されてよい。たとえば、画像取込みデバイス100は、モバイルフォン(たとえば、スマートフォン)、タブレット、パーソナルデジタルアシスタント、またはいずれか他の適切なデバイスなど、ポータブルパーソナルコンピューティングデバイスを含み得る。
【0033】
[0038] プロセッサ160はまた、1つまたは複数のプロセッサを含んでよい。たとえば、プロセッサ160は、1つもしくは複数の中央処理装置(CPU)、1つもしくは複数のグラフィックスプロセッシングユニット(GPU)、1つもしくは複数のデジタル信号プロセッサ(DSP)、1つもしくは複数の画像信号プロセッサ(ISP)、1つもしくは複数のデバイスプロセッサ、および/または、いずれか他の適切なプロセッサのうちの1つもしくは複数を含んでよい。プロセッサ160はまた、AF、AG、AE、および/またはAWBを実行するために、受け取られた画像データに対して様々な画像取込み動作を実施してよい。さらに、プロセッサ160は、取り込まれた画像を表示するために折畳み可能ディスプレイ125を制御すること、またはワーキングメモリ105もしくは記憶媒体110に対して書込みもしくはデータの読取りを行うことなど、様々な管理タスクを実施してよい。たとえば、プロセッサ160は、各カメラにつき、内因性パラメータ(intrinsic parameter)167および外因性パラメータ(extrinsic parameter)169を記憶媒体110から取得してよい。記憶媒体110はまた、AF、AE、および/またはAWBパラメータなど、画像取込み動作のための画像取込みパラメータを記憶してもよい。プロセッサ160は、画像取込みパラメータに基づいて、AF、AE、および/またはAWBを適用してよい。
【0034】
[0039] プロセッサ160は、取り込まれた画像を記憶媒体110内に記憶してよい。たとえば、プロセッサ160は、カメラ光学機構およびセンサ115A、115Bから画像センサデータ(image sensor data)165を取得してよく、取得された画像センサデータ165を記憶媒体110内に記憶してよい。
【0035】
[0040] いくつかの例では、プロセッサ160は、取り込まれた画像にフォト効果を適用してよい。たとえば、プロセッサ160は、取り込まれた画像に、カラーシフト、被写界深度(depth of field)(たとえば、ボケ効果)、拡張現実(AR)、仮想現実(VR)、および平均化効果を適用してよい。
【0036】
[0041] いくつかの事例では、送受信機111は、任意の適切な通信プロトコルを使用して、通信ネットワークを介した画像取込みデバイス100と1つまたは複数のネットワーク接続コンピューティングシステムまたはデバイスとの間の通信を容易にし得る。これらの通信プロトコルの例は、次のものに限定されないが、符号分割多元接続(CDMA(登録商標))、グローバルシステムフォーモバイルコミュニケーション(GSM(登録商標))、もしくはワイドバンド符号分割多元接続(WCDMA(登録商標))などのセルラー通信プロトコル、および/または、IEEE802.11(WiFi(登録商標))もしくはマイクロ波アクセスの全世界相互運用(WiMAX(登録商標):Worldwide Interoperability for Microwave Access)などのワイヤレスローカルエリアネットワークプロトコルを含む。
【0037】
[0042] プロセッサ160は、画像を取り込むために、カメラ光学機構およびセンサ115A、115Bの各々を制御してよい。たとえば、プロセッサ160は、画像の取込みを開始して対応する画像データを取り込む(たとえば、写真を撮影する)よう、カメラ光学機構およびセンサ115Aに命令してよく、プロセッサ160は、取り込まれた画像データをカメラ光学機構およびセンサ115Aから受け取ってよい。同様に、プロセッサ160は、追加の画像の取込みを開始して対応する画像データを取り込むよう、カメラ光学機構およびセンサ115Bに命令してよく、プロセッサ160は、取り込まれた画像データをカメラ光学機構およびセンサ115Bから受け取ってよい。
【0038】
[0043] いくつかの例では、カメラ光学機構およびセンサ115A、記憶媒体110、ならびにプロセッサ160は、折畳み可能ディスプレイ(たとえば、折畳み可能ディスプレイ125)の第1の内側部分(たとえば、第1の部分117A)内に配置された第1の前面カメラから第1の画像データを取り込むための手段を提供する。いくつかの例では、カメラ光学機構およびセンサ115B、記憶媒体110、ならびにプロセッサ160は、折畳み可能ディスプレイ(たとえば、折畳み可能ディスプレイ125)の第2の内側部分(たとえば、第2の部分117B)内に配置された第2の前面カメラから第2の画像データを取り込むための手段を提供する。
【0039】
[0044] 命令メモリ130は、プロセッサ160によってアクセスされ(たとえば、読み取られ)実行され得る命令を記憶してよい。たとえば、命令メモリ130は、電気的に消去可能プログラム可能な読取り専用メモリ(EEPROM(登録商標))などの読取り専用メモリ(ROM)、フラッシュメモリ、取外し可能ディスク、CD-ROM、任意の不揮発性メモリ、またはいずれか他の適切なメモリを含み得る。
【0040】
[0045] プロセッサ160は、ワーキングメモリ105に対してデータの記憶またはデータの読取りを行ってよい。たとえば、プロセッサ160は、命令メモリ130からロードされた命令など、命令のワーキングセットをワーキングメモリ105に記憶してよい。プロセッサ160はまた、ワーキングメモリ105を使用して、画像取込みデバイス100の動作中に生み出される動的データを記憶してよい。ワーキングメモリ105は、スタティックランダムアクセスメモリ(SRAM)もしくはダイナミックランダムアクセスメモリ(DRAM)などのランダムアクセスメモリ(RAM)、またはいずれか他の適切なメモリであってよい。
【0041】
[0046] この例では、命令メモリ130は、取込み制御命令135と、自動焦点(AF)命令140と、自動ホワイトバランス(AWB)命令141と、自動露光(AE)命令142と、自動利得(AG)命令148と、画像処理命令143と、顔検出エンジン144と、深度決定エンジン146と、ヒンジ角度制御エンジン147と、ルーマ検出エンジン149と、ルーマベースのダイナミックレンジ検出エンジン151と、フォト効果エンジン153と、オペレーティングシステム命令145とを記憶する。命令メモリ130はまた、様々な画像処理およびデバイス管理タスクを実施するようにプロセッサ160を構成する追加の命令を含んでもよい。
【0042】
[0047] AF命令140は、プロセッサ160によって実行されたときに、カメラ光学機構およびセンサ115Aまたは115Bのレンズに、対応するレンズの位置を調整させる命令を含んでよい。たとえば、プロセッサ160は、撮像センサのFOV内のROIからの光がセンサの平面で合焦されるように、カメラ光学機構およびセンサ115Aのレンズに調整させてよい。選択されるROIは、AFシステムの1つまたは複数の焦点に対応し得る。AF命令140は、プロセッサ160による実行時に、ROIからの光の焦点をセンサの平面で合わせるための最適なレンズ位置を見つけることなど、オートフォーカス動作をプロセッサ160に実施させる命令を含んでよい。オートフォーカスは、たとえば、位相検出オートフォーカス(PDAF)、コントラストオートフォーカス、またはレーザオートフォーカスを含み得る。
【0043】
[0048] AWB命令141は、プロセッサ160によって実行されたときに、画像に適用されるべき色補正をプロセッサ160に決定させる命令を含んでよい。たとえば、実行されたAWB命令141は、カメラ光学機構およびセンサ115Aまたはカメラ光学機構およびセンサ115Bが画像を取り込んだ際の照明光源の平均色温度を決定し、取り込まれた画像の色成分(たとえば、R、G、およびB)を、画像が表示または印刷される際の光に適合するようにスケーリングすることを、プロセッサ160に行わせてよい。さらに、いくつかの例では、実行されたAWB命令141は、画像のROI中の照明光源をプロセッサ160に決定させてよい。プロセッサ160は、次いで、画像のROI中の照明光源の決定された色温度に基づいて、色補正を画像に適用してよい。
【0044】
[0049] AG命令148は、プロセッサ160によって実行されたときに、画像に適用されるべき利得補正をプロセッサ160に決定させる命令を含んでよい。たとえば、実行されたAG命令148は、カメラ光学機構およびセンサ115Aまたはカメラ光学機構およびセンサ115Bのレンズから受け取られた信号をプロセッサ160に増幅させてよい。実行されたAG命令148はまた、画素値(たとえば、デジタル利得)をプロセッサ160に調整させてよい。
【0045】
[0050] AE命令142は、プロセッサ160によって実行されたときに、カメラ光学機構およびセンサ115Aまたはカメラ光学機構およびセンサ115Bの撮像センサなど、1つまたは複数の感知要素が画像の取込み前に光を積分する時間長を決定することをプロセッサ160に行わせる命令を含んでよい。たとえば、実行されたAE命令142は、周囲光を計量し、周囲光の計量に基づいてレンズのための露光時間を選択することを、プロセッサ160に行わせてよい。周囲光レベルが上昇するほど、選択される露光時間は短くなり、周囲光レベルが低下するほど、選択される露光時間は長くなる。デジタル一眼レフ(DSLR)カメラの場合、たとえば、実行されたAE命令142は、露光速度をプロセッサ160に決定させてよい。さらなる例では、実行されたAE命令142は、カメラ光学機構およびセンサ115Aまたはカメラ光学機構およびセンサ115Bのセンサの視野のROI中の周囲光を計量することを、プロセッサ160に行わせてよい。
【0046】
[0051] 取込み制御命令135は、プロセッサ160によって実行されたときに、画像取込みデバイス100のレンズ位置の調整、露光時間の設定、センサ利得の設定、および/またはホワイトバランスフィルタの構成をプロセッサ160に行わせる命令を含んでよい。取込み制御命令135はさらに、プロセッサ160によって実行されたときに、画像取込みデバイス100の画像取込み機能全体を制御する命令を含んでよい。たとえば、実行された取込み制御命令135は、AF命令140をプロセッサ160に実行させてよく、AF命令140は、所望のオートフォーカス位置を達成するためのレンズまたはセンサ移動を計算し、カメラ光学機構およびセンサ115Aまたはカメラ光学機構およびセンサ115Bのレンズを制御するためのレンズ制御信号を出力することを、プロセッサ160に行わせる。
【0047】
[0052] オペレーティングシステム命令145は、プロセッサ160によって実行されたときにオペレーティングシステムをプロセッサ160に実装させる命令を含んでよい。オペレーティングシステムは、ユーザアプリケーションなどのプログラムとプロセッサ160との間の媒介としての働きをし得る。オペレーティングシステム命令145は、カメラ光学機構およびセンサ115Aもしくは115B、折畳み可能ディスプレイ125、または送受信機111などのハードウェアリソースを管理するためのデバイスドライバを含んでよい。さらに、本明細書で論じられるような実行された画像処理命令143のうちの1つまたは複数は、オペレーティングシステム命令145に含まれ得る標準的なサブルーチンまたはアプリケーションプログラミングインターフェース(API)を通して間接的にハードウェアリソースと対話し得る。オペレーティングシステム命令145の実行された命令は、次いで、これらのハードウェア構成要素と直接に対話し得る。
【0048】
[0053] 顔検出エンジン144は、プロセッサ160によって実行されたときに、画像取込みデバイス100の視野内の1つまたは複数の被写体を表す画像データに対して顔検出を開始することをプロセッサ160に行わせる命令を含んでよい。たとえば、プロセッサ160は、対応する被写体の1つまたは複数の顔を含む、カメラ光学機構およびセンサ115のレンズの視野内のROIを決定するために、顔検出エンジン144を実行してよい。いくつかの事例では、顔検出エンジン144は、プロセッサ160による実行時、カメラ光学機構およびセンサ115Aまたはカメラ光学機構およびセンサ115Bのレンズの視野中の画像の生画像センサデータ(raw image sensor data)を取得してよい。実行された顔検出エンジン144はまた、顔検出を開始してよく、たとえば顔検出動作をプロセッサ160内でローカルに実施することによって、被写体の1つまたは複数の顔が視野中にあるかどうかを決定してよい。顔検出動作は、画像取込みデバイス100の視野が1つまたは複数の顔を含むかどうかを決定することと、含む場合に、1つまたは複数の顔を含むFOV中の領域(たとえば、ROI)を決定すること(たとえば、および識別すること)とのための計算を実施することを含み得るが、これに限定されない。
【0049】
[0054] 深度決定エンジン146は、プロセッサ160によって実行されたときに、カメラ光学機構およびセンサ115Aまたはカメラ光学機構およびセンサ115Bを用いて取り込まれた画像データに基づいて深度を決定することをプロセッサ160に行わせる命令を含んでよい。たとえば、プロセッサ160は、カメラ光学機構およびセンサ115Aを用いて取り込まれた第1の画像データと、カメラ光学機構およびセンサ115Bを用いて取り込まれた第2の画像データとの中の特徴を識別するために、深度決定エンジン146を実行してよい。さらに、また深度決定エンジン146の実行に基づいて、プロセッサ160は、当技術分野で知られている任意の技法を使用して、視差マップを生成する。視差マップは、識別された各特徴に対応する画素場所など、対応する各画素場所におけるシーン深度を識別する深度値を含み得る。
【0050】
[0055] 画像処理命令143は、実行されたときに、次のものに限定されないがデモザイキング、ノイズ低減、漏話低減、色処理、ガンマ調整、画像フィルタリング(たとえば、空間画像フィルタリング)、レンズアーチファクトもしくは欠陥補正、画像鮮鋭化、または他の画像処理機能など、取り込まれた画像データに関係する1つまたは複数の画像処理動作を実施することをプロセッサ160に行わせる命令を含んでよい。さらに、実行された画像処理命令143は、カメラ光学機構およびセンサ115Aを用いて取り込まれた第1の画像と、カメラ光学機構およびセンサ115Bを用いて取り込まれた第2の画像と、生成された深度値とに基づいて、3D画像などの多視点画像を生成してよい。
【0051】
[0056] ヒンジ角度制御エンジン147は、プロセッサ160によって実行されたときに、画像取込みデバイス100の第1の部分117Aを画像取込みデバイス100の第2の部分117Bに接続するヒンジアセンブリのヒンジ角度など、ヒンジ角度を調整することをプロセッサ160に行わせる命令を含んでよい。たとえば、プロセッサ160は、ヒンジ角度制御エンジン147を実行してヒンジ制御119を制御してよく、ヒンジ制御119は、第1の部分117Aと第2の部分117Bとに動作可能に結合されたヒンジアセンブリを含んでよい。プロセッサ160は、たとえばヒンジアセンブリを開くかまたは閉じてそれによりヒンジ角度をそれぞれ増加または減少させるために、ヒンジ制御119にコマンドを発行してよい。
【0052】
[0057] ルーマ検出エンジン149は、プロセッサ160によって実行されたときに、取り込まれた画像データの画素の画素値と、検出されたROI(たとえば、顔検出エンジン144を実行するプロセッサ160によって検出されたROI)内の画素の画素値とに基づいて、ルミナンス値などの値を決定することをプロセッサ160に行わせる命令を含んでよい。たとえば、ルーマ検出エンジン149は、プロセッサ160による実行時に、カメラ光学機構およびセンサ115Aまたはカメラ光学機構およびセンサ115Bのレンズの視野内の画像データなど、取り込まれた画像のすべての画素のルミナンス画素値に基づいて第1の値を決定してよい。実行されたルーマ検出エンジン149はまた、被写体の顔を含む検出されたROI内のすべての画素のルミナンス画素値に基づいて第2の値を決定することをプロセッサ160に行わせてよい。いくつかの例では、第1の値および第2の値のうちの1つまたは複数は、対応する画素値の平均ルミナンス画素値を含む。他の例では、第1の値および第2の値のうちの1つまたは複数は、対応する画素値の中央ルミナンス画素値を含む。他の例では、第1の値および第2の値は、次のことに限定されないが総平方和を決定することなど、任意の適切な数学的または統計的プロセスまたは技法に基づいて決定されてよい。
【0053】
[0058] ルーマベースのダイナミックレンジ検出エンジン151は、プロセッサ160によって実行されたときに、実行されたルーマ検出エンジン149によって決定された値(たとえば、第1の値および第2の値)に基づいて、取り込まれた画像データ(たとえば、画像センサデータ)が「高ダイナミックレンジ」シーンを識別するかそれとも「非高ダイナミックレンジ」シーンを識別するかを決定することをプロセッサ160に行わせる命令を含んでよい。たとえば、またプロセッサ160による実行時、実行されたルーマベースのダイナミックレンジ検出エンジン151は、第1の値を第2の値と比較し、比較に基づいて、取り込まれた画像データが「高ダイナミックレンジ」シーンを識別するかそれとも「非高ダイナミックレンジ」シーンを識別するかを決定してよい。いくつかの事例では、実行されたルーマベースのダイナミックレンジ検出エンジン151は、第1の値と第2の値との差を決定してよく、差がしきい値量(たとえば、所定のしきい値量)よりも大きかった場合は、実行されたルーマベースのダイナミックレンジ検出エンジン151は、取り込まれた画像データが「高ダイナミックレンジ」シーンを識別すると決定してよい。代替として、差がしきい値量と等価であったかまたはそれよりも低かった場合は、実行されたルーマベースのダイナミックレンジ検出エンジン151は、取り込まれた画像データが「非高ダイナミックレンジ」シーンを識別すると決定してよい。他の事例では、実行されたルーマベースのダイナミックレンジ検出エンジン151は、任意の適切な数学的または統計的プロセスまたは技法を第1の値および第2の値に適用することに基づいて、取り込まれた画像データが「高ダイナミックレンジ」シーンを識別するかそれとも「非高ダイナミックレンジ」シーンを識別するかを決定してよい。
【0054】
[0059] フォト効果エンジン153は、プロセッサ160によって実行されたときに、カメラ光学機構およびセンサ115Aまたはカメラ光学機構およびセンサ115Bによって取り込まれた画像データに1つまたは複数のフォト効果を適用することをプロセッサ160に行わせる命令を含んでよい。フォト効果の例は、カラーシフト、被写界深度(たとえば、ボケ効果)、AR、VR、および平均化効果を含む。いくつかの例では、実行されたフォト効果エンジン153は、実行された画像処理命令143によって生成された多視点画像に1つまたは複数のフォト効果を適用する。
【0055】
[0060] 図1ではプロセッサ160が画像取込みデバイス100内に位置するが、いくつかの例では、プロセッサ160は、1つまたは複数のクラウド分散型プロセッサを含み得る。たとえば、プロセッサ160に関して本明細書で記述される機能のうちの1つまたは複数は、対応するクラウドベースのサーバ内の1つまたは複数のクラウドプロセッサなど、1つまたは複数のリモートプロセッサによって遂行(たとえば、実施)されてよい。クラウドプロセッサは、ネットワークを介してプロセッサ160と通信してよく、プロセッサ160は、送受信機111を介してネットワークに接続する。クラウドプロセッサの各々は、非一時的クラウド記憶媒体(non-transitory cloud storage media)に結合されてよく、この非一時的クラウド記憶媒体は、対応するクラウドプロセッサと同じ場所に配置されることもあり、または対応するクラウドプロセッサからリモートにあることもある。ネットワークは、任意のパーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、またはインターネットであってよい。
【0056】
[0061] 図2は、図1の画像取込みデバイス100の例示的な構成要素を示す図である。図示のように、プロセッサ160は、カメラ光学機構およびセンサ115Aと、カメラ光学機構およびセンサ115Bとの各々に、通信可能に結合される。たとえば、プロセッサ160は、カメラ光学機構およびセンサ115Aに第1の画像データ203Aを取り込ませるために、画像取込みコマンド201Aを提供してよい。同様に、プロセッサ160は、カメラ光学機構およびセンサ115Bに第2の画像データ203Bを取り込ませるために、画像取込みコマンド201Bを提供してよい。カメラ光学機構およびセンサ115Aは、画像取込みデバイス100の第1の部分117A内に配置されてよく(たとえば、第1の部分117A上に位置決めされてよく)、カメラ光学機構およびセンサ115Bは、画像取込みデバイス100の第2の部分117B内に配置されてよい。第1の部分117Aは、折畳み可能ディスプレイ(たとえば、折畳み可能ディスプレイ125)の第1の内側表面(たとえば、ユーザに面する表面)を含んでよく、第2の部分117Bは、折畳み可能ディスプレイの第2の内側表面を含んでよい。画像取込みデバイス100は、画像取込みデバイスの第1の部分117Aを第2の部分117Bから分離する中央部に沿って、折畳み可能であってよい。
【0057】
[0062] いくつかの例では、画像取込みデバイス100は、タイマ212を含んでよい。タイマ212は、いくつかの例では、実行可能タイマであってよい。プロセッサ160は、タイマ212からタイムスタンプデータ213を受け取ってよい。プロセッサ160は、タイムスタンプを、カメラ光学機構およびセンサ115Aとカメラ光学機構およびセンサ115Bとのいずれかから取り込まれた画像データに関連付けてよい。たとえば、カメラ光学機構およびセンサ115Aから第1の画像データ203Aを受け取ると、プロセッサ160は、タイムスタンプをタイマ212に要求してよい(たとえば、タイマ212から読み取ってよい)。プロセッサ160は、タイムスタンプを識別するタイムスタンプデータ213を取得してよく、タイムスタンプを第1の画像データ203Aに関連付けてよい。たとえば、プロセッサ160は、第1の画像データ203Aに関連するメタデータとしてタイムスタンプを含めてよい。同様に、カメラ光学機構およびセンサ115Bから第2の画像データ203Bを受け取ると、プロセッサ160は、タイマ212にタイムスタンプデータ213を要求してこれを取得してよく、取得されたタイムスタンプを第2の画像データ203Bに関連付けてよい。
【0058】
[0063] さらに、プロセッサ160は、ヒンジ制御119に動作可能に結合される。この例では、ヒンジ制御119は、モータ(motor)208と、位置センサ(position sensor)210と、ヒンジアセンブリ206とを含む。ヒンジアセンブリ206は、画像取込みデバイス100の第1の部分117Aを画像取込みデバイス100の第2の部分117Bに接続する1つまたは複数のヒンジを含んでよい。モータ208は、ヒンジアセンブリ206に動作可能に結合され、1つまたは複数のヒンジを調整する(たとえば、開くかまたは閉じる)ように動作可能である。たとえば、プロセッサ160は、モータコマンド225をモータ208に提供してよい。それに応答して、モータ208は、1つまたは複数のヒンジを調整してそれにより第1の部分117Aと第2の部分117Bとの間のヒンジ角度を増加または減少させることを、ヒンジアセンブリ206に行わせてよい。たとえば、モータ208は、1つまたは複数のヒンジを開くために、ある方向に(たとえば、時計回りに)回転してよく、1つまたは複数のヒンジを閉じるために、別の方向に(たとえば、反時計回りに)回転してよい。
【0059】
[0064] 加えて、プロセッサ160は、位置センサ210から位置データ(position data)227を受け取ってよく、位置データ227は、ヒンジアセンブリ206の1つまたは複数のヒンジのヒンジ角度を識別する。いくつかの例では、ヒンジ角度を調整するために、プロセッサ160は、位置データ227を取得して第1のヒンジ角度を決定する。ヒンジ角度を第2のヒンジ角度に調整するために、プロセッサ160は、第2のヒンジ角度を第1のヒンジ角度と比較してよい。比較に基づいて、プロセッサ160は、ヒンジ角度を調整するためのモータコマンド225を生成し提供してよい。たとえば、プロセッサ160は、第2のヒンジ角度と第1のヒンジ角度との差を決定してよい。プロセッサ160は、次いで、決定された差を識別するモータコマンド225を生成してよく、モータコマンド225をモータ208に提供する。
【0060】
[0065] いくつかの例では、画像取込みデバイス100は、入力デバイス170を介して受け取られたユーザ入力などのユーザ入力を受け取ることに基づいて、ヒンジ角度を調整してよい。たとえば、画像取込みデバイス100は、ユーザがユーザ入力を提供するのを可能にするグラフィカルユーザインターフェース(GUI)を、(たとえば、折畳み可能ディスプレイ125を介して)表示してよい。ユーザ入力に基づいて、プロセッサ160は、モータコマンド225を生成し、モータコマンド225をモータ208に提供してヒンジ角度を調整する。いくつかの例では、GUIは、画像効果(たとえば、シーンの最大化、多視点合成のための種々の機能、ボケなど)を最適化するためにヒンジ角度を調整する(たとえば、開くかまたは閉じる)かどうかについて、ユーザに通知する。たとえば、画像取込みデバイス100は、本明細書に記載のように、取り込まれた画像データ内のオブジェクトについてのオブジェクト深度を決定してよい。決定されたオブジェクト深度に基づいて、画像取込みデバイス100は、画像効果を最適化すべくヒンジ角度を調整する(たとえば、開くかまたは閉じる)ための入力を提供するよう、1つまたは複数のGUI要素を介してユーザに通知してよい。いくつかの例では、画像取込みデバイス100は、調整された角度に基づいて、折畳み可能ディスプレイ125などのディスプレイ上にGUI要素を出力する。
【0061】
[0066] 図3A、3B、3C、および3Dは、カメラ光学機構およびセンサ115Aと、カメラ光学機構およびセンサ115Bとの各々の例示的なカメラ構成を示す。たとえば、図3Aは、カメラ光学機構およびセンサ115Aについての単一のカメラ302と、カメラ光学機構およびセンサ115Bについての単一のカメラ304とを示す。図3Bは、第1のカメラ302Aと第2のカメラ302Bとを有するカメラ光学機構およびセンサ115A、ならびに、第1のカメラ304Aと第2のカメラ304Bとを有するカメラ光学機構およびセンサ115Bを示す。カメラ302Aと302Bと、ならびにカメラ304Aと304Bとは水平に示されているが、これらは、垂直にまたは任意の適切な構成で位置決めされることが可能である。
【0062】
[0067] さらに、図3Cは、第1のカメラ302Aと第2のカメラ302Bと第3のカメラ302Cとを有するカメラ光学機構およびセンサ115Aを示す。カメラ光学機構およびセンサ115Bは、第1のカメラ304Aと第2のカメラ304Bと第3のカメラ304Cとを含む。カメラ302A、302B、302C、および、カメラ304A、304B、304Cは垂直に示されているが、これらは、水平にまたは任意の適切な構成で位置決めされることが可能である。たとえば、図3Dは、カメラ光学機構およびセンサ115Aのカメラ302A、302B、302Cを「Y」隊形(たとえば、逆三角形隊形)で示している。図3Dはまた、カメラ光学機構およびセンサ115Bのカメラ304A、304B、304Cを同様の「Y」隊形で示している。
【0063】
[0068] 図4A、4B、および4Cは、画像取込みデバイス100と折畳み可能ディスプレイ125とを含む折畳み可能デバイス400を示す。折畳み可能デバイス400は、たとえば、折畳み可能なスマートフォンまたはタブレットであり得る。折畳み可能デバイス400は、第1の部分401と第2の部分403とを有する筐体を含んでよい。第1の部分401は、第2の部分403に対して相対的に折り重なることができる。第1の部分401および第2の部分403の各々は、1つまたは複数のディスプレイを含んでよい。たとえば、図示のように、折畳み可能ディスプレイ125は、第1の部分401内に配置され得る第1のディスプレイ部分125Aと、第2の部分403内に配置され得る第2のディスプレイ部分125Bとを含む。第1のディスプレイ部分125Aおよび第2のディスプレイ部分125Bは、プロセッサ160(図4A、4B、および4Cには示されていない)に通信可能に結合されてよい。筐体の第1の部分401および第2の部分403の各々はまた、カメラ光学機構およびセンサ115A、115Bなど、1つまたは複数のカメラ光学機構およびセンサを含んでよい。カメラ光学機構およびセンサ115Aおよび115Bの各々は、図3A、3B、3C、および3Dに関して示された構成など、任意の適切な構成で配列または配置された任意の数のカメラを含んでよい。
【0064】
[0069] さらに、図4Aに示されるように、カメラ光学機構およびセンサ115Aは、折畳み可能デバイス400の筐体の第1の部分401の第1の表面402に沿って位置決めされてよく、カメラ光学機構およびセンサ115Bは、折畳み可能デバイス400の筐体の第2のデバイス部分403の第2の表面404に沿って位置決めされてよい。さらに、また例として、カメラ光学機構およびセンサ115Aは、対応する垂直軸(たとえば、図4Aの「Y」軸)に沿って、第1のディスプレイ部分125Aの上方に位置決めされてよく、カメラ光学機構およびセンサ115Bは、対応する垂直軸に沿って、第2のディスプレイ部分125Bの上方に位置決めされてよい。図4Bに示されるさらなる例では、カメラ光学機構およびセンサ115Aは、対応する垂直軸に沿って、第1のディスプレイ部分125Aの下方に位置決めされてよく、カメラ光学機構およびセンサ115Bは、対応する垂直軸に沿って、第2のディスプレイ部分125Bの下方に位置決めされてよい。
【0065】
[0070] 図4Cに示される追加の例では、カメラ光学機構およびセンサ115Aは、第1のディスプレイ部分125Aの表面の下に位置決めされてよく、カメラ光学機構およびセンサ115Bは、第2のディスプレイ部分125Bの表面の下に位置決めされてよい。カメラ光学機構およびセンサ115Aとカメラ光学機構およびセンサ115Bとが各々第1のディスプレイ部分125Aおよび第2のディスプレイ部分のうちのそれぞれの表面の下に位置決めされているので、光は、それぞれ第1のディスプレイ部分125Aおよび第2のディスプレイ部分125Bを通過した後で対応するセンサに当たり得る。さらに、図4Cではカメラ光学機構およびセンサ115Aとカメラ光学機構およびセンサ115Bとの各々がそれぞれ第1のディスプレイ部分125Aおよび第2のディスプレイ部分125Bの上部付近に示されているが、いくつかの例では、カメラ光学機構およびセンサ115Aとカメラ光学機構およびセンサ115Bとの各々は、完全にまたは部分的に、それぞれ第1のディスプレイ部分125Aおよび第2のディスプレイ部分125Bの任意の追加的または代替的部分の下に配置されてもよい。
【0066】
[0071] 折畳み可能デバイス400の中央部453は、450A、450B、450Cなど、第1の部分401を第2の部分403に結合する1つまたは複数のヒンジを含んでよい。ヒンジ450A、450B、450Cは、折畳み可能デバイス400の開閉を可能にするなどのために、第1の部分401が第2の部分403に対して相対的に折り重なることができるようにする。例として、プロセッサ160は、ヒンジ450A、450B、または450Cのうちの1つまたは複数に結合された対応するモータ(たとえば、モータ208)に対して生成され提供されたコマンドに基づいて、第1の部分401の第1の内側表面402と第2の部分403の第2の内側表面404との間に形成されるヒンジ角度406を調整するために、ヒンジ角度制御エンジン147を実行してよい。加えて、いくつかの例では、折畳み可能デバイス400のオペレータまたはユーザが、ディスプレイ125の一部に提示されたグラフィカルユーザインターフェースに基づいて、ヒンジ角度406を手動で調整してもよい。
【0067】
[0072] 図4Dは、シーン475の画像を取り込む折畳み可能デバイス400を示す。シーン475は、たとえば、複数の木476と風船477とを含む。この例では、カメラ302など、カメラ光学機構およびセンサ115Aのカメラが、シーン475の風船477に対する焦点距離477Aを有する。同様に、カメラ光学機構およびセンサ115Bのカメラが、シーン475の風船477に対する焦点距離477Bを有する。さらに、現在のヒンジ角度406では、カメラ光学機構およびセンサ115Aのカメラは、カメラ光学機構およびセンサ115Bのカメラから基線長451の距離にある。ヒンジ角度406の複数の範囲の各々に対する基線長451が、画像取込みデバイス100の較正中に決定されてよく、記憶媒体110などの不揮発性メモリに記憶されてよい。たとえば、画像取込みデバイス100は、本明細書に記載のような現在のヒンジ角度406を決定してよく、記憶媒体110に記憶された、ヒンジ角度406を基線長451にマッピングするテーブルに基づいて、(たとえば、カメラ光学機構およびセンサ115Aのカメラからカメラ光学機構およびセンサ115Bのカメラまでの)対応する基線長451を決定してよい。
【0068】
[0073] プロセッサ160は、取込み制御命令135を実行して、カメラ光学機構およびセンサ115Aからシーン475の第1の画像データを取り込み、カメラ光学機構およびセンサ115Bからシーン475の第2の画像データを取り込んでよい。さらに、プロセッサ160は、本明細書に記載のような深度決定エンジン146を実行して、風船477など、シーン475の特徴を識別し、第1の画像データおよび第2の画像データに基づいて視差マップを決定してよい。視差(disparity)は、第1の画像データおよび第2の画像データの対応する画素に関連する深度値を識別し得る。たとえば、視差マップは、基線長451から風船477までの深度452に対応する深度値を含み得る。
【0069】
[0074] プロセッサ160は、次いで、カメラの各々に対応する外因性および内因性パラメータと、視差マップとに基づいて、ヒンジ角度406を調整してよい。プロセッサ160は、カメラ光学機構およびセンサ115Aを用いて取り込まれた画像データを、カメラ光学機構およびセンサ115Bを用いて取り込まれた画像データと整合するように、ヒンジ角度406を調整してよい。たとえば、ヒンジ角度406を調整した後、プロセッサ160は、取込み制御命令135を実行して、カメラ光学機構およびセンサ115Aからシーン475の第3の画像データを取り込み、カメラ光学機構およびセンサ115Bからシーン475の第4の画像データを取り込んでよい。第3の画像データは、たとえば第2の画像データに対する第1の画像データの整合よりも、第4の画像データにより整合され得る。プロセッサ160は、深度決定エンジン146を実行して、第3の画像データおよび第4の画像データに基づいて第2の視差マップを生成してよい。
【0070】
[0075] プロセッサ160は、画像処理命令143を実行して、第3の画像データ、第4の画像データ、および第2の視差マップに基づいて3D画像などの多視点画像を生成してよい。いくつかの例では、プロセッサ160は、顔検出エンジン144を実行して、生成された多視点画像内で被写体の顔を識別してよい。
【0071】
[0076] いくつかの例では、プロセッサ160は、フォト効果エンジン153を実行して、生成された多視点画像に1つまたは複数のフォト効果を適用してよい。たとえば、実行されたフォト効果エンジン153は、カラーシフト、被写界深度(たとえば、ボケ効果)、AR、VR、平均化効果、またはいずれか他の画像取込み向上を多視点画像に適用してよい。
【0072】
[0077] 図5は、一実装形態による、調整されたヒンジ角度に基づいて画像を取り込むための例示的なプロセス500のフローチャートである。プロセス500は、図1の画像取込みデバイス100のプロセッサ160など、画像取込みデバイスにおいてローカルに命令を実行する1つまたは複数のプロセッサによって実施されてよい。したがって、プロセス500の様々な動作は、画像取込みデバイス100の記憶媒体110など、1つまたは複数のコンピューティングプラットフォームの記憶媒体に保持された実行可能命令によって表され得る。
【0073】
[0078] ブロック502を参照すると、画像取込みデバイス100は、カメラ光学機構およびセンサ115Aからの画像データなど、第1のセンサからの第1の画像データを取得してよい。第1のセンサは、折畳み可能ディスプレイの第1の内表面上に位置決めされてよい。たとえば、カメラ光学機構およびセンサ115Aは、折畳み可能ディスプレイ125の第1のディスプレイ部分125Aの表面上に位置決めされてよい。ブロック504で、画像取込みデバイス100は、カメラ光学機構およびセンサ115Bからの画像データなど、第2の画像センサからの第2の画像データを取得してよい。第2のセンサは、折畳み可能ディスプレイの第2の内表面上に位置決めされている。たとえば、カメラ光学機構およびセンサ115Bは、折畳み可能ディスプレイ125の第2のディスプレイ部分125Bの表面上に位置決めされてよい。
【0074】
[0079] ブロック506で、画像取込みデバイス100は、第1の画像データおよび第2の画像データに基づいてオブジェクトの深度を決定してよい。たとえば、また本明細書に記載のように、画像取込みデバイス100は、第1の画像データおよび第2の画像データの各々の中の特徴(たとえば、風船477)を識別してよい。いくつかの例によれば、画像取込みデバイス100は、第1の画像データ中の重要なアイテムを有する画素を、第2の画像データ中の対応する重要なアイテムを有する画素とマッチングする。画像取込みデバイス100は、次いで、当技術分野で知られている任意の技法を使用して視差マップを生成する。視差マップは、対応する各画素場所におけるシーン深度を示し得る。画像取込みデバイス100は、各カメラの焦点距離(たとえば、477A)と、基線長(たとえば、基線長451)と、視差マップとに基づいて、深度値を計算してよい。
【0075】
[0080] ブロック508に進み、画像取込みデバイス100は、決定された深度に基づいて、第1の内表面を第2の内表面に結合するヒンジのヒンジ角度を調整する。たとえば、画像取込みデバイス100は、決定された深度に基づいて、図4Aのヒンジ角度406などのヒンジ角度を増加または減少させてよい。ブロック510で、画像取込みデバイス100は、調整に応答して画像取込み動作を実施する。たとえば、画像取込みデバイス100は、第1のセンサからの第3の画像データと、第2のセンサからの第4の画像データとを取得してよい。画像取込みデバイス100は、第3の画像データおよび第4の画像データ内の対応する特徴を識別し、識別された特徴に基づいて第2の視差マップを生成してよい。画像取込みデバイス100は、次いで、第3の画像データ、第4の画像データ、および第2の視差マップに基づいて、多視点画像を生成してよい。
【0076】
[0081] 図6は、一実装形態による、画像取込み動作を実施するための例示的なプロセス600のフローチャートである。プロセス600は、図1の画像取込みデバイス100のプロセッサ160など、画像取込みデバイスにおいてローカルに命令を実行する1つまたは複数のプロセッサによって実施されてよい。したがって、プロセス600の様々な動作は、画像取込みデバイス100の記憶媒体110など、1つまたは複数のコンピューティングプラットフォームの記憶媒体に保持された実行可能命令によって表され得る。
【0077】
[0082] ブロック602を参照すると、画像取込みデバイス100は、ヒンジ450Aなどのヒンジの、ヒンジ角度406などのヒンジ角度を決定してよい。ヒンジは、折畳み可能デバイス(たとえば、折畳み可能デバイス400)の、第1のセンサ(たとえば、カメラ光学機構およびセンサ115A)を有する第1の内表面(たとえば、第1の内側表面402)を、折畳み可能デバイスの、第2のセンサ(たとえば、カメラ光学機構およびセンサ115B)を有する第2の内表面(たとえば、第2の内側表面404)に結合する。たとえば、画像取込みデバイス100は、たとえばヒンジ角度を決定するために位置センサ210から位置データ227を取得してよい。
【0078】
[0083] ブロック604で、画像取込みデバイス100は、ヒンジ角度に基づいて、第1のセンサおよび第2のセンサの各々に対応するパラメータの値を決定してよい。たとえば、記憶媒体110は、センサの各々について内因性パラメータ167と外因性パラメータ169とを記憶してよい。さらに、内因性パラメータ167および外因性パラメータ169は、複数のヒンジ範囲角度についてのパラメータを含んでよい。たとえば、内因性パラメータ167および外因性パラメータ169の第1のセットは、ヒンジ角度の第1の範囲(たとえば、0度から5度まで)に対応してよく、内因性パラメータ167および外因性パラメータ169の第2のセットは、ヒンジ角度の第2の範囲(たとえば、5度から10度まで)に対応してよく、以下同様である。いくつかの例では、各ヒンジ角度が、対応する内因性および外因性パラメータを有する。画像取込みデバイス100は、第1のセンサおよび第2のセンサの各々につき、決定されたヒンジ角度に対応する内因性パラメータ167および外因性パラメータ169を取得してよい。
【0079】
[0084] ブロック606に進み、画像取込みデバイス100は、第1のセンサからの第1の画像データと、第2のセンサからの第2の画像データとを取得してよい。たとえば、画像取込みデバイス100は、カメラ光学機構およびセンサ115Aからの画像データ203Aと、カメラ光学機構およびセンサ115Bからの画像データ203Bとを取得してよい。ブロック608で、画像取込みデバイス100は、第1の画像データ、第2の画像データ、およびパラメータに基づいて、オブジェクトの視差(disparity)を決定してよい。たとえば、画像取込みデバイス100は、本明細書に記載のように、第1の画像データおよび第2の画像データ内のオブジェクトを識別してよく、各カメラに対応する外因性および内因性パラメータに基づいて、オブジェクトについての視差値を含む視差マップを生成してよい。画像取込みデバイス100は、知られている任意の技法を視差値に適用して、オブジェクトの視差を決定してよい。たとえば、画像取込みデバイス100は、視差値の平均を決定して、オブジェクトについての視差を決定してよい。
【0080】
[0085] ブロック610で、画像取込みデバイス100は、決定された視差がしきい値未満であるかどうかを決定してよい。たとえば、しきい値視差は、所定のしきい値を含んでよく、画像取込みデバイス100は、この所定のしきい値を記憶媒体110内で維持してよい。視差がしきい値未満でなかった場合は、方法はブロック612に進み、画像取込みデバイス100はヒンジ角度を調整してよい。たとえば、画像取込みデバイス100は、モータコマンド225をモータ208に提供して、ヒンジアセンブリ206のヒンジ(たとえば、450A)のヒンジ角度(たとえば、ヒンジ角度406)を調整してよい。方法600は、次いで、ブロック602に戻る。
【0081】
[0086] 再びブロック610を参照するが、決定された視差がしきい値視差未満であった場合は、方法はブロック614に進み、画像取込みデバイス100は、第1の画像センサおよび第2の画像センサを使用して画像取込み動作を実施する。たとえば、画像取込みデバイス100は、第1のセンサからの第3の画像データと、第2のセンサからの第4の画像データとを取得してよい。画像取込みデバイス100は、本明細書に記載の任意のプロセスを使用して、第3の画像データおよび第4の画像データ(ならびに、いくつかの例では、対応するカメラパラメータ)に基づいて視差マップを決定してよく、第3の画像データ、第4の画像データ、および視差マップに基づいて多視点画像を生成してよい。
【0082】
[0087] 図7は、一実装形態による、ユーザ作成画像を生成するための例示的なプロセス700のフローチャートである。プロセス700は、図1の画像取込みデバイス100のプロセッサ160など、画像取込みデバイスにおいてローカルに命令を実行する1つまたは複数のプロセッサによって実施されてよい。したがって、プロセス700の様々な動作は、画像取込みデバイス100の記憶媒体110など、1つまたは複数のコンピューティングプラットフォームの記憶媒体に保持された実行可能命令によって表され得る。
【0083】
[0088] ブロック702で、画像取込みデバイス100は、シーンの画像を取り込むための入力を受け取ってよい。たとえば、ユーザが、シーン(たとえば、シーン475)の画像を取り込む(たとえば、写真を撮影する)ための入力を(たとえば、I/O170を介して)提供してよい。ブロック704で、入力に応答して、画像取込みデバイス100は、折畳み可能ディスプレイの第1の内表面内に位置決めされた第1のセンサから、第1の画像データを取得する。画像取込みデバイスはまた、折畳み可能ディスプレイの第2の内表面内に位置決めされた第2のセンサから、第2の画像データを取得する。たとえば、カメラ光学機構およびセンサ115Aが、ディスプレイ125の第1のディスプレイ部分125A内に位置決めされていてよく、カメラ光学機構およびセンサ115Bが、ディスプレイ125の第2のディスプレイ部分125B内に位置決めされていてよい。
【0084】
[0089] ブロック706に進み、画像取込みデバイス100は、第1の画像データおよび第2の画像データに基づいて、被写体の顔を検出してよい。たとえば、画像取込みデバイス100は、第1の画像データおよび第2の画像データのROI内で被写体の顔を検出してよい。さらに、ブロック708で、画像取込みデバイス100は、検出された顔に基づいてヒンジ角度を調整してよい。ヒンジ角度(たとえば、ヒンジ角度406)は、折畳み可能ディスプレイの第1の内表面を、折畳み可能ディスプレイの第2の内表面に結合する。たとえば、画像取込みデバイス100は、顔についての視差値を決定してよく、第1のセンサの焦点距離と、第1のセンサと第2のセンサとの間の基線長と、視差値とに基づいて、顔についての深度値を計算してよい。画像取込みデバイスは、次いで、深度値に基づいてヒンジ角度を調整してよい。
【0085】
[0090] ブロック710で、画像取込みデバイス100は、ヒンジ角度調整に応答して、第1のセンサおよび第2のセンサを使用して画像を取り込んでよい。たとえば、画像取込みデバイス100は、第1のセンサからの第3の画像データと、第4のセンサからの第4の画像データとを取得してよい。画像取込みデバイス100は、本明細書に記載のように、第3の画像データおよび第4の画像データに基づいて視差マップを決定してよく、視差マップ、第3の画像データ、および第4の画像データに基づいて、多視点画像を生成してよい。
【0086】
[0091] ブロック712に進み、画像取込みデバイス100は、取り込まれた画像にフォト効果を適用して、ユーザ作成画像を生成してよい。たとえば、画像取込みデバイス100は、ボケ効果など、ユーザによって選択された任意のフォト効果を多視点画像に適用して、ユーザ作成画像を生成してよい。ブロック714で、画像取込みデバイス100は、ユーザ作成画像を、記憶媒体110など、対応する有形の非一時的メモリ内に記憶してよい。
【0087】
[0092] 以下の番号付き条項に、実装例がさらに記載される。
【0088】
1.第1の筐体部分と第2の筐体部分とを備える筐体と、
命令を記憶した非一時的機械可読記憶媒体と、
前記非一時的機械可読記憶媒体に結合された少なくとも1つのプロセッサと
を備える画像取込みデバイスであって、前記少なくとも1つのプロセッサが、
前記筐体の前記第1の筐体部分に結合された第1のセンサから第1の画像データを取得することと、
前記筐体の前記第2の筐体部分に結合された第2のセンサから第2の画像データを取得することと、
前記第1の画像データおよび前記第2の画像データに基づいてオブジェクトの深度を決定することと、
前記深度に基づいて前記第1の筐体部分と前記第2の筐体部分との間の調整された角度を出力することと、
前記調整された角度に基づいて画像取込み動作を実施することと
を行うために前記命令を実行するように構成された、画像取込みデバイス。
【0089】
2.前記少なくとも1つのプロセッサが、
前記調整された角度の前記出力に基づいて、前記第1のセンサからの第3の画像データと前記第2のセンサからの第4の画像データとを取得することと、
前記第3のセンサデータおよび前記第4のセンサデータに基づいて多視点画像を生成することと
を行うために前記命令を実行するようにさらに構成された、条項1の画像取込みデバイス。
【0090】
3.前記少なくとも1つのプロセッサが、
前記多視点画像にフォト効果を適用することに基づいてユーザ作成画像を生成することと、
前記ユーザ作成画像を前記非一時的機械可読記憶媒体に記憶することと
を行うために前記命令を実行するようにさらに構成された、条項2の画像取込みデバイス。
【0091】
4.前記少なくとも1つのプロセッサが、
前記多視点画像をセグメント化する(segment)ことと、
前記セグメント化された多視点画像に基づいて前記フォト効果を適用することと
を行うために前記命令を実行するようにさらに構成された、条項3の画像取込みデバイス。
【0092】
5.前記フォト効果がボケ効果を備える、条項4の画像取込みデバイス。
【0093】
6.前記オブジェクトが顔を備え、
前記少なくとも1つのプロセッサが、前記顔を検出するために前記命令を実行するようにさらに構成された、条項1~5のいずれかの画像取込みデバイス。
【0094】
7.前記少なくとも1つのプロセッサが、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記角度に基づいて前記オブジェクトの前記深度を決定することと
を行うために前記命令を実行するようにさらに構成された、条項1~6のいずれかの画像取込みデバイス。
【0095】
8.前記少なくとも1つのプロセッサが、前記第1の画像データおよび前記第2の画像データに基づいて視差データ(disparity data)を生成するために前記命令を実行するようにさらに構成された、条項1~7のいずれかの画像取込みデバイス。
【0096】
9.前記少なくとも1つのプロセッサが、
前記筐体の前記第1の部分と前記第2の部分との間の角度を決定することと、
前記決定された角度に基づいて前記第1のセンサと前記第2のセンサとの間の基線長を決定することと、
前記第1のセンサと前記第2のセンサとのうちの少なくとも一方の焦点距離を決定することと、
前記視差データ、前記基線長、および前記焦点距離に基づいて深度値を生成することと
を行うために前記命令を実行するようにさらに構成された、条項8の画像取込みデバイス。
【0097】
10.前記少なくとも1つのプロセッサが、
前記視差データに基づいて前記オブジェクトの視差を決定することと、
前記視差および視差しきい値(disparity threshold)に基づいて、前記調整された角度を出力することと
を行うために前記命令を実行するようにさらに構成された、条項8~9のいずれかの画像取込みデバイス。
【0098】
11.前記少なくとも1つのプロセッサが、
位置センサから位置データを取得することと、
前記位置データに基づいて前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて、前記調整された角度を決定することと
を行うために前記命令を実行するようにさらに構成された、条項1~10のいずれかの画像取込みデバイス。
【0099】
12.前記少なくとも1つのプロセッサが、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて1つまたは複数のカメラパラメータを決定することと、
前記1つまたは複数のカメラパラメータに基づいて、前記調整された角度を出力することと
を行うために前記命令を実行するようにさらに構成された、条項1~11のいずれかの画像取込みデバイス。
【0100】
13.前記1つまたは複数のカメラパラメータが平行移動行列を備え、
前記少なくとも1つのプロセッサが、前記平行移動行列に基づいて前記第1のセンサの基準(reference)を前記第2のセンサの対応する基準に平行移動する(translate)ために前記命令を実行するようにさらに構成された、条項12の画像取込みデバイス。
【0101】
14.前記第1の筐体部分がディスプレイの第1の部分を備え、
前記第2の筐体部分が前記ディスプレイの第2の部分を備え、
前記第1のセンサが前記ディスプレイの前記第1の部分の下に配置され、前記第2のセンサが前記ディスプレイの前記第2の部分の下に配置された、
条項1~13のいずれかの画像取込みデバイス。
【0102】
15.モータをさらに備える、条項1~14のいずれかの画像取込みデバイス。
【0103】
16.前記モータが、前記調整された角度に基づいて前記第1の筐体部分と前記第2の筐体部分との間の角度を調整するように構成された、条項15の画像取込みデバイス。
【0104】
17.前記プロセッサが、前記調整された角度に基づいてGUI要素をディスプレイ上に出力するために前記命令を実行するようにさらに構成された、条項1~16のいずれかの画像取込みデバイス。
【0105】
18.画像取込みデバイスを動作させるための方法であって、
前記画像取込みデバイスの筐体の第1の部分に結合された第1のセンサから第1の画像データを取得することと、
前記筐体の第2の部分に結合された第2のセンサから第2の画像データを取得することと、
前記第1の画像データおよび前記第2の画像データに基づいてオブジェクトの深度を決定することと、
前記決定された深度に基づいて前記第1の筐体部分と前記第2の筐体部分との間の調整された角度を出力することと、
前記調整された角度に基づいて画像取込み動作を実施することと
を備える方法。
【0106】
19.前記画像取込み動作を実施することが、
前記調整された角度の前記出力に基づいて、前記第1のセンサからの第3の画像データと前記第2のセンサからの第4の画像データとを取得することと、
前記第3のセンサデータおよび前記第4のセンサデータに基づいて多視点画像を生成することと
を備える、条項18の方法。
【0107】
20.前記多視点画像にフォト効果を適用することに基づいてユーザ作成画像を生成することと、
前記ユーザ作成画像をメモリデバイスに記憶することと
をさらに備える、条項19の方法。
【0108】
21.前記多視点画像をセグメント化することと、
前記セグメント化された多視点画像に基づいて前記フォト効果を適用することと
をさらに備える、条項20の方法。
【0109】
22.前記フォト効果がボケ効果を備える、条項21の方法。
【0110】
23.前記オブジェクトが顔を備え、前記方法が前記顔を検出することをさらに備える、条項18~22のいずれかの方法。
【0111】
24.前記筐体の前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記角度に基づいて前記オブジェクトの前記深度を決定することと
をさらに備える、条項18~23のいずれかの方法。
【0112】
25.前記オブジェクトの前記深度を決定することが、前記第1の画像データおよび前記第2の画像データに基づいて視差データを生成することを備える、条項18~22のいずれかの方法。
【0113】
26.前記オブジェクトの前記深度を決定することが、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて前記第1のセンサと前記第2のセンサとの間の基線長を決定することと、
前記第1のセンサと前記第2のセンサとのうちの少なくとも一方の焦点距離を決定することと、
前記視差データ、前記基線長、および前記焦点距離に基づいて深度値を生成することと
を備える、条項25の方法。
【0114】
27.前記視差データに基づいて前記オブジェクトの視差を決定することと、
前記視差および視差しきい値に基づいて、前記調整された角度を出力することと
をさらに備える、条項25~26のいずれかの方法。
【0115】
28.位置センサから位置データを取得することと、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて、前記調整された角度を決定することと
をさらに備える、条項18~27のいずれかの方法。
【0116】
29.前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて1つまたは複数のカメラパラメータを決定することと、
前記1つまたは複数のカメラパラメータに基づいて前記調整された角度を出力することと
をさらに備える、条項18~28の方法。
【0117】
30.前記1つまたは複数のカメラパラメータが平行移動行列を備え、
前記方法が、前記平行移動行列に基づいて前記第1のセンサの基準を前記第2のセンサの対応する基準に平行移動することをさらに備える、条項29の方法。
【0118】
31.前記調整された角度に基づいてGUI要素をディスプレイ上に出力することをさらに備える、条項18~30のいずれかの方法。
【0119】
32.命令を記憶した非一時的機械可読記憶媒体であって、命令が、少なくとも1つのプロセッサによって実行されたとき、
画像取込みデバイスの筐体の第1の筐体部分に結合された第1のセンサから第1の画像データを取得することと、
前記筐体の第2の筐体部分に結合された第2のセンサから第2の画像データを取得することと、
前記第1の画像データおよび前記第2の画像データに基づいてオブジェクトの深度を決定することと、
前記深度に基づいて前記第1の部分と前記第2の部分との間の調整された角度を出力することと、
前記調整された角度に基づいて画像取込み動作を実施することと
を備える動作を前記少なくとも1つのプロセッサに実施させる、非一時的機械可読記憶媒体。
【0120】
33.前記少なくとも1つの画像取込み動作を実施することが、
前記調整された角度の前記出力に基づいて、前記第1のセンサからの第3の画像データと前記第2のセンサからの第4の画像データとを取得することと、
前記第3のセンサデータおよび前記第4のセンサデータに基づいて多視点画像を生成することと
を備える、条項32の非一時的機械可読記憶媒体。
【0121】
34.前記命令が、前記少なくとも1つのプロセッサによって実行されたとき、
前記多視点画像にフォト効果を適用することに基づいてユーザ作成画像を生成することと、
前記ユーザ作成画像をメモリデバイスに記憶することと
を備えるさらなる動作を前記少なくとも1つのプロセッサに実施させる、条項33の非一時的機械可読記憶媒体。
【0122】
35.前記命令が、前記少なくとも1つのプロセッサによって実行されたとき、
前記多視点画像をセグメント化することと、
前記セグメント化された多視点画像に基づいて前記フォト効果を適用することと
を備えるさらなる動作を前記少なくとも1つのプロセッサに実施させる、条項34の非一時的機械可読記憶媒体。
【0123】
36.前記フォト効果がボケ効果を備える、条項35の非一時的機械可読記憶媒体。
【0124】
37.前記命令が、前記少なくとも1つのプロセッサによって実行されたとき、顔を検出することを備えるさらなる動作を前記少なくとも1つのプロセッサに実施させ、前記オブジェクトが、前記検出される顔を備える、条項32~36のいずれかの非一時的機械可読記憶媒体。
【0125】
38.前記命令が、前記少なくとも1つのプロセッサによって実行されたとき、
前記筐体の前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記角度に基づいて前記オブジェクトの前記深度を決定することと
を備えるさらなる動作を前記少なくとも1つのプロセッサに実施させる、条項32~37のいずれかの非一時的機械可読記憶媒体。
【0126】
39.前記オブジェクトの前記深度を決定することが、前記第1の画像データおよび前記第2の画像データに基づいて視差データを生成することを備える、条項32~38のいずれかの非一時的機械可読記憶媒体。
【0127】
40.前記オブジェクトの前記深度を決定することが、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて前記第1のセンサと前記第2のセンサとの間の基線長を決定することと、
前記第1のセンサと前記第2のセンサとのうちの少なくとも一方の焦点距離を決定することと、
前記視差データ、前記基線長、および前記焦点距離に基づいて深度値を生成することと
を備える、条項39の非一時的機械可読記憶媒体。
【0128】
41.前記命令が、前記少なくとも1つのプロセッサによって実行されたとき、
前記視差データに基づいて前記オブジェクトの視差を決定することと、
前記視差および視差しきい値に基づいて前記第1の部分と前記第2の部分との間の前記調整された角度を出力することと
を備えるさらなる動作を前記少なくとも1つのプロセッサに実施させる、条項39および40のいずれかの非一時的機械可読記憶媒体。
【0129】
42.前記命令が、前記少なくとも1つのプロセッサによって実行されたとき、
位置センサから位置データを取得することと、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて、前記調整された角度を決定することと
を備えるさらなる動作を前記少なくとも1つのプロセッサに実施させる、条項32~41のいずれかの非一時的機械可読記憶媒体。
【0130】
43.前記オブジェクトの前記深度を決定することが、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定することと、
前記決定された角度に基づいて1つまたは複数のカメラパラメータを決定することと、ここにおいて、前記調整された角度を出力することが前記1つまたは複数のカメラパラメータに基づく、
前記1つまたは複数のカメラパラメータに基づいて、前記調整された角度を出力することと
をさらに備える、条項32~42のいずれかの非一時的機械可読記憶媒体。
【0131】
44.前記1つまたは複数のカメラパラメータが平行移動行列を備え、前記命令が、前記少なくとも1つのプロセッサによって実行されたとき、前記平行移動行列に基づいて前記第1のセンサの基準を前記第2のセンサの対応する基準に平行移動することを備えるさらなる動作を前記少なくとも1つのプロセッサに実施させる、条項43の非一時的機械可読記憶媒体。
【0132】
45.前記命令が、前記少なくとも1つのプロセッサによって実行されたとき、前記調整された角度に基づいてGUI要素をディスプレイ上に出力することを備えるさらなる動作を前記少なくとも1つのプロセッサに実施させる、条項32~44のいずれかの非一時的機械可読記憶媒体。
【0133】
46.画像取込みデバイスの筐体の第1の筐体部分に結合された第1のセンサから第1の画像データを取得するための手段と、
前記筐体の第2の筐体部分に結合された第2のセンサから第2の画像データを取得するための手段と、
前記第1の画像データおよび前記第2の画像データに基づいてオブジェクトの深度を決定するための手段と、
前記深度に基づいて前記第1の部分と前記第2の部分との間の調整された角度を出力するための手段と、
前記調整された角度に基づいて画像取込み動作を実施するための手段と
を備えるシステム。
【0134】
47.前記少なくとも1つの画像取込み動作を実施するための手段が、
前記調整された角度の前記出力に基づいて、前記第1のセンサからの第3の画像データと前記第2のセンサからの第4の画像データとを取得するための手段と、
前記第3のセンサデータおよび前記第4のセンサデータに基づいて多視点画像を生成するための手段と
を備える、条項46のシステム。
【0135】
48.前記多視点画像にフォト効果を適用することに基づいてユーザ作成画像を生成するための手段と、
前記ユーザ作成画像をメモリデバイスに記憶するための手段と
をさらに備える、条項47のシステム。
【0136】
49.前記多視点画像をセグメント化するための手段と、
前記セグメント化された多視点画像に基づいて前記フォト効果を適用するための手段と
をさらに備える、条項48のシステム。
【0137】
50.前記フォト効果がボケ効果を備える、条項49のシステム。
【0138】
51.顔を検出するための手段をさらに備え、前記オブジェクトが前記顔を備える、条項46~50のいずれかのシステム。
【0139】
52.前記筐体の前記第1の筐体部分と前記第2の筐体部分との間の角度を決定するための手段と、
前記角度に基づいて前記オブジェクトの前記深度を決定するための手段と
をさらに備える、条項46~51のいずれかのシステム。
【0140】
53.前記オブジェクトの前記深度を決定するための前記手段が、前記第1の画像データおよび前記第2の画像データに基づいて視差データを生成するための手段を備える、条項46~52のいずれかのシステム。
【0141】
54.前記オブジェクトの前記深度を決定するための前記手段が、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定するための手段と、
前記決定された角度に基づいて前記第1のセンサと前記第2のセンサとの間の基線長を決定するための手段と、
前記第1のセンサと前記第2のセンサとのうちの少なくとも一方の焦点距離を決定するための手段と、
前記視差データ、前記基線長、および前記焦点距離に基づいて深度値を生成するための手段と
を備える、条項53のシステム。
【0142】
55.前記視差データに基づいて前記オブジェクトの視差を決定するための手段と、
前記視差および視差しきい値に基づいて、前記調整された角度を出力するための手段と
をさらに備える、条項53および54のいずれかのシステム。
【0143】
56.位置センサから位置データを取得するための手段と、
前記第1の筐体部分と前記第2の筐体部分との間の角度を決定するための手段と、
前記決定された角度に基づいて、前記調整された角度を決定するための手段と
をさらに備える、条項46~55のいずれかのシステム。
【0144】
57.前記第1の筐体部分と前記第2の筐体部分との間の角度を決定するための手段と、
前記決定された角度に基づいて1つまたは複数のカメラパラメータを決定するための手段と、
前記1つまたは複数のカメラパラメータに基づいて、前記調整された角度を出力するための手段と
をさらに備える、条項46~55のいずれかのシステム。
【0145】
58.前記1つまたは複数のカメラパラメータが平行移動行列を備え、
前記システムが、前記平行移動行列に基づいて前記第1のセンサの基準を前記第2のセンサの対応する基準に平行移動するための手段をさらに備える、条項57のシステム。
【0146】
59.前記第1の筐体部分がディスプレイの第1の部分を備え、
前記第2の筐体部分が前記ディスプレイの第2の部分を備え、
前記第1のセンサが前記ディスプレイの前記第1の部分の下に配置され、前記第2のセンサが前記ディスプレイの前記第2の部分の下に配置された、
条項46~58のいずれかのシステム。
【0147】
60.前記調整された角度に基づいて前記第1の筐体部分と前記第2の筐体部分との間の角度を調整するための手段をさらに備える、条項46~59のいずれかのシステム。
【0148】
61.前記調整された角度に基づいてGUI要素をディスプレイ上に出力するための手段をさらに備える、条項46~60のいずれかのシステム。
【0149】
[0093] 前述の方法は図示のフローチャートを参照しているが、これらの方法に関連する行為を実施する方式として他の多くの方式が使用され得る。たとえば、いくつかの動作の順序が変更されてもよく、いくつかの実施形態は、記述された動作のうちの1つもしくは複数を省略すること、および/または追加の動作を含むこともある。
【0150】
[0094] 加えて、本明細書に記載の方法およびシステムは、少なくとも部分的には、コンピュータ実装プロセス、およびこれらのプロセスを実践するための装置の形で具体化され得る。開示される方法はまた、少なくとも部分的には、コンピュータプログラムコードでエンコードされた有形で非一時的機械可読記憶媒体の形で具体化され得る。たとえば、方法は、ハードウェアにおいて、プロセッサによって実行される実行可能命令(たとえば、ソフトウェア)において、またはこの2つの組合せにおいて具体化され得る。媒体は、たとえば、RAM、ROM、CD-ROM、DVD-ROM、BD-ROM、ハードディスクドライブ、フラッシュメモリ、またはいずれか他の非一時的機械可読記憶媒体を含み得る。コンピュータプログラムコードがコンピュータにロードされてコンピュータによって実行されるとき、コンピュータは、方法を実践するための装置になる。方法はまた、少なくとも部分的には、コンピュータプログラムコードがロードまたは実行されるコンピュータの形で具体化され得、それにより、コンピュータは、方法を実践するための専用コンピュータになる。コンピュータプログラムコードセグメントが汎用プロセッサ上で実装されるとき、コンピュータプログラムコードセグメントは、特定の論理回路を生み出すようにプロセッサを構成する。方法は、代替的に、方法を実施するための特定用途向け集積回路において少なくとも部分的に具体化され得る。
図1
図2
図3A
図3B
図3C
図3D
図4A
図4B
図4C
図4D
図5
図6
図7
【国際調査報告】