(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024170038
(43)【公開日】2024-12-06
(54)【発明の名称】携帯端末、プログラム、方法、およびシステム
(51)【国際特許分類】
G06T 1/00 20060101AFI20241129BHJP
【FI】
G06T1/00 340Z
【審査請求】有
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023086964
(22)【出願日】2023-05-26
(71)【出願人】
【識別番号】513190830
【氏名又は名称】Fairy Devices株式会社
(71)【出願人】
【識別番号】000002853
【氏名又は名称】ダイキン工業株式会社
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】藤野 真人
(72)【発明者】
【氏名】竹崎 雄一郎
(72)【発明者】
【氏名】久池井 淳
(72)【発明者】
【氏名】村西 秀一
【テーマコード(参考)】
5B057
【Fターム(参考)】
5B057BA02
5B057CA12
5B057CA16
5B057CD08
5B057CE17
(57)【要約】
【課題】携帯端末が撮影した画像の取り扱いを向上させる。
【解決手段】本開示の一実施形態に係る携帯端末は、撮影機能が搭載された携帯端末であって、前記携帯端末の制御部は、撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
撮影機能が搭載された携帯端末であって、
前記携帯端末の制御部は、
撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する
携帯端末。
【請求項2】
前記制御部は、
前記携帯端末の向きに基づき、画像内でマスク処理を実施する領域を特定する、請求項1に記載の携帯端末。
【請求項3】
前記携帯端末の向きは、
前記携帯端末の加速度センサの情報に基づき特定される、請求項2に記載の携帯端末。
【請求項4】
前記制御部は、
画像内に写り込んだ撮影者の身体の部位、および、前記身体の部位が写り込んだ前記画像内の領域に基づき、画像内でマスク処理を実施する領域を特定する、請求項1に記載の携帯端末。
【請求項5】
前記マスク処理は、前記領域を単色で塗りつぶす処理である、請求項1に記載の携帯端末。
【請求項6】
前記携帯端末は、マスク処理を実施した画像をサーバに送信する、請求項1に記載の携帯端末。
【請求項7】
前記携帯端末は、首掛け式ウェアラブル端末である、請求項1に記載の携帯端末。
【請求項8】
撮影機能が搭載された携帯端末に、
撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する手順
を実行させるためのプログラム。
【請求項9】
撮影機能が搭載された携帯端末が実行する方法であって、
撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成するステップ
を含む方法。
【請求項10】
携帯端末とサーバを含むシステムであって、
撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する
システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、携帯端末、プログラム、方法、およびシステムに関する。
【背景技術】
【0002】
従来、携帯端末が撮影した画像を用いて当該携帯端末が撮影した空間を表す3Dモデルを生成することが知られている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
撮影者が携帯端末で画像を撮影するときに、携帯端末が撮影した画像内に撮影者が写り込んでしまうことがある。このような場合、携帯端末が撮影した画像を用いて当該携帯端末が撮影した空間を表す3Dモデルを生成する際、必要のない領域(つまり、撮影者が写り込んだ領域)までモデリングの処理をしなければならない。
【0005】
本開示では、携帯端末が撮影した画像の取り扱いを向上させることを目的とする。
【課題を解決するための手段】
【0006】
本開示の第1の態様による携帯端末は、
撮影機能が搭載された携帯端末であって、
前記携帯端末の制御部は、
撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する。
【0007】
本開示の第2の態様は、第1の態様に記載の携帯端末であって、
前記制御部は、
前記携帯端末の向きに基づき、画像内でマスク処理を実施する領域を特定する。
【0008】
本開示の第3の態様は、第2の態様に記載の携帯端末であって、
前記携帯端末の向きは、
前記携帯端末の加速度センサの情報に基づき特定される。
【0009】
本開示の第4の態様は、第1から3のいずれかの態様に記載の携帯端末であって、
前記制御部は、
画像内に写り込んだ撮影者の身体の部位、および、前記身体の部位が写り込んだ前記画像内の領域に基づき、画像内でマスク処理を実施する領域を特定する。
【0010】
本開示の第5の態様は、第1から4のいずれかの態様に記載の携帯端末であって、
前記マスク処理は、前記領域を単色で塗りつぶす処理である。
【0011】
本開示の第6の態様は、第1から5のいずれかの態様に記載の携帯端末であって、
前記携帯端末は、マスク処理を実施した画像をサーバに送信する。
【0012】
本開示の第7の態様は、第1から6のいずれかの態様に記載の携帯端末であって、
前記携帯端末は、首掛け式ウェアラブル端末である。
【0013】
本開示の第8の態様によるプログラムは、
撮影機能が搭載された携帯端末に、
撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する手順
を実行させる。
【0014】
本開示の第9の態様による方法は、
撮影機能が搭載された携帯端末が実行する方法であって、
撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成するステップ
を含む。
【0015】
本開示の第10の態様によるシステムは、
携帯端末とサーバを含むシステムであって、
撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する。
【図面の簡単な説明】
【0016】
【
図1】本開示の一実施形態に係る全体の構成を示す図である。
【
図2】本開示の一実施形態に係るウェアラブル端末の一例である。
【
図3】本開示の一実施形態に係るウェアラブル端末のハードウェア構成を示す図である。
【
図4】本開示の一実施形態に係るサーバのハードウェア構成を示す図である。
【
図5】本開示の一実施形態に係るウェアラブル端末の制御部の機能ブロック図である。
【
図6】本開示の一実施形態に係るウェアラブル端末が所定の向きであるときに装着者が撮影されている領域を特定する方法について説明するための図である。
【
図7】本開示の一実施形態に係るマスク処理のフローチャートである。
【発明を実施するための形態】
【0017】
以下、図面に基づいて本開示の実施の形態を説明する。
【0018】
<全体の構成>
図1は、本開示の一実施形態に係る全体の構成を示す図である。画像管理システム1は、撮影者が携帯する携帯端末(例えば、装着者11が装着するウェアラブル端末10)と、サーバ20と、を含む。以下、それぞれについて説明する。
【0019】
<<ウェアラブル端末>>
ウェアラブル端末10は、携帯端末の一例である。本明細書では、携帯端末がウェアラブル端末(例えば、首掛け式ウェアラブル端末)である場合を説明するが、本発明は、スマートフォン等の撮影機能が搭載された任意の携帯端末に適用することができる。
【0020】
ウェアラブル端末10は、装着者11(撮影者の一例である)が使用する、撮影機能が搭載された端末である。例えば、ウェアラブル端末10は、首掛け式の端末である。ウェアラブル端末10は、任意のネットワークを介して、サーバ20とデータを送受信することができる。
【0021】
具体的には、携帯端末(例えば、ウェアラブル端末10)は、撮影した画像内で、少なくとも撮影者(例えば、装着者11)の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する。
【0022】
例えば、ウェアラブル端末10は、ウェアラブル端末10が撮影した画像内で、ウェアラブル端末10の装着者11が撮影されている領域を特定し、当該領域をマスク処理し(例えば、当該領域を塗りつぶす)、マスク処理された領域を含むウェアラブル端末10が撮影した画像をサーバ20へ送信する。
【0023】
例えば、ウェアラブル端末10の装着者11が撮影されている領域は、ウェアラブル端末の向きから特定される。つまり、ウェアラブル端末10の向きに基づき、画像内でマスク処理を実施する領域を特定することができる。なお、ウェアラブル端末10の向きは、ウェアラブル端末10の加速度センサの情報に基づき特定されてもよい。
【0024】
<<サーバ>>
サーバ20は、ウェアラブル端末10から画像を受信して、当該画像を利用する。例えば、サーバ20は、ウェアラブル端末10から受信した画像を用いて、ウェアラブル端末10が撮影した空間を表す3Dモデルを生成する。サーバ20は、1つまたは複数のコンピュータから構成される。サーバ20は、任意のネットワークを介して、ウェアラブル端末10とデータを送受信することができる。
【0025】
なお、本明細書で説明されるウェアラブル端末10の処理の少なくとも一部をサーバ20が実行するようにしてもよいし、本明細書で説明されるサーバ20の処理の少なくとも一部をウェアラブル端末10が実行するようにしてもよい。
【0026】
<ウェアラブル端末の構成>
図2は、本開示の一実施形態に係るウェアラブル端末10の一例である。例えば、ウェアラブル端末10は、
図2のような首掛け型の形状をした端末である。例えば、ウェアラブル端末10は、
図2のように、撮像部(カメラ)107を備える。さらに、ウェアラブル端末10は、
図2のように、音入力部(マイク)105と、音出力部(スピーカー)106と、操作部104と、を備えてもよい。各部については、
図3を参照しながら詳細に説明する。
【0027】
<ハードウェア構成>
以下、
図3を参照しながら、ウェアラブル端末10のハードウェア構成の一例を説明し、
図4を参照しながら、サーバ20のハードウェア構成の一例を説明する。
【0028】
図3は、本開示の一実施形態に係るウェアラブル端末10のハードウェア構成を示す図である。ウェアラブル端末10は、制御部(プロセッサ)101と、記憶部(メモリ)102と、通信部103と、操作部104、音入力部(マイク)105と、音出力部(スピーカー)106と、撮像部(カメラ)107と、各種センサ108と、を備えることができる。以下、それぞれについて説明する。
【0029】
制御部(プロセッサ)101は、ウェアラブル端末10を制御するプロセッサである。例えば、制御部(プロセッサ)101は、CPU(Central Processing Unit)、GPU(Graphics Processing Uni)等である。
【0030】
記憶部(メモリ)102は、任意のデータを記憶するメモリである。
【0031】
通信部103は、任意のネットワークに接続して、他のコンピュータ(サーバ20等)と通信する。
【0032】
操作部104は、装着者11がウェアラブル端末10に対する指示を入力するためのボタン等である。
【0033】
音入力部(マイク)105は、音を集音する。
【0034】
音出力部(スピーカー)106は、音を出力する。
【0035】
撮像部(カメラ)107は、静止画および動画を撮像する。
【0036】
各種センサ108は、加速度センサ、GPS(Global Positioning System)等の1つまたは複数の任意のセンサである。
【0037】
図4は、本開示の一実施形態に係るサーバ20のハードウェア構成を示す図である。サーバ20は、制御部(プロセッサ)201と、記憶部(メモリ)202と、通信部203と、を備えることができる。以下、それぞれについて説明する。
【0038】
制御部(プロセッサ)201は、サーバ20を制御するプロセッサである。例えば、制御部(プロセッサ)201は、CPU(Central Processing Unit)、GPU(Graphics Processing Uni)等である。
【0039】
記憶部(メモリ)202は、任意のデータを記憶するメモリである。
【0040】
通信部203は、任意のネットワークに接続して、他のコンピュータ(ウェアラブル端末10等)と通信する。
【0041】
図5は、本開示の一実施形態に係るウェアラブル端末10の制御部101の機能ブロック図である。ウェアラブル端末10の制御部101は、領域特定部111と、マスキング部112と、画像送信部113と、を備える。ウェアラブル端末10の制御部101は、プログラムを実行することによって、領域特定部111、マスキング部112、画像送信部113、として機能する。
【0042】
領域特定部111は、ウェアラブル端末10(撮像部107)が撮影した画像内で、ウェアラブル端末10の装着者11が撮影されている領域を特定する。
【0043】
例えば、領域特定部111は、画像内に写り込んだ撮影者の身体の部位(例えば、足等)、および、当該身体の部位が写り込んだ画像内の領域に基づき、画像内でマスク処理を実施する領域を特定する。なお、領域特定部111は、画像内の身体の部位を検出する既存の技術を用いて、画像内に写り込んだ撮影者の身体の部位(例えば、足等)を特定することができる。
【0044】
マスキング部112は、領域特定部111が特定した領域をマスク処理(例えば、領域を単色で塗りつぶす)する。
【0045】
[マスク処理]
ここで、マスク処理について説明する。マスキング部112は、領域特定部111が特定した領域を塗りつぶすことができる。具体的には、マスキング部112は、領域特定部111が特定した領域内の全画素を同一の色(例えば、黒色)にする(例えば、全画素のRGBの値を0:0:0にする)。
【0046】
画像送信部113は、マスキング部112によってマスク処理された領域を含むウェアラブル端末10(撮像部107)が撮影した画像を通信部203へ送信する。
【0047】
<装着者が撮影されている領域の特定>
以下、
図6を参照しながら、装着者11が撮影されている領域の特定について説明する。
【0048】
具体的には、
図6を参照しながら、ウェアラブル端末10が所定の向きであるときに装着者11が撮影されている領域を特定する方法について説明する。
【0049】
[ウェアラブル端末の向き]
図6は、本開示の一実施形態に係るウェアラブル端末10が所定の向きであるときに装着者11が撮影されている領域を特定する方法について説明するための図である。
【0050】
具体的には、ウェアラブル端末10は、ウェアラブル端末10が所定の向きであるとき(例えば、
図6では、撮像部(カメラ)107が撮影する方向が、地面に対して垂直であり地面へ向かう方向であるとき)に、画像内の装着者11の領域を特定して当該領域をマスク処理する。以下、詳細に説明する。
【0051】
まず、ウェアラブル端末10の現在の向きの特定について説明する。領域特定部111は、ウェアラブル端末10の現在の向きを特定する。例えば、領域特定部111は、ウェアラブル端末10の加速度センサの機能を用いて、ウェアラブル端末10の現在の向きを特定することができる。なお、領域特定部111は、ウェアラブル端末10の加速度センサの機能以外の手法を用いて、ウェアラブル端末10の現在の向きを特定してもよい。
【0052】
次に、装着者の領域の検出について説明する。領域特定部111は、ウェアラブル端末10の現在の向きが、所定の向きであるとき(例えば、
図6では、撮像部(カメラ)107が撮影する方向が、地面に対して垂直であり地面へ向かう方向であるとき)に、ウェアラブル端末10(撮像部107)が撮影した画像内で、装着者11の身体(例えば、装着者11の手、装着者11の足等(なお、
図6の例では、足))を検出する。領域特定部111は、任意の物体検出の手法を用いて、画像内の装着者11の身体を検出することができる。なお、所定の向きは、装着者11が指定して、ウェアラブル端末10の記憶部102等の任意のメモリに記憶させておいてもよい(ウェアラブル端末10は、メモリに記憶されている所定の向きを参照する)。
【0053】
なお、ウェアラブル端末10の現在の向きは、Visual SLAM(Simultaneous Localization and Mapping)の手法を用いて特定されてもよい。
【0054】
<処理方法>
図7は、本開示の一実施形態に係るマスク処理のフローチャートである。
【0055】
ステップ11(S11)において、ウェアラブル端末10(撮像部107)は、撮影する。
【0056】
ステップ12(S12)において、ウェアラブル端末10(制御部101)は、S11で撮影した画像内で、ウェアラブル端末10の装着者11が撮影されている領域を特定する。
【0057】
ステップ13(S13)において、ウェアラブル端末10(制御部101)は、S12で特定した領域をマスク処理する。
【0058】
ステップ14(S14)において、ウェアラブル端末10(制御部101)は、S13でマスク処理された領域を含むウェアラブル端末10(撮像部107)が撮影した画像をサーバ20へ送信する。
【0059】
このように、ウェアラブル端末10の装着者11が当該ウェアラブル端末10が撮影した画像内に写り込んでしまったとしても、当該画像内の当該装着者11の領域をマスク処理したうえでサーバ20へ送信することができる。
【0060】
そのため、例えば、サーバ20は、ウェアラブル端末10から受信した画像を用いてウェアラブル端末10が撮影した空間を表す3Dモデルを生成する場合、マスク処理された領域のモデリングの処理が不要となる。また、ウェアラブル端末10が遠隔地にあるサーバ20へ画像を送信する場合、画像のデータ量が減るため、ウェアラブル端末10とサーバ20の間でのデータの通信量を減らすことができる。
【0061】
以上、実施形態を説明したが、特許請求の範囲の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
【符号の説明】
【0062】
1 画像管理システム
10 ウェアラブル端末
11 装着者
20 サーバ
101 制御部(プロセッサ)
102 記憶部(メモリ)
103 通信部
104 操作部
105 音入力部(マイク)
106 音出力部(スピーカー)
107 撮像部(カメラ)
108 各種センサ
111 領域特定部
112 マスキング部
113 画像送信部
201 制御部(プロセッサ)
202 記憶部(メモリ)
203 通信部
【手続補正書】
【提出日】2024-09-04
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
撮影機能が搭載された携帯端末であって、
前記携帯端末の制御部は、
前記携帯端末の現在の向きが所定の向きであるときに、撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する
携帯端末。
【請求項2】
前記制御部は、
前記携帯端末の向きに基づき、画像内でマスク処理を実施する領域を特定する、請求項1に記載の携帯端末。
【請求項3】
前記携帯端末の向きは、
前記携帯端末の加速度センサの情報に基づき特定される、請求項2に記載の携帯端末。
【請求項4】
前記制御部は、
画像内に写り込んだ撮影者の身体の部位、および、前記身体の部位が写り込んだ前記画像内の領域に基づき、画像内でマスク処理を実施する領域を特定する、請求項1に記載の携帯端末。
【請求項5】
前記マスク処理は、前記領域を単色で塗りつぶす処理である、請求項1に記載の携帯端末。
【請求項6】
前記携帯端末は、マスク処理を実施した画像をサーバに送信する、請求項1に記載の携帯端末。
【請求項7】
前記携帯端末は、首掛け式ウェアラブル端末である、請求項1に記載の携帯端末。
【請求項8】
撮影機能が搭載された携帯端末に、
前記携帯端末の現在の向きが所定の向きであるときに、撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する手順
を実行させるためのプログラム。
【請求項9】
撮影機能が搭載された携帯端末が実行する方法であって、
前記携帯端末の現在の向きが所定の向きであるときに、撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成するステップ
を含む方法。
【請求項10】
携帯端末とサーバを含むシステムであって、
前記携帯端末の現在の向きが所定の向きであるときに、撮影した画像内で、少なくとも撮影者の身体の一部が写り込んだ領域に対してマスク処理を実施した画像を生成する
システム。