IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社アデランスの特許一覧

特許7230267オンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラム
<>
  • 特許-オンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラム 図1
  • 特許-オンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラム 図2
  • 特許-オンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラム 図3
  • 特許-オンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラム 図4
  • 特許-オンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラム 図5
  • 特許-オンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2023-02-17
(45)【発行日】2023-02-28
(54)【発明の名称】オンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20230220BHJP
   G06Q 30/0601 20230101ALI20230220BHJP
【FI】
G06T19/00 600
G06T19/00 A
G06Q30/0601 340
【請求項の数】 7
(21)【出願番号】P 2022131408
(22)【出願日】2022-08-19
【審査請求日】2022-08-25
【早期審査対象出願】
(73)【特許権者】
【識別番号】000126676
【氏名又は名称】株式会社アデランス
(74)【代理人】
【識別番号】100108006
【弁理士】
【氏名又は名称】松下 昌弘
(72)【発明者】
【氏名】山本 宗明
(72)【発明者】
【氏名】小菅 俊彦
【審査官】村松 貴士
(56)【参考文献】
【文献】特開2018-115399(JP,A)
【文献】特開2020-068012(JP,A)
【文献】「ネットとの連動を提案 三浦印刷」,印刷雑誌,株式会社印刷学会,2012年,第95巻,第6号,p.28-29
(58)【調査した分野】(Int.Cl.,DB名)
G06T 1/00
G06T 11/60 - 13/80
G06T 17/05
G06T 19/00 - 19/20
H04N 7/10
H04N 7/14 - 7/173
H04N 7/20 - 7/56
H04N 21/00 - 21/858
G06Q 30/0601
(57)【特許請求の範囲】
【請求項1】
サーバが、オンラインでのウィッグのフィッティングを支援する方法であって、
前記サーバは、前記ウィッグの利用者が使用する利用者側端末、及び、前記ウィッグの調整者が使用する調整者側端末と通信可能であり、
前記調整者は、頭部模型を有する保持台に装着させた状態の前記ウィッグを調整可能であり、
前記サーバが、前記利用者の顔を含む頭部の立体画像を取得する工程と、
前記サーバが、前記調整者によって前記ウィッグの調整が行われている前記保持台のリアルタイムの画像を取得する工程と、
前記サーバが、前記保持台のリアルタイムの画像における前記頭部模型の位置に前記利用者の頭部の前記立体画像を合成した第1合成画像を生成し、生成した前記第1合成画像を前記調整者側端末に表示させる、又は、投影装置によって前記利用者の頭部の前記立体画像を前記頭部模型の位置に投影画像として投影させる工程と、
前記サーバが、前記利用者の頭部の立体画像に前記保持台のリアルタイムの画像を合成した第2合成画像を生成し、生成した前記第2合成画像を前記利用者側端末において表示させる工程と、
を有する方法。
【請求項2】
前記保持台のリアルタイムの画像を取得する工程は、複数の固定カメラで異なる方向から同時に前記頭部模型を撮影した画像を取得することを含む、
請求項1記載の方法。
【請求項3】
前記第1合成画像を生成して前記調整者側端末に表示させる、又は前記投影画像として投影させる工程は、前記複数の固定カメラで異なる方向から同時に前記頭部模型を撮影した画像を合成して得た立体画像を前記調整者の任意の角度で表示させることを含む、請求項2記載の方法。
【請求項4】
前記第2合成画像を生成し、前記利用者側端末において表示させる工程は、前記複数の固定カメラで異なる方向から同時に前記頭部模型を撮影した画像を合成して得た立体画像を前記利用者の任意の角度で表示させることを含む、請求項2記載の方法。
【請求項5】
前記サーバが、前記利用者側端末で入力された音声と前記調整者側端末で入力された音声とを前記利用者側端末と前記調整者側端末との間でネットワークを介して互いに送受信させる工程をさらに備えた、
請求項1記載の方法。
【請求項6】
請求項1~請求項5のいずれか一項に記載された方法の各工程を実行する手段を備えたサーバ。
【請求項7】
サーバが実行可能な命令を含むプログラムであって、
請求項1~請求項5のいずれか一項に記載された方法の各工程を前記サーバに実行させる前記命令を含む、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、オンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラムに関する。
【背景技術】
【0002】
ウィッグの利用者は、好みのウィッグが自分にフィットするか試したいという希望があることから、来店時に実際にウィッグを装着して店員と相談しながら購入することが多い。特許文献1には、計測値を用いつつユーザの好みや感覚を重視した着用物を提案するオンラインフィッティングシステム及びプログラムが開示されている。このオンラインフィッティングシステムは、ユーザの足の計測値を、ユーザIDに対応付けて記憶するユーザ記憶部と、靴を識別する商品IDと、商品IDにより特定される靴の仕様及びサイズとを記憶した靴データ記憶部と、ユーザの好みに係る嗜好データとユーザIDとを受け付ける提案要求受付部と、提案要求受付部が受け付けたユーザIDから得られるユーザの足の計測値と、嗜好データとに基づいて、靴データ記憶部から靴を選定する靴選定部と、靴選定部が選定した靴に関するデータを出力する情報出力部と、を備える。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2022-013775号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
近年では、物品の購入についてオンラインショッピングが多く利用されている。しかし、ウィッグについては利用者に対するフィッティングが重要になることから、オンラインで販売からフィッティングまで完結させることは難しい。
【0005】
本発明はかかる事情に鑑みてなされたものであり、その目的は、来店することなくオンラインでウィッグの販売からフィッティングまで行うことができるオンラインでのウィッグのフィッティングを支援する方法、サーバ及びプログラムを提供することにある。
【課題を解決するための手段】
【0006】
本発明の第1の態様は、サーバが、オンラインでのウィッグのフィッティングを支援する方法であって、前記サーバは、前記ウィッグの利用者が使用する利用者側端末、及び、前記ウィッグの調整者が使用する調整者側端末と通信可能であり、前記調整者は、頭部模型を有する保持台に装着させた状態の前記ウィッグを調整可能であり、前記サーバが、前記利用者の顔を含む頭部の立体画像を取得する工程と、前記サーバが、前記調整者によって前記ウィッグの調整が行われている前記保持台のリアルタイムの画像を取得する工程と、前記サーバが、前記保持台のリアルタイムの画像における前記頭部模型の位置に前記利用者の頭部の前記立体画像を合成した第1合成画像を生成し、生成した前記第1合成画像を前記調整者側端末に表示させる、又は、投影装置によって前記利用者の頭部の前記立体画像を前記頭部模型の位置に投影画像として投影させる工程と、前記サーバが、前記利用者の頭部の立体画像に前記保持台のリアルタイムの画像を合成した第2合成画像を生成し、生成した前記第2合成画像を前記利用者側端末において表示させる工程と、を有する方法である。
【0007】
本発明の第2の態様は、上記第1の態様に係る方法の各工程を実行するための手段を備えたサーバである。
【0008】
本発明の第3の態様は、オンラインでのウィッグのフィッティングを支援するサーバであって、処理部と、前記処理部が実行可能な命令を含むプログラムを記憶した記憶部とを有し、前記プログラムが、上記第1の態様に係る方法の各工程を前記処理部に実行させる前記命令を含む、サーバである。
【0009】
本発明の第4の態様は、サーバが実行可能な命令を含むプログラムであって、上記第1の態様に係る方法の各工程を前記サーバに実行させる前記命令を含むプログラムである。
【発明の効果】
【0010】
本発明によれば、来店することなくオンラインでウィッグの販売からフィッティングまで行うことができるウィッグのフィッティング支援方法、サーバ及びプログラムを提供することが可能となる。
【図面の簡単な説明】
【0011】
図1図1は、本実施形態に係るシステムの一例を示す図である。
図2図2は、サーバでの処理の一例を示すフローチャートである。
図3図3は、サーバ、利用者側端末及び調整者側端末の動作を説明するフローチャートである。
図4図4は、第1合成画像の例を説明する模式図である。
図5図5は、第1合成画像を参照しながら調整を行う様子を説明する模式図である。
図6図6は、第2合成画像の例を説明する模式図である。
【発明を実施するための形態】
【0012】
以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明では、同一の部材には同一の符号を付し、一度説明した部材については適宜その説明を省略する。
【0013】
図1は、本実施形態に係るシステムの一例を示す図である。図1に示すシステムは、オンラインでのウィッグのフィッティングを支援する方法を行うものであり、サーバ1と、ウィッグの利用者が使用する利用者側端末3と、ウィッグの調整者により操作される調整者側端末4とを有する。利用者側端末3及び調整者側端末4は、インターネットなどの通信ネットワーク9を介してサーバ1にアクセス可能である。
サーバ1は、本発明のサーバの一例である。
利用者側端末3は、本発明の利用者側端末の一例である。
調整者側端末4は、本発明の調整者側端末の一例である。
【0014】
(サーバ1)
サーバ1は、利用者側端末3及び調整者側端末4と通信ネットワーク9を介して通信を行い、ウィッグWの利用者BとウィッグWを調整する調整者Aとの間でのウィッグWのフィッティング作業をオンラインで支援する種々の処理を行う。オンラインでのウィッグWのフィッティング作業は、予め利用者Bがオンラインで希望のウィッグWを決め(例えば購入し)、実物のウィッグWを利用者Bが受け取る前に調整者Aが利用者Bとオンラインで相談しながらフィッティングすることによって行われる。
【0015】
図1の例において、サーバ1は、通信部11と、記憶部15と、処理部16とを有する。通信部11は、通信ネットワーク9を介して他の装置(利用者側端末3、調整者側端末4など)と通信を行うための装置であり、例えば所定の通信規格(無線LAN、イーサネット(登録商標)など)に準拠して通信を行う通信機器(ネットワークインターフェースカードなど)を含む。
【0016】
記憶部15は、処理部16において実行されるプログラム151の命令や、処理部16による処理の過程で一時的に保存されるデータ、処理部16の処理に利用されるデータ、処理部16の処理の結果として得られたデータなどを記憶する。記憶部15は、例えば、主記憶装置(ROM、RAMなど)と補助記憶装置(フラッシュメモリ、SSD、ハードディスク、メモリカード、光ディスクなど)を含んでよい。記憶部15は、1つの記憶装置から構成されてもよいし、複数の記憶装置から構成されてもよい。記憶部15が複数の記憶装置から構成される場合、各記憶装置は、コンピュータのバスや他の任意の情報伝送手段を介して処理部16と接続される。
【0017】
プログラム151は、コンピュータ読み取り可能な記録媒体(USBメモリ、メモリカード、光ディスク、その他の非一時的な有形の媒体)に記録されたものを図示しない読み取り装置から入力して記憶部15に記憶させてもよいし、通信部11において他の装置から受信したものを記憶部15に記憶させてもよい。
【0018】
処理部16は、サーバ1の全体的な動作を統括的に司り、所定の情報処理を実行する。処理部16は、例えば、記憶部15に格納された1つ以上のプログラム151の命令に従って処理を実行する1つ以上のプロセッサ(CPU、MPU、DSPなど)を含む。処理部16は、記憶部15に格納されたプログラム151の命令を1つ以上のプロセッサが実行することにより、コンピュータとして動作する。サーバ1は、このような複数のコンピュータを含んでもよく、これらのコンピュータが任意の通信ネットワークを介して通信を行うことにより連携して処理を実行してもよい。
【0019】
処理部16は、特定の機能を実現するように構成された1つ以上の専用のハードウェア(ASIC、FPGAなど)を含んでもよい。この場合、処理部16は、全ての処理をコンピュータにおいて実行してもよいし、少なくとも一部の処理を専用のハードウェアにおいて実行してもよい。
【0020】
(利用者側端末3)
利用者側端末3は、ウィッグWの利用者BがオンラインでウィッグWのフィッティングの支援を受ける際に操作する装置である。利用者側端末3は、例えばスマートフォン、携帯電話機、タブレットPC、ノート型PC、デスクトップ型PCなど、通信ネットワーク9を介した通信機能を備える情報機器であってよい。利用者側端末3は、通信ネットワーク9を介してサーバ1にアクセスし、利用者B側でウィッグのフィッティングの支援を受けるための処理などを行う。図1の例において、利用者側端末3は、通信部31と、入力部32と、出力部33と、記憶部35と、処理部36を有する。
【0021】
通信部31は、通信ネットワーク9を介して他の装置(サーバ1等)と通信を行うための装置であり、例えば所定の通信規格(無線LAN、イーサネット(登録商標)など)に準拠して通信を行う通信機器(ネットワークインターフェースカードなど)を含む。
【0022】
入力部32は、利用者Bの操作に応じた指示やその他の情報を処理部36に入力する。例えば、入力部32は、タッチパネル、タッチパッド、キーボード、マウス、ボタン、スイッチ、マイク、カメラなどの入力機能を備えた機器を少なくとも1つ含む。
【0023】
出力部33は、処理部36において生成される映像信号に応じた映像を表示する装置、及び処理部36において生成される音声信号に応じた音声を出力する装置であり、例えば液晶ディスプレイ、有機ELディスプレイ、プロジェクタなどの表示機器、及びスピーカ、イヤホン、ヘッドホンなどの音声出力機器を含む。
【0024】
記憶部35は、処理部36において実行されるプログラム351の命令や、処理部36による処理の過程で一時的に保存されるデータ、処理部36の処理に利用されるデータ、処理部36の処理の結果として得られたデータなどを記憶する。記憶部35は、例えば、主記憶装置(ROM、RAMなど)と補助記憶装置(フラッシュメモリ、SSD、ハードディスク、メモリカード、光ディスクなど)を含んでよい。記憶部35は、1つの記憶装置から構成されてもよいし、複数の記憶装置から構成されてもよい。記憶部35が複数の記憶装置から構成される場合、各記憶装置は、コンピュータのバスや他の任意の情報伝送手段を介して処理部36と接続される。
【0025】
プログラム351は、コンピュータ読み取り可能な記録媒体(USBメモリ、メモリカード、光ディスク、その他の非一時的な有形の媒体)に記録されたものを図示しない読み取り装置から入力して記憶部35に記憶させてもよいし、通信部31において他の装置から受信したものを記憶部35に記憶させてもよい。
【0026】
処理部36は、利用者側端末3の全体的な動作を統括的に司り、所定の情報処理を実行する。処理部36は、例えば、記憶部35に格納された1つ以上のプログラム351の命令に従って処理を実行する1つ以上のプロセッサ(CPU、MPU、DSPなど)を含む。処理部36は、記憶部35に格納されたプログラム351の命令を1つ以上のプロセッサが実行することにより、コンピュータとして動作する。
【0027】
処理部36は、特定の機能を実現するように構成された1つ以上の専用のハードウェア(ASIC、FPGAなど)を含んでもよい。この場合、処理部36は、全ての処理をコンピュータにおいて実行してもよいし、少なくとも一部の処理を専用のハードウェアにおいて実行してもよい。
【0028】
(調整者側端末4)
調整者側端末4は、ウィッグWの調整者AがオンラインでウィッグWのフィッティングの支援を受ける際に操作する装置であり、例えば図1に示す利用者側端末3と同様の構成(通信部41、入力部42、出力部43、記憶部45、処理部46、プログラム451)を有する。すなわち、調整者側端末4は、例えばスマートフォン、携帯電話機、タブレットPC、ノート型PC、デスクトップ型PCなど、通信ネットワーク9を介した通信機能を備える情報機器であってよい。調整者側端末4は、通信ネットワーク9を介してサーバ1にアクセスし、調整者A側でウィッグWのフィッティングの支援を受けるための処理などを行う。調整者Aは、調整者側端末4を利用しながら保持台100の頭部模型110に装着されたウィッグWの調整を行う。
【0029】
ここで、上述した構成を有する図1に示すシステムでのサーバ1の動作について説明する。
図2は、サーバ1での処理の一例を示すフローチャートである。
先ず、ステップST101に示すように、サーバ1の処理部16は、立体画像の取得を行う。サーバ1の処理部16が取得する立体画像は、ウィッグWの利用者Bの顔を含む頭部の立体画像である。この立体画像は、利用者Bによって撮影されたものでもよいし、予め記憶部15に記憶された利用者Bの頭部の立体画像を読み出したものであってもよい。
【0030】
次に、ステップST102に示すように、サーバ1の処理部16は、リアルタイム画像の取得を行う。サーバ1の処理部16が取得するリアルタイム画像は、調整者AによってウィッグWの調整が行われている保持台100のリアルタイムの画像である。調整者Aは利用者Bが予めオンラインで選択したウィッグを保持台100の頭部模型110に装着し、この状態でウィッグWのカットやセット、位置調整などのフィッティング作業を行う。この調整者Aが行うウィッグWのフィッティング作業の映像をカメラで取得し、サーバ1の処理部16はこの映像をリアルタイム画像として取得する。
【0031】
次に、ステップST103に示すように、サーバ1の処理部16は、第1合成画像の生成及び表示を行う。すなわち、サーバ1の処理部16は、ステップST102で取得した保持台のリアルタイムの画像における頭部模型110の位置に、ステップST101で取得した利用者Bの頭部の立体画像を合成した第1合成画像を生成し、生成した第1合成画像を調整者側端末4の出力部43であるディスプレイに表示させる。
【0032】
次に、ステップST104に示すように、サーバ1の処理部16は、第2合成画像の生成及び表示を行う。サーバ1の処理部16は、利用者Bの頭部の立体画像に保持台100のリアルタイムの画像を合成した第2合成画像を生成し、生成した第2合成画像を利用者側端末3の出力部33であるディスプレイに表示させる。
【0033】
このようなサーバ1の処理によって、ウィッグWの利用者Bの頭部の立体画像と、調整者Aによる実際のウィッグWのフィッティング作業のリアルタイム画像とが合成され、双方で参照できるようになる。これにより、調整者A側では利用者Bの頭部の立体画像に合わせた実際のウィッグWの状態を見ながらフィッティングを行うことができ、利用者B側では自らの頭部の立体画像に実際のウィッグのフィッティングのリアルタイム画像が合成された映像を見ながらオンラインでフィッティングを行うことが可能となる。
【0034】
(プログラム)
本実施形態に係るプログラムは、サーバ1の処理部16で実行されるプログラム151である。プログラム151は、図2に示すステップST101~ステップST104の処理をサーバ1の処理部16で実行可能な命令を含む。
【0035】
(サーバ1、利用者側端末3及び調整者側端末4の動作)
図3は、サーバ1、利用者側端末3及び調整者側端末4の動作を説明するフローチャートである。
ウィッグWの利用者Bは、予めオンラインで希望するウィッグを決定しておく。調整者Aは、利用者Bが決定したウィッグWの実物を保持台100の頭部模型110に装着しておく。この状態でオンラインでのウィッグWのフィッティングの支援が行われる。
【0036】
先ず、利用者側端末3の入力部32は、ウィッグWの利用者Bの顔を含む頭部の立体画像を取り込む(ステップST201)。例えば、利用者側端末3がスマートフォンの場合、スマートフォンの立体画像を取り込むアプリケーションソフトウェアを使用し、スマートフォンのカメラで利用者Bの頭部の立体画像を取り込む。利用者側端末3の処理部36は、利用者Bの頭部の立体画像をサーバ1へ送信する(ステップST202)。立体画像は通信ネットワーク9を介して利用者側端末3からサーバ1へ送られる。サーバ1は、通信ネットワーク9を介して利用者側端末3から送られた利用者Bの頭部の立体画像を取得し、記憶部15に記憶する(ステップST203)
【0037】
次に、調整者側端末4の入力部42は、調整者Aによって保持台100の頭部模型110に装着されたウィッグWの映像(リアルタイム画像)を取り込む(ステップST204)。調整者Aは、ウィッグWの実物を保持台100の頭部模型110に装着してカットやセット、位置調整などのフィッティングを行うことになる。このウィッグWが装着された保持台100の頭部模型110のリアルタイム画像を入力部42で取り込む。調整者側端末4は、取り込んだリアルタイム画像を通信ネットワーク9を介してサーバ1へ送信する(ステップST205)。サーバ1は、通信ネットワーク9を介して調整者側端末4から送られたリアルタイム画像を取得し、記憶部15に記憶する(ステップST206)。
【0038】
次に、サーバ1の処理部16は、調整者側端末4から送られた保持台100のリアルタイム画像における頭部模型110の位置に、利用者側端末3から送られた利用者Bの頭部の立体画像を合成した第1合成画像を生成する(ステップST207)。サーバ1の処理部16は、生成した第1合成画像を通信ネットワーク9を介して調整者側端末4へ送信する(ステップST208)。
【0039】
調整者側端末4は、通信ネットワーク9を介してサーバ1から送られた第1合成画像を取得し(ステップST209)、調整者側端末4の処理部46は、取得した第1合成画像を出力部43であるディスプレイに表示する処理を行う(ステップST210)。これにより、調整者Aは、実際のウィッグWが装着された保持台100の頭部模型110の部分に利用者Bの頭部の立体画像が合成された映像を参照することができる。すなわち、頭部模型110の部分に利用者Bの顔や自髪の立体画像が映し出され、その立体画像に実際のウィッグが装着された映像を見ることができる。
【0040】
サーバ1の処理部16は、利用者Bの頭部の立体画像に保持台100のリアルタイム画像を合成した第2合成画像を生成する(ステップST211)。サーバ1の処理部16は、生成した第2合成画像を通信ネットワーク9を介して利用者側端末3へ送信する(ステップST212)。
【0041】
利用者側端末3は、通信ネットワーク9を介してサーバ1から送られた第2合成画像を取得し(ステップST213)、利用者側端末3の処理部36は、取得した第2合成画像を出力部33であるディスプレイに表示する処理を行う(ステップST214)。これにより、利用者Bは、自らの頭部の立体画像に実際のウィッグWのフィッティング作業中のリアルタイム画像が合成された映像をディスプレイで参照することができる。
【0042】
調整者AがウィッグWの調整を行う間、調整者側端末4でのリアルタイム画像の取得(ステップST204)及びリアルタイム画像の送信(ステップST205)、サーバ1での第1合成画像の生成(ステップST206)及び第1合成画像の送信(ステップST207)、調整者側端末4での第1合成画像の取得(ステップST209)及び第1合成画像の表示(ステップST210)、サーバ1での第2合成画像の生成(ステップST211)及び第2合成画像の送信(ステップST212)、利用者側端末3での第2合成画像の取得(ステップS213)及び第2合成画像の表示(ステップST214)を繰り返す。
【0043】
これにより、調整者A側においては、保持台100の頭部模型110には実際にはウィッグWしか装着されていないものの、頭部模型110の部分に利用者Bの頭部の立体画像が合成された映像を参照することができる。したがって、調整者Aは、利用者Bの頭部にウィッグWが装着されている感覚でウィッグWのフィッティング作業を行うことができる。一方、利用者B側では、実際のウィッグWを調整者A側で調整しているリアルタイムの画像と自らの頭部の立体画像とが合成された映像をディスプレイで参照しながら、ウィッグWのフィッティングを進められることになる。
【0044】
なおサーバ1は、利用者側端末3で入力された音声と調整者側端末4で入力された音声とを利用者側端末3と調整者側端末4との間で通信ネットワーク9を介して互いに送受信させてもよい。例えば、サーバ1は、利用者側端末3で入力された音声を利用者側端末3から調整者側端末4へ中継し、調整者側端末4で入力された音声を調整者側端末4から利用者側端末3へ中継してもよい。これにより、フィッティング作業中に調整者Aと利用者Bの間で音声による会話が可能になる。
【0045】
(第1合成画像の例)
図4は、第1合成画像G1の例を説明する模式図である。
図4には、拡張現実(AR:Augmented Reality)でとして表示可能な第1合成画像が生成される例が示される。ウィッグWの調整者Aは、例えばウエアラブルディスプレイ431を装着している。ウィッグWの保持台100には頭部模型110が設けられ、実際の頭部模型110の部分(頭や顔の部分)には何も表示されていない(図4(a)参照)。調整を行う際には実際のウィッグWを保持台100の頭部模型110の部分に装着する(図4(b)参照)。
【0046】
利用者Bの顔を含む頭部の立体画像TDは、保持台100の頭部模型110の部分に映し出される(図4(c)参照)。第1合成画像G1は、保持台100の頭部模型110の部分に実際のウィッグWが装着された画像(図4(b)に示す画像)と、保持台100の頭部模型110の部分に映し出される利用者Bの顔を含む頭部の立体画像TD(図4(c)に示す画像)とを合成したものとなる(図4(d)参照)。調整者Aのウエアラブルディスプレイ431には、図4(d)に示す第1合成画像G1が映し出される。
【0047】
図5は、第1合成画像G1を参照しながら調整を行う様子を説明する模式図である。
調整者Aはウエアラブルディスプレイ431にARとして映し出される第1合成画像G1を参照しながら、保持台100の頭部模型110に装着された実際のウィッグWをカットしたり、ブローしたり、位置調整したりすることができる。ウエアラブルディスプレイ431で参照する第1合成画像G1には、実際の保持台100の頭部模型110の部分に、利用者Bの顔や自髪の立体画像TDが映し出されているため、利用者Bの顔や頭部の状態とウィッグWとのバランスを見ながら実際に利用者Bが目の前にいるかのようにウィッグWのフィッティング作業を行うことができる。
【0048】
ここで、調整者側端末4において、保持台100のリアルタイム画像を取得する場合、複数の固定カメラで異なる方向から同時に頭部模型110を撮影した画像を取得してもよい。これにより、第1合成画像G1を生成して調整者側端末4に表示させる際、複数の固定カメラで異なる方向から同時に頭部模型110を撮影した画像を合成して得た立体画像TDを第1合成画像G1として表示させるができる。立体画像TDを第1合成画像G1として表示させることで、調整者Aは、任意の角度で立体画像TDを表示させることができ、より現実に近い感覚でウィッグWのフィッティングを行うことが可能となる。
【0049】
また、保持台100のリアルタイム画像は、調整者Aの目線に合わせた画像であってもよい。例えば、調整者Aの頭部に装着したカメラによって調整者Aの目線に沿った画像を取得する。これにより、調整者Aの目線でウィッグWを調整しているリアルタイム画像を調整者A及び利用者Bが共有して参照することができる。
【0050】
(第2合成画像の例)
図6は、第2合成画像G2の例を説明する模式図である。
利用者側端末3のディスプレイ331には、調整者A側で実際のウィッグWをフィッティングしているリアルタイム画像に、利用者Bの自らの頭部の立体画像TDが合成された第2合成画像G2が映し出される。ここで、保持台100およびウィッグWの映像は実際に調整者A側にある実物を撮影したリアルタイム画像である。利用者Bの自らの頭部の立体画像TDは、このリアルタイム画像の保持台100の頭部模型110の位置に合成される。利用者Bは第2合成画像G2を参照しながら自らの顔や自髪に対してウィッグWがどのように調整されるのかをディスプレイ331の映像で確認しながら調整者Aとともにフィッティングしていくことができる。
【0051】
第2合成画像G2を生成して利用者側端末3で表示させる場合、調整者側端末4において複数の固定カメラで異なる方向から同時に頭部模型110を撮影した画像を合成して得た立体画像TDを利用者Bの任意の角度で表示させるようにしてもよい。これにより、利用者Bは、利用者側端末3を操作することで、調整者Aが参照している画像とは独立して任意の角度で第2合成画像G2を参照することができ、自らの好みの角度で調整者Aによる作業映像を参照しながらフィッティングを確認することができる。
【0052】
また、利用者側端末3から送信する利用者Bの頭部の立体画像TDは、事前に取り込んだ画像であってもよいし、利用者側端末3で取り込むリアルタイム画像であってもよい。リアルタイム画像であれば、フィッティングを行う際の利用者Bの表情がリアルタイムに反映され、ウィッグWのフィッティング作業において調整者Aと利用者Bとのコミュニケーションがより図りやすくなる。
【0053】
以上説明したように、本実施形態によれば、来店することなくオンラインでウィッグWの販売からフィッティングまで行うことができるフィッティング支援方法、サーバ及びプログラムを提供することが可能となる。
【0054】
なお、上記に本実施形態およびその適用例を説明したが、本発明はこれらの例に限定されるものではない。例えば、サーバ1は、処理部16で生成し調整者側端末4に送る第1合成画像の代わりに、利用者Bの顔を含む頭部の立体画像TDに基づき投影画像(ホログラム画像など)を生成し、調整者側端末4へ送るようにしてもよい。この場合、調整者側端末4の出力部43には、投影画像(ホログラム画像)を投影する投影装置が含まれ、この投影装置によって投影画像が保持台100の頭部模型110の位置に投影される。また、第1合成画像G1および第2合成画像G2の少なくとも一方は、VR空間に表示するようにしてもよい。また、前述の各実施形態またはその適用例に対して、当業者が適宜、構成要素の追加、削除、設計変更を行ったものや、各実施形態の特徴を適宜組み合わせたものも、本発明の要旨を備えている限り、本発明の範囲に包含される。
【符号の説明】
【0055】
1…サーバ,3…利用者側端末,4…調整者側端末,9…通信ネットワーク,11…通信部,15…記憶部,16…処理部,31…通信部,32…入力部,33…出力部,35…記憶部,36…処理部,41…通信部,42…入力部,43…出力部,45…記憶部,46…処理部,100…保持台,110…頭部模型,151…プログラム,331…ディスプレイ,351…プログラム,431…ウエアラブルディスプレイ,451…プログラム,A…調整者,B…利用者,G1…第1合成画像,G2…第2合成画像,TD…立体画像,W…ウィッグ
【要約】
【課題】来店することなくオンラインでウィッグの販売からフィッティングまで行うことができるウィッグのフィッティング支援方法、サーバ及びプログラムを提供すること。
【解決手段】オンラインでのウィッグのフィッティングを支援する方法は、サーバ1が、利用者Bの顔を含む頭部の立体画像を取得する工程と、サーバ1が、調整者Aによってウィッグの調整が行われている保持台100のリアルタイム画像を取得する工程と、サーバ1が、保持台100のリアルタイム画像における頭部模型110の位置に利用者Bの頭部の立体画像を合成した第1合成画像を生成して調整者側端末4に表示させる工程と、サーバ1が、利用者Bの頭部の立体画像に保持台100のリアルタイム画像を合成した第2合成画像を生成して利用者側端末3に表示させる工程とを有する。
【選択図】図1
図1
図2
図3
図4
図5
図6