(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023123398
(43)【公開日】2023-09-05
(54)【発明の名称】アバター実現方法、コンピュータプログラム及びコンピューティング装置
(51)【国際特許分類】
G06F 3/0481 20220101AFI20230829BHJP
【FI】
G06F3/0481
【審査請求】未請求
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2023025057
(22)【出願日】2023-02-21
(31)【優先権主張番号】10-2022-0024612
(32)【優先日】2022-02-24
(33)【優先権主張国・地域又は機関】KR
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.3GPP
2.BLUETOOTH
(71)【出願人】
【識別番号】516014409
【氏名又は名称】ライン プラス コーポレーション
【氏名又は名称原語表記】LINE Plus Corporation
(74)【代理人】
【識別番号】110002952
【氏名又は名称】弁理士法人鷲田国際特許事務所
(72)【発明者】
【氏名】リー リンゼイ
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA27
5E555CA44
5E555CB69
5E555CC22
5E555DB32
5E555DC30
5E555EA05
5E555FA00
(57)【要約】
【課題】ユーザー状態適応アバター実現方法、コンピュータプログラム及びコンピューティング装置が提供される。
【解決手段】少なくとも一つのプロセッサを含むコンピューティング装置が行うアバター実現方法は、生体データを取得するユーザーデバイスからユーザーの生体データを受信するステップと、前記受信された生体データと以前の生体データとの間の変化量を確認するステップと、前記変化量に応答して、前記取得された生体データに相応するように、前記アバターの外観を規定するオブジェクト形態を変形させるステップと、を含む。
【選択図】
図4
【特許請求の範囲】
【請求項1】
少なくとも一つのプロセッサを含むコンピューティング装置が行うアバター実現方法であって、
生体データを取得するユーザーデバイスからユーザーの生体データを受信するステップと、
前記受信された生体データと以前の生体データとの間の変化量を確認するステップと、
前記変化量に応答して、前記取得された生体データに相応するように、前記アバターの外観を規定するオブジェクト形態を変形させるステップと、を含む、アバター実現方法。
【請求項2】
前記ユーザーデバイスは、少なくとも一つの個別デバイスを含み、前記個別デバイスが前記ユーザーの生体データを取得して前記コンピューティング装置へ伝送するか、或いは一つの個別デバイスが前記ユーザーの生体データを取得して他の個別デバイスに伝達し、前記他の個別デバイスが伝達された生体データを前記コンピューティング装置へ伝送する、請求項1に記載のアバター実現方法。
【請求項3】
前記変化量を確認するステップは、前記変化量が前記オブジェクト形態に属する外観エンティティ(appearance entity)の変更が要求される変更レベルに達したか否かを判断することを含み、
前記オブジェクト形態を変形させるステップは、
前記変更レベルの到達に応答して、前記取得した生体データに相応する前記外観エンティティを選定するステップと、
現在の外観エンティティを前記選定された外観エンティティに変更するステップと、を含み、
前記外観エンティティは、前記アバターの身体輪郭または身体部位のうちの少なくとも一つに関連した身体パートを表現する要素であり、前記オブジェクト形態は、前記身体パート別に前記外観エンティティを備えて、前記生体データに相応する外観エンティティで表現される、請求項1に記載のアバター実現方法。
【請求項4】
前記オブジェクト形態を変形させるステップは、前記変更レベルに達していない前記変化量の発生に応答して、前記取得した生体データに応じて前記現在の外観エンティティを調整することを含む、請求項3に記載のアバター実現方法。
【請求項5】
前記受信するステップは、前記ユーザーデバイスから取得された運動結果データをさらに受信し、
前記変化量を確認するステップは、前記運動結果データから前記変化量を推定し、前記推定された変化量が前記変更レベルに達したか否かを判断することを含み、
前記オブジェクト形態を変形させるステップは、前記運動結果データから推定された前記変化量のみで前記変更レベルに達する場合に応答して、前記現在の外観エンティティを前記選定された外観エンティティに変更し、前記変更レベルに達していない場合、前記推定された変化量に応答して、前記現在の外観エンティティを調整することである、請求項3に記載のアバター実現方法。
【請求項6】
前記受信するステップは、前記生体データを受信するとともに、前記ユーザーデバイスからの位置情報、前記ユーザーのモーションデータ、前記ユーザーの周辺の環境データ、ユーザープロフィール情報、及び前記ユーザーのライフパターン情報のうちの少なくとも一つのユーザー状態情報をさらに受信し、
前記ユーザー状態情報に基づいて前記ユーザーの活動状態を推定するステップと、
前記活動状態に基づいて前記オブジェクト形態のジェスチャー、または前記オブジェクト形態に付加されるアイテムのうちの少なくとも一つを決定するステップと、
前記ジェスチャーまたは前記アイテムのうちの少なくとも一つを前記アバターに適用するステップと、をさらに含む、請求項1に記載のアバター実現方法。
【請求項7】
前記受信するステップは、前記生体データ及び前記モーションデータに少なくとも基づいて、前記ユーザーデバイスによって推定された前記ユーザーの運動情報をさらに受信し、
前記決定するステップは、前記推定された運動情報に相応する前記ジェスチャーまたは前記アイテムのうちの少なくとも一つを選定することを含む、請求項6に記載のアバター実現方法。
【請求項8】
前記ユーザーデバイスから他のユーザーデバイスとのコンタクト回避要求を受信するステップをさらに含み、
前記活動状態を推定するステップは、
前記生体データ、前記ユーザープロフィール情報または前記ライフパターン情報のうちの少なくとも一つによって前記ユーザーの職業タイプまたは作業タイプのうちの少なくとも一つのタイプを類推するステップと、
前記類推されたタイプによって前記活動状態を推定するステップと、を含む、請求項6に記載のアバター実現方法。
【請求項9】
前記受信するステップは、前記生体データを受信するとともに、前記ユーザーデバイスからの位置情報、前記ユーザーのモーションデータ、前記ユーザーの周辺の環境データ、ユーザープロフィール情報または前記ユーザーのライフパターン情報のうちの少なくとも一つのユーザー状態情報をさらに受信し、
前記ユーザー状態情報に基づいて前記ユーザーの活動状態及び前記ユーザーデバイスの周辺状態を推定するステップと、
前記状態に基づいて、前記アバターの周辺の背景イメージまたはムード(mood)のうちの少なくとも一つを決定するステップと、
前記背景イメージまたは前記ムードのうちの少なくとも一つを前記背景に適用するステップと、をさらに含み、
前記ムードは前記背景イメージの属性表現である、請求項1に記載のアバター実現方法。
【請求項10】
前記アバターは、前記コンピューティング装置によって実現されるメッセンジャーアプリケーション、メタバース仮想サービスアプリケーション、仮想構築空間ベースのサービスアプリケーションまたはソーシャルメディアアプリケーションのうちの少なくとも一つに提供される、請求項1に記載のアバター実現方法。
【請求項11】
アバター実現方法をコンピュータに実行させるコンピュータ可読記録媒体に格納されたコンピュータプログラムであって、前記方法は、
生体データを取得するユーザーデバイスからユーザーの生体データを受信するステップと、
前記受信された生体データと以前の生体データとの間の変化量を確認するステップと、
前記変化量に応答して、前記取得された生体データに相応するように、前記アバターの外観を規定するオブジェクト形態を変形させるステップと、を含む、コンピュータプログラム。
【請求項12】
少なくとも一つのプロセッサを含むコンピューティング装置であって、
前記プロセッサは、
生体データを取得するユーザーデバイスからユーザーの生体データを受信し、
前記受信された生体データと以前の生体データとの間の変化量を確認し、
前記変化量に応答して、前記取得された生体データに相応するように、前記アバターの外観を規定するオブジェクト形態を変形させる、コンピューティング装置。
【請求項13】
ユーザーデバイスは、少なくとも一つの個別デバイスを含み、
前記コンピューティング装置は、前記個別デバイスが取得した前記ユーザーの生体データを受信するか、或いは、前記コンピューティング装置は、一つの個別デバイスが取得して他の個別デバイスを経由する前記生体データを受信する、請求項12に記載のコンピューティング装置。
【請求項14】
前記変化量を確認することは、前記変化量が、前記オブジェクト形態に属する外観エンティティの変更が要求される変更レベルに達したか否かを判断することを含み、
前記オブジェクト形態の変形は、
前記変更レベルの到達に応答して、前記取得した生体データに相応する前記外観エンティティを選定し、
現在の外観エンティティを前記選定された外観エンティティに変更するように行われ、
前記外観エンティティは、前記アバターの身体輪郭または身体部位のうちの少なくとも一つに関連した身体パートを表現する要素であり、前記オブジェクト形態は、前記身体パート別に前記外観エンティティを備えて前記生体データに相応する外観エンティティで表現される、請求項12に記載のコンピューティング装置。
【請求項15】
前記オブジェクト形態の変形は、前記変更レベルに達していない前記変化量の発生に応答して、前記取得した生体データに基づいて前記現在の外観エンティティを調整することを含む、請求項14に記載のコンピュータ装置。
【請求項16】
前記生体データを受信することは、前記ユーザーデバイスから取得された運動結果データをさらに受信することを含み、
前記変化量の確認は、前記運動結果データから前記変化量を推定し、前記推定された変化量が前記変更レベルに達したか否かを判断することを含み、
前記オブジェクト形態の変形は、前記運動結果データから推定された前記変化量のみで前記変化レベルに到達する場合に応答して、前記現在の外観エンティティを前記選定された外観エンティティに変更し、前記変更レベルに達していない場合、前記推定された変化量に応答して、前記現在の外観エンティティを調整するように行われる、請求項14に記載のコンピューティング装置。
【請求項17】
前記生体データを受信することは、前記生体データを受信するとともに、前記ユーザーデバイスからの位置情報、前記ユーザーのモーションデータ、前記ユーザーの周辺の環境データ、ユーザープロフィール情報、または前記ユーザーのライフパターン情報のうちの少なくとも一つのユーザー状態情報をさらに受信することを含み、
前記プロセッサは、
前記ユーザー状態情報に基づいて前記ユーザーの活動状態を推定し、
前記活動状態に基づいて前記オブジェクト形態のジェスチャー、または前記オブジェクト形態に付加されるアイテムのうちの少なくとも一つを決定し、
前記ジェスチャーまたは前記アイテムのうちの少なくとも一つを前記アバターに適用する、請求項12に記載のコンピューティング装置。
【請求項18】
前記生体データを受信することは、前記生体データ及び前記モーションデータに少なくとも基づいて、前記ユーザーデバイスによって推定された前記ユーザーの運動情報をさらに受信し、前記ジェスチャーまたは前記アイテムのうちの少なくとも一つの決定は、前記推定された運動情報に基づいて相応する前記ジェスチャーまたは前記アイテムのうちの少なくとも一つを選定することを含む、請求項17に記載のコンピューティング装置。
【請求項19】
前記プロセッサは、前記ユーザーデバイスから他のユーザーデバイスとのコンタクト回避要求を受信し、
前記活動状態の推定は、
前記生体データ、前記ユーザープロフィール情報または前記ライフパターン情報のうちの少なくとも一つによって、前記ユーザーの職業タイプまたは作業タイプのうちの少なくとも一つのタイプを類推し、
前記類推されたタイプによって前記活動状態を推定することを含む、請求項17に記載のコンピューティング装置。
【請求項20】
前記生体データを受信することは、前記生体データを受信するとともに、前記ユーザーデバイスからの位置情報、前記ユーザーのモーションデータ、前記ユーザーの周辺の環境データ、ユーザープロフィール情報または前記ユーザーのライフパターン情報のうちの少なくとも一つのユーザー状態情報をさらに受信することを含み、
前記プロセッサは、
前記ユーザー状態情報に基づいて前記ユーザーの活動状態及び前記ユーザーデバイスの周辺状態を推定し、
前記状態に基づいて、前記アバターの周辺の背景イメージまたはムードのうちの少なくとも一つを決定し、
前記背景イメージまたは前記ムードのうちの少なくとも一つを前記背景に適用し、
前記ムードは前記背景イメージの属性表現である、請求項12に記載のコンピューティング装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、ユーザー状態適応アバター実現方法、コンピュータプログラム及びコンピューティング装置に関する。より具体的には、ユーザーの身体及び活動に関連した状態を反映するアバターを実現するためのアバター実現方法、該方法をコンピューティング装置に実行させるためのコンピュータ可読記録媒体に格納されたコンピュータプログラム、及び前記方法を行うコンピューティング装置に関する。
【背景技術】
【0002】
アバターは、サイバー空間でユーザーの分身のように使われる視覚イメージであって、コミュニティサイト、インスタントメッセンジャー、オンラインゲーム、メタバースサービス、フィットネスアプリケーション、ショッピングモールなどでユーザーに代わる仮想グラフィックキャラクターを意味する。
【0003】
アバターは、オンライン上で自分の個性を表現する手段であって、顔、ボディで構成される身体形態を介して表現されることもあり、身体に付着する或いは身体に所持される様々なアイテムで個性が表出されることもある。ユーザーは、Webサービスまたはモバイルアプリケーションで提示する様々なアバター及びアイテムから使用したいアバターなどを選択することができる。
【0004】
ユーザーが意図的に変更しなければ、従来のアバターは、固定されたデザイン形態で提供されている。既存のアバターは、ユーザープロフィールを単純に紹介する役割を果たしたが、多数の人々が参加する仮想空間サービスの増加に伴い、アバターが静的表現に止まらず、動的に実現される必要がある。仮想空間サービスは、例えば、マルチメッセンジャーサービス、ソーシャルメディア、ユーザーが仮想構築した空間(仮想ルーム)ベースの交流サービス、メタバースサービス、及びヘルスケアサービスなどであり得る。列挙したサービスのユーザーは、盛んに交流するために、ユーザーの現実的なリアルタイム状態を把握することを望む。ユーザーの状態は会話によっても確認できるが、ユーザーの状態を事前に認知すると、相互間のコミュニケーションはスムーズに行われ得る。
【0005】
このための様々な技法があり、アバターがユーザーの状態を他のユーザーに直観的に表現する技法が効果的な1つの方案になれる。前述したように、ユーザーが自ら変更しなければ、アバターを介して現実的な状態を表現することができない。よって、仮想空間サービスに適するように、アバターがユーザーの状態を反映して表現される技術が求められる。
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明は、ユーザーの身体及び活動に関連した状態を反映するアバターを実現するためのアバター実現方法を提供することを目的とする。
【0007】
また、本発明は、前記方法をコンピューティング装置に実行させるためにコンピュータ可読記録媒体に格納されたコンピュータプログラムを提供することを目的とする。
【0008】
また、本発明は、前記方法を行うコンピューティング装置を提供することを目的とする。
【0009】
本発明の技術的課題は、上述した技術的課題に限定されず、上述していない別の技術的課題は、以降の記載から本開示の属する技術分野における通常の知識を有する者(以下、「当業者」という)に明確に理解できるであろう。
【課題を解決するための手段】
【0010】
本開示の一態様によれば、少なくとも一つのプロセッサを含むコンピューティング装置が行うアバター実現方法は、生体データを取得するユーザーデバイスからユーザーの生体データを受信するステップと、前記受信された生体データと以前の生体データとの間の変化量を確認するステップと、前記変化量に応答して、前記取得された生体データに相応するように、前記アバターの外観を規定するオブジェクト形態を変形させるステップと、を含む。
【0011】
本開示の他の実施形態によれば、前記ユーザーデバイスは、少なくとも一つの個別デバイスを含み、前記個別デバイスが前記ユーザーの生体データを取得して前記コンピューティング装置へ伝送するか、或いは一つの個別デバイスが前記ユーザーの生体データを取得して他の個別デバイスに伝達し、前記他の個別デバイスが伝達された生体データを前記コンピューティング装置へ伝送することができる。
【0012】
本開示の別の実施形態によれば、前記変化量を確認するステップは、前記変化量が前記オブジェクト形態に属する外観エンティティ(appearance entity)の変更が要求される変更レベルに達したか否かを判断することを含むことができる。前記オブジェクト形態を変形させるステップは、前記変更レベルの到達に応答して、前記取得した生体データに相応する前記外観エンティティを選定するステップと、現在の外観エンティティを前記選定された外観エンティティに変更するステップと、を含むことができる。前記外観エンティティは、前記アバターの身体輪郭または身体部位のうちの少なくとも一つに関連した身体パートを表現する要素であり、前記オブジェクト形態は、前記身体パート別に前記外観エンティティを備えて、前記生体データに相応する外観エンティティで表現できる。
【0013】
本開示の別の実施形態によれば、前記オブジェクト形態を変形させるステップは、前記変更レベルに達していない前記変化量の発生に応答して、前記取得した生体データに応じて前記現在の外観エンティティを調整することを含むことができる。
【0014】
本開示の別の実施形態によれば、前記受信するステップは、前記ユーザーデバイスから取得された運動結果データをさらに受信することができる。前記変化量を確認するステップは、前記運動結果データから前記変化量を推定し、前記推定された変化量が前記変更レベルに達したか否かを判断することを含むことができる。前記オブジェクト形態を変形させるステップは、前記運動結果データから推定された前記変化量のみで前記変更レベルに達する場合に応答して、前記現在の外観エンティティを前記選定された外観エンティティに変更し、前記変更レベルに達していない場合、前記推定された変化量に応答して、前記現在の外観エンティティを調整することであり得る。
【0015】
本開示の別の実施形態によれば、前記受信するステップは、前記生体データを受信するとともに、前記ユーザーデバイスからの位置情報、前記ユーザーのモーションデータ、前記ユーザーの周辺の環境データ、ユーザープロフィール情報、前記ユーザーのライフパターン情報のうちの少なくとも一つのユーザー状態情報をさらに受信することができる。前記ユーザー状態情報に基づいて前記ユーザーの活動状態を推定するステップと、前記活動状態に基づいて前記オブジェクト形態のジェスチャー、または前記オブジェクト形態に付加されるアイテムのうちの少なくとも一つを決定するステップと、前記ジェスチャーまたは前記アイテムのうちの少なくとも一つを前記アバターに適用するステップと、をさらに含むことができる。
【0016】
本開示の別の実施形態によれば、前記受信するステップは、前記生体データ及び前記モーションデータに少なくとも基づいて、前記ユーザーデバイスによって推定された前記ユーザーの運動情報をさらに受信することができる。前記決定するステップは、前記推定された運動情報に相応する前記ジェスチャーまたはアイテムのうちの少なくとも一つを選定することを含むことができる。
【0017】
本開示の別の実施形態によれば、前記ユーザーデバイスから他のユーザーデバイスとのコンタクト回避要求を受信するステップをさらに含むことができる。前記活動状態を推定するステップは、前記生体データ、前記ユーザープロフィール情報または前記ライフパターン情報のうちの少なくとも一つによって前記ユーザーの職業タイプまたは作業タイプのうちの少なくとも一つのタイプを類推するステップと、前記類推されたタイプによって前記活動状態を推定するステップと、を含むことができる。
【0018】
本開示の別の実施形態によれば、前記受信するステップは、前記生体データを受信するとともに、前記ユーザーデバイスからの位置情報、前記ユーザーのモーションデータ、前記ユーザーの周辺の環境データ、ユーザープロフィール情報、前記ユーザーのライフパターン情報のうちの少なくとも一つのユーザー状態情報をさらに受信することができる。前記ユーザー状態情報に基づいて前記ユーザーの活動状態及び前記ユーザーデバイスの周辺状態を推定するステップと、前記状態に基づいて、前記アバターの周辺の背景イメージまたは前記ムード(mood)のうちの少なくとも一つを決定するステップ、及び前記背景イメージまたはムードのうちの少なくとも一つを前記背景に適用するステップをさらに含むことができる。前記ムードは、前記背景イメージの属性表現であり得る。
【0019】
本開示の別の実施形態によれば、前記アバターは、前記コンピューティング装置によって実現されるメッセンジャーアプリケーション、メタバース仮想サービスアプリケーション、仮想構築空間ベースのサービスアプリケーション、ソーシャルメディアアプリケーションのうちの少なくとも一つに提供され得る。
【0020】
本開示の他の態様によれば、少なくとも一つのプロセッサを含むコンピューティング装置であり、前記プロセッサは、生体データを取得するユーザーデバイスからユーザーの生体データを受信し、前記受信された生体データと以前の生体データとの間の変化量を確認し、前記変化量に応答して、前記取得された生体データに相応するように、前記アバターの外観を規定するオブジェクト形態を変形させうる。
【0021】
本開示の別の態様によるコンピュータ可読記録媒体に格納されたコンピュータプログラムは、本開示によるアバター実現方法を実行させるコンピュータプログラムであり得る。
【0022】
本開示について簡略に上述された特徴は、後述する本開示の詳細な説明の例示的な態様に過ぎず、本開示の範囲を限定するものではない。
【発明の効果】
【0023】
本発明によれば、ユーザーの身体及び活動に関連した状態を反映するアバターを実現するためのアバター実現方法が提供できる。
【0024】
また、本発明によれば、前記方法を行うコンピューティング装置が提供できる。
【0025】
また、本発明によれば、前記方法をコンピューティング装置に実行させるためにコンピュータ可読記録媒体に格納されたコンピュータプログラムが提供できる。
【0026】
本開示で得られる効果は、上述した効果に限定されず、上述していない別の効果は、以降の記載から本開示の属する技術分野における通常の知識を有する者に明確に理解できるであろう。
【図面の簡単な説明】
【0027】
【
図1】本開示の一実施形態によるユーザー状態適応アバター実現方法が実行されるシステムを示す図である。
【
図2】本開示の一実施形態によるアバター実現方法を行うユーザーデバイス及びサーバーを例示するブロック図である。
【
図3】本開示の一実施形態によるアバター実現方法を行うユーザーデバイス及びサーバーを例示するブロック図である。
【
図4】本開示の一実施形態によるアバター実現方法を示すフローチャートである。
【
図5】アバターのオブジェクト形態に属する外観エンティティを例示する図である。
【
図6】ユーザーの身体状態に応じて外観エンティティを変更してアバターに適用した例を示す図である。
【
図7】本開示の他の実施形態によるアバター実現方法を示すフローチャートである。
【
図8】ユーザーの活動状態に応じて選定されたジェスチャー及びアイテムをアバターに適用した例を示す図である。
【
図9】本開示の別の実施形態によるアバター実現方法を示すフローチャートである。
【
図10】ユーザーの活動状態に応じて選定された背景イメージ及びムード(mood)をアバターの背景に適用した例を示す図である。
【
図11】アバターがメッセンジャーアプリケーションで使用される例を示す図である。
【
図12】アバターがメタバース空間で使用される例を示す図である。
【発明を実施するための形態】
【0028】
以下、添付図面を参照して、本開示の実施形態について、通常の技術者が容易に実施し得るように詳細に説明する。しかし、本開示は、様々な異なる形態で実現でき、ここで説明する実施形態に限定されない。
【0029】
本開示の実施形態を説明するにあたり、公知の構成または機能についての具体的な説明が本開示の要旨を不明確にするおそれがあると判断された場合には、その詳細な説明は省略する。なお、図面において、本開示についての説明と関係のない部分は省略し、類似の部分には類似の符号を付した。
【0030】
本開示において、ある構成要素が他の構成要素と「連結」、「結合」または「接続」されているとするとき、これは、直接的な連結関係だけでなく、それらの間に別の構成要素が存在する間接的な連結関係も含むことができる。また、ある構成要素が他の構成要素を「含む」または「有する」とするとき、これは、特に反対の記載がない限り、他の構成要素を排除するのではなく、別の構成要素をさらに含み得ることを意味する。
【0031】
本開示において、第1、第2などの用語は、ある構成要素を他の構成要素から区別する目的のみで使用され、特に断りのない限り、構成要素間の順序または重要度などを限定しない。よって、本開示の範囲内で、一実施形態における第1構成要素を他の実施形態における第2構成要素と呼ぶこともあり、同様に、一実施形態における第2構成要素を他の実施形態における第1構成要素と呼ぶこともある。
【0032】
本開示において、互いに区別される構成要素は、それぞれの特徴を明確に説明するためであり、構成要素が必ずしも分離されることを意味するものではない。すなわち、複数の構成要素が統合されて一つのハードウェアまたはソフトウェア単位で構成されてもよく、一つの構成要素が分散して複数のハードウェアまたはソフトウェア単位で構成されてもよい。したがって、別段の言及がなくても、このように統合または分散された実施形態も本開示の範囲に含まれる。
【0033】
本開示において、様々な実施形態で説明する構成要素が必ずしも必須の構成要素を意味するものではなく、一部は選択的な構成要素であってもよい。したがって、一実施形態で説明する構成要素の部分集合で構成される実施形態も、本開示の範囲に含まれる。また、様々な実施形態で説明する構成要素にさらに他の構成要素を含む実施形態も、本開示の範囲に含まれる。
【0034】
また、本明細書において、ネットワークは、有線・無線ネットワークの両方を含む概念であり得る。ここで、ネットワークとは、デバイスとシステム間、及びデバイス相互間のデータ交換が行われる通信網を意味することができ、特定のネットワークに限定されるものではない。
【0035】
また、本明細書において、デバイスは、スマートフォン、タブレットPC、ウェアラブルデバイス、ラップトップ(laptop)、HMD(Head Mounted Display)、及びユーザーの身体/生体状態を測定する移動性ヘルスケアデバイスのようにモバイルデバイスであり得る。デバイスは、例えば、パソコンまたはディスプレイ機能を備えた家電、非移動性ヘルスケアデバイスのように固定されたデバイスであり得る。また、一例として、デバイスは、サーバーとして動作可能なコンピューティングデバイス、地上/航空移動体またはIoT(Internet of Things)デバイスであり得る。すなわち、本明細書において、デバイスは、本発明による方法を行うことが可能な機器を指すことができ、特定のタイプに限定されない。
【0036】
以下、添付図面を参照して本開示の実施形態について説明する。
【0037】
図1は、本開示の一実施形態によるユーザー状態適応アバター実現方法が実行されるシステムを示す図である。
【0038】
本発明によるシステムは、ネットワーク300を介して連結された一つ以上のユーザーデバイス100a、100b、100cと、サーバー200とを含むことができる。
【0039】
それぞれのユーザーデバイス100a~100cは、クライアントまたはユーザー端末と呼ばれることがあり、ネットワーク300を介してサーバー200に接続して他のユーザーデバイスまたはサーバーとデータを送受信することができる。
【0040】
ユーザーデバイス100a~100cは、少なくとも一つの個別(individual)デバイスを含むことができる。個別デバイス100a~100cは、ユーザーの生体データ、位置情報、モーションデータ、周辺の環境データなどのデータを取得し、取得されたデータに基づいて様々な情報を生成することができる。
【0041】
個別デバイス100a~100cは、サーバー200と通信して、ユーザーの生体データを直接測定するか、或いはユーザーが記録した生体データをサーバー200へ伝送することができる。この場合、個別デバイス100a~100cは、生体データと共に、先立って例示したデータを取得することができる。
【0042】
他の例として、ユーザーデバイス100a~100cは、サーバー200と通信可能な第1個別デバイス100a、100b、及びサーバー200と通信不可能な第2個別デバイス100cを含み、第2個別デバイス100cのデータは、第1個別デバイス100a、100bを介してサーバー200へ伝送できる。具体的には、第2個別デバイス100cは、生体データを測定して第1個別デバイス100a、100bへ伝達するか、或いはユーザーが第2個別デバイス100cに生体データを記録し、第2個別デバイス100cが記録された生体データを第1個別デバイスへ伝送することができる。つまり、第2個別デバイス100cは、第1個別デバイス100a、100bが直接入手することができない生体データを取得することができる。変形例として、第2個別デバイス100cは、特定の生体データのみを取得し、モーションデータ、位置情報などの非生体データを取得することができないこともある。例えば、第1個別デバイス100a、100bは、スマートフォンやウェアラブルデバイスなどであり、心拍数、血圧、体温、消費カロリー、体脂肪、体成分などを測定したり入力されたりすることができる。第2個別デバイス100cは、第1個別デバイス100a、100bとのデータ交換が可能な体重計、血糖計などであり得る。第2個別デバイス100cは、第1個別デバイス100a、100bにインストールされた連動アプリケーションを介して生体データを提供することができる。
【0043】
これに加えて、個別デバイス100a~100cは、ユーザーが行った身体活動の類型及び結果データを取得することもできる。身体活動は、例えば、特定の運動類型であり、結果データは、特定の運動で達成した数値データであり得る。例えば、ランニングの場合は、数値データは距離、消費カロリー、運動時間、歩数などであり得る。ヨガ及び筋力運動の場合、数値データは運動時間、消費カロリーなどであり得る。上述した例のように身体活動が運動である場合、個別デバイス100a~100cは、一例として、少なくとも生体データ及びモーションデータに基づいて運動類型及び結果データを推定することができる。ここで、運動類型及び結果データは、それぞれ運動情報及び運動結果データと呼ばれることがある。他の例として、個別デバイス100a~100cは、ユーザーの入力によって、運動情報または運動結果データのうちの少なくとも一つを確認することもできる。
【0044】
本開示によるユーザー状態適応アバター実現方法は、様々なオンラインサービスと連携されて提供されるアバターサービスを用いて行われることができる。オンラインサービスは、例えば、ポータルサイト、メッセンジャーサービス、ソーシャルメディア、ショッピングモール、仮想空間ベースのサービス、及び他のユーザーとの情報交換、比較を提供する特定目的のサービスなどであり得る。仮想空間ベースのサービスは、ユーザーが仮想的に構築した仮想ルームを介したユーザー間の交流サービスなどであり得る。特定目的のサービスは、例えばヘルスケアアプリケーションとして提供され、フィットネス、食事療法、さまざまなヘルスケアサービスなどであり得る。
【0045】
アバターサービスは、オンラインサービスの一機能として支援され、ユーザーを仮想キャラクターで表現するツールを提供する。ユーザーデバイス100a、100bのそれぞれには、アバターサービスを利用するためのクライアント用モジュールがインストールされ得る。また、サーバー200には、アバターサービスを支援するためのサーバー用モジュールがインストールされ得る。本開示において、ユーザーデバイスにインストールされたアバターアプリケーションは、ユーザーデバイス100a、100bのそれぞれにインストールされたクライアント用モジュールを意味することができる。
【0046】
アバターサービスは、オンラインサービスの参加者にユーザーの状態を反映するアバター及び周辺背景を視覚的に表現することができる。ユーザーの状態は、例えば、生体データに基づく身体状態、及びユーザーデバイス100a~100cから推定される様々な活動状態であり得る。活動状態は、ユーザーの身体活動及び社会活動などに関連した状態を含むことができる。例えば、活動状態は、睡眠、外出、ショッピング、ユーザーが行う運動類型、ユーザーのライフパターンに応じた作業などであり得る。
【0047】
サーバー200は、オンラインサービスの一機能として、アバターアプリケーションなどのサービスを提供することができる。前記サービスを利用するユーザーは、ユーザーデバイスを介して所定の接続情報を入力して前記サービスを提供するサーバー200に接続することができる。サーバー200は、ユーザーデバイスから入力された接続情報を介して接続したユーザーを識別することができる。また、サーバー200は、識別されたユーザーに関する情報を収集、格納及び照会したり、識別されたユーザー間のデータ送受信を支援したりすることができる。
【0048】
サーバー200は、ユーザーデバイス100a~100cから上述したデータ及び情報を受信して、ユーザーの状態に一致するアバター及び周辺背景を実現することができる。上述したデータのうち、環境データは、ユーザーデバイス100a~100cから受信することもできるが、他の例として、サーバー200は、位置情報に基づいて環境データを照会したり、他の装置から受信したりすることもできる。
【0049】
図2及び
図3は、本開示の一実施形態によるアバター実現方法を行うユーザーデバイス及びサーバーを例示するブロック図である。
【0050】
図2を参照すると、ユーザーデバイス100a~100cは、通信部110、センサー部120、入力部130、出力部140、メモリー150、及びプロセッサ160を含むことができる。ユーザーデバイス100a~100cは、デバイスの動作及び機能に関連した他の構成をさらに含むことができ、上述した実施形態に限定されない。
【0051】
通信部110は、ネットワークを介してサーバー200または他のユーザーデバイスとデータを交換することができる。通信部110は、外部との通信を行うことが可能な全種類の有線・無線通信モジュールを含むことができる。個別デバイス別に考察すると、第1個別デバイス100a、100bは、サーバー200、第2個別デバイス100c及び他のユーザーデバイスと通信することができるように、長距離及び近距離通信をサポートすることができる。長距離通信は、例えば3GPP、LTEまたは5Gなどをベースとするセルラー通信であり、近距離通信は、WiFi、Bluetooth、赤外線通信などであり得る。第2個別デバイス100cは、第1個別デバイス100a、100bのユーザーが別途保有しながら、第1個別デバイス100a、100bとの近距離通信をサポートすることができる。
【0052】
センサー部120は、ユーザーの生体データ、位置情報、環境データ、モーションデータなどを感知する多重センサーモジュールを備えることができる。センサー部120は、ユーザーの要求によってまたは自動的に生体データを測定することができる。ユーザーデバイス100a~100cが常時着用可能なデバイス(例えば、スマートウォッチ)である場合、生体データ関連センサーを介して自動的且つ定期的に生体データを取得することができる。もし、ユーザーが着用可能なデバイスでの設定によって自動収集機能を非アクティブ化した場合、ユーザーデバイス100a~100cは、ユーザーの要求によって生体データを取得することができる。ユーザーデバイス100a~100cが非着用型デバイスである場合、生体データは、ユーザーの測定行為及び要求によって取得できる。
【0053】
生体データ関連センサーは、例えば、心拍数、血圧、体温、消費カロリー、体脂肪、体成分、体重、血糖などを取得するモジュールを備えることができる。列挙された生体データは、一例として、すべて1つの個別デバイスから取得できる。他の例として、生体データのうちの一部が第1及び第2個別デバイス100a~100cのうちのいずれかによって取得されることもできる。この場合、第2個別デバイス100cの生体データが第1個別デバイス100a、100bに伝達されることにより、第1個別デバイス100a、100bが全ての生体データを取得することもできる。
【0054】
位置情報関連センサーは、デバイスの2次元位置、高度及び室内施設物内の地点などを取得するモジュールを有することができる。位置情報センサーは、例えば、GPSセンサー、圧力センサー、通信アクセスポイントベースの位置(アドレス)検知などであり得る。通信アクセスポイントは、例えば、セルラー通信またはWiFiのアクセスポイント(中継器、基地局など)、ビーコン(beacon)通信モジュールであり得る。
【0055】
環境データは、例えば、気象状態、位置に応じたユーザーの状況情報を含むことができる。これに関連して、環境データ関連センサーは、デバイスの周辺の温度、湿度、降雨、降雪などの気象データを検出するモジュールを含むことができる。他の例として、気象データは外部から伝達できる。
【0056】
また、環境データを構成する状況情報は、位置情報に基づく特定のプレイス及びイベントであり得る。特定のプレイスは、例えば、文化空間、ショッピングセンター、特定種目の運動場所、病院、繁華街などであってもよく、イベントは、特定のプレイスの当該時間に発生する公演、行事であり得る。特定のプレイスは、GPS情報、高度情報、通信アクセスポイントのアドレス情報による野外位置、及びビーコン伝送情報、前記アドレス情報による室内位置に基づいて認知できる。ユーザーデバイス100a~100cは、マップアプリケーションを利用して、認知された位置に対応する場所や施設物を確認することができる。また、ユーザーデバイス100a~100cは、例えば、検索アプリケーションを実行して、場所、施設物に関連したイベントを探索することができる。
【0057】
モーションデータ関連センサーは、ユーザーの動きを推定するための基本検出値を取得し、例えば、加速度センサー、ジャイロ(gyro)センサーモジュールなどを備えることができる。
【0058】
入力部130は、ユーザー入力を受信するインターフェースであって、様々な入力手段を備えることができる。例えば、入力部130は、圧力感知センサー、静電式タッチセンサーなどを用いた入力手段(一例として、タッチスクリーンに表示される仮想キーボード)、機械式ボタンなどを備えることができる。また、入力部130は、音声、サウンドを受信するマイクロフォン、及びオブジェクト撮影のためのカメラを有することができる。ユーザーデバイス100a~100cは、例えば、ユーザーが入力部130を介して入力した生体データを取得することができる。具体的には、スマートフォン、スマートウォッチなどのユーザーデバイス100a~100cが体重、血糖などの特定の生体データを取得するセンサーを備えない場合、ユーザーは、入力部130を介して特定の生体データを入力することもできる。また、ユーザーデバイス100a~100cが運動類型または運動結果データのうちの少なくとも一つを推定する場合、ユーザーが入力部130を介して運動類型または運動結果データのうちの少なくとも一つを入力することができる。
【0059】
出力部140は、ユーザーデバイス100a~100cが取得または受信した情報、ユーザーデバイス100a~100cによって処理された情報などを外部へ出力することができる。出力部140は、例えば、時刻情報を出力するディスプレイや、オーディオ情報を出力するスピーカなどを含むことができる。
【0060】
メモリー150は、サーバー200または他のユーザーデバイスから通信部110を介して受信した情報を記憶することができる。また、メモリー150は、入力部130を介して取得した情報など、外部から取得した情報を記憶することができる。また、メモリー150は、ユーザーデバイス100a~100cの内部で生成された情報を記憶することができる。例えば、本開示によるアバター実現方法を行うことにより、生成された情報がメモリー150に記憶され得る。具体的には、ユーザーデバイス100a~100cは、以前の生体データまたは取得した生体データを累積して記憶することができる。また、ユーザーデバイス100a~100cがユーザーの特定の運動を感知するか、或いはユーザー入力によって運動関連データを受信すると、メモリー150は、運動情報及び運動結果データを累積して記憶することができる。また、メモリー150は、オンラインサービスに入力した性別、年齢、アドレス、職業などを含むユーザープロフィール情報を記憶することができる。ユーザープロフィール情報は、ユーザーのプライバシーのために職業、居住地/職場アドレスなどを含まないことができる。この場合、ユーザーデバイス100a~100cで実行されるサービスアプリケーションは、限られたユーザープロフィール情報、累積された位置情報、累積された環境データに基づいてユーザーのライフパターン情報を生成し、ユーザープロフィール情報及びライフパターン情報に基づいて様々な予想データ、例えば、職業、居住地/職場の概略位置を類推することができる。ライフパターン情報及び予想データはメモリー150に記憶できる。
【0061】
プロセッサ160は、ユーザーデバイス100a~100c内の他の構成要素の動作を制御することができる。例えば、プロセッサ160は、入力部130及び通信部110を介して取得される情報を処理することができる。また、プロセッサ160は、メモリー150に記憶された情報を読み出して処理することができる。プロセッサ160は、前記処理された情報を出力部140を介して出力したり、メモリー150に記憶したり、通信部110を介して外部に伝送したりすることができる。
【0062】
例えば、プロセッサ160は、センサー部120、入力部130を介して取得したデータをサーバー200へ伝送することもでき、取得したデータで運動情報、運動結果データまたはライフパターン情報のうちの少なくとも一つを生成してサーバー200へ伝送することもできる。取得または生成されたデータは、ユーザー状態情報を構成することができる。ユーザー状態情報は、例えば、生体データ、位置情報、モーションデータ、周辺の環境データ、ユーザープロフィール情報、ユーザーのライフパターン情報、運動情報または運動結果データのうちの少なくとも一つを含むことができる。プロセッサ160は、ユーザー状態情報に応じて変更されたアバターまたは背景のうちの少なくとも一つをサーバー200から受信して、ユーザーに視覚的に提供することができる。
【0063】
図3を参照すると、サーバー200は、通信部210、メモリー220及びプロセッサ230を含むことができる。サーバー200は、サーバーまたはシステムの動作に関連して他の構成をさらに含むことができ、上述した実施形態に限定されない。
【0064】
通信部210は、ネットワーク300に連結されたユーザーデバイスまたは他のサーバーとデータを交換することができる。通信部210は、外部との通信を行うことが可能な全種類の有線・無線通信モジュールを含むことができる。
【0065】
メモリー220は、通信部210を介して外部から受信した情報を記憶することができる。また、メモリー220は、サーバー200の内部で生成された情報を記憶することができる。例えば、本開示によるアバター実現方法を行って生成された情報がメモリー220に記憶され得る。具体的には、メモリー220は、ユーザーデバイス100a~100cから取得されたユーザー状態情報を累積して記憶することができる。
【0066】
プロセッサ230は、サーバー200内の他の構成要素の動作を制御することができる。例えば、プロセッサ230は、通信部210を介して取得される情報を処理することができる。また、プロセッサ230は、メモリー220に記憶された情報を読み出して処理することができる。プロセッサ230は、前記処理された情報をメモリー220に記憶するか、或いは通信部210を介して外部に伝送することができる。
【0067】
例えば、プロセッサ230は、ユーザー状態情報の少なくとも一部をユーザーデバイス100a~100c及び他の装置の少なくとも一つから受信して、ユーザー状態情報に相応するアバターまたは周辺背景のうちの少なくとも一つを実現するように処理することができる。プロセッサ230は、実現されたアバター及び背景をユーザーデバイス100a~100cへ伝送するように処理することができる。また、サーバー200が運営するサービスアプリケーションの公開された仮想空間、プロフィールで公開されるように、プロセッサ230は、変形したアバター及び背景を仮想空間及びプロフィールへ提供することができる。仮想空間は、他のユーザーとの交流のために各ユーザーがアバターとして参加して他のアバターに接近するために、自分のアバターを前記空間内で動的に移動させることが可能な機能を提供することができる。このために、仮想空間は、他のユーザーにアバターを公開し、例えばメタバースサービスで提供される空間であり得る。
【0068】
本開示のユーザーデバイス及び/またはサーバーは、コンピューティング装置またはコンピューティングデバイスの一例であり得る。
【0069】
図4は、本開示の一実施形態によるアバター実現方法を示すフローチャートである。
【0070】
本開示において、アバターは、ユーザーの特徴を表すグラフィック化またはアニメーション化された仮想キャラクターであり、ヒト、動物、擬人化された動物、事物などの様々な形態で表現できる。アバターは、静的または動的オブジェクトであり得る。動的アバターは、表情、移動などが可能な仮想オブジェクトであり得る。アバターは、外観を規定するオブジェクト形態、及びオブジェクト形態に付加されるアイテムで構成できる。ヒトを例として挙げると、オブジェクト形態は、ヒトの外観を定義するタイプであって、顔タイプ及び体型タイプを含むことができる。顔タイプは、顔の輪郭、目/鼻/口/耳などの様々な形状、及びこれらに加わる色を含むことができる。体型タイプは、顔を除く複数のボディ部位の形状及び色を含むことができる。ボディ部位は、手、首、腕、脚などを全般的に含むことができる。
【0071】
アイテムは、アバターのオブジェクト形態を飾るオブジェクトであり、アバターのイメージフォーマットと同じ形態に加工できる。アバターとアイテムは、二次元または三次元形態で制作できる。アイテムは、オブジェクト形態の個性を強調する要素であって、例えばヘア、ネイルなどに関連したスタイルであり得る。また、アイテムは、オブジェクト形態が着用或いは所持するアクセサリーまたは小物であってもよい。アイテムは、オブジェクト形態に付着せず、その周辺に配置される小品であってもよく、例えばバッグ、カップ、机などの小物であってもよい。
【0072】
背景は、サービスまたはアバターアプリケーションの設定に応じて、アバターに選択的に結合できる。背景は、オブジェクト形態及びアイテムを除いたイメ―ジであり得る。
【0073】
本開示の実施形態によるアバター実現方法の詳細な説明に先立ち、ユーザーデバイス100a~100cは、サービス/アバターアプリケーションで提供されるアバター及び背景を選択することができる。前記アプリケーションを運営するサーバー200は、様々なモデルのアバター及び複数の背景を提示して、ユーザーデバイス100a~100cで選択したアバター及び背景を活用し得るように処理することができる。サーバー200は、様々なアバターを提示する場合、オブジェクト形態及びアイテムの多様な組み合わせで構成されたアバターをユーザーデバイス100a~100cに伝達することができる。また、サーバー200は、一例として、ユーザーの身体情報に関係なく、選択されたモデルの基本オブジェクト形態を採用するアバターを提供することができる。他の例として、サーバー200は、ユーザーデバイス100a~100cにユーザーの生体データを要求して受信し、基本モデルを生体データに相応するオブジェクト形態で構成されるように処理することもできる。具体的には、サーバー200は、ユーザーデバイス100a~100cが取得した体重に基づいて、基本モデルよりもスリムな形状または太った形状のオブジェクト形態を持つように基本モデルを変形させることができる。
【0074】
前述したように、アバター及び背景が決定された後、ユーザーデバイス100a~100cは、自動収集設定またはユーザーの要求によって、生体データ及び運動結果データを取得し、サーバー200は、前記データを受信して取得することができる(S105)。
【0075】
ユーザー要求による場合、生体データは、ユーザーがユーザーデバイス100a~100cを介して直接測定したデータであるか、或いはユーザーがユーザーデバイス100a~100cを介して記録したデータであり得る。また、ユーザーデバイス100a~100cは、一例として、少なくとも生体データ及びモーションデータに基づいて運動情報及び運動結果データを推定することができる。他の例として、ユーザーデバイス100a~100cは、ユーザーの入力によって、運動情報または運動結果データのうちの少なくとも一つを確認することもできる。生体データ、運動情報及び運動結果データの意味及び取得過程は、
図1及び
図2に詳細に叙述されており、これについての説明は省略する。
【0076】
次に、サーバー200は、取得されたデータとメモリー220に既に累積された以前のデータとの間に差があるかを把握することにより、両データ間の変化量を確認することができる(S110)。
【0077】
生体データの中でも体重を例として挙げると、サーバー200は、以前の体重と取得体重との間の変化量があるかを確認することができる。現在のボディタイプを推定する生体データは、体重の他にも、体脂肪、体成分をさらに含むことができる。この場合、サーバー200は、体重、体脂肪、体成分を全て考慮した変化量を算出することができる。併せて、サーバー200は、複数の細部生体データのうち特定の細部データに他のデータに比べて高い重みを適用して変化量を算出することもできる。生体データが体温、心拍数、血圧などの生体指標である場合、サーバー200は、以前の生体指標と取得した生体指標との間の変化量があるかを確認することができる。
【0078】
また、サーバー200は、運動結果データから生体データの変化量を推定することができる。ランニングを例として挙げると、サーバー200は、距離、消費カロリー、運動時間及び歩数のうちの少なくとも一つを変化量の推定に必要なデータとして用いることができる。サーバー200は、例えば、以前の所定の期間に保存された平均運動結果データと、取得時点を含めて所定の時点に遡及指定された最近の期間の平均運動結果データとを比較して、変化量を確認することができる。また、サーバー200は、運動結果データと生体データ(例えば、体重、体脂肪、体成分など)との間の変化相関テーブルを利用して、最近の期間の運動結果データから生体データの変化量を推定することもできる。ここで、サーバー200は、例えば、複数の細部運動結果データのうち、ユーザーの身体状態に有益な細部データに他のデータに比べて高い重みを適用して変化量を算出することもできる。
【0079】
サーバー200が、生体データ及び運動結果データの変化量が全て実質的にないことを確認すると(S110のN)、サーバー200は、アバターの現在のオブジェクト形態を維持するように処理することができる(S115)。
【0080】
これとは異なり、変化量が生体データまたは運動結果データのうちの少なくとも一つに発生したことが確認されると(S110のY)、サーバー200は、取得されたデータに基づいてオブジェクト形態の変更レベルに達するか否かを確認することができる(S120)。
【0081】
変更レベルは、オブジェクト形態に属する外観エンティティ(appearance entity)の変更(または交替)が要求される閾値を意味することができる。外観エンティティは、同じオブジェクト形態の身体輪郭または身体部位のうちの少なくとも一つに関連した身体パートを表現する要素であり得る。これに加えて、外観エンティティは、身体パートに加わる色要素をさらに含むことができる。オブジェクト形態は、アバターの外観の同一性を維持しながら身体パート別に異なるように提供される複数の外観エンティティを有することができる。各外観エンティティは、身体パート別のテンプレートであり得る。詳細には、オブジェクト形態の変形過程で外観エンティティのコントロールポイント(control point)に変更可能なレベル(または閾値)を超える場合、それぞれの外観エンティティは、外観同一性を有する各身体パートを異ならせて表現するように設計できる。
【0082】
図5は、アバターのオブジェクト形態に属する外観エンティティを例示する図である。
図5は、同じ顔及び色のオブジェクト形態410に属する顔外観エンティティ420a~420cを例示している。具体的には、
図5の上側の女性の顔は、同じ目、鼻、口を有するので、同じオブジェクト形態と見なされることができる。しかし、顔の輪郭に関連した外観エンティティ420a~420cは、左へ行くほどスリムなテンプレート(またはパート)とで表現できる。各外観エンティティ420a~420cは、取得データに基づいて、各オブジェクトを制御するコントロールポイントの変更で調整できる。しかし、取得データによるオブジェクト形態の変形がコントロールポイントで調整可能な閾値を超えるレベル(すなわち、変更レベルに到達)であれば、以前の顔外観エンティティ420bは、取得データに相応する他の顔外観エンティティ420aまたは420cで交替できる。
図5は、顔外観エンティティとして例示しているが、顔部位、体型に関連した外観エンティティも同じオブジェクト形態に対して複数存在することができる。
【0083】
これにより、サーバー200は、現在の外観エンティティの交替が要求されるかを確認するために、取得データに基づいて変更レベルに達したか否かを判断することができる。
【0084】
変更レベルの到達は、例えば、以前のデータと取得データの間の変化量と変更レベルを相対的に比較することにより確認できる。変更レベルで要求された変化量は、サーバー200の一般化された設定またはユーザーデバイス100a~100cの個別設定によって決定できる。個別設定について例示すると、
図5に例示されているよりスリムな顔の外観エンティティで交替できる変化量が、ユーザーデバイス100a~100cごとに個別設定できる。例えば、ユーザーAは、よりスリムな顔の外観エンティティで交替されるために、減少体重を5kgに設定するが、ユーザーBは、交替のための減少体重を3kgに設定することができる。
【0085】
他の例として、変化量は、オブジェクト形態の変形のトリガ(trigger)条件で確認するだけであり、変化レベルの到達は、変化量に関係なく、取得されたデータにのみ依存して、複数の外観エンティティに相応する生体及び/または運動結果データを比較することにより確認できる。ここで、変更レベルは、上述したのと同様に、一般化された設定またはユーザーの個別設定によって決定できる。
【0086】
次に、変更レベルの到達が確認されると(S120のY)、サーバー200は、取得データに基づいて、外観エンティティを選定し、現在の外観エンティティを選定された外観エンティティで交替して、アバターに適用することができる(S125)。
【0087】
取得データが体重関連生体データであることを例示した
図5及び
図6を参照すると、サーバー200は、
図5に例示されている体重別外観エンティティ420a~420cのうち、現在の体重に一致する外観エンティティを選定することができる。
図6は、ユーザーの身体状態に応じて外観エンティティを変更してアバターに適用した例を示す図である。
図6の左図に示すように、現在の顔オブジェクト形態は、スリムな顔外観エンティティ420aで表現される。ユーザーデバイス100a~100cから取得されたユーザーの体重が増加したことが確認されると、サーバー200は、
図6の右図に示すように、膨張した顔外観エンティティ420b、420cのうち、増加した体重に対応する顔外観エンティティ420cを選定し、現在の顔外観エンティティ420aを選定された顔外観エンティティ420cで交替することができる。これとは異なり、体重が減ると、サーバー200は、減少した体重に相応するスリムな顔外観エンティティを選定し、現在の顔外観エンティティ420aをスリムな顔外観エンティティに変更することができる。ここで、外観エンティティ420aまたは420cに変更されても、ヘアスタイルに関連したアイテム440aの形態は実質的に維持できる。
【0088】
他の例として、体重関連生体データが体重の他にも、体脂肪、体成分などを含む場合、サーバー200は、上述の事項と同様に、取得された生体データに相応する体型外観エンティティを選定することができる。
図6では、体重、体脂肪、体成分による分析値が以前の値との比較によって変更レベルを超えるほど急激に増加した場合、サーバー200は、増加した値に基づいて体型外観エンティティ430cを選定して、現在の体型外観エンティティ430aを交替することができる。上述した他の例は、顔外観エンティティの変更と同時にまたは単独で実行できる。
【0089】
別の例として、生体データが体温、心電図、血圧などであり、以前のデータとの比較によって変更レベルを超えるほど急激に悪化した或いは正常に回復した場合、サーバー200は、悪化または回復した生体データに基づいて外観エンティティを選別して現在の外観エンティティを変更することができる。例えば、ユーザーの身体状態がインフルエンザ、激しい疲れ病などにより急激に悪化した場合、悪化した生体データに相応する不良コンディションの顔及び/または体型外観エンティティを選定し、現在の外観エンティティを変更することもできる。別の例として、生体データ分析の結果、血圧が通常(または以前の生体データの平均)よりも高いと判断されると、サーバー200は、顔に赤みを帯びるか或いは汗をかく顔及び/または体型外観エンティティを選定し、現在の外観エンティティを変更することができる。別の例として、生体データ分析の結果、脈拍が通常(または以前の生体データの平均)よりも高いと判断されると、サーバー200は、アバター上に大きく拍動するハートアイテムを追加して表示することができる。
【0090】
別の例として、変更レベルの到達を判断するデータが運動結果データに関連する場合、サーバー200は、運動結果データを構成する細部データと対応する外観エンティティ420a~430cを選定することができる。ランニングを例として挙げると、細部データは運動距離、消費カロリー、運動時間、歩数などであり得る。一例として、サーバー200は、取得された細部データと外観エンティティとの間の外観相関テーブルを用いて、相応する外観エンティティ420a~430cを選択することができる。サーバー200は、他の例として、取得された細部データに対応関係を有する生体データに基づいて外観エンティティ420a~430cを選定することができる。本開示の実施形態は、アバターが第三者に一層好感を有する外観で表現されようとするユーザーの意図を反映することができる。具体的には、変化量が生体データのみで変更レベルに達しなくても、ユーザーの持続的な運動によるデータのみで変更レベルに到達されると、前記データによる外観エンティティの交替が許容されるようにする。
【0091】
再びS120段階に戻り、取得データに基づく変更レベルが到達しないことが確認されると(S120のN)、サーバー200は、取得した生体データまたは運動結果データのうちの少なくとも一つに応じて現在の外観エンティティを調整することができる(S130)。
【0092】
外観エンティティ(
図6の420a、430a)の調整は、現在の外観エンティティ420a、430aを維持しながら取得データに基づいて外観エンティティを全部または一部調節することを意味することができる。調節は、前記エンティティの拡大または縮小であってもよく、色の変化を伴ってもよい。前述したように、外観エンティティは、例えばエンティティを構成するコントロールポイントで変更できる。
【0093】
前記エンティティの調整は、交替の例示と同様に、体重増減、病気によるコンディションの悪化/回復、運動による効果などを反映することができるように実現できる。
【0094】
本実施形態では、ユーザーデバイス100a~100cが生体データ及び運動結果データをサーバー200へ伝送し、サーバー200が変化量を確認することを中心に説明する。しかし、これに限定されず、他の実施形態として、ユーザーデバイス100a~100cが取得したデータとメモリー150に既に記憶されたデータとの間の変化量を確認し、変化量がある場合、ユーザーデバイス100a~100cが変化量データをサーバー200へ伝送することもできる。
【0095】
図7は、本開示の他の実施形態によるアバター実現方法を示すフローチャートである。
図7は、ユーザー状態情報から推定されるユーザーの活動状態及び周辺状態に基づいて、アバターのジェスチャー及びアイテムが決定される実施形態に関する。
【0096】
まず、ユーザーデバイス100a~100cはユーザー状態情報を生成し、サーバー200はユーザー状態情報を受信して取得することができる(S205)。
【0097】
ユーザー状態情報は、生体データ、ユーザーデバイス100a~100cからの位置情報、ユーザーのモーションデータ、ユーザー周辺の環境データ、ユーザープロフィール情報、及びユーザーのライフパターン情報のうちの少なくとも一つを含むことができる。列挙したデータ及び情報は
図2を参照して叙述されており、これについての詳細な説明は省略する。一方、ユーザーデバイス100a~100cは、ユーザーが特定類型の運動を進行することを感知するか、或いはユーザーから運動類型の入力を受けることができる。図示していないが、ユーザーデバイス100a~100cが前記類型に関連した運動情報をユーザー状態情報として取得すると、サーバー200へ運動情報を伝送することができる。
【0098】
次に、サーバー200は、ユーザー状態情報に基づいてユーザーの活動状態及び周辺状態を推定することができる(S210)。
【0099】
一例として、サーバー200は、例えば、生体データ、位置情報、環境データに基づいて活動状態及び周辺状態を推論することができる。具体的な例として、ユーザーの体温、心拍数などの生体データ、部屋、山またはショッピングモールなどの位置、周辺温度や天気などの気象データに基づいて、ユーザーが登山する、雨天で外出する、モールで買い物する、或いは睡眠中であることが推定され、上述したデータによる周辺状態が推論できる。他の例として、サーバー200は、ユーザーの心拍数、特定空間の位置、環境データの状況情報に基づいて、ユーザーが起立または着席する活動状態を推定することもできる。別の例として、環境データの状況情報に基づいて、サーバー200は、ショッピングモールで特定のイベントが進行する状況を確認することができる。別の例として、サーバー200がユーザーの運動情報、位置情報、環境データ及びライフパターン情報を受信すると、運動情報から確認される運動類型及び上述したデータに基づいて、具体的な活動状態及び周辺状態を推論することができる。活動状態は、例えば、ウォーキング、登山、ランニング、縄跳び、水泳、多様なトレーニング運動などであってもよく、周辺状態は、例えば、ジム、家、水泳場、山などであってもよい。
【0100】
次に、サーバー200は、活動状態または周辺状態のうちの少なくとも一つに基づいて、オブジェクト形態410のジェスチャー、及びオブジェクト形態410に付加されるアイテム440b~440d、440dのうちの少なくとも一つを決定することができる(S215)。
【0101】
例えば、活動状態(外出)及び周辺状態(雨天)に関する情報に基づいて、ユーザーの活動状態及び周辺状態が雨天時の外出として把握された場合、サーバー200は、
図6に例示されているように、アイテム440bとして傘を決定し、傘をさしているオブジェクト形態410を表現するようにジェスチャーを決定することができる。例えば、活動状態が睡眠である場合、サーバー200は、
図10に例示されているように、睡眠を表現するオブジェクト形態410としてジェスチャーを選定することができる。別の例示として、ユーザーの活動状態及び周辺状態がショッピングとして確認された場合、サーバー200は、
図11に例示されているように、アイテムとしてショッピングバッグを選定し、ショッピングバッグを所持するオブジェクト形態410にジェスチャーを決定することができる。
【0102】
別の例において、サーバー200が運動情報から運動類型を確認した場合、サーバー200は、
図8及び
図10に例示されているように、各運動類型(例えば、縄跳び、スケートボード運動、ヨガ、ゴルフ)に相応するジェスチャーまたはアイテム440c、440d、440e(縄、スケートボード、ゴルフクラブ/ボール)のうちの少なくとも一つを選定することができる。
図8は、ユーザーの活動状態に応じて選定されたジェスチャー及びアイテムをアバターに適用した例を示す図である。
【0103】
上述した例において、背景は、周辺状態に関連したイメージまたはムードのうちの少なくとも一つに決定でき、これについての詳細な説明は後述する。
【0104】
次いで、サーバー200は、ジェスチャーまたはアイテムのうちの少なくとも一つをアバター400に適用して、ユーザーデバイス100a~100cにアバターを提供することができる(S220)。
【0105】
図6、
図10、
図11に例示されているように、アバター400が傘を使って外出したり、睡眠を取ったり、ショッピングしたりする活動状態を表現するように、該当するジェスチャー及びアイテムが視覚的に現れるアバター400がユーザーデバイス100a~100cへ提供できる。
【0106】
また、
図8及び
図10に例示されているように、アバター400が特定の運動を進行することが現れるように、各運動類型に該当するジェスチャー及びアイテム440c~440eがアバター400に視覚的に表現できる。
【0107】
以上の実施形態では、サーバー200がユーザーデバイス100a~100cから受信されたユーザー状態情報を反映するジェスチャー及びアイテムを表現することを中心に説明した。
図7に対するさらなる実施形態として、サーバー200がユーザーデバイス100a~100cからコンタクト回避要求を受信した場合、アバター400を実現する例について説明する。
【0108】
S205段階で、サーバー200は、ユーザーデバイス100a~100cからユーザー状態情報とともに、コンタクト回避要求を受信することができる。コンタクト回避要求は、ユーザーが他のユーザーデバイスと一時的に会話、交流などのコンタクトアクティビティを意図的に回避しようとする要求であり得る。コンタクト回避要求は、例えば、サービスアプリケーションで提供する妨害禁止要求であり得る。
【0109】
S210段階で、コンタクト回避要求が存在する場合、サーバー200は、生体データ、ユーザープロフィール情報またはライフパターン情報のうちの少なくとも一つによって、ユーザーの職業タイプまたは作業タイプのうちの少なくとも一つのタイプを類推することができる。次いで、サーバー200は、類推されたタイプによって活動状態を推定することができる。
【0110】
例示的に、ユーザープロフィール情報がユーザーの具体的な職業タイプを含むか、或いは当該職業タイプがライフパターン情報から類推される場合、サーバー200は、前記回避要求が受信された時間に前記職業タイプと作業タイプを推論することができる。例えば、プロフィール情報に職業タイプが無くても、1週間統計的に繰り返される位置情報、生体データ、環境データなどに基づいて生成されたライフパターン情報は、職業タイプの類推に寄与することができる。もし、プロフィール情報でのユーザーの年齢が16歳であり、ユーザーが週中の午前9時から午後4時までに特定の学校にいれば、ユーザーが高校生であり、週中の日課時間に学校で授業を受けるという点がライフパターン情報に保存できる。サーバー200は、ユーザーデバイス100a~100cから平日の午前10時にコンタクト禁止要求を受信すると、ライフパターン情報、生体データ及び状況情報に基づいて、着席状態で学校の授業を受けるものと活動状態を推定することができる。
【0111】
S215及びS220ステップを上述した例で説明すると、サーバー200は、
図10の3番目の図に例示されているように、推定された活動状態に基づいて、着席状態で授業を受ける学生のジェスチャー、机/椅子/本などのアイテム及び教室の背景イメージを選択することができる。次いで、サーバー200は、選択されたジェスチャー、アイテム及び背景イメージをオブジェクト形態410及び背景450cに適用することができる。
【0112】
図9は、本開示の別の実施形態によるアバター実現方法を示すフローチャートである。
図9は、ユーザー状態情報から推定されるユーザーの活動状態及び周辺状態に基づいて、アバターの背景及びムードが決定される実施形態に関するものである。
図7及び
図9の実施形態は、前記状態に基づいて組み合わせて実現されてもよく、単独で実現されてもよい。背景は、オブジェクト形態及びアイテムを除いたイメージであってもよく、ムードは、背景イメージの雰囲気を示すための属性表現要素であり、例えば、色、明度及び彩度で構成された色属性要素であってもよいが、これに限定されない。
【0113】
S205ステップと同様に、ユーザーデバイス100a~100cは、ユーザー状態情報を生成し、サーバー200は、ユーザー状態情報を受信して取得することができる(S305)。
【0114】
次いで、S210ステップと同様に、サーバー200は、ユーザー状態情報に基づいて、ユーザーの活動状態及びユーザーデバイス100a~100cの周辺状態を推定することができる(S310)。
【0115】
次に、サーバー200は、前記状態に基づいて、アバター周辺の背景のイメージまたはムードのうちの少なくとも一つを決定することができる(S315)。
【0116】
図10は、ユーザーの活動状態に応じて選定された背景イメージ及びムードをアバターの背景に適用した例を示す図である。
【0117】
例えば、活動状態がゴルフ運動であると確認された場合、サーバー200は、
図10の1番目の図に示すように、背景450aのイメージとしてゴルフ場を決定することができる。
図7の実施形態と組み合わせると、サーバー200は、アイテム440eとしてゴルフクラブとボールを選定し、ジェスチャーとして、ゴルフをする姿勢を選定することもできる。
【0118】
また、現在の背景450bがユーザーの部屋であり、活動状態が睡眠であると確認された場合、サーバー200は、
図10の2番目の図に示すように、前記部屋の背景450bに対する交替なしに、背景450bのムードのみを決定することもできる。例示的に、サーバー200は、背景450bの色交換なしに、明度または彩度を暗くするムード設定を決定することもできる。
図7の実施形態と組み合わせると、サーバー200は、ジェスチャーとして睡眠姿勢を選択することもできる。
【0119】
ユーザー状態情報単独で、または、前記状態情報とコンタクト回避要求によって、ユーザーの活動及び周辺状態が、ユーザーが学校で授業を受けるものと推定されると、サーバー200は、
図10の3番目の図に示すように、背景450cのイメージとして教室関連イメージを採用することができる。
図7の実施形態と組み合わせると、サーバー200は机、本などの授業関連アイテムを選定し、着席状態で授業を受ける姿勢をジェスチャーとして選択することもできる。
【0120】
例えば、活動状態が降雪中の外出であると確認された場合、サーバー200は、
図10の4番目の図に示すように、背景450dのイメージとして雪のある冬景色を決定することができる。
図7の実施形態と組み合わせると、サーバー200は、マフラーをアイテムとして選定し、歩行姿勢をジェスチャーとして選択することもできる。
【0121】
次に、サーバー200は、
図10に例示されているように、背景イメージまたはムードのうちの少なくとも一つを背景に適用することができる(S320)。
【0122】
変形実施形態として、ユーザー状態情報に属する環境データが、特定のプレイスまたはイベントのうちの少なくとも一つの情報を含むことができる。画一的な背景で表現されず、プレイス及びイベントの情報及び個性がより浮き彫りとなるように、サーバー200は、ユーザーの活動状態を推定するとき、特定のプレイス及びイベントにさらに適応される背景イメージ及びムードを採用して、アバターを表現することができる。
【0123】
本開示によれば、ユーザーの身体状態及び活動状態に適応してアバターが実現できる。本開示によるアバターは、上述したように、メッセンジャーアプリケーション、ソーシャルメディアアプリケーション、メタバース仮想サービスアプリケーション、仮想構築空間ベースのサービスアプリケーションなどに実現できる。
【0124】
図11は、アバターがメッセンジャーアプリケーションで使用される例を示す図である。会話を希望するユーザー(または会話要求者)は、メッセンジャーアプリケーションで複数のユーザープロフィールを照会して会話者を選択することができる。この場合、ユーザーは、ユーザープロフィールとして提供されたアバター510a、510bの表現で他のユーザーのリアルタイム状態を直観的に認知することができる。例示的に、拡大して示されたアバター510aは、ユーザーが現在睡眠状態にあることを表現しているので、会話要求者は、ユーザーが会話可能ではないことを直観的に認識することができる。また、拡大された他のアバター510bは、ユーザーがショッピングすることを示しており、会話要求者は、当該ユーザーが会話にすぐには応答しないが、一定時間が経過して応答するか、或いは間欠的に会話することができることを直観的に把握することができる。したがって、会話要求者は、プロフィールで表現されたアバター510a、510bからユーザーのリアルタイム状態を把握して、会話相手530を選択することができる。
【0125】
図12は、アバターがメタバース空間で使用される例を示す図である。
【0126】
メタバース空間に参加した複数のユーザーは、それぞれの状態をリアルタイムにてアバター400a~400dで表現することができる。例えば、アバター400a、400bのユーザーは、メタバース空間内で他の参加者と交流可能な状態であることを示すことができる。あるユーザーは、実際の世界で睡眠中であるか或いは特定の運動を行うことがアバター400c、400dを介して表現されているので、他の参加者が、当該ユーザーは交流が困難な状態にあることを直観的に認識することができる。
【0127】
図示されていないが、ユーザーは、仮想構築空間ベースのサービスアプリケーションで提供する仮想空間(またはミニルーム)で、他のユーザーが自分の状態を認知することができるように、前記状態に符合する身体状況、ジェスチャー及び背景をアバターに適用することもできる。本開示によるアバター実現方法は、上述した応用例に限定されず、様々なアプリケーションに実現できる。
【0128】
本開示の例示的な方法は、説明の明確性のために、動作のシリーズで表現されているが、これは、ステップが行われる順序を制限するためのものではなく、必要に応じて、それぞれのステップが同時にまたは異なる順序で行われてもよい。本開示による方法を実現するために、例示するステップにさらに他のステップを含むか、或いは一部のステップを除いて残りのステップを含むか、或いは一部のステップを除いて追加の他のステップを含むこともできる。
【0129】
本開示の様々な実施形態は、すべての可能な組み合わせを列挙したものではなく、本開示の代表的な様相を説明するためのものであり、様々な実施形態で説明する事項は、独立して適用されてもよく、二つ以上の組み合わせで適用されてもよい。
【0130】
また、本発明の一実施形態による方法は、様々なコンピュータ装置によって実行できるプログラム命令の形で実現され、コンピュータ可読媒体に記録され得る。コンピュータ可読媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記媒体に記録されるプログラム命令は、本発明のために特別に設計され、構成されたものであってもよく、コンピュータソフトウェア分野の通常の技術者に公知になって使用可能なものであってもよい。コンピュータ可読記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープなどの磁気媒体(magnetic media)、CD-ROM、DVDなどの光記録媒体(optical midia)、フロプティカルディスク(floptical disk)などの磁気光媒体(magneto-optical medi)、及びROM、RAM、フラッシュメモリーなどのプログラム命令を保存及び実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例には、コンパイラによって作成されるような機械語コードだけでなく、インタプリターなどを用いてコンピュータによって実行できる高級言語コードを含む。前述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。
【0131】
また、本開示の様々な実施形態は、ハードウェア、ファームウェア(firmware)、ソフトウェア、またはそれらの組み合わせなどによって実現できる。ハードウェアによる実現の場合、一つまたはそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、汎用プロセッサ(general processor)、コントローラ、マイクロコントローラ、マイクロプロセッサなどによって実現できる。
【0132】
本開示の範囲は、様々な実施形態の方法による動作が装置またはコンピュータ装置上で実行されるようにするソフトウェアまたはマシン実行可能な命令(例えば、オペレーティングシステム、アプリケーション、ファームウェア(firmware)、プログラムなど)、及びこのようなソフトウェアまたは命令などが保存されて装置またはコンピュータ上で実行可能な非一時的コンピュータ可読媒体(non-transitory computer-readable medium)を含む。