(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-09
(45)【発行日】2024-12-17
(54)【発明の名称】新しい人を紹介するビデオ通話の通話時間による課金を公平に行う方法およびシステム
(51)【国際特許分類】
H04M 15/00 20240101AFI20241210BHJP
H04M 3/42 20060101ALI20241210BHJP
G06Q 50/50 20240101ALI20241210BHJP
【FI】
H04M15/00 E
H04M3/42 Z
G06Q50/50
(21)【出願番号】P 2020180499
(22)【出願日】2020-10-28
【審査請求日】2023-10-18
(31)【優先権主張番号】10-2019-0135193
(32)【優先日】2019-10-29
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】516014409
【氏名又は名称】ライン プラス コーポレーション
【氏名又は名称原語表記】LINE Plus Corporation
(74)【代理人】
【識別番号】100107766
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】チェー ジソン
(72)【発明者】
【氏名】ユ ドングン
【審査官】石井 則之
(56)【参考文献】
【文献】特開2015-153308(JP,A)
【文献】特開2002-252704(JP,A)
【文献】特開2009-055127(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04M 15/00
H04M 3/42
G06Q 10/00-10/10
30/00-30/08
50/00-50/20
50/26-99/00
G16Z 99/00
(57)【特許請求の範囲】
【請求項1】
コンピュータによって実現される課金方法であって、
ビデオ通話が接続された相手端末と関連する映像データをビデオ通話画面に表示する段階、
前記ビデオ通話画面に表示された相手端末と関連する映像データから、前記相手端末によって入力される反応情報を認識する段階、
予め設定された課金政策に基づき、前記認識された相手端末の反応情報に対する課金データを生成する段階
を含む、課金方法。
【請求項2】
前記課金データを生成する段階は、
相手端末の反応情報に基づいて課金データを生成するための課金政策を設定する段階
を含む、請求項1に記載の課金方法。
【請求項3】
前記課金データを生成する段階は、
前記相手端末から入力される反応情報が不在であるか予め設定された時間未満と認識される場合、前記設定された課金政策に基づく課金データの生成を中断する段階
を含む、請求項2に記載の課金方法。
【請求項4】
前記課金データを生成する段階は、
前記相手端末の反応情報が認識された時間情報をカウントし、前記設定された課金政策に基づいて前記カウントされた時間情報に対する課金データを生成または中断する段階
を含む、請求項2に記載の課金方法。
【請求項5】
前記認識する段階は、
前記ビデオ通話画面に表示される相手端末と関連する映像データから、前記映像データで認識される相手ユーザの顔情報、相手ユーザの音声データ、または相手ユーザのテキストデータのうちのいずれか1つに基づいて相手端末の反応情報に対する認識を判断する段階
を含む、請求項1に記載の課金方法。
【請求項6】
前記認識する段階は、
前記相手ユーザの顔情報が予め設定された時間以上にわたり顔認識が感知されない場合には、前記相手ユーザの音声データに対する音声認識を実行し、前記相手ユーザの音声データが予め設定された時間以上にわたり音声認識が感知されない場合には、前記相手ユーザのテキストデータに対するテキスト入力認識を実行し、前記相手ユーザのテキストデータが予め設定された時間以上にわたりテキスト入力の認識が感知されない場合には、前記相手ユーザの反応情報を不在と判断する段階
を含む、請求項5に記載の課金方法。
【請求項7】
前記認識する段階は、
前記相手ユーザの顔情報を構成する構成要素を含む領域情報の割合情報により、相手ユーザの顔情報に対する反応情報を認識したと判断する段階
を含む、請求項5に記載の課金方法。
【請求項8】
前記認識する段階は、
前記ビデオ通話中に発生する音声データから相手ユーザの音声データを区分することで、相手ユーザの音声データに対する反応情報が入力されたと認識する段階
を含む、請求項5に記載の課金方法。
【請求項9】
前記認識する段階は、
メッセージを入力するユーザインタフェースを前記ビデオ通話画面に提供し、前記ユーザインタフェースを利用して入力されるメッセージに基づき、相手ユーザのテキストデータが入力されたと認識する段階
を含む、請求項5に記載の課金方法。
【請求項10】
前記課金データを生成する段階は、
前記ビデオ通話画面に表示された端末のユーザの反応情報は認識されるが、前記ビデオ通話画面に表示された相手端末の反応情報は認識されない場合、前記相手端末の反応情報が認識されないと判断して課金データの生成を中断する段階
を含む、請求項3に記載の課金方法。
【請求項11】
前記表示する段階は、
前記ビデオ通話の接続要請にしたがって探索された相手端末とビデオ通話が接続されることにより、前記ビデオ通話が接続された相手端末と関連する映像データを一定の時間にわたり前記ビデオ通話画面に表示する段階
を含む、請求項1に記載の課金方法。
【請求項12】
前記表示する段階は、
前記ビデオ通話が接続された相手端末の相手ユーザが確認されることにより、前記ビデオ通話中にアイテムを利用して前記相手端末とのビデオ通話の時間を制御する段階
を含む、請求項1に記載の課金方法。
【請求項13】
前記生成する段階は、
前記ビデオ通話中に使用されたアイテムに設定されたビデオ通話の時間情報に基づき、前記相手端末の反応情報の認識を実行した結果情報によって相手端末とのビデオ通話の接続時間をカウントする段階
を含む、請求項1に記載の課金方法。
【請求項14】
前記表示する段階は、
前記相手端末とのビデオ通話の接続によってビデオ通話モードを動作させ、前記動作するビデオ通話モードに基づき、前記相手端末と関連する映像データをビデオ通話画面に表示する段階
を含む、請求項1に記載の課金方法。
【請求項15】
前記生成する段階は、
前記相手端末とのビデオ通話の接続によって動作するビデオ通話モードがボイスモードに切り替わる場合、前記ビデオ通話画面を終了させ、前記ボイスモードに切り替わった時間情報に基づく前記課金データの生成を中断する段階
を含む、請求項1に記載の課金方法。
【請求項16】
請求項1~15のうちのいずれか一項に記載の課金方法を前記コンピュータに実行させる、コンピュータプログラム。
【請求項17】
コンピュータによって実現される課金システムであって、
ビデオ通話が接続された相手端末と関連する映像データをビデオ通話画面に表示するビデオ通話表示部、
前記ビデオ通話画面に表示された相手端末と関連する映像データから、前記相手端末によって入力される反応情報を認識する反応認識部、
予め設定された課金政策に基づき、前記認識された相手端末の反応情報に対する課金データを生成する課金生成部
を備える、課金システム。
【請求項18】
前記課金生成部は、
相手端末の反応情報に応じて課金データを生成するための課金政策を設定し、前記相手端末が入力する反応情報が不在であるか予め設定された時間未満と認識される場合、前記設定された課金政策に基づく課金データの生成を中断する
ことを特徴とする、請求項17に記載の課金システム。
【請求項19】
前記反応認識部は、
前記ビデオ通話画面に表示される相手端末と関連する映像データから、前記映像データで認識される相手ユーザの顔情報、相手ユーザの音声データ、または相手ユーザのテキストデータのうちのいずれか1つに基づいて相手端末の反応情報に対する認識を判断する
ことを特徴とする、請求項17に記載の課金システム。
【請求項20】
前記ビデオ通話表示部は、
前記ビデオ通話が接続された相手端末の相手ユーザが確認されることにより、前記ビデオ通話中にアイテムを利用して前記相手端末とのビデオ通話時間を制御することを含み、
前記課金生成部は、
前記ビデオ通話中に使用されたアイテムに設定されたビデオ通話時間情報に基づき、前記相手端末の反応情報の認識を実行した結果情報によって相手端末とのビデオ通話接続時間をカウントする
ことを特徴とする、請求項17に記載の課金システム。
【発明の詳細な説明】
【技術分野】
【0001】
以下の説明は、ビデオ通話の通話時間に応じて課金を行う技術に関する。
【背景技術】
【0002】
通信技術の発達にともない、携帯電話などのようなモバイル通信機器はもちろん、TVのような大型電子機器でもビデオ通話サービスを提供するようになった。ビデオ通話サービスは、発信端末がビデオ通話を発呼すると、基地局/基地局制御装置を経て交換装置に発呼メッセージが送信され、交換装置がホーム位置登録装置から着信端末へのルーティング情報を取得することで、着信側の交換装置を経て着信端末とのセッション設定を実行するようになる。このような過程により、発信端末と着信端末は、オーディオや映像を送受信することができ、互いに相手の顔を見ながらビデオ通話を実行することができる。
【0003】
オンライン上で出会いを提供するアプリケーションを通じて新たな出会いを求めるユーザが増加している。オンライン上で新しい人に出会うためにビデオ通話を行うときには、通話時間に応じて課金されるのが一般的である。しかし、ビデオ通話中に相手から反応が得られない場合にも、同じように通話時間に応じて課金がなされるため、課金の不公平を訴えるユーザが存在していた。
【発明の概要】
【発明が解決しようとする課題】
【0004】
新しい人を紹介するビデオ通話の通話時間による課金を公平に行う方法およびシステムを提供する。
【課題を解決するための手段】
【0005】
コンピュータによって実現される課金方法は、ビデオ通話が接続された相手端末と関連する映像データをビデオ通話画面に表示する段階、前記ビデオ通話画面に表示された相手端末と関連する映像データから、前記相手端末に入力される反応情報を認識する段階、予め設定された課金政策に基づき、前記認識された相手端末の反応情報に対する課金データを生成する段階を含んでよい。
【0006】
コンピュータによって実現される課金システムは、ビデオ通話が接続された相手端末と関連する映像データをビデオ通話画面に表示するビデオ通話表示部、前記ビデオ通話画面に表示された相手端末と関連する映像データから、前記相手端末に入力される反応情報を認識する反応認識部、予め設定された課金政策に基づき、前記認識された相手端末の反応情報に対する課金データを生成する課金生成部を備えてよい。
【発明の効果】
【0007】
ビデオ通話画面に表示される相手端末と関連する映像データから相手端末の反応情報を認識することで、ビデオ通話が実際に発生した時間に応じて公平に課金を行うことができる。
【図面の簡単な説明】
【0008】
【
図1】一実施形態における、ネットワーク環境の例を示した図である。
【
図2】一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。
【
図3】一実施形態における、電子機器のプロセッサが含むことのできる構成要素を説明するためのブロック図である。
【
図4】一実施形態における、電子機器が実行することのできる課金方法を説明するためのフローチャートである。
【
図5】一実施形態における、電子機器間でビデオ通話が実行されることを説明するための例示図である。
【
図6】一実施形態における、電子機器でアイテムが使用されることを説明するための例示図である。
【
図7】一実施形態における、電子機器で相手端末の反応情報を認識することを説明するための例示図である。
【
図8】一実施形態における、相手端末の反応情報に基づいて電子機器で課金データを生成することを説明するためのフローチャートである。
【発明を実施するための形態】
【0009】
<発明の概要>
コンピュータによって実現される課金方法は、ビデオ通話が接続された相手端末と関連する映像データをビデオ通話画面に表示する段階、前記ビデオ通話画面に表示された相手端末と関連する映像データから、前記相手端末に入力される反応情報を認識する段階、予め設定された課金政策に基づき、前記認識された相手端末の反応情報に対する課金データを生成する段階を含んでよい。
【0010】
前記課金データを生成する段階は、相手端末の反応情報に応じて課金データを生成するための課金政策を設定する段階を含んでよい。
【0011】
前記課金データを生成する段階は、前記相手端末から入力される反応情報が不在であるか予め設定された時間未満と認識される場合、前記設定された課金政策に基づく課金データの生成を中断する段階を含んでよい。
【0012】
前記課金データを生成する段階は、前記相手端末の反応情報が認識された時間情報をカウントし、前記設定された課金政策に基づき、前記カウントされた時間情報に対する課金データを生成または中断する段階を含んでよい。
【0013】
前記認識する段階は、前記ビデオ通話画面に表示される相手端末と関連する映像データから、前記映像データで認識される相手ユーザの顔情報、相手ユーザの音声データ、または相手ユーザのテキストデータのうちのいずれか1つに基づいて相手端末の反応情報に対する認識を判断する段階を含んでよい。
【0014】
前記認識する段階は、前記相手ユーザの顔情報が予め設定された時間以上にわたり顔認識が感知されない場合には、前記相手ユーザの音声データに対する音声認識を実行し、前記相手ユーザの音声データが予め設定された時間以上にわたり音声認識が感知されない場合には、前記相手ユーザのテキストデータに対するテキスト入力認識を実行し、前記相手ユーザのテキストデータが予め設定された時間以上にわたりテキスト入力認識が感知されない場合には、前記相手ユーザの反応情報を不在として判断する段階を含んでよい。
【0015】
前記認識する段階は、前記相手ユーザの顔情報を構成する構成要素を含む領域情報の割合情報に基づき、相手ユーザの顔情報に対する反応情報を認識したと判断する段階を含んでよい。
【0016】
前記認識する段階は、前記ビデオ通話中に発生する音声データから相手ユーザの音声データを区分することで、相手ユーザの音声データに対する反応情報が入力されたと認識する段階を含んでよい。
【0017】
前記認識する段階は、メッセージを入力するユーザインタフェースを前記ビデオ通話画面に提供し、前記ユーザインタフェースを利用して入力されるメッセージに基づき、相手ユーザのテキストデータが入力されたと認識する段階を含んでよい。
【0018】
前記課金データを生成する段階は、前記ビデオ通話画面に表示された端末のユーザの反応情報は認識されるが、前記ビデオ通話画面に表示された相手端末の反応情報は認識されない場合、前記相手端末の反応情報が認識されないと判断し、課金データの生成を中断する段階を含んでよい。
【0019】
前記表示する段階は、前記ビデオ通話の接続要請にしたがって探索された相手端末とのビデオ通話の接続により、前記ビデオ通話が接続された相手端末と関連する映像データを一定の時間にわたり前記ビデオ通話画面に表示する段階を含んでよい。
【0020】
前記表示する段階は、前記ビデオ通話が接続された相手端末の相手ユーザが確認されることにより、前記ビデオ通話中にアイテムを利用して前記相手端末とのビデオ通話の時間を制御する段階を含んでよい。
【0021】
前記生成する段階は、前記ビデオ通話中に使用されたアイテムに設定されたビデオ通話の時間情報に基づき、前記相手端末の反応情報の認識を実行した結果情報によって相手端末とのビデオ通話の接続時間をカウントする段階を含んでよい。
【0022】
前記表示する段階は、前記相手端末とのビデオ通話の接続によってビデオ通話モードを動作させ、前記動作するビデオ通話モードに基づき、前記相手端末と関連する映像データをビデオ通話画面に表示する段階を含んでよい。
【0023】
前記生成する段階は、前記相手端末とのビデオ通話の接続によって動作するビデオ通話モードがボイスモードに切り替わる場合、前記ビデオ通話画面を終了させ、前記ボイスモードに切り替わった時間情報に基づいて前記課金データの生成を中断する段階を含んでよい。
【0024】
課金方法を前記コンピュータシステムに実行させるためにコンピュータ読み取り可能な記録媒体に記録される、コンピュータプログラムを含んでよい。
【0025】
コンピュータによって実現される課金システムは、ビデオ通話が接続された相手端末と関連する映像データをビデオ通話画面に表示するビデオ通話表示部、前記ビデオ通話画面に表示された相手端末と関連する映像データから、前記相手端末に入力される反応情報を認識する反応認識部、予め設定された課金政策に基づき、前記認識された相手端末の反応情報に対する課金データを生成する課金生成部を備えてよい。
【0026】
前記課金生成部は、相手端末の反応情報に応じて課金データを生成するための課金政策を設定し、前記相手端末から入力される反応情報が不在であるか予め設定された時間未満と認識される場合、前記設定された課金政策に基づく課金データの生成を中断してよい。
【0027】
前記反応認識部は、前記ビデオ通話画面に表示される相手端末と関連する映像データから、前記映像データで認識される相手ユーザの顔情報、相手ユーザの音声データ、または相手ユーザのテキストデータのうちのいずれか1つに基づいて相手端末の反応情報に対する認識を判断してよい。
【0028】
前記ビデオ通話表示部は、前記ビデオ通話が接続された相手端末の相手ユーザが確認されることにより、前記ビデオ通話中にアイテムを利用して前記相手端末とのビデオ通話時間を制御することを含み、前記課金生成部は、前記ビデオ通話中に使用されたアイテムに設定されたビデオ通話時間情報に基づき、前記相手端末の反応情報の認識を実行した結果情報によって相手端末とのビデオ通話の接続時間をカウントしてよい。<発明の詳細>
【0029】
以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。
【0030】
図1は、一実施形態における、ネットワーク環境の例を示した図である。
図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような
図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が
図1のように限定されることはない。
【0031】
複数の電子機器110、120、130、140は、コンピュータシステムによって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレット、ゲームコンソール、ウェアラブルデバイス、IoT(internet of things)デバイス、VR(virtual reality)デバイス、AR(augmented reality)デバイスなどがある。一例として、
図1では、電子機器110の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器110は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータシステムのうちの1つを意味してよい。
【0032】
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網、衛星網など)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
【0033】
サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140においてインストールされて実行されるコンピュータプログラムであるアプリケーションを通じ、該当のアプリケーションが目的とするサービス(一例として、メッセージングサービスなど)を第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび実行のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。
【0034】
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。
図2では、電子機器に対する例として電子機器110の内部構成、およびサーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器110またはサーバ150と同一または類似の内部構成を有してよい。
【0035】
電子機器110およびサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、非一時的なコンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、ディスクドライブ、SSD(solid state drive)、フラッシュメモリ(flash memory)などのような永続的大容量記録装置を含んでよい。ここで、ROM、SSD、フラッシュメモリ、ディスクドライブのような永続的大容量記録装置は、メモリ211、221とは区分される別の永続的記録装置として電子機器110やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電子機器110においてインストールされて実行されるブラウザや、特定のサービスの提供のために電子機器110にインストールされるアプリケーションなどのためのコード)が記録されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータ読み取り可能な記録媒体からロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピードライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
【0036】
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
【0037】
通信モジュール213、223は、ネットワーク170を介して電子機器110とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器110および/またはサーバ150が他の電子機器(一例として、電子機器120)または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器110のプロセッサ212がメモリ211のような記録装置に記録されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器110の通信モジュール213を通じて電子機器110に受信されてよい。例えば、通信モジュール213を通じて受信されたサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器110がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。
【0038】
入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボード、マウス、マイクロフォン、カメラなどの装置を、出力装置は、ディスプレイ、スピーカ、触覚フィードバックデバイスなどのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器110と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150に接続するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器110のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器120が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。
【0039】
また、他の実施形態において、電子機器110およびサーバ150は、
図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器110は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器110がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器110にさらに含まれるように実現されてよい。
【0040】
実施形態において、電子機器110には、コンピュータによって実現された課金システムが構成されてよい。一例として、課金システムは、独立的に動作するプログラム形態で実現されても、特定のアプリケーションのイン-アプリ(in-app)形態で構成され、前記特定のアプリケーション上で動作可能なように実現されてもよく、場合によっては、サーバ150との連動によって課金データが生成されてもよい。
【0041】
図3は、一実施形態における、電子機器のプロセッサが含むことのできる構成要素を説明するためのブロック図であり、
図4は、一実施形態における、電子機器が実行することのできる課金方法を説明するためのフローチャートである。
【0042】
電子機器のプロセッサ212は、ビデオ通話表示部310、反応認識部320および課金生成部330を備えてよい。このようなプロセッサ212の構成要素は、電子機器に記録されたプログラムコードが提供する制御命令にしたがってプロセッサ212によって実行される互いに異なる機能の表現であってよい。プロセッサ212およびプロセッサ212の構成要素は、
図4の課金方法に含まれる段階410~430を実行するように電子機器を制御してよい。このとき、プロセッサ212およびプロセッサ212の構成要素は、メモリが含むオペレーティングシステムのコードと、少なくとも1つのプログラムのコードとによる命令を実行するように実現されてよい。
【0043】
プロセッサ212は、課金方法のためのプログラムのファイルに記録されたプログラムコードをメモリにロードしてよい。例えば、電子機器でプログラムが実行されれば、プロセッサは、オペレーティングシステムの制御にしたがい、プログラムのファイルからプログラムコードをメモリにロードするように電子機器を制御してよい。このとき、プロセッサ212およびプロセッサ212が含むビデオ通話表示部310、反応認識部320、および課金生成部330それぞれは、メモリにロードされたプログラムコードのうちの対応する部分の命令を実行して以後の段階410~430を実行するためのプロセッサ212の互いに異なる機能の表現であってよい。
【0044】
段階410で、ビデオ通話表示部310は、ビデオ通話が接続された相手端末と関連する映像データをビデオ通話画面に表示してよい。ビデオ通話表示部310は、ビデオ通話の接続要請にしたがって探索された相手端末とビデオ通話が接続されることにより、ビデオ通話が接続された相手端末と関連する映像データを一定の時間にわたりビデオ通話画面に表示してよい。このとき、ビデオ通話の接続時間が設定されていてよい。例えば、ビデオ通話表示部310は、ビデオ通話の接続要請にしたがって探索された相手端末とビデオ通話を接続するかを問うメッセージを表示してよい。ユーザによって相手端末とのビデオ通話の接続に対する応答が入力されることにより、相手端末とのビデオ通話が接続あるいは非接続されてよい。相手端末とのビデオ通話を接続しないという応答にしたがい、さらに他の相手端末が探索されてビデオ通話が接続されてよい。同じように、相手端末によっても相手ユーザから端末とのビデオ通話の接続に対する応答が入力されることにより、端末とのビデオ通話が接続あるいは非接続されてよい。言い換えれば、端末および相手端末からビデオ通話を接続すると応答されることにより、端末間には一定の時間にわたりビデオ通話が接続されてよい。または、ビデオ通話表示部310は、相手端末とビデオ通話が接続されることによってビデオ通話モードを動作させ、動作するビデオ通話モードに基づき、相手端末と関連する映像データをビデオ通話画面に表示してよい。例えば、それぞれの端末には、インカメラを実行させる前方カメラモードおよびアウトカメラを実行させるアウトカメラモードが提供されてよい。それぞれの端末でビデオ通話が接続されることによってビデオ通話モードに切り替わるようになり、インカメラモードが実行されてよい。ビデオ通話表示部310は、ビデオ通話が接続された相手端末の相手ユーザが確認されることにより、ビデオ通話中にアイテムを利用して相手端末とのビデオ通話時間を制御してよい。
【0045】
段階420で、反応認識部320は、ビデオ通話画面に表示された相手端末と関連する映像データから、相手端末によって入力される反応情報を認識してよい。反応認識部320は、ビデオ通話画面に表示される相手端末と関連する映像データから、映像データで認識される相手ユーザの顔情報、相手ユーザの音声データ、または相手ユーザのテキストデータのうちのいずれか1つを含む相手端末の反応情報が存在するか判断してよい。例えば、反応認識部320は、相手ユーザの顔情報が予め設定された時間以上にわたり顔認識が感知されない場合には、相手ユーザの音声データに対する音声認識を実行し、相手ユーザの音声データが予め設定された時間以上にわたり音声認識が感知されない場合には、相手ユーザのテキストデータに対するテキスト入力認識を実行し、相手ユーザのテキストデータが予め設定された時間以上にわたりテキスト入力の認識が感知されない場合には、相手ユーザの反応情報を不在として判断してよい。
【0046】
一例として、反応認識部320は、ビデオ通話画面に表示された端末のユーザの反応情報は認識されるが、ビデオ通話画面に表示された相手端末の反応情報は認識されない場合、相手端末の反応情報が認識されないと判断してよい。または、反応認識部320は、ビデオ通話画面に表示された端末のユーザの反応情報は認識されないが、ビデオ通話画面に表示された相手端末の反応情報は認識される場合、相手端末の反応情報が認識されたと判断してよい。この他にも、相手端末の反応情報の認識を判断する方法は多様に存在してよい。
【0047】
また、反応認識部320は、相手端末の相手ユーザの顔が、人形や他のユーザなどに差し替えられたものが認識される場合、相手ユーザの反応情報が認識されないと判断してよい。反応認識部320は、相手ユーザの音声データではなく他の音声データが判断される場合、相手ユーザの反応情報が認識されないと判断してよい。例えば、相手ユーザの顔情報を事前に記録しておき、記録された顔情報とビデオ通話画面に入力された顔情報とを比較することにより、相手ユーザの反応情報を認識してよい。同じように、相手ユーザの音声情報を事前に記録しておき、記録された音声情報とビデオ通話中に入力された音声データとを比較することにより、相手ユーザの反応情報を認識してよい。
【0048】
段階430で、課金生成部330は、予め設定された課金政策に基づき、認識された相手端末の反応情報に対する課金データを生成してよい。課金生成部330は、相手端末から入力される反応情報が不在であるか予め設定された時間未満と認識される場合、設定された課金政策に基づく課金データの生成を中断してよい。課金生成部330は、相手端末の反応情報に応じて課金データを生成するための課金政策を設定し、認識された相手端末の反応情報を設定された課金政策に基づいてカウントしてよい。このとき、課金政策とは、簡単なものとしては、相手端末の反応情報が認識されたかを判断するための政策を意味してよく、より詳細なものとしては、相手端末の反応情報が認識されてビデオ通話が実行された時間だけ課金データを生成するために設定された政策を意味してよい。課金生成部330は、相手端末の反応情報が認識された時間情報をカウントし、カウントされた時間情報を設定された課金政策に基づいて課金データを生成してよい。一例として、課金生成部330は、ビデオ通話中に使用されたアイテムに設定されたビデオ通話の時間情報に基づき、相手端末の反応情報の認識を実行した結果情報によって相手端末とのビデオ通話接続時間をカウントしてよく、カウントされたビデオ通話接続時間に基づいて課金データを生成してよい。他の例として、課金生成部330は、ビデオ通話画面に表示された端末のユーザの反応情報は認識されるが、ビデオ通話画面に表示された相手端末の反応情報は認識されない場合、相手端末の反応情報が認識されないと判断して課金データの生成を中断してよい。または、課金生成部330は、ビデオ通話画面に表示された端末のユーザの反応情報は認識されないが、ビデオ通話画面に表示された相手端末の反応情報は認識される場合、相手端末の反応情報が認識されたと判断して課金データを生成してよい。
【0049】
図5は、一実施形態における、電子機器間でビデオ通話が実行されることを説明するための例示図である。
【0050】
電子機器110a、110b間でビデオ通話が実行されることについて説明する。このとき、電子機器110a、110bは、第1電子機器(例えば、発信端末)110aと第2電子機器(例えば、受信端末)110bとに区分して説明する。電子機器110a、110bにはビデオ通話サービスを提供する機能が含まれていてよく、別途のアプリケーションをインストールすることによってビデオ通話サービスが利用可能となる。実施形態では、別途のアプリケーションをインストールしてビデオ通話サービスを利用する例について説明する。ここで、電子機器110a、110bにインストールされるアプリケーションは、ビデオ通話サービスはもちろん、他の多様なサービスをともに提供してよい。一例として、ユーザとユーザが知らない相手ユーザとをマッチングし、ユーザと相手ユーザとの間にビデオ通話を接続することによってオンライン上の出会いを提供する交流親睦サービスを仮定して説明する。このような交流親睦サービスは、相手ユーザとの出会いを繋げるために、ビデオ通話機能、メッセージング機能、カメラ機能などのような多様な機能を提供してよい。
【0051】
例えば、それぞれのユーザが電子機器110a、110bを利用して交流親睦サービスに登録するとき、別のSNSサービスや検索サービスなどを選択してユーザ情報を連動させることによって交流親睦サービスに登録してもよいし、会員登録によってユーザ識別情報を入力することでサービスに登録してもよい。このとき、別のサービスに記録されている性別情報が連動されてもよく、交流親睦サービスで性別を選択することで性別情報が登録されてもよい。また、それぞれのユーザが、出会いたい相手ユーザの性別、地域情報(国際または国内)、関心事項などを含む条件情報を選択できるようにしてもよい。
【0052】
電子機器110a、110bが交流親睦サービスを実行し、第1電子機器110aがビデオ通話を要請したとする。第1電子機器110aがビデオ通話の接続を要請することにより、サーバは、第1電子機器110aで選択された条件情報に基づき、交流親睦サービスに登録されたユーザアカウントから相手ユーザを探索してよい。第1電子機器110aにサーバが探索した相手ユーザである第2電子機器110bとのビデオ通話が接続され、第1電子機器110aと第2電子機器110bとがビデオ通話を実行したとする。このとき、第1電子機器110aと第2電子機器110bとのビデオ通話の接続時間は設定されていてよい。第1電子機器110aと第2電子機器110bに設定された時間に基づいてビデオ通話が接続された後、前記時間が経過すれば、それぞれの電子機器には他の相手とのビデオ通話が接続されてよい。
【0053】
第1電子機器110aのビデオ通話画面510に第2電子機器110bの相手ユーザが表示されてよく、第2電子機器110bのビデオ通話画面520に第1電子機器110aのユーザが表示されてよい。このように、第1電子機器110aと第2電子機器110bとが互いに顔を見合わせながら、音声データ、テキストデータのうちのいずれか1つ以上を利用して会話することができる。また、第1電子機器110aのビデオ通話画面510には、第2電子機器110aの相手ユーザの顔だけでなく第1電子機器110aのユーザの顔がともに表示されてよく、第2電子機器110bのビデオ通話画面にも、第1電子機器110aのユーザの顔だけでなく第2電子機器110bのユーザの顔がともに表示されてよい。例えば、それぞれのビデオ通話画面510、520には、相手の顔を表示する領域と自分の顔を表示する領域とが含まれてよい。このとき、相手の顔を表示する領域はメイン領域とし、自分の顔を表示する領域はサブ領域として設定されてよく、メイン領域がサブ領域よりも大きく表示されるように設定されてよい。
【0054】
図6は、一実施形態における、電子機器でアイテムを使用することを説明するための例示図である。
【0055】
第1電子機器110aのユーザは、第2電子機器110bに対する相手ユーザを確認することにより、相手の電子機器との接続時間以上に長い時間にわたりビデオ通話を希望する場合がある。第1電子機器110aは、第2電子機器110bの相手ユーザとのビデオ通話中にアイテム610を使用することで、第2電子機器110bとのビデオ通話時間を制御してよい。例えば、第1電子機器110aは、アイテム610を事前に購入しておくか、ビデオ通話画面に表示されるアイテム情報からアイテム610を購入してよい。ビデオ通話時間を制御するアイテム610とは、交流親睦サービスで設定されたユーザ間のビデオ通話の実行時間に加え、相手ユーザとのビデオ通話を追加で実行することのできるアイテムを意味してよい。このとき、アイテム610は、ビデオ通話を可能にする時間に応じて金額が異なってよい。第1電子機器110aのユーザがアイテム610を使用する場合、第2電子機器110bの相手ユーザはビデオ通話を中断することができなくなり、ユーザのアイテム610に設定されたビデオ通話時間中はビデオ通話を追加で実行しなければならない。言い換えれば、第2電子機器110bのビデオ通話画面はロック状態に切り替わり、第1電子機器110aが使用したアイテムに設定された時間中は、第1電子機器110aが第2電子機器110bとのビデオ通話時間を制御することができる。
【0056】
第1電子機器110aは、ビデオ通話中に使用されたアイテムに設定されたビデオ通話の時間情報に基づき、第2電子機器110bの反応情報の認識を実行してよい。第1電子機器110aは、ビデオ通話画面に表示される第2電子機器110bと関連する映像データから、映像データで認識される相手ユーザの顔情報、相手ユーザの音声データ、または相手ユーザのテキストデータのうちのいずれか1つに基づいて第2電子機器110bの反応情報に対する認識を判断してよい。第1電子機器110aは、第2電子機器110bの反応情報の認識を実行することによって取得した結果情報に基づき、第2電子機器110bとのビデオ通話の接続時間をカウントしてよい。例えば、第1電子機器110aで第2電子機器110bとのビデオ通話中に5秒のアイテムが使用されることにより、ビデオ通話として与えられた時間に加え、5秒間のビデオ通話が追加で実行されてよい。このとき、第2電子機器110bの相手ユーザは、第1電子機器110aのユーザとのビデオ通話を中断することができないため、ビデオ通話画面に反応しない場合も発生し得る。このような場合、第1電子機器110aは、せっかく購入したアイテムの効果を感じることができないまま、アイテムに設定された時間が終了してしまうことがある。第1電子機器110aは、第1電子機器110aでアイテムが使用された時間中に第2電子機器110bの相手ユーザからの反応情報が認識されない場合、第2電子機器110bの相手ユーザの反応情報が認識されなかった時間をカウントしてよい。第1電子機器110aは、カウントされた時間情報に対する課金データの生成を中断してよい。例えば、第1電子機器110aは、第2電子機器110bの相手ユーザからの反応情報が認識されない時間情報だけ、アイテムに設定された時間を復帰させるか、追加時間を付与してよい。または、第1電子機器110aは、ビデオ通話時間に応じて生成される課金データに対し、第2電子機器110bの相手ユーザからの反応情報が認識されなかった時間情報に対する課金データの生成を中断し、第1電子機器110aに課金される料金を減免してよい。
【0057】
図7は、一実施形態における、電子機器で相手端末の反応情報を認識することを説明するための例示図である。
【0058】
第1電子機器110aと第2電子機器110bは、ビデオ通話中にそれぞれのビデオ通話画面510に表示された互いの顔を見ながら会話を実行する。第1電子機器110aは、ビデオ通話画面510に表示された第2電子機器110bと関連する映像データから、第2電子機器110bによって入力される反応情報を認識してよい。このとき、反応情報とは、ビデオ通話中にユーザ間の相互作用が実行されることを認識するための情報を意味してよい。電子機器110aは、ビデオ通話画面510に表示される相手端末と関連する映像データから、映像データで認識される相手ユーザの顔情報、相手ユーザの音声データ、または相手ユーザのテキストデータうちのいずれか1つを含む相手端末の反応情報を判断してよい。
【0059】
図7aを参照すると、第1電子機器110aは、第1電子機器110bのビデオ通話画面510に表示された第2電子機器110bの相手ユーザ710を確認することにより、相手ユーザが存在するか判断してよい。例えば、第1電子機器110aは、第1電子機器110bのビデオ通話画面から第2電子機器110bの相手ユーザ710の顔を認識してよい。このとき、第1電子機器110aは、第2電子機器110bの相手ユーザ710の顔情報を構成する構成要素(例えば、目、鼻、口など)を含む領域情報の割合情報により、相手ユーザ710の顔情報に対する反応情報の認識を判断してよい。例えば、第1電子機器110aは、ビデオ通話画面510において相手ユーザ710の顔情報を構成する構成要素を含む領域情報の割合が顔の50%を占めると判断されることにより、相手ユーザ710の顔情報が存在すると認識してよい。これにより、相手ユーザの反応情報が入力されたと認識してよい。または、第1電子機器110aは、ビデオ通話画面510に相手ユーザ710の顔情報を構成する構成要素のうちの少なくとも1つ以上の構成要素(例えば、目、鼻、口など)が存在すると判断されることにより、相手ユーザ710の顔情報が存在すると認識してよい。第1電子機器110aは、第2電子機器110bの相手ユーザ710とのビデオ通話を認識してよい。
【0060】
図7bを参照すると、第1電子機器110aは、ビデオ通話中に第2電子機器110bの相手ユーザの音声データを受信することにより、相手ユーザの反応情報の認識を判断してよい。例えば、第1電子機器110aのビデオ通話画面510に第2電子機器の相手ユーザは表示されずに音声データだけが受信された場合であっても、相手ユーザとのビデオ通話として認識してよい。または、第1電子機器110aのビデオ通話画面510に第2電子機器の相手ユーザが表示されると同時に、相手ユーザの顔を見ながら音声データが受信された場合、相手ユーザとのビデオ通話として認識してよい。
【0061】
図7cを参照すると、第1電子機器110aは、ビデオ通話中に第2電子機器110bの相手ユーザとテキストデータを送受信することにより、相手ユーザの反応情報の認識を判断してよい。第1電子機器110aと第2電子機器110bとのビデオ通話中に利用可能なメッセンジャーサービスが提供されてよく、これにより、メッセージを入力するユーザインタフェースが提供されてよい。第1電子機器110aと第2電子機器110bは、提供されたユーザインタフェースを利用してメッセージを送受信することによって会話を実行してよい。第1電子機器110aは、第2電子機器110bから入力されたテキストデータを受信することにより、相手ユーザとのビデオ通話として認識してよい。
【0062】
また、第1電子機器110aは、相手ユーザの顔情報、相手ユーザの音声データ、相手ユーザのテキストデータのうちの少なくとも1つに基づいて第2電子機器110bの反応情報を判断してよい。このとき、それぞれの相手ユーザの反応情報を判断するための順序が設定されてよく、設定された順序にしたがって第2電子機器110bの反応情報を認識してよい。
【0063】
図8は、一実施形態における、相手端末の反応情報に基づいて電子機器で課金データを生成することを説明するためのフローチャートである。
【0064】
図8を説明するために、電子機器を端末と相手端末とに区分して説明する。
【0065】
段階810で、端末には、新しい人(相手端末)とのビデオ通話が接続されてよい。例えば、端末は、サーバからランダムに選択された新しい人とビデオ通話を始めてよい。このとき、新しい人とのビデオ通話には接続時間が設定されていてよく、前記設定された時間が経過した場合、また他の新しい人とのビデオ通話が接続されてよい。
【0066】
段階820で、端末は、ビデオ通話画面に表示された相手端末と関連する映像データから、n秒(nは自然数)間にわたり相手ユーザの顔が認識されるか判断してよい。端末は、相手ユーザの顔が認識される場合には、予め設定された時間が経過した後に新しい人との通話を始めてよい。この反面、端末は、相手ユーザの顔が認識されない場合には、相手ユーザの音声データを認識してよい。
【0067】
段階830で、端末は、ビデオ通話画面に表示された相手端末と関連する映像データから相手ユーザの顔が認識されることにより、m秒(mは自然数)にわたり音声データが認識されるか判断してよい。端末は、相手ユーザの音声データが認識されない場合には、相手ユーザから入力されるテキストデータを認識してよい。この反面、端末は、相手ユーザの音声データが認識される場合には、予め設定された時間が経過した後に新しい人とのビデオ通話を始めてよい。
【0068】
段階840で、端末は、ビデオ通話画面に表示された相手端末と関連する映像データから相手ユーザの音声データが認識されることにより、p秒(pは自然数)間にわたりテキストデータの入力が認識されるか判断してよい。端末は、メッセージのためのユーザインタフェースをビデオ通話画面に提供してよく、提供されたユーザインタフェースを利用してメッセージが入力されることを認識してよい。端末は、相手端末からのメッセージがビデオ通話画面に入力されることが認識されることにより、予め設定された時間が経過した後に新しい人とビデオ通話を始めてよい。この反面、端末は、ビデオ通話画面に相手端末からメッセージが入力されることが認識されない場合、相手ユーザからの反応がないと見なし、課金データの生成を中止してよい。このとき、課金データとは、ビデオ通話時間の使用量を意味してよく、上述した段階810~840で相手ユーザからの反応がないと判断されることにより、課金データの生成を中断してよい。このように、生成または中断された課金データは、サーバにより、ビデオ通話時間に対して単位時間ごとに設定されている料金情報に基づいてビデオ通話時間に対する使用量が計算されてよい。
【0069】
実施形態では、相手ユーザの反応情報を認識するための順序情報が設定されていてよい。例えば、端末は、相手ユーザの顔情報、音声データ、およびテキストデータの順に相手ユーザの反応情報を認識するように順序を設定してよいが、このような順序情報は変更可能である。追加で、それぞれの相手ユーザの反応情報を認識するために設定された時間(例えば、n秒、m秒、p秒)も変更可能である。例えば、相手ユーザの顔情報を認識するために設定された時間は、ユーザの音声データおよびテキストデータを認識するために設定された時間よりも短いか長くてよい。
【0070】
他の例として、端末は、相手端末とビデオ通話が接続されることにより、ビデオ通話モードを動作させてよい。端末で動作するビデオ通話モードに基づき、相手端末と関連する映像データをビデオ通話画面に表示してよい。端末は、ビデオ通話モードがボイスモードに切り替われば、ビデオ通話画面を終了させ、ボイスモードに切り替わった時間情報に基づいて課金データの生成を中断してよい。このとき、ビデオ通話モードとは、電子機器のカメラが動作することにより、相手端末と関連する映像(例えば、顔)を見ながら通話を実行するモードを意味してよい。より詳しく説明すると、ビデオ通話モードの動作により、電子機器のインカメラを実行させる前方カメラモードまたはアウトカメラを実行させるアウトカメラモードに切り替わってよい。また、ボイスモードとは、一般的な通話を実行するモードを意味してよい。言い換えれば、端末は、端末または相手端末のうちのいずれか1つの電子機器がボイスモードに切り替わった場合、ユーザの顔は認識されなくなるため、ビデオ通話は終了/中断されたと判断し、課金データの生成を中断してよい。
【0071】
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
【0072】
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
【0073】
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。前記コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであっても、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピディスク、磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスクのような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。
【0074】
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
【0075】
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
【0076】
本発明は、更に、ビデオ通話中に認識された相手端末の反応情報に基づいて課金データの生成を中断する方法およびシステムを提供する。
【0077】
本発明は、更に、ビデオ通話が接続された相手の反応情報を認識して課金データを生成または中断することにより、ユーザの満足度を高めることができる。
【符号の説明】
【0078】
212:プロセッサ
310:ビデオ通話表示部
320:反応認識部
330:課金生成部