IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ LINE株式会社の特許一覧

特許7273473個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御
<>
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図1
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図2
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図3
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図4
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図5
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図6
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図7
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図8
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図9
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図10
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図11
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図12
  • 特許-個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-05-02
(45)【発行日】2023-05-15
(54)【発明の名称】個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御
(51)【国際特許分類】
   H04M 11/00 20060101AFI20230508BHJP
   H04M 1/00 20060101ALI20230508BHJP
【FI】
H04M11/00 302
H04M1/00 R
【請求項の数】 22
(21)【出願番号】P 2018159793
(22)【出願日】2018-08-28
(65)【公開番号】P2019047493
(43)【公開日】2019-03-22
【審査請求日】2021-08-02
(31)【優先権主張番号】10-2017-0111155
(32)【優先日】2017-08-31
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】321003371
【氏名又は名称】LINE株式会社
(74)【代理人】
【識別番号】110002952
【氏名又は名称】弁理士法人鷲田国際特許事務所
(72)【発明者】
【氏名】チョ・イン・ウォン
(72)【発明者】
【氏名】パク・ジョンジュン
(72)【発明者】
【氏名】チョ・ジョージン
(72)【発明者】
【氏名】リ・ドンウォン
【審査官】吉村 伊佐雄
(56)【参考文献】
【文献】特表2016-512673(JP,A)
【文献】米国特許出願公開第2014/0029734(US,A1)
【文献】特開2004-056290(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04L12/00-12/22
12/50-12/66
45/00-49/9057
H04M1/00
1/24-3/00
3/16-3/20
3/38-3/58
7/00-7/16
11/00-11/10
99/00
(57)【特許請求の範囲】
【請求項1】
コンタクト(contact)制御方法であって、
ネットワークを介して発信者からのコンタクトの要請を受信する段階、
前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定する段階、
前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階、
前記会話の要約情報を生成する段階、および
前記着信者の直接制御が可能となった場合、前記生成された要約情報を前記着信者に提供する段階
を含み、
前記要約情報は、前記コンタクトの種類、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含むことを特徴とする、コンタクト制御方法。
【請求項2】
前記コンタクトは、音声通話または映像通話を含み、
前記コンタクトを処理する段階は、
前記コンタクトの要請を受諾することで設定された音声通話セッションまたは映像通話セッションを通じて前記コンタクトの発信者の音声を受信する段階、
前記人工知能が含む音声処理モジュールによって前記受信した音声を認識する段階、
前記人工知能が含む会話処理モジュールによって前記認識された音声を分析して返答会話を生成する段階、
前記音声処理モジュールによって前記生成された返答会話に対応する出力音声を生成する段階、および
前記生成された出力音声を、前記設定された音声通話セッションまたは映像通話セッションを通じて前記コンタクトの発信者に送信する段階
を含むことを特徴とする、請求項1に記載のコンタクト制御方法。
【請求項3】
前記コンタクトは、メッセージ送受信を含み、
前記コンタクトを処理する段階は、
前記人工知能が含む会話処理モジュールによって前記コンタクトの要請として前記コンタクトの発信者から受信したメッセージを分析して返答会話を生成する段階、および
前記生成された返答会話を含むメッセージを前記コンタクトの発信者に送信する段階
を含むことを特徴とする、請求項1に記載のコンタクト制御方法。
【請求項4】
前記コンタクトを処理する段階は、
前記コンタクトの発信者から受信した音声やメッセージを、ネットワークを介して人工知能サーバに送信する段階、
前記人工知能サーバから前記音声やメッセージに対応する返答音声または返答メッセージを受信する段階、および
前記受信した返答音声または返答メッセージを前記コンタクトの発信者に送信する段階
を含むことを特徴とする、請求項1に記載のコンタクト制御方法。
【請求項5】
コンタクト(contact)制御方法であって、
ネットワークを介して発信者からのコンタクトの要請を受信する段階、
前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定する段階、
前記着信者の直接制御が不可能な場合、前記コンタクトのためのサービスを提供するサーバに人工知能を利用した会話の処理を要請する段階、および前記サーバから前記会話の要約情報を受信する段階
を含む、前記コンタクトを処理する段階、および
前記着信者の直接制御が可能となった場合、前記要約情報を前記着信者に提供する段階
を含み、
前記サーバは、前記着信者と前記コンタクトの発信者との間の前記コンタクトのためのサービスを提供し、前記着信者の要請にしたがい、前記人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理し、前記会話の要約情報を生成して送信するように実現され
前記要約情報は、前記コンタクトの種類、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含むこと
を特徴とする、コンタクト制御方法。
【請求項6】
前記着信者の直接制御が可能であるかを決定する段階は、
前記着信者に対して登録された前記着信者のスケジュール情報、前記着信者に対して予め分析されたライフスタイル情報、および前記着信者の入力のうちの少なくとも1つと前記コンタクトの要請が受信された時刻を利用することで、前記着信者の直接制御が可能であるかを決定することを特徴とする、請求項1に記載のコンタクト制御方法。
【請求項7】
前記会話の内容に含まれた日付、時間、および場所のうちの少なくとも1つに関する情報を抽出する段階、および
前記抽出された少なくとも1つの情報と前記コンタクトの発信者に関する情報を関連させてスケジュールまたはアラームを登録する段階
をさらに含むことを特徴とする、請求項1に記載のコンタクト制御方法。
【請求項8】
コンタクト(contact)制御方法であって、
ネットワークを介して発信者からの、映像通話を含むコンタクトの要請を受信する段階、
前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定する段階、
前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階、
前記着信者の直接制御が可能な場合、前記着信者と前記発信者との間の関係、前記着信者の性向、および前記着信者の設定のうちの少なくとも1つに基づいて自撮り映像を表示するかを決定する段階、および
前記自撮り映像を表示する場合、自撮りカメラを駆動させ、前記自撮りカメラにキャプチャされているリアルタイム映像ストリームを前記映像通話のプレビュー画面に表示する段階
を含むことを特徴とするコンタクト制御方法。
【請求項9】
前記着信者の直接制御が可能な場合、前記コンタクトの要請を受諾または拒否するためのユーザインタフェースを提供する段階
をさらに含み、
前記ユーザインタフェースは、前記コンタクトの要請を受諾するためのユーザインタフェースおよび前記コンタクトの要請を拒否するためのユーザインタフェースを含み、人工知能を利用した前記発信者との会話を実行するためのユーザインタフェース、前記発信者に音声メモを残すことを要請するためのユーザインタフェース、および拒否メッセージを前記発信者に送信するためのユーザインタフェースのうちの少なくとも2つ以上をさらに含むことを特徴とする、請求項1に記載のコンタクト制御方法。
【請求項10】
発信者と着信者との間のコンタクトのためのサービスを提供するサーバのコンタクト(contact)制御方法であって、
ネットワークを介して前記発信者から前記着信者に対するコンタクトの要請を受信する段階、
前記コンタクトの要請に対する前記着信者の直接制御が可能であるかを決定する段階、
前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階、および
前記会話の要約情報を生成して前記着信者に提供する段階
を含み、
前記着信者に提供された要約情報は、前記着信者の電子機器で前記着信者の直接制御が可能となった場合に、前記着信者にレポートされ
前記要約情報は、前記コンタクトの種類、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含むこと
を特徴とする、コンタクト制御方法。
【請求項11】
前記着信者の直接制御が可能であるかを決定する段階は、
前記着信者に対して登録された前記着信者のスケジュール情報および前記着信者に対して予め分析されたライフスタイル情報のうちの少なくとも1つと前記コンタクトの要請が受信された時刻を利用することで、前記着信者の直接制御が可能であるかを決定することを特徴とする、請求項10に記載のコンタクト制御方法。
【請求項12】
前記着信者の直接制御が可能であるかを決定する段階は、
前記着信者にコンタクトの要請を伝達する段階、および
前記着信者から前記人工知能を利用した前記コンタクトの処理要請を受信する段階
を含み、
前記コンタクトの処理要請は、前記着信者の電子機器から、前記着信者に対して登録された前記着信者のスケジュール情報、前記着信者に対して予め分析されたライフスタイル情報、および前記着信者の入力のうちの少なくとも1つと前記コンタクトの要請が受信された時刻を利用することで前記着信者の直接制御が不可能であると決定される場合に送信されること
を特徴とする、請求項10に記載のコンタクト制御方法。
【請求項13】
前記コンタクトは、音声通話または映像通話を含み、
前記コンタクトを処理する段階は、
前記コンタクトの要請を受諾して設定された音声通話セッションまたは映像通話セッションを通じて前記コンタクトの発信者の音声を受信する段階、
前記人工知能が含む音声処理モジュールによって前記受信した音声を認識する段階、
前記人工知能が含む会話処理モジュールによって前記認識された音声を分析して返答会話を生成する段階、
前記音声処理モジュールによって前記生成された返答会話に対応する出力音声を生成する段階、および
前記生成された出力音声を、前記設定された音声通話セッションまたは映像通話セッションを通じて前記コンタクトの発信者に送信する段階
を含むことを特徴とする、請求項10に記載のコンタクト制御方法。
【請求項14】
前記コンタクトは、メッセージ送受信を含み、
前記コンタクトを処理する段階は、
前記人工知能が含む会話処理モジュールによって前記コンタクトの要請として前記コンタクトの発信者から受信されたメッセージを分析して返答会話を生成する段階、および
前記生成された返答会話を含むメッセージを前記コンタクトの発信者に送信する段階
を含むことを特徴とする、請求項10に記載のコンタクト制御方法。
【請求項15】
前記コンタクトを処理する段階は、
前記コンタクトの発信者から受信した音声やメッセージを、ネットワークを介して人工知能サーバに送信する段階、
前記人工知能サーバから前記音声やメッセージに対応する返答音声または返答メッセージを受信する段階、および
前記受信した返答音声または返答メッセージを前記コンタクトの発信者に送信する段階
を含むことを特徴とする、請求項10に記載のコンタクト制御方法。
【請求項16】
前記会話の内容に含まれた日付、時間、および場所のうちの少なくとも1つに関する情報を抽出する段階、および
前記抽出された少なくとも1つの情報と前記コンタクトの発信者に関する情報を関連させて前記着信者のためのスケジュールまたはアラームを登録する段階
をさらに含むことを特徴とする、請求項10に記載のコンタクト制御方法。
【請求項17】
コンピュータと結合して請求項1~16のうちのいずれか一項に記載の方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納された、コンピュータプログラム。
【請求項18】
請求項1~16のうちのいずれか一項に記載の方法をコンピュータに実行させるためのプログラムが記録されていることを特徴とする、コンピュータで読み取り可能な記録媒体。
【請求項19】
プロセッサを備え、
前記プロセッサは、
ネットワークを介して発信者からのコンタクトの要請を受信する段階、
前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定する段階、
前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階、
前記会話の要約情報を生成する段階、および
前記着信者の直接制御が可能となった場合、前記生成された要約情報を前記着信者に提供する段階
を含むコンタクト制御方法を実行し、
前記要約情報は、前記コンタクトの種類、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含む、
コンピュータ。
【請求項20】
プロセッサを備え、
前記プロセッサは、
ネットワークを介して発信者からのコンタクトの要請を受信する段階、
前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定する段階、
前記着信者の直接制御が不可能な場合、前記コンタクトのためのサービスを提供するサーバに人工知能を利用した会話の処理を要請する段階、および前記サーバから前記会話の要約情報を受信する段階
を含む、前記コンタクトを処理する段階、および
前記着信者の直接制御が可能となった場合、前記要約情報を前記着信者に提供する段階
を含むコンタクト制御方法を実行し、
前記サーバは、前記着信者と前記コンタクトの発信者との間の前記コンタクトのためのサービスを提供し、前記着信者の要請にしたがい、前記人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理し、前記会話の要約情報を生成して送信するように実現され
前記要約情報は、前記コンタクトの種類、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含む、
コンピュータ。
【請求項21】
プロセッサを備え、
前記プロセッサは、
ネットワークを介して発信者からの、映像通話を含むコンタクトの要請を受信する段階、
前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定する段階、
前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階、
前記着信者の直接制御が可能な場合、前記着信者と前記発信者との間の関係、前記着信者の性向、および前記着信者の設定のうちの少なくとも1つに基づいて自撮り映像を表示するかを決定する段階、および
前記自撮り映像を表示する場合、自撮りカメラを駆動させ、前記自撮りカメラにキャプチャされているリアルタイム映像ストリームを前記映像通話のプレビュー画面に表示する段階
を含むコンタクト制御方法を実行する、コンピュータ。
【請求項22】
プロセッサを備え、
前記プロセッサは、
ネットワークを介して発信者から着信者に対するコンタクトの要請を受信する段階、
前記コンタクトの要請に対する前記着信者の直接制御が可能であるかを決定する段階、
前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階、および
前記会話の要約情報を生成して前記着信者に提供する段階
を含むコンタクト制御方法を実行し、
前記着信者に提供された要約情報は、前記着信者の電子機器で前記着信者の直接制御が可能となった場合に、前記着信者にレポートされ
前記要約情報は、前記コンタクトの種類、前記コンタクトの要請が受信された時刻、および前記会話の内容に関する要約情報を含む、
コンピュータ。
【発明の詳細な説明】
【技術分野】
【0001】
以下の説明は、個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御技術に関し、より詳細には、音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクト(contact)の要請を、人工知能(Artificial Intelligence:AI)がユーザのスケジュールやライフスタイルを反映して処理することができるコンタクト制御方法、前記コンタクト制御方法を実行するコンピュータ装置、コンピュータと結合してコンタクト制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体に関する。
【背景技術】
【0002】
有線または無線通信が可能な電子機器は、音声通話サービスや映像通話サービス、またはインスタントメッセージを送受信するためのサービスなどを利用することで、互いにコンタクトすることができる。このようなコンタクトの要請は、送信側(発信者)から受信側(着信者)に、受信側との合意なく一方的に伝達されることもあるが、このとき伝達されるコンタクトの要請を、受信側のユーザが受け入れることができない状況が存在する。
【0003】
例えば、送信側から受信側に映像通話を試みたものの、受信側のユーザが会議中であるため、このような映像通話の要請には応答できない状況にいるとする。この場合、従来技術では、受信側の電子機器は、映像通話のための要請が伝達されたことを受信側のユーザに知らせるための通知を出力し、受信側のユーザは提供された通知に反応し、映像通話を受諾または拒否するための入力を電子機器で発生させることができた。このとき、電子機器は、発生する入力にしたがって映像通話の実行や拒否を処理することができた。例えば、特許文献1は、移動通信端末機における発信者番号表示および通話拒否方法に関するものであって、コールの発生を感知した場合にキーパッドによる終了キーの入力が感知されれば、受信拒否メニュー項目の設定を検索した後、受信拒否理由メニューを画面表示ウィンドウに表示し、受信拒否理由に対応するキーの入力を感知して該当のキーに対応する文字メッセージや音声メッセージを読み取って発信者に送信した後、前記コールを解除して受信拒否完了を画面表示ウィンドウに表示する技術を開示している。
【先行技術文献】
【特許文献】
【0004】
【文献】韓国公開特許第10-2005-0039448号
【0005】
しかし、このような従来技術では、送信側のコンタクトの要請を受信側で処理するにあたり、受信側のユーザの直接的な制御あるいはコンタクト要請を処理することに関し、受信側のユーザによって予め設定された設定情報を必要とするという問題がある。例えば、受信拒否のための入力をユーザが直接発生させなければならなかったり、自動受信拒否のための時間帯や条件などに関する情報をユーザが直接設定したりしなければならなかった。言い換えれば、従来技術は、音声コールや映像コール、またはインスタントメッセージの伝達に関する処理を、受信側のユーザの状況に合わせてすべて直接制御しなければならないという問題があった。
【発明の概要】
【発明が解決しようとする課題】
【0006】
音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能(Artificial Intelligence:AI)がユーザのスケジュールやライフスタイルを反映して処理することができるコンタクト制御方法、前記コンタクト制御方法を実行するコンピュータ装置、コンピュータと結合してコンタクト制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体を提供する。
【課題を解決するための手段】
【0007】
コンタクト(contact)制御方法であって、ネットワークを介して発信者からコンタクトの要請を受信する段階、前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定する段階、および前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階を含むことを特徴とする。
【0008】
発信者と着信者間のコンタクトのためのサービスを提供するサーバのコンタクト(contact)制御方法であって、ネットワークを介して前記発信者から前記着信者に対するコンタクトの要請を受信する段階、前記コンタクトの要請に対して前記着信者の直接制御が可能であるかを決定する段階、前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理する段階、および前記会話の要約情報を生成して前記着信者に提供する段階を含むことを特徴とする。
【0009】
コンピュータプログラムであって、コンピュータと結合して前記コンタクト制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されることを特徴とする。
【0010】
コンピュータで読み取り可能な記録媒体であって、前記コンタクト制御方法をコンピュータに実行させるためのプログラムが記録されていることを特徴とする。
【0011】
コンピュータ装置であって、コンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、ネットワークを介して発信者からコンタクトの要請を受信し、前記コンタクトの要請に対して着信者の直接制御が可能であるかを決定し、前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理することを特徴とする。
【0012】
発信者と着信者間のコンタクトのためのサービスを提供するコンピュータ装置であって、コンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、ネットワークを介して前記発信者から前記着信者に対するコンタクトの要請を受信し、前記コンタクトの要請に対する前記着信者の直接制御が可能であるかを決定し、前記着信者の直接制御が不可能な場合、人工知能を利用して前記コンタクトの発信者と会話をして前記コンタクトを処理し、前記会話の要約情報を生成して前記着信者に提供することを特徴とする。
【発明の効果】
【0013】
音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能(Artificial Intelligence:AI)がユーザのスケジュールやライフスタイルを反映して処理することができる。
【図面の簡単な説明】
【0014】
図1】本発明の一実施形態における、ネットワーク環境の例を示した図である。
図2】本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。
図3】本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。
図4】本発明の一実施形態における、電子機器のコンタクト制御のための全体過程の例を示した図である。
図5】本発明の一実施形態における、サーバのコンタクト制御のための全体過程の例を示した図である。
図6】本発明の一実施形態における、要約文を提供する例を示した図である。
図7】本発明の一実施形態における、要約文を提供する例を示した図である。
図8】本発明の一実施形態における、後処理動作が実行された例を示した図である。
図9】本発明の一実施形態における、音声通話の受諾または拒否を選択するためのユーザインタフェースの例を示した図である。
図10】本発明の一実施形態における、自撮り映像が表示されたプレビュー画面の例を示した図である。
図11】本発明の一実施形態における、電子機器のコンタクト制御方法の例を示したフローチャートである。
図12】本発明の一実施形態における、人工知能を利用してコンタクトを処理する例を示したフローチャートである。
図13】は本発明の一実施形態における、サーバのコンタクト制御方法の例を示したフローチャートである。
【発明を実施するための形態】
【0015】
以下、実施形態について、添付の図面を参照しながら詳しく説明する。
【0016】
本発明の実施形態に係るコンタクト制御方法は、以下で説明される電子機器またはサーバのようなコンピュータ装置によって実行されてよい。このとき、コンピュータ装置には、本発明の一実施形態に係るコンピュータプログラムがインストールおよび駆動されてよく、コンピュータ装置は、駆動するコンピュータプログラムの制御にしたがって本発明の一実施形態に係るコンタクト制御方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合してコンタクト制御方法をコンピュータに実行させるために、コンピュータで読み取り可能な記録媒体に格納されてよい。例えば、電子機器にインストールおよび駆動されたアプリケーションの制御にしたがい、電子機器は、音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能(Artificial Intelligence:AI)を利用してユーザのスケジュールやライフスタイルを反映して自動で処理してよい。このような処理は、電子機器にインストールおよび駆動されたアプリケーションの制御にしたがって電子機器が自主的に実行してもよいが、実施形態によっては、人工知能の機能を提供するサーバで実行されてもよい。例えば、人工知能は、ユーザが伝達されるコンタクトの要請を処理することができない状況を自動で認識し、認識された状況に基づき、伝達されるコンタクトの要請をユーザの制御を必要とせずに自動で処理してよい。
【0017】
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。
【0018】
複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型パンコン、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子機器1(110)の例としてスマートフォンの形状を示しているが、本発明の実施形態において、電子機器1(110)は、実質的に無線または有線通信方式を利用してネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータ装置のうちの1つを意味してよい。
【0019】
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を活用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的(hierarchical)ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
【0020】
サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供するコンピュータ装置または複数のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第1サービスを提供するシステムであってよく、サーバ160も、ネットワーク170を介して接続した複数の電子機器110、120、130、140に第2サービスを提供するシステムであってよい。より具体的な例として、サーバ150は、複数の電子機器110、120、130、140にインストールされて駆動するコンピュータプログラムとしてのアプリケーションを通じて該当のアプリケーションが目的とするサービス(一例として、本実施形態に係るコンタクト制御方法を処理するためのサービス、音声通話サービス、映像通話サービス、検索サービス、情報提供サービス、メッセージングサービス、メールサービス、および/またはコンテンツ送信サービスなど)を第1サービスとして複数の電子機器110、120、130、140に提供してよい。他の例として、サーバ160は、上述したアプリケーションのインストールおよび駆動のためのファイルを複数の電子機器110、120、130、140に配布するサービスを第2サービスとして提供してよい。
【0021】
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として電子機器1(110)の内部構成と、サーバ150の内部構成について説明する。また、他の電子機器120、130、140やサーバ160も、上述した電子機器1(110)またはサーバ150と同一または類似の内部構成を有してよい。
【0022】
電子機器1(110)とサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータで読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永久大容量記憶装置(permanent mass storage device)を含んでよい。ここで、ROMとディスクドライブのような永久大容量格納装置は、メモリ211、221とは区分される別の永久格納装置として電子機器1(110)やサーバ150に含まれてもよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電気機器1(110)にインストールされ駆動するブラウザや特定のサービスを提供するために電子機器1(110)にインストールされたアプリケーションなどのためのコード)が格納されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータで読み取り可能な記録媒体からロードされてよい。このような別のコンピュータで読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータで読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
【0023】
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に格納されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
【0024】
通信モジュール213、223は、ネットワーク170を介して電子機器1(110)とサーバ150とが互いに通信するための機能を提供してもよいし、電子機器1(110)および/またはサーバ150が他の電子機器(一例として、電子機器2(120))または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器1(110)のプロセッサ212がメモリ211のような記録装置に格納されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器1(110)の通信モジュール213を通じて電子機器1(110)に受信されてもよい。例えば、通信モジュール213を通じて受信したサーバ150の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器1(110)がさらに含むことのできる格納媒体(上述した永久格納装置)に格納されてよい。
【0025】
入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードまたはマウスなどの装置を含んでよく、出力装置は、ディスプレイやスピーカのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置215は、電子機器1(110)と1つの装置で構成されてもよい。また、サーバ150の入力/出力インタフェース224は、サーバ150と連結するかサーバ150が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。より具体的な例として、電子機器1(110)のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器2(120)が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を通じてディスプレイに表示されてよい。
【0026】
また、他の実施形態において、電子機器1(110)およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器1(110)は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器1(110)がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が、電子機器1(110)にさらに含まれるように実現されてよい。
【0027】
図3は、本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。図3は、電子機器310とクラウド人工知能プラットフォーム320、およびコンテンツ・サービス330を示している。
【0028】
一例として、電子機器310は、少なくとも上述した複数の電子機器110、120、130、140を含んでよく、このような電子機器310や電子機器310にインストールおよび駆動されるアプリケーション(以下、アプリ)は、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320と連係してよい。一例として、クラウド人工知能プラットフォーム320は、上述したサーバ150を少なくとも含んでよい。ここで、インタフェースコネクト340は、電子機器310や電子機器310にインストールおよび駆動されるアプリの開発のためのSDK(Software Development Kit)および/または開発文書を開発者に提供してよい。また、インタフェースコネクト340は、電子機器310や電子機器310にインストールおよび駆動されるアプリが、クラウド人工知能プラットフォーム320が提供する機能を活用することのできるAPI(Application Program Interface)を提供してよい。具体的な例として、開発者がインタフェースコネクト340の提供するSDK(Software Development Kit)および/または開発文書を利用して開発した機器やアプリは、インタフェースコネクト340が提供するAPIを利用することで、クラウド人工知能プラットフォーム320が提供する機能を活用することが可能となる。
【0029】
一例として、クラウド人工知能プラットフォーム320は、音声基盤のサービスを提供するための機能を提供してよい。例えば、クラウド人工知能プラットフォーム320は、受信した音声を認識し、認識した音声に対して出力される音声を合成するための音声処理モジュール321、受信した映像や動画を分析して処理するためのビジョン処理モジュール322、受信した音声にしたがって適切な音声を出力するために適した会話を決定するための会話処理モジュール323、受信した音声に適した機能を勧めるための推薦モジュール324、人工知能がデータ学習に基づいて文章単位で言語を翻訳できるように支援するニューラル機械翻訳(Neural Machine Translation:NMT)325などのように、音声基盤サービスを提供するための多様なモジュールを含んでよい。
【0030】
例えば、電子機器2(120)のユーザが、電子機器2(120)を利用して電子機器1(110)に音声通話の要請を伝達する状況を考慮してみよう。このとき、電子機器1(110)は、アプリケーションの制御にしたがい、電子機器1(110)のユーザが音声通話の要請を直接受諾することができない状況を認識したとする。この場合、電子機器1(110)は、ユーザが直接的に制御しなくても、電子機器2(120)からの音声通話要請を自動で受諾することにより、電子機器1(110)と電子機器2(120)との間に音声通話セッションが設定されるようになる。また、電子機器1(110)は、アプリケーションの制御にしたがい、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320が提供する機能を活用することにより、電子機器2(120)のユーザと人工知能を利用した会話を実行してもよい。この場合、人工知能は、上述した音声通話セッションを通じて伝達される電子機器2(120)のユーザの音声を音声処理モジュール321によって認識してよく、認識された音声に適した会話を会話処理モジュール323によって決定してよい。また、人工知能は、決定された会話にしたがって出力するための出力音声を、再び音声処理モジュール321を利用して合成してよく、合成された出力音声は、上述した音声通話セッションを通じて電子機器2(120)に伝達することにより、人工知能と電子機器2(120)のユーザとの間に音声通話が成立するようになる。
【0031】
また、拡張キット350は、第3者コンテンツ開発者または会社がクラウド人工知能プラットフォーム320を基盤として新たな音声基盤機能を実現することのできる開発キットを提供してよい。例えば、電子機器1(110)にインストールされたアプリケーションが、上述した開発キットによって開発された第3者コンテンツであるとする。この場合、第3者コンテンツ開発者は、自動で音声通話を実行するための人工知能を自主的に開発しなくても、自身のアプリケーションがインタフェースコネクト340を介してクラウド人工知能プラットフォーム320と通信し、クラウド人工知能プラットフォーム320が含む機能を活用するようにすることにより、人工知能を利用した会話機能を提供することが可能となる。
【0032】
図3の実施形態では、人工知能のための機能のうちの音声会話を処理するための機能が、クラウド人工知能プラットフォーム320が含むモジュール(音声処理モジュール321および会話処理モジュール323)に提供される例について説明した。しかし、実施形態によっては、人工知能のためのすべての機能が、電子機器1(110)にインストールおよび駆動されるアプリケーションに含まれてもよい。この場合、電子機器1(110)は、クラウド人工知能プラットフォーム320のようなサーバ150と通信する必要がなくなり、音声処理モジュール321および会話処理モジュール323によって電子機器2(120)のユーザとの会話を自主的に実行することが可能となる。
【0033】
図4は、本発明の一実施形態における、電子機器のコンタクト制御のための全体過程の例を示した図である。
【0034】
第1過程410は、電子機器1(110)が電子機器2(120)からコンタクトの要請を受信する過程であってよい。ここで、コンタクトは、音声通話や映像通話、またはメッセンジャーを利用したインスタントメッセージの送受信などのように電子機器1(110)と電子機器2(120)との間に通信セッションの設定および維持が要求されるコンタクトを含んでもよいし、SMS(Short Message Service)やMMS(Multimedia Message Service)、電子メール(e-mail)の受信などのように電子機器1(110)と電子機器2(120)との間に通信セッションの維持が要求されないコンタクトを含んでもよい。また、図4では、コンタクトの要請が電子機器2(120)から電子機器1(110)に直接的に送信されるように表現されているが、実質的に、コンタクトの種類によっては、ネットワーク上の多様な中間ノードを経て電子機器1(110)に送信されてよい。例えば、メッセンジャーを利用したインスタントメッセージの場合は、メッセンジャーサーバを経て電子機器1(110)に送信されてよく、音声通話のためのコール信号の受信は、音声通話のコール信号を処理するサーバを経て電子機器1(110)に送信されてよい。これと同じように、映像通話のためのコール信号は、映像通話を処理するサーバを経て電子機器1(110)に送信されてよい。
【0035】
第2過程420は、電子機器1(110)が、電子機器1(110)のユーザの直接制御が可能であるかを決定する過程であってよい。ここで、ユーザの状況は、ユーザがコンタクトの要請を直接制御することができる状況(以下、「第1状況」)と、ユーザがコンタクトの要請を直接制御することができない状況(以下、「第2状況」)の2つに大別されてよい。このとき、このようなユーザの状況は、ユーザのスケジュールやライフスタイルなどのようにユーザと関連して習得される情報を分析することによって決定されてよい。このような情報は、電子機器1(110)に予め格納されて管理される情報であってもよいが、オンライン上でユーザのスケジュールやユーザのライフスタイルと関連する情報を管理するサーバ(一例として、サーバ150)のように電子機器1(110)の外部から受信される情報であってもよい。このような第2過程420は、コンタクト要請の受信による通知をユーザに提供する前に実行されてよい。例えば、従来技術では、音声通話のコール信号の受信に伴ってベル音や振動のような通知を出力するが、ユーザはこのような通知の出力に応答してコンタクトの要請を処理していた。この反面、本実施形態に係る電子機器1(110)は、コンタクト要請の受信による通知を出力する前に、ユーザの直接制御が可能であるかのようなユーザの状況を先に決定してよい。
【0036】
第3過程430は、第1状況の場合、電子機器1(110)がコンタクト要請の受信に対する通知を出力する過程であってよい。この場合、電子機器1(110)のユーザは、出力された通知に反応してコンタクトの要請を直接処理してよい。
【0037】
第4過程440は、電子機器1(110)がユーザの直接制御によってコンタクトを処理し、その後にコンタクト制御のための過程が終了する過程であってよい。例えば、要請されたコンタクトが音声通話や映像通話である場合には、電子機器1(110)のユーザと電子機器2(120)のユーザとの間で音声通話や映像通話がなされた後、第1過程410で受信したコンタクトの要請と関連するコンタクト制御は終了してよい。または、要請されたコンタクトがインスタントメッセージである場合、電子機器1(110)のユーザが、受信されたインスタントメッセージを確認した後、第1過程410で受信したコンタクトの要請と関連するコンタクト制御は終了してよい。
【0038】
第5過程450は、第2状況の場合、電子機器1(110)が人工知能を利用してコンタクトの要請を受諾して対応を実行する過程であってよい。例えば、音声通話や映像通話である場合、人工知能がコンタクトの要請を直接受諾した後、電子機器2(120)のユーザと人工知能との間で音声通話や映像通話が行われてよい。この場合、電子機器2(120)のユーザと人工知能との間に送受信される音声や映像が電子機器1(110)に出力される必要はなく、電子機器1(110)で内部的に音声通話や映像通話が行われてよい。他の例として、インスタントメッセージが受信された場合、人工知能は、受信されたインスタントメッセージに対する返答メッセージを電子機器2(120)に送信してよい。
【0039】
第6過程460は、電子機器1(110)が人工知能の応対と関連する要約文を生成する過程であってよい。要約文には、コンタクトの種類(一例として、音声通話、映像通話、インスタントメッセージなど)と、コンタクトの要請が受信された時刻、人工知能の応対による人工知能と電子機器2(120)のユーザとの会話内容、またはこのような会話内容の要約情報などのような情報が含まれてよい。例えば、音声通話に対して人工知能応対がなされた場合、人工知能は、電子機器2(120)のユーザとの会話の内容に含まれている音声を認識し、認識した音声をテキストに変換してよい。この後、変換されたテキストを分析して要約情報を生成してよい。
【0040】
第7過程470は、電子機器1(110)が、電子機器1(110)のユーザの直接制御が可能であるかをモニタリングする過程であってよい。この場合にも、電子機器1(110)は、電子機器1(110)のユーザのスケジュールやライフスタイルなどのように電子機器1(110)のユーザと関連して習得される情報を分析することにより、コンタクトの要請に対し、電子機器1(110)のユーザの直接制御が可能な第1状況であるか、あるいはコンタクトの要請に対する電子機器1(110)のユーザの直接制御が不可能な第2状況であるかを決定してよい。
【0041】
例えば、電子機器1(110)のユーザのスケジュールによると、本日14時から16時まで会議が入っている状態で、第1過程410で説明したコンタクトの要請を受信した時刻が本日15時であったとする。この場合、人工知能は、電子機器1(110)のユーザは受信したコンタクトの要請を直接制御することができない第2状況であると判断してよく、第5過程450で説明したように、コンタクトの要請を受諾して直接応対を処理してよい。この後、人工知能は、応対と関連する要約文を生成してよい。このとき、要約文の生成時刻が15時30分であったとする。会議の終了時間が16時であると予定されているため、人工知能は、16時までは電子機器1(110)のユーザの直接制御が不可能な第2状況であると判断してよく、16時まで要約文のレポートを遅らせてよい。
【0042】
第8過程480は、電子機器1(110)のユーザの状況が第2状況から第1状況に変更することにより、電子機器1(110)が、生成された要約を電子機器1(110)のユーザにレポートする過程であってよい。例えば、電子機器1(110)は、コンタクトがあったことを知らせるための通知をユーザに提供し、通知に対するユーザの反応にしたがい、生成された要約文を電子機器1(110)の画面に表示してよい。
【0043】
一方、実施形態によっては、要約文は第2状況でレポートされてもよい。例えば、人工知能は、要約文の生成後に電子機器1(110)のユーザによる入力が発生した場合、またはユーザによって予め設定された条件が満たされた場合には、第2状況であっても要約文をレポートしてよい。例えば、会議中の状況であるユーザであったとしても、電子機器1(110)に入力が発生した場合には、ユーザに少しの余裕が生じたと判断してよい。この場合、ユーザ入力の発生に応答し、第2状況であっても要約文がレポートされてよい。実質的に、要約文のレポートに関する通知がユーザに提供されてよく、レポートされた要約を直ぐに確認するか、または状況に応じてゆっくり確認するかに関しては、ユーザによって選択されてよい。他の例として、ユーザが電話を直接とることのできない状況であったとしても、要約文は確認することのできる状況であることもある。このような場合、ユーザによって予め設定された条件(一例として、コンタクトの重要性や、特定の時間あるいは特定の場所など)を満たす場合には、第2状況であっても要約文がレポートされてよい。
【0044】
また他の実施形態として、上述した第4過程440で、ユーザがコンタクトの要請を直接処理する過程であっても、ユーザの要求によっては要約文が生成および提供されてもよい。例えば、音声通話の受信によってベル音が鳴り、ユーザが電子機器1(110)を操作して音声通話を開始したとする。このとき、ユーザから要求が入力されることにより、人工知能は、ユーザと発信者間の音声通話内容を記録および要約し、要約文を提供してよい。この場合、ユーザは、発信者との通話内容の主要事項を、通話終了後にも要約によって再確認することができるようになる。このとき、ユーザからの要求は、予め設定された音声(一例として、「サリー(人工知能の識別子の例)、今から通話内容を記録/要約して」)と入力されてもよいし、画面に表示される予め設定されたユーザインタフェースボタン(一例として、「AI呼び出し要請」)によって入力されてもよい。より具体的な例として、電子機器1(110)は、ユーザが発信者と直接コンタクトをしている途中に、アプリケーションの制御にしたがって予め設定された音声(一例として、上述した「サリー」)を認識すると、これによる要請を処理するように動作するか、または通話内容の記録および/または要約のトリガリングのためのユーザインタフェースを画面に表示してよい。また、電子機器1(110)は、入力されるユーザの要請にしたがってユーザと発信者のコンタクトの内容を記録および/または要約し、記録された内容や要約文をユーザにレポートしてよい。この反面、通話内容の記録のために発信者の同意が求められる場合、電子機器1(110)は、発信者の同意を得るための音声を合成して発信者の同意を求め、発信者の応答に応じて記録を開始してよい。このとき、発信者に同意を求める過程と発信者の応答がさらに記録されてもよい。このように、人工知能を利用した自動応対の場合ではなく、ユーザが発信者とコンタクトを直接行う場合にも、該当のコンタクトに対する内容が記録および/または要約されてユーザに提供されてよい。また、映像通話でも、このような記録および/または要約の機能が提供されてよい。この場合には、少なくとも一部の映像が共に記録されて要約に含まれてよい。
【0045】
このような図4の実施形態では、電子機器1(110)が電子機器2(120)からのコンタクトの要請にしたがい、人工知能を利用してコンタクト制御を直接処理する例について説明した。この反面、他の実施形態では、電子機器1(110)と電子機器2(120)間のコンタクトを連結するサーバが、このようなコンタクト制御を処理する例について説明する。
【0046】
図5は本発明の一実施形態における、サーバのコンタクト制御のための全体過程の例を示した図である。サーバ150は、電子機器1(110)と電子機器2(120)間の特定のコンタクトのためのサービスを提供するシステムのコンピュータ装置であってよい。この場合、電子機器2(120)のコンタクトの要請は、サーバ150を経て電子機器1(110)に伝達されてよい。
【0047】
第1過程510において、サーバ150は、電子機器2(120)から電子機器1(110)に対するコンタクトの要請を受信してよい。例えば、サーバ150は、メッセンジャーを通じてメッセージングサービス、音声通話サービス、および/または映像通話サービスを提供するシステムのコンピュータ装置であってよい。電子機器2(120)のユーザが電子機器1(110)のユーザのアカウントや電話番号を選択して音声通話や映像通話、またはインスタントメッセージの送信を要請した場合、コンタクトの要請がサーバ150を経て電子機器1(110)に伝達されてよい。第1過程510は、このようなコンタクトの要請をサーバ150が受信する過程を意味してよい。
【0048】
第2過程520は、サーバ150が、電子機器1(110)のユーザの直接制御が可能であるかを決定する過程であってよい。例えば、サーバ150は、電子機器1(110)のユーザのスケジュールやライフスタイルなどのように電子機器1(110)のユーザと関連して習得される情報を分析することにより、コンタクトの要請に対し、電子機器1(110)のユーザの直接制御が可能な第1状況であるか、あるいはコンタクトの要請に対する電子機器1(110)のユーザの直接制御が不可能な第2状況であるかを決定してよい。このとき、スケジュールやライフスタイルなどの情報は、電子機器1(110)のユーザがアップロードすることによってサーバ150で直接管理される情報であってもよいし、スケジュール管理サーバなどから提供された情報であってもよい。
【0049】
第3過程530は、第1状況の場合に、サーバ150がコンタクトの要請を電子機器1(110)に伝達する過程であってよい。この場合、電子機器1(110)は、受信したコンタクトの要請に応じてベル音や振動などのような通知を出力してよい。
【0050】
第4過程540は、電子機器1(110)でのコンタクトの処理後にコンタクト制御の過程を終了する過程であってよい。例えば、電子機器1(110)は、コンタクトの要請に対するユーザの制御にしたがって音声通話や映像通話を行ったり、受信したインスタントメッセージを画面に表示したりするなどのコンタクトの処理を実行してよく、この後にはコンタクト制御の過程を終了してよい。このとき、ユーザが発信者とのコンタクトを直接処理する場合にも、上述したように、ユーザからの要求の入力により、トリガリングされた人工知能が音声通話や映像通話を記録および/または要約してよく、要約された要約文をユーザに提供してよい。
【0051】
第5過程550は、第2状況の場合に、サーバ150が、人工知能応対によって電子機器2(120)とのコンタクトを処理する過程であってよい。上述したように、音声通話や映像通話の場合には、人工知能がコンタクトの要請を直接受諾した後、電子機器2(120)のユーザと人工知能との間で音声通話や映像通話がなされてよい。他の例として、インスタントメッセージが受信された場合、人工知能は、受信したインスタントメッセージに対する返答メッセージを電子機器2(120)に送信してよい。
【0052】
第6過程560は、人工知能応対が完了した後、人工知能応対に対する要約を生成する過程であってよい。上述したように、要約には、コンタクトの種類(一例として、音声通話、映像通話、インスタントメッセージなど)と、コンタクトの要請が受信された時刻、人工知能応対による人工知能と電子機器2(120)のユーザ間の会話内容、またはこのような会話内容の要約情報などのような情報が含まれてよい。
【0053】
第7過程570は、サーバ150が、電子機器1(110)のユーザの直接制御が可能であるかをモニタリングする過程であってよい。この場合にも、サーバ150は、電子機器1(110)のユーザのスケジュールやライフスタイルなどのように電子機器1(110)のユーザと関連して習得される情報を分析することにより、コンタクトの要請に対し、電子機器1(110)のユーザの直接制御が可能な第1状況であるか、あるいはコンタクトの要請に対する電子機器1(110)のユーザの直接制御が不可能な第2状況であるかを決定してよい。
【0054】
第8過程580は、サーバ150が、電子機器1(110)のユーザの状況が第2状況から第1状況に変更することにより、生成された要約文を電子機器1(110)にレポートする過程であってよい。レポートされた要約文は、電子機器1(110)を通じて表示され、電子機器1(110)のユーザに提供されてよい。
【0055】
一方、図4の実施形態と図5の実施形態が結合した実施形態が考慮されてもよい。例えば、図4の第1過程410および第2過程420は電子機器1(110)で実行し、コンタクトの要請をユーザが直接制御することができない第1状況になった場合、コンタクトの要請をサーバ150に伝達することにより、サーバ150が電子機器2(120)との人工知能応対を処理するようにしてもよい。この場合、サーバ150は、図5の第5過程550および第6過程560を処理し、人工知能応対と要約文の生成を処理してよい。生成された要約は電子機器1(110)に伝達されてよく、図4の第7過程470および第8過程480を経てユーザにレポートされてよい。
【0056】
このように、ユーザ(着信者)のスケジュールを同期化したりユーザのライフスタイルを分析したりして音声通話や映像通話のコールを受信したりメッセージを受信したりした場合には、ユーザの状況を推定し、ユーザが直接応答することが困難な状況であると判断される場合には、人工知能を利用して発信者との会話を自動処理した後、応対内容を要約してユーザにレポートすることにより、ユーザが直接応対することが困難なコンタクトの要請に対しても、人工知能によってコンタクト制御を可能にすることができる。
【0057】
図6および図7は、本発明の一実施形態における、要約文を提供する例を示した図である。
【0058】
図6は、音声通話に対する応対の要約文が表示された電子機器1(110)の画面例であって、要約文がポップアップウィンドウ610の形態で電子機器1(110)の画面に表示された例を示している。このようなポップアップウィンドウ610には、誰(Ms.Alice)からどのような種類のコンタクト(音声通話)があったかを示すための情報と、コンタクトの要請を受信した日時、人工知能がコンタクトに対して応対した時間(通話時間)、および応対内容に対する要約情報(応対内容の要約)が示されている。また、ポップアップウィンドウ610には、コンタクトの相手(Ms.Alice)と直ぐに通話を連結するためのユーザインタフェースとして「直ぐに通話ボタン620」が提供された例を示している。ユーザが直ぐに通話ボタン620を選択(一例として、タッチスクリーン環境で直ぐに通話ボタン620が表示された領域をユーザがタッチ)した場合、コンタクトの相手(Ms.Alice)との音声通話が試行されてよい。
【0059】
図7は、メッセージ受信に対する要約文が表示された電子機器1(110)の画面例であって、要約文がポップアップウィンドウ710の形態で電子機器1(110)の画面に表示された例を示している。このようなポップアップウィンドウ710には、誰(Mr.Ted)からどのような種類のコンタクト(メッセンジャーAを利用したメッセージ受信)があったかを示すための情報と、コンタクトの要請(メッセージ)を受信した日時、および応対内容に関する要約情報(応対内容の要約)が示されている。また、ポップアップウィンドウ710には、コンタクトの相手(Mr.Ted)とメッセージを送受信したメッセンジャーAのチャットルームを呼び出すためのユーザインタフェースとして「チャットルームに移動」ボタン720が提供された例を示している。ユーザがチャットルームに移動ボタン720を選択した場合、メッセンジャーAでは、コンタクトの相手(Mr.Ted)とのチャットルームが電子機器1(110)の画面に表示されてよい。
【0060】
一方、図6のAliceや図7のTedのようなコンタクトの相手を識別するための識別情報は、電子機器1(110)のアドレス帳やメッセンジャー(または、VoIP音声通話や映像通話を提供するサービス)の友だちリストから電話番号によって検索された発信者の名前であってもよいし、検索されたアカウントの表示名であってもよい。また、コンタクトの相手の性別(Ms.またはMr.)は、名前がもつ性別による確率値および/または発信者の声を分析することによって決定されてよい。例えば、識別された名前「Alice」のようなそれぞれの名前に対して、対象の性別が男性あるいは女性である確率値が経験的に蓄積されたデータが活用されてよい。また、人工知能が応対中のコンタクトの相手の声のトーンを分析することにより、コンタクトの相手の性別が決定されてもよい。また、確率値と声の両方を利用することにより、コンタクトの相手の性別が決定されてもよい。さらに、人物の名前ではなくアカウントの表示名などに対しては、性別の表示が省略されてもよい。
【0061】
アドレス帳やメッセンジャーアカウントなどからコンタクトの相手を特定するための識別情報を得ることが困難な場合、人工知能は、応対の過程において、コンタクトの相手の名前や電子機器1(110)のユーザとの関係などを直接聞いてもよい。例えば、人工知能は、「どなたからの連絡とお伝えしますか?」のような質問によってコンタクトの相手に関する情報を取得してよく、取得した情報を要約文の生成に活用してよい。
【0062】
また、音声通話や映像通話において、把握される発信者の性別や年齢などに応じて人工知能の応対音声の性別やトーンなどを変更してもよい。例えば、人工知能は、男性の発信者には女性の声で応対したり、これとは逆に女性の発信者には男性の声で応対したりしてよい。他の例として、子供の発信者には、特定のキャラクタ(一例として、子供に人気のあるアニメーションのキャラクタ)の声で応対してもよい。
【0063】
また、図6および図7の実施形態では、ポップアップウィンドウ610および710を利用して要約文をレポートする例について説明したが、要約文は多様な方式によってユーザにレポートされてよい。例えば、コンタクト制御のためのサービスを提供するアプリケーションの実行画面に要約文が表示されてもよいし、人工知能が要約文の内容を音声として合成した後、合成された音声を出力する形態で要約がレポートされてもよい。この場合、人工知能は、ユーザとの会話形態で要約文をレポートしてよい。例えば、図6の実施形態と関連し、人工知能が「Ms.Aliceから音声通話が届きました」という合成された音声を出力している最中に、ユーザの発話「Aliceに電話をかけて」によって音声命令が認識された場合、人工知能は、要約文の全体をレポートする必要がなくなり、直ぐにAliceとの音声通話を実行してよい。
【0064】
また、上述した実施形態では、人工知能がコンタクトの要請に対するコンタクト制御により、人工知能がコンタクトに直接応対し、その結果をユーザにレポートする例について説明した。
【0065】
これに加え、人工知能は、コンタクトの相手との応対によって取得した情報に基づき、新たなスケジュールを自動で設定したりアラーム時間を自動で設定したりするなど多様な後処理を実行することも可能である。
【0066】
図8は、本発明の一実施形態における、後処理内容をレポートする例を示した図である。
【0067】
図8は、音声通話に対する応対の要約文が表示された電子機器1(110)の画面例であって、要約文がポップアップウィンドウ810の形態で電子機器1(110)の画面に表示された例を示している。このようなポップアップウィンドウ810には、誰(Ms.Carol)からどのような種類のコンタクト(音声通話)があったかを示すための情報と、コンタクトの要請を受信した日時、人工知能がコンタクトに応対した時間(通話時間)、応対内容に関する要約情報(応対内容の要約)、および後処理内容(スケジュール追加)が示されている。例えば、人工知能は、応対内容を分析して「土曜日の午後3時」の約束に対するスケジュールを認識し、認識されたスケジュールを登録されていたスケジュールから検索してよい。該当の日付および時間にスケジュールが登録されていない場合、人工知能は、該当のスケジュールを追加してよい。また、ポップアップウィンドウ810でスケジュールアプリケーションを駆動させて追加のスケジュールを確認することのできるユーザインタフェースとして、スケジュール確認ボタン830が含まれる例が図8に示されている。ユーザがスケジュール確認ボタン830を選択した場合、スケジュールアプリケーションが実行され、追加のスケジュールに関する情報がユーザに表示されてよい。実施形態によっては、コンタクトの相手が人工知能との会話において約束を設定してもよい。例えば、人工知能は、コンタクトの相手がユーザと今日の夕方7時に会う約束をしたいという要請を認識してスケジュールを追加した後、このような後処理内容と応対内容をユーザにレポートしてよい。
【0068】
また、人工知能は、ユーザがコンタクトに対する直接的な制御が可能となる時点までコンタクトの相手との会話を維持してもよい。例えば、ユーザが会議中や運動中である状況で、会議や運動が予め設定された時間(一例として、1分)以内に終わると予測される場合が考慮されることがある。この場合、人工知能は、コンタクトの相手に、ユーザが一定の時間以内には電話をとることができるようになることを知らせ、その待機時間はコンタクトの相手との会話を誘導することによってコンタクトを維持してよい。言い換えれば、人工知能は、状況に応じては、ユーザがコンタクトに直接参加できるようになるまでコンタクトを維持することも可能である。
【0069】
また他の実施形態として、人工知能は、コンタクトの至急性に応じて人工知能応対を中断し、ユーザがコンタクトに参加するように通知を提供してもよい。一例として、人工知能は、ユーザの現在状況に対する重要度を測定し、人工知能応対によってコンタクトの重要性をそれぞれ測定および比較してよい。このとき、人工知能は、コンタクトの相手との会話によってコンタクトの目的を決定し、決定された目的に応じてコンタクトの重要性を決定してよい。また、人工知能は、ユーザの状況の種類(一例として、会議中や運動中など)に応じて状況に対する重要性を決定してもよい。このとき、コンタクトの重要性が状況の重要性よりも高い場合、人工知能は、人工知能応対を中断し、ユーザをコンタクトに参加させるようにする通知を提供してよい。この場合、人工知能は、要請されたコンタクトが極めて重要な目的に関するものであることを知らせるための情報を画面に表示してもよいし、合成された音声で出力してもよい。
【0070】
さらに、他の実施形態において、コンタクトに対して人工知能応対を実行させるかをユーザが直接選択してもよい。
【0071】
図9は、本発明の一実施形態における、音声通話の受諾または拒否を選択するためのユーザインタフェースの例を示した図である。図9は、音声通話の着信による電子機器1(110)の第1画面910と第2画面920をそれぞれ示している。第1画面910は、音声通話の着信を受諾するための受諾ボタン911と、音声通話の着信を拒否するための拒否ボタン912をそれぞれ示している。ユーザが拒否ボタン912を選択した場合、第1画面910は、第2画面920のように変更してよい。第2画面920は、サイズや形状が変更した受諾ボタン911と拒否ボタン912の他にも、AI通話ボタン921、メッセージボタン922、およびスヌーズ(snooze)ボタン923が追加された様子を示している。
【0072】
このとき、AI通話ボタン921は、人工知能応対のためのユーザインタフェースであってよい。例えば、ユーザがAI通話ボタン921を選択した場合、上述したような人工知能応対が実行されてよい。言い換えれば、人工知能が音声通話の発信者と会話をし、要約文を生成してユーザに提供してよい。
【0073】
また、メッセージボタン922は、予め設定された拒否メッセージを伝達するためのユーザインタフェースであってよい。例えば、ユーザがメッセージボタン922を選択した場合、予め設定された拒否メッセージが音声通話の発信者に伝達されてよい。他の例として、ユーザがメッセージボタン922を選択した場合、複数の拒否メッセージのうちから1つを選択するためのユーザインタフェースがユーザに提供されてもよい。この場合、ユーザが複数の拒否メッセージのうちから1つを選択すると、選択された拒否メッセージが音声通話の発信者に伝達されてよい。
【0074】
さらに、スヌーズボタン923は、発信者に音声メモを残すことを要求するためのユーザインタフェースであってよい。例えば、ユーザがスヌーズボタン923を選択した場合、発信者に音声メモを残して欲しいという要請が提供されてよい。発信者が音声メモを残した場合、音声メモは電子機器1(110)に格納されてよく、予め設定された時間(一例として、3分)後に音声メモを聞くための通知や、音声メモを認識およびテキストに変換したテキスト情報がポップアップウィンドウなどの形態でユーザに提供されてよい。
【0075】
このような多様な拒否オプションは、ユーザが電話をとることが困難な状況であっても、多様な方式で発信者のコンタクト意図の把握をサポートすることができ、通話連結率を高めることができる。また、音声通話だけではなく、映像通話の受諾または拒否を選択するためのユーザインタフェースも、図9の実施形態と同じように実現されてよい。
【0076】
さらに他の実施形態において、人工知能は、映像通話の受信と関連し、ユーザと発信者との関係、ユーザの性向、および/またはユーザの設定を考慮することで、映像通話の受信によるプレビュー画面を決定してよい。例えば、発信者がユーザによく思われたい対象(一例として、異性の友だち)であったり、ユーザが外見を重視する性向、または発信者がユーザによって設定された人物であったりする場合、映像通話のプレビュー画面には自撮り(selfie)映像が表示されてよい。言い換えれば、ユーザが映像通話の受諾前に、プレビュー画面に表示された自撮り映像によって自身の外面を予め確認したり整えたりすることのできる時間が与えられてよい。この反面、発信者がユーザと親密な関係であったり、ユーザが外見を整えるよりも迅速な映像通話の受諾と迅速な映像通話の実行を望む性向であったり、発信者がユーザによって設定された人物でなかったりする場合には、映像通話のプレビュー画面には自撮り映像が表示されなくてよい。このように、人工知能は、映像通話のプレビュー画面において、自撮り映像を表示するための機能を多様な条件によって自動でオン(On)/オフ(Off)することができる。
【0077】
図10は、本発明の一実施形態における、自撮り映像が表示されたプレビュー画面の例を示した図である。図10は、発信者「Ted」による映像通話の要請が受信されることにより、電子機器1(110)のユーザが映像通話の受諾と拒否を選択することのできるプレビュー画面1010の例を示している。このとき、電子機器1(110)は、上述した多様な条件(ユーザと発信者との関係、ユーザの性向、および/またはユーザの設定)に基づき、プレビュー画面1010に自撮り映像を表示するかを決定してよい。図10では、電子機器1(110)が自撮り映像を表示するように決定することにより、電子機器1(110)が含むフロントカメラ(または自撮りカメラ)1020にキャプチャされているリアルタイム映像ストリーム1030をプレビュー画面1010に表示している例を示している。
【0078】
図11は、本発明の一実施形態における、コンタクト制御方法の例を示したフローチャートである。本実施形態に係るコンタクト制御方法は、上述した電子機器1(110)のようなコンピュータ装置によって実行されてよい。このとき、電子機器1(110)のプロセッサ212は、メモリ211が含むオペレーティングシステムのコードや少なくとも1つのプログラムのコードによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ212は、電子機器1(110)に格納されたコードが提供する制御命令にしたがって電子機器1(110)が図11に示すコンタクト制御方法に含まれる段階1110~1150を実行するように、電子機器1(110)を制御してよい。
【0079】
段階1110で、電子機器1(110)は、ネットワークを介して発信者からのコンタクトの要請を受信してよい。コンタクトとは、上述したように、音声通話や映像通話、またはメッセージの送受信を意味してよい。このとき、コンタクトの要請は、音声通話や映像通話の場合にはコール信号を含んでよく、メッセージの送受信の場合には発信者が送信するメッセージを含んでよい。このようなコンタクトの要請は、発信者からネットワークを介して直接送信されてもよいが、一般的には、音声通話サービスや映像通話サービス、またはメッセージングサービスを提供するサーバを経て伝達されてよい。この場合、電子機器1(110)のユーザがコンタクトの着信者となってよい。
【0080】
段階1120で、電子機器1(110)は、コンタクトの要請に対する着信者の直接制御が可能であるかを決定してよい。例えば、電子機器1(110)は、着信者に対して登録された着信者のスケジュール情報、着信者に対して予め分析されたライフスタイル情報、および着信者の入力のうちの少なくとも1つとコンタクトの要請が受信された時刻を利用することで、着信者の直接制御が可能であるかを決定してよい。このとき、スケジュール情報は、電子機器1(110)に登録されたスケジュール情報および/またはオンライン上に登録されて電子機器1(110)に同期化される情報を含んでよい。一方、ライフスタイル情報は、着信者の日課を持続的に分析した情報に基づき、現時刻に予測される着信者の状況に関する情報を含んでよい。例えば、毎朝6時から7時の間にジョギングをする着信者に対しては、午前6時から7時の間の状況は「運動中」という状況が決定されてよい。または、着信者が会社にいる時刻や家にいる時刻などに基づいて着信者の状況が細分化されてよい。着信者の入力は、コンタクトの要請が受信される時刻と関連し、着信者が電子機器1(110)を操作中であるかを決定するのに活用されてよい。例えば、着信者が持続的に電子機器1(110)を操作中である場合は、着信者がコンタクトの要請を直接処理することのできる状況であると判断されてよい。
【0081】
段階1130および段階1140で、電子機器1(110)は、コンタクトの要請に対して着信者の直接制御が可能な場合には、コンタクトの要請に対する通知を出力してよい。この場合、ユーザは、出力される通知に反応してコンタクトの要請を直接処理してよい。
【0082】
段階1130および段階1150で、電子機器1(110)は、コンタクトの要請に対して着信者の直接制御が不可能な場合には、人工知能を利用してコンタクトの発信者と会話をし、コンタクトを処理してよい。着信者がコンタクトの要請を直接処理することが困難な状況であると判断される場合には、着信者に通知を提供せず、人工知能を利用してコンタクトを直接処理してよい。
【0083】
一方、電子機器1(110)は、アプリケーションの制御にしたがい、会話の要約情報を生成して着信者にレポートしてもよい。例えば、電子機器1(110)は、段階1150で実行された会話に関する要約情報を生成してよく、着信者の直接制御が可能となった場合には、生成された要約情報を着信者に提供してよい。ここで、要約情報は、コンタクトの種類、コンタクトの要請が受信された時刻、および会話の内容に関する要約情報を含んでよい。
【0084】
また、電子機器1(110)は、会話の結果によっては後処理を行ってもよい。例えば、図8では、スケジュールを追加する後処理の例について説明した。このために、電子機器1(110)は、会話の内容に含まれた日付、時間、および場所のうちの少なくとも1つに関する情報を抽出し、抽出された少なくとも1つの情報とコンタクトの発信者に関する情報を関連させてスケジュールまたはアラームを登録してよい。
【0085】
また、電子機器1(110)は、図9を参照しながら説明したように、ユーザがコンタクトの要請を多様な方式によって直接処理するようにしてもよい。例えば、電子機器1(110)は、着信者の直接制御が可能な場合に、コンタクトの要請を受諾または拒否するためのユーザインタフェースをさらに提供してよい。このようなユーザインタフェースは、段階1140で説明した通知と共に提供されてよい。このとき、ユーザインタフェースは、コンタクトの要請を受諾するためのユーザインタフェースおよびコンタクトの要請を拒否するためのユーザインタフェースを含み、人工知能による発信者との会話を実行するためのユーザインタフェース、発信者に音声メモを残すことを要請するためのユーザインタフェース、および拒否メッセージを発信者に送信するためのユーザインタフェースのうちの少なくとも2つ以上をさらに含んでよい。
【0086】
また、電子機器1(110)は、図10を参照しながら説明したように、コンタクトが映像通話であり、着信者によって直接制御が可能である場合に、着信者と発信者との関係、着信者の性向、および着信者の設定のうちの少なくとも1つによって自撮り映像を表示するかを決定し、自撮り映像を表示する場合、自撮りカメラ(図10を参照しながら説明したフロントカメラ1020)を駆動させ、自撮りカメラにキャプチャされたリアルタイム映像ストリームを映像通話のプレビュー画面に表示することにより、条件に応じて着信者が自身の外見を確認して整えることのできる時間を提供してよい。
【0087】
図12は、本発明の一実施形態における、人工知能を利用してコンタクトを処理する例を示したフローチャートである。図12の段階1210~1250は、コンタクトが音声通話や映像通話の場合に実行されてよく、図11を参照しながら説明した段階1150に含まれ、電子機器1(110)によって実行されてよい。
【0088】
段階1210で、電子機器1(110)は、コンタクトの要請を受諾することで設定された音声通話セッションまたは映像通話セッションを通じてコンタクトの発信者の音声を受信してよい。
【0089】
段階1220で、電子機器1(110)は、人工知能が含む音声処理モジュールによって受信した音声を認識してよい。例えば、人工知能は、電子機器1(110)にインストールおよび駆動されるアプリケーションによって実現されてよい。このようなアプリケーションは、音声の認識および合成のための音声処理モジュールを含んでよく、電子機器1(110)は、アプリケーションの制御にしたがい、このような音声処理モジュールによって受信した音声を認識してよい。上述した図3の実施形態を参照しながら説明したように、人工知能は、クラウド人工知能プラットフォーム320によって実現されてもよい。この場合、電子機器1(110)は、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320に受信された音声を送信してよく、クラウド人工知能プラットフォーム320が含む音声処理モジュール321によって受信された音声が認識されてもよい。
【0090】
段階1230で、電子機器1(110)は、人工知能が含む会話処理モジュールによって認識された音声を分析して返答会話を生成してよい。この場合にも、電子機器1(110)は、アプリケーションによって実現される会話処理モジュールを利用して返答会話を生成してもよいし、クラウド人工知能プラットフォーム320が含む会話処理モジュール323を利用して返答会話を生成してもよい。
【0091】
段階1240で、電子機器1(110)は、音声処理モジュールで生成された返答会話に対応する出力音声を生成してよい。この場合にも、電子機器1(110)は、アプリケーションによって実現される音声処理モジュールを利用して出力音声を合成してもよいし、クラウド人工知能プラットフォーム320が含む音声処理モジュール321を利用して出力音声を合成してもよい。
【0092】
段階1250で、電子機器1(110)は、生成された出力音声を、設定された音声通話セッションまたは映像通話セッションを通じてコンタクトの発信者に送信してよい。この場合、コンタクトの発信者は、発信者の音声に対応する人工知能の返答音声を、要請したコンタクト(音声通話または映像通話)を通じて聞くことができる。
【0093】
クラウド人工知能プラットフォーム320のような外部の人工知能サーバを活用する場合、電子機器1(110)は、コンタクトの発信者から受信した音声やメッセージを、ネットワークを介して人工知能サーバに送信し、人工知能サーバから音声やメッセージに対応する返答音声または返答メッセージを受信し、受信した返答音声または返答メッセージをコンタクトの発信者に送信してよい。
【0094】
このような段階1210~1250は、発信者の発話に対して人工知能が返答する1回の会話の過程を意味してよい。しかし、必要によっては、人工知能が先に出力音声を合成して発信者に送信したり、多数の会話が人工知能と発信者との間でなされたりしてもよいことは、当業者であれば容易に理解することができるであろう。
【0095】
他の実施形態として、コンタクトがメッセージ送受信を含む場合、電子機器1(110)は、音声認識や音声合成の過程を必要とせず、人工知能が含む会話処理モジュールによってコンタクトの要請としてコンタクトの発信者から受信したメッセージを分析して返答会話を生成し、生成された返答会話を含むメッセージをコンタクトの発信者に送信してよい。ここで、人工知能の会話処理モジュールは、上述したように、電子機器1(110)のアプリケーションによって実現されてもよいし、クラウド人工知能プラットフォーム320が含む会話処理モジュール323に対応してもよい。
【0096】
また他の実施形態として、人工知能を利用したコンタクトの処理は、コンタクトのためのサービスを提供するサーバによって実行されてもよい。例えば、サーバは、着信者と発信者との間のコンタクトのためのサービス(一例として、音声通話サービス、映像通話サービス、またはメッセージングサービス)を提供するシステムであってよい。このとき、電子機器1(110)は、図11を参照しながら説明した段階1150で、コンタクトのためのサービスを提供するサーバに人工知能を利用した会話の処理を要請してよい。この場合、サーバは、着信者の要請にしたがい、人工知能を利用してコンタクトの発信者と会話をしてコンタクトを処理し、会話の要約情報を生成して送信されるように実現されてよい。例えば、サーバは、図5を参照しながら説明したサーバ150に対応してよい。この場合、電子機器1(110)は、段階1150で、サーバから会話の要約情報を受信してよい。要約情報は、図6図8を参照しながら説明した要約文に対応してよく、電子機器1(110)のユーザである着信者がコンタクトを直接制御することができる状況になったときに着信者にレポートされてよい。
【0097】
図13は、本発明の一実施形態における、サーバのコンタクト制御方法の例を示したフローチャートである。本実施形態に係るコンタクト制御方法は、上述したサーバ150のようなコンピュータ装置によって実行されてよい。このとき、サーバ150のプロセッサ222は、メモリ221が含むオペレーティングシステムのコードや少なくとも1つのプログラムのコードによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ222は、サーバ150に格納されたコードが提供する制御命令にしたがってサーバ150が図13のコンタクト制御方法に含まれる段階1310~1360を実行するように、サーバ150を制御してよい。
【0098】
段階1310で、サーバ150は、ネットワークを介して発信者から着信者に対するコンタクトの要請を受信してよい。コンタクトとは、上述したように、音声通話や映像通話、またはメッセージの送受信を意味してよい。このとき、コンタクトの要請は、音声通話や映像通話の場合にはコール信号を含んでよく、メッセージの送受信の場合には発信者が送信するメッセージを含んでよい。サーバ150は、着信者に伝達されるコンタクトの要請を受信してよく、コンタクトの要請を着信者に伝達する前に段階1320を実行してよい。ここで、着信者は、上述した電子機器1(110)のユーザに対応してよい。
【0099】
段階1320で、サーバ150は、コンタクトの要請に対して着信者の直接制御が可能であるかを決定してよい。例えば、サーバ150は、着信者に対して登録された着信者のスケジュール情報、着信者に対して予め分析されたライフスタイル情報、および着信者の入力のうちの少なくとも1つとコンタクトの要請が受信された時刻を利用することで、着信者の直接制御が可能であるかを決定してよい。このとき、スケジュール情報は、電子機器1(110)に登録された着信者のスケジュール情報、および/またはオンライン上に登録された着信者のスケジュール情報をサーバ150が同期化して管理する情報であってよい。一方、ライフスタイル情報は、着信者の日課を持続的に分析した情報に基づき、現時刻に予測される着信者の状況に関する情報を含んでよい。例えば、毎朝6時から7時の間にジョギングをする着信者に対しては、午前6時から7時の間の状況は「運動中」であると決定されてよい。また、着信者が会社にいる時刻や家にいる時刻などに基づいて着信者の状況が細分化されてよい。このようなライフスタイル情報は、サーバ150が電子機器1(110)から受信する多様な情報に基づいてサーバ150で生成および管理されてよい。
【0100】
段階1330および段階1340で、サーバ150は、コンタクトの要請を着信者に伝達してよい。この場合、電子機器1(110)のユーザである着信者は、伝達されるコンタクトの要請にしたがい、電子機器1(110)で出力される通知に反応してコンタクトの要請を直接処理してよい。
【0101】
段階1330および段階1350で、サーバ150は、コンタクトの要請に対する着信者の直接制御が不可能な場合、人工知能を利用してコンタクトの発信者と会話をしてコンタクトを処理してよい。着信者がコンタクトの要請を直接処理することが困難な状況であると判断される場合、サーバ150は、コンタクトの要請を着信者に伝達せず、人工知能を利用してコンタクトを直接処理してよい。
【0102】
段階1360で、サーバ150は、会話の要約情報を生成して着信者に提供してよい。言い換えれば、着信者がコンタクトの要請を直接処理することができない場合、段階1350で、サーバ150が人工知能を利用して発信者と会話をしてコンタクトを直接処理してよく、段階1360で、その処理結果として要約情報を生成して着信者に提供してよい。
【0103】
実施形態によっては、サーバ150は、受信されたコンタクトの要請を直ぐに着信者に伝達してもよい。このとき、着信者の電子機器1(110)は、上述したスケジュール情報やライフスタイル情報、および/または着信者の入力などに基づいて着信者の直接制御が可能であるかを決定してよく、着信者の直接制御が不可能な場合には、コンタクトの処理要請をサーバ150に送信してよい。この場合、サーバ150は、コンタクトの処理要請の受信に応答して段階1350および段階1360のように人工知能を利用した応対を処理し、その処理結果として会話の要約情報を生成して着信者に提供してよい。電子機器1(110)に提供された要約情報は、着信者の直接制御が可能になったときに着信者にレポートされてよい。
【0104】
また、実施形態によっては、サーバ150が、スケジュールまたはアラームの登録のような会話の後処理を直接行ってもよい。例えば、サーバ150は、会話の内容に含まれた日付、時間、および場所のうちの少なくとも1つに関する情報を抽出し、抽出された少なくとも1つの情報とコンタクトの発信者に関する情報を関連させて着信者のためのスケジュールまたはアラームを登録してよい。登録されるスケジュールやアラームは、電子機器1(110)に同期化されてよい。
【0105】
サーバ150は、サーバ150で実現される人工知能を利用して発信者との会話を直接処理してもよいが、クラウド人工知能プラットフォーム320と連係して会話を処理してもよい。
【0106】
以上のように、本発明の実施形態によると、音声通話、映像通話、および/またはインスタントメッセージ受信などのように外部からユーザに伝達されるコンタクトの要請を、人工知能がユーザのスケジュールやライフスタイルを反映して処理することができる。また、人工知能応対に対する会話の要約文を生成して提供することにより、ユーザが人工知能を利用して自動処理された応対の内容を把握することができる。これに加え、ユーザがコンタクトの要請を直接処理する場合にも人工知能応対を選択することができるようにし、映像通話時にはプレビュー画面に自撮り映像を表示することで、映像通話の受諾前に自身の外見を点検できる時間を提供することができる。
【0107】
上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)および前記OS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
【0108】
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置(virtual equipment)、コンピュータ格納媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で格納されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてよい。
【0109】
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータで読み取り可能な媒体に記録されてよい。前記コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであってもよいし、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータで読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。このような記録媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散存在するものであってもよい。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。
【0110】
以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
【0111】
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
【符号の説明】
【0112】
110、120、130、140:電子機器
150、160:サーバ
170:ネットワーク
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13