IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ Starley株式会社の特許一覧

特許7628264情報処理システム、情報処理方法及びプログラム
<>
  • 特許-情報処理システム、情報処理方法及びプログラム 図1
  • 特許-情報処理システム、情報処理方法及びプログラム 図2
  • 特許-情報処理システム、情報処理方法及びプログラム 図3
  • 特許-情報処理システム、情報処理方法及びプログラム 図4
  • 特許-情報処理システム、情報処理方法及びプログラム 図5
  • 特許-情報処理システム、情報処理方法及びプログラム 図6
  • 特許-情報処理システム、情報処理方法及びプログラム 図7
  • 特許-情報処理システム、情報処理方法及びプログラム 図8
  • 特許-情報処理システム、情報処理方法及びプログラム 図9
  • 特許-情報処理システム、情報処理方法及びプログラム 図10
  • 特許-情報処理システム、情報処理方法及びプログラム 図11
  • 特許-情報処理システム、情報処理方法及びプログラム 図12
  • 特許-情報処理システム、情報処理方法及びプログラム 図13
  • 特許-情報処理システム、情報処理方法及びプログラム 図14
  • 特許-情報処理システム、情報処理方法及びプログラム 図15
  • 特許-情報処理システム、情報処理方法及びプログラム 図16
  • 特許-情報処理システム、情報処理方法及びプログラム 図17
  • 特許-情報処理システム、情報処理方法及びプログラム 図18
  • 特許-情報処理システム、情報処理方法及びプログラム 図19
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2025-01-31
(45)【発行日】2025-02-10
(54)【発明の名称】情報処理システム、情報処理方法及びプログラム
(51)【国際特許分類】
   G06F 3/01 20060101AFI20250203BHJP
   G06F 3/0487 20130101ALI20250203BHJP
【FI】
G06F3/01 510
G06F3/0487
【請求項の数】 13
(21)【出願番号】P 2024074152
(22)【出願日】2024-05-01
【審査請求日】2024-12-05
【早期審査対象出願】
(73)【特許権者】
【識別番号】523407012
【氏名又は名称】Starley株式会社
(74)【代理人】
【識別番号】110002789
【氏名又は名称】弁理士法人IPX
(72)【発明者】
【氏名】内波 生一
(72)【発明者】
【氏名】鴻池 祐輔
(72)【発明者】
【氏名】丸橋 得真
【審査官】亀澤 智博
(56)【参考文献】
【文献】国際公開第2018/134960(WO,A1)
【文献】米国特許出願公開第2020/0349950(US,A1)
【文献】特開2020-053917(JP,A)
【文献】特開2018-207239(JP,A)
【文献】特開2018-125646(JP,A)
【文献】特開2009-164749(JP,A)
【文献】国際公開第2008/107984(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/048 - 3/04895
G06F 3/16
G06N 3/00 - 3/126
H04M 1/00
H04W 4/00 -99/00
(57)【特許請求の範囲】
【請求項1】
少なくとも1以上のプロセッサを備える情報処理システムであって、
前記プロセッサが、
取得ステップでは、対話型の人工知能モジュールのUI(User Interface)として機能する第1ユーザ端末から、前記UIとして機能する第2ユーザ端末の接近の有無を表す情報を取得し、
挙動制御ステップでは、前記UIの挙動を制御し、前記第1ユーザ端末から前記第2ユーザ端末の接近を示す前記情報が取得された場合、前記第1ユーザ端末の前記UIの挙動を変化させ
前記第2ユーザ端末は、特定音を出力する機能を備え、
前記情報は、前記第1ユーザ端末の周辺の音を示す情報であり、
前記プロセッサが、
前記挙動制御ステップでは、前記特定音を含む音を示す前記情報が取得された場合に、前記挙動を変化させる、
情報処理システム。
【請求項2】
請求項に記載の情報処理システムにおいて、
前記特定音には、複数種類の音が含まれ、
前記プロセッサが、
音制御ステップでは、種類を順次切り替えながら前記特定音を前記第2ユーザ端末に出力させる、
情報処理システム。
【請求項3】
請求項に記載の情報処理システムにおいて、
前記プロセッサが、
周辺音取得ステップでは、前記第2ユーザ端末の周辺の音を取得し、
前記音制御ステップでは、取得された前記周辺の音に応じた音を前記特定音として前記第2ユーザ端末に出力させる、
情報処理システム。
【請求項4】
請求項に記載の情報処理システムにおいて、
前記プロセッサが、
位置取得ステップでは、前記第2ユーザ端末の位置を示す位置情報を取得し、
前記音制御ステップでは、取得された前記位置情報が示す位置に応じた音を前記特定音として前記第2ユーザ端末に出力させる、
情報処理システム。
【請求項5】
請求項1に記載の情報処理システムにおいて、
前記プロセッサが、
履歴取得ステップでは、前記第2ユーザ端末を介した前記人工知能モジュールとの対話履歴を取得し、
前記挙動制御ステップでは、取得された前記対話履歴に応じて前記第1ユーザ端末の前記UIの挙動を変化させる、
情報処理システム。
【請求項6】
請求項1に記載の情報処理システムにおいて、
前記プロセッサが、
前記挙動制御ステップでは、前記第1ユーザ端末を介して対話する前記人工知能モジュールと前記第2ユーザ端末を介して対話する前記人工知能モジュールとが互いに対話するように、前記第1ユーザ端末の前記UIの挙動を制御する、
情報処理システム。
【請求項7】
請求項1に記載の情報処理システムにおいて、
前記プロセッサが、
要求ステップでは、前記第2ユーザ端末の接近を示す前記情報が前記第1ユーザ端末から取得された場合、前記第1ユーザ端末の位置の前記第2ユーザ端末への通知の許諾を前記第1ユーザ端末のユーザに要求し、
第1通知ステップでは、前記許諾がされた場合、前記第1ユーザ端末の位置を、前記第2ユーザ端末を介して前記第2ユーザ端末のユーザに通知する、
情報処理システム。
【請求項8】
請求項1に記載の情報処理システムにおいて、
前記プロセッサが、
蓄積ステップでは、前記接近の履歴を蓄積し、
前記挙動制御ステップでは、蓄積された前記履歴に応じて前記UIの挙動を変化させる、
情報処理システム。
【請求項9】
請求項1に記載の情報処理システムにおいて、
前記プロセッサが、
前記取得ステップでは、前記情報を繰り返し取得し、
前記挙動制御ステップでは、前記第1ユーザ端末から前記第2ユーザ端末の接近を示す前記情報が取得され続けている期間と、当該期間が終了してから所定の期間とにおいて、前記UIの挙動を変化させる、
情報処理システム。
【請求項10】
請求項1に記載の情報処理システムにおいて、
前記プロセッサが、
登録受付ステップでは、前記第1ユーザ端末に対応付けた対話の材料の登録を受け付け、
前記挙動制御ステップでは、登録された前記対話の材料に応じて前記第1ユーザ端末の前記UIの挙動を変化させる、
情報処理システム。
【請求項11】
請求項1に記載の情報処理システムにおいて、
前記プロセッサが、
記憶制御ステップでは、前記第2ユーザ端末の接近を示す前記情報が前記第1ユーザ端末から取得された場合、前記第1ユーザ端末の前記UIの挙動を両端末の組合せに対応付けて記憶し、
第2通知ステップでは、前記組合せの前記情報が再び取得されると、当該組合せに対応付けて記憶されている前記UIの挙動を、前記第1ユーザ端末を介してユーザに通知する、
情報処理システム。
【請求項12】
情報処理方法であって、
情報処理システムが備えるプロセッサが、
請求項1~請求項11の何れか1つに記載の情報処理システムの各ステップを実行する、
情報処理方法。
【請求項13】
プログラムであって、
コンピュータに、請求項1~請求項11の何れか1つに記載の情報処理システムの各ステップを実行させる
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理システム、情報処理方法及びプログラムに関する。
【背景技術】
【0002】
特許文献1には、ユーザの通信端末から質問メッセージを受信し、質問に対する回答メッセージをユーザの通信端末に送信し、質問と回答を組み合わせた知識情報を蓄積する第1のデータベースと、受信した質問メッセージを解析して、その質問メッセージに対応する知識情報を第1のデータベースから検索し、メッセージ解析部により得られた知識情報を用いて回答メッセージを生成するAIチャットボットの技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2021-131755号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1のようなAI(人工知能モジュール)との対話を可能にするサービスにおいては、対話型AIの存在に対するユーザの認識を高めることが、利用者を増やす上で重要である。
【0005】
本発明では上記事情に鑑み、対話型AIの存在感を高めることができる情報処理システム等を提供することとした。
【課題を解決するための手段】
【0006】
本発明の一態様によれば、少なくとも1以上のプロセッサを備える情報処理システムが提供される。この情報処理システムでは、プロセッサが、取得ステップでは、対話型の人工知能モジュールのUI(User Interface)として機能する第1ユーザ端末から、UIとして機能する第2ユーザ端末の接近の有無を表す情報を取得する。挙動制御ステップでは、UIの挙動を制御し、第1ユーザ端末から第2ユーザ端末の接近を示す情報が取得された場合、第1ユーザ端末のUIの挙動を変化させる。
【0007】
このような態様によれば、対話型AIの存在感を高めることができる。
【図面の簡単な説明】
【0008】
図1】自動対話システム1の全体構成の一例を示す図である。
図2】サーバ装置10のハードウェア構成の一例を示す図である。
図3】ユーザ端末20のハードウェア構成の一例を示す図である。
図4】自動対話処理の一例を示すアクティビティ図である。
図5】表示されたログイン画面の一例を示す図である。
図6】対話型AI画面の一例を示す図である。
図7】対話型AIとの対話の一例を示す図である。
図8】蓄積された対話履歴の一例を示す図である。
図9】特定音の一例を示す図である。
図10】特定音が検知される場合の一例を示す図である。
図11】接近時の対話の一例を示す図である。
図12】接近時の対話の別の一例を示す図である。
図13】接近時の対話の別の一例を示す図である。
図14】接近時の対話の別の一例を示す図である。
図15】接近時の対話の別の一例を示す図である。
図16】位置の通知の一例を示す図である。
図17】接近時の対話の別の一例を示す図である。
図18】対話材料の登録画面の一例を示す図である。
図19】接近時の対話の別の一例を示す図である。
【発明を実施するための形態】
【0009】
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
【0010】
ところで、一実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。
【0011】
また、一実施形態に係る種々の情報処理において、入力と、入力に応じた出力とが実現されうる。ここで、入力の結果として出力が得られれば、かかる情報処理において参照される情報(以下、参照情報と称する。)の態様は、限定されない。参照情報は、例えば、データベース、ルックアップテーブル、所定の関数(統計学的手法によって構築された、回帰式等の判定式を含む。)等のルールベースの情報でもよいし、入力と出力との相関を予め学習させた学習済みモデルでもよいし、プロンプトを入力することで所望の結果を出力可能な大規模言語モデルでもよい。
【0012】
また、一実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、一実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。
【0013】
さらに、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。また、プロセッサは、汎用プロセッサでもよいし、専用の回路でもよい。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
【0014】
<実施形態1>
以下、機械とユーザとの対話を実現する自動対話システムの実施形態1について説明する。
1.システム構成
図1は、自動対話システム1の全体構成の一例を示す図である。図1においては、自動対話システム1が備える各装置と、それらの装置を使用するユーザの概要が示されている。自動対話システム1は、機械とユーザとの対話を実現するための自動対話処理を実行する情報処理システムである。
【0015】
自動対話システム1は、通信回線2と、サーバ装置10と、複数のユーザ端末20とを備える。通信回線2は、特に限定されるものではないが、例えば、インターネット網によって構成されている。また、通信回線2は、ローカルエリアネットワーク、移動体通信網及びVPN(Virtual Private Network)等を含んでいてもよい。通信回線2は、自回線に接続する装置同士のデータのやり取りを仲介する。図1の例では、通信回線2には、サーバ装置10が有線で接続され、複数のユーザ端末20が無線で接続されている。なお、各装置の通信回線2との接続は有線でも無線でもよい。
【0016】
サーバ装置10は、自動対話処理を実行する情報処理装置である。サーバ装置10は、AIモジュール3と、対話履歴データベース4とを備えている。AIモジュール3は、AI(Artificial Intelligence)の技術を用いて、例えば、人からの発言が入力されるとその発言に対応する返答を出力する対話機能を実現するように調整(チューニング)されたモジュールである。AIモジュール3が実現する対話機能によりユーザが対話する仮想の人物を以下では「対話型AI」と言う。
【0017】
AIモジュール3は、例えば、LLM(Large Language Models)と呼ばれる大規模なデータセットを用いた機械学習によって精度を高めた自然言語処理モデルを有している。LLMで機械学習をすることで、AIモジュール3は多様な対話を実現可能である。AIモジュール3により実現される対話機能は、単にユーザからの質問に回答するだけでなく、例えば、ユーザの発言に相槌を打ったり、現在の話題を発展させたり、話題を転換させたり、新しい話題を提供したり、過去の話題に触れたりすることができる。
【0018】
また、AIモジュール3は、対話機能以外にも、スマートスピーカ等で実現されているように、ユーザから対話において指示された特定のタスクを実行するタスク実行機能も実現するように調整されている。特定のタスクとは、例えば、インターネットでの検索、文章の作成、メールの送信及び特定のサイトで提供されているサービス(予約サービス等)の利用等である。なお、AIモジュール3は、対話機能及びタスク実行機能とは異なる他の機能も実現するよう調整可能である。
【0019】
対話履歴データベース4は、ユーザと対話型AI(AIモジュール3)とが行った対話の履歴が格納されるデータベースである。対話履歴データベース4には、例えば、ユーザの発言及び対話型AIの発言が、それらの発言がされた時刻情報に対応付けて格納されている。また、対話履歴データベース4には、他にも、対話がされたときにユーザ端末20が取得可能な情報(位置情報及び天気情報等)が対話履歴に対応付けて格納される。
【0020】
ユーザ端末20は、ユーザによって使用される持ち運び可能な端末であり、例えばスマートフォン又はタブレット端末等である。ユーザ端末20は、対話型AIのUI(User Interface)として機能する。対話型AIのUIとは、擬似的な対話相手である対話型AIの外観及び挙動等をユーザに認識させるためのインターフェースであり、具体的には、画像(文字画像を含む)を表示する表示機能、音(音声を含む)を出力する発音機能、ユーザ端末20の筐体を振動させるバイブレーション機能及び光源を点灯させる発光機能等によって実現される。これらの対話型AIのUIの挙動は、サーバ装置10によって制御される。
【0021】
サーバ装置10は、ユーザ端末20を利用するユーザを認証する認証処理を実行する。サーバ装置10は、自動対話システム1を利用するユーザを認証するための認証情報(ユーザID及びパスワード等)を記憶し、認証情報を入力したユーザを認証する。サーバ装置10は、ユーザを認証することで、データへのアクセスを制限したり、ユーザが入力したデータに識別情報を付与して識別可能にしたりすることができる。
【0022】
2.ハードウェア構成
以下、実施形態1に係るハードウェア構成を説明する。
図2は、サーバ装置10のハードウェア構成の一例を示す図である。サーバ装置10は、制御部11と、記憶部12と、通信部13と、バス14とを備える。バス14は、サーバ装置10が備える各部を電気的に接続する。
【0023】
(制御部11)
制御部11は、少なくとも1つのプロセッサを有している。少なくとも1つのプロセッサは、例えば不図示の中央処理装置(Central Processing Unit:CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、1以上のIntegrated Circuit、1以上のDiscrete Circuit、及び、これらの組合せによって構成されてもよい。
【0024】
制御部11は、記憶部12に記憶された所定のプログラムを読み出すことによって、自動対話システム1に係る種々の機能を実現するコンピュータである。すなわち、記憶部12に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部11によって具体的に実現されることで、制御部11に含まれる各機能部として実行されうる。なお、制御部11は単一であることに限定されず、機能ごとに複数の制御部11を有するように実施してもよい。またそれらの組合せであってもよい。
【0025】
(記憶部12)
記憶部12は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部11によって実行される自動対話システム1に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)やHDD(Hard Disk Drive)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。記憶部12は、制御部11によって実行される自動対話システム1に係る種々のプログラムや変数等を記憶している。
【0026】
(通信部13)
通信部13は、通信モジュールによって構成される。通信モジュールは、IEEE802.11a/b/g/n/ac/ax、LTE、5G、6G等の規格に準拠する無線通信モジュールであってもよく、IEEE802.3等の規格に準拠する有線通信モジュールであってもよい。通信部13は、サーバ装置10から種々の電気信号を外部の構成要素に送信可能に構成される。また、通信部13は、外部の構成要素からサーバ装置10への種々の電気信号を受信可能に構成される。さらに好ましくは、通信部13がネットワーク通信機能を有し、これにより通信回線2を介して、サーバ装置10と外部機器との間で種々の情報を通信可能に実施してもよい。
【0027】
図3は、ユーザ端末20のハードウェア構成の一例を示す図である。ユーザ端末20は、制御部21と、記憶部22と、通信部23と、入力部24と、出力部25と、バス26とを備える。バス26は、ユーザ端末20が備える各部を電気的に接続する。制御部21、記憶部22及び通信部23は、図2に示す制御部11、記憶部12及び通信部13と、スペック、モデル等は異なっていてもよいが、同様のハードウェアである。
【0028】
(入力部24)
入力部24は、キー、ボタン、タッチスクリーン及びマウス等を有し、ユーザによる入力を受け付ける。また、入力部24は、音を検出するセンサであるマイクロフォンを有し、マイクロフォンが検出した音を示す音データを制御部21に出力する。入力部24は、マイクロフォンの機能(音検出機能)により、例えば、ユーザが発した音声やユーザ端末20の周辺で発生する音などの入力を受け付ける。
【0029】
(出力部25)
出力部25は、ディスプレイ及びスピーカ等を有し、ディスプレイの表示面に画面、画像、アイコン、テキスト等といった、ユーザが視認可能な態様で生成された視覚情報を出力し(表示機能)、スピーカにより人の声等を表す音を出力する(発音機能)。また、出力部25は、振動を出力する振動手段を有し、制御部21により制御されてユーザ端末20の筐体を振動させる(バイブレーション機能)。また、出力部25は、LED(Light Emitting Diode)等の光源を有し、制御部21により制御されて光を出力する(発光機能)。また、出力部25は、GPS(Global Positioning System)等の測位手段を有し、自端末の位置を示す位置情報を出力する(測位機能)。
【0030】
3.情報処理
以下、実施形態に係る情報処理として、上述した自動対話処理について説明する。以下の説明では、サーバ装置10及びユーザ端末20を各自動対話処理の主体として記載するが、それらの情報処理は、各装置の制御部が有するプロセッサによって実行されている。
【0031】
図4は、自動対話処理の一例を示すアクティビティ図である。図4では、1台のユーザ端末20が示されているが、複数のユーザ端末20が同時にログインして自動対話システム1を利用しているものとする。図4に示す自動対話処理は、ユーザ端末20に自動対話サービスのログイン画面が表示されることを契機に開始される。
【0032】
図5は、表示されたログイン画面の一例を示す図である。図5に示すログイン画面C1には、「対話型AIと話しましょう!」という文字列と、ユーザIDの入力欄D11と、パスワードの入力欄D12と、ログインボタンB11とが表示されている。ユーザ端末20は、ユーザにより入力欄D11及びD12への入力及びログインボタンB11への操作を、ユーザのログイン操作として受け付ける(アクティビティA11)。ユーザ端末20は、ログイン操作により入力されたユーザID及びパスワードを認証情報としてサーバ装置10に送信する。
【0033】
サーバ装置10は、送信されてきた認証情報に基づいてユーザを認証する(アクティビティA12)。次に、サーバ装置10は、対話関連処理の開始を指示する指示データをユーザ端末20に送信する(アクティビティA13)。対話関連処理は、対話型AIとの対話に関連する処理であり、対話処理と、接近検知処理とを含む。対話処理とは、ユーザと対話型AIとが対話する際に行なわれる処理であり、接近検知処理とは、対話型AIを利用するユーザ端末20同士の接近を検知するための処理である。
【0034】
ユーザ端末20は、A13の指示に従い、対話処理を開始する(アクティビティA21)。対話処理には、ユーザ端末20が有する対話型AIのUIを動作させる処理が含まれ、具体的には、対話型AIの外観のイメージを表すアバターを表示する処理(表示機能を動作させる処理)、対話型AIによる発言を示す文字列等の画像を表示する処理(表示機能を動作させる処理)、対話型AIによる発言を示す音声を出力する処理(発音機能を動作させる処理)、ユーザ端末20の筐体を振動させる処理(バイブレーション機能を動作させる処理)及び光源を点灯させる処理(発光機能を動作させる処理)等が含まれる。
【0035】
また、対話処理には、ユーザによる対話の入力を受け付ける処理が含まれ、具体的には、ユーザの音声を取得して音声を示す音データをサーバ装置10に送信する処理、及び、ユーザの操作を受け付けて操作内容を示す操作データをサーバ装置10に送信する処理等が含まれる。
【0036】
サーバ装置10は、ユーザ端末20と連動して、ユーザと対話型AIとの対話を制御する対話制御処理を実行する(アクティビティA22)。対話制御処理には、対話型AIのUIの挙動を制御する処理が含まれ、具体的には、ユーザ端末20に対して、アバターの表示及び動きを指示するアバター処理、対話型AIの発言内容を示す文字列を表示させる表示処理、対話型AIの発言内容を示す音声を出力させる発声処理、ユーザ端末20の筐体を振動させる振動処理、光源を点灯させる点灯処理、ユーザ端末20から送信されてきた音声又は操作データに基づいて対話型AIの発言内容を決定する発言処理、及び、対話型AIのUIの挙動を決定する挙動処理等が含まれる。
【0037】
上記のアバター処理及び表示処理等は、例えば、全てAIモジュール3の機能によって実行される。その場合、ユーザの発言を入力とし、対話型AIが行うべき処理を正解情報とした機械学習を行うことで、その機能が実現される。なお、一部の処理がAIモジュール3以外の機能によって実行されてもよい。その場合、サーバ装置10は、例えば、ユーザの発言を含めた状況と対話型AIが行うべき処理とを対応付けた参照情報を用いて、それらの対話制御処理を実行する。
【0038】
サーバ装置10による対話制御処理には、通常時の処理と、接近時の処理とが含まれる。接近時とは、対話型AIを利用しているユーザ端末20同士が接近している期間のことである。通常時とは、対話型AIを利用しているユーザ端末20同士が接近していない期間、すなわち、接近時以外の期間のことである。図4の例では、サーバ装置10は、最初は、通常時の対話制御処理を実行する。
【0039】
ユーザ端末20は、A21と並行して、接近検知処理を開始する(アクティビティA31)。ユーザ端末20は、具体的には、ユーザ端末20同士の接近を通知するために定められた特定の音(以下「特定音」と言う)を出力する処理を接近検知処理として実行する。特定音については後ほど詳しく説明する。以下ではまず、ユーザが初めてログインしたときに行なわれる対話型AIとの自己紹介の対話について説明する。ユーザ端末20は、対話処理により、ユーザと対話型AIとの対話が行なわれる画面である対話型AI画面を表示する。
【0040】
図6は、対話型AI画面の一例を示す図である。図6の例では、ユーザ端末20は、対話型AI画面C2を表示している。なお、ユーザ端末20による対話型AI画面の表示は、サーバ装置10の制御に従って行なわれているので、サーバ装置10が対話型AI画面C2をユーザ端末20に表示させているとも言える(以降の表示においても同様)。対話型AI画面C2には、特定音アイコンE21と、AI外観画像F21と、対話終了ボタンB21とが表示されている。
【0041】
特定音アイコンE21は、自端末(ユーザ端末20)が特定音を出力していることを示す画像である。AI外観画像F21は、対話型AIの外観をイメージさせるための画像であり、対話中に表示される。なお、AI外観画像F21は人の顔を模した画像であるが、動物の画像又は図形の画像等がAI外観画像として用いられてもよい。対話終了ボタンB21は、対話型AIとの対話を終了させる場合に操作する操作用画像である。
【0042】
対話型AIは、ユーザとの対話が初めてである場合、自己紹介と相手の名前を尋ねる発言を行う。図6の例では、ユーザ端末20は、「初めまして。私は対話型AIのアルファと言います。あなたのお名前はなんですか?」という音声V21を対話型AIの発言を示す音声として出力している。このような対話型AIの発言は、サーバ装置10の制御に従って行なわれているので、サーバ装置10が対話型AIに発言させているとも言える(以降の発言についても同様)。音声V21を聞いたユーザは、例えば、自分の名前を含む自己紹介の発言を対話型AIに対して行う。対話型AIは、ユーザの発言に対してさらに返事をする。
【0043】
図7は、対話型AIとの対話の一例を示す図である。図7の例では、ユーザは、「初めまして。僕の名前はトムだよ。」という発言を示す音声V11を発している。これに対し、対話型AIは、「では、あなたのことをトムと呼びますね!」という返事を示す音声V22を発している。サーバ装置10は、このようにユーザと対話型AIとの対話が行なわれた場合、対話履歴を対話履歴データベース4に蓄積する(アクティビティA23)。
【0044】
図8は、蓄積された対話履歴の一例を示す図である。図8では、対話履歴データベース4に格納されている情報が示されている。対話履歴データベース4には、ユーザID及びパスワードという認証情報に対応付けて、「呼び名」、「AI名称」、「ユーザ属性」、「時刻情報」、「位置情報」、「外部情報」及び「発言内容」等が対話履歴として格納されている。図7で対話型AIと対話した「トム」は「U0001」というユーザIDのユーザであるものとする。
【0045】
呼び名は、対話型AIがユーザを呼ぶときの名前であり、図8の例では「トム」という呼び名が格納されている。AI名称は、対話型AIの名称が格納されている。図8の例では「アルファ」という名称が初期値として格納されている。ユーザ属性は、ユーザの年齢、性別、居住地域及び職種等の属性である。ユーザ属性は、対話の中でユーザが話したときに格納される。時刻情報は、対話履歴を格納したときの年月日及び時刻を示す情報であり、各対話履歴に対応付けて格納される。位置情報は、対話がされたときのユーザ端末20の位置を示す情報である。
【0046】
外部情報は、対話がされたときに外部システムから取得可能な情報であり、例えば、天気の情報である。AIモジュール3は、例えばユーザから今日の天気を聞かれた場合、上述したタスク実行機能によりインターネットから検索又は天気情報サービスを利用して天気情報を取得するので、サーバ装置10は、取得された天気情報を外部情報として対話履歴データベース4に格納する。また、サーバ装置10は、対話における発言内容を示すテキストデータを格納する。
【0047】
アクティビティA21、A22及びA23が繰り返し実行されることで、ユーザ及び対話型AIの対話が繰り返し行なわれ、対話履歴が蓄積される。対話履歴は、各ユーザのユーザIDに対応付けて蓄積されていく。図8の例では、「トム」という呼び方のユーザ以外に、「エマ」、「マイク」及び「ソフィア」等の呼び方のユーザの対話履歴が各々のユーザIDに対応付けて蓄積されている。なお、呼び方、AI名称及びユーザ属性は、対話型AIとの対話で話題になったときに格納されるが、一度格納されたあとも、対話によって変更可能(呼び方を変えてもらうなど)である。
【0048】
サーバ装置10は、対話型AIをユーザと対話させる際、そのユーザの対話履歴を参照する。サーバ装置10は、例えば、ユーザが一度ログオフして再度ログインした場合、最初に決めた呼び方でユーザのことを呼びながら対話させる。また、サーバ装置10は、ユーザから聞いたユーザ属性を参照して話題にしたり、現在時刻や現在位置と同じ時刻又は同じ位置で過去に行った対話における発言内容を参照して話題にしたりする。
【0049】
続いて、上述した特定音について説明する。
図9は、特定音の一例を示す図である。図9では、縦軸が波長、横軸が時刻を示すグラフが表されている。図9の例では、時刻t0にログインが行なわれ、特定音S1の出力が開始されている。ユーザ端末20は、時刻t0から時刻t1まで特定音S1を出力し、時刻t1から時刻t2までは特定音S2を出力している。その後、ユーザ端末20は、時刻t3、t4と一定の間隔で特定音S1及びS2を切り替えながら交互に出力している。特定音S1及びS2は、いずれも、可聴域外の音である。特定音S1は、可聴域よりも低い波長の音で、特定音S2は、可聴域よりも高い波長の音である。
【0050】
スマートフォン等には可聴域の範囲で音を出力可能なスピーカが用いられることが多いが、自動対話システム1においては、可聴域外の音も出力可能なスピーカが用いられているものとする。可聴域外の音を出力することで、特定音がユーザや周辺の人に聞こえないようにすることができる。なお、スピーカが可聴域外の音を出力可能でなかったとしても、可聴域の上限付近及び下限付近の音は聞こえにくいので、ユーザ端末20は、それらの音を特定音として出力することで、特定音がユーザや周辺の人に気づかれにくいようにすることができる。
【0051】
ユーザ端末20は、特定音を出力し続けながら、並行して、マイクロフォンにより周辺音(ユーザ端末20の周辺の音)を取得し、取得した周辺音を示す音データをサーバ装置10に送信する(アクティビティA32)。サーバ装置10は、送信されてきた音データを受け取り、受け取った音データに基づいて、端末同士(ユーザ端末20同士)の接近を検知する処理を行う(アクティビティA33)。図4の例では、他のユーザ端末20も図9に示す特定音S1及びS2を出力しているものとする。端末同士の接近が検知される場合について図10を参照して説明する。
【0052】
図10は、特定音が検知される場合の一例を示す図である。2台のユーザ端末20-1及び20-2がそれぞれ移動してすれ違おうとしている様子が示されている。ユーザ端末20-1はトムが利用する端末であり、ユーザ端末20-2は図8に示すエマが利用する端末であるものとする。図10では、ユーザ端末20-1が出力する特定音を取得可能な領域R1と、ユーザ端末20-2が出力する特定音を取得可能な領域R2とがそれぞれ示されている。
【0053】
図10(a)では、各ユーザ端末20は互いの領域外に存在しているが、その後、ユーザ端末20-1及び20-2がすれ違うように移動することで、図10(b)に示すように、各ユーザ端末20が互いの領域内に存在するようになっている。
【0054】
図10(a)の状態では、ユーザ端末20-1及び20-2から送信されてくる音データが示す周辺音に特定音S1又はS2が含まれないので、サーバ装置10は、これらのユーザ端末20について、端末同士の接近を検知しない。図10(b)の状態では、ユーザ端末20-1及び20-2から送信されてくる音データが示す周辺音に特定音S1又はS2が含まれるようになっているので、サーバ装置10は、これらのユーザ端末20について、端末同士の接近を検知する。
【0055】
なお、ユーザ端末20のスピーカ及びマイクロフォンの配置等によっては、自端末が出力した特定音(以下「自端末音」と言う)が周辺音に含まれる場合がある。その場合、サーバ装置10は、例えば、周辺音から、その周辺音を取得したユーザ端末20の自端末音を除去する処理を行う。サーバ装置10は、例えば、周辺音に最初から含まれ且つ強度が変化しない特定音を自端末音と判断し、その自端末音を周辺音から除去した上で、除去後の音に特定音が含まれているか否かを判断する。
【0056】
サーバ装置10は、端末同士の接近を検知すると、接近を検知したユーザ端末20に対して接近時の対話制御処理を実行する(アクティビティA41)。ユーザ端末20は、サーバ装置10による接近時の対話制御処理に従い、対話処理を実行する(アクティビティA42)。サーバ装置10は、ユーザ端末20と連携して行なわれた対話の履歴を蓄積する(アクティビティA43)。接近時の対話について、図11以降を参照して説明する。
【0057】
図11は、接近時の対話の一例を示す図である。図11の例では、対話型AI画面C2に、接近検知アイコンE22が表示されている。サーバ装置10は、他のユーザ端末20との接近が検知された場合、接近検知アイコンE22を表示させて他のユーザ端末20が接近していることを視覚的に通知する。また、サーバ装置10は、AI外観画像F21を驚いたような表情の画像に切り替え、対話型AIに「おやっ。近くにエマさんと対話型AI仲間のベータ君がいますね。」という発言を示す音声V23を出力させている。このように、サーバ装置10は、端末同士の接近が検知されたことを契機に対話型AIのUIの制御を変化させる。
【0058】
サーバ装置10は、ユーザ端末20-1との接近を検知したユーザ端末20-2のユーザである「エマ」のユーザIDに対応付けて対話履歴データベース4に格納されている対話履歴を参照し、エマに関する情報を含む発言をさせている。図11の例では、サーバ装置10は、エマの対話履歴のうち「呼び方」及び「AI名称」を参照することで、「エマ」及び「ベータ」という名前を含む発言を対話型AIにさせている。
【0059】
図12は、接近時の対話の別の一例を示す図である。図12の例では、サーバ装置10は、AI外観画像F21をウィンクする表情の画像に切り替え、対話型AIに「ベータ君達は駅前の新しいお店の話をしていたようですよ!」という発言を示す音声V24を出力させている。サーバ装置10は、エマの対話履歴のうち「発言内容」を参照することで、エマと対話型AIのベータとが話していた内容を含む発言を対話型AIにさせている。
【0060】
図13は、接近時の対話の別の一例を示す図である。図13の例では、サーバ装置10は、対話型AIに「ベータ君達とは一昨日もすれ違っていますね。そのときは雨が降っていました。」という発言を示す音声V25を出力させている。サーバ装置10は、端末同士が接近したことを検知すると、接近時の対話履歴を、接近相手を示す接近フラグを付与してから蓄積する。サーバ装置10は、エマの対話履歴にトムとの接近フラグが付与されている場合、その接近フラグが付与されている対話履歴を参照して、発言内容を決定する。サーバ装置10は、図13の例では、接近フラグが付与されている「時刻情報」及び「外部情報」を参照し、過去に接近した時期とそのときの天気とを含む発言を対話型AIにさせている。
【0061】
図4に戻る。サーバ装置10は、接近時の対話制御処理を行っているユーザ端末20から送信されてきた音データが示す周辺音に基づいて接近状態が終了したか否かを判断し(アクティビティA44)、終了していない(NO)と判断した場合はA41(接近時の対話制御処理)及びA43(対話履歴の蓄積)を繰り返し行う。サーバ装置10は、接近状態が終了した(YES)と判断すると、A22に戻って、通常時の対話制御処理を実行する。
【0062】
対話型AI画面C2において対話終了ボタンB21が操作されるまでは、アクティビティA21~A23、A31~A33、A41~A44の処理が繰り返し実行される。ユーザ端末20は、対話終了ボタンB21への操作を受け付けると(アクティビティA51)、対話の終了を指示する終了指示データをサーバ装置10に送信する。サーバ装置10は、終了指示データを受け取ると、対話制御処理を終了する(アクティビティA52)。
【0063】
以上のとおり、図1に示す複数のユーザ端末20は、いずれも、対話型のAIモジュール3のUIとして機能する。複数のユーザ端末20には、第1ユーザが利用する第1ユーザ端末(例えばトムが利用するユーザ端末20-1)と、第2ユーザが利用する第2ユーザ端末(例えばエマが利用するユーザ端末20-2)とが含まれる。また、サーバ装置10は、端末同士の接近の有無を表す情報(以下「接近通知情報」と言う)を取得する取得部の一例として機能する。
【0064】
サーバ装置10(取得部の一例)は、第1ユーザ端末から、第2ユーザ端末についての接近通知情報を取得する。サーバ装置10は、図4及び図10の例では、A33でユーザ端末20-1から送信されてきた音データを受け取っている。この音データは、ユーザ端末20-1の周辺音を示すデータであり、この周辺音に特定音が含まれるか否かによって、ユーザ端末20-1へのユーザ端末20-2の接近の有無が表されている。このように、サーバ装置10は、音データを受け取ることで、第1ユーザ端末(図10の例ではユーザ端末20-1)から、第2ユーザ端末(図10の例ではユーザ端末20-2)の接近の有無を表す接近通知情報を取得している。
【0065】
また、サーバ装置10は、対話型AIのUIの挙動を制御する挙動制御部の一例として機能する。サーバ装置10は、第1ユーザ端末及び第2ユーザ端末を含む複数のユーザ端末20において、それぞれ対話型AIのUIの挙動を制御する。そして、サーバ装置10は、第1ユーザ端末から第2ユーザ端末の接近を示す情報が接近通知情報として取得された場合、第1ユーザ端末のUIの挙動を変化させる。
【0066】
サーバ装置10は、第1ユーザ端末における対話型AIのUIについて、通常時を示す図7の例では、第1ユーザ端末のユーザであるトムの対話履歴に基づいて発言するよう挙動を制御していたが、接近時を示す図11の例では、第2ユーザ端末のユーザであるエマの対話履歴に基づいて発言するよう、挙動を変化させている。このような態様によれば、ユーザが対話している対話型AIとは別の対話型AIが近くにいることを挙動の変化により気づかせることができるので、端末同士が接近しても挙動が変化しない場合に比べて、対話型AIの存在感を高めることができる。
【0067】
また、ユーザ端末20(第2ユーザ端末を含む)は、特定音を出力する機能(図3に示す発音機能)を備えている。特定音とは、他のユーザ端末20に対して自端末の接近を通知するための音であり、図9で説明した特定音S1及びS2はいずれも特定音の一例である。そして、サーバ装置10(検知部の一例)は、接近通知情報が第1ユーザ端末の周辺の音を示す情報であり、かつ、特定音を含む音を示す接近通知情報が取得された場合に、第1ユーザ端末のUIの挙動を変化させる。
【0068】
なお、ユーザ端末20は、特定音の代わりにBluetooth(登録商標)又はWiFi等の電波を出力し、サーバ装置10は、ユーザ端末20が他のユーザ端末20により出力された電波を検出した場合に端末同士の接近を検知してもよい。ただし、その場合、周囲の環境によっては通信状況が悪く(通信を妨害するような電波が飛んでいる状況等)接近を検知しにくい状況が起こり得る。図4等の例においては、上記のように特定音を用いることで、通信状態に影響を受けずに接近を検知することができる。
【0069】
上記の特定音には、複数種類の音が含まれている。図9の例では、互いに周波数が異なる2種類の特定音S1及びS2が特定音に含まれていた。なお、複数種類の音はこれに限らず、例えば、周波数が異なる3種類以上の特定音が特定音に含まれていてもよい。また、特定音は、周波数(音高)、音色又は音量等の音の要素のうちの1以上の要素が異なる音であってもよい。そして、サーバ装置10は、音の種類を順次切り替えながら、ユーザ端末20(第2ユーザ端末を含む)に特定音を出力させる音制御部の一例として機能する。図4の例では、サーバ装置10は、A13で対話関連処理の開始を指示することで、ユーザ端末20による特定音の出力を制御した。
【0070】
出力される音の種類によっては、周辺音に紛れて検出しにくくなる場合があるが、種類が異なる特定音を切り替えながら出力することで、特定音の種類が1種類である場合に比べて、周辺音に紛れにくい種類の音が含まれている可能性を高めることができ、周辺音があっても接近を検知しやすくすることができる。
【0071】
また、サーバ装置10(取得部の一例)は、対話型AIとの対話履歴、すなわち、ユーザ端末20(第2ユーザ端末を含む)を介したAIモジュール3との対話履歴を取得する履歴取得部の一例として機能する。そして、サーバ装置10(挙動制御部の一例)は、取得された対話履歴に応じて第1ユーザ端末の対話型AIのUIの挙動を変化させる。
【0072】
図11及び図12の例では、サーバ装置10は、第2ユーザ端末(ユーザ端末20-2)を介した対話型AIとの対話履歴、すなわち、エマと対話型AIのベータとの対話履歴を取得し、取得した対話履歴に応じた発言を第1ユーザ端末(ユーザ端末20-1)の対話型AIのアルファにさせている。このような態様によれば、第1ユーザ端末のユーザであるトムに対して、接近相手である第2ユーザ端末のユーザであるエマが対話型AIとどのような対話をしているかを伝えることで、接近相手の雰囲気を感じさせることができる。
【0073】
また、サーバ装置10は、他のユーザ端末20との接近の履歴を蓄積する蓄積部の一例として機能する。サーバ装置10は、図13の説明で述べたように、対話履歴に接近フラグを付与することで、接近の履歴を蓄積している。そして、サーバ装置10(挙動制御部の一例)は、蓄積された接近の履歴に応じて対話型AIのUIの挙動を変化させる。サーバ装置10は、図13の例では、第1ユーザ端末(ユーザ端末20-1)が第2ユーザ端末(ユーザ端末20-2)と過去に接近したこと及びそのときの外部情報を伝える発言を対話型AIのアルファにさせている。
【0074】
なお、接近の履歴に応じた対話型AIのUIの挙動はこれに限らない。サーバ装置10は、例えば、過去に接近したときの時間帯、位置又は発言内容等について発言する挙動をUIにさせてもよい。また、サーバ装置10は、過去の接近回数に応じてUIの挙動を変化させてもよい。例えば、サーバ装置10は、接近回数が多いほど、接近相手のユーザの対話履歴のうち、挙動制御のために参照可能な対話履歴を増やすようにしてもよい。
【0075】
具体的には、サーバ装置10は、接近回数が第1閾値以下の接近相手の場合は外部情報のみを参照可能とし、接近回数が第1閾値以上で第2閾値未満の接近相手の場合は時刻情報及び位置情報を追加で参照可能にし、接近回数が第2閾値以上の接近相手の場合はユーザ属性及び発言内容を追加で参照可能にするといった具合である。このような態様によれば、何度も接近している相手には開示する情報を増やして親近感をもたせることができる。
【0076】
なお、対話型AIが参照可能な情報として、対話履歴だけでなく、ユーザが予め登録した登録情報が用いられてもよい。登録情報としては、ユーザのプロフィールや接近相手へのメッセージ等が含まれ得る。このような態様によれば、ユーザは、何度も接近する相手にだけ特定の情報を伝えることができる。以上のように、接近の履歴に基づく挙動制御を行うことで、接近の履歴を用いない場合に比べて、UIの挙動のバリエーションを増やすことができる。
【0077】
<変形例:UI同士の対話>
接近時のUIの挙動制御は、上述したものに限らない。例えば、サーバ装置10(挙動制御部の一例)は、第1ユーザ端末を介して対話するAIモジュール3と第2ユーザ端末を介して対話するAIモジュール3とが互いに対話するように、第1ユーザ端末のUIの挙動を制御してもよい。
【0078】
図14は、接近時の対話の別の一例を示す図である。図14の例では、サーバ装置10は、第1ユーザ端末(ユーザ端末20-1)の対話型AI画面C2に、トムの対話型AIのAI外観画像F21と、第2ユーザ端末(ユーザ端末20-2)のユーザであるエマの対話型AIのAI外観画像F31とを両方表示させている。そして、サーバ装置10は、AI外観画像F31が示す対話型AIに「こんにちは、アルファ君。ベータです。今日は買い物ですか?」という発言を示す音声V31を出力させている。
【0079】
また、サーバ装置10は、その返事として、AI外観画像F21が示す対話型AIに「こんにちは、ベータ君。今日はトムと映画を見に来たんだよ。」という発言を示す音声V26を出力させている。サーバ装置10は、対話型AIのアルファとトムとのここまでの対話内容及びトムが映画について調べた外部情報から、このような発言をさせている。サーバ装置10は、さらに、エマの対話履歴を参照し、対話型AIのベータの返事を決定し、ユーザ端末20-1において音声を出力させる。
【0080】
サーバ装置10は、例えば、発言している対話型AIのAI外観画像の口を動かしたり点滅させたりすることで、どちらの対話型AIが発言しているのかが分かるようにする。また、サーバ装置10は、対話型AIによって違う音声を出力することでも、発言している対話型AIが見分けられるようにする。
【0081】
以上のとおり、図14の例では、対話型AIのアルファとベータとが対話しているように第1ユーザ端末のUIが制御されている。このような態様によれば、第2ユーザ端末の対話型AIが第1ユーザ端末に登場しない場合に比べて、対話型AIの存在をより強く感じさせることができる。
【0082】
なお、サーバ装置10は、接近相手のユーザ端末20との過去の接近回数が多いほど、対話型AI同士の対話の量を増やすように第1ユーザ端末のUIを制御してもよい。対話の量は、例えば、対話の時間で表してもよいし、対話に用いる対話履歴の種類の数で表してもよい。このような態様によれば、接近回数が多いほど対話型AI同士が仲良くなっていく様子を感じさせることができる。
【0083】
<変形例:相手の位置通知>
ユーザ端末20のユーザは、接近した相手に対して自分の位置を通知してもよい。その場合、例えば、サーバ装置10は、第1ユーザ端末から第2ユーザ端末の接近を示す接近通知情報が取得された場合、第1ユーザ端末を介して、第2ユーザ端末への位置の通知の許諾を要求する要求部の一例として機能する。サーバ装置10は、例えば、許諾を要求する画像を第1ユーザ端末に表示させる。
【0084】
図15は、接近時の対話の別の一例を示す図である。図15の例では、サーバ装置10は、第1ユーザ端末(ユーザ端末20-1)の対話型AI画面C2に、OKボタンB22と、NGボタンB23とを表示させている。そして、サーバ装置10は、対話型AIに「近くにエマさんと対話型AI仲間のベータ君がいますね。相手にこちらの場所を知らせてもよいですか?」という発言を示す音声V27を出力させている。
【0085】
サーバ装置10は、NGボタンB23が操作された場合は位置の通知が許諾されなかったと判断し、OKボタンB22が操作された場合は位置の通知が許諾されたと判断する。サーバ装置10は、位置の通知の許諾がされた場合、第1ユーザ端末の位置を、第2ユーザ端末を介してユーザに通知する第1通知部の一例として機能する。サーバ装置10は、第1ユーザ端末の位置を示す画像を第2ユーザ端末に表示させることで、第1ユーザ端末の位置を通知する。
【0086】
図16は、位置の通知の一例を示す図である。図16では、第2ユーザ端末(ユーザ端末20-2)の対話型AI画面C3が示されている。サーバ装置10は、AI外観画像F31と、AI外観画像F32と、位置通知画像E31とを表示させている。AI外観画像F31は、第2ユーザ端末の対話型AIをイメージさせる画像であり、AI外観画像F32は、第1ユーザ端末の対話型AIをイメージさせる画像である。
【0087】
位置通知画像E31は、東西南北のうち第1ユーザ端末(ユーザ端末20-1)が存在する方向(図16の例では北西)と、第1ユーザ端末までの距離(図16の例では10m)とを示している。サーバ装置10は、位置の通知が許諾されたと判断すると、第1ユーザ端末及び第2ユーザ端末の双方から位置情報を取得し、上記の方向及び距離を算出し、位置通知画像E31を生成して表示させる。
【0088】
サーバ装置10は、対話型AIに「アルファ君達がこの方向にいるようです。」という発言を示す音声V31を出力させている。第2ユーザ端末のユーザであるエマは、位置通知画像E31を見ることで、他の対話型AIとそのUIとして機能している第1ユーザ端末の位置を把握することができ、接近した相手(図16の例ではトム)を特定することができる。そして、エマは、興味があれば、表示された方向にいる相手に話しかけることができる。
【0089】
なお、位置の通知方法は上記方法に限らない。サーバ装置10は、例えば、周辺の地図と、第1ユーザ端末の位置とを示す画像を表示させることで位置を通知してもよい。また、サーバ装置10は、第2ユーザ端末に第1ユーザ端末の方向を表示させるとともに、第1ユーザ端末の光源を点滅させて第1ユーザ端末に気づきやすいようにしてもよい。また、第1ユーザ端末のユーザが予め自分の特徴(外見の特徴、年齢、性別、身長等)を登録しておくことで、サーバ装置10がそれらの特徴を第2ユーザ端末に表示させて、第1ユーザ端末のユーザに気づきやすいようにしてもよい。
【0090】
また、サーバ装置10は、第1ユーザ端末の位置を通知してよいか否かを、第1ユーザ端末の位置に応じて判断してもよい。サーバ装置10は、例えば、第1ユーザ端末のユーザの住所が登録されている場合、その住所の近くの範囲では第1ユーザ端末の位置を通知せず、その住所から離れた範囲では第1ユーザ端末の位置を通知する。このような態様によれば、ユーザにとって都合が悪い場合は位置を通知せず、都合がよい場合のみ位置を通知することができる。
【0091】
<変形例:2段階挙動>
サーバ装置10は、ユーザ端末20同士が接近した状態を2段階にして対話型AIのUIの挙動を制御してもよい。その場合、サーバ装置10(取得部の一例)は、接近通知情報を所定の時間間隔で繰り返し取得する。そして、サーバ装置10(挙動制御部の一例)は、第1ユーザ端末から第2ユーザ端末の接近を示す接近通知情報が取得され続けている期間と、その期間が終了してから所定の期間とにおいて、UIの挙動を変化させる。
【0092】
図17は、接近時の対話の別の一例を示す図である。図17(a)の例では、サーバ装置10は、第1ユーザ端末(ユーザ端末20-1)の対話型AI画面C2に、接近検知アイコンE22を表示させ、対話型AIに「ベータ君達も同じ店に買い物に来てたんですね。」という発言を示す音声V28を出力させている。図17(a)では、接近検知アイコンE22を表示させることにより、接近通知情報が取得されている状態(以下「第1接近状態」と言う)が示されている。
【0093】
サーバ装置10は、第1接近状態から、接近通知情報が取得されなくなった場合、例えば、一定期間は第2ユーザ端末がまだ遠くには行っていない状態(以下「第2接近状態」と言う)であるとみなし、第2接近状態に応じたUIの挙動をさせる。図17(b)の例では、サーバ装置10は、接近検知アイコンE22の表示を終了させ、対話型AIに「ベータ君達は少し離れましたが、まだデパートの中にいるみたいですね。」という発言を示す音声V29を出力させている。
【0094】
接近検知アイコンE22が表示されていないことから、第1ユーザ端末の周辺音に特定音が含まれていない状態、すなわち第1接近状態ではない状態であることが示されている。一方、サーバ装置10は、第1接近状態から引き続き第2ユーザ端末のユーザ(図17の例ではエマ)の対話履歴を参照して対話型AIのUIの挙動を制御している。つまり、サーバ装置10は、第1接近状態及び第2接近状態の両方の状態において、接近時の対話制御処理(図7に示すA41)を実行している。
【0095】
サーバ装置10は、第2接近状態になってから所定の期間が経過したときに、接近状態が終了したと判断し(図7に示すA44=YES)、通常時の対話制御処理(図7に示すA22)に戻る。特定音が届く範囲(図10に示す領域R1及びR2)はそれほど広くないので、ユーザが移動を続けると接近状態がすぐに終わってしまうことが起こり得る。それに比べて、図17の例によれば、接近時の対話制御処理が行なわれる期間が長くなり、他の対話型AIとの接近をより長く体感させることができる。
【0096】
なお、所定の期間は、一定の期間に限らず、例えば、第1ユーザ端末に接近した第2ユーザ端末が所定の距離だけ第1ユーザ端末から離れるまでの期間としてもよい。また、第1ユーザ端末及び第2ユーザ端末が同じ領域(同じ駅の構内、同じデパート内、同じ町内等)にいる期間を所定の期間としてもよい。
【0097】
また、サーバ装置10は、第1ユーザ端末及び第2ユーザ端末の接近履歴が多いほど、所定の期間を長くしてもよい。このような態様によれば、接近する機会が多いユーザ端末20の対話型AIほど、接近している状態(第1接近状態及び第2接近状態)をより長く体感させることができる。また、サーバ装置10は、現在の時間帯又は曜日等の時期に応じて所定の期間を変動させてもよい。例えば、サーバ装置10は、休日の所定期間を平日の所定期間よりも長くする。このような態様によれば、所定の時期(例えば休日のように時間に余裕がある時期)において、接近している状態(第1接近状態及び第2接近状態)をより長く体感させることができる。
【0098】
また、サーバ装置10は、第1ユーザ端末の位置に応じて所定の期間を変動させてもよい。例えば、サーバ装置10は、公園又はデパート等の所定の場所における所定期間を、それ以外の場所における所定期間よりも長くする。このような態様によれば、所定の場所(例えば公園及びデパート等のように時間に余裕があるときに訪れる場所)において、接近している状態(第1接近状態及び第2接近状態)をより長く体感させることができる。
【0099】
<変形例:対話材料の登録>
接近時の対話制御処理において、対話履歴以外の情報が用いられてもよい。その場合、例えば、サーバ装置10は、第1ユーザ端末に対応付けた対話の材料の登録を受け付ける登録受付部の一例として機能する。サーバ装置10は、例えば、対話の材料を登録するための画面を表示させる。
【0100】
図18は、対話材料の登録画面の一例を示す図である。図18の例では、サーバ装置10は、第1ユーザ端末(ユーザ端末20-1)の対話型AI画面C2に、対話材料の登録ボタンB24、B25及びB26を表示させている。登録ボタンB24、B25及びB26は、それぞれ、「よく行く店の話」、「趣味の話」及び「最近見た映画の話」を対話材料としてそれぞれ登録するための操作用画像である。サーバ装置10は、AI外観画像F21が示す対話型AIに「対話型AI仲間と会ったときの話題を選んどいてね!」という発言を示す音声V41を出力させている。
【0101】
サーバ装置10は、登録ボタンが操作されると、操作された登録ボタンが示す対話材料を第1ユーザ端末のユーザであるトムに対応付けて対話履歴データベース4に格納することで、その対話材料を登録する。なお、登録される対話の材料は、図18に示すようにテーマだけを表す情報であってもよいし、より詳しい内容(例えば「よく行く店」の店名や商品など)を含んでいてもよい。より詳しい内容については、さらに対話型AIと対話することで登録させればよい。
【0102】
そして、サーバ装置10(挙動制御部の一例)は、第1ユーザ端末から第2ユーザ端末の接近を示す情報が接近通知情報として取得された場合、登録された対話の材料を元に第1ユーザ端末のUIの挙動を制御する。サーバ装置10は、例えば、「趣味の話」が登録された場合は、対話履歴に含まれるユーザ属性から趣味の部分を参照して発言を決定する。また、サーバ装置10は、登録された話題によっては、AIモジュール3のタスク実行機能を用いて外部情報からその話題を検索して発言を決定する。このような態様によれば、接近相手の対話型AIにさせる対話内容を選ぶことができる。
【0103】
なお、サーバ装置10は、例えば、対話の材料を場所に対応付けて登録することで、接近状態となった場所に対応付けられた対話の材料を用いてUIの挙動を制御してもよい。また、サーバ装置10は、対話の材料を時間帯又は曜日等の時期に対応付けて登録することで、接近状態となった時期に対応付けられた対話の材料を用いてUIの挙動を制御してもよい。また、サーバ装置10は、対話の材料を過去の接近回数に対応付けて登録することで、接近状態となった第2ユーザ端末との過去の接近回数に対応付けられた対話の材料を用いてUIの挙動を制御してもよい。これらの態様によれば、端末同士の接近が検知される状況に合わせた内容の対話をさせることができる。
【0104】
<変形例:挙動の記録>
接近時の対話型AIのUIの挙動が再利用されてもよい。例えば、サーバ装置10は、第2ユーザ端末の接近を示す接近通知情報が第1ユーザ端末から取得された場合、第1ユーザ端末のUIの挙動を両端末(第1ユーザ端末及び第2ユーザ端末)の組合せに対応付けて記憶する記憶制御部の一例として機能する。ここでいうUIの挙動は、接近時の挙動である。
【0105】
サーバ装置10は、例えば、図12の例であれば、第1ユーザ端末の対話型AIが第2ユーザ端末の対話型AIの対話履歴に基づく発言をしているので、その発言内容(第1ユーザ端末のUIの挙動の一例)を第1ユーザ端末及び第2ユーザ端末の組合せに対応付けて記憶しておく。そして、サーバ装置10は、その組合せの接近通知情報が再び取得されると、その組合せに対応付けて記憶されているUIの挙動を、第1ユーザ端末を介してユーザに通知する第2通知部の一例として機能する。
【0106】
図19は、接近時の対話の別の一例を示す図である。図19の例では、サーバ装置10は、第1ユーザ端末(ユーザ端末20-1)の対話型AIに「ベータ君達と前にすれ違ったときは、ベータ君達が駅前の新しいお店の話をしていたとお伝えしましたね!」という発言を示す音声V42を出力させている。図19の例では、サーバ装置10は、図12の例で記憶したUIの挙動を説明することで、その挙動を第1ユーザ端末のユーザに通知している。このような態様によれば、以前すれ違った時のことを思い出させることができる。
【0107】
なお、UIの挙動の通知方法はこれに限らない。サーバ装置10は、例えば、UIの挙動の説明を表示したり、対話型AIに同じ挙動をさせたりすることで通知してもよい。また、サーバ装置10は、接近時に対話型AIのUIが所定の挙動を行った場合のみ記憶してもよい。所定の挙動は、例えば、図14の例のように接近したユーザ端末20の対話型AI同士が互いに対話する挙動や図16の例のように第1ユーザ端末の位置を通知する挙動等である。このような態様によれば、すれ違ったときに特定の挙動が行なわれたときのことのみを思い出させることができる。
【0108】
また、サーバ装置10は、接近状態の時間が閾値以上である場合のみUIの挙動を記憶してもよい。このような態様によれば、一瞬で相手とすれ違ったときのUIの挙動は通知せずに、ある程度長い時間接近していた相手と再度すれ違った場合のみ記憶したUIの挙動を通知して、以前すれ違った時のことを思い出させることができる。
【0109】
<変形例:特定音の出力方法>
特定音の出力方法は上述した方法に限らない。例えば、周辺音に応じた音を特定音としてもよい。その場合、サーバ装置10は、ユーザ端末20(第2ユーザ端末を含む)の周辺音を取得する周辺音取得部の一例として機能する。サーバ装置10は、ユーザ端末20から送信されてくる音データが示す音をそのユーザ端末20の周辺音として取得する。
【0110】
そして、サーバ装置10(音制御部の一例)は、取得された周辺音に応じた音を特定音(特定音の一例)としてユーザ端末20(第2ユーザ端末を含む)に出力させる。サーバ装置10は、例えば、周辺音に含まれる音の周波数の分布を分析し、周辺音に含まれている割合が少ない周波数の音を特定音として出力させる。この場合の特定音は、可聴域外の音に限定してもよいし、可聴域の音を含んでいてもよい。
【0111】
サーバ装置10は、例えば、周波数の高い音が多く含まれる場合は周波数が低い音を特定音として出力させ、周波数の低い音が多く含まれる場合は周波数が高い音を特定音として出力させる。このような態様によれば、特定音が一律の音である場合に比べて、周辺音があってもそれらの音から特定音を分離しやすくなるので、端末同士の接近を検知しやすくすることができる。
【0112】
また、サーバ装置10は、反対に、周辺音に含まれている割合が多い周波数の音を特定音として出力させてもよい。この方法は、特に、可聴域の音を特定音として出力させる場合に、周辺音に含まれている割合が少ない周波数の音を出力させるときに比べて、特定音が周辺音に紛れやすくなるので、人の耳に特定音が届いたときに、それが特定音であることに気づきにくいようにすることができる。
【0113】
また、ユーザ端末20の位置に応じた音を特定音としてもよい。その場合、サーバ装置10は、ユーザ端末20の位置を示す位置情報を取得する位置取得部の一例として機能する。サーバ装置10は、ユーザ端末20に対して定期的に位置情報を要求し、ユーザ端末20の位置情報を繰り返し取得する。そして、サーバ装置10(音制御部の一例)は、取得された位置情報が示す位置に応じた音を特定音(特定音)としてユーザ端末20に出力させる。
【0114】
サーバ装置10は、例えば、駅、デパート又は繁華街等の人が多くいる可能性が高い場所の位置情報が取得された場合は、雑踏の音に紛れにくくかつ音量が大きな音を特定音として出力させる。また、サーバ装置10は、病院、図書館又は住宅街等の比較的静かな場所の位置情報が取得された場合は、(特に可聴域の音の場合は)音量が小さい音を特定音として出力させる。このような態様によれば、特定音が一律の音である場合に比べて、周辺の人に特定音が気づかれにくいようにしつつ、接近を検知しやすくすることができる。
【0115】
<その他の例>
図4の例では、A33でサーバ装置10が端末同士の接近を検知する検知処理を行ったが、この検知処理をユーザ端末20が行ってもよい。その場合、ユーザ端末20は、A32で周辺音を取得して、取得した周辺音に特定音が含まれているか否かを判断する。ユーザ端末20は、特定音が含まれている場合に、端末同士の接近を検知したことを示す検知データをサーバ装置10に送信する。サーバ装置10は、検知データを受け取ると、検知データが示す検知結果を接近通知情報として取得し、A41の接近時の対話制御処理を開始する。このような態様によれば、音データを通信する場合に比べて、ユーザ端末20とサーバ装置10との通信の負荷を減らすことができる。
【0116】
また、図4等の例では、スピーカが出力する特定音と音センサであるマイクロフォンが検出する音とを用いて端末同士の接近が検知されたが、端末同士の接近の検知方法はこれに限らない。例えば、サーバ装置10は、ユーザ端末20の通信部23が出力する電波(Bluetooth(登録商標)又はWiFi等の電波)を通信センサである通信部23が受信した場合に端末同士の接近を検知してもよい。この場合、音に比べて電波の方が障害物に遮られにくいので、特定音を用いる場合に比べて、障害物が多い場所でも接近を検知しやすくすることができる。
【0117】
また、サーバ装置10は、ユーザ端末20の測位センサが出力する位置情報に基づいて接近を検知してもよい。サーバ装置10は、例えば、各ユーザ端末20から定期的に位置情報を取得し、互いの距離が閾値未満になった端末同士が接近したと検知する。以上のとおり、サーバ装置10又はユーザ端末20は、ユーザ端末20が備えるセンサが出力する情報を接近通知情報として取得することで、端末同士の接近を検知すればよい。
【0118】
また、図4の例では、ユーザ端末20が、対話処理及び接近検知処理を同時に開始して同時に終了していたが、これに限らず、例えば、対話処理の実行有無とは関係なく接近検知処理を実行し続けていてもよい。ユーザ端末20は、例えば、接近検知処理用のプログラムを常駐させてバックグラウンドで実行させることで、接近検知処理を実行し続ける。その場合、サーバ装置10は、接近検知処理により送信されてくる音データに基づいて端末同士の接近を検知すると、ユーザ端末20に対して対話処理の開始を指示する。このような態様によれば、ユーザが対話型AIと対話していないときでも、他の対話型AIとの接近を契機に対話を開始させることができる。
【0119】
また、AIモジュール3をユーザ端末20に搭載して、オフラインで対話型AIが動作するようにしてもよい。その場合、他の対話型AIの対話履歴を利用することはできないが、他のユーザ端末20との接近を契機としてUIの挙動を変化させることは可能なので、上記の例と同様に、他の対話型AIの存在に気づかせて、対話型AIの存在感を高めることができる。このように、上述した取得部及び挙動制御部等を実現するプロセッサは、サーバ装置10のプロセッサだけに限らず、ユーザ端末20のプロセッサだけの場合もあれば、サーバ装置10のプロセッサ及びユーザ端末20のプロセッサの両方となる場合もある。
【0120】
<構成のバリエーション>
図1等に示す構成(全体構成、ハードウェア構成及び機能構成等)は一例であり、実施に不都合が無い限り、他の構成を取り得る。例えば、サーバ装置10は、2台以上の装置に分散されてもよく、また、SaaS(Software as a Service)又はクラウドコンピューティングシステム等の形態で提供されてもよい。また、サーバ装置10が実行する情報処理を、ユーザ端末20がまとめて実行してもよい。要するに、自動対話システム1の全体で必要な情報処理が実行されていれば、それらの情報処理を実行する装置はどのような構成であってもよい。
【0121】
また、人工知能モジュール(AIモジュール3)は、サーバ装置10の内部構成でも外部構成でもよいし、自動対話システム1の内部構成でも外部構成でもよい。また、1つの人工知能モジュールが実現する機能を、2以上の人工知能モジュールが分散して実現してもよいし、2以上の人工知能モジュールが実現する機能を、1つの人工知能モジュールが統合して実現してもよい。
【0122】
情報又はデータ(以下「情報等」と言う)の出力先は、他の装置、ディスプレイ、記憶部(内蔵の記憶部および外部の記憶部を含む)等であってもよい。情報等の取得には、他の装置から送信されてきた情報等を取得する態様に加え、自装置で生成された情報等を取得する態様を含む。パラメータを対応付けたテーブル等(テーブル又はデータベース等)は、図示したテーブル等に限らず、パラメータの数を少なくしたり多くしたりしてもよい。また、テーブル等を用いずに、数式または条件式等によりパラメータに応じた情報等を求めてもよい。
【0123】
上述した実施形態の態様は、サーバ装置10及びユーザ端末20のような情報処理装置や、サーバ装置10及びユーザ端末20を備える自動対話システム1のような情報処理システムであったが、情報処理方法であってもよい。その情報処理方法は、情報処理システムが実行するものと同じ各ステップを備える。また、上述した実施形態の態様は、プログラムであってもよい。そのプログラムは、コンピュータに、情報処理システムが実行するものと同じ各ステップを実行させる。
【0124】
<付記>
さらに、次に記載の各態様で提供されてもよい。
【0125】
(1)少なくとも1以上のプロセッサを備える情報処理システムであって、前記プロセッサが、取得ステップでは、対話型の人工知能モジュールのUI(User Interface)として機能する第1ユーザ端末から、前記UIとして機能する第2ユーザ端末の接近の有無を表す情報を取得し、挙動制御ステップでは、前記UIの挙動を制御し、前記第1ユーザ端末から前記第2ユーザ端末の接近を示す前記情報が取得された場合、前記第1ユーザ端末の前記UIの挙動を変化させる、情報処理システム。
【0126】
このような態様によれば、対話型AIの存在感を高めることができる。
【0127】
(2)上記(1)に記載の情報処理システムにおいて、前記第2ユーザ端末は、特定音を出力する機能を備え、前記情報は、前記第1ユーザ端末の周辺の音を示す情報であり、前記プロセッサが、前記挙動制御ステップでは、前記特定音を含む音を示す前記情報が取得された場合に、前記挙動を変化させる、情報処理システム。
【0128】
このような態様によれば、通信状態に影響を受けずに接近を検知することができる。
【0129】
(3)上記(2)に記載の情報処理システムにおいて、前記特定音には、複数種類の音が含まれ、前記プロセッサが、音制御ステップでは、種類を順次切り替えながら前記特定音を前記第2ユーザ端末に出力させる、情報処理システム。
【0130】
このような態様によれば、周辺音があっても接近を検知しやすくすることができる。
【0131】
(4)上記(3)に記載の情報処理システムにおいて、前記プロセッサが、周辺音取得ステップでは、前記第2ユーザ端末の周辺の音を取得し、前記音制御ステップでは、取得された前記周辺の音に応じた音を前記特定音として前記第2ユーザ端末に出力させる、情報処理システム。
【0132】
このような態様によれば、周辺音があっても接近を検知しやすくすることができる。
【0133】
(5)上記(3)又は(4)に記載の情報処理システムにおいて、前記プロセッサが、位置取得ステップでは、前記第2ユーザ端末の位置を示す位置情報を取得し、前記音制御ステップでは、取得された前記位置情報が示す位置に応じた音を前記特定音として前記第2ユーザ端末に出力させる、情報処理システム。
【0134】
このような態様によれば、周辺の人に特定音が気づかれにくいようにしつつ、接近を検知しやすくすることができる。
【0135】
(6)上記(1)~(5)の何れか1つに記載の情報処理システムにおいて、前記プロセッサが、履歴取得ステップでは、前記第2ユーザ端末を介した前記人工知能モジュールとの対話履歴を取得し、前記挙動制御ステップでは、取得された前記対話履歴に応じて前記第1ユーザ端末の前記UIの挙動を変化させる、情報処理システム。
【0136】
このような態様によれば、接近相手の雰囲気を感じさせることができる。
【0137】
(7)上記(1)~(6)の何れか1つに記載の情報処理システムにおいて、前記プロセッサが、前記挙動制御ステップでは、前記第1ユーザ端末を介して対話する前記人工知能モジュールと前記第2ユーザ端末を介して対話する前記人工知能モジュールとが互いに対話するように、前記第1ユーザ端末の前記UIの挙動を制御する、情報処理システム。
【0138】
このような態様によれば、対話型AIの存在をより強く感じさせることができる。
【0139】
(8)上記(1)~(7)の何れか1つに記載の情報処理システムにおいて、前記プロセッサが、要求ステップでは、前記第2ユーザ端末の接近を示す前記情報が前記第1ユーザ端末から取得された場合、前記第1ユーザ端末の位置の前記第2ユーザ端末への通知の許諾を前記第1ユーザ端末のユーザに要求し、第1通知ステップでは、前記許諾がされた場合、前記第1ユーザ端末の位置を、前記第2ユーザ端末を介して前記第2ユーザ端末のユーザに通知する、情報処理システム。
【0140】
このような態様によれば、接近した相手を特定することができる。
【0141】
(9)上記(1)~(8)の何れか1つに記載の情報処理システムにおいて、前記プロセッサが、蓄積ステップでは、前記接近の履歴を蓄積し、前記挙動制御ステップでは、蓄積された前記履歴に応じて前記UIの挙動を変化させる、情報処理システム。
【0142】
このような態様によれば、UIの挙動のバリエーションを増やすことができる。
【0143】
(10)上記(1)~(9)の何れか1つに記載の情報処理システムにおいて、前記プロセッサが、前記取得ステップでは、前記情報を繰り返し取得し、前記挙動制御ステップでは、前記第1ユーザ端末から前記第2ユーザ端末の接近を示す前記情報が取得され続けている期間と、当該期間が終了してから所定の期間とにおいて、前記UIの挙動を変化させる、情報処理システム。
【0144】
このような態様によれば、他の対話型AIとの接近をより長く体感させることができる。
【0145】
(11)上記(1)~(10)の何れか1つに記載の情報処理システムにおいて、前記プロセッサが、登録受付ステップでは、前記第1ユーザ端末に対応付けた対話の材料の登録を受け付け、前記挙動制御ステップでは、登録された前記対話の材料に応じて前記第1ユーザ端末の前記UIの挙動を変化させる、情報処理システム。
【0146】
このような態様によれば、接近相手の対話型AIにさせる対話内容を選ぶことができる。
【0147】
(12)上記(1)~(11)の何れか1つに記載の情報処理システムにおいて、前記プロセッサが、記憶制御ステップでは、前記第2ユーザ端末の接近を示す前記情報が前記第1ユーザ端末から取得された場合、前記第1ユーザ端末の前記UIの挙動を両端末の組合せに対応付けて記憶し、第2通知ステップでは、前記組合せの前記情報が再び取得されると、当該組合せに対応付けて記憶されている前記UIの挙動を、前記第1ユーザ端末を介してユーザに通知する、情報処理システム。
【0148】
このような態様によれば、以前すれ違った時のことを思い出させることができる。
【0149】
(13)情報処理方法であって、情報処理システムが備えるプロセッサが、上記(1)~(12)の何れか1つに記載の情報処理システムの各ステップを実行する、情報処理方法。
【0150】
このような態様によれば、対話型AIの存在感を高めることができる。
【0151】
(14)プログラムであって、コンピュータに、上記(1)~(12)の何れか1つに記載の情報処理システムの各ステップを実行させるプログラム。
【0152】
このような態様によれば、対話型AIの存在感を高めることができる。
もちろん、この限りではない。
また、上述した実施形態及び変形例を任意に組み合わせて実施するようにしてもよい。
【0153】
最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
【符号の説明】
【0154】
1 :自動対話システム
2 :通信回線
3 :AIモジュール
4 :対話履歴データベース
10 :サーバ装置
11 :制御部
20 :ユーザ端末
20-1 :ユーザ端末
20-2 :ユーザ端末
21 :制御部
【要約】
【課題】対話型AIの存在感を高めることができる情報処理システム等を提供する。
【解決手段】本発明の一態様によれば、少なくとも1以上のプロセッサを備える情報処理システムが提供される。この情報処理システムでは、プロセッサが、取得ステップでは、対話型の人工知能モジュールのUI(User Interface)として機能する第1ユーザ端末から、UIとして機能する第2ユーザ端末の接近の有無を表す情報を取得する。挙動制御ステップでは、UIの挙動を制御し、第1ユーザ端末から第2ユーザ端末の接近を示す情報が取得された場合、第1ユーザ端末のUIの挙動を変化させる。
【選択図】図1
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19