(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-03-25
(45)【発行日】2025-04-02
(54)【発明の名称】情報処理装置、情報処理方法、プログラム、および情報処理システム
(51)【国際特許分類】
G06Q 50/10 20120101AFI20250326BHJP
【FI】
G06Q50/10
(21)【出願番号】P 2022537915
(86)(22)【出願日】2021-07-07
(86)【国際出願番号】 JP2021025622
(87)【国際公開番号】W WO2022019119
(87)【国際公開日】2022-01-27
【審査請求日】2024-05-09
(31)【優先権主張番号】P 2020124531
(32)【優先日】2020-07-21
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】100121131
【氏名又は名称】西川 孝
(74)【代理人】
【氏名又は名称】稲本 義雄
(74)【代理人】
【識別番号】100168686
【氏名又は名称】三浦 勇介
(72)【発明者】
【氏名】細田 育英
【審査官】永野 一郎
(56)【参考文献】
【文献】国際公開第2013/099407(WO,A1)
【文献】特開2015-050724(JP,A)
【文献】米国特許出願公開第2013/0245396(US,A1)
【文献】萩原 早紀,他1名,シースルー型HMDを用いた社会福祉学的アプローチに基づく”視線恐怖症的コミュ障”支援システムの開発と検証,コンピュータソフトウェア,日本,一般社団法人日本ソフトウェア科学会 JAPAN SOCIETY FOR SOFTWARE SCIENCE AND TECHNOLOGY,2016年01月26日,第33巻第1号,p.52-62
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00-99/00
(57)【特許請求の範囲】
【請求項1】
センサにより検出されたセンサデータに基づいてコンテキストを検出するコンテキスト検出部と、
ユーザと前記ユーザが遭遇した相手との距離を変える
イベントのトリガとなる言葉を前記ユーザが発したことが前記コンテキストとして検出された場合、前記ユーザにより指定された、前記相手との距離を変える希望度合いを表すレベルに応じた異なる内容の前記イベントに関する情報を提示する情報処理部
と
を備える情報処理装置。
【請求項2】
前記情報処理部は、前記ユーザとともに、少なくとも前記相手を含む、前記ユーザの周りにいる人に対して前記イベント
に関する情報を提示する
請求項1に記載の情報処理装置。
【請求項3】
前記情報処理部は、
あらかじめ登録された識別情報に基づいて、前記相手が
、前記識別情報が登録された人物と同じ人であるか、
異なる人であるかに応じて、異なる内容の前記イベント
に関する情報を提示する
請求項1に記載の情報処理装置。
【請求項4】
前記情報処理部は、前記相手が
、前記識別情報が登録された人物と同じ人である場合、同じ人を前記相手として
情報を提示したことのある前記イベントと異なる内容の前記イベント
に関する情報を提示する
請求項3に記載の情報処理装置。
【請求項5】
前記情報処理部は
、前記ユーザの生体反応が所定の反応を示していること
が前記コンテキスト
として検出された場合、前記イベント
に関する情報を提示する
請求項1に記載の情報処理装置。
【請求項6】
前記情報処理部は、前記ユーザと前記相手との距離を遠ざける前記イベント
に関する情報を提示する
請求項1に記載の情報処理装置。
【請求項7】
前記情報処理部は、前記イベントの内容を通知する音声を前記ユーザが有するデバイスから出力させることによって、前記イベント
に関する情報を前記ユーザに提示する
請求項
1に記載の情報処理装置。
【請求項8】
前記情報処理部は、第三者が前記ユーザを呼び出
していることを示す情報を前記イベント
に関する情報として前記ユーザが有するデバイスから出力させる
請求項
1に記載の情報処理装置。
【請求項9】
前記情報処理部は、前記ユーザの用事
の情報を前記イベント
に関する情報として前記ユーザが有するデバイスから出力させる
請求項
1に記載の情報処理装置。
【請求項10】
情報処理装置が、
センサにより検出されたセンサデータに基づいてコンテキストを検出し、
ユーザと前記ユーザが遭遇した相手との距離を変える
イベントのトリガとなる言葉を前記ユーザが発したことが前記コンテキストとして検出された場合、前記ユーザにより指定された、前記相手との距離を変える希望度合いを表すレベルに応じた異なる内容の前記イベントに関する情報を提示する
情報処理方法。
【請求項11】
コンピュータに、
センサにより検出されたセンサデータに基づいてコンテキストを検出し、
ユーザと前記ユーザが遭遇した相手との距離を変える
イベントのトリガとなる言葉を前記ユーザが発したことが前記コンテキストとして検出された場合、前記ユーザにより指定された、前記相手との距離を変える希望度合いを表すレベルに応じた異なる内容の前記イベントに関する情報を提示する
処理を実行させるためのプログラム。
【請求項12】
センサにより検出されたセンサデータに基づいてコンテキストを検出するコンテキスト検出部と、ユーザと前記ユーザが遭遇した相手との距離を変える
イベントのトリガとなる言葉を前記ユーザが発したことが前記コンテキストとして検出された場合、前記ユーザにより指定された、前記相手との距離を変える希望度合いを表すレベルに応じた異なる内容の前記イベントに関する情報の提示を制御する情報処理部
とを備える情報処理装置と、
前記情報処理装置による制御に従って、前記イベント
に関する情報を前記ユーザに提示する出力部を備える情報処理端末と
から構成される情報処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本技術は、特に、他人との距離を適切に確保することができるようにした情報処理装置、情報処理方法、プログラム、および情報処理システムに関する。
【背景技術】
【0002】
「心穏やかな生活を送りたい」ということを多くの人が願っている。
【0003】
それにも関わらず、例えば、電車の中でトラブルに巻き込まれることによって、根拠のない誹謗を知らない人から受けることがある。また、仕事でミスをした後のように会いたくないときに限って、会社の上司と社内でふいに出会ってしまうということもある。
【0004】
相手が知らない人であっても知っている人であっても、煩わしさを感じることなく心穏やかな生活を送るためには相手との距離が重要となる。
【0005】
スマートフォンのアプリケーションとして、偽の着信を発生させるものがある。ユーザは、仕事のミスについて上司から指摘を受けているときにアプリケーションを操作して偽の着信を発生させ、それに応答するふりをしてその場をしのぐ、などの使い方をすることができる。
【0006】
特許文献1には、ドライブ中の場の雰囲気を2人の乗員の感情などに基づいて評価し、雰囲気が悪いときにキャラクタに発話させることによって、場の雰囲気をよくするエージェントシステムが開示されている。
【先行技術文献】
【特許文献】
【0007】
【発明の概要】
【発明が解決しようとする課題】
【0008】
同じような着信がその都度あると怪しまれるため、上述したようなアプリケーションを用いてその場をしのぐことをユーザは何度も使うことができない。また、ユーザは、着信を開始させるための操作を行う必要がある。
【0009】
一方、特許文献1に開示されているエージェントシステムにおいては、キャラクタの発話が場の雰囲気を取り繕うために行われていることを乗員が知ってしまうと、キャラクタの発話に対する乗員のリアクションが冷静なものになり、効果が薄くなる可能性がある。
【0010】
本技術はこのような状況に鑑みてなされたものであり、他人との距離を適切に確保することができるようにするものである。
【課題を解決するための手段】
【0011】
本技術の一側面の情報処理装置は、ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、前記ユーザに提示する情報処理部を備える。
【0012】
本技術の一側面においては、ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントが発生され、前記ユーザに提示される。
【図面の簡単な説明】
【0013】
【
図1】行動支援システムによる支援の例を示す図である。
【
図8】行動支援サーバの行動支援処理について説明するフローチャートである。
【
図9】ユーザが遭遇している状況の例を示す図である。
【
図10】音声ナビゲーションを用いた回避の例を示す図である。
【
図11】音声ARを用いた回避の例を示す図である。
【
図12】ARオブジェクトを用いた回避の例を示す図である。
【
図14】ユーザが遭遇した状況の例を示す図である。
【
図15】ユーザと相手とのやりとりの様子を示す図である。
【
図16】ユーザと相手とのやりとりの様子を示す図である。
【
図18】協力者による声かけを用いた回避の例を示す図である。
【
図19】協力者による声かけの様子を示す図である。
【
図25】会いたくない人の登録画面の例を示す図である。
【
図28】価値観タイプ毎の回避方法の例を示す図である。
【
図29】行動支援サーバのハードウェア構成例を示すブロック図である。
【
図30】行動支援サーバの機能構成例を示すブロック図である。
【
図31】クライアント端末の構成例を示すブロック図である。
【発明を実施するための形態】
【0014】
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.行動支援システム
2.行動支援サーバの動作
3.相手が知らない人であるケース
4.相手が知っている人であるケース
5.ユーザの価値観を考慮した回避方法の決定
6.各装置の構成
7.変形例
【0015】
<<行動支援システム>>
<行動支援システムによる支援>
図1は、本技術の一実施形態に係る行動支援システムによる支援の例を示す図である。
【0016】
本技術の一実施形態に係る行動支援システムは、インターネット上のサーバである行動支援サーバ1により実現される。
【0017】
行動支援サーバ1は、遭遇した人との関係でユーザU1が煩わしさを感じる場合に、ユーザU1とその相手との距離が適切な距離になるような行動をユーザU1自身が選択することを支援する。ユーザU1が遭遇した人には、既に接触している人だけでなく、これから接触する可能性のある人も含まれる。例えば
図1の左側に示すように相手と話をしてコミュニケーションをとっている状態が、接触している状態となる。
【0018】
ユーザU1と相手との距離が適切な距離になるような行動の選択を支援することは、
図1の矢印A1の先に示すように、コンテキストに応じたイベントを行動支援サーバ1が発生させることによって行われる。
【0019】
図1の例においては、コンテキストに応じたイベントが発生することに応じて、ユーザU1が自身の行動を選択し、それにより、矢印A2の先に示すように相手から離れることに成功している。行動支援サーバ1が発生させるイベントは、相手との距離を変える可能性のあるイベントとなる。
【0020】
このように、行動支援システムは、イベントを発生させることによって、相手を回避することができるような状況を作り出すシステムである。ユーザは、イベントが発生することに応じて行動することにより、相手、すなわち、煩わしいことを回避することができる。
【0021】
なお、行動支援システムの各ユーザは、スマートフォン、インナーイヤーヘッドホン(イヤホン)、眼鏡型のHMD(Head Mounted Display)、腕時計型のウェアラブルデバイス(スマートウォッチ)などのデバイスをクライアント端末として有している。
【0022】
各クライアント端末は、直接、または他のデバイスを介してインターネットに接続され、行動支援サーバ1と通信を行うことが可能とされる。行動支援サーバ1は、各ユーザのコンテキストをクライアント端末から送信されてきた情報に基づいて検出し、検出したコンテキストに応じたイベントを発生させる。
【0023】
【0024】
図2の左側に示すように、ユーザU1が自分の上司である課長に話しかけられている状況がユーザU1のコンテキストとして行動支援サーバ1により検出されているものとする。課長が話す内容は、ユーザU1の仕事上でのミスに対する説教である。ユーザU1としては、相手が自分の上司であるという関係上、説教を受け続ける必要がある。
【0025】
このような状況において、ユーザU1が相手を回避することを要請した場合、矢印A11の先に示すように、架空のイベントが行動支援サーバ1により起こされる。
【0026】
図2の例においては、吹き出し#1に示すようにユーザU1が持っているスマートフォンに対して電話の着信を入れることがイベントとして起こされている。また、その着信は、社長からの着信とされている。ユーザU1が持つスマートフォンのスピーカからは着信音が出力され、ディスプレイには、社長からの着信であることの通知が表示される。
【0027】
実際には社長はユーザU1に電話をかけていないから、社長からの着信は架空のイベントである。社長からの着信というイベントは、着信音やディスプレイの表示によって、ユーザU1と課長に対して提示される。
【0028】
ユーザU1は、スマートフォンを取り出してディスプレイの表示を見て、社長から電話かかってきたことを課長に伝える。ユーザU1は、社長からの電話に応答するという行動を選択することにより、矢印A12の先に示すように、課長の説教を回避することができる。
【0029】
このように、煩わしさの原因となる相手を無理やり回避するのではなく、ユーザU1が自然な形で回避できるような状況が行動支援サーバ1により作り出される。また、そのような状況を作り出すためのイベントとして、コンテキストに応じた適切なイベントが行動支援サーバ1により選択され、提示される。
【0030】
図2の例においては、課長からすれば、着信元である社長は自分の上司である。課長は、ユーザU1が、自分の説教を聞くことよりも社長からの着信に応答することを優先させることに対して納得できることになる。
【0031】
仮に、課長が納得できないようなイベントを発生させてユーザを無理やり今の状況から回避させた場合、課長にとっては不満が残ったままの状況になってしまう。納得感のあるイベントを発生させ、イベントの内容をユーザU1と課長に提示することにより、そのような不満が課長に残ってしまうことを防ぐことが可能となる。ユーザU1にとっても、後ろめたさを感じることなく、回避するための行動を選択することができる。
【0032】
特に、相手が自分の上司であるといったような知り合いの人である場合、今後の2人の関係性を考慮する必要があることから、相手にとって納得感のある形でユーザが回避できるようにすることは重要なことであるといえる。
【0033】
【0034】
図3の左側に示すように、ユーザU2が街中を歩いている場合において、前方から不審者が向かってきている状況がユーザU2のコンテキストとして行動支援サーバ1により検出されているものとする。このまま道を直進した場合、ユーザU2は不審者に絡まれる可能性がある。
【0035】
このような状況において、ユーザU2が相手を回避することを要請した場合、矢印A21の先に示すように、架空のイベントが行動支援サーバ1により起こされる。
【0036】
図3の例においては、吹き出し#2に示すように、前方の曲がり角(T字路)を右に曲がったところで友達がユーザU2を呼んでいることがイベントとして起こされ、そのことがユーザU2に対して通知されている。友達が呼んでいることの通知は、ユーザU2が持っているスマートフォンのスピーカからの音声によって行われる。
【0037】
右に曲がったところに実際には友達がいないから、友達が呼んでいるということは架空のイベントである。
【0038】
ユーザU2は、行動支援サーバ1からの通知を聞いて、友達を探すふりをしながら右に曲がるという行動を選択することにより、矢印A22の先に示すように、不審者を回避することができる。
【0039】
仮に、ユーザU2が曲がり角を突然右に曲がった場合、自分を避けたという印象を不審者に与えてしまい、不審者を逆上させてしまう可能性がある。行動支援サーバ1は、友達がいるということをユーザU2に伝え、友達を探している様子を少なくとも相手を含む周囲の人にユーザU2から見せることにより、不審者を含む周囲の人にとって違和感のない形でユーザU2を誘導することが可能となる。
【0040】
以上のように、行動支援システムは、煩わしさの原因を回避するための行動を自然な形でユーザに選択させ、相手との距離として適切な距離を確保することにより、ユーザが心穏やかに生活できるようにするシステムである。
【0041】
自分を回避したユーザに対して相手が不満を持つこともないから、行動支援システムは、ユーザが遭遇した相手にとっても、心穏やかに生活できるようにするシステムであるといえる。
【0042】
<回避方法の共有>
図4は、回避方法の共有の例を示す図である。
【0043】
行動支援システムの各ユーザからは、回避方法の情報である回避情報が行動支援サーバ1にアップロードされ、他のユーザとの間で共有される。
【0044】
回避情報は、各ユーザが経験した状況と、その状況で使った回避方法とを紐付けた情報である。相手を回避することに成功したのか、失敗したのかを表す情報も回避情報に含まれる。
【0045】
例えば、各ユーザは、自分のクライアント端末を操作して行動支援サーバ1にアクセスすることにより、
図5のAに示すように、他のユーザがどのような状況で、どのような回避方法を使っているのかを知ることができる。
図5のAの例においては、あるユーザのスマートフォンのディスプレイに他のユーザの回避方法の情報が表示されている。
【0046】
図5のBに示す検索画面を用いて、状況毎の回避方法を検索することができるようにしてもよい。
図5のBの検索画面においては、各区画をタップすることにより、相手が男である場合、場所が会社である場合といったような状況を選択することができるようになっている。
【0047】
所定の状況を選択することにより、選択した状況に応じた回避方法の情報が表示される。ユーザは、それぞれの状況に応じた回避方法を知ることができる。
【0048】
各ユーザから提供された回避情報は、回避方法の学習にも用いられる。行動支援サーバ1においては、各ユーザから提供された回避情報を用いた機械学習が行われることにより、回避方法決定モデルが生成される。回避方法決定モデルについては後述する。
【0049】
他のユーザの回避方法に対して、各ユーザが評価することができるようにしてもよい。各ユーザの回避に対するスコアが評価に応じて算出されることにより、煩わしさの原因となる相手を回避することに対してゲーム性を持たせることが可能となる。
【0050】
<回避方法の決定>
図6は、回避方法の決定の例を示す図である。
【0051】
図6に示すように、回避方法決定モデルMを有する回避方法決定部11が行動支援サーバ1に設けられる。回避方法決定モデルMは、回避情報を用いた機械学習によって生成された、ニューラルネットワークなどにより構成される推論モデルである。
【0052】
回避方法決定部11に対しては、ユーザのコンテキストを表す情報とともに、相手が知っている人であるか知らない人であるかを表す情報と、回避希望レベルを表す情報が供給される。これらの情報が回避方法決定モデルMに入力されることにより、回避方法を表す情報が出力される。
【0053】
なお、コンテキストには、ユーザの周囲で起きている出来事などの外部の状況である外部状況が含まれる。外部状況には、ユーザの行動、周りの人の行動を含むユーザの環境、ユーザが接触している人やユーザが接触する可能性のある人が誰であるのかなども含まれる。相手が知っている人であるか/知らない人であるかがコンテキストに含められるようにしてもよい。
【0054】
また、コンテキストには、ユーザの感情、ユーザの生体反応などの内部の状況である内部状況が含まれる。内部状況には、ユーザが接触している人、ユーザが接触する可能性のある人の感情なども含まれる。
【0055】
このように、行動支援サーバ1において決定される回避方法は、相手が知っている人であるケースと、相手が知らない人であるケースとで異なる回避方法となる。
【0056】
相手が知っている人である場合、上述したように、相手との今後の関係性を考慮した回避方法が決定される。一方、相手が知らない人である場合、相手との今後の関係性を考慮しない回避方法が決定される。
【0057】
また、行動支援サーバ1において決定される回避方法は、回避希望レベルによって異なる回避方法となる。回避希望レベルは、相手との距離を変えて、相手を回避することについてのユーザの希望の度合いを表す。
【0058】
【0059】
回避希望レベル1、回避希望レベル2、回避希望レベル3の3段階のレベルが回避希望レベルとして用意される。
【0060】
回避希望レベル1は、相手との接触前に用いられるレベルである。
図3を参照して説明したユーザU2の状況が、相手である不審者との接触前の状況となる。
【0061】
回避希望レベル1は、即退避すること(すぐに回避すること)を希望していることを表す。
【0062】
一方、回避希望レベル2,3は、相手との接触後に用いられるレベルである。
図2を参照して説明したユーザU1の状況が、相手である課長との接触後の状況となる。
【0063】
回避希望レベル2は、接触中の相手からどうにかして退避することを希望していること(回避することを強く希望していること)を表す。例えば、話しかけられて対応している間に気まずい雰囲気になり、回避したくなったときに回避希望レベル2の回避方法が用いられる。
【0064】
回避希望レベル3は、接触中の相手からできれば退避することを希望していること(回避することを弱く希望していること)を表す。例えば、露骨に回避するまではしないものの、さりげなく回避したいといったときに回避希望レベル3の回避方法が用いられる。
【0065】
このような回避希望レベルが、例えばユーザにより指定される。コンテキストなどに応じて、回避希望レベルが行動支援サーバ1により自動的に決定されるようにしてもよい。
【0066】
このように、行動支援サーバ1においては、相手を回避することについてのユーザの希望の強さを表す回避希望レベルに応じて、異なる内容の回避方法が決定される。
【0067】
<<行動支援サーバの動作>>
ここで、
図8のフローチャートを参照して、相手を回避するための行動の選択を支援する行動支援サーバ1の基本的な動作について説明する。ユーザは、クライアント端末を持ったり、身につけたりして生活を送っているものとする。
【0068】
ステップS1において、行動支援サーバ1は、クライアント端末から送信されてきたセンサデータを取得する。
【0069】
ユーザが有しているクライアント端末からは、クライアント端末に設けられたセンサにより検出されたセンサデータが繰り返し送信されてくる。例えば、ユーザの周囲をカメラにより撮影した画像、ユーザの音声をマイクロフォンにより検出して得られた音声データ、ユーザの生体反応を生体センサにより検出して得られた生体データなどの各種のセンサデータが取得される。
【0070】
クライアント端末に設けられたセンサより検出されたセンサデータではなく、ユーザ(クライアント端末)の近くにあるセンサにより検出されたセンサデータが送信されてくるようにしてもよい。
【0071】
ステップS2において、行動支援サーバ1は、センサデータを解析し、コンテキストを検出する。上述したように、コンテキストには外部状況と内部状況が含まれる。外部状況は、例えば、ユーザの周囲の様子が写る画像を解析したり、音声を解析したりして特定される。また、内部状況は、ユーザの生体反応や発話の内容を解析したり、画像に写るユーザの表情から感情を推定したりして特定される。
【0072】
ステップS3において、行動支援サーバ1は、イベントを発生させることのトリガであるイベントトリガとなる出来事が起きたか否かをコンテキストに基づいて判定する。
【0073】
イベントトリガとなる出来事には、相手を回避することの要請である回避要請がユーザにより行われたことが含まれる。回避要請は、例えば、「SOS」、「ヤバい」などの特定の言葉をユーザが発することによって行われる。また、回避要請は、クライアント端末の画面上でボタンを押すなどの所定の操作によっても行われる。
【0074】
ユーザの近くに不審者がいる、ユーザの生体反応が正常ではない反応を示しているなどの、あらかじめ設定されたコンテキストが検出されたことに応じて、イベントトリガとなる出来事が起きたものとして判定されるようにしてもよい。この場合、回避要請によらずに、イベントが自動的に起こされる。
【0075】
イベントトリガとなる出来事が起きたとステップS3において判定した場合、ステップS4において、行動支援サーバ1は、ユーザに問い合わせることによって回避希望レベルを確認する。回避希望レベルをユーザに確認することなく、イベントトリガとなる出来事が生じたことに応じて回避希望レベルが自動的に決定されるようにしてもよい。
【0076】
ステップS5において、行動支援サーバ1は、回避方法決定モデルMを用いるなどして、コンテキストに応じた回避方法を決定する。
【0077】
ステップS6において、行動支援サーバ1は、決定した回避方法に応じたイベントを発生させる。イベントの発生は、行動支援サーバ1とクライアント端末が連携して行われる。クライアント端末は、行動支援サーバ1による制御に従って、行動支援サーバ1により起こされたイベントをユーザに提示する。クライアント端末は、適宜、ユーザだけでなく、少なくとも相手を含む、ユーザの周囲の人に対してイベントを提示する。
【0078】
なお、イベントによっては、行動支援サーバ1と、ユーザの近くに設置されているデバイスやユーザの近くにいる人が持っているデバイスが連携して起こされる。
【0079】
ステップS6においてイベントの発生が行われた後、または、ステップS3においてイベントトリガとなる出来事が起きていないと判定された場合、ステップS1に戻り、以上の処理が繰り返される。
【0080】
以上のような処理により実現される回避の具体例について説明する。
【0081】
<<相手が知らない人であるケース>>
<回避希望レベル1>
図9は、ユーザが遭遇している状況の例を示す図である。
【0082】
図9に示すように、ユーザが街中を歩いている場合において、前方から不審者が向かってきている状況を想定する。このまま道を直進した場合、ユーザは不審者に接近し、言いがかりをつけられるなどして不審者から絡まれる可能性がある。前方にいる不審者は、まだ接触していないものの、接触することが予測される相手である。ユーザの前方には曲がり角があり、ユーザがいま歩いている道を迂回することができるようになっている。
【0083】
・音声ナビゲーションの例
図10は、音声ナビゲーションを用いた回避の例を示す図である。
【0084】
図10の左側の枠F1に示すように、不審者に気付いたユーザが回避要請となる「ヤバい」などの言葉を発することに応じて、行動支援サーバ1が異常を検出した場合、回避希望レベル1で回避するか否かの問い合わせがユーザに対して行われる。
【0085】
例えば、ユーザは、スマートフォンをクライアント端末として有しているものとする。行動支援サーバ1の制御に基づく音声はスマートフォンのスピーカから出力され、ユーザの音声はスマートフォンのマイクロフォンにより検出される。
【0086】
図10において、「システム」の文字は行動支援システムのことを意味する。「システム」の文字の隣に示す発話の内容は、行動支援サーバ1の制御に基づいてスマートフォンから出力される音声である。
【0087】
行動支援サーバ1による問い合わせに応じて「お願いします」などの言葉を発することにより、回避希望レベルの指定が行われる。
【0088】
行動支援サーバ1においては、道を迂回させるためのナビゲーション音声を出力するための制御が行われる。
図10の中央の例においては、枠F2に示すように、曲がり角を右に曲がり、その先にある曲がり角を左に曲がることが案内されている。その後、
図10の右側の枠F3に示すように、元の道に戻るためのナビゲーション音声が出力される。
【0089】
架空のイベントではなく、このように単に道を誘導することによって、相手の回避が行われるようにしてもよい。
【0090】
・音声ARを用いた例
図11は、音声AR(Augmented Reality)を用いた回避の例を示す図である。
【0091】
音声ARは、実際には鳴っていない仮想的な音を発生し、ユーザに聞かせることによって、実際には起きていない出来事をユーザに認知させる技術である。例えば、ユーザは、イヤホンをクライアント端末として装着しているものとする。
【0092】
不審者に気付いたユーザが回避要請となる言葉を発することに応じて、行動支援サーバ1が異常を検出した場合、
図11の左側に示すように、回避希望レベル1で回避するか否かの問い合わせがユーザに対して行われる。行動支援サーバ1による問い合わせに応じて「お願い」などの言葉を発することにより、回避希望レベルの指定が行われる。
【0093】
回避要請となる言葉をユーザが発することに応じて行動支援サーバ1において異常が検出されるのではなく、不審者と接触することが予測された場合に異常が検出され、不審者と接触する可能性があることがユーザに対して提示されるようにしてもよい。不審者と接触することはコンテキストに基づいて予測される。
【0094】
行動支援サーバ1においては、迂回する道にいる人が、ユーザのことを呼ぶことが架空のイベントとして起こされる。第三者がユーザを呼ぶことは、ユーザを呼ぶ声を、音源位置を変えながらイヤホンから出力させることによって行われる。
【0095】
図11の中央の例においては、曲がり角を右に曲がった位置P1を音源位置とする「こっち、こっち」の音声が出力され、それに続けて、次の曲がり角を左に曲がった先の位置P2を音源位置とする「こっち、こっち」の音声が出力される。自分を呼ぶ声の方に向かって歩くという行動を選択することにより、ユーザは、
図11の右側に示すように、不審者が通る道を迂回して、元の道に戻ることができる。
【0096】
だれかが自分のことを呼ぶといったイベントが起きることにより、ユーザは、自分を呼ぶ声の方向に向かう行動を自然に選択することができ、自然な態度で不審者を回避することが可能となる。不審者を回避することを意識しながら道を迂回しようとした場合、そのことが態度に現れ、露骨に回避するような形になってしまうことがあるが、露骨に回避するような態度を取ってしまうことを防ぐことが可能となる。
【0097】
ユーザを呼ぶ声として、ユーザにだけ聞こえる音声が出力されるようにしてもよいし、不審者を含む周囲にいる人にも聞こえる音声が出力されるようにしてもよい。周囲にいる人にも聞こえる音声の出力は、位置P1、位置P2などの、街中の各位置に設置されているスピーカから音声を出力することによって行われる。この場合、行動支援サーバ1は、ユーザが有しているクライアント端末とは異なるデバイスと連携することによって、イベントを発生させることになる。
【0098】
・ARオブジェクトを用いた例
図12は、ARオブジェクトを用いた回避の例を示す図である。
【0099】
ARオブジェクトは、例えば透過型のHMDに表示される仮想的なオブジェクトである。ユーザは、前方の風景に重ねて、実際には存在しないオブジェクトを見ることができる。ユーザは、HMDをクライアント端末として装着しているものとする。
図12において、ユーザが装着している眼鏡は透過型のHMDである。非透過型のHMDを用いてARオブジェクトの表示が行われるようにしてもよい。
【0100】
図12の左側に示すように、不審者に気付いたユーザが回避希望レベルを指定した場合、行動支援サーバ1においては、黒猫を出現させることが架空のイベントとして起こされる。黒猫を出現させることは、黒猫をARオブジェクトとしてHMDに表示させることによって行われる。黒猫は、迂回する道に沿って歩くように移動して表示される。
【0101】
図12の中央の例においては、曲がり角を右に曲がった位置P1に黒猫が表示され、それに続けて、次の曲がり角を左に曲がった先の位置P2に黒猫が表示される。黒猫について行くという行動を選択することにより、ユーザは、
図12の右側に示すように、不審者が通る道を迂回して、元の道に戻ることができる。
【0102】
黒猫が現れるといったイベントが起きることにより、ユーザは、黒猫について行く行動を自然に選択することができ、自然な態度で不審者を回避することが可能となる。当然、黒猫以外のARオブジェクトが表示されるようにすることも可能である。
【0103】
・一時的に回避する例
図13は、店舗を用いた回避の例を示す図である。
【0104】
図13に示すように、ユーザが歩いている道沿いにユーザの嗜好に合う店舗があるものとする。行動支援サーバ1においては、ユーザの嗜好や価値観などの情報が管理されている。ユーザは、スマートフォンをクライアント端末として有しているものとする。
【0105】
不審者に気付いたユーザが回避希望レベルを指定した場合、
図13の左側に示すように、行動支援サーバ1においては、複数並んでいる店舗のうちの、前方にあるユーザの好みの店舗で安売りをしていることが架空のイベントとして起こされ、そのことがユーザに通知される。ユーザの嗜好に合う複数の店舗が理由とともに通知されるようにしてもよい。
【0106】
ユーザの嗜好に合わない店舗でユーザの好みの商品が売っている、ユーザの嗜好に合う店舗の店員が呼んでいるといったように、店舗に関する他の架空のイベントが起こされるようにしてもよい。
【0107】
その後、ユーザは、安売りに興味を示しながら
図13の中央に示すように店舗に入る。ユーザは、不審者が通過するのを待って、
図13の右側に示すように店舗から出ることにより、不審者を回避することができる。
【0108】
自分の好みの店舗で安売りをしているといったイベントが起きることにより、ユーザは、店舗に入る行動を自然に選択することができ、店舗の様子を伺いながら入ることにより、自然な態度で不審者を回避することが可能となる。
【0109】
以上のように、回避希望レベル1で回避することが要請された場合、接触することが予測される相手をすぐに回避できる状況を作り出す各種のイベントが起こされ、ユーザなどに提示される。
【0110】
<回避希望レベル2>
・ユーザを呼び出すことによって回避させる例
図14は、ユーザが遭遇した状況の例を示す図である。
【0111】
図14に示すように、ユーザが街中を歩いているときに他人から声をかけられ、親切に道を教えている状況を想定する。
図14に示す状況は、相手と接触した後の状況である。相手と話しているうちに、
図15に示すように、話の内容が道案内の内容から違う内容にすり替えられ、雰囲気が変わってきたものとする。吹き出し#11に示すように、ユーザの感情は、親切に対応していた状態から、相手を回避することを希望している状態に変化している。
【0112】
図16の左側に示すように、回避要請となる言葉をユーザが発することに応じて、行動支援サーバ1が異常を検出した場合、回避希望レベル2で回避するか否かの問い合わせがユーザに対して行われる。
【0113】
図16の左側の例においては、「SOS,SOS ここから逃がしてください!即効お願いします!」が回避要請となる言葉である。「困ります」を発話することにより、または、クライアント端末に振動を加えることにより、回避希望レベル2での回避要請が行われるようにしてもよい。
【0114】
この例においては、ユーザは、スマートウォッチをクライアント端末として装着している。行動支援サーバ1の制御に基づく音声は、スマートウォッチのスピーカから小さな音量で出力される。また、ユーザの音声は、スマートウォッチのマイクロフォンにより検出される。スマートウォッチの筐体にはディスプレイも設けられている。
【0115】
ユーザの感情が相手を回避することを希望している状態に変化したことが検出された場合に行動支援サーバ1において異常が検出され、回避するか否かの問い合わせがユーザに対して行われるようにしてもよい。ユーザの感情が相手を回避することを希望している状態に変化したことは、コンテキストに基づいて判断される。
【0116】
図16の右側に示すように、行動支援サーバ1による問い合わせに応じてユーザが承諾することにより、回避希望レベルの指定が行われる。
【0117】
行動支援サーバ1においては、第三者がユーザのことを呼び出すといった架空のイベントが起こされ、ユーザを呼び出すメッセージがスマートウォッチに対して送信される。すなわち、この例においては、人に呼ばれているからこの場を離れる必要があるといった状況が作り出されることになる。
【0118】
【0119】
図17の左側の吹き出し#12に示すように、スマートウォッチのディスプレイには、会議が始まるから職場に急いで戻ることをユーザに指示するメッセージが表示される。メッセージを見たユーザは、急いで戻る必要があることを相手に伝えて立ち去ることにより、露骨に回避するのではなく、自然な形で相手を回避することができる。
【0120】
すなわち、呼び出されるといったイベントが起きることにより、ユーザは、呼び出しに応じて立ち去る行動を自然に選択することができ、自然な態度で相手を回避することが可能となる。また、自分が確認するついでに相手にもメッセージをさりげなく見せることにより、ユーザは、この場から立ち去ることについての納得感を相手に与えることが可能となる。
【0121】
ユーザを呼び出すメッセージは、例えば、電子メール、SMS(Short Message Service)により送信される。電話の着信がスマートウォッチに対して入れられ、ユーザの呼び出しが音声によって行われるようにしてもよい。
【0122】
図17の例においては、「急いで!」といったような、急いで戻ることを直接表すメッセージが送信されるものとしたが、「買い物終わったか?」、「何分待たせるんだ?」などのように、問い合わせによって、急いで戻ることを間接的に表すメッセージが送信されるようにしてもよい。
【0123】
・協力者が声をかけることによって回避させる例
図18は、回避の例を示す図である。
【0124】
状況によっては、ユーザがメッセージを確認しづらいこともある。友人などがユーザの協力者としてあらかじめ登録されており、協力者がユーザの近くにいる場合、相手から声をかけられて困っているユーザに対して声をかけることが行動支援サーバ1から協力者に対して要請されるようにしてもよい。行動支援サーバ1においては、ユーザの協力者がだれであるのかとともに、それぞれの協力者の位置が管理されている。
【0125】
図18の例においては、矢印A31に示すように回避要請が行われることに応じて、矢印A32に示すように、ユーザに声をかけることの要請である声かけ要請が協力者に対して行われる。行動支援サーバ1から協力者に対しては、「会議があることにして急いで戻るように伝えてください」といったように、声かけの内容も通知される。例えば、架空のイベントに急いで戻ることをユーザに伝えることが通知される。声かけ要請は、電子メール、SMS、電話などにより行われる。
【0126】
協力者が声をかける場合においても、第三者である協力者がユーザのことを呼び出すといった架空のイベントが発生され、人に呼ばれているからこの場を離れる必要があるといった状況が作り出されることになる。
【0127】
行動支援サーバ1からの要請を受けた協力者は、
図19に示すように現場に向かい、行動支援サーバ1からの通知に従ってユーザに声をかける。協力者から声をかけられたユーザは、協力者と一緒に立ち去ることにより、露骨に回避するのではなく、自然な形で相手を回避することができる。
【0128】
ユーザに声をかける協力者として複数の人が登録される。協力者がユーザの知っている人であってもよいし、知らない人であってもよい。協力者がユーザの知らない人である場合、声かけの対象となるユーザがだれであるのかが、顔写真などのユーザの特徴を表す情報とともに行動支援サーバ1から通知される。
【0129】
声かけ要請を受けた協力者が現場に直接向かうのではなく、協力者からユーザに電話をかけることによって、急いで戻ることが伝えられるようにしてもよい。協力者からの電話に出ることにより、ユーザは、呼び出されている状況を相手の人にアピールすることができる。
【0130】
以上のように、回避希望レベル2で回避することが要請された場合、接触後の相手からどうにかして回避するための状況を作り出す各種のイベントが起こされ、ユーザに提示される。
【0131】
<回避希望レベル3>
回避希望レベル3は、接触後の相手から可能であれば回避したいといったときに用いられる回避希望レベルである。回避希望レベル3での回避は、例えば、回避する理由として用いることができる用事が行動支援サーバ1からユーザに通知されることによって行われる。架空のイベントとしてユーザの用事がコンテキストに応じて生成され、ユーザに通知される。
【0132】
ユーザは、行動支援サーバ1からの通知をきかっけとして、行動支援サーバ1から通知された用事があることを理由として相手を回避することになる。
【0133】
図20は、行動支援サーバ1からの通知の例を示す図である。
【0134】
図20の例においては、トイレに行くことを理由として相手を回避することが通知されている。ユーザは、
図20の通知を確認した後、トイレに行きたいことを伝え、相手からさりげなく回避することになる。例えば、ユーザのコンテキストが、ユーザがトイレに一定の時間以上行っていないことを表している場合にトイレの用事が選択される。
【0135】
行動支援サーバ1から通知される用事は、買い物、仕事、勉強などの、トイレ以外の用事であってもよい。
【0136】
回避する理由をユーザが自ら考えるとした場合、嘘をついていることが態度に表れてしまい、自然に立ち去ることが難しいことがある。回避する理由がコンテキストに応じて行動支援サーバ1によって決定され、提示されることにより、ユーザは、立ち去る理由を躊躇なく相手に伝え、さりげなく相手を回避することができる。
【0137】
以上のように、回避希望レベル3で回避することが要請された場合、接触後の相手からできれば回避できるようにするための状況を作り出す各種のイベントが起こされ、ユーザに提示される。
【0138】
<<相手が知っている人であるケース>>
相手が知っている人である場合、同じ相手を回避するのが2回目以降であるときには、過去に使われた回避方法とは異なる回避方法が用いられる。
【0139】
【0140】
図21の左側に示す状況は、ユーザが、自分の上司である課長から再度話しかかけられている状況である。ユーザは、
図2を参照して説明したようにして1回目の状況を回避した後の例えば翌日に課長から話しかけられている。ユーザは、再度、今の状況を回避したいと考えている。
【0141】
このような状況において、ユーザU1が相手を回避することを要請した場合、矢印A41の先に示すように、顧客との打合せが架空のイベントとして起こされ、急いで戻ることがユーザに通知される。吹き出し#21に示すように、ユーザが装着するスマートウォッチのディスプレイには、打合せが始まるから急いで戻ることをユーザに指示するメッセージが表示される。
【0142】
すなわち、課長を回避するのが2回目であるから、1回目の回避方法と異なる回避方法が選択され、イベントが起こされる。
図2を参照して説明した1回目の回避方法は、社長からの電話の着信を架空のイベントとした回避方法である。
【0143】
ユーザU1は、スマートウォッチの表示を見て、顧客との打合せがあることを課長に伝える。ユーザU1は、顧客との打合せに向かうという行動を選択することにより、矢印A42の先に示すように、課長の説教を回避することができる。
【0144】
このように、相手が知っている人である場合、過去に使った回避方法と異なる回避方法が用いられる。同じ人を同じ回避方法で回避した場合、相手の人に不審がられ、今後の関係性が損なわれてしまう可能性があるが、そのようなことを防ぐことが可能となる。
【0145】
相手が知っている人である場合の行動支援サーバ1の動作は、過去に使った回避方法と異なる回避方法が用いられる点を除いて、基本的には、相手が知らない人である場合と同様である。
【0146】
【0147】
回避したい人、すなわち会いたくない人がいる場合、ユーザは、その人の顔画像などの情報を行動支援サーバ1にあらかじめ登録する。会いたくない人のID、外見の特徴などの、人物の識別に用いることが可能な他の情報が登録されるようにしてもよい。行動支援サーバ1においては、例えば、あらかじめ登録された人と同じ人がユーザの知っている人であるとして判断され、あらかじめ登録された人と異なる人がユーザの知らない人であるとして判断される。
【0148】
図22に示すように、ユーザが例えば会社内にいる間、ユーザが持つクライアント端末に搭載されたカメラにより撮影された画像が行動支援サーバ1に送信され続ける。例えば、ユーザの周囲の360度の範囲を撮影可能なカメラCにより撮影された広角の画像が行動支援サーバ1に送信される。
【0149】
行動支援サーバ1においては、ユーザの周りを撮影して得られた画像が解析され、人がいる場合には人物の識別が行われる。会いたくない人として登録されている課長がユーザの近くにいて、近づいてきていることがコンテキストとして検出された場合、
図23の吹き出しに示すように、回避するか否かの問い合わせが行われる。問い合わせに応じて回避要請が行われた場合、ユーザの進行方向が課長の方向の反対方向であるときには、振り向かずにそのまま前進することが通知される。
【0150】
【0151】
ユーザが持っているクライアント端末がスマートフォンである場合、
図24のAに示すように、ディスプレイの表示を用いて、振り向かずにそのまま前進することが通知される。また、ユーザがイヤホンを装着している場合、
図24のBに示すように、振り向かずにそのまま前進することが音声によって通知される。
【0152】
このような誘導にも関わらず、ユーザが課長に話しかけられた場合、
図21を参照して説明したようにして、課長の回避が回避希望レベル2で行われる。なお、相手が知っている人である場合も、回避希望レベルの指定がユーザにより適宜行われる。
【0153】
単なる誘導ではなく、相手との接触前の上述したような架空のイベントが起こされ、それに応じてユーザが行動を選択することによって課長の回避が行われるようにしてもよい。
【0154】
図25は、会いたくない人の登録画面の例を示す図である。
【0155】
クライアント端末であるスマートフォンにインストールされた行動支援アプリケーションを起動させ、所定の操作をユーザが行った場合、
図25に示すような登録画面が表示される。行動支援アプリケーションは、上述したような行動の選択を支援する機能を行動支援サーバ1と連携して実現するアプリケーションプログラムである。
図25に示す登録画面は、行動支援アプリケーションと行動支援サーバ1との間で通信が行われ、行動支援サーバ1から送信されてきた情報に基づいて表示される。
【0156】
図25の例においては、3人の知っている人を会いたくない人として登録することができるようになっている。
図25のメッセージにおける「ストレスとなる人」は会いたくない人のことを表す。
【0157】
会いたくない人の情報として、顔写真、氏名、ニックネーム、性格などが登録される。会いたくない人毎に、回避希望レベルを登録したり、回避方法を登録したりすることができるようにしてもよい。
【0158】
<<ユーザの価値観を考慮した回避方法の決定>>
同じ状況に遭遇した場合であっても、好ましい回避方法は人によって異なる。言い換えると、どの回避方法で回避するのが好ましいかは、人の価値観によって異なる。行動支援サーバ1における回避方法の決定にユーザの価値観が用いられるようにしてもよい。
【0159】
図26は、行動支援アプリケーションにより表示されるアンケート画面の例を示す図である。
【0160】
図26の例においては、コストパフォーマンスが悪いと考える項目を2つの選択肢の中から選択することによってアンケートが進められるようになっている。ユーザは、2つの選択肢を見て、コストパフォーマンスが悪い項目を瞬間的に判断していずれかの項目を選択する。
【0161】
例えば「部長」と「社員」のうちのどちらがコストパフォーマンスが悪い(低い)と考えるかは、生き方についての価値観を問う質問となる。「部長」の方がコストパフォーマンスが高いと考えるユーザは、出世意欲があり、社会的地位を求め、組織を重視する価値観を持っているユーザであるといえる。一方、「社員」の方がコストパフォーマンスが高いと考えるユーザは、出世意欲がなく、社会的地位はほどほどでいいと考え、自分を重視する価値観を持っているユーザであるといえる。
【0162】
行動支援サーバ1においては、アンケートに対するユーザの回答を解析することによって、ユーザの価値観に応じたタイプ(グループ)である価値観タイプが特定される。
【0163】
【0164】
図27に示すように、例えば、Aタイプ、Bタイプ、Cタイプの3つの価値観タイプが用意される。3つの価値観タイプのうちのいずれかのタイプが、ユーザの価値観に応じて特定される。4つ以上の価値観タイプが用意されるようにしてもよい。
【0165】
例えば、Aタイプは、場の雰囲気を壊さず、上司の機嫌や都合を考慮した回避方法が選択される価値観タイプである。Bタイプは、悪く思われたとしても構わず、とにかく回避する回避方法が選択される価値観タイプである。Cタイプは、適当にごまかしながら、相手との関係性をうまくとった回避方法が選択される価値観タイプである。
【0166】
図26を参照して説明した「部長」と「社員」のうちのいずれかを選択するアンケートにおいて「部長」の方がコストパフォーマンスが高いと考えるユーザの価値観タイプとしては、例えばAタイプが特定されやすくなる。また、「社員」の方がコストパフォーマンスが高いと考えるユーザの価値観タイプとしては、例えばBタイプが特定されやすくなる。
【0167】
このようにして特定された価値観タイプを用いて、各ユーザの価値観を考慮した回避方法が決定される。例えば、回避方法決定モデルMの入力として価値観タイプを用いることによって、価値観を考慮した回避方法が決定される。
【0168】
図28は、価値観タイプ毎の回避方法の例を示す図である。
【0169】
図28に示す回避方法は、上司と話している場合において、その場を立ち去りたいとユーザが考えているときの回避方法である。
【0170】
例えば、価値観タイプがAタイプであるユーザの回避方法として、仕事のアイデアが思い浮かんだことを理由にデスクワークに戻る回避方法が選択される。この場合、仕事のアイデアが思い浮かんだというイベントが架空のイベントとなる。ユーザは、例えば行動支援サーバ1からの通知に応じて、「いいアイデアが出たので、早く席に戻って忘れないうちにまとめちゃいます!」などの言葉を残して上司の前から立ち去る。
【0171】
価値観タイプがBタイプであるユーザの回避方法として、友人からの電話の着信があったことを理由にその場を離れる回避方法が選択される。この場合、友人からの電話の着信というイベントが架空のイベントとなる。ユーザは、例えば行動支援サーバ1からの通知に応じて、「やべえ、電話だ」などの言葉を残して上司の前から立ち去る。
【0172】
価値観タイプがCタイプであるユーザの回避方法として、定例の資料が出来ておらず、デスクワークに戻ることを理由にその場を離れる回避方法が選択される。この場合、定例の資料が出来ていないというイベントが架空のイベントとなる。ユーザは、例えば行動支援サーバ1からの通知に応じて、「資料できてない。急いでやらなくては。ほんとうにすみません。失礼します。」などの言葉を残して上司の前から立ち去る。
【0173】
価値観タイプを用いて回避方法が決定されることにより、ユーザは、自分の価値観にあった回避方法で相手を回避することができる。価値観だけでなく、趣味、嗜好などのユーザの他の属性にも基づいて回避方法が決定されるようにしてもよい。
【0174】
<<各装置の構成>>
ここで、行動支援システムを実現する装置の構成について説明する。
【0175】
<行動支援サーバ1の構成>
図29は、行動支援サーバ1のハードウェア構成例を示すブロック図である。
【0176】
図29に示すように、行動支援サーバ1はコンピュータにより構成される。複数台のコンピュータによって行動支援サーバ1が実現されるようにしてもよい。
【0177】
CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続される。
【0178】
バス104には、さらに、入出力インタフェース105が接続される。入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107が接続される。
【0179】
また、入出力インタフェース105には、記憶部108、通信部109、ドライブ110が接続される。
【0180】
記憶部108は、ハードディスクや不揮発性のメモリなどにより構成される。記憶部108には、CPU101が実行するプログラム、各ユーザに関する情報などの各種の情報が記憶される。
【0181】
通信部109は、ネットワークインタフェースなどにより構成される。通信部109は、各ユーザが有するクライアント端末、協力者が有するクライアント端末などの、行動支援システムを実現するための各種のデバイスとの間でインターネットを介して通信を行う。
【0182】
図30は、行動支援サーバ1の機能構成例を示すブロック図である。
【0183】
図30に示す機能部のうちの少なくとも一部は、
図29のCPU101により所定のプログラムが実行されることによって実現される。行動支援サーバ1においては情報処理部121が実現される。情報処理部121は、上述した回避方法決定部11に加えて、対話部131、コンテキスト検出部132、イベント発生部133、価値観判断部134、ユーザ属性記憶部135、回避情報取得部136、および学習部137により構成される。
【0184】
対話部131は、クライアント端末との間で通信を行い、ユーザとの対話を実現する。対話部131による対話は、音声を用いて、またはテキストを用いて行われる。回避要請のための対話、回避希望レベルの確認のための対話などの、様々な対話がユーザのとの間で行われる。
【0185】
上述した
図8のステップS4の処理が、対話部131により行われる処理となる。ユーザが回避要請を行っていることを表す情報はコンテキスト検出部132に供給される。また、ユーザとの対話によって確認された回避希望レベルを表す情報は回避方法決定部11に供給される。
【0186】
コンテキスト検出部132は、クライアント端末から送信されてきたセンサデータを取得し、上述したような外部状況と内部状況を含む、ユーザのコンテキストを検出する。
【0187】
例えば、コンテキスト検出部132は、クライアント端末のカメラにより撮影された画像やマイクロフォンにより検出された音声を解析することによって外部状況を検出する。また、コンテキスト検出部132は、クライアント端末のカメラにより撮影された画像、マイクロフォンにより検出された音声、生体センサにより検出されたユーザの生体反応を解析することによって内部状況を検出する。
【0188】
コンテキスト検出部132は、ジャイロセンサ、加速度センサ、測位センサなどの、クライアント端末の他のセンサにより検出されたセンサデータに基づいて、ユーザの場所、ユーザの進行方向、ユーザの視線の方向をコンテキストとして検出することなども行う。不審者と接触する可能性があるか否かなどのコンテキストの検出も、コンテキスト検出部132により行われる。
【0189】
このように、コンテキストの検出は、クライアント端末から送信されてきた複数種類のセンサデータのうちの少なくともいずれかのセンサデータを用いて行われる。
【0190】
コンテキスト検出部132は、イベントトリガとなる出来事が生じた場合、検出したコンテキストの情報を回避方法決定部11に出力する。
図8のステップS1,S2,S3の処理が、コンテキスト検出部132により行われる処理となる。
【0191】
回避方法決定部11は、ユーザのコンテキストに応じた回避方法を決定する。
図6を参照して説明したように、コンテキストに応じた回避方法は回避方法決定モデルMを用いて決定される。対話部131から供給された回避希望レベルを表す情報、コンテキスト検出部132から供給されたコンテキストを表す情報、ユーザ属性記憶部135から読み出された価値観タイプを表す情報などを入力することによって得られた回避方法決定モデルMの出力が、回避方法を表す情報となる。
【0192】
回避方法決定部11により決定された回避方法を表す情報は、イベント発生部133に供給される。
図8のステップS5の処理が、回避方法決定部11により行われる処理となる。
【0193】
回避方法決定モデルMを用いた推論によって回避方法が決定されるのではなく、あらかじめ設定された、コンテキストなどと回避方法との対応関係を表す情報に基づいて回避方法が決定されるようにしてもよい。コンテキストなどの情報に基づいて所定の計算が行われ、回避方法が決定されるようにしてもよい。コンテキストに応じた回避方法を決定する方法として様々な方法を採用することが可能である。
【0194】
イベント発生部133は、クライアント端末と通信を行い、回避方法決定部11により決定された回避方法に応じた架空のイベントを発生させ、ユーザに提示する。上述したように、イベントの提示は、適宜、ユーザの相手や、ユーザの周囲にいる人をも対象として行われる。
図8のステップS6の処理が、イベント発生部133により行われる処理となる。
【0195】
価値観判断部134は、行動支援アプリケーションを用いて行われるアンケートの回答を取得し、ユーザの価値観に応じた価値観タイプを特定する。価値観判断部134により特定された価値観タイプの情報は、ユーザに関する他の情報とともにユーザ属性記憶部135に記憶される。
【0196】
ユーザ属性記憶部135は、クライアント端末の情報、会いたくない人としてユーザにより登録された人の情報、価値観タイプの情報、協力者の情報などの、ユーザに関する各種の属性情報を例えばユーザのIDと紐付けて記憶する。クライアント端末の情報には、クライアント端末の仕様、位置、クライアント端末と通信を行うための情報などが含まれる。クライアント端末と通信を行うための情報には、クライアント端末の電話番号、メールアドレスなどが含まれる。
【0197】
ユーザ属性記憶部135に記憶されている情報のうち、価値観タイプの情報などの、回避方法の決定に用いられる情報が回避方法決定部11により読み出される。また、イベントの提示に用いられるクライアント端末の情報などの、イベントを発生させることに用いられる情報がイベント発生部133により読み出される。
【0198】
回避情報取得部136は、各クライアント端末から送信されてきた回避情報を受信し、取得する。また、回避情報取得部136は、回避情報を公開し、各ユーザの間で共有させる。回避情報取得部136により取得された回避情報は学習部137に供給される。
【0199】
学習部137は、回避情報取得部136により取得された回避情報に基づいて、回避方法決定モデルMの学習(回避方法決定モデルMを構成するパラメータの学習)を行う。学習部137による学習によって得られた回避方法決定モデルMの情報は回避方法決定部11に供給される。
【0200】
回避方法決定モデルMの学習が、各ユーザの評価に基づいて算出されたスコアが閾値より高い回避情報だけを用いて行われるようにしてもよいし、回避に成功した回避方法に関する回避情報だけを用いて行われるようにしてもよい。
【0201】
<クライアント端末の構成>
図31は、クライアント端末201の構成例を示すブロック図である。
【0202】
クライアント端末201は、制御部211に対して、センサ部212、記憶部213、操作部214、通信部215、および出力部216が接続されることによって構成される。クライアント端末201は、行動支援システムを構成する情報処理端末である。
【0203】
制御部211は、CPU、ROM、RAMなどにより構成される。制御部211は、所定のプログラムをCPUにより実行し、クライアント端末201の全体の動作を制御する。制御部211においては、行動支援アプリケーションなどのプログラムが実行されることによって、センサデータ送信部221とイベント提示部222が実現される。
【0204】
センサデータ送信部221は、通信部215を制御することによって行動支援サーバ1と通信を行い、センサ部212から供給されたセンサデータを行動支援サーバ1に送信する。
【0205】
センサ部212からは、カメラ231により撮影された画像、マイクロフォン232により検出された音声、測位センサ233により検出されたユーザの位置、生体センサ234により検出された生体データを含むセンサデータが供給される。ジャイロセンサや加速度センサにより検出されたデータ、温度センサにより検出されたデータなどの、他のセンサにより検出されたデータがセンサデータに含まれるようにしてもよい。
【0206】
イベント提示部222は、通信部215を制御することによって行動支援サーバ1と通信を行い、行動支援サーバ1による制御に従ってイベントを提示する。
【0207】
例えば、イベント提示部222は、電話の着信があったことを提示する場合、電話の発信元の情報をディスプレイ241に表示させたり、電話の着信音をスピーカ242から出力させたりする。また、イベント提示部222は、ユーザの進行方向を誘導する場合、ナビゲーションの音声や、第三者がユーザのことを呼ぶ音声をスピーカ242から出力させる。
【0208】
イベント提示部222は、クライアント端末201がHMDである場合において、仮想的なオブジェクトを表示させることによってユーザを誘導するとき、ユーザの目の前方に設けられたディスプレイ241に仮想的なオブジェクト表示させる。
【0209】
イベント提示部222は、ユーザを呼び出すメッセージをディスプレイ241に表示させるなどの他の様々な方法によってイベントを提示する。イベントの提示がクライアント端末201の外部のデバイスを用いて行われる場合、イベント提示部222は、通信部215を介して外部のデバイスと通信を行い、外部のデバイスを制御してイベントを提示させるなどの処理を行う。
【0210】
センサ部212は、カメラ231、マイクロフォン232、測位センサ233、および生体センサ234により構成される。
【0211】
カメラ231は、クライアント端末201を有しているユーザの周囲を撮影し、撮影することによって得られた画像を制御部211に出力する。カメラ231が撮影する画像は、静止画であってもよいし、動画であってもよい。
【0212】
マイクロフォン232は、ユーザの音声、ユーザに話しかけている相手の音声、周囲の環境音などの各種の音声を検出し、制御部211に出力する。
【0213】
測位センサ233は、GPSセンサなどにより構成される。測位センサ233は、クライアント端末201の位置を検出し、制御部211に出力する。
【0214】
生体センサ234は、体温センサ、心拍数センサなどにより構成される。アルファ波やベータ波などの脳波を検出するセンサが生体センサ234に含まれるようにしてもよい。生体センサ234は、体温、心拍数、脳波などのユーザの生体データを検出し、制御部211に出力する。
【0215】
記憶部213は、フラッシュメモリなどにより構成される。記憶部213には、行動支援アプリケーションなどの各種のデータが記憶される。
【0216】
操作部214は、ディスプレイ241上に設けられたタッチパネル、クライアント端末201の筐体の所定の位置に設けられたボタンなどにより構成される。操作部214は、ユーザの操作を検出し、操作の内容を表す情報を制御部211に出力する。
【0217】
通信部215は、Bluetooth(登録商標)、無線LANなどの近距離の無線通信のインタフェース、および、4G,5Gなどの移動体通信システム(WAN)を用いた無線通信のインタフェースである。通信部215は、行動支援サーバ1などの外部の装置との間で通信を行う。
【0218】
出力部216は、ディスプレイ241とスピーカ242により構成される。ディスプレイ241は、制御部211による制御に従って各種の情報を表示する。スピーカ242は、制御部211による制御に従って各種の音声や効果音を出力する。
【0219】
振動発生モジュール、ロボットアームなどの、ユーザとのインタフェースとなる他のモジュールが出力部216に設けられるようにしてもよい。出力部216の各構成はイベントを提示することに用いられる。
【0220】
なお、以上のようなクライアント端末201の構成は、スマートフォン、スマートウォッチ、HMDなどの、クライアント端末201の種類によって適宜変更される。クライアント端末201の種類によっては、
図31に示す構成のうちの一部の構成が設けられないこともあるし、
図31には示されていない他の構成が設けられることもある。
【0221】
<<変形例>>
<回避予約>
コンテキストに応じた回避方法をユーザがあらかじめ設定しておくことができるようにしてもよい。この場合、将来のコンテキストと、そのコンテキストが検出されたときに用いる回避方法とがユーザにより設定される。ユーザは、回避方法をいわば予約することができることになる。
【0222】
回避方法の予約は、状況(コンテキスト)、回避希望レベル、イベントの内容などを、行動支援アプリケーションのメニュー画面を用いて設定することによって行われる。帰り道、電車、駅前、繁華街などの場所に関する設定、ナンパ、勧誘、酔っ払いなどの出来事に関する設定などを、メニュー画面を用いて行うことが可能とされる。
【0223】
ユーザにより設定されたコンテキストと同じコンテキストが検出された場合、あらかじめ設定された回避方法を用いてユーザを回避させるためのイベントが行動支援サーバ1により起こされる。
【0224】
回避方法を予約できるようにすることにより、ユーザは、ある場所に行くことで煩わしいことが起こるかもしれないという予感に対して準備をすることができる。
【0225】
<2人を近付けるための行動の選択支援>
相手が煩わしいとユーザが感じたことに応じて、その相手を回避させるための、すなわち、相手を遠ざけるためのイベントが起こされる場合について説明したが、相手との距離を近づけるためのイベントが起こされるようにしてもよい。相手との距離を近づけるためのイベントは、相手との距離が遠いとユーザが感じたことに応じて起こされる。相手との距離を近づけるためのイベントも、例えば架空のイベントである。
【0226】
イベントが起こされることに応じてユーザが行動を選択することにより、ユーザと相手の距離が近づけられ、ユーザと相手はお互いに癒しを感じられるようになる。行動支援サーバ1により行われる支援は、ユーザと相手を近づけ、お互いに癒やしを感じられるようにするための行動を選択することの支援となる。
【0227】
お互いに癒しを感じられるようにするためのイベントの内容も、相手が知っている人であるか否かを含むコンテキストや、癒やしの希望レベルに応じて異なる内容となる。
【0228】
例えば、友人に元気がないと感じたことから、ユーザがイベントの発生を要請した場合、知らない人が電話をかけてくるといった架空のイベントが行動支援サーバ1によって起こされる。知らない人からの間違い電話にユーザが応答し、間違い電話といったハプニングのことについて話すことによって、ユーザは、相手に近づくことができ、癒しを感じることが可能となる。
【0229】
友人と話をしてテンションが上がってきたことが検出された場合、近くのカフェに行くことが行動支援サーバ1により提案され、クライアント端末の画面を用いた道案内が開始されるようにしてもよい。
【0230】
また、ユーザと相手の共通の友人が協力者として現れ、協力者が3人でカフェに行くことを提案するようなイベントが起こされるようにしてもよい。この場合も、声かけの内容として架空のイベントが協力者に対して行動支援サーバ1から通知される。
【0231】
架空のイベントが起こされるのではなく、単に、ある質問が行動支援サーバ1からユーザに対して通知され、同じ質問をユーザから相手に対して行うことが提案されるようにしてもよい。友人に対して「最近癒されたことって何ですか?」と質問をしたり、道でアイスを食べている知らない人に「それどこで買ったのですか?」と質問をしたりすることにより、相手との距離を近づけることが可能となる。
【0232】
このように、相手との距離を遠ざけるためのイベントではなく、相手との距離を近づけるためのイベントが行動支援サーバ1により起こされるようにすることも可能である。
【0233】
すなわち、行動支援サーバ1は、ユーザとユーザが遭遇した相手との距離を遠ざけたり近付けたりする可能性のある架空のイベントを発生させることによって、ユーザによる行動の選択を支援する情報処理装置である。ユーザと相手との距離には、物理的な距離だけでなく、精神的な距離も含まれる。
【0234】
<その他>
コンテキストの検出や回避方法の決定などの
図8を参照して説明した一連の処理がクライアント端末201により行われるようにしてもよい。この場合、
図30の情報処理部121がクライアント端末201に設けられる。行動支援アプリケーションが実行されることにより、情報処理部121がクライアント端末201において実現される。
【0235】
・プログラムについて
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
【0236】
インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなるリムーバブルメディア111に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
【0237】
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
【0238】
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
【0239】
本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
【0240】
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
【0241】
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
【0242】
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
【0243】
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
【0244】
・構成の組み合わせ例
本技術は、以下のような構成をとることもできる。
【0245】
(1)
ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、前記ユーザに提示する情報処理部を備える
情報処理装置。
(2)
前記情報処理部は、前記ユーザとともに、少なくとも前記相手を含む、前記ユーザの周りにいる人に対して前記イベントを提示する
前記(1)に記載の情報処理装置。
(3)
前記情報処理部は、前記相手が前記ユーザにとって知っている人であるか、知らない人であるかに応じて、異なる内容の前記イベントを発生させる
前記(1)または(2)に記載の情報処理装置。
(4)
前記情報処理部は、前記相手が前記ユーザにとって知っている人である場合、同じ人を前記相手として発生させたことのある前記イベントと異なる内容の前記イベントを発生させる
前記(3)に記載の情報処理装置。
(5)
前記情報処理部は、前記ユーザによりあらかじめ登録された人と同じ人を知っている人とし、あらかじめ登録された人と異なる人を知らない人として、前記イベントを発生させる
前記(3)または(4)に記載の情報処理装置。
(6)
前記情報処理部は、前記相手との距離を変える希望度合いを表すレベルに応じて、異なる内容の前記イベントを発生させる
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記情報処理部は、前記ユーザにより指定された前記レベルに応じて、異なる内容の前記イベントを発生させる
前記(6)に記載の情報処理装置。
(8)
センサにより検出されたセンサデータに基づいて、前記コンテキストを検出するコンテキスト検出部をさらに備え、
前記情報処理部は、前記イベントのトリガとなる所定の言葉を前記ユーザが発したことを表す前記コンテキストが検出された場合、または、前記ユーザの生体反応が所定の反応を示していることを表す前記コンテキストが検出された場合、前記イベントを発生させる
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記情報処理部は、前記ユーザと前記相手との距離を遠ざける前記イベントを発生させる
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記情報処理部は、前記ユーザと前記相手が接触することが予測される場合、前記イベントを発生させ、前記相手から遠ざけるように前記ユーザの進行方向を誘導する
前記(9)に記載の情報処理装置。
(11)
前記情報処理部は、前記相手と接触することが予測されることを前記ユーザに提示し、前記相手との距離を遠ざけることが前記ユーザにより指示されたことに応じて、前記イベントを発生させる
前記(9)または(10)に記載の情報処理装置。
(12)
前記情報処理部は、前記イベントの内容を通知する音声を前記ユーザが有するデバイスから出力させることによって、前記イベントを前記ユーザに提示する
前記(9)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記情報処理部は、前記ユーザと前記相手が接触している場合において、前記ユーザの前記コンテキストが、前記相手との距離を遠ざけることを希望している状態に変化したとき、前記相手との距離を遠ざける前記イベントを発生させる
前記(9)に記載の情報処理装置。
(14)
前記情報処理部は、第三者が前記ユーザを呼び出すことを前記イベントとして発生させ、前記ユーザを呼び出す内容の情報を前記ユーザが有するデバイスから出力させる
前記(13)に記載の情報処理装置。
(15)
前記情報処理部は、前記ユーザの用事を前記イベントとして発生させ、前記用事の内容を表す情報を前記ユーザが有するデバイスから出力させる
前記(13)に記載の情報処理装置。
(16)
情報処理装置が、
ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、
前記イベントを前記ユーザに提示する
情報処理方法。
(17)
コンピュータに、
ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させ、
前記イベントを前記ユーザに提示する
処理を実行させるためのプログラム。
(18)
ユーザのコンテキストに応じて、前記ユーザと前記ユーザが遭遇した相手との距離を変える架空のイベントを発生させる情報処理部を備える情報処理装置と、
前記情報処理装置による制御に従って、前記イベントを前記ユーザに提示する出力部を備える情報処理端末と
から構成される情報処理システム。
【符号の説明】
【0246】
1 行動支援サーバ, 11 回避方法決定部, 121 情報処理部, 131 対話部, 132 コンテキスト検出部, 133 イベント発生部, 134 価値観判断部, 135 ユーザ属性記憶部, 136 回避情報取得部, 137 学習部, 201 クライアント端末, 211 制御部, 221 センサデータ送信部, 222 イベント提示部