(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023132316
(43)【公開日】2023-09-22
(54)【発明の名称】支援仲介装置、支援仲介システム、支援仲介方法および支援仲介プログラム
(51)【国際特許分類】
G06Q 30/0601 20230101AFI20230914BHJP
【FI】
G06Q30/06 312
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2022037550
(22)【出願日】2022-03-10
(71)【出願人】
【識別番号】000202361
【氏名又は名称】綜合警備保障株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】加沢 徹
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049BB53
(57)【要約】
【課題】感情を含めて被支援者と支援者とをマッチングすることが可能になる。
【解決手段】被支援者の要請情報を受け付ける第1受付部と、1または複数の支援者から支援表明を受け付ける第2受付部と、前記第1受付部が受け付けた前記被支援者の前記要請情報に対し、前記第2受付部が前記支援者の前記支援表明を受け付けた場合に、前記被支援者の感情情報である第1感情情報および前記各支援者の感情情報である第2感情情報を含めて、前記被支援者の要請にマッチする支援者の優先順を示す情報を算出する算出部と、前記算出部の算出結果を視覚障害者装置(1)および支援者装置(3)に出力する出力部と、を有する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
被支援者の要請情報を受け付ける第1受付部と、
1または複数の支援者から支援表明を受け付ける第2受付部と、
前記第1受付部が受け付けた前記被支援者の前記要請情報に対し、前記第2受付部が前記支援者の前記支援表明を受け付けた場合に、前記被支援者の感情情報である第1感情情報および前記各支援者の感情情報である第2感情情報を含めて、前記被支援者の要請にマッチする支援者の優先順を示す情報を算出する算出部と、
前記算出部の算出結果を被支援者機器および支援者機器に出力する出力部と、
を有する支援仲介装置。
【請求項2】
前記算出部は、前記支援者が前記要請情報を参照したときに前記支援者機器が取得した前記支援者の表情の画像から抽出される前記第2感情情報、または支援行動中に前記支援者機器が取得した前記支援者の表情の画像から抽出される前記第2感情情報を含めて、前記優先順を示す情報を算出する、
請求項1に記載の支援仲介装置。
【請求項3】
前記算出部は、前記支援者が前記要請情報を参照したときに前記支援者機器が取得した前記支援者の音声から抽出される前記第2感情情報、または支援行動中に前記支援者機器が取得した前記支援者の音声から抽出される前記第2感情情報を含めて、前記優先順を示す情報を算出する、
請求項1に記載の支援仲介装置。
【請求項4】
前記算出部は、前記被支援者が前記算出結果を参照したときに前記被支援者機器が取得した前記被支援者の表情の画像から抽出される前記第1感情情報を含めて前記優先順を示す情報を算出する、
請求項1から3の何れか一項に記載の支援仲介装置。
【請求項5】
前記算出部は、前記被支援者が前記算出結果を参照したときに前記被支援者機器が取得した前記被支援者の音声から抽出される前記第1感情情報、または支援行動中に前記被支援者機器が取得した前記被支援者の音声から抽出される前記第1感情情報を含めて、前記優先順を示す情報を算出する、
請求項1から3の何れか一項に記載の支援仲介装置。
【請求項6】
支援時間に一の支援者または複数の支援者を順番に割り当てて管理する管理部と、
前記管理部が割り当てた時間に基づき、前記被支援者の前記被支援者機器と1または複数の前記支援者の各支援者機器とを接続する制御部と、
をさらに有する請求項1から5の何れか一項に記載の支援仲介装置。
【請求項7】
前記被支援者と前記各支援者の過去の支援に基づく評価情報を記憶する記憶制御部を有し、
前記評価情報は、過去に前記被支援者が支援を受けたときにおける前記被支援者の前記第1感情情報と、過去に前記支援者が前記被支援者の支援を行ったときにおける前記支援者の前記第2感情情報とを含み、
前記算出部は、前記記憶制御部に記憶する前記評価情報に含まれる前記第1感情情報および前記第2感情情報を含めて前記優先順を示す情報を算出する、
請求項1から6の何れか一項に記載の支援仲介装置。
【請求項8】
前記記憶制御部は、過去に前記被支援者が支援を受けたときにおける前記被支援者の生体情報と、過去に前記支援者が前記被支援者の支援を行ったときにおける前記支援者の生体情報との保存データに基づく、前記被支援者に対する前記支援者毎の前記評価情報を記憶する、
請求項7に記載の支援仲介装置。
【請求項9】
被支援者と支援者の支援仲介システムであって、
前記被支援者の要請情報を受け付ける第1受付部と、
1または複数の前記支援者から支援表明を受け付ける第2受付部と、
前記第1受付部が受け付けた前記被支援者の前記要請情報に対し、前記第2受付部が前記支援者の前記支援表明を受け付けた場合に、前記被支援者の感情情報である第1感情情報および前記各支援者の感情情報である第2感情情報を含めて、前記被支援者の要請にマッチする支援者の優先順を示す情報を算出する算出部と、
前記算出部の算出結果を前記被支援者の被支援者機器および前記支援者の支援者機器に出力する出力部と、
を有する支援仲介システム。
【請求項10】
被支援者と支援者とを仲介する支援仲介方法であって、
前記被支援者の要請情報を受け付けるステップと、
1または複数の前記支援者から支援表明を受け付けるステップと、
前記被支援者の感情情報である第1感情情報および前記各支援者の感情情報である第2感情情報を含めて、前記被支援者の要請にマッチする支援者の優先順を示す情報を算出するステップと、
前記算出の結果を前記被支援者の被支援者機器および前記支援者の支援者機器に出力するステップと、
を含む支援仲介方法。
【請求項11】
コンピュータを、
被支援者の要請情報を受け付ける第1受付部と、
1または複数の支援者から支援表明を受け付ける第2受付部と、
前記第1受付部が受け付けた前記被支援者の前記要請情報に対し、前記第2受付部が前記支援者の前記支援表明を受け付けた場合に、前記被支援者の感情情報である第1感情情報および前記各支援者の感情情報である第2感情情報を含めて、前記被支援者の要請にマッチする支援者の優先順を示す情報を算出する算出部と、
前記算出部の算出結果を前記被支援者の被支援者機器および前記支援者の支援者機器に出力する出力部、
として機能させるための支援仲介プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、支援仲介装置、支援仲介システム、支援仲介方法および支援仲介プログラムに関する。
【背景技術】
【0002】
従来、視覚障害者が一人でも行動できるように支援する支援システムが知られている。例えば、視覚障害者の身体に取り付けられたカメラ装置で撮像された画像に基づいて、支援者が遠隔から視覚障害者の周囲の状況を確認して誘導を行う視覚障害者誘導システムが開示されている(例えば特許文献1参照)。
【0003】
また、利用者と支援者とをマッチングして支援依頼要求に適合する支援者候補を選択するシステムの開示もある(例えば特許文献2参照)。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2000-312356号公報
【特許文献2】特開2020-170424号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、従来の方式で被支援者と支援者をマッチングする場合、被支援者と支援者との相性が合わないと、実際に支援を行う際に被支援者と支援者との双方を共に不安な思いにさせるという問題がある。
【0006】
本発明は、上述の課題に鑑みてなされたものであり、支援の依頼および支援への参加を決定する段階で被支援者と支援者との双方の感情を含めて支援者をマッチングすることが可能な、支援仲介装置、支援仲介システム、支援仲介方法および支援仲介プログラムの提供を目的とする。
【課題を解決するための手段】
【0007】
上述した課題を解決し、目的を達成するために、本発明は、被支援者の要請情報を受け付ける第1受付部と、1または複数の支援者から支援表明を受け付ける第2受付部と、前記第1受付部が受け付けた前記被支援者の前記要請情報に対し、前記第2受付部が前記支援者の前記支援表明を受け付けた場合に、前記被支援者の感情情報である第1感情情報および前記各支援者の感情情報である第2感情情報を含めて、前記被支援者の要請にマッチする支援者の優先順を示す情報を算出する算出部と、前記算出部の算出結果を被支援者機器および支援者機器に出力する出力部と、を有することを特徴とする。
【発明の効果】
【0008】
本発明によれば、被支援者と支援者との双方の感情を含めて支援者をマッチングすることができる。
【図面の簡単な説明】
【0009】
【
図1】
図1は、実施の形態の支援仲介システムのシステム構成の一例を示す図である。
【
図2】
図2は、視覚障害者装置のハードウェア構成の一例を示す図である。
【
図3】
図3は、センタサーバ装置のハードウェア構成の一例を示すブロック図である。
【
図4】
図4は、支援者装置のハードウェア構成の一例を示すブロック図である。
【
図5】
図5は、視覚障害者装置の機能ブロックの構成の一例を示す図である。
【
図6】
図6は、センタサーバ装置の機能構成の一例を示すブロック図である。
【
図7】
図7は、支援者装置の機能ブロックの構成の一例を示す図である。
【
図8】
図8は、受付テーブルの一例を示す図である。
【
図9】
図9は、評価テーブルの一例を示す図である。
【
図11】
図11は、支援者設定テーブルの一例を示す図である。
【
図12】
図12は、支援仲介システムでマッチングを行うシーケンスの一例を示す図である。
【
図13】
図13は、マッチングサーバにおけるマッチング処理のフローの一例を示す図である。
【
図15】
図15は、変形例1のグループ編成処理のフローの一例を示す図である。
【発明を実施するための形態】
【0010】
以下、図面を参照して、本実施の形態にかかる支援仲介装置、支援仲介システム、支援仲介方法および支援仲介プログラムの一例を説明する。実施の形態では、一例として、視覚障害者が遠隔支援を受ける支援システムに適用した例を示す。視覚障害者は「被支援者」の一例である。「被支援者」は視覚障害者以外であっても勿論よい。例えば、「被支援者」を子供とする遠隔支援、又は、「被支援者」を見知らぬ土地を移動する人とする場合の道案内等、他のシステムにも適用可能である。
【0011】
(支援仲介システムの構成)
図1は、実施の形態の支援仲介システムのシステム構成の一例を示す図である。
図1に示す支援仲介システムは、視覚障害者装置1、センタサーバ装置2、および支援者装置3を有する。視覚障害者装置1は「被支援者機器」の一例であり、センタサーバ装置2は「支援仲介装置」の一例であり、支援者装置3は「支援者機器」の一例である。
【0012】
視覚障害者装置1は、例えばウェアラブル端末、スマートフォン、またはタブレット端末である。視覚障害者装置1は、視覚障害者に提供される専用機器であってもよい。視覚障害者装置1は、カメラ、マイクロホン、イヤホン、各種センサなどを有する。また、視覚障害者装置1は、話しかけられると、その内容に応じて音声案内や操作を実行するアシスタント機能が備えられている。視覚障害者装置1は、そのアシスタント機能を起動し、視覚障害者から音声で指示を受けると、無線基地局5を介してネットワーク(NW)4に接続し、センタサーバ装置2にアクセスする。
【0013】
無線基地局5は、例えば第5世代移動通信システム(5G)またはWi-Fi(登録商標)などの無線通信網の基地局である。
【0014】
支援者装置3は、支援者が視覚障害者を遠隔支援する装置、例えばスマートフォン、タブレット端末、またはPC端末などである。例えば支援者がスマートフォンを支援者装置3として使用する場合、そのスマートフォンを操作して、スマートフォンを無線基地局5からネットワーク4に接続し、センタサーバ装置2にアクセスする。なお、支援者装置3がPC端末の場合、宅内などのネットワーク機器に有線接続してネットワーク4に接続する構成も可能である。
【0015】
ネットワーク4は、例えばLAN(Local Area Network)、またはインターネットなどの通信ネットワークである。
【0016】
本実施の形態においてセンタサーバ装置2は、マッチング機能部210と、支援機能部220と、受付テーブルT1と、評価テーブルT2と、履歴テーブルT3と、支援者設定テーブルT4とを有する。
【0017】
マッチング機能部210は、視覚障害者と支援者とのマッチングを行う。支援機能部220は、視覚障害者が所持する視覚障害者装置1と、視覚障害者にマッチした支援者が所持する支援者装置3との間で、音声や画像等のデータを中継する処理を行う。
【0018】
なお、一例としてセンタサーバ装置2にマッチング機能部210と支援機能部220とを共に設けているが、マッチング機能部210と支援機能部220とは、一つの情報処理装置に構築せずに、複数の情報処理装置に機能を分散して、相互に通信できるように構築してもよい。また、受付テーブルT1と、評価テーブルT2と、履歴テーブルT3と、支援者設定テーブルT4は、1つの情報処理装置に設けてもよいし、複数の情報処理装置に設けてもよい。
【0019】
視覚障害者は、視覚障害者装置1を音声で操作して、マッチング機能部210に支援要請を行う。視覚障害者装置1は、センタサーバ装置2に接続してマッチング機能部210に支援要請する。
【0020】
マッチング機能部210は、視覚障害者装置1からの支援要請と、支援者装置3からの支援表明とを受け付け、受付テーブルT1に記憶する。さらに、マッチング機能部210は、視覚障害者と各支援者との相性度を、履歴テーブルT3に基づいて評価テーブルT2に設定した感情情報等の評価情報の値を使って計算し、視覚障害者および該視覚障害者と最も相性度の高い支援者とを支援者設定テーブルT4に対応づけて記憶する。
【0021】
予定の日時になると、視覚障害者は、視覚障害者装置1を音声で操作して支援の開始を指示する。視覚障害者装置1は、視覚障害者による音声指示に従いセンタサーバ装置2に接続して支援機能部220に支援の開始を要求する。
【0022】
支援機能部220は、視覚障害者装置1の認証を行い、支援者設定テーブルT4において当該日時の視覚障害者の支援要請に対応づけられている支援者の支援者装置3と、視覚障害者装置1との間で音声や画像などの送受信を中継する処理を開始する。支援機能部220は、視覚障害者装置1と支援者装置3との支援のやり取りを示す情報を履歴テーブルT3に保存する。
【0023】
(視覚障害者装置1のハードウェア構成)
図2は、視覚障害者装置1のハードウェア構成の一例を示す図である。
図2には、ヘッドセット装置および脈拍センサを外部接続して使用する、ヘッドセット装置7、脈拍センサ24、および携帯端末装置8を有する視覚障害者装置1の構成を示している。
【0024】
ここで、ヘッドセット装置7および脈拍センサ24は、視覚障害者が支援者に支援を受けながら所定のルートを歩行する際に視覚障害者が装着する装着機器である。視覚障害者と支援者のマッチングを行う場合などには、ヘッドセット装置7は外し、携帯端末装置8の機能でマッチングのための手続きを行ってもよい。例えば、携帯端末装置8が、無線通信機能を備えたスマートフォン又はタブレット端末装置等である場合は、それらが内蔵する機能でも代用できる。
【0025】
一例としてヘッドセット装置7は、視覚障害者が支援者の音声を聞き取るためのイヤホン装置25、視覚障害者の周囲の画像を撮像するカメラ装置26、及び、視覚障害者自身が発生する音声を集音するためのマイクロホン装置27を有する。
【0026】
携帯端末装置8は、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、内蔵メモリ13、通信インターフェース(通信I/F)14、近距離無線通信インターフェース(近距離無線通信I/F)15、タッチパネル16、GPS(Global Positioning System)センサ17を備える。また、携帯端末装置8は、加速度センサ18、タイマ19、外部インターフェース(外部I/F)20、カメラ21、マイクロホン22及びスピーカ23を備える。
【0027】
内蔵メモリ13には、音声支援プログラムが記憶されている。CPU11がこの音声支援プログラムを実行することにより、各部と連携して、携帯端末装置8が視覚障害者の支援を行うための機能を発揮する。なお、携帯端末装置8の電源投入に連動して、CPU11が音声支援プログラムの実行を開始してもよいし、タッチパネル16を視覚障害者が操作することにより、CPU11が音声支援プログラムの実行を開始するようにしてもよい。
【0028】
通信I/F14は、無線基地局5との間で5GまたはWi-Fi等の無線通信を行う。近距離無線通信I/F15は、ブルートゥース(登録商標)等の近距離無線通信を行う。タッチパネル16は、液晶等の表示装置及び入力操作を行うタッチ入力センサが一体化されたデバイスである。GPSセンサ17は、GPS衛星からの信号に基づいて、携帯端末装置8を携帯する視覚障害者の現在位置を示すGPS情報を算出する。加速度センサ18は、携帯端末装置8を携帯する視覚障害者の移動方向、振動、衝撃等を示す情報を出力する。タイマ19は、時刻をカウントする。
【0029】
外部I/F20は、ヘッドセット装置7を有線接続する場合に用いられるUSB(Universal Serial Bus)等のインターフェースである。
図2では、近距離無線通信I/F15とヘッドセット装置7とを無線で接続して使用しているため、有線接続のヘッドセット装置7は接続していない。
【0030】
カメラ21は、携帯端末装置8に内蔵されているカメラである。カメラ21は、設定されているフレームレートで、カメラ21が向けられている範囲を撮像センサで撮像して撮像画像を出力する。カメラ21を視覚障害者側に向けている場合は、視覚障害者の顔などの表情画像を出力する。マイクロホン22は、携帯端末装置8に内蔵されているマイクロホンであり、視覚障害者の声を集音し、音声データに変換する。スピーカ23は、携帯端末装置8に内蔵されているスピーカであり、音声データを復調し、視覚障害者に音声出力する。なお、ヘッドセット装置7が接続されている場合、携帯端末装置8側のカメラ21、マイクロホン22及びスピーカ23はOFFになる。
【0031】
脈拍センサ24は、視覚障害者の身体に取り付けて脈拍を測定するセンサである。近距離無線通信I/F15を通じ、測定データを無線通信で携帯端末装置8へ送信する。
【0032】
(センタサーバ装置2のハードウェア構成)
図3は、センタサーバ装置2のハードウェア構成の一例を示すブロック図である。
図3に示すセンタサーバ装置2は、CPU51、ROM52、RAM53、HDD(Hard Disk Drive)54及び通信インターフェース(通信I/F)55を有する。
【0033】
通信I/F55は、ネットワーク4に接続される。
【0034】
HDD54は、記憶部の一例である。HDD54には、プログラムやデータが記憶されている。プログラムには、マッチングプログラムや遠隔支援制御プログラムなどが含まれる。また、受付テーブルT1、評価テーブルT2、履歴テーブルT3、支援者設定テーブルT4などもここに記憶される。
【0035】
センタサーバ装置2は、コンピュータ構成のCPU51、ROM52、およびRAM53を有する。CPU51は、HDD54からRAM53にプログラムをロードして実行する。CPU51がプログラムを実行することにより、センタサーバ装置2はマッチング機能部210の機能と支援機能部220の機能をそれぞれ発揮する。RAM53は、CPU51のワーク領域として利用される。例えばマッチング処理のスコア処理などに利用される。
【0036】
(支援者装置3のハードウェア構成)
図4は、支援者装置3のハードウェア構成の一例を示すブロック図である。
図4に示す支援者装置3は、CPU81、内蔵メモリ82、RAM83、通信I/F84、カメラ85、タッチパネル86、マイクロホン87及びスピーカ88を有する。
【0037】
内蔵メモリ82には、支援プログラムが記憶されている。CPU81がこの支援プログラムを実行することにより、各部と連携して、支援者装置3が支援機能を発揮する。
【0038】
通信I/F84は、ネットワーク4に接続する。通信I/F84は、例えば無線基地局5との間で5GまたはWi-Fi等の無線通信を行い、ネットワーク4に接続してもよい。タッチパネル86は、液晶等の表示装置及び入力操作を行うタッチ入力センサが一体化されたデバイスである。
【0039】
カメラ85は、支援者装置3に内蔵されているインカメラである。カメラ85は、支援者の顔などを撮像センサで撮影し、支援者の顔などの表情画像を出力する。マイクロホン87は、支援者の声を集音し、音声データに変換する。スピーカ88は、通話相手の音声データを復調して音声出力する。
【0040】
(視覚障害者装置1の機能構成)
図5は、視覚障害者装置1の機能ブロックの構成の一例を示す図である。視覚障害者装置1において、CPU11が内蔵メモリ13に記憶されている音声支援プログラムを実行することにより各種の機能部が実現される。
図5には、それらの機能部の一例として、音声アシスタント機能部101と、支援要請機能部102と、支援機能部103とを示している。
【0041】
音声アシスタント機能部101は、視覚障害者と音声による対話で処理を実行する。例えば、音声アシスタント機能部101は、視覚障害者から音声で指示があると、操作案内を音声で読み上げたり、指示の内容に対応する操作を実行したり、処理の結果を音声で読み上げたりするなど、音声対話で処理を実行する。
【0042】
支援要請機能部102は、視覚障害者から音声などにより支援要請があると、通信I/F14によりセンタサーバ装置2に接続し、マッチング機能部210と通信して、支援者とのマッチングのための情報を送受信する。
【0043】
支援機能部103は、視覚障害者から音声などにより支援開始の指示があると、通信I/F14によりセンタサーバ装置2に接続し、支援機能部220に支援開始を要求する。また、支援機能部103は、センタサーバ装置2の支援機能部220を介して支援者装置3の支援者と通信する。
【0044】
(センタサーバ装置2の機能構成)
図6は、センタサーバ装置2の機能構成の一例を示すブロック図である。
図6に示すセンタサーバ装置2は、マッチング機能部210と、支援機能部220と、記憶制御部230とを有する。
【0045】
マッチング機能部210は、第1受付部211と、第2受付部212と、算出部213と、出力部214とを有する。
【0046】
第1受付部211は、被支援者が視覚障害者装置1に入力した支援要請情報を受け付ける。第2受付部212は、支援者が支援者装置3に入力した支援表明情報を受け付ける。算出部213は、被支援者の感情情報である第1感情情報および各支援者の感情情報である第2感情情報を読み取って、被支援者の要請にマッチする支援者の優先順を示す情報を算出する。出力部214は、算出結果を視覚障害者装置1および支援者装置3に出力する。
【0047】
支援機能部220は、視覚障害者装置1から支援開始の要求を受けると、該視覚障害者装置1と、マッチング機能部210を通じて決められた支援者装置3とを接続させ、相互間の通信を仲介しつつ、各装置との間で支援に必要な情報の送受信を行う。
【0048】
記憶制御部230は、被支援者の要請情報と、要請情報に対する各支援者の支援表明と、マッチング処理時および支援行動中の被支援者の感情情報である第1感情情報と支援者の感情情報である第2感情情報とを記憶する。
【0049】
(支援者装置3の機能構成)
図7は、支援者装置3の機能ブロックの構成の一例を示す図である。支援者装置3において、CPU81が内蔵メモリ82に記憶されている支援プログラムを実行することにより各種の機能部が実現される。
図7には、それらの機能部の一例として、応募機能部301と、支援通信機能部302とを示している。
【0050】
応募機能部301は、通信I/F84によりセンタサーバ装置2に接続し、マッチング機能部210と通信する。
【0051】
支援通信機能部302は、通信I/F84によりセンタサーバ装置2に接続し、支援機能部220と通信する。
【0052】
(テーブルの構成)
続いてテーブルの構成について説明する。センタサーバ装置2は、受付テーブルT1と、評価テーブルT2と、履歴テーブルT3と、支援者設定テーブルT4とを有する。これらのうち、履歴テーブルT3は、過去の支援時の情報が記憶されているテーブルである。過去の支援時の情報は評価情報であり、評価情報を基に評価したスコアが評価テーブルT2に設定される。また、支援者設定テーブルT4は、マッチング処理で決定した視覚障害者の情報と支援者の情報とを紐づけるテーブルである。
【0053】
図8は、受付テーブルT1の一例であり、視覚障害者の支援要請情報を受け付ける支援要請受付テーブルT11と、支援者の応募(「支援表明」に相当)を受け付ける応募受付テーブルT12とを有する。
【0054】
図8に示す支援要請受付テーブルT11は、「障害者ID」、「案件ID」、「日付」、「開始時刻」、「終了時刻」、「ルート」、「報酬」、および「決定済み」などのデータ項目を有する。
【0055】
「障害者ID」は、視覚障害者を識別するための識別IDである。「案件ID」は、支援要請の案件を識別するために第1受付部211が付与する識別IDである。つまり、同一の視覚障害者が複数の支援要請を行った場合、支援要請毎に異なる案件IDが発行される。ここでいう支援要請は、予めルートを定め、連続する一定時間内において行う支援を1件とみなすものとする。
【0056】
「日付」、「開始時刻」、「終了時刻」は、支援を受ける日付と時間帯である。「ルート」は、支援を受けるルートであり、目的地及び主な経由地などを指定する。「報酬」は、支援を受けたときに被支援者が支援者に対して支払う報酬の金額である。「決定済み」は、支援要請に対応する支援者が決定したときに入力される。
【0057】
図8に示す応募受付テーブルT12は、「支援表明ID」、「支援者ID」、「日付」、「開始時刻」、「終了時刻」、「案件ID」、「制限事項」、「要望報酬」、および「支援者画像」などのデータ項目を有する。
【0058】
「支援表明ID」は、支援者の表明内容を識別するために第1受付部211が付与する識別IDである。同一の支援者が支援表明を複数行う場合、支援表明毎に支援表明IDが発行される。
【0059】
「支援者ID」は、支援者を識別する識別IDである。
【0060】
「日付」、「開始時刻」、「終了時刻」は、支援者が支援することが可能な日付と時間帯である。「案件ID」は、支援者が、応募したい支援要請案件を指定する場合に入力する。支援要請案件を指定せずに応募する場合は「案件ID」は入力なしとする。「制限事項」は、支援者が支援可能なルートや、支援を希望する障害者IDなどを限定する場合に設定する項目である。「要望報酬」は、要請された支援を行うにあたり支援者が要望する報酬である。「支援者画像」は、支援者の表情を含む画像である。
【0061】
図9は、評価テーブルT2の一例である。視覚障害者と支援者との相性度を計算するための計算用のテーブルとして、第1評価テーブルT21と、第2評価テーブルT22とを有する。
【0062】
第1評価テーブルT21は、履歴テーブルに保存されている視覚障害者と支援者との過去の支援時のやり取りの保存データから算出した、相性度のスコア値などが設定される。第2評価テーブルT22は、支援要請のマッチングにあたり、視覚障害者が支援表明者との第1のマッチング結果を参照したときの第1の感情情報、および支援者が支援要請に関する情報を参照したときの第2の感情情報に基づくスコア値などが設定される。一例として、過去の支援における相性度として算出したスコア値に係数として加算されたスコア値などが設定される。
【0063】
図9に示す第1評価テーブルT21は、「障害者ID」、「ルート」、「支援者ID」、「障害者脈拍」、「障害者加速度」、「障害者声調」、「支援者指示」、「支援者声調」、「支援者表情」、「障害者満足度」、および「過去評価値」などのデータ項目を有する。
【0064】
「障害者ID」は、支援要請を行った視覚障害者の障害者IDである。「ルート」は、その視覚障害者が支援要請したルートである。「支援者ID」は、案件IDを指定して支援表明した支援者のうち、支援要請受付テーブルT11における該案件IDの障害者IDおよびルートIDと一致する支援者、および、応募のあった支援者の中で支援可能な日付と時間帯が支援要請の条件を満たす支援者に対応する、支援者IDである。一つの支援要請案件に対し複数の支援者から支援表明があった場合、算出部213は、同一の障害者IDおよびルートからなる組み合わせに対し、支援者IDをそれぞれ紐づけ、複数のデータを作成する。
【0065】
「障害者脈拍」、「障害者加速度」、「障害者声調」、「支援者指示」、「支援者声調」、「支援者表情」および「障害者満足度」などは、視覚障害者と支援者との過去の支援時のやり取りなどを示す保存データに基づいて設定されるスコア値である。なお、視覚障害者装置1や支援者装置3が備えるセンサが取得可能な生体情報から得られるその他の指標を追加してもよい。
【0066】
「過去評価値」は、過去の支援時のやり取りなどを示す保存データに基づいて設定された各スコア値を合計し、「障害者満足度」を加味して集計したスコア値である。
【0067】
図9に示す第2評価テーブルT22は、「案件ID」、「支援者ID」、「障害者表情声調」、「第1マッチング評価値」、「支援者表情声調」、及び「第2マッチング評価値」などのデータ項目を有する。「支援者ID」は、第1評価テーブルT21と同様である。
【0068】
「障害者表情声調」と「支援者表情声調」には、マッチングを行う際の視覚障害者の表情および声調と、支援者の表情および声調から、障害者と支援者のそれぞれの感情(第1の感情情報、第2の感情情報)をスコア化した評価結果が設定される。一例として「障害者表情声調」には、視覚障害者の顔などの画像から第1の感情情報である表情を抽出して表情をスコア化し、音声データから同じく第1の感情情報である視覚障害者の音声を抽出してスコア化し、それらの評価結果が設定される。また、「支援者表情声調」には、支援者の顔などの画像から第2の感情情報である表情を抽出して表情をスコア化し、音声データから同じく第2の感情情報である支援者の音声を抽出してスコア化し、それらの評価結果が設定される。なお、表情と声とを共に取得できない場合は、表情か声のどちらか一方でもよい。また、視覚障害者装置1および支援者装置3がセンサなど検出手段を備え取得できる、他の生体情報を活用して感情をスコア化してもよい。
【0069】
図10に示す履歴テーブルT3は、視覚障害者と支援者の過去の支援時におけるやり取りを記録した保存データに相当する。視覚障害者と支援者の過去の支援時におけるやり取りを示す記録情報には、「障害者ID」、「ルート」、「支援者ID」、「単位区間番号」、「支援画像」、「地図情報」、「支援指示」、「障害者脈拍時系列データ」、「障害者加速度時系列データ」、「障害者声調時系列データ」、「支援者指示時系列データ」、「支援者声調時系列データ」、および「支援者表情時系列データ」などが含まれる。「障害者ID」、「ルート」、「支援者ID」は第1評価テーブルT21と同様である。
【0070】
「単位区間番号」は、支援を行う時間帯を所定の単位に区切り、支援の開始時間から付与した番号である。区切る単位は、例えば数秒間から数分間とする。「支援画像」は、支援中に視覚障害者装置1のカメラ装置26が取得した画像である。「地図情報」は、支援中の視覚障害者がいた地点を中心とする地図情報である。「支援指示」は、視覚障害者が歩行する際、注意を要する点(例えば段差や障害物がある等)がある場合、支援者が視覚障害者に対して適切に声掛けができるよう、指示内容を地図上に示すためのものである。
【0071】
「障害者脈拍時系列データ」、「障害者加速度時系列データ」、「障害者声調時系列データ」、「支援者指示時系列データ」、「支援者声調時系列データ」、および「支援者表情時系列データ」は、それぞれ視覚障害者装置1または支援者装置3から取得したデータである。「障害者声調時系列データ」は、支援行動中に視覚障害者装置1で取得され、視覚障害者装置1から送信された視覚障害者の声調のデータである。「支援者声調時系列データ」は、支援行動中に支援者装置3で取得され、支援者装置3から送信された支援者の声調のデータである。「支援者表情時系列データ」は、支援行動中に支援者装置3で取得され、支援者装置3から送信された支援者の顔などの表情のデータである。この例では、視覚障害者を対象としているため、支援行動中に視覚障害者装置1で視覚障害者の顔などの表情データを取得していないが、支援行動中に視覚障害者装置1で視覚障害者の顔などの表情データを取得して送信してもよい。その場合は、「障害者表情時系列データ」も含まれる。
【0072】
図11に示す支援者設定テーブルT4は、マッチングにより決定した支援者を登録するものであり、「障害者ID」、「ルート」、「案件ID」、「案件IDサブ」、「支援者ID」、「開始時刻」、および「終了時刻」などが含まれる。「障害者ID」、「ルート」、「案件ID」は支援要請受付テーブルT11と同様である。
【0073】
「支援者ID」は、マッチング処理の結果、決定した支援者IDが登録される。「開始時刻」および「終了時刻」は、決定した支援者が対応する開始時刻と終了時刻を登録する。
【0074】
「案件IDサブ」は、一つの案件IDに対し複数の支援者で対応する場合、対応する支援者の順にサブ番号を付与する。
【0075】
(マッチングを行う全体シーケンス)
図12は、支援仲介システムでマッチングを行うシーケンスの一例を示す図である。まず、視覚障害者が視覚障害者装置1に対し支援要請の内容を音声で入力する(S1)。視覚障害者装置1では、視覚障害者からの音声入力を音声アシスタント機能部101が解釈し、視覚障害者と所定の音声対話を行って、視覚障害者にルートや日時等の支援要請内容を音声入力させる。
【0076】
視覚障害者装置1は、支援要請機能部102によりマッチング機能部210と通信し、支援要請内容の登録を要求する(S2)。
【0077】
マッチング機能部210は、視覚障害者装置1から送信された支援要請内容を支援要請受付テーブルT11に登録する(S3)。なお、マッチング機能部210は、同一または複数の視覚障害者装置1から、支援要請を随時受け付けている。このため、支援要請受付テーブルT11には、受け付けた支援要請内容を案件IDに対応づけて登録する。
【0078】
マッチング機能部210は、支援者装置3から支援要請の一覧の問い合わせがあると(S4)、支援要請受付テーブルT11に登録されている支援要請案件のうち、支援者が決定されてない支援要請案件を抽出し、一覧情報を支援者装置3に送信する(S5)。
【0079】
支援者は、支援者装置3に表示された支援要請案件の一覧情報から、参照したい案件IDを選択して入力し(S6)、支援者装置3は、選択された案件IDをマッチング機能部210に送信する(S7)。
【0080】
マッチング機能部210は、一覧情報から選択された案件IDを支援者装置3から受け取ると、支援要請テーブルT11から、その選択された案件IDに対して登録されている障害者ID及びルートを取り出し、取り出した障害者ID及びルートに一致するデータを履歴テーブルT3から抽出して支援者装置3に出力する(S8)。ここで、データは、過去のやり取りを示す保存データを含む。保存データは、該障害者IDを有する視覚障害者が過去に該ルートで受けたときの支援に関する情報である。このため、このデータに、そのときの実際の支援画像やルートを含む地図情報、注意を要する場所で出す声掛けの内容なども含まれる。
【0081】
支援者装置3は、その案件IDのデータを表示しながら、該データを参照している支援者の表情をカメラ85で撮影する(S9)。該データを参照中の支援者の表情を撮影した画像から、このルートに対する支援者の自信の有無や、担当する視覚障害者に対する支援者の感情表現などを評価することができる。
【0082】
支援者装置3は、案件IDのデータを表示した後、支援者の入力により、案件IDの支援表明を受け付ける(S10)。
【0083】
支援者装置3は、支援者が支援表明の入力を行うと、その入力情報と、支援者が案件IDのデータを参照していたときの顔などの表情を撮影した画像とを、支援表明した案件IDとともにマッチング機能部210に送信する(S11)。ここでは一例として支援者の表情を取得する場合を例に説明しているが、支援者が案件IDのデータを参照していたときに支援者の声を取得する場合は、マッチング機能部210に音声データを送信する。以下も、支援者の表情を取得する場合を例に説明する。支援表明の入力情報には、支援者が支援可能な日付および時間帯、制限事項、要望報酬等も含まれる。
【0084】
マッチング機能部210は、支援者装置3から、案件IDに対する支援表明を受け付けると、支援者装置3で入力された入力情報つまり支援表明内容と、支援者の撮影画像とを、応募受付テーブルT12に登録する(S12)。次にマッチング機能部210は、支援者の顔などの画像から支援者の表情をスコア化し、第2評価テーブルT22に、案件IDと対応付けて記憶する。表情スコアは、笑顔であればポジティブ、平常であればニュートラル、眉をひそめたりゆがんだ表情であったりすればネガティブ、など3段階程度のスコアとする。なお、マッチング機能部210は、指定した期間において、支援要請のある案件IDに対する支援表明を、同一または複数の支援者装置3から随時受け付けている。このため、応募受付テーブルT12には、同一の案件IDに対し、応募のあった支援者の数だけ、支援者の支援表明内容が対応づけて登録されている。
【0085】
続いて、マッチング機能部210は、支援要請の案件登録を実施してから指定期間が経過すると、支援要請のあった案件について支援要請受付テーブルT11の支援要請内容と応募受付テーブルT12の支援表明内容とから第1マッチング処理を行う(S13)。第1マッチング処理は、視覚障害者と支援者の過去の支援中のやり取りの情報に基づき、支援表明ID毎に視覚障害者と各支援者との相性度を求め、視覚障害者の要請にマッチする支援者の優先順を算出して、該視覚障害者と相性度が高い支援者の順に支援表明IDを並べ替える処理である。第1マッチング処理の段階で支援者の表情を含め、該視覚障害者と相性度が高い支援者の順に支援表明IDを並べ替える処理を行ってもよい。また、支援者の声を取得している場合は、その音声を含め、該視覚障害者と相性度が高い支援者の順に支援表明IDを並べ替える処理を行うようにしてもよい。
【0086】
マッチング機能部210は、第1マッチング処理で算出した結果を支援要請元の視覚障害者装置1に出力する(S14)。第1マッチング処理の結果には、支援を要請した視覚障害者と相性度が高い支援者の順に支援表明IDを並べ替えたソート情報が含まれる。なお、視覚障害者装置1がマッチング機能部210と切断されている場合には、視覚障害者装置1が次にマッチング機能部210に接続した際などに結果を出力すればよい。
【0087】
視覚障害者装置1は、マッチング機能部210から第1マッチング処理の結果のソート情報を受信すると、マイクロホンの音声入力をONにし、支援を要請した視覚障害者の反応を音声で取得する(S15)。ここでは一例として視覚障害者の音声を取得する場合を例に説明するが、視覚障害者の顔などの表情画像を取得してもよい。
【0088】
視覚障害者装置1は、その視覚障害者の音声入力を行いながら、ソート順に支援者に関する情報を音声アシスタントで読み上げ(S16)、各支援者に関する情報を音声アシスタントで読み上げているときの視覚障害者の反応を音声により取得し、音声データをマッチング機能部210に送信する(S17)。
【0089】
なお、視覚障害者装置1は、支援者毎に支援者に関する情報を音声アシスタントで読み上げ、各支援者に関する情報を読み上げたときの時刻と、そのときの視覚障害者の音声を記録した時刻とを対応づけてマッチング機能部210に送信する。この方式に限らず、視覚障害者装置1は、マッチング機能部210から、ソート順に、まず1番目の支援者の情報を受信して音声アシスタントで読み上げて、そのときの視覚障害者の音声をマッチング機能部210に送信し、次にマッチング機能部210から2番目の支援者の情報を受信して音声アシスタントで読み上げて、そのときの視覚障害者の音声をマッチング機能部210に送信するという手順であってもよい。つまり、支援者に関する情報を一人分ずつソート順に視覚障害者装置1に送信し、支援者毎に視覚障害者の反応を音声により取得するという手順で行うことも可能である。
【0090】
マッチング機能部210は、支援者に対する視覚障害者の反応を、視覚障害者装置1から視覚障害者の音声データで受信し、その声調をスコア化して第2評価テーブルT22に記録し、第2マッチング処理を行う(S18)。第2マッチング処理は、第1マッチング処理の相性度の算出結果に対して、さらに視覚障害者の感情情報、この例では声調によるスコアを含めて相性度を算出し、支援表明の順序を、視覚障害者との相性度がより高い支援者の順にソートし直す処理である。
【0091】
マッチング機能部210は、相性度がより高い支援者の順にソートし直した支援表明の順序を視覚障害者装置1に出力し(S19)、視覚障害者が決定を入力することで、その案件に対する支援者を決定する(S20)。
【0092】
その後、マッチング機能部210は、その案件と、その案件を支援する支援者とを支援者設定テーブルT4に対応づけて登録する(S21)。
【0093】
マッチング機能部210は、案件に対応する支援者を決定すると、支援要請受付テーブルT11において、その案件を「決定済み」に更新する。また、その支援要請内容と、決定した支援者の支援表明の内容とに基づき、支援要請案件の最終的な組み合わせの情報を支援者設定テーブルT4に対応づけて登録する。
【0094】
なお、支援者による支援表明は、案件IDを指定せずに行ってもよい。この場合、該支援者は、支援表明した日付および時間帯がマッチする全ての支援要請案件にエントリーしたものとされる。
【0095】
(マッチング機能部210におけるマッチング処理)
図13は、マッチング機能部210におけるマッチング処理のフローの一例を示す図である。マッチング機能部210は、支援要請受付テーブルT11に登録された支援要請の案件IDについて、応募受付テーブルT12で受け付けられている支援表明のうち、案件IDが一致する支援者、または、案件IDを指定せずかつ日時と時間帯が合致する支援者を対象に次のようなマッチング処理を行う。
【0096】
まず、マッチング機能部210は、案件IDの視覚障害者と、案件ID、または日時と時間帯が合致する支援表明を行っている各支援者との、過去の支援中のやり取りの情報を履歴テーブルT3から取得する(S31)。なお、過去の支援中のやり取りの情報は、該案件IDと同じルートで支援を実施したときの情報である。
【0097】
続いて、マッチング機能部210は、ルートの単位区間毎に、過去の支援中のやり取りの情報に基づいて視覚障害者と支援者との相性を項目別に評価する評価処理を行う(S32)。一例として、視覚障害者装置1および支援者装置3に備えた生体センサなどから取得したデータによる各評価項目を良い評価(ポジティブ)と、普通の評価(ニュートラル)と、悪い評価(ネガティブ)で評価し、視覚障害者への支援者の支援がうまくいくほど良い評価(ポジティブ)になるようスコア化する。そして各評価項目について、スコア値の合計を単位区間数で割って平均値を求める。評価結果は、第1評価テーブルT21に記憶する。
【0098】
続いて、マッチング機能部210は、支援者毎に、第1評価テーブルT21に設定した各評価項目のスコアを集計する(S33)。
【0099】
続いて、マッチング機能部210は、過去に支援されたときの各支援者に対する視覚障害者の障害者満足度に基づいて集計スコアを調整し、過去評価値として算出する(S34)。障害者満足度は、視覚障害者が支援の終了後、自身が受けた支援についてアンケートに答える等の方法で記録した満足度を数値で表していたものを、第1評価テーブルT21に登録する。集計スコアの調整は、障害者満足度に見合う相性度となるようにする。例えば、満足度が高い評価であれば、集計スコアに1より大きい正の係数をかけ合わせて集計スコアを割り増し、逆に満足度が低い評価であれば、集計スコアに1より小さい正の係数をかけ合わせて集計スコアを割り引き、この算出結果を過去評価値として第1評価テーブルT21に記憶する。
【0100】
続いて、マッチング機能部210は、第2評価テーブルT22に設定した本案件の「支援者表情」のスコアを、支援者毎に集計スコアに反映する(S35)。具体的には、第1評価テーブルT21に記憶した過去評価値に対し、第2評価テーブルT22の支援者表情スコアに基づいた係数を掛け合わせて算出した値を第1マッチング評価値として記憶する。係数は、ポジティブな表情の場合は1より大きな正の数値、ニュートラルな表情の場合は1、ネガティブな表情の場合は1より小さな正の数値、とする。ここまでが第1マッチング処理に相当する。
【0101】
そして、マッチング機能部210は、各支援者の第1マッチング評価値に基づき、支援要請を第1マッチング評価値が高い支援者の順つまり相性度が高い順にソートし、相性度が高い順に支援表明の情報を、本案件の支援要請を行った視覚障害者装置1に出力する(S36)。
【0102】
その後、マッチング機能部210は、視覚障害者装置1から各支援者に対する視覚障害者の反応を声調で取得すると、声調を感情情報としてスコア化し、そのスコアを係数に変換して第1マッチング評価値にかけ合わせて、第2マッチング評価値として第2評価テーブルT22に記憶する。この係数は支援者表情スコアと同じく、ポジティブ・ニュートラル・ネガティブに分けて設定する。全ての支援者の支援表明について視覚障害者の反応を声調で取得し、第2マッチング評価値の算出が完了すると、支援表明の順序を相性度がより高い順にソートし直す(S37)。ここまでが第2マッチング処理に相当する。
【0103】
なお、第1マッチング処理と、第2マッチング処理とは、必ずしも共に含める必要はなく、何れか一方としてもよい。また、視覚障害者の感情情報として、声調のほかに、カメラ21によって取得した障害者の表情の画像で評価してもよい。また、支援者の感情情報として、表情のほかに、マイクロホン87によって取得した支援者の声調で評価してもよい。
【0104】
また、支援に対する報酬は、視覚障害者が設定した報酬と、支援者が要望する報酬とが一致しない場合がある。その場合は、支援者の要望報酬が視覚障害者の設定報酬内に収まる場合に相性度が高まるように係数化して、集計スコアを換算して含めるようにしてよい。
【0105】
(評価処理の説明)
図14は、評価処理の説明図である。
図14は、視覚障害者と支援者の相性を評価するための評価元になるデータの一例である。この評価元のデータから、履歴テーブルT3へデータが抽出される。
【0106】
図14には、ルートの単位区間別に、項目別に評価元のデータを並べて示している。単位区間番号TS=0001、0002、・・・0005のそれぞれの区間が、ルートに沿って時系列順序で並んでいる。評価元のデータは、「支援画像」、「支援指示」、「地図」、「障害者脈拍時系列データ」、「障害者加速度時系列データ」、「障害者声調時系列データ」、「支援者指示時系列データ」、「支援者声調時系列データ」、および「支援者表情時系列データ」である。
【0107】
「支援画像」は、視覚障害者装置1のカメラ装置26が取得した画像であり、視覚障害者の支援中に支援者装置3に出力される。支援者は、支援画像を見ながら、支援画像内に注意すべき箇所の注釈(支援指示)があると、視覚障害者に声掛けを行う。
【0108】
「支援指示」は、支援画像内の注意すべき箇所に、視覚障害者への声掛けに含むキーワードなどが吹き出しやマークの形で示す。
【0109】
「地図」は、支援中に視覚障害者の位置を地図に示して支援者装置3に出力される画像である。
【0110】
「障害者脈拍時系列データ」は、支援中に視覚障害者装置1から送信された視覚障害者の時系列順の脈拍データである。脈拍が上がると、安静時の基準位置からシフトする。
【0111】
「障害者加速度時系列データ」は、支援中に視覚障害者装置1から送信された視覚障害者の時系列順の加速度データである。視覚障害者が進む方向に迷いが生じて、向きを頻繁に変えたり、転倒したりするなど、急な動きが生じると、その加速度を感知して加速度データが複雑に大きく変化する。
【0112】
「障害者声調時系列データ」は、支援中に視覚障害者装置1から送信された視覚障害者の時系列順の声調データである。視覚障害者が慌てたり、危険なことを感じたりしたときに、視覚障害者の音声データから声調の変化を示すデータが得られる。
【0113】
「支援者指示時系列データ」は、支援画像が示す声掛けの内容およびタイミングと、支援者による実際の声掛けとがずれた場合、基準位置からシフトする。
【0114】
「支援者声調時系列データ」は、支援中に支援者装置3から送信された時系列順の音声データである。支援者が慌てたりしたときに、支援者の音声データから声調の変化を示すデータが得られる。
【0115】
「支援者表情時系列データ」は、支援中に支援者装置3から送信された時系列順の表情データである。支援者が慌てたり驚いたりして表情が変化したときに、支援者の撮影画像から表情の変化を示すデータが得られる。
【0116】
なお、各時系列データは、評価元の音声や画像などのデータから、所定の特徴を抽出するなどして、それぞれを信号のレベル変化で表したものである。この表示は、理解しやすくするためのものであり、この表示に限定するものではない。また実際のスコア評価においては、それぞれに閾値を設け、例えば「ポジティブ>ニュートラル>ネガティブ」または「ニュートラル(順調)>ややネガティブ>ネガティブ」を数値で表現した3段階評価などに置き換える。
【0117】
(視覚障害者の項目の評価基準)
評価は、例えば次を評価の基準とするなどして行う。なお、評価基準は一例であり、これに限定するものではない。
【0118】
「ポジティブ」平静な脈拍、血圧、微笑む、明るい声調など
【0119】
「ネガティブ」脈拍の上昇、血圧の上昇、驚きの表情、驚きの声調など
【0120】
(支援者の項目の評価基準)
「ポジティブ」十分前に落ち着いて予告、平静な表情、微笑むなど
【0121】
「ネガティブ」ギリギリで早口、慌てた表情など
【0122】
(評価方法)
評価は、単位区間毎に行って、履歴テーブルT3に設定する。例えば単位区間番号TS=0002において、支援画像では、「足元、注意」とするテキストが表示されているが、「支援者指示時系列データ」は、データが基準位置から外れており、声掛けすべきであったが実際には支援者の声掛けがなかったことを表す。このため、単位区間番号TS=0002は、履歴テーブルT3の「支援者指示」に、ネガティブのスコアを設定する。
【0123】
また、単位区間番号TS=0003では、支援者表情時系列データが変化している。単位区間番号TS=0002での声掛けが遅れたため、支援者の表情が歪み、データが変化している。このため、単位区間番号TS=0003では、第1評価テーブルT21の「支援者表情」に、ネガティブのスコアを設定する。また、この区間では、支援者が声掛けに遅れたことに気が付き、支援者の声調が変わり、支援者声調時系列データが変化している。このため、この区間では、履歴テーブルT3の「支援者声調」にも、ネガティブのスコアを設定する。また、この区間では、支援者が声掛けの遅れから慌てて声掛けを行ったことが支援者指示時系列データから読み取れる。この慌てた声掛けにより、障害者が聞き取れず、障害者も慌てて聞き直すなどして、障害者声調時系列データが変化している。また、障害者は、慌てて声掛けされたことに驚き、障害者脈拍時系列データも変化している。このため、この区間では、履歴テーブルT3の「障害者声調」と「障害者脈拍」にも、それぞれネガティブのスコアを設定する。
【0124】
また、単位区間番号TS=0005では、障害者加速度時系列データが大きく変化している。急に危険な箇所に到達したので障害者が驚き急な動きをした結果である。このため、単位区間番号TS=0005では、履歴テーブルT3の「障害者加速度」に、ネガティブのスコアを設定する。また、この区間では、その他の項目にも、ネガティブが設定される。これらの項目の評価の仕方は既に説明済みのため、これ以上の詳細説明は省略する。
【0125】
なお、ここではネガティブな状況を例に説明したため、ネガティブを設定しているが、ポジティブな状況の場合は、ポジティブを設定する。ネガティブとポジティブのどちらにも属さない場合は、ニュートラルである。
【0126】
以上のように、マッチング機能部210は、支援者の過去の支援中のやり取りの情報を、ルートの単位区間毎に、各評価項目についてネガティブまたはポジティブを評価し履歴テーブルT3に設定する。そして、マッチング機能部210は、履歴テーブルT3から視覚障害者、支援者、ルートの組合せにおける過去の支援から得た、視覚障害者と支援者との相性度の評価値を第1評価テーブルT21に登録し、それらの集計値が高い支援者の順つまり相性度が高い順に支援要請を並べる。
【0127】
なおその他の方法として、例えば、項目別に異なる重みづけでスコア値を算出するようにしてもよい。例えば、「障害者声調」のネガティブを-1×0.5とし、「支援者声調」のネガティブを-1×0.1とする。
【0128】
また、同じ単位区間内で、障害者に関する項目と、支援者に関する項目とが共にネガティブの場合は、ネガティブをそれぞれ2倍のスコア値にして集計するようにしてもよい。
【0129】
(変形例1)
なお、マッチング機能部210を、さらに支援時間に一の支援者または複数の支援者を順番に割り当てて管理する管理部として機能させ、マッチング機能部210が割り当てた時間に基づき、支援機能部220が制御部として機能し、視覚障害者の機器と1または複数の支援者の各支援者機器とを時間に応じて接続するように制御してもよい。例えば、支援要請に提示された時間帯を、単独でカバーできるような支援者の応募がなかった場合、視覚障害者が希望する時間帯を分割し、それぞれに異なる支援者を順番に割り当てるようにし、1つの案件に対して複数の支援者をグループ編成して対応する。
【0130】
図15は、変形例1のグループ編成処理のフローの一例を示す図である。マッチング機能部210は、まず過去履歴から、ルートの一連の支援画像中に注釈(支援指示)がある時間帯(第1時間帯)を抽出する(S41)。例えば、単位区間番号TS=0002~0005に注釈が含まれるため、この時間帯を第1時間帯として抽出する。注釈がある区間は、視覚障害者に支援が必要な区間であるため、途中で支援者が交代すると、支援に支障をきたす場合がある。そのため、第1時間帯は同じ支援者が支援を行うものとする。
【0131】
続いて、マッチング機能部210は、第1時間帯および第1時間帯の前後各5分以上を含む時間帯を支援可能とする支援者を抽出する(S42)。なお、このような支援者が抽出できない場合は、マッチング処理を断念してもよい。
【0132】
続いて、マッチング機能部210は、第1時間帯以外の時間帯の一部をカバーできる支援者を抽出する(S43)。なお、複数の支援者に割り当てを行う場合、視覚障害者の支援が途中で途切れないようにするために、第1時間帯の前後での引継ぎの場合には、第1時間帯の前後において各5分以上の引継ぎ期間を設け、この引継ぎ期間には、第1時間帯の支援者と、引継ぎを行う支援者との時間の割り当てが重複するようにする。
【0133】
そして、マッチング機能部210は、視覚障害者と各支援者との相性をスコア化する評価処理により第1マッチング処理を行い(S44)、その結果を反映した支援表明を視覚障害者に提示し(S45)、視覚障害者の反応があれば、第2マッチング処理に視覚障害者の感情情報を算入し(S46)、その結果からグループ編成を相性の良い支援者に入れ替え、提示する(S47)。
【0134】
第1のマッチング処理と第2のマッチング処理の手順については、実施の形態で説明したことの繰り返しとなるため、説明を省略する。
【0135】
マッチング機能部210は、1つの案件に対して支援者をグループ編成した場合、支援者設定テーブルT4において、視覚障害者の支援要請の時間帯を分割して、それぞれの時間帯に対し、グループの中で該当する支援者の情報を設定して紐づける。これにより、支援機能部220は、時間帯が切り替わる重複時間に、次の支援者の支援者装置3からアクセスされると視覚障害者装置1との接続を許可する。
【0136】
上述の実施の形態は、一例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。
【0137】
例えば、上述の実施の形態において、各種プログラムで実現されることとした各機能は、全部又は一部を、IC(Integrated Circuit)等のハードウェアで実現してもよい。
【0138】
また、上述の各種プログラムは、インストール可能な形式又は実行可能な形式のファイル情報でCD-ROM、フレキシブルディスク(FD)などのコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、上述の各種プログラムは、CD-R、DVD(Digital Versatile Disc)、ブルーレイ(登録商標)ディスク、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、上述の各種プログラムは、インターネット等のネットワーク経由でインストールするかたちで提供してもよい。また、上述の各種プログラムは、機器内のROM等に予め組み込んで提供してもよい。
【0139】
また、実施の形態及び実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
【符号の説明】
【0140】
1 視覚障害者装置
2 センタサーバ装置
3 支援者装置
4 ネットワーク
5 無線基地局
7 ヘッドセット装置
8 携帯端末装置
11 CPU
12 RAM
13 内蔵メモリ
14 通信I/F
15 近距離無線通信I/F
16 タッチパネル
17 GPSセンサ
18 加速度センサ
19 タイマ
20 外部I/F
21 カメラ
22 マイクロホン
23 スピーカ
24 脈拍センサ
25 イヤホン装置
26 カメラ装置
27 マイクロホン装置
101 音声アシスタント機能部
102 支援要請機能部
103 支援機能部
210 マッチング機能部
211 第1受付部
212 第2受付部
213 算出部
214 出力部
220 支援機能部
230 記憶制御部
301 応募機能部
302 支援通信機能部
T1 受付テーブル
T2 評価テーブル
T3 履歴テーブル
T4 支援者設定テーブル