特許第6876483号(P6876483)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パナソニック株式会社の特許一覧

特許6876483管理システム、行動認識装置、および、管理方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6876483
(24)【登録日】2021年4月28日
(45)【発行日】2021年5月26日
(54)【発明の名称】管理システム、行動認識装置、および、管理方法
(51)【国際特許分類】
   G06Q 50/10 20120101AFI20210517BHJP
   G06T 7/70 20170101ALI20210517BHJP
   G06T 7/215 20170101ALI20210517BHJP
   G06F 3/01 20060101ALI20210517BHJP
   G10L 15/10 20060101ALI20210517BHJP
【FI】
   G06Q50/10
   G06T7/70 B
   G06T7/215
   G06F3/01 570
   G06F3/01 510
   G10L15/10 500Z
【請求項の数】11
【全頁数】31
(21)【出願番号】特願2017-66328(P2017-66328)
(22)【出願日】2017年3月29日
(65)【公開番号】特開2018-169788(P2018-169788A)
(43)【公開日】2018年11月1日
【審査請求日】2020年3月25日
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成28年度、総務省、自律型モビリティシステムの共通プラットフォーム構築に関する研究開発の委託事業、産業技術力強化法第19条の適用を受ける特許出願
(73)【特許権者】
【識別番号】000005821
【氏名又は名称】パナソニック株式会社
(74)【代理人】
【識別番号】110001379
【氏名又は名称】特許業務法人 大島特許事務所
(72)【発明者】
【氏名】加藤 邦弘
【審査官】 渡邉 加寿磨
(56)【参考文献】
【文献】 特開2014−52770(JP,A)
【文献】 特表2016−524189(JP,A)
【文献】 特開2013−149050(JP,A)
【文献】 特開2015−2477(JP,A)
【文献】 特開2001−118147(JP,A)
【文献】 特開2004−114178(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00−99/00
G16H 10/00−80/00
G06F 3/01
G06T 7/215
G06T 7/70
G07G 1/01
G09G 5/00
G10L 15/10
H04N 7//18
(57)【特許請求の範囲】
【請求項1】
言語が利用される場所である対象領域をカメラにより撮像した撮像画像から人物を検出し、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置と、
複数の前記行動認識装置のうち少なくとも1つの前記行動認識装置から、前記撮像画像から検出された人物の人物画像およびその人物の利用言語を示す情報を取得して記憶し、
前記少なくとも1つの前記行動認識装置とは別の行動認識装置から照合対象人物の人物画像を受信したときに、前記照合対象人物の人物画像を前記記憶した人物画像と照合し、
一致する場合には、前記記憶した人物画像の人物の利用言語を示す情報を前記別の行動認識装置に送信する人物照合装置と
を備えたことを特徴とする管理システム。
【請求項2】
多言語が利用される場所である対象領域をカメラにより撮像した撮像画像から人物を検出し、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置を備え、
前記行動認識装置は、さらに、前記撮像画像から検出された人物の追跡結果に基づき人物のグループを判定し、前記グループにおいて利用言語が判明している人物の利用言語を、前記グループ内の利用言語が不明な人物の利用言語であると判定することを特徴とする管理システム。
【請求項3】
前記対象領域内に配置され、互いに異なる言語がそれぞれ表示される複数の表示領域を有する多言語掲示板をさらに備え、
前記行動認識装置は、前記撮像画像から前記人物の視線方向を検出するとともに、前記視線方向に基づき前記複数の表示領域のうちの前記人物が注視している表示領域を特定し、特定された前記表示領域に表示されている言語を前記人物の利用言語として判定することを特徴とする請求項1または請求項2に記載の管理システム。
【請求項4】
前記対象領域内に配置され、多言語で操作可能な多言語キオスクをさらに備え、
前記行動認識装置は、前記人物が前記多言語キオスクを操作するときに使用した言語を前記人物の利用言語として判定することを特徴とする請求項1ないし請求項3のいずれかに記載の管理システム。
【請求項5】
記対象領域内に配置されたマイクをさらに備え、
前記行動認識装置は、前記マイクにより集音された前記人物の音声に基づき、前記人物の利用言語を判定することを特徴とする請求項1ないし請求項のいずれかに記載の管理システム。
【請求項6】
前記対象領域において、多言語の情報を音声出力する音声出力装置をさらに備え、
前記音声出力装置は、前記対象領域で使用されている利用言語の割合を示す言語割合情報に基づいて決定された種類および順番の少なくとも一つにしたがって、前記多言語を音声出力することを特徴とする請求項1ないし請求項のいずれかに記載の管理システム。
【請求項7】
前記対象領域において、多言語の情報を表示出力するディスプレイをさらに備え、
前記ディスプレイは、前記対象領域で使用されている利用言語の割合を示す言語割合情報に基づいて決定された種類および出力する順番の少なくとも一つにしたがって、前記多言語を表示出力することを特徴とする請求項1ないし請求項のいずれかに記載の管理システム。
【請求項8】
前記行動認識装置から前記利用言語を示す情報を取得し、前記言語割合情報を生成する言語割合管理サーバをさらに備えたことを特徴とする請求項6または請求項に記載の管理システム。
【請求項9】
言語が利用される場所である対象領域を撮像した撮像画像を取得する画像取得部と、
前記撮像画像から人物を検出する人物検出部と、
記人物の言語行動に基づき前記人物の利用言語を判定する利用言語判定部と
を備え、
前記利用言語判定部は、さらに、前記撮像画像から検出された人物の追跡結果に基づき人物のグループを判定し、前記グループにおいて利用言語が判明している人物の利用言語を、前記グループ内の利用言語が不明な人物の利用言語であると判定することを特徴とする行動認識装置。
【請求項10】
行動認識装置と人物照合装置とを備えるシステムによる管理方法であって、
前記行動認識装置が、多言語が利用される場所である対象領域をカメラにより撮像した撮像画像を取得するステップと、
前記行動認識装置が、記撮像画像から人物を検出するステップと、
前記行動認識装置が、前記人物の言語行動に基づき前記人物の利用言語を判定するステップと、
前記人物照合装置が、複数の前記行動認識装置のうち少なくとも1つの前記行動認識装置から、前記撮像画像から検出された人物の人物画像およびその人物の利用言語を示す情報を取得して記憶するステップと、
前記人物照合装置が、前記少なくとも1つの前記行動認識装置とは別の行動認識装置から照合対象人物の人物画像を受信したときに、前記照合対象人物の人物画像を前記記憶した人物画像と照合し、一致する場合には、前記記憶した人物画像の人物の利用言語を示す情報を前記別の行動認識装置に送信するステップと
を有することを特徴とする管理方法。
【請求項11】
行動認識装置による管理方法であって、
多言語が利用される対象領域をカメラにより撮影した撮像画像を取得するステップと、
前記撮像画像から人物を検出し、前記人物の言語行動に基づき前記人物の利用言語を判定するステップと、
前記撮像画像から検出された人物の追跡結果に基づき人物のグループを判定し、前記グループにおいて利用言語が判明している人物の利用言語を、前記グループ内の利用言語が不明な人物の利用言語とするステップと
を有することを特徴とする管理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、多言語が利用される場所における利用言語の割合を管理するための言語割合管理システムおよび言語割合管理方法に関する。
【背景技術】
【0002】
従来、テーマパーク等の娯楽施設への入場者(人物)に対して各種言語によるサービス情報を提供することを目的として、各人物を識別するための識別情報とその人物の利用言語を示す言語情報とを予め関連付けて記憶しておき、各人物に対してその人物の利用言語でサービス情報を提供する技術が提案されている(特許文献1参照)。この特許文献1の従来技術では、人物の識別情報は、その人物に所持させた無線タグに記憶させている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2004‐355087号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
例えば空港や観光地等の多言語が利用される場所では、連絡や案内等の各種情報を多言語(複数の言語)で放送することが求められている。そして、多言語で放送するときは、多言語を放送する放送領域で使用されている利用言語を、その放送領域における利用言語の割合に応じた順番で放送することが望ましい。
【0005】
しかしながら、記の特許文献1の技術では、各人物の識別情報と言語情報とを予め関連付けて記憶しておく必要があるため、空港や観光地等の不特定多数の人物が出入りする場所では、放送領域で使用されている利用言語を判定することはできなかった。また、上記の特許文献1の技術では、各人物の利用言語を特定することはできるものの、放送領域で使用されている利用言語や放送領域における利用言語の割合を管理することはできなかった。なお、利用言語の割合の管理とは、対象領域で使用されている利用言語の認識、および対象領域における利用言語の割合の把握を含む。
【0006】
本開示は、このような従来技術の課題を鑑みて案出されたものであり、不特定多数の人物が出入りする場所において人物の利用言語を判定することを可能とする管理システム、行動認識装置、および、理方法を提供することを主目的とする。多言語が利用される場所における利用言語の割合を管理することを可能とする管理システムおよび管理方法を提供することを他の目的とする。
【課題を解決するための手段】
【0007】
本開示の管理システムは、多言語が利用される場所である対象領域をカメラにより撮像した撮像画像から人物を検出し、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置と、複数の前記行動認識装置のうち少なくとも1つの前記行動認識装置から、前記撮像画像から検出された人物の人物画像およびその人物の利用言語を示す情報を取得して記憶する人物照合装置とを備え、前記人物照合装置は、さらに、前記少なくとも1つの前記行動認識装置とは別の行動認識装置から照合対象人物の人物画像を受信したときに、前記照合対象人物の人物画像を前記記憶した人物画像と照合し、一致する場合には、前記記憶した人物画像の人物の利用言語を示す情報を前記別の行動認識装置に送信することを特徴とする。
また、本開示の管理システムは、多言語が利用される場所である対象領域をカメラにより撮像した撮像画像から人物を検出し、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置を備え、前記行動認識装置は、さらに、前記撮像画像から検出された人物の追跡結果に基づき人物のグループを判定し、前記グループにおいて利用言語が判明している人物の利用言語を、前記グループ内の利用言語が不明な人物の利用言語であると判定することを特徴とする。
【発明の効果】
【0008】
本開示によれば、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。
【図面の簡単な説明】
【0009】
図1】本開示の第1実施形態に係る言語割合管理システムの概略構成を示す模式図
図2】第1実施形態に係る言語割合管理システムの変形例を示す図
図3】多言語掲示板の機能ブロック図
図4】(a)は表示部の複数の領域の一例を示す図、(b)は表示言語情報の一例を示す図
図5】行動認識装置の機能ブロック図
図6】人物情報管理テーブルの一例を示す図
図7】言語判定テーブルの一例を示す図
図8】言語割合管理サーバの機能ブロック図
図9】言語割合管理テーブルの一例を示す図
図10】言語割合情報の一例を示す図
図11】館内放送装置の機能ブロック図
図12】領域情報テーブルの一例を示す図
図13】フロアマップの一例を示す図
図14】言語割合取得領域の設定画面を示す図
図15】多言語再生順序の設定画面を示す図
図16】言語割合取得領域設定テーブルの一例を示す図
図17】多言語再生順序設定テーブルの一例を示す図
図18】第1実施形態に係る行動認識装置における一連の処理を示すフロー図
図19】行動認識装置での人物位置情報更新処理を説明するためのフロー図
図20】行動認識装置での利用言語判定処理を説明するためのフロー図
図21】本開示の第2実施形態に係る言語割合管理システムの概略構成を示す模式図
図22】多言語案内ロボットの機能ブロック図
図23】多言語案内ロボットの言語割合取得領域の一例を示す図
図24】多言語案内ロボットでの多言語案内処理を説明するためのフロー図
図25】本開示の第3実施形態に係る言語割合管理システムの概略構成を示す模式図
図26】多言語キオスクの機能ブロック図
図27】第3実施形態に係る行動認識装置の機能ブロック図
図28】第3実施形態に係る行動認識装置での利用言語判定処理を説明するためのフロー図
図29】本開示の第4実施形態に係る言語割合管理システムの概略構成を示す模式図
図30】人物照合装置の機能ブロック図
図31】人物言語テーブルの一例を示す図
図32】第4実施形態に係る行動認識装置の機能ブロック図
図33】第4実施形態に係る行動認識装置での人物位置情報更新処理を説明するためのフロー図
図34】第4実施形態に係る行動認識装置での利用言語判定処理を説明するためのフロー図
図35】人物照合装置での照合処理を説明するためのフロー図
図36】本開示の第5実施形態に係る言語割合管理システムの概略構成を示す模式図
図37】第5実施形態に係る行動認識装置の機能ブロック図
図38】第5実施形態に係る人物情報管理テーブルの一例を示す図
図39】第5実施形態に係る行動認識装置での一連の処理を示すフロー図
図40】第5実施形態に係る行動認識装置でのグループ判定処理を説明するためのフロー図
図41】本開示の第6実施形態に係る言語割合管理システムの概略構成を示す模式図
図42】第6実施形態に係る行動認識装置の機能ブロック図
図43】第6実施形態に係る行動認識装置での利用言語判定処理を説明するためのフロー図
【発明を実施するための形態】
【0010】
上記課題を解決するためになされた第1の発明は、多言語が利用される場所における利用言語の割合を管理するための言語割合管理システムであって、利用言語の割合を管理したい対象領域を撮像するカメラと、前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置と、前記行動認識装置から前記利用言語を示す情報を取得して記憶することにより、前記対象領域で使用されている利用言語の割合を管理する言語割合管理サーバとを備えたことを特徴とする。
【0011】
この第1の発明に係る言語割合管理システムによれば、対象領域で使用されている利用言語の割合を言語割合管理サーバで記憶して管理することができる。これにより、多言語が利用される場所における利用言語の割合を管理することが可能となる。なお、利用言語の割合の管理とは、対象領域で使用されている利用言語の認識、および対象領域における利用言語の割合の把握を含む。
【0012】
また、第2の発明は、上記第1の発明において、前記対象領域内に配置され、互いに異なる言語がそれぞれ表示される複数の表示領域を有する多言語掲示板をさらに備え、前記行動認識装置は、前記撮像画像から前記人物の視線方向を検出するとともに、前記視線方向に基づき前記複数の表示領域のうちの前記人物が注視している表示領域を特定し、特定された前記表示領域に表示されている言語を前記人物の利用言語として判定することを特徴とする。
【0013】
この第2の発明に係る言語割合管理システムによれば、多言語掲示板の表示領域を視認するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。
【0014】
また、第3の発明は、上記第1の発明または第2の発明において、前記対象領域内に配置され、多言語で操作可能な多言語キオスクをさらに備え、前記行動認識装置は、前記人物が前記多言語キオスクを操作するときに使用した言語を前記人物の利用言語として判定することを特徴とする。
【0015】
この第3の発明に係る言語割合管理システムによれば、多言語キオスクを操作するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。
【0016】
また、第4の発明は、上記第1の発明ないし第3の発明のいずれかにおいて、前記対象領域内に配置されたマイクをさらに備え、前記行動認識装置は、前記マイクにより集音された前記人物の音声に基づき、前記人物の利用言語を判定することを特徴とする。
【0017】
この第4の発明に係る言語割合管理システムによれば、発話という人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。
【0018】
また、第5の発明は、上記第1の発明ないし第4の発明のいずれかにおいて、前記対象領域に対して多言語の音声情報を音声出力する館内放送装置をさらに備え、前記館内放送装置は、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、音声出力する多言語の種類およびその多言語を音声出力する順番を決定することを特徴とする。
【0019】
この第5の発明に係る言語割合管理システムによれば、館内放送装置が音声出力する多言語の種類およびその多言語を音声出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。
【0020】
また、第6の発明は、上記第1の発明ないし第5の発明において、前記対象領域において多言語の情報を出力する多言語案内ロボットをさらに備え、前記多言語案内ロボットは、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、出力する多言語の種類およびその多言語を出力する順番を決定することを特徴とする。
【0021】
この第6の発明に係る言語割合管理システムによれば、多言語案内ロボットが出力する多言語の種類およびその多言語を出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。
【0022】
また、第7の発明は、上記第1の発明ないしの第6の発明において、複数の前記行動認識装置間で、前記撮像画像から検出された人物を照合するための人物照合装置をさらに備え、前記人物照合装置は、少なくとも1つの前記行動認識装置から、前記撮像画像から検出された人物の人物画像およびその人物の利用言語を示す情報を取得して予め記憶しておき、前記少なくとも1つの前記行動認識装置とは別の行動認識装置から照合対象人物の人物画像を受信したときに、前記照合対象人物の人物画像を前記予め記憶した人物画像と照合し、一致する場合には、前記予め記憶した人物画像の人物の利用言語を示す情報を前記別の行動認識装置に送信することを特徴とする。
【0023】
この第7の発明に係る言語割合管理システムによれば、複数の行動認識装置間で、撮像画像から検出された人物を照合することができるので、複数の行動認識装置間で、人物の利用言語を示す情報を共有することが可能となる。
【0024】
また、第8の発明は、上記第1の発明ないしの第7の発明において、前記撮像画像から検出された人物の追跡結果に基づき人物のグループを判定し、前記グループにおいて利用言語が判明している人物の利用言語を、前記グループ内の利用言語が不明な人物の利用言語とすることを特徴とする。
【0025】
この第8の発明に係る言語割合管理システムによれば、グループにおいて少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内の利用言語が不明な利用言語とすることが可能となる。
【0026】
また、第9の発明は、多言語が利用される場所における利用言語の割合を管理するための言語割合管理方法であって、利用言語の割合を管理したい対象領域をカメラにより撮像するステップと、前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定するステップと、前記利用言語を示す情報を記憶することにより、前記対象領域で使用されている利用言語の割合を管理するステップとを有することを特徴とする。
【0027】
この第9の発明に係る言語割合管理方法によれば、対象領域で使用されている利用言語の割合を記憶して管理することができる。これにより、多言語が利用される場所における利用言語の割合を管理することが可能となる。
【0028】
以下、本開示の実施形態について、図面を参照しながら説明する。
【0029】
(第1実施形態)
図1は、本開示の第1実施形態に係る言語割合管理システム1の概略構成を示す模式図である。図1に示すように、言語割合管理システム1は、多言語掲示板2、カメラ3、行動認識装置4、言語割合管理サーバ5と、館内放送装置6とを主として備えている。行動認識装置4は、専用通信回線またはインターネット等の通信ネットワークを介して、多言語掲示板2、カメラ3、および言語割合管理サーバ5に接続されている。また、言語割合管理サーバ5は、専用通信回線またはインターネット等の通信ネットワークを介して、館内放送装置6に接続されている。
【0030】
本実施形態では、言語割合管理システム1を、空港や駅等の施設に適用した場合について説明する。なお、本開示に係る言語割合管理システム1は、空港や駅等以外にも、ショッピングセンターや観光地等の様々な対象に適用可能である。
【0031】
図2は、言語割合管理システム1の変形例を示す図である。図2に示すように、言語割合管理システム1は、多言語掲示板2、カメラ3、行動認識装置4を複数備えていてもよい。図2の例では、多言語掲示板2、カメラ3、行動認識装置4をそれぞれ2つずつ備えており、行動認識装置4Aには多言語掲示板2Aおよびカメラ3Aが接続され、行動認識装置4Bには多言語掲示板2Bおよびカメラ3Bが接続されている。そして、行動認識装置4Aおよび行動認識装置4Bは、言語割合管理サーバ5に接続されている。
【0032】
多言語掲示板2は、公知の構成を有する電光掲示板であり、空港や駅等の施設のフロアFの適所に配置されている。そして、多言語掲示板2は、図示しない情報管理センター等からの命令に基づき、フロアFに存在する人物Hに対して、連絡や案内等の各種情報を多言語で表示して提供する。
【0033】
図3は、多言語掲示板2の機能ブロック図である。図3に示すように、多言語掲示板2は、連絡や案内等の各種情報を多言語によりそれぞれ表示する複数の領域を有する表示部11(図4(a)参照)と、表示部11の各領域の表示を管理する表示管理部12と、表示部11の各領域で表示されている言語を示す表示言語情報を行動認識装置4に通知する表示言語提供部13とを有している。表示部11は、例えばLEDパネルや液晶パネル表示部等から構成される。
【0034】
図4(a)は、表示部11の複数の領域の一例を示す図であり、図4(b)は、表示言語情報の一例を示す図である。図4(a)の例では、表示部11は、日本語による案内を表示する領域1、英語による案内を表示する領域2、中国語による案内を表示する領域3の3つの領域を有している。したがって、この場合の表示言語情報は、「領域1が日本語、領域2が英語、領域3が中国語」となる。
【0035】
カメラ3は、公知の撮像機能や通信機能を有する撮像装置であり、多言語掲示板2の近傍の壁や天井等に設置され、多言語掲示板2の周辺の予め定められた撮像領域(対象領域)を静止画像または動画像として時系列に撮像する。カメラ3の撮像画像(静止画像または動画像)は、行動認識装置4に適宜送信される。なお、カメラ3は、予め定められた撮像領域を撮像可能な限りにおいて、その形態、機能、配置、数量等については、特に限定されるものではなく種々の変更が可能である。
【0036】
行動認識装置4は、公知の構成を有するコンピュータからなり、カメラ3の撮像画像から人物を検出して追跡するとともに、その人物の言語行動に基づきその人物の利用言語を判定する。言語行動とは、人物が、言語を利用して、各種情報を読んだり、書いたり(タッチパネル等を介した入力を含む)、話したり、聞いたりする行動のことである。
【0037】
図5は、行動認識装置4の機能ブロック図である。図5に示すように、行動認識装置4は、カメラ3から撮像画像を取得する画像取得部21と、撮像画像から人物を検出する人物検出部22と、撮像画像中における人物領域(以降、「画像人物領域」とも称する)をフロアFの地図データであるフロアマップの位置座標に変換する位置座標変換部23と、撮像画像(現フレーム画像)から検出された人物が前フレーム画像で検出された人物と同一であるか否かを判定する同一人物判定部24と、言語割合管理サーバ5と接続する言語割合管理サーバ接続部25と、画像取得部21が取得した撮像画像および後述する人物情報管理テーブルを格納する記憶部26とを有している。撮像画像は、前フレーム画像(前画像)または現フレーム画像(現画像)として、記憶部26に格納される。
【0038】
また、行動認識装置4は、多言語掲示板2と接続する多言語掲示板接続部27、撮像画像から検出された人物の視線方向を該撮像画像から検出する視線方向検出部28と、視線方向検出部28で検出された人物の視線方向および多言語掲示板2から取得した表示言語情報に基づきその人物の利用言語を判定する利用言語判定部29と、利用言語判定部29に接続された言語判定テーブル30とを有している。視線方向検出部28は、撮像画像から人物の顔の向きを検出し、検出された顔の向きをその人物の視線方向とする。利用言語判定部29は、各フレーム画像における判定結果を言語判定テーブル30に記録し、記録された判定結果に基づき人物の利用言語を判定する。
【0039】
図6は、人物情報管理テーブルの一例を示す図である。図6に示すように、人物情報管理テーブルには、人物IDに紐付けて、人物検出部22で検出された人物の画像人物領域、位置座標変換部23で変換された位置座標、利用言語判定部29で判定された利用言語が記録されている。
【0040】
図7は、言語判定テーブル30の一例を示す図である。図7に示すように、言語判定テーブル30には、人物IDに紐付けて、人物が多言語掲示板2を注視した領域である着目領域と、連続するフレームにおいてその着目領域を連続して注視した回数である継続回数が記録されている。
【0041】
言語割合管理サーバ5は、公知の構成を有するサーバからなり、行動認識装置4から人物の位置座標と利用言語を含む人物情報を取得して言語割合管理テーブル(図9参照)に記憶することにより、カメラ3の撮像領域(対象領域)で使用されている利用言語の割合を管理する。なお、利用言語の割合の管理とは、対象領域で使用されている利用言語の認識、および対象領域における利用言語の割合の把握を含む。
【0042】
図8は、言語割合管理サーバ5の機能ブロック図である。図8に示すように、言語割合管理サーバ5は、行動認識装置4(4A、4B)から人物情報を受信する人物情報受信部31と、言語割合管理テーブルを格納する記憶部32と、館内放送装置6から、対象領域で使用されている利用言語の割合についての問い合わせを受信したときに、その問い合わせに応じた言語割合情報を作成する言語割合管理部33と、館内放送装置6からの問い合わせの受信、および言語割合管理部33で作成した言語割合情報の館内放送装置6への送信を行う言語割合送出部34とを有している。上述したように、言語割合管理システム1は、複数の行動認識装置4を備えていてもよい。図8に示す言語割合管理サーバ5は、2つの行動認識装置4A、4Bから人物情報を取得して管理している。
【0043】
図9は、言語割合管理テーブルの一例を示す図である。図9に示すように、言語割合管理テーブルは、行動認識装置4に対して付与した装置IDに紐付けて、撮像画像中における人物領域(画像人物領域)をフロアマップの位置座標に変換した位置座標と、人物の利用言語とを記憶している。図9の例では、行動認識装置4Aに、装置ID「1」が付与され、行動認識装置4Bに装置ID「2」が付与されている。
【0044】
図10は、言語割合管理サーバ5で作成する言語割合情報の一例を示す図である。言語割合情報は、館内放送装置6から問い合わせられた対象領域に含まれている位置座標に対応する利用言語を集計して作成する。図10の例では、対象領域の利用言語の割合は、英語が20人、日本語が11人、中国語が23人、韓国語が3人、不明が15人となっている。なお、図10の例では、利用言語の割合を人数で表したが、パーセンテージで表すようにしてもよい。また、予め定められた閾値以下の言語を足切りするようにしてもよい。
【0045】
館内放送装置6は、公知の構成を有する放送装置であり、対象領域に対して多言語の音声情報(連絡や案内等の各種情報)を音声出力する。
【0046】
図11は、館内放送装置6の機能ブロック図である。図11に示すように、館内放送装置6は、館内放送装置6のユーザが音声を入力する音声入力部41と、ユーザが入力した音声を認識する音声認識部42と、言語割合管理サーバ5に問い合わせて対象領域の言語割合情報を取得する言語割合取得部43と、ユーザが入力した音声を言語割合情報に基づき決定された多言語に翻訳する翻訳部44と、翻訳された多言語の合成音声を作成する音声合成部45と、作成された合成音声を音声出力(再生)する音声出力部46とを有している。
【0047】
また、館内放送装置6は、言語割合管理サーバ5に問い合わせて言語割合情報を取得する領域(すなわち対象領域)である言語割合取得領域および多言語の再生順序を設定するための表示入力パネル47と、表示入力パネル47で設定された言語割合取得領域および多言語再生順序をそれぞれ記憶する言語割合取得領域設定テーブルおよび多言語再生順序設定テーブルを格納した記憶部48とを有している。また、記憶部48には、言語割合取得領域の候補を予め記憶した領域情報テーブルが格納されている。
【0048】
図12は、館内放送装置6の記憶部48に記憶される領域情報テーブルの一例を示す図である。図13は、フロアFの地図データであるフロアマップの一例を示す図である。図13の例では、フロアFには、2つの多言語掲示板2A、2B(以降、単に、「掲示板A」、「掲示板B」とも称する)が設けられている。この場合、領域情報テーブルは、「フロア全体」、「掲示板A周辺」、および「掲示板B周辺」の3つの領域を示す領域名と、各々の領域を特定する領域情報とを、言語割合取得領域(対象領域)の候補として予め記憶している。
【0049】
図14は、館内放送装置6のユーザが、言語割合取得領域を設定する設定画面を示す図である。図14の例では、言語割合取得領域としてフロア全体が選択され設定されている。したがって、この場合は、館内放送装置6は、フロア全体についての言語割合情報を、言語割合管理サーバ5に問い合わせて取得する。
【0050】
図15は、館内放送装置6のユーザが、多言語再生順序を設定する設定画面を示す図である。図15の例では、再生順序の1番目は日本語、2番目は英語、3番目は言語割合情報における割合1位の言語、4番目は言語割合情報における割合2位の言語、5番目と6番目は未選択(無し)と設定されている。したがって、図15の例では、再生順序の1番目から4番目までの4つの言語で音声情報が再生される。なお、言語割合情報における割合1位の言語および割合2位の言語は、事前に1番目、2番目として設定された日本語と英語以外の言語における割合1位の言語と割合2位の言語とするとよい。
【0051】
図16は、館内放送装置6の記憶部48に記憶される言語割合取得領域設定テーブルの一例を示す図である。言語割合取得領域設定テーブルには、図14に示した言語割合取得領域の設定画面で設定された言語割合取得領域が記録される。図16の例では、言語割合取得領域は「フロア全体」であると記憶されている。
【0052】
図17は、館内放送装置6の記憶部48に記憶される多言語再生順序設定テーブルの一例を示す図である。多言語再生順序テーブルには、図15に示した多言語再生順序の設定画面で設定された再生順序が記録されている。図17の例では、再生順序は、「1番目は日本語、2番目は英語、3番目は言語割合情報における割合1位の言語、4番目は言語割合情報における割合2位の言語」であると記憶されている。
【0053】
図18は、第1実施形態に係る行動認識装置4における一連の処理を示すフロー図である。
【0054】
まず、ステップST101では、カメラ3から、多言語掲示板2の周辺の予め定められた撮像領域(対象領域)の撮像画像を取得し、現フレーム画像(現画像)として、記憶部26に格納する。
【0055】
次に、ステップST102では、撮像画像に基づき、人物情報管理テーブル(図6参照)の画像人物領域および位置座標を更新する人物位置情報更新処理を行う。この人物位置情報更新処理の詳細は、図19のフロー図を参照して後述する。
【0056】
続いて、ステップST103では、撮像画像から検出された人物の利用言語を判定する利用言語判定処理を行う。この利用言語判定処理の詳細は、図20のフロー図を参照して後述する。
【0057】
次に、ステップST104では、言語割合管理サーバ5の言語割合管理テーブル(図9参照)に記憶されている人物情報(位置座標および利用言語)の更新処理を行う。具体的には、記憶部26に格納されている人物情報管理テーブル(図6参照)に記憶されている人物情報(位置座標および利用言語)を言語割合管理サーバ5に送信し、言語割合管理サーバ5の言語割合管理テーブルに記憶されている人物情報を更新するか、または言語割合管理テーブルに追加して記録する。
【0058】
そして、ステップST105では、撮像画像を前フレーム画像として記憶部26に格納し、その後、ステップST101に戻る。
【0059】
図19は、行動認識装置4での人物位置情報更新処理(図18のステップST102)を説明するためのフロー図である。
【0060】
まず、ステップST201では、現フレーム画像から人物領域(画像人物領域)を検出する。現フレーム画像からの人物領域の検出は、人物の特徴量に基づく手法等の公知の手法を用いて行うとよい。
【0061】
次に、ステップST202では、人物領域(画像人物領域)を、フロアFの地図データであるフロアマップの位置座標に変換する。具体的には、人物領域の中心または重心の座標を位置座標とするとよい。
【0062】
続いて、ステップST203では、現フレーム画像で検出された人物が、前フレーム画像に存在するか否かを判定する。この判定は、上記のステップST201の場合と同様に、人物の特徴量に基づく手法等の公知の手法を用いて行うとよい。前フレーム画像に同一人物が存在すると判定された場合(ステップST203:Yes)はステップST204に進み、前フレーム画像に同一人物が存在しないと判定された場合(ステップST203:No)はステップST205に進む。
【0063】
ステップST204では、記憶部26に格納されている人物情報管理テーブル(図6参照)における該当人物IDの位置座標と画像人物領域を更新し、その後、ステップST206に進む。
【0064】
ステップST205では、人物情報管理テーブルに人物IDを追加し、その追加した人物IDに紐付けて画像人物領域および位置座標を記録し、その後、ステップST206に進む。
【0065】
ステップST206では、人物情報管理テーブルにおける更新されていない人物IDを削除し、処理を終了する。これにより、現フレーム画像において存在しない人物の人物情報は削除される。上記のステップST202−205は、現フレーム画像から検出された人物領域毎に繰り返される。
【0066】
図20は、行動認識装置4での利用言語判定処理(図18のステップST103)を説明するためのフロー図である。以下の処理は、上記の人物位置情報更新処理で更新または追加された人物ID毎に繰り返される。
【0067】
まず、ステップST301では、現フレーム画像から、人物の視線方向を検出する。具体的には、現フレーム画像の画像人物領域から、統計的または非統計的識別器を用いる手法やテンプレートマッチングを用いる手法等の公知の手法を用いてその人物の顔領域を検出するとともに、顔領域から公知の手法を用いて顔特徴量を抽出する。そして、抽出された顔特徴量に基づき、予め用意した統計的または非統計的識別器を用いて顔の向きを検出し、検出された人物の顔の向きをその人物の視線方向とする。
【0068】
次に、ステップST302では、検出された人物の視線方向に基づき、多言語掲示板の表示部における着目領域を検出する。着目領域とは、人物が注視している領域のことである。
【0069】
続くステップST303では、着目領域が検出されたか否かを判定する。着目領域が検出されなかったと判定された場合(ステップST303:No)はステップST304に進み、着目領域が検出されたと判定された場合(ステップST303:Yes)はステップST305に進む。
【0070】
ステップST304では、着目領域が検出されなかったため、言語判定テーブル(図7参照)の着目領域を「無し」、継続回数を「0」に更新し、その後、処理を終了する。
【0071】
ステップST305では、着目領域が前フレーム画像と同一であるか否かを判定する。同一ではないと判定された場合(ステップST305:No)はステップST306に進み、同一であると判定された場合(ステップST305:Yes)はステップST307に進む。
【0072】
ステップST306では、新規の着目領域を追加し、その着目領域に紐付けて、継続回数「1」を記録し、その後、処理を終了する。
【0073】
ステップST307では、該当する着目領域の継続回数を「1」増加させる。
【0074】
続くステップST308では、継続回数が閾値以上になったか否かを判定する。閾値以上ではないと判定された場合(ステップST308:No)は処理を終了し、閾値以上であると判定された場合(ステップST308:Yes)はステップST309に進む。
【0075】
ステップST309では、その着目領域に対応する言語を、人物情報管理テーブルの利用言語の欄に記録し、その後、処理を終了する。領域に対応する言語は、表示言語情報(図4(b)参照)に基づき判定する。これにより、人物の利用言語が判定される。
【0076】
次に、言語割合管理サーバ5の動作について説明する。
【0077】
言語割合管理サーバ5は、行動認識装置4から、人物の位置座標および利用言語を含む人物情報を受信すると、その人物情報を言語割合管理テーブル(図9参照)に記録する。上述したように、人物情報は、行動認識装置4の装置IDに紐付けて記憶される。そして、館内放送装置6から、対象領域で使用されている利用言語の割合についての問い合わせを受信したときに、対象領域で使用されている利用言語の割合を示す言語割合情報(図10参照)を作成し、館内放送装置6に送信する。
【0078】
次に、館内放送装置6の動作について説明する。
【0079】
まず、館内放送装置6のユーザは、館内放送装置6の表示入力パネル47に表示した各設定画面(図14および図15参照)を操作して、言語割合取得領域および多言語再生順序を設定する。言語割合取得領域は、ユーザが、設定画面に表示された言語割合取得領域の候補から、所望する言語割合取得領域を選択することにより設定される。設定された言語割合取得領域は、言語割合取得領域設定テーブル(図16参照)に記憶される。多言語再生順序は、ユーザが、設定画面を操作して再生順序を指定することにより設定される。設定された再生順序は、多言語再生順序設定テーブル(図17参照)に記憶される。
【0080】
館内放送装置6は、対象領域(放送領域)に対して多言語の音声情報を音声出力するときは、対象領域の利用言語の割合を言語割合管理サーバ5に問い合わせて言語割合情報を取得し、取得した言語割合情報に基づき、音声出力する多言語の種類およびその多言語を音声出力する順番を決定する。これにより、対象領域で使用されている利用言語を、その対象領域における利用言語の割合に応じて放送することができる。
【0081】
以上のように、第1実施形態に係る言語割合管理システムによれば、対象領域で使用されている利用言語の割合を言語割合管理サーバ5で記憶して管理することにより、多言語が利用される場所における利用言語の割合を管理することが可能となる。
【0082】
また、第1実施形態に係る言語割合管理システムによれば、多言語掲示板2の表示領域を視認するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。
【0083】
また、第1実施形態に係る言語割合管理システムによれば、館内放送装置6が音声出力する多言語の種類およびその多言語を音声出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。
【0084】
(第2実施形態)
次に、本開示の第2実施形態に係る言語割合管理システム1について説明する。なお、この第2実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
【0085】
図21は、第2実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第2実施形態は、館内放送装置6の代わりに多言語案内ロボット7を備えている点が、上記の第1実施形態と異なる。
【0086】
多言語案内ロボット7(以降、単に「ロボット7」と称する)は、現在位置を把握しながらフロアFを自律走行し、予め記憶した多言語の案内音声(音声情報)を、ロボット7を中心とした予め定められた範囲の領域(対象領域)に対して音声出力する。音声出力する多言語の種類およびその多言語を放送する順番は、上記の館内放送装置6の場合と同様に、対象領域で使用されている利用言語の割合に基づき決定する。
【0087】
図22は、多言語案内ロボット7の機能ブロック図である。図22に示すように、多言語案内ロボット7は、該ロボット7を駆動する駆動部51と、該ロボット7の現在位置を把握する現在位置把握部52と、言語割合取得領域設定テーブル、多言語再生順序設定テーブル、および多言語の案内情報(音声情報や文字情報)を格納した記憶部53と、言語割合管理サーバ5から言語割合情報を取得する言語割合取得部54と、多言語の案内情報を出力する出力部55とを備えている。出力部55は、スピーカによって音声を再生出力したり、文字情報などをロボット7が備えるディスプレイに表示出力したりするものである。
【0088】
言語割合取得領域(すなわち対象領域)は、ロボット7の位置座標を中心とした予め定められた半径Rの範囲の円領域である。半径Rは適宜設定される。図23は、ロボット7の言語割合取得領域の一例を示す図である。図23の例では、ロボット7の現在位置の座標(1500、550)を中心とした半径Rの範囲の円領域が、言語割合取得領域となる。
【0089】
図24は、ロボット7での多言語案内処理を説明するためのフロー図である。下記の処理は、ロボット7の記憶部53に予め設定されたプログラム(例えば多言語案内プログラム)、または図示しない情報管理センター等からの命令に基づき、ロボット7が多言語の案内情報(連絡や案内等の各種情報の音声情報や文字情報)を出力するときに開始される。
【0090】
まず、ステップST401では、現在位置把握部52によりロボット7の現在位置を把握するとともに、現在位置の位置座標および予め定められた半径Rに基づき言語割合取得領域を決定する。上述したように、言語割合取得領域は、現在の位置座標を中心とした半径Rの範囲の円領域となる。
【0091】
次に、ステップST402では、言語割合取得領域(対象領域)で使用されている利用言語の割合を言語割合管理サーバ5に問い合わせ、言語割合管理サーバ5から、対象領域で使用されている利用言語の割合を示す言語割合情報を取得する。
【0092】
続いて、ステップST403では、言語割合管理サーバ5から取得した言語割合情報および多言語再生順序設定に基づき、言語再生順序を決定する。多言語再生順序設定は、上記の館内放送装置6の場合と同様に、ユーザにより予め設定されている。
【0093】
そして、ステップST404では、決定された言語再生順序に従って案内情報の出力(案内音声の再生や文字情報の表示)を行い、その後、処理を終了する。
【0094】
このように第2実施形態に係る言語割合管理システムによれば、ロボット7が出力する多言語の種類およびその多言語を出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。なお、第1実施形態の館内放送装置と第2実施形態の多言語案内ロボット7とを併用するようにしてもよい。
【0095】
また、上記の例では、ロボット7の現在位置の位置座標および予め定められた半径Rの範囲の領域における利用言語の割合に基づいて、ロボット7が出力する言語の種類を決定したが、ロボット7の正面に位置する人物を検出し、ロボット7がその人物の利用言語を言語割合管理サーバ5に問い合わせ、言語割合管理サーバ5が言語割合管理テーブルから人物の位置座標に基づき利用言語をロボット7に送信することによって、ロボット7が正面に位置する人物へ案内する言語の種類を決定するようにしてもよい。
【0096】
(第3実施形態)
次に、本開示の第3実施形態に係る言語割合管理システム1について説明する。なお、この第3実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
【0097】
図25は、第3実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第3実施形態は、多言語掲示板2の代わりに多言語キオスク8を備えている点が、上記の第1実施形態と異なる。
【0098】
多言語キオスク8は、公知の構成を有する情報端末装置であり、フロアFの適所に配置されている。多言語キオスク8は、表示入力部であるタッチパネルを有しており、フロアFに存在する人物はタッチパネルを操作することにより、各種の情報にアクセスすることができる。
【0099】
図26は、多言語キオスク8の機能ブロック図である。図26に示すように、多言語キオスク8は、連絡や案内等の各種情報を多言語により表示するともに、ユーザが操作可能な表示入力部(タッチパネル)61と、表示入力部61の表示を管理する表示管理部62と、表示入力部61で表示されている言語、すなわち表示入力部61の操作に使用された言語を示す表示言語情報を行動認識装置4に通知する表示言語提供部63とを有している。
【0100】
図27は、第3実施形態に係る行動認識装置4の機能ブロック図である。図27に示すように、第3実施形態に係る行動認識装置4は、多言語掲示板接続部27の代わりに多言語キオスク接続部64を有しており、この多言語キオスク接続部64を介して多言語キオスク8と接続されている。また、第3実施形態に係る行動認識装置4は、視線方向検出部28および言語判定テーブル30を有していない。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。
【0101】
図28は、第3実施形態に係る行動認識装置4での利用言語判定処理を説明するためのフロー図である。以下の処理は、人物ID毎に繰り返される。
【0102】
まず、ステップST501では、人物情報管理テーブル(図6参照)に記録されている位置座標に基づき、多言語キオスク8の正面に位置する人物を検出する。行動認識装置4は、多言語キオスク8の位置座標を予め保持しているものとする。
【0103】
次に、ステップST502では、人物情報管理テーブル(図6参照)の位置座標において、多言語キオスク8の正面に位置する人物が検出されたか否かを判定する。検出されたと判定された場合(ステップST502:Yes)は、ステップST503に進み、検出されなかった(多言語キオスク8の正面に位置する人物がいない)と判定された場合(ステップST502:No)は、処理を終了する。
【0104】
ステップST503では、検出された人物が、多言語キオスク8の表示入力部61を操作したか否かを判定する。ここでは、検出された人物が、多言語キオスク8の正面に一定時間以上滞在していた場合に、操作があったと判定するものとする。操作したと判定された場合(ステップST503:Yes)は、ステップST504に進み、操作していないと判定された場合(ステップST503:No)は、処理を終了する。
【0105】
ステップST504では、多言語キオスク8に、その人物が多言語キオスク8の表示入力部61を操作するときに使用した利用言語を問い合わせる。
【0106】
そして、ステップST505では、問い合わせの結果、すなわちその人物の利用言語を人物情報管理テーブルの利用言語の欄に格納し、その後、処理を終了する。
【0107】
このように第3実施形態に係る言語割合管理システムによれば、多言語キオスク8を操作するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。
【0108】
なお、言語割合管理システム1が、多言語掲示板2と多言語キオスク8との両方を備え、両方の装置により人物の利用言語を判定するようにしてもよい、また、一方の装置の判定結果を優先するようにしてもよい。
【0109】
(第4実施形態)
次に、本開示の第4実施形態に係る言語割合管理システム1について説明する。なお、この第4実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
【0110】
図29は、第4実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第4実施形態は、人物照合装置9をさらに備えている点が、上記の第1実施形態と異なる。
【0111】
この第4実施形態では、人物照合装置9により、行動認識装置4Aに接続されたカメラ3Aで撮像した撮像画像から抽出した人物画像と、行動認識装置4Bに接続されたカメラ3Bで撮像した撮像画像から抽出した人物画像とを照合することができる。例えば、多言語掲示板2の表示部11の周辺に位置しカメラ3Bで撮像された人物H1が多言語キオスク8の方向に移動しカメラ3Aで撮像された場合に、カメラ3Aで撮像した人物H1の人物画像と、カメラ3Bで撮像した人物H1の人物画像とを人物照合装置9によって照合することができる。したがって、もし行動認識装置4Bで人物H1の利用言語が判明していれば、人物H1の利用言語を、人物照合装置9を介して、行動認識装置4Bに通知することが可能となる。
【0112】
図30は、人物照合装置9の機能ブロック図である。図30に示すように、人物照合装置9は、行動認識装置4と接続する行動認識装置接続部71と、人物言語テーブルを記憶する記憶部72と、人物画像を照合する人物照合部73とを有している。
【0113】
図31は、人物言語テーブルの一例を示す図である。図31に示すように、人物言語テーブルでは、バイナリ画像である人物画像に紐付けて、その人物画像の人物の利用言語が記憶されている。
【0114】
図32は、第4実施形態に係る行動認識装置4の機能ブロック図である。図32に示すように、第4実施形態に係る行動認識装置4は、人物照合装置接続部74をさらに有しており、人物照合装置接続部74を介して人物照合装置9と接続されている。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。
【0115】
図33は、第4実施形態に係る行動認識装置4での人物位置情報更新処理を説明するためのフロー図である。この第4実施形態に係る人物位置情報更新処理では、撮像画像(現フレーム画像)から新規の人物が検出され、この新規の人物IDを追加するステップST205の後に、現フレーム画像から抽出した人物画像を人物照合装置9に送信して、人物照合装置9からその人物画像に対応する利用言語を示す利用言語情報を取得する(ステップST601)。そして、取得した利用言語情報を、新規の人物に付与された人物IDに紐づけて、人物情報管理テーブル(図6参照)の利用言語の欄に記録する(ステップST602)。それ以外の点は、第1実施形態に係る人物位置情報更新処理と同様なので、説明は省略する。
【0116】
図34は、第4実施形態に係る行動認識装置4での利用言語判定処理を説明するためのフロー図であり、図20のST301−307と同じ部分は省略して図示している。この第4実施形態に係る利用言語判定処理では、ステップST309で着目領域に対応する言語を人物情報管理テーブルの利用言語の欄に格納(記憶)した後に、その利用言語を示す情報を画像人物領域の人物画像とともに人物照合装置9に送信する(ステップST603)。それ以外の点は、第1実施形態に係る人物位置情報更新処理と同様なので、説明は省略する。
【0117】
人物照合装置9は、行動認識装置4(図29の例では、行動認識装置4B)から人物画像および利用言語を取得すると、その人物画像および利用言語を人物言語テーブル(図31)に記録する。
【0118】
図35は、人物照合装置9の照合処理を説明するためのフロー図である。以下の処理は、図33を参照して説明した、行動認識装置4の人物位置情報更新処理におけるステップST601およびステップST602の処理に対応している。
【0119】
まず、ステップST701では、行動認識装置4(図29の例では、行動認識装置4A)から照合対象の人物画像を受信する。
【0120】
次に、ステップST702では、照合対象の人物画像を、人物言語テーブルに記憶されている人物画像と照合する。
【0121】
続いて、ステップST703では、照合対象の人物画像と一致する人物画像が人物言語テーブルに記憶されているか否か、すなわち該当人物が存在するか否かを判定する。該当人物が存在しないと判定された場合(ステップST703:No)は、ステップST704に進み、該当人物が存在すると判定された場合(ステップST703:Yes)は、ステップST705に進む。
【0122】
ステップST704では、「利用言語は不明」と行動認識装置4に通知し、その後、処理を終了する。
【0123】
ステップST705では、人物言語テーブルを参照して該当人物の利用言語を判定し、判定された利用言語を行動認識装置4に通知する。その後、処理を終了する。
【0124】
このように第4実施形態に係る言語割合管理システムによれば、複数の行動認識装置4間で、撮像画像から検出された人物を照合することができるので、複数の行動認識装置4間で、人物の利用言語を示す情報を共有することが可能となる。
【0125】
(第5実施形態)
次に、本開示の第5実施形態に係る言語割合管理システム1について説明する。なお、この第5実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
【0126】
図36は、第5実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第5実施形態は、フロアFに存在する人物のグループを判定し、そのグループ内の少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内の利用言語が不明な人物の利用言語と判定する点が、上記の第1実施形態と異なる。
【0127】
図36の例では、フロアFに、人物H2、H3、H4の3人の人物からなるグループG1と、人物H5、H6の2人の人物からなるグループG2が存在している。同じグループ内の人物は同一の言語を使用すると考えられるので、同じグループ内の少なくとも1人の人物の利用言語が判明すれば、その利用言語がそのグループ内の他の人物の利用言語であると判定することができる。
【0128】
したがって、グループG1においては、人物H2の利用言語が判明すると、グループG1の人物H3、H4の利用言語が不明である場合でも、人物H3、H4の利用言語は人物H1の利用言語(図36の例では英語)と判定することができる。同様に、グループG2においては、人物H5の利用言語が判明すると、グループG2の人物H6の利用言語が不明である場合でも、人物H6の利用言語は人物H5の利用言語(図36の例では中国語)と判定することができる。
【0129】
図37は、第5実施形態に係る行動認識装置4の機能ブロック図である。図37に示すように、第5実施形態に係る行動認識装置4は、グループを判定するグループ判定部81をさらに有している。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。
【0130】
図38は、第5実施形態に係る人物情報管理テーブルを示す図である。図38に示すように、人物情報管理テーブルは、人物ID、画像人物領域、利用言語に加えて、位置座標履歴の欄をさらに有している。位置座標履歴の欄には、現フレーム画像から取得した位置座標を追加して記録する。
【0131】
図39は、第5実施形態に係る行動認識装置4での一連の処理を説明するためのフロー図である。
【0132】
図39に示すように、この第5実施形態では、ステップST104の言語情報更新処理と、ステップST105の撮像画像を前フレーム画像として記憶部26に格納する処理との間に、グループ判定処理(ステップST106)をさらに有している。このグループ判定処理では、人物のグループを判定し、そのグループのうちの1人の利用言語が判明した場合に、その利用言語をグループ内の利用言語が不明な人物の利用言語とする。それ以外の点は、第1実施形態に係る行動認識装置4での一連の処理と同様なので、説明は省略する。
【0133】
図40は、第5実施形態に係る行動認識装置4のグループ判定処理を説明するためのフロー図である。
【0134】
まず、ステップST801では、人物ID毎に、人物情報管理テーブル(図38参照)の位置座標履歴の欄に、現フレーム画像の位置座標を追加して記憶する。
【0135】
次に、ステップST802では、人物情報管理テーブルの位置座標履歴の欄に記憶された位置座標に基づき、人物のグループと、そのグループに属する人物IDを判定する。例えば、連続する所定数のフレーム画像において一緒に存在し、かつ相互距離が予め定められた距離内である複数の人物をグループと判定するとよい。なお、グループの判定方法はこれに限定されるものではなく、他の様々な公知の方法を用いることができる。
【0136】
続いて、ステップST803では、判定されたグループ内に利用言語が不明な人物が存在するか否かを判定する。利用言語が不明な人物が存在すると判定された場合(ステップST803:Yes)は、ステップST804に進み、利用言語が不明な人物が存在しない判定された場合(ステップST803:No)は、処理を終了する。
【0137】
ステップST804では、そのグループ内の人物において最も多く使用されている利用言語を、利用言語が不明な人物の利用言語と判定する。そして、判定された利用言語を人物情報管理テーブルの利用言語の欄に記録し、その後、処理を終了する。
【0138】
このように第5実施形態に係る言語割合管理システムによれば、グループ内の少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内の利用言語が不明な人物の利用言語と判定することが可能となる。なお、グループ内の少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内のすべての人物の利用言語とするようにしてもよい。
【0139】
(第6実施形態)
次に、本開示の第6実施形態に係る言語割合管理システム1について説明する。なお、この第6実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
【0140】
図41は、第6実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第6実施形態は、多言語掲示板2の代わりにマイク10を備えている点が上記の第1実施形態と異なる。
【0141】
マイク10は、公知の構成を有する集音マイクであり、空港のフロアFの適所に配置され、人物の会話等の発話を集音する。
【0142】
図42は、第6実施形態に係る行動認識装置4の機能ブロック図である。図42に示すように、第6実施形態に係る行動認識装置4は、多言語掲示板接続部27の代わりにマイク接続部91を有しており、このマイク接続部91を介してマイク10と接続されている。利用言語判定部29は、マイク10が集音した音声を公知の音声分析技術を用いて分析して、その人物の利用言語を判定するものとする。また、第6実施形態に係る行動認識装置4は、視線方向検出部28および言語判定テーブル30を有していない。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。
【0143】
図43は、第6実施形態に係る行動認識装置4での利用言語判定処理を説明するためのフロー図である。以下の処理は、人物ID毎に繰り返される。
【0144】
まず、ステップST901では、人物情報管理テーブル(図6参照)に記録されている位置座標に基づき、マイク10の正面に位置する人物を検出する。行動認識装置4は、マイク10の位置座標を予め保持しているものとする。
【0145】
次に、ステップST902では、人物情報管理テーブル(図6参照)の位置座標において、マイク10の正面に位置する人物が検出されたか否かを判定する。検出されたと判定された場合(ステップST902:Yes)は、ステップST903に進み、検出されなかった(マイク10の正面に位置する人物がいない)と判定された場合(ステップST902:No)は、処理を終了する。
【0146】
ステップST903では、検出された人物の音声をマイク10で取得されたか否かを判定する。音声が取得されたと判定された場合(ステップST903:Yes)はステップST904に進み、音声が取得されなかったと判定された場合(ステップST903:No)は処理を終了する。
【0147】
ステップST904では、利用言語判定部29により、マイク10が集音した音声を分析して、その人物の利用言語を判定する。
【0148】
そして、ステップST905では、判定された利用言語を人物情報管理テーブルの利用言語の欄に格納(記憶)し、その後、処理を終了する。
【0149】
このように第6実施形態に係る言語割合管理システムによれば、発話という人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。
【0150】
なお、言語割合管理システム1が、多言語掲示板2、多言語キオスク8、およびマイク10の任意の組み合わせを備え、各装置により人物の利用言語を判定するようにしてもよい。また、いずれかの装置の判定結果を優先するようにしてもよい。
【0151】
以上、本開示を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本開示はこれらの実施形態によって限定されるものではない。また、第1実施形態から第6実施形態を任意に組み合わせた実施形態としてもよい。また、上記実施形態に示した本開示に係る言語割合管理システムおよび言語割合管理方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本開示の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。
【産業上の利用可能性】
【0152】
本開示に係る言語割合管理システムおよび言語割合管理方法は、多言語が利用される場所における利用言語の割合を管理することを可能にする言語割合管理システムおよび言語割合管理方法等として有用である。
【符号の説明】
【0153】
1 言語割合管理システム
2 多言語掲示板
3 カメラ
4 行動認識装置
5 言語割合管理サーバ
6 館内放送装置
7 多言語放送ロボット
8 多言語キオスク
9 人物照合装置
10 マイク
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29
図30
図31
図32
図33
図34
図35
図36
図37
図38
図39
図40
図41
図42
図43