(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0009】
図1を用いて、発明を実施するための形態1に係る位置検出システムについて説明する。
図1に示した位置検出システムは、学校の教室10において講義を受講している複数の学生をカメラ11で撮影し、画像分析手段5が上記撮影した画像の中から他の学生と異なる姿勢をとる学生を特定し、瞳画像分析手段6が画像分析手段5で特定された学生の瞳に写る画像をカメラ11で撮影し、その撮影した学生の瞳に写る画像から特異な学生を個人として特定するものである。
【0010】
図1に示す位置検出システムは、管理装置1、入力部2、出力部3、記憶部7、教室10に設けられたカメラ11からなる。管理装置1は、カメラ11で教室10に居る複数人としての全部の学生を撮影した画像から特異な学生を特定するものであって、カメラ11を制御するカメラ制御手段4、カメラ11で撮影した画像を分析する画像分析手段5、カメラ11で撮影した画像のうち人の瞳の画像を分析する瞳画像分析手段6を備える。カメラ制御手段4、画像分析手段5、瞳画像分析手段6は、管理装置1の図示のされていないコンピューターにより具現化される。
【0011】
入力部2は、操作部やキーボードなどであって、人により操作されることでカメラ制御手段4に対してカメラ11の撮影開始及び撮影範囲などの動作を指示する。出力部3は、画像分析手段5や瞳画像分析手段6で分析した画像を人が視聴覚できるように表示する機能を備えており、ディスプレイやプリンター或いはスピーカーなどにより構成される。記憶部7は、カメラ11で撮影した画像を分析する際にどのようなタイミングで分析するかを示す時期データを記憶する時期データ部8とカメラ11で撮影した画像のうち、例えば、顔を下に向けたままの学生のように他の学生とは異なる姿勢をとる学生の画像を記憶する収集データ部9とを備える。時期データ部8は、画像の分析タイミングとして撮影開始からの所定時間、例えば、撮影開始から5分後、15分後、30分後などの撮影した画像を分析するタイミングを複数個記憶する。
【0012】
例えば、管理装置1の図示のされていないコンピューターが講義を受講している複数の学生の中から特異な学生を特定するように起動し、教室10に円形に示した複数人の学生が方形に示した複数個の席のそれぞれに着席し、図示のされていない講師が教室10に居る全部の学生に講義を開始する際に、講師又は別の人が入力部2を操作すると、カメラ11がカメラ制御手段4からの制御により撮影を開始し教室10に居る全部の学生を撮影する。そしてカメラ11が教室10に居る全部の学生に対する撮影を開始した後、時期データ部8の分析タイミングごとに、画像分析手段5が上記全部の学生に対するカメラ11で撮影した画像を分析し、他の学生と異なる姿勢をとる学生の画像を分析した場合はその学生の画像を収集データ部9に記憶するとともにカメラ制御手段4にズームアップの指示を行い、カメラ制御手段4がカメラ11を他の学生と異なる姿勢をとる学生にズームアップしてカメラ11で他の学生と異なる姿勢をとる学生の瞳に写る画像を撮影するようにカメラ11を制御し、カメラ11で撮影した瞳に写る画像を瞳画像分析手段6が分析して他の学生と異なる姿勢をとる特異な学生を特定する。
【0013】
具体的には、上記画像分析手段5が他の学生と異なる姿勢をとる学生15又は学生15,16又は学生15乃至17の画像を分析した場合は、それら分析した学生15又は学生15,16又は学生15乃至17の画像を収集データ部9に記憶するとともにカメラ制御手段4にズームアップ指示を行う。これにより、カメラ制御手段4がカメラ11を学生15又は学生15,16又は学生15乃至17にズームアップされたカメラ11で学生15又は学生15,16又は学生15乃至17の瞳に写る画像を撮影し、瞳画像分析手段6が上記カメラ11で撮影した学生15又は学生15,16又は学生15乃至17の瞳に写る画像を分析して他の学生と異なる姿勢をとる学生15又は学生15,16又は学生15乃至17を特定する。又、時期データ部8の分析タイミングごとに、画像分析手段5が他の学生と異なる姿勢をとる学生などの画像を分析しなかった場合は収集データ部9に記憶しない。尚、席12に学生15が着席し、席13に学生16が着席し、席14に学生17が着席した場合を例示した。
【0014】
次に、発明を実施するための形態1の動作について
図2を用いて説明する。尚、カメラ11は図示のされない講師の近傍に配置されているものとする。管理装置1の図示のされていないコンピューターが起動し、当該コンピューターによる
図2に示した処理が開始すると、ステップ201で撮影開始であるかを判断する。そして、講師が講義を開始する際に、講師又は別の人が入力部2を操作しない場合は、ステップ201で「NO」と判断し、ステップ201に戻り、講師又は別の人が入力部2を操作した場合は、ステップ201で「YES」と判断し、カメラ制御手段4がカメラ11を制御し、カメラ11の動作により、カメラ11は教室10に居る全学生の撮影を開始する。カメラ11で撮影された画像は、出力部3のディスプレイに可視画像として表示される。カメラ11は講師の近傍に配置されているので、学生が講義を受けているときは、講師の方を向くため、学生はカメラ11の方向に顔を向けていることになる。よって、カメラ11により撮影された画像には教室10に居る全学生の顔が撮影され、出力部3のディスプレイには教室10に居る全学生の顔の画像が可視画像として表示され、ステップ202に進む。
【0015】
ステップ202では、画像分析手段5が時期データ部8の時期データに基づき分析時期であるか判断し、分析時期でない場合は、ステップ202で「NO」と判断し、ステップ202に戻り、分析時期である場合は、ステップ202で「YES」と判断し、ステップ203に進む。ステップ203では、画像分析手段5が分析時期の画像を取得して分析し、ステップ204に進む。ステップ204では、画像分析手段5がステップ203で分析した画像の中に他の学生と異なる姿勢をとる学生の画像があるかを判断し、他の学生と異なる姿勢をとる学生の画像がないと判断した場合は、ステップ204で「NO」と判断し、ステップ202に戻り、他の学生と異なる姿勢をとる学生の画像があると判断した場合は、ステップ202で「YES」と判断し、ステップ205に進む。
【0016】
尚、ステップ204での他の学生と異なる姿勢をとる学生の画像の判断は、画像分析手段5に学生の顔を確認する解析機能を持たせ、画像分析手段5の解析機能により他の学生と異なる姿勢をとる学生を特定した場合を例示したが、講師又は入力部2を操作する人が出力部3に表示される画像を見て他の学生と異なる姿勢をとる学生がいるかどうかを判断することも適用可能である。このように講師又は入力部2を操作する人が出力部3に表示される画像を見て他の学生と異なる姿勢をとる学生がいるかどうかを判断する場合は、他の学生と異なる姿勢をとる学生がいると判断した人が入力部2の図示のされていないズームアップ部を操作することにより、ステップ205に進む。
【0017】
ステップ205では、カメラ制御手段4が他の学生と異なる姿勢をとる学生とその周囲とにカメラ11をズームアップし、カメラ11が他の学生と異なる姿勢をとる学生の瞳とその周囲の学生の瞳とを撮影し、ステップ206に進む。ステップ206では、瞳画像分析手段6がステップ205で撮影した他の学生と異なる姿勢をとる学生の瞳に写る画像をその周囲の学生の瞳に写る画像と比較して分析し、その分析結果を瞳画像分析手段6が出力部3に出力する。
【0018】
例えば、一般に、人がスマートフォンのような携帯端末の備えたディスプレイを見ている場合、その人の瞳にはディスプレイに表示された文字や図形などの画像が写る。人の瞳に写る画像を分析すれば、その人が何を見ているのかが判断できる。そのため、発明を実施するための形態1では、他の学生と異なる姿勢をとる学生の瞳に写る画像をカメラ11で撮影し、その画像を瞳画像分析手段5で分析することでその学生が何を見ているのかを判断する。よって、ステップ206における分析の結果として、他の学生と異なる姿勢をとる学生が見ていた画像が教科書やノートなどの画像とは異なる画像であれば、他の学生と異なる姿勢をとる学生は真面目に講義を受講していないと判断できるので、瞳画像分析手段6が分析結果を出力部3に出力することで、講師が他の学生と異なる姿勢をとる学生に注意を喚起し、ステップ207に進む。
【0019】
ステップ207では、時期データ部8の時期データに後続の時期データがあるかを判断し、後続の時期データがあればステップ207で「NO」と判断し、ステップ202に戻り上述した処理を行う。一方、後続の時期データが無いのであれば、ステップ207で「YES」と判断し、ステップ208に進んで撮影を終了する。
【0020】
以上のように、発明を実施するための形態1によれば、教室10に居る講義を受講する全学生の中で下を向いている学生のように、他の多くの学生と異なる姿勢をとる学生がいた場合、その学生を特定し、その学生の瞳に写る画像を分析することで何を見ているのかを確認できる。したがって、複数人の学生の中から他の学生と異なる姿勢をとる学生としての個人を特定して、その学生に注意を喚起することができる。尚、特定される個人の人数は一人に限定されるものではく、複数人であって適用可能である。特定される個人の人数が複数人である場合、その学生の瞳に写る画像をカメラ11で撮影する場合、学生一人一人に対して行う。
【0021】
図3を用いて発明を実施するための形態2に係る位置検出システムについて説明する。
図3に示した位置検出システムは、銀行などの店舗に設置される現金自動預け払い機(以下、ATMという)又は店舗などの建物の出入口を利用する人32に対し、ATM又は建物の出入口とそれを利用する人32との間で予め定めた暗証番号を使用せずに、人32がATM又は建物の出入口を利用する際に管理装置22から示された暗証番号をディスプレイ31に表示し、ディスプレイ31に表示された暗証番号を見た人の瞳に写る画像をカメラ29で撮影し、カメラ29で撮影した暗証番号がディスプレイ31に表示した暗証番号に一致した場合に本人と確認するものである。
【0022】
図3において、21は本人確認機器であり、ATMや建物の出入口の扉などに設けられる。22は管理装置であり、本人確認機器21と記憶部25と携帯端末28とのそれぞれと通信を行い、本人確認機器21と記憶部25と携帯端末28とのそれぞれの種々の動作を制御する。23は暗証番号取得手段であり、本人確認機器21からの本人確認要求に基づき暗証番号記憶部26から1つの暗証番号を取得して携帯端末28に送信するように、管理装置22の図示のされていないコンピューターにより具現化される。24は瞳画像分析手段であり、本人確認機器21を操作する人の瞳に写る画像をカメラ29で撮影し、その撮影された瞳に写る画像を分析するように、管理装置22の図示のされていないコンピューターにより具現化される。25は記憶部であり、暗証番号記憶部26、収集データ部27を備える。暗証番号記憶部26は、複数個の暗証番号が記憶されている。暗証番号は本人確認機器21において、本人確認機器21の設置されたATMや建物の出入口を利用する人32が本人であるかを確認するために用いられる乱数からなる番号である。27は収集データ部であり、瞳画像分析手段24で分析した画像を記憶する。28は携帯端末であり、本人確認機器21で本人確認を行う人32が所持するものであって、カメラ29と、そのカメラ29の動作を制御するカメラ制御手段30と、カメラ29で撮影した画像を表示するディスプレイ31を備える。
【0023】
例えば、携帯端末28を所持する人32が本人確認機器21を操作するか又は本人確認機器21に設けられた図示のされていない人感センサが本人確認機器21の場所に居る携帯端末28を所持する人32を感知すると、本人確認機器21が本人確認要求を管理装置22に出力するとともに携帯端末28と管理装置22との間での無線通信に対する接続作業を促す表示を本人確認機器21の図示のされていないスピーカー又はディスプレイで行う。人32が上記接続作業を促す表示を見るか又は人32が上記接続作業を促す内容を音で聴くことにより、携帯端末28を操作して管理装置22にインターネット又は近距離無線通信などにより通信可能に接続する。
【0024】
そして、管理装置22の暗証番号取得手段23が本人確認機器21からの本人確認要求に基づき暗証番号記憶部26の複数個の暗証番号の中から1つの暗証番号を取得して携帯端末28に送信し、携帯端末28の図示のされていない受信制御部が受信した1つの暗証番号をディスプレイ31に表示する。引き続き、携帯端末28を所持する人32がディスプレイ31に表示された1つの暗証番号を見るとともにカメラ29で自分の瞳を撮影するように携帯端末28を操作する。
【0025】
これにより、カメラ制御手段30がカメラ29を制御し、カメラ29が携帯端末28を所持する人32の瞳に写る画像を撮影し、携帯端末28の図示のされていない送信制御部が撮影された携帯端末28を所持する人32の瞳に写る画像を管理装置22に送信し、管理装置22の瞳画像分析手段24が受信した画像を管理装置22から携帯端末28に送信した1つの暗証番号であるか1つの暗証番号でない非暗証番号であるかを分析する。瞳画像分析手段24による分析結果が1つの暗証番号であるときは、瞳画像分析手段24が本人であることを示す情報を本人確認機器21に送信し、本人確認機器21が本人確認機器21の設置されたATMや建物の出入口の扉などに正常に動くように指示する。瞳画像分析手段24による分析結果が非暗証番号であるときは、瞳画像分析手段24が他人であることを示す情報を本人確認機器21に送信し、本人確認機器21が本人確認機器21の設置されたATMや建物の出入口の扉などに動かないように指示する。
【0026】
次に、発明を実施するための形態2の動作について
図4を用いて説明する。本人確認機器21及び管理装置22が起動し、管理装置22と携帯端末28とが通信可能に接続され、
図4に示した処理が開始し、ステップ401で管理装置22の暗証番号取得手段23が本人確認開始であるかを判断する。つまり、暗証番号取得手段23が本人確認機器21からの本人確認要求の受信を検出しないときは、ステップ401で「NO」と判断し、ステップ401に戻り、暗証番号取得手段23が本人確認機器2からの本人確認要求の受信を検出したときは、ステップ401で「YES」と判断し、ステップ402に進む。ステップ402では、暗証番号取得手段23が暗証番号記憶部26の複数個の暗証番号中から1つの暗証番号を取得して携帯端末28に送信する。これにより、携帯端末28の図示のされていない受信制御部で受信した1つの暗証番号がディスプレイ31に表示され、ステップ403に進む。ステップ403では、ディスプレイ31を見ている人32の瞳をカメラ29で撮影し、携帯端末28が撮影された瞳の画像を管理装置22に送信し、ステップ404に進む。
【0027】
ステップ404において、瞳画像分析手段24が携帯端末28から受信した人32の瞳の画像を記憶装置25の収集データ部27に記憶するとともに、瞳に写る画像をステップ402で管理装置22から携帯端末28に送信した1つの暗証番号と比較して分析し、ステップ405に進む。ステップ405では、ステップ404での分析結果としての瞳の画像がステップ402で管理装置22から携帯端末28に送信した1つの暗証番号と一致したときは、ステップ405で「YES」と判断し、ステップ406に進み、ステップ404での分析結果としての瞳の画像がステップ402で管理装置22から携帯端末28に送信した1つの暗証番号と不一致であるときは、ステップ405で「NO」と判断し、ステップ407に進む。ステップ406では、瞳画像分析手段24が本人であることを示す情報を本人確認機器21に送信し、本人確認機器21が本人確認機器21の設置されたATMや建物の出入口の扉などに正常に動くように指示する。ステップ407では、瞳画像分析手段24が他人であることを示す情報を本人確認機器21に送信し、本人確認機器21が本人確認機器21の設置されたATMや建物の出入口の扉などに動かないように指示する。
【0028】
以上のように、発明を実施するための形態2においては、本人確認機器21の設置されたATMや建物の出入口の扉など利用する人32に対し、ATM又は建物の出入口とそれ利用する人との間で予め定めた暗証番号を使用せずに、人32がATM又は建物の出入口を利用する際に管理装置22から示された暗証番号を利用して本人確認を行うことができるので、ATM又は建物の出入口とそれ利用する人が予め定めた暗証番号を覚えておかなくても、本人確認ができる。
【0029】
図5を用いて発明を実施するための形態3に係る位置検出システムについて説明する。
図5に示した位置検出システムは、人の集まる場所に設置されたディスプレイ54に市場調査用の画像データ(以下、マーケティング画像データという)を表示し、その人の集まる場所の前に設置されたカメラ53でその人の集まる場所を撮影し、撮影した画像の中から人の瞳に写る画像を解析し、人の集まる場所に居る複数人に対するマーケティング画像データにより表示されたマーケティング画像を見ている人の割合を調べることにより、市場調査を行うものである。
【0030】
図5において、41は管理装置であり、インターネット51経由でマーケティング調査装置52と通信可能に接続され、市場調査手段42、カメラ制御手段43、画像分析手段44、瞳画像分析手段45を備える。市場調査手段42、カメラ制御手段43、画像分析手段44、瞳画像分析手段45は、管理装置41の図示のされていないコンピューターの動作により具現化される。具体的には、市場調査手段42は、入力部46からの指示で記憶部48のマーケティング画像データ記憶部49からマーケティング画像データを取得してマーケティング調査装置52にインターネット51経由で送信する。カメラ制御手段43は、カメラ53の動作を制御する。画像分析手段44は、カメラ53で撮影された画像を分析する。瞳画像分析手段45は、カメラ53で撮影された人の顔の画像の一部である瞳の画像を分析する。
【0031】
入力部46は、カメラ53の動作やディスプレイ54に表示する画像の選択などを管理装置41に指示するもので、人により操作される操作部やキーボードなどである。出力部47は、画像分析手段44や瞳画像分析手段45で分析した画像を人が視聴覚できるように表示するディスプレイやプリンター或いはスピーカーなどである。記憶部48は、マーケティング画像データ記憶部49と収集データ記憶部50とを備える。マーケティング画像データ記憶部49は、ディスプレイ54に表示するマーケティング調査用の複数個のマーケティング画像データが記憶されている。収集データ記憶部50は、瞳画像分析手段45で分析された画像を記憶するものである。マーケティング調査装置52は、カメラ53とディスプレイ54とを備える。カメラ53は、マーケティング調査装置52の前方に居る人を撮影するものである。ディスプレイ54は、マーケティング画像データ記憶部49から取得されたマーケティング画像を表示するものである。
【0032】
例えば、入力部46が図示のされていない人の操作に基づく市場調査の指示を管理装置41に出力すると、市場調査手段42がマーケティング画像データ記憶部49の複数個のマーケティング画像データの中から1つのマーケティング画像データを取得してインターネット51経由でマーケティング調査装置52に送信する。
【0033】
そして、マーケティング調査装置52が管理装置41から送信されたマーケティング画像データをマーケティング画像としてディスプレイ54に表示した後、カメラ制御手段43がマーケティング調査装置52の前に居る複数人の顔をカメラ53で撮影するようにインターネット51経由でカメラ53を制御する。マーケティング調査装置52がカメラ53で撮影された画像をインターネット51経由で管理装置41に送信し、画像分析手段44が送信されたカメラ53で撮影された複数人の顔の画像を分析する。
【0034】
次に、画像分析手段44がカメラ53で撮影された複数人の顔の画像の中からディスプレイ54の方に顔を向けている人を分析すると、画像分析手段44がズームアップの指示をカメラ制御手段43に出力し、カメラ制御手段43がマーケティング調査装置52のディスプレイ54の方に顔を向けている人の瞳をズームアップしてカメラ53で撮影するようにインターネット51経由でカメラ53を制御する。そして、マーケティング調査装置52がカメラ11で撮影した瞳に写る画像をインターネット51経由で管理装置41に送信し、瞳画像分析手段45が送信された瞳の画像を管理装置41からマーケティング調査装置52に送信されてディスプレイ54に表示されたマーケティング画像と比較する。この場合、ディスプレイ54に表示されたマーケティング画像として例えば、自動車とその自動車の社名とすると、カメラ11で撮影した瞳に写る画像も自動車とその自動車の社名になる。よって、カメラ11で撮影した瞳に写る画像(自動車とその自動車の社名)とディスプレイ54に表示されたマーケティング画像(自動車とその自動車の社名)とを比較することでマーケティング画像を見ている個人の数が分かる。
【0035】
その後、瞳画像分析手段45は、瞳の画像がマーケティング画像である人の顔の数とカメラ11が撮影したマーケティング調査装置52の前に居る複数人の顔の数とから、複数人としての不特定多数の人に対するマーケティング画像を見ている人の割合を算出して出力部47に出力する。出力部47は不特定多数の人に対するマーケティング画像を見ている人の割合を表示し、この出力部47で表示された不特定多数の人に対するマーケティング画像を見ている人の割合を市場調査員が調べることにより、市場調査を行うことができる。
図5において、丸印で示した7人がマーケティング調査装置52の前に居り、ディスプレイ54の方に顔を向けている人55,56,57が3人であるが、その3人の中の人55の瞳に写る画像がマーケティング画像でなく、人56,57の瞳に写る画像がマーケティング画像であれば、不特定多数の人に対するマーケティング画像を見ている個人の割合が7分の2となる。
【0036】
尚、
図5において、管理装置41とマーケティング調査装置52とをインターネット51以外の通信手段で通信可能に接続しても適用可能である。又、マーケティング調査装置52をカメラ53に相当するカメラとディスプレイ54に相当するディスプレイとを備えた携帯端末に置換しても適用可能である。
【0037】
次に、発明を実施するための形態3の動作について
図6を用いて説明する。管理装置41とマーケティング調査装置52とが起動して相互にインターネット51経由で通信可能に接続され、
図6に示した処理が開始し、ステップ601で市場調査の指示が管理装置41に入力されたかを判断する。つまり、市場調査手段42が入力部46からの市場調査の指示を検出しないときは、ステップ601で「NO」と判断し、ステップ601に戻り、市場調査手段42が入力部46からの市場調査の指示を検出したときは、ステップ601で「YES」と判断し、ステップ602に進む。ステップ602では、市場調査手段42がマーケティング画像データ記憶部49の複数個のマーケティング画像データの中から1つのマーケティング画像データを取得してマーケティング調査装置52に送信し、マーケティング調査装置52が管理装置41からのマーケティング画像データをマーケティング画像としてディスプレイ54に表示し、ステップ603に進む。
【0038】
ステップ603では、カメラ制御手段44がカメラ53を制御し、カメラ53がマーケティング調査装置52の前に居る複数人の顔を撮影し、ステップ604に進む。ステップ604では、マーケティング調査装置52がカメラ53で撮影された画像を管理装置41に送信し、画像分析手段44が送信されたカメラ53で撮影された人の顔の画像を分析してマーケティング調査装置52の前に居る複数人の顔の数を収集データ記憶部50に記憶し、ステップ605に進む。ステップ605では、画像分析手段44が分析した画像の中にディスプレイ54の方を向いている画像があるかを判断し、ディスプレイ54の方を向いている画像がないときは、ステップ605で「NO」と判断し、処理を終わり、ディスプレイ54の方を向いている画像があるときは、ステップ605で「YES」と判断し、ステップ606に進む。
【0039】
ステップ606では、画像分析手段44がカメラ制御手段43にズームアップの指示を行い、カメラ制御手段43がカメラ53をディスプレイ54の方に向いている人にズームアップさせてカメラ53で瞳に写る画像を撮影するようにカメラ53を制御する。そして、マーケティング調査装置52がカメラ53で撮影したディスプレイ54の方に向いている人の瞳に写る画像を管理装置41に送信し、瞳画像分析手段45が管理装置41に送信されたディスプレイ54の方に向いている人の瞳に写る画像を記憶部48の収集データ記憶部50に記憶する。又、瞳画像分析手段45が瞳に写る画像をステップ602で管理装置22からマーケティング調査装置52に送信したマーケティング画像データによるマーケティング画像と比較する。その後、瞳画像分析手段45は瞳の画像がマーケティング画像である人の顔の数を収集データ記憶部50に記憶して、ステップ607に進む。ステップ607では、瞳画像分析手段45が複数人としての不特定多数の人に対するマーケティング画像を見ている人の割合を求めて出力部47に出力し、出力部47が出力された不特定多数の人数に対するマーケティング画像を見ている人数の割合を表示して処理を終わる。よって、上記出力部47で表示された不特定多数の人数に対するマーケティング画像を見ている人数の割合を市場調査員が調べることにより、市場調査を行うことができる。
【0040】
図7を用いて発明を実施するための形態4に係る位置検出システムについて説明する。
図7に示した位置検出システムは、自走可能なロボットを特定の人の基に呼び寄せるものである。
【0041】
図7において、61は管理装置であって、インターネット73を介して自走ロボット74、携帯端末78、79と通信可能に接続されている。自走ロボット74は、図示のされていない車輪などを備え自ら移動できるロボットである。自走ロボット74は、ロボット駆動手段75、ロボット制御手段76、カメラ77を備える。ロボット駆動手段75は、自走ロボット74を移動させるための駆動機構であり、車輪、モーター、バッテリーなど図示のされていない構造物から構成される。カメラ77は、自走ロボット74の前方に居る人の顔を撮影する。ロボット制御手段76は、インターネット73を介して管理装置61と通信することによりロボット駆動手段75とカメラ77とを制御する。携帯端末78は、人82が所持し、ディスプレイ80を備える。携帯端末79は、人83が所持し、ディスプレイ81を備える。
【0042】
管理装置61は、カメラ制御手段64、画像分析手段65、瞳画像分析手段66、特定画像配信手段67、ロボット呼出手段68、到達時期演算手段69を備える。カメラ制御手段64、画像分析手段65、瞳画像分析手段66、特定画像配信手段67、ロボット呼出手段68、到達時期演算手段69は、管理装置61の図示のされていないコンピューターにより具現化される。具体的には、カメラ制御手段64は、カメラ77の動作を制御するものでありインターネット73を介してカメラ77を制御する。画像分析手段65は、カメラ77で撮影した自走ロボット74の前方に居る複数人の顔の画像を分析するものである。瞳画像分析手段66は、カメラ77で撮影された人の顔の画像の一部である瞳の画像を分析するものである。特定画像配信手段67は、携帯端末78,79のディスプレイ80,81に表示する特定の画像、例えば、文字や記号などをインターネット73経由で携帯端末78,79に配信するものである。
【0043】
ロボット呼出手段68は自走ロボット74を呼出すものである。自走ロボット74の呼出しは、人82,83が携帯端末78,79を操作することで携帯端末78.79からロボット呼出手段68へインターネット73を介して呼出信号を送信する。ロボット呼出手段68は、携帯端末78,79からの呼出信号を受信することで自走ロボット74を呼出す。到達時期演算手段69は、携帯端末78,79から自走ロボット74を呼出したときに自走ロボット74が呼出した人82,83のところまで移動に掛かる時間を算出するものである。入力部62は、管理装置61に備えられたカメラ制御手段64、画像分析手段65、瞳画像分析手段66、特定画像配信手段67、ロボット呼出手段68、到達時期演算手段69などの各手段に対する設定や操作を行うもので人の操作を受ける操作部やキーボードなどからなる。記憶部63は、時期データ記憶部70、収集データ記憶部71、特定画像データ記憶部72を備える。時期データ記憶部70は、到達時期演算手段69で演算された到達時刻を記憶する。収集データ記憶部71は、瞳画像分析手段66で分析した画像を記憶する。特定画像データ記憶部72は、自走ロボット74を呼出した人の顔の瞳に写る画像を記憶する。
【0044】
例えば、自走ロボット74及び複数人82,83,84がイベント会場などの建物の内部で互いに離れた場所に居て、人82が所持した携帯端末78の図示のされていない呼出部を操作して自走ロボット74を自分の所に呼び出すと、携帯端末78が自己の位置情報とロボットの呼出信号とをインターネット73経由で管理装置61に送信する。そして、管理装置61が携帯端末78からの位置情報と呼出信号とを受信すると、ロボット呼出手段68が携帯端末78の位置情報と呼出信号とをインターネット73経由で自走ロボット74に送信し、かつ、到達時期演算手段69が携帯端末78の位置情報と自走ロボット74の現在位置との距離および自走ロボット74の移動速度から自走ロボットの携帯端末78の位置情報の場所へ移動するのに掛かる到達時間を演算して時期データ記憶部70に記憶する。
【0045】
又、上記管理装置61から送信された携帯端末78の位置情報と呼出信号とを受信した自走ロボット74がロボット制御手段76の制御によるロボット駆動手段75により携帯端末78の位置情報の場所まで移動する。又、上記到達時期演算手段69で演算した到達時間になると、特定画像配信手段67が特定画像データ記憶部72の複数個の特定画像データの中から1つの特定画像データを取得してインターネット73経由で携帯端末78に送信し、カメラ制御手段64が制御信号をインターネット73経由で自走ロボット74に送信する。上記特定画像配信手段67からの特定画像データを受信した携帯端末78がディスプレイ80に受信した特定画像データによる画像(以下、特定画像という)を表示し、上記カメラ制御手段64からの制御信号を受信した自走ロボット74がロボット駆動手段75により到達した場所を広範囲に例えば360度の全周囲に横方向に回転しながら、カメラ77が到達した場所を広範囲に例えば360度の全周囲に撮影した画像をインターネット73経由で管理装置61に送信し、画像分析手段65が受信した自走ロボット74からの広範囲の画像の中から携帯端末78を見ているなど複数人と異なる個人を特定した特定信号をインターネット73経由で自走ロボット74に送信する。
【0046】
次に、ロボット駆動手段75が管理装置61から受信した特定信号に基づきカメラ77を上記特定した個人の顔にズームアップしてその特定した個人の瞳に写る画像を撮影し、自走ロボット74が撮影した個人の瞳に写る画像をインターネット73経由で管理装置61に送信し、瞳画像分析手段66が自走ロボット74からの瞳に写る画像を管理装置61から携帯端末78に送信した特定画像と比較して分析し、自走ロボット74からの瞳に写る画像の形又は色が管理装置61から携帯端末78に送信した特定画像の形又は色に一致することより自走ロボット74を呼出した人82を特定し、人82の前に移動することをロボット呼出手段68がインターネット73経由で自走ロボット74に送信し、自走ロボット74は、ロボット制御手段76によるロボット駆動手段75の駆動により人82の前に移動して停止することができる。
【0047】
尚、
図7において、人83が所持した携帯端末79で自走ロボット74を呼び出す場合は、上記説明中の人82を人83と読み替え、携帯端末78を携帯端末79と読み替えることで適用可能である。又、管理装置61と自走ロボット74とをインターネット51以外の通信手段で通信可能に接続しても、又は、管理装置61と自走ロボット74と携帯端末78,79とをインターネット51以外の通信手段で通信可能に接続しても適用可能である。
【0048】
次に、発明を実施するための形態4に係る位置検出システムの動作について
図8を用いて説明する。管理装置61と自走ロボット74と携帯端末78とが起動して相互にインターネット73で通信可能に接続され、
図8に示した処理が開始し、ステップ801で自走ロボット74の呼出が入力されたかを判断する。つまり、管理装置61が携帯端末78の位置情報と自走ロボット74の呼出信号とを携帯端末78からインターネット73経由で受信しないと、ステップ801で「NO」と判断し、ステップ801に戻り、管理装置61が携帯端末78の位置情報と自走ロボット74の呼出信号とを携帯端末78からインターネット73経由で受信すると、ステップ801で「YES」と判断し、ステップ802に進む。ステップ802では、ロボット呼出手段68が携帯端末78の位置情報と呼出信号とをインターネット73経由で自走ロボット74に送信することにより、自走ロボット74が携帯端末78の位置情報の場所まで移動して停止し、到達時期演算手段69が携帯端末78の位置情報と自走ロボット74の現在位置との距離および自走ロボット74の移動速度から自走ロボット74の携帯端末78の位置情報の場所へ移動するのに掛かる到達時間を演算し、ステップ803に進む。
【0049】
ステップ803では、ステップ802での呼出信号の送信からの経過時間が到達時間に到達したかを判断し、経過時間が到達時間に達しないときはステップ803で「NO」と判断し、ステップ803に戻り、経過時間が到達時間に達したときはステップ803で「YES」と判断し、ステップ804に進む。ステップ804では、特定画像配信手段67が特定画像データ記憶部から取得した特定画像をインターネット73経由で携帯端末78に配信してディスプレイ80に表示し、ステップ805に進む。ステップ805では、カメラ制御手段64がインターネット73経由で自走ロボット74のカメラ77を制御することにより、カメラ77が携帯端末78の位置情報の場所としての呼出エリアで自走ロボット74の周囲を広範囲に撮影し、撮影した画像を自走ロボット74がインターネット73経由で管理装置61に送信し、ステップ806に進む。
【0050】
ステップ806では、画像分析手段65が受信した画像の中から携帯端末78を見ているなど複数人と異なる個人を特定する特異画像があるか判断し、特異画像が無いときは、ステップ806で「NO」と判断し、処理を終わり、特異画像があるときは、ステップ806で「YES」と判断し、画像分析手段65が特定信号をインターネット73経由で自走ロボット74に送信し、ステップ807に進む。ステップ807では、カメラ制御手段64の制御に基づき自走ロボット74に備えられるカメラ77を上記特定した個人の顔にズームアップしてその特定した個人の瞳に写る画像を撮影してインターネット73経由で管理装置61に送信し、ステップ807に進む。ステップ807では、瞳画像分析手段66が自走ロボット74からの瞳に写る画像をステップ804で管理装置61から携帯端末78に送信した特定画像と比較分析し、自走ロボット74からの瞳に写る画像の形又は色が管理装置61から携帯端末78に送信した特定画像の形又は色に一致することより自走ロボット74を呼出した人82を特定し、人82の前に移動することをロボット呼出手段68インターネット73経由で自走ロボット74に送信し、自走ロボット74が人82の前に移動して停止することができる。
【0051】
以上のように、発明を実施するための形態4によれば、自走ロボット74及び複数人が互いに離れた場所に居て、複数人の中の人82が所持した携帯端末78で自走ロボット74を自分の所に呼出すと、自走ロボット74が携帯端末78の位置情報の場所に移動して停止するころに、複数人の中から個人を特定するための特定画像が携帯端末78のディスプレイ80に表示され、自走ロボット74のカメラ77が携帯端末78の位置情報の場所を撮影し、その撮影した画像の複数人の中から特異画像を分析して自走ロボット74を呼出した人を特定すると、カメラ77が自走ロボット74を呼出した人82の顔をズームアップしてその人82の瞳に写る画像を撮影し、この撮影した瞳に写る画像を上記特定画像と比較して分析して人82を特定し、特性した人82の所に自走ロボット74を呼び寄せることができる。