(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023111989
(43)【公開日】2023-08-10
(54)【発明の名称】情報提供装置
(51)【国際特許分類】
G01C 21/36 20060101AFI20230803BHJP
G06T 7/00 20170101ALI20230803BHJP
G06V 20/58 20220101ALI20230803BHJP
【FI】
G01C21/36
G06T7/00 650Z
G06V20/58
【審査請求】有
【請求項の数】1
【出願形態】OL
(21)【出願番号】P 2023094598
(22)【出願日】2023-06-08
(62)【分割の表示】P 2021573116の分割
【原出願日】2021-01-14
(31)【優先権主張番号】P 2020007866
(32)【優先日】2020-01-21
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000005016
【氏名又は名称】パイオニア株式会社
(74)【代理人】
【識別番号】100112656
【弁理士】
【氏名又は名称】宮田 英毅
(72)【発明者】
【氏名】大石 智也
(72)【発明者】
【氏名】藤江 翔吾
(72)【発明者】
【氏名】佐藤 祥子
(57)【要約】
【課題】利便性を向上させること。
【解決手段】情報提供装置3は、移動体の周囲を撮影した撮影画像を取得する画像取得部323と、撮影画像内における視線が集中する注目領域を抽出する領域抽出部324と、撮影画像内における注目領域に含まれる物体を認識する物体認識部325と、注目領域に含まれる物体に関する物体情報を提供する情報提供部326とを備える。
【選択図】
図3
【特許請求の範囲】
【請求項1】
移動体の周囲を撮影した撮影画像を取得する画像取得部と、
前記撮影画像内における視線が集中する注目領域を抽出する領域抽出部と、
前記撮影画像内における前記注目領域に含まれる物体を認識する物体認識部と、
前記注目領域に含まれる物体に関する物体情報を提供する情報提供部とを備える
ことを特徴とする情報提供装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報提供装置に関する。
【背景技術】
【0002】
従来、車両の周囲に存在する対象物を特定し、当該対象物に関する名称等の情報を音声にて読み上げる対象物特定装置が知られている(例えば、特許文献1参照)。
特許文献1に記載の対象物特定装置では、車両の乗員が手や指で指し示している指示方向に存在する地図上の施設等を対象物として特定している。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載の技術では、対象物に関する情報を得ることを望む車両の乗員に対して、当該対象物を手や指で指し示すという作業を行わせる必要があり、利便性を向上させることができない、という問題が一例として挙げられる。
【0005】
本発明は、上記に鑑みてなされたものであって、例えば利便性を向上させることができる情報提供装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
請求項1に記載の情報提供装置は、移動体の周囲を撮影した撮影画像を取得する画像取得部と、前記撮影画像内における視線が集中する注目領域を抽出する領域抽出部と、前記撮影画像内における前記注目領域に含まれる物体を認識する物体認識部と、前記注目領域に含まれる物体に関する物体情報を提供する情報提供部とを備えることを特徴とする。
【図面の簡単な説明】
【0007】
【
図1】
図1は、実施の形態1に係る情報提供システムの構成を示すブロック図である。
【
図2】
図2は、車載端末の構成を示すブロック図である。
【
図3】
図3は、情報提供装置の構成を示すブロック図である。
【
図4】
図4は、情報提供方法を示すフローチャートである。
【
図6】
図6は、実施の形態2に係る情報提供装置の構成を示すブロック図である。
【
図7】
図7は、情報提供方法を示すフローチャートである。
【
図9】
図9は、実施の形態3に係る車載端末の構成を示すブロック図である。
【
図10】
図10は、実施の形態3に係る情報提供装置の構成を示すブロック図である。
【
図11】
図11は、情報提供方法を示すフローチャートである。
【
図12】
図12は、実施の形態4に係る情報提供装置の構成を示すブロック図である。
【
図13】
図13は、情報提供方法を示すフローチャートである。
【発明を実施するための形態】
【0008】
以下に、図面を参照しつつ、本発明を実施するための形態(以下、実施の形態)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付している。
【0009】
(実施の形態1)
〔情報提供システムの概略構成〕
図1は、実施の形態1に係る情報提供システム1の構成を示すブロック図である。
情報提供システム1は、移動体である車両VE(
図1)の乗員PA(
図5参照)に対して、当該車両VEの周囲に存在する建物等の物体に関する物体情報(例えば当該物体の名称等)を提供するシステムである。この情報提供システム1は、
図1に示すように、車載端末2と、情報提供装置3とを備える。そして、これら車載端末2及び情報提供装置3は、無線通信網であるネットワークNE(
図1)を介して、通信を行う。
なお、情報提供装置3と通信を行う車載端末2としては、
図1では1台である場合を例示しているが、複数の車両にそれぞれ搭載された複数台であっても構わない。また、1台の車両に乗車している複数の乗員に対してそれぞれ物体情報を提供するために、1台の車両に車載端末2が複数台、搭載されていても構わない。
【0010】
〔車載端末の構成〕
図2は、車載端末2の構成を示すブロック図である。
車載端末2は、例えば、車両VEに設置される据え置き型のナビゲーション装置またはドライブレコーダーである。なお、車載端末2としては、ナビゲーション装置またはドライブレコーダーに限らず、車両VEの乗員PAが利用するスマートフォン等の携帯型端末を採用しても構わない。この車載端末2は、
図2に示すように、音声入力部21と、音声出力部22と、撮像部23と、表示部24と、端末本体25とを備える。
【0011】
音声入力部21は、音声を入力して電気信号に変換するマイクロフォン211(
図5参照)を含み、当該電気信号にA/D(Analog/Digital)変換等を行うことにより音声情報を生成する。本実施の形態1において、音声入力部21にて生成された音声情報は、デジタル信号である。そして、音声入力部21は、当該音声情報を端末本体25に出力する。
音声出力部22は、スピーカ221(
図5参照)を含み、端末本体25から入力したデジタルの音声信号をD/A(Digital/Analog)変換によってアナログの音声信号に変換し、当該スピーカ221から当該アナログの音声信号に応じた音声を出力する。
【0012】
撮像部23は、端末本体25による制御の下、車両VEの周囲を撮影して撮影画像を生成する。そして、撮像部23は、生成した撮影画像を端末本体25に出力する。
表示部24は、液晶または有機EL(Electro Luminescence)等を用いた表示ディスプレイで構成され、端末本体25による制御の下、各種の画像を表示する。
【0013】
端末本体25は、
図2に示すように、通信部251と、制御部252と、記憶部253とを備える。
通信部251は、制御部252による制御の下、ネットワークNEを介して情報提供装置3との間で情報の送受信を行う。
制御部252は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のコントローラによって、記憶部253に記憶された各種のプログラムが実行されることにより実現され、車載端末2全体の動作を制御する。なお、制御部252は、CPUやMPUに限らず、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路によって構成されても構わない。
記憶部253は、制御部252が実行する各種のプログラムや、当該制御部252が処理を行うときに必要なデータ等を記憶する。
【0014】
〔情報提供装置の構成〕
図3は、情報提供装置3の構成を示すブロック図である。
情報提供装置3は、例えば、サーバ装置である。この情報提供装置3は、
図3に示すように、通信部31と、制御部32と、記憶部33とを備える。
【0015】
通信部31は、制御部32による制御の下、ネットワークNEを介して車載端末2(通信部251)との間で情報の送受信を行う。
制御部32は、CPUやMPU等のコントローラによって、記憶部33に記憶された各種のプログラム(本実施の形態に係る情報提供プログラムを含む)が実行されることにより実現され、情報提供装置3全体の動作を制御する。なお、制御部32は、CPUやMPUに限らず、ASICやFPGA等の集積回路によって構成されても構わない。この制御部32は、
図3に示すように、要求情報取得部321と、音声解析部322と、画像取得部323と、領域抽出部324と、物体認識部325と、情報提供部326とを備える。
【0016】
要求情報取得部321は、車両VEの乗員PAからの物体情報の提供を要求する要求情報を取得する。本実施の形態1では、当該要求情報は、車両VEの乗員PAが発した言葉(音声)を音声入力部21が取り込み、当該音声に基づいて当該音声入力部21にて生成された音声情報である。すなわち、要求情報取得部321は、通信部31を介して車載端末2から当該要求情報(音声情報)を取得する。
音声解析部322は、要求情報取得部321が取得した要求情報(音声情報)を解析する。
【0017】
画像取得部323は、撮像部23にて生成された撮影画像を、通信部31を介して車載端末2から取得する。
領域抽出部324は、画像取得部323にて取得された撮影画像内における視線が集中する(視線が集中し易い)注目領域を抽出(予測)する。本実施の形態1では、領域抽出部324は、所謂、視覚的顕著性技術を利用して撮影画像内における注目領域を抽出する。より具体的に、領域抽出部324は、以下に示す第1の学習モデルを用いた画像認識(AI(Artificial Intelligence)を用いた画像認識)により、撮影画像内における注目領域を抽出する。
当該第1の学習モデルは、アイトラッカを用いて被験者の視線が集中する領域を判別し、当該領域が予めラベリングされた画像を教師画像とし、当該教師画像を利用して当該領域を機械学習(例えば深層学習等)することにより得られたモデルである。
【0018】
物体認識部325は、撮影画像内において、領域抽出部324にて抽出された注目領域に含まれる物体を認識する。本実施の形態1では、物体認識部325は、以下に示す第2の学習モデルを用いた画像認識(AIを用いた画像認識)により、撮影画像内における注目領域に含まれる物体を認識する。
当該第2の学習モデルは、動物、山、川、湖、及び施設等の各種の物体が撮影された撮影画像を教師画像とし、当該教師画像に基づいて当該物体の特徴を機械学習(例えば深層学習等)することにより得られたモデルである。
【0019】
情報提供部326は、物体認識部325にて認識された物体に関する物体情報を提供する。より具体的に、情報提供部326は、記憶部33における物体情報DB(Data Base:データベース)333から物体認識部325にて認識された物体に対応する物体情報を読み出す。そして、情報提供部326は、通信部31を介して車載端末2に当該物体情報を送信する。
【0020】
記憶部33は、制御部32が実行する各種のプログラム(本実施の形態に係る情報提供プログラム)の他、制御部32が処理を行うときに必要なデータ等を記憶する。この記憶部33は、
図3に示すように、第1の学習モデルDB331と、第2の学習モデルDB332と、物体情報DB333とを備える。
第1の学習モデルDB331は、上述した第1の学習モデルを記憶する。
第2の学習モデルDB332は、上述した第2の学習モデルを記憶する。
物体情報DB333は、上述した物体情報を記憶する。ここで、物体情報DB333には、各種の物体に関連付けられた複数の物体情報が記憶されている。当該物体情報としては、物体の名称等の当該物体を説明する情報であって、文字データ、音声データ、あるいは、画像データによって構成されている。
【0021】
〔情報提供方法〕
次に、情報提供装置3(制御部32)が実行する情報提供方法について説明する。
図4は、情報提供方法を示すフローチャートである。
図5は、情報提供方法を説明する図である。具体的に、
図5は、撮像部23にて生成され、ステップS4にて取得される撮影画像IMを示す図である。ここで、
図5では、車両VE内からフロントガラスを介して当該車両VEの前方が撮影されるように当該車両VE内に撮像部23を設置した場合を例示している。また、
図5では、撮影画像IM内に車両VEの助手席に座った乗員PAが被写体として含まれる場合を例示している。さらに、
図5では、当該乗員PAが「あれ何?」という言葉を発している場合を例示している。
なお、撮像部23の設置位置としては、上述した設置位置に限らない。例えば、車両VE内から当該車両VEの左側方や右側方、あるいは、後方が撮影されるように当該車両VE内に撮像部23を設置してもよく、車両VEの周囲が撮影されるように当該車両VE外に撮像部23を設置しても構わない。また、本実施の形態に係る車両の乗員としては、車両VEの助手席に座った乗員に限らず、運転席や後部座席に座った乗員等を含むものである。また、撮像部23の数としては、一つに限らず、複数としても構わない。
【0022】
先ず、要求情報取得部321は、通信部31を介して車載端末2から要求情報(音声情報)を取得する(ステップS1)。
ステップS1の後、音声解析部322は、当該ステップS1にて取得された要求情報(音声情報)を解析する(ステップS2)。
ステップS2の後、音声解析部322は、当該ステップS2にて要求情報(音声情報)を解析した結果、当該要求情報(音声情報)に特定のキーワードが含まれているか否かを判定する(ステップS3)。
ここで、当該特定のキーワードとしては、車両VEの乗員PAが物体情報の提供を要求する言葉であり、「なに」、「なんですか」、「なんだろう」、「おしえて」等の言葉を例示することができる。
【0023】
特定のキーワードが含まれていないと判定された場合(ステップS3:No)には、制御部32は、ステップS1に戻る。
一方、特定のキーワードが含まれていると判定された場合(ステップS3:Yes)には、画像取得部323は、通信部31を介して車載端末2から撮像部23にて生成された撮影画像IMを取得する(ステップS4:画像取得ステップ)。
なお、
図4及び
図5では、車両VEの乗員PAが「あれ何?」との言葉を発したタイミング(ステップS3:Yes)で画像取得部323が通信部31を介して車載端末2から撮像部23にて生成された撮影画像IMを取得する構成としているが、これに限らない。例えば、情報提供装置3は、通信部31を介して車載端末2から撮像部23にて生成された撮影画像を順次、取得する。そして、画像取得部323は、当該順次、取得された撮影画像のうち、車両VEの乗員PAが「あれ何?」との言葉を発したタイミング(ステップS3:Yes)で取得された撮影画像をステップS4以降の処理に用いる撮影画像として取得する構成としても構わない。
【0024】
ステップS4の後、領域抽出部324は、第1の学習モデルDB331に記憶された第1の学習モデルを用いた画像認識により、撮影画像IM内における視線が集中する注目領域Ar1(
図5)を抽出する(ステップS5:領域抽出ステップ)。
ステップS5の後、物体認識部325は、第2の学習モデルDB332に記憶された第2の学習モデルを用いた画像認識により、撮影画像IM内において、当該ステップS5にて抽出された注目領域Ar1に含まれる物体OB1を認識する(ステップS6:物体認識ステップ)。
ステップS6の後、情報提供部326は、物体情報DB333から当該ステップS6にて認識された物体OB1に対応する物体情報を読み出し、通信部31を介して車載端末2に当該物体情報を送信する(ステップS7:情報提供ステップ)。そして、制御部252は、音声出力部22及び表示部24の少なくともいずれかの動作を制御し、情報提供装置3から送信された物体情報を音声、文字、及び画像の少なくともいずれかによって、車両VEの乗員PAに対して報知する。例えば、物体OB1が「ムーラン・ルージュ」である場合には、物体情報として「あれはムーラン・ルージュです。華やかなダンスショーを夜にやっています。」等の音声が車両VEの乗員PAに対して報知される。また、例えば、物体OB1が建物ではなく動物のバッファローである場合には、物体情報として「あれはバッファローです。バッファローは群れで行動します。」等の音声が車両VEの乗員PAに対して報知される。
【0025】
以上説明した本実施の形態1によれば、以下の効果を奏する。
本実施の形態1に係る情報提供装置3は、車両VEの周囲を撮影した撮影画像IMを取得し、当該撮影画像IM内における視線が集中する注目領域Ar1を抽出する。そして、情報提供装置3は、撮影画像IM内における注目領域Ar1に含まれる物体OB1を認識し、当該物体OB1に関する物体情報を車載端末2に送信する。その結果、物体OB1に関する物体情報を得ることを望む車両VEの乗員PAは、車載端末2から物体情報が報知されることで、当該物体OB1に関する当該物体情報を認識する。
したがって、物体OB1に関する物体情報を得ることを望む車両VEの乗員PAに対して、従来のように当該物体OB1を手や指で指し示すという作業を行わせる必要がなく、利便性を向上させることができる。
【0026】
特に、情報提供装置3は、所謂、視覚的顕著性技術を利用して、撮影画像IM内における視線が集中する注目領域Ar1を抽出する。このため、車両VEの乗員PAが物体OB1を手や指で指し示さなくても、当該物体OB1を含む領域を注目領域Ar1として精度良く抽出することができる。
【0027】
また、情報提供装置3は、車両VEの乗員PAからの物体情報の提供を要求する要求情報に応じて、当該物体情報を提供する。このため、当該要求情報によらず、常時、物体情報を提供する構成と比較して、情報提供装置3の処理負荷を軽減することができる。
【0028】
(実施の形態2)
次に、本実施の形態2について説明する。
以下の説明では、上述した実施の形態1と同様の構成には同一符号を付し、その詳細な説明は省略または簡略化する。
図6は、実施の形態2に係る情報提供装置3Aの構成を示すブロック図である。
本実施の形態2に係る情報提供装置3Aでは、
図6に示すように、上述した実施の形態1で説明した情報提供装置3(
図3参照)に対して、制御部32に姿勢検出部327の機能が追加されている。また、情報提供装置3Aでは、物体認識部325の機能が変更されている。以下では、説明の便宜上、本実施の形態2に係る物体認識部を物体認識部325A(
図6参照)と記載する。さらに、情報提供装置3Aでは、記憶部33に第3の学習モデルDB334(
図6参照)が追加されている。
【0029】
姿勢検出部327は、車両VEの乗員PAの姿勢を検出する。本実施の形態2では、姿勢検出部327は、所謂、骨格検知により当該姿勢を検出する。より具体的に、姿勢検出部327は、以下に示す第3の学習モデルを用いた画像認識(AIを用いた画像認識)により、撮影画像IM内に被写体として含まれる車両VEの乗員PAの骨格を検知することで当該乗員PAの姿勢を検出する。
当該第3の学習モデルは、人が撮影された撮影画像に対して当該人の関節点の位置が予めラベリングされた画像を教師画像とし、当該教師画像に基づいて当該関節点の位置を機械学習(例えば深層学習等)することにより得られたモデルである。
そして、第3の学習モデルDB334は、当該第3の学習モデルを記憶する。
【0030】
物体認識部325Aは、上述した実施の形態1で説明した物体認識部325と同様の機能の他、領域抽出部324にて撮影画像IM内で複数の注目領域が抽出された場合に実行する機能(以下、追加機能と記載)を有する。当該追加機能は、以下の通りである。
すなわち、物体認識部325Aは、姿勢検出部327にて検出された乗員PAの姿勢に基づいて、当該複数の注目領域のうちいずれか一つの注目領域を特定する。そして、物体認識部325Aは、上述した実施の形態1で説明した物体認識部325と同様に、第2の学習モデルを用いた画像認識により、撮影画像IM内における当該特定した一つの注目領域に含まれる物体を認識する。
【0031】
次に、情報提供装置3Aが実行する情報提供方法について説明する。
図7は、情報提供方法を示すフローチャートである。
図8は、情報提供方法を説明する図である。具体的に、
図8は、
図5に対応した図であって、撮像部23にて生成され、ステップS4にて取得される撮影画像IMを示している。
本実施の形態2に係る情報提供方法では、
図7に示すように、上述した実施の形態1で説明した情報提供方法(
図4参照)に対して、ステップS6A1~S6A3が追加されている。このため、以下では、ステップS6A1~S6A3のみを主に説明する。当該ステップS6A1~S6A3,S6は、本実施の形態に係る物体認識ステップに相当する。
【0032】
ステップS6A1は、ステップS5の後に実行される。
具体的に、制御部32は、ステップS6A1において、ステップS5にて抽出された注目領域が複数であるか否かを判断する。なお、
図8では、ステップS5において、3つの注目領域Ar1~Ar3が抽出された場合を例示している。
注目領域が一つであると判断した場合(ステップS6A1:No)には、制御部32は、ステップS6に移行し、当該一つの注目領域(例えば、上述した実施の形態1と同様に注目領域Ar1)に含まれる物体(例えば、物体OB1)を認識する。
【0033】
一方、注目領域が複数であると制御部32が判断した場合(ステップS6A1:Yes)には、制御部32は、ステップS6A2に移行する。
そして、姿勢検出部327は、ステップS6A2において、第3の学習モデルDB334に記憶された第3の学習モデルを用いた画像認識により、撮影画像IM内に被写体として含まれる車両VEの乗員PAの骨格を検知することで当該乗員PAの姿勢を検出する。
【0034】
ステップS6A2の後、物体認識部325Aは、当該ステップS6A2にて検出された乗員PAの姿勢から当該乗員PAの顔FAや指FIの向きDI(
図8)を特定する。そして、物体認識部325Aは、撮影画像IMにおいて、ステップS5にて抽出された3つの注目領域Ar1~Ar3のうち、乗員PAを基準として向きDIに位置する一つの注目領域Ar2を特定する(ステップS6A3)。
そして、ステップS6A3の後、制御部32は、ステップS6に移行し、当該一つの注目領域Ar2に含まれる物体OB2(
図8)を認識する。
【0035】
以上説明した本実施の形態2によれば、上述した実施の形態1と同様の効果の他、以下の効果を奏する。
本実施の形態2に係る情報提供装置3Aは、撮影画像IM内に複数の注目領域Ar1~Ar3を抽出した場合に、車両VEの乗員PAの姿勢を検出し、当該姿勢に基づいて、複数の注目領域Ar1~Ar3から一つの注目領域Ar2を特定する。そして、情報提供装置3は、当該特定した注目領域Ar2に含まれる物体OB2を認識する。
このため、撮影画像IM内に複数の注目領域Ar1~Ar3を抽出した場合であっても、車両VEの乗員PAが物体情報を得ることを望む物体OB2を含む領域を注目領域Ar1として精度良く特定することができる。したがって、車両VEの乗員PAに対して、適切な物体情報を提供することができる。
【0036】
特に、情報提供装置3Aは、所謂、骨格検知により車両VEの乗員PAの姿勢を検出する。このため、当該姿勢を高精度に検出することができ、撮影画像IM内に複数の注目領域Ar1~Ar3を抽出した場合であっても、車両VEの乗員PAに対して、適切な物体情報を提供することができる。
【0037】
(実施の形態3)
次に、本実施の形態3について説明する。
以下の説明では、上述した実施の形態1と同様の構成には同一符号を付し、その詳細な説明は省略または簡略化する。
図9は、実施の形態3に係る車載端末2Bの構成を示すブロック図である。
本実施の形態3に係る車載端末2Bでは、
図9に示すように、上述した実施の形態1で説明した車載端末2(
図2参照)に対して、センサ部26が追加されている。
センサ部26は、
図9に示すように、ライダ261と、GNSS(Global Navigation Satellite System)センサ262とを備える。
ライダ261は、外界に存在する物体までの距離を離散的に測定し、当該物体の表面を3次元の点群として認識し、点群データを生成する。なお、外界に存在する物体までの距離を測定することができるセンサであれば、ライダ261に限らず、ミリ波レーダ及びソナー等の他の外界センサを採用しても構わない。
GNSSセンサ262は、GNSSを利用して、航法衛星から送信された測位用データを含む電波を受信する。当該測位用データは、緯度及び経度情報等から車両VEの絶対的な位置を検出するために用いられ、本実施の形態に係る位置情報に相当する。なお、利用されるGNSSは、例えば、GPS(Global Positioning System)であってもよいし、他のシステムであっても構わない。
そして、センサ部26は、当該点群データや当該測位用データ等の出力データを端末本体25に出力する。
【0038】
図10は、実施の形態3に係る情報提供装置3Bの構成を示すブロック図である。
また、本実施の形態3に係る情報提供装置3Bでは、上述した実施の形態1で説明した情報提供装置3(
図3参照)に対して、物体認識部325の機能が変更されている。以下では、説明の便宜上、本実施の形態3に係る物体認識部を物体認識部325B(
図10参照)と記載する。また、情報提供装置3Bでは、第2の学習モデルDB332が省略されているとともに、記憶部33に地
図DB335(
図10参照)が追加されている。
【0039】
地
図DB335は、地図データを記憶する。当該地図データは、道路に相当するリンクと道路の接続部分(交差点)に相当するノードとにより表された道路データや、各施設と当該各施設の位置(以下、施設位置と記載)とがそれぞれ対応付けられた施設情報等を含む。
物体認識部325Bは、通信部31を介して車載端末2からセンサ部26の出力データ(ライダ261にて生成された点群データ、GNSSセンサ262にて受信した測位用データ)を取得する。そして、物体認識部325Bは、当該出力データと、撮影画像IMと、地
図DB335に記憶された地図データとに基づいて、当該撮影画像IM内において、領域抽出部324にて抽出された注目領域に含まれる物体を認識する。
以上説明した物体認識部325Bは、本実施の形態に係る物体認識部の他、位置情報取得部及び施設情報取得部に相当する。
【0040】
次に、情報提供装置3Bが実行する情報提供方法について説明する。
図11は、情報提供方法を示すフローチャートである。
本実施の形態3に係る情報提供方法では、
図11に示すように、上述した実施の形態1で説明した情報提供方法(
図4参照)に対して、ステップS6の代わりに、ステップS6B1~S6B5が追加されている。このため、以下では、ステップS6B1~S6B5のみを主に説明する。当該ステップS6B1~S6B5は、本実施の形態に係る物体認識ステップに相当する。
【0041】
ステップS6B1は、ステップS5の後に実行される。
具体的に、物体認識部325Bは、ステップS6B1において、通信部31を介して車載端末2からセンサ部26の出力データ(ライダ261にて生成された点群データ、GNSSセンサ262にて生成された測位用データ)を取得する。
なお、
図11では、車両VEの乗員PAが特定のキーワードを含む言葉を発したタイミング(ステップS3:Yes)で物体認識部325Bが通信部31を介して車載端末2からセンサ部26の出力データを取得する構成としているが、これに限らない。例えば、情報提供装置3Bは、通信部31を介して車載端末2からセンサ部26の出力データを順次、取得する。そして、物体認識部325Bは、当該順次、取得された出力データのうち、車両VEの乗員PAが特定のキーワードを含む言葉を発したタイミング(ステップS3:Yes)で取得された出力データをステップS6B1以降の処理に用いる出力データとして取得する構成としても構わない。
【0042】
ステップS6B1の後、物体認識部325Bは、当該ステップS6B1にて取得した出力データ(GNSSセンサ262にて受信した測位用データ)及び地
図DB335に記憶された地図データに基づいて、車両VEの位置を推定する(ステップS6B2)。
ステップS6B2の後、物体認識部325Bは、ステップS5にて抽出された撮影画像IMにおける注目領域に含まれる物体の位置を推定する(ステップS6B3)。ここで、物体認識部325Bは、ステップS6B1にて取得した出力データ(点群データ)と、ステップS6B2にて推定した車両VEの位置と、ステップS5にて抽出された撮影画像IM内での注目領域の位置とを利用して、当該物体の位置を推定する。
【0043】
ステップS6B3の後、物体認識部325Bは、地
図DB335からステップS6B3にて推定した物体の位置と略同一の施設位置を含む施設情報を取得する(ステップS6B4)。
ステップS6B4の後、物体認識部325Bは、ステップS6B4にて取得した施設情報に含まれる施設をステップS5にて抽出された撮影画像IMにおける注目領域に含まれる物体として認識する(ステップS6B5)。
そして、制御部32は、ステップS6B5の後、ステップS7に移行する。
【0044】
以上説明した本実施の形態3によれば、上述した実施の形態1と同様の効果の他、以下の効果を奏する。
本実施の形態3に係る情報提供装置3Bは、位置情報(GNSSセンサ262にて受信した測位用データ)及び施設情報に基づいて、撮影画像IM内における注目領域に含まれる物体を認識する。言い換えれば、情報提供装置3Bは、ナビゲーション装置において汎用されている情報(位置情報及び施設情報)に基づいて、撮影画像IM内における注目領域に含まれる物体を認識する。
このため、上述した実施の形態1で説明した第2の学習モデルDB332を設ける必要がなく、情報提供装置3Bの構成の簡素化を図ることができる。
【0045】
(実施の形態4)
次に、本実施の形態4について説明する。
以下の説明では、上述した実施の形態1と同様の構成には同一符号を付し、その詳細な説明は省略または簡略化する。
図12は、実施の形態4に係る情報提供装置3Cの構成を示すブロック図である。
本実施の形態4に係る情報提供装置3Cでは、
図12に示すように、上述した実施の形態1で説明した情報提供装置3(
図3参照)に対して、物体認識部325及び情報提供部326の機能が変更されている。以下では、説明の便宜上、本実施の形態4に係る物体認識部を物体認識部325C(
図12参照)と記載し、本実施の形態4に係る情報提供部を情報提供部326C(
図12参照)と記載する。
【0046】
物体認識部325Cは、上述した実施の形態1で説明した物体認識部325と同様の機能の他、領域抽出部324にて撮影画像IM内で複数の注目領域が抽出された場合に実行する機能(以下、追加機能と記載)を有する。当該追加機能は、以下の通りである。
すなわち、物体認識部325Cは、第2の学習モデルを用いた画像認識により、撮影画像IM内における当該複数の注目領域にそれぞれ含まれる物体をそれぞれ認識する。
【0047】
情報提供部326Cは、上述した実施の形態1で説明した情報提供部326と同様の機能の他、領域抽出部324にて撮影画像IM内で複数の注目領域が抽出された場合に実行する機能(以下、追加機能と記載)を有する。当該追加機能は、以下の通りである。
すなわち、情報提供部326Cは、音声解析部322による解析結果と、物体情報DB333に記憶された物体情報とに基づいて、物体認識部325Cにて認識された各物体から一つの物体を特定する。そして、情報提供部326Cは、通信部31を介して車載端末2に当該特定した一つの物体に対応する物体情報を送信する。
【0048】
次に、情報提供装置3Cが実行する情報提供方法について説明する。
図13は、情報提供方法を示すフローチャートである。
図14は、情報提供方法を説明する図である。具体的に、
図14は、
図5に対応した図であって、撮像部23にて生成され、ステップS4にて取得される撮影画像IMを示している。ここで、
図14では、
図5の例とは異なり、車両VEの助手席に座った乗員PAが「あの赤い建物何?」という言葉を発している場合を例示している。
本実施の形態4に係る情報提供方法では、
図13に示すように、上述した実施の形態1で説明した情報提供方法(
図4参照)に対して、ステップS6C1,S6C2,S7Cが追加されている。このため、以下では、ステップS6C1,S6C2,S7Cのみを主に説明する。当該ステップS6C1,S6C2とステップS6とは、それぞれ本実施の形態に係る物体認識ステップに相当する。また、当該ステップS7CとステップS7とは、それぞれ本実施の形態に係る情報提供ステップに相当する。
【0049】
ステップS6C1は、ステップS5の後に実行される。
具体的に、制御部32は、ステップS6C1において、上述した実施の形態2で説明したステップS6A1と同様に、ステップS5にて抽出された注目領域が複数であるか否かを判断する。なお、
図14では、
図8と同様に、ステップS5において、3つの注目領域Ar1~Ar3が抽出された場合を例示している。
注目領域が一つであると判断した場合(ステップS6C1:No)には、制御部32は、ステップS6に移行し、当該一つの注目領域(例えば、上述した実施の形態1と同様に注目領域Ar1)に含まれる物体(例えば、物体OB1)を認識する。
【0050】
一方、注目領域が複数であると判断した場合(ステップS6C1:Yes)には、制御部32は、ステップS6C2に移行する。
そして、物体認識部325Cは、第2の学習モデルDB332に記憶された第2の学習モデルを用いた画像認識により、撮影画像IM内において、ステップS5にて抽出された3つの注目領域Ar1~Ar3にそれぞれ含まれる物体OB1~OB3をそれぞれ認識する(ステップS6C2)。
【0051】
ステップS6C2の後、情報提供部326Cは、ステップS7Cを実行する。
具体的に、情報提供部326Cは、ステップS7Cにおいて、ステップS6C2にて認識された各物体から一つの物体を特定する。ここで、情報提供部326Cは、要求情報(音声情報)に含まれる物体の属性と、物体情報DB333に記憶された物体情報のうち、ステップS6C2にて認識された各物体OB1~OB3に対応する3つの物体情報とに基づいて、当該一つの物体を特定する。
なお、要求情報(音声情報)に含まれる物体の属性とは、ステップS2にて当該要求情報(音声情報)が解析されることで生成されるものである。例えば、
図14に示すように、車両VEの乗員PAが「あの赤い建物何?」との言葉を発した場合には、「赤い」との言葉と、「建物」との言葉とが物体の属性となる。具体的に、物体の属性とは、赤等の色、四角等の形状、建物等の種別を示す情報である。そして、情報提供部326Cは、ステップS7Cにおいて、各物体OB1~OB3に対応する3つの物体情報を参照し、「赤い」及び「建物」の文字データを含む物体情報に対応する一つの物体(例えば、物体OB3)を特定する。また、情報提供部326Cは、通信部31を介して車載端末2に当該特定した一つの物体に対応する物体情報を送信する。
【0052】
以上説明した本実施の形態4によれば、上述した実施の形態1と同様の効果の他、以下の効果を奏する。
本実施の形態4に係る情報提供装置3Cは、撮影画像IM内に複数の注目領域Ar1~Ar3を抽出した場合に、要求情報(音声情報)の解析結果に基づいて、当該複数の注目領域Ar1~Ar3にそれぞれ含まれる物体OB1~OB3のうち一つの物体に関する物体情報を提供する。
このため、撮影画像IM内に複数の注目領域Ar1~Ar3を抽出した場合であっても、車両VEの乗員PAが物体情報を得ることを望む物体OB3を精度良く特定することができる。したがって、車両VEの乗員PAに対して、適切な物体情報を提供することができる。
【0053】
(その他の実施形態)
ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態1~4によってのみ限定されるべきものではない。
上述した実施の形態1~4に係る情報提供装置3,3A~3Cは、特定のキーワードを含む要求情報(音声情報)を取得したことをトリガとして、画像取得ステップ、領域抽出ステップ、物体認識ステップ、及び情報提供ステップ等の各処理を実行していた。しかしながら、本実施の形態に係る情報提供装置としては、特定のキーワードを含む要求情報(音声情報)を取得しなくても、常時、当該各処理を実行する構成としても構わない。また、本実施の形態に係る要求情報としては、音声情報に限らず、車両VEの乗員PAによる車載端末2,2Bに設けられたスイッチ等の操作部への操作に応じた操作情報であっても構わない。
【0054】
上述した実施の形態1~4において、情報提供装置3,3A~3Cの全ての構成を車載端末2,2Bに設けても構わない。この場合には、当該車載端末2,2Bは、本実施の形態に係る情報提供装置に相当する。また、情報提供装置3,3A~3Cにおける制御部32の一部の機能、及び記憶部33の一部を車載端末2,2Bに設けても構わない。この場合には、情報提供システム1全体が本実施の形態に係る情報提供装置に相当する。
【符号の説明】
【0055】
3,3A~3C 情報提供装置
321 要求情報取得部
322 音声解析部
323 画像取得部
324 領域抽出部
325,325A~325C 物体認識部
326,326C 情報提供部
327 姿勢検出部