特開2020-201723(P2020-201723A)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社ロゼッタの特許一覧

特開2020-201723画像処理装置、ウェアラブルデバイス、画像処理プログラム、画像処理方法、オブジェクト認識装置、オブジェクト認識プログラムおよびオブジェクト認識方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】特開2020-201723(P2020-201723A)
(43)【公開日】2020年12月17日
(54)【発明の名称】画像処理装置、ウェアラブルデバイス、画像処理プログラム、画像処理方法、オブジェクト認識装置、オブジェクト認識プログラムおよびオブジェクト認識方法
(51)【国際特許分類】
   G06F 3/01 20060101AFI20201120BHJP
   G06F 3/038 20130101ALI20201120BHJP
【FI】
   G06F3/01 510
   G06F3/038 310A
【審査請求】未請求
【請求項の数】20
【出願形態】OL
【全頁数】17
(21)【出願番号】特願2019-108310(P2019-108310)
(22)【出願日】2019年6月11日
(71)【出願人】
【識別番号】504315532
【氏名又は名称】株式会社ロゼッタ
(74)【代理人】
【識別番号】100131451
【弁理士】
【氏名又は名称】津田 理
(74)【代理人】
【識別番号】100167933
【弁理士】
【氏名又は名称】松野 知紘
(72)【発明者】
【氏名】中村 俊介
【テーマコード(参考)】
5B087
5E555
【Fターム(参考)】
5B087AA01
5B087AA02
5B087BC05
5B087DD09
5E555AA67
5E555BA38
5E555BB38
5E555BC17
5E555BD01
5E555BE17
5E555CA10
5E555CA42
5E555CA44
5E555CA45
5E555CB21
5E555CB53
5E555CB65
5E555CB66
5E555CC03
5E555DA09
5E555DB25
5E555DC09
5E555DC26
5E555DC60
5E555DC75
5E555EA19
5E555EA22
5E555EA27
5E555FA00
(57)【要約】
【課題】精度が高く、かつ、高速なオブジェクト認識が可能な画像処理装置、ウェアラブルデバイス、画像処理プログラム、画像処理方法、オブジェクト認識装置、オブジェクト認識プログラムおよびオブジェクト認識方法を提供する。
【解決手段】ウェアラブルデバイスを装着したユーザの視点を取得する視点情報取得部と、特定時点における前記ウェアラブルデバイスの前方をカメラで撮影した第1画像を取得するカメラ画像取得部と、前記第1画像のうち、前記視点に応じた一部分の領域において認識されるオブジェクトを示すオブジェクト情報を取得するオブジェクト情報取得部と、前記オブジェクト情報に基づいて、前記オブジェクトの拡大画像を表示させる出力部と、を備える画像処理装置が提供される。
【選択図】図1
【特許請求の範囲】
【請求項1】
ウェアラブルデバイスを装着したユーザの視点を取得する視点情報取得部と、
特定時点における前記ウェアラブルデバイスの前方をカメラで撮影した第1画像を取得するカメラ画像取得部と、
前記第1画像のうち、前記視点に応じた一部分の領域において認識されるオブジェクトを示すオブジェクト情報を取得するオブジェクト情報取得部と、
前記オブジェクト情報に基づいて、前記オブジェクトの拡大画像を表示させる出力部と、を備える画像処理装置。
【請求項2】
前記ウェアラブルデバイスには、前記ユーザの眼球を追跡するアイトラッキングモジュールが設けられ、
前記視点情報取得部は、前記アイトラッキングモジュールの出力から前記ユーザの視点を取得し、
前記アイトラッキングモジュールの出力から、認識開始を示す所定のユーザ動作を検知し、該検知に応答して、前記特定時点を設定するよう制御を行う制御部を備える、請求項1に記載の画像処理装置。
【請求項3】
前記所定のユーザ動作は、所定時間目を瞑ること、ウィンクを行うこと、または、所定回の瞬きである、請求項2に記載の画像処理装置。
【請求項4】
前記カメラ画像取得部は、前記オブジェクト情報に基づいて、前記オブジェクトを撮影した第2画像を取得し、
前記出力部は、前記第2画像を用いて前記拡大画像を表示させる、請求項1乃至3のいずれかに記載の画像処理装置。
【請求項5】
前記第2画像は、前記第1画像に比べて、前記オブジェクトにピントが合っている、請求項4に記載の画像処理装置。
【請求項6】
前記ウェアラブルデバイスには、前記ユーザの前方に透過型ディスプレイが設けられ、
前記出力部は、前記透過型ディスプレイに前記オブジェクトの拡大画像を表示させる、請求項1乃至5のいずれかに記載の画像処理装置。
【請求項7】
前記出力部は、前記オブジェクトの拡大画像を所定時間表示させた後、前記オブジェクトの拡大画像を非表示とする、請求項6に記載の画像処理装置。
【請求項8】
前記オブジェクト情報取得部は、前記ウェアラブルデバイスの位置および前記ウェアラブルデバイスが向いている方角を考慮して認識されるオブジェクトを示すオブジェクト情報を取得する、請求項1乃至7のいずれかに記載の画像処理装置。
【請求項9】
前記オブジェクト情報取得部は、前記ウェアラブルデバイスの仰俯角を考慮して認識されるオブジェクトを示すオブジェクト情報を取得する、請求項8に記載の画像処理装置。
【請求項10】
前記出力部は、前記オブジェクト情報に基づいて、オブジェクト名を表示させる、請求項1乃至9のいずれかに記載の画像処理装置。
【請求項11】
ユーザによって装着されるウェアラブルデバイスであって、
前記ユーザの前方を撮影するためのカメラと、
前記ユーザの眼球を追跡し、前記ユーザの視点を取得するためのアイトラッキングモジュールと、
請求項1乃至10のいずれかに記載の画像処理装置と、
前記ユーザの前方に設けられ、前記画像処理装置における出力部によって前記オブジェクトの拡大画像が表示される透過型ディスプレイと、を備えるウェアラブルデバイス。
【請求項12】
ユーザによって装着されるウェアラブルデバイスであって、
前記ユーザの前方を撮影するためのカメラと、
前記ユーザの眼球を追跡し、前記ユーザの視点を取得するためのアイトラッキングモジュールと、
前記ウェアラブルデバイスの位置を取得するためのGPS受信装置と、
前記ウェアラブルデバイスが向いている方角を取得するための地磁気センサと、
請求項8または9に記載の画像処理装置と、
前記ユーザの前方に設けられ、前記画像処理装置における出力部によって前記オブジェクトの拡大画像が表示される透過型ディスプレイと、を備えるウェアラブルデバイス。
【請求項13】
コンピュータを、
ウェアラブルデバイスを装着したユーザの視点を取得する視点情報取得部と、
特定時点における前記ウェアラブルデバイスの前方をカメラで撮影した第1画像を取得するカメラ画像取得部と、
前記第1画像のうち、前記視点に応じた一部分の領域において認識されるオブジェクトを示すオブジェクト情報を取得するオブジェクト情報取得部と、
前記オブジェクト情報に基づいて、前記オブジェクトの拡大画像を表示させる出力部と、として機能させる画像処理プログラム。
【請求項14】
ウェアラブルデバイスを装着したユーザの視点を取得し、
特定時点における前記ウェアラブルデバイスの前方をカメラで撮影した第1画像を取得し、
前記第1画像のうち、前記視点に応じた一部分の領域において認識されるオブジェクトを示すオブジェクト情報を取得し、
前記オブジェクト情報に基づいて、前記オブジェクトの拡大画像を表示させる、画像処理方法。
【請求項15】
特定時点におけるウェアラブルデバイスの前方を撮影するカメラからのカメラ画像のうち、前記ウェアラブルデバイスを装着したユーザの視点に応じた一部分である認識領域においてオブジェクト認識を行って、前記認識領域に含まれるオブジェクトを認識するオブジェクト認識部を備えるオブジェクト認識装置。
【請求項16】
前記オブジェクト認識部は、前記ユーザの視点を含む領域を認識領域としてオブジェクト認識を行い、その認識領域でオブジェクトを認識できない場合、前記認識領域をより狭くしてオブジェクト認識を行う、請求項15に記載のオブジェクト認識装置。
【請求項17】
前記オブジェクト認識部は、前記認識領域を狭くした結果、前記認識領域の大きさが所定値以下であれば、オブジェクト認識に失敗したと判断する、請求項16に記載のオブジェクト認識装置。
【請求項18】
前記ウェアラブルデバイスの位置および、前記ウェアラブルデバイスが向いている方角をデバイス情報として受信するデバイス情報受信部と、
前記デバイス情報に基づいてオブジェクトの候補を取得するオブジェクト候補取得部と、を備え、
前記オブジェクト認識部は、前記認識領域内に、前記オブジェクトの候補があるか否かを判定することによって、オブジェクト認識を行う、請求項15乃至17のいずれかに記載のオブジェクト認識装置。
【請求項19】
コンピュータを、特定時点におけるウェアラブルデバイスの前方を撮影するカメラからのカメラ画像のうち、前記ウェアラブルデバイスを装着したユーザの視点に応じた一部分である認識領域においてオブジェクト認識を行って、前記認識領域に含まれるオブジェクトを認識するオブジェクト認識部として機能させるオブジェクト認識プログラム。
【請求項20】
特定時点におけるウェアラブルデバイスの前方を撮影するカメラからのカメラ画像のうち、前記ウェアラブルデバイスを装着したユーザの視点に応じた一部分である認識領域においてオブジェクト認識を行って、前記認識領域に含まれるオブジェクトを認識するオブジェクト認識方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、ウェアラブルデバイス、画像処理プログラム、画像処理方法、オブジェクト認識装置、オブジェクト認識プログラムおよびオブジェクト認識方法に関する。
【背景技術】
【0002】
目の前の景色を画面上に表示するとともに、看板の文字などを認識して重ねて表示するソフトウェアが知られている(非特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【非特許文献1】https://ja.wikipedia.org/wiki/%E3%82%BB%E3%82%AB%E3%82%A4%E3%82%AB%E3%83%A1%E3%83%A9
【特許文献1】特開2017−194860号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述したソフトウェアは認識の精度や速度が必ずしも十分とは言えない。
【0005】
本発明はこのような問題点に鑑みてなされたものであり、本発明の課題は、精度が高く、かつ、高速なオブジェクト認識が可能な画像処理装置、ウェアラブルデバイス、画像処理プログラム、画像処理方法、オブジェクト認識装置、オブジェクト認識プログラムおよびオブジェクト認識方法を提供することである。
【課題を解決するための手段】
【0006】
本発明の一態様によれば、ウェアラブルデバイスを装着したユーザの視点を取得する視点情報取得部と、特定時点における前記ウェアラブルデバイスの前方をカメラで撮影した第1画像を取得するカメラ画像取得部と、前記第1画像のうち、前記視点に応じた一部分の領域において認識されるオブジェクトを示すオブジェクト情報を取得するオブジェクト情報取得部と、前記オブジェクト情報に基づいて、前記オブジェクトの拡大画像を表示させる出力部と、を備える画像処理装置が提供される。
【0007】
前記ウェアラブルデバイスには、前記ユーザの眼球を追跡するアイトラッキングモジュールが設けられ、前記視点情報取得部は、前記アイトラッキングモジュールの出力から前記ユーザの視点を取得し、前記アイトラッキングモジュールの出力から、認識開始を示す所定のユーザ動作を検知し、該検知に応答して、前記特定時点を設定するよう制御を行う制御部を備えるのが望ましい。
【0008】
前記所定のユーザ動作は、所定時間目を瞑ること、ウィンクを行うこと、または、所定回の瞬きであるのが望ましい。
【0009】
前記カメラ画像取得部は、前記オブジェクト情報に基づいて、前記オブジェクトを撮影した第2画像を取得し、前記出力部は、前記第2画像を用いて前記拡大画像を表示させるのが望ましい。
【0010】
前記第2画像は、前記第1画像に比べて、前記オブジェクトにピントが合っているのが望ましい。
【0011】
前記ウェアラブルデバイスには、前記ユーザの前方に透過型ディスプレイが設けられ、前記出力部は、前記透過型ディスプレイに前記オブジェクトの拡大画像を表示させるのが望ましい。
【0012】
前記出力部は、前記オブジェクトの拡大画像を所定時間表示させた後、前記オブジェクトの拡大画像を非表示とするのが望ましい。
【0013】
前記オブジェクト情報取得部は、前記ウェアラブルデバイスの位置および前記ウェアラブルデバイスが向いている方角を考慮して認識されるオブジェクトを示すオブジェクト情報を取得するのが望ましい。
【0014】
前記オブジェクト情報取得部は、前記ウェアラブルデバイスの仰俯角を考慮して認識されるオブジェクトを示すオブジェクト情報を取得するのが望ましい。
【0015】
前記出力部は、前記オブジェクト情報に基づいて、オブジェクト名を表示させるのが望ましい。
【0016】
本発明の別の態様によれば、ユーザによって装着されるウェアラブルデバイスであって、前記ユーザの前方を撮影するためのカメラと、前記ユーザの眼球を追跡し、前記ユーザの視点を取得するためのアイトラッキングモジュールと、上記画像処理装置と、前記ユーザの前方に設けられ、前記画像処理装置における出力部によって前記オブジェクトの拡大画像が表示される透過型ディスプレイと、を備えるウェアラブルデバイスが提供される。
【0017】
本発明の別の態様によれば、ユーザによって装着されるウェアラブルデバイスであって、前記ユーザの前方を撮影するためのカメラと、前記ユーザの眼球を追跡し、前記ユーザの視点を取得するためのアイトラッキングモジュールと、前記ウェアラブルデバイスの位置を取得するためのGPS受信装置と、前記ウェアラブルデバイスが向いている方角を取得するための地磁気センサと、上記画像処理装置と、前記ユーザの前方に設けられ、前記画像処理装置における出力部によって前記オブジェクトの拡大画像が表示される透過型ディスプレイと、を備えるウェアラブルデバイスが提供される。
【0018】
本発明の別の態様によれば、コンピュータを、ウェアラブルデバイスを装着したユーザの視点を取得する視点情報取得部と、特定時点における前記ウェアラブルデバイスの前方をカメラで撮影した第1画像を取得するカメラ画像取得部と、前記第1画像のうち、前記視点に応じた一部分の領域において認識されるオブジェクトを示すオブジェクト情報を取得するオブジェクト情報取得部と、前記オブジェクト情報に基づいて、前記オブジェクトの拡大画像を表示させる出力部と、として機能させる画像処理プログラムが提供される。
【0019】
本発明の別の態様によれば、ウェアラブルデバイスを装着したユーザの視点を取得し、特定時点における前記ウェアラブルデバイスの前方をカメラで撮影した第1画像を取得し、前記第1画像のうち、前記視点に応じた一部分の領域において認識されるオブジェクトを示すオブジェクト情報を取得し、前記オブジェクト情報に基づいて、前記オブジェクトの拡大画像を表示させる、画像処理方法が提供される。
【0020】
本発明の別の態様によれば、特定時点におけるウェアラブルデバイスの前方を撮影するカメラからのカメラ画像のうち、前記ウェアラブルデバイスを装着したユーザの視点に応じた一部分である認識領域においてオブジェクト認識を行って、前記認識領域に含まれるオブジェクトを認識するオブジェクト認識部を備えるオブジェクト認識装置が提供される。
【0021】
前記オブジェクト認識部は、前記ユーザの視点を含む領域を認識領域としてオブジェクト認識を行い、その認識領域でオブジェクトを認識できない場合、前記認識領域をより狭くしてオブジェクト認識を行うのが望ましい。
【0022】
前記オブジェクト認識部は、前記認識領域を狭くした結果、前記認識領域の大きさが所定値以下であれば、オブジェクト認識に失敗したと判断するのが望ましい。
【0023】
前記ウェアラブルデバイスの位置および、前記ウェアラブルデバイスが向いている方角をデバイス情報として受信するデバイス情報受信部と、前記デバイス情報に基づいてオブジェクトの候補を取得するオブジェクト候補取得部と、を備え、前記オブジェクト認識部は、前記認識領域内に、前記オブジェクトの候補があるか否かを判定することによって、オブジェクト認識を行うのが望ましい。
【0024】
本発明の別の態様によれば、コンピュータを、特定時点におけるウェアラブルデバイスの前方を撮影するカメラからのカメラ画像のうち、前記ウェアラブルデバイスを装着したユーザの視点に応じた一部分である認識領域においてオブジェクト認識を行って、前記認識領域に含まれるオブジェクトを認識するオブジェクト認識部として機能させるオブジェクト認識プログラムが提供される。
【0025】
本発明の別の態様によれば、特定時点におけるウェアラブルデバイスの前方を撮影するカメラからのカメラ画像のうち、前記ウェアラブルデバイスを装着したユーザの視点に応じた一部分である認識領域においてオブジェクト認識を行って、前記認識領域に含まれるオブジェクトを認識するオブジェクト認識方法が提供される。
【発明の効果】
【0026】
高精度かつ高速にオブジェクトを認識できる。
【図面の簡単な説明】
【0027】
図1】第1の実施形態に係るウェアラブルデバイス100の概略斜視図。
図2A】カメラ画像を模式的に示す図。
図2B】視点が左方向にある場合の処理を説明する図。
図2C】視点が右方向にある場合の処理を説明する図。
図3】第1の実施形態に係るオブジェクト認識システムの概略構成を示す機能ブロック図。
図4】第1の実施形態に係るオブジェクト認識システムの処理動作の一例を示すシーケンス図。
図5】第1の実施形態におけるオブジェクト認識処理の処理動作の一例を示すフローチャート。
図6】認識領域の初期値を模式的に示す図。
図7】距離r1を説明する図。
図8】狭めた認識領域を模式的に示す図。
図9A】第2の実施形態に係るウェアラブルデバイス101の概略斜視図。
図9B】第2の実施形態に係るオブジェクト認識システムの概略構成を示す機能ブロック図。
図10】オブジェクトデータベース27の構造の一例を示す図。
図11】第2の実施形態に係るオブジェクト認識システムの処理動作の一例を示すシーケンス図。
図12】第2の実施形態におけるオブジェクト認識処理の処理動作の一例を示すフローチャート。
図13A図11のステップS2で取得されるカメラ画像を模式的に示す図。
図13B】透過型ディスプレイ5に表示される画像を模式的に示す図。
【発明を実施するための形態】
【0028】
以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。
【0029】
(第1の実施形態)
図1は、第1の実施形態に係るウェアラブルデバイス100の概略斜視図である。第1の実施形態は、このウェアラブルデバイス100を装着したユーザが見ている部分を拡大して表示するものである。
【0030】
ウェアラブルデバイス100は、眼鏡型の枠体1と、カメラ2と、アイトラッキングモジュール3と、画像処理部4と、透過型ディスプレイ5と、通信モジュール6とを備えている。枠体1以外の各部は図示しない充電式バッテリによって駆動される。
【0031】
カメラ2は枠体1の前面に取り付けられ、ウェアラブルデバイス100を顔に装着したユーザの前方(視線と同じ向き)を撮影する。カメラ2から出力されるカメラ画像は画像処理部4に供給される。なお、撮影するタイミング、ピント、拡大率などは画像処理部4の制御部45(後述)によって制御される。
【0032】
アイトラッキングモジュール3はユーザの眼を向くよう枠体1に取り付けられる。そして、アイトラッキングモジュール3はユーザの眼球を追跡することで、ユーザの視点を特定する。アイトラッキングモジュール3から出力される視点情報は画像処理部4に供給される。
【0033】
画像処理部4は枠体1の内部に配置され、カメラ画像および視点情報を用いてユーザの前方にて認識されるオブジェクトの情報を出力する。画像処理部4の詳細は後述する。
【0034】
透過型ディスプレイ5(いわゆる「シースルーディスプレイ」)は眼鏡のレンズに当たる部分に配置される。透過型ディスプレイ5は画像処理部4からの制御に応じてオブジェクトを拡大表示する。なお、透過型ディスプレイ5には、カメラ画像が表示されなくてよい。
通信モジュール6は後述するサーバ200との間で種々のデータ送受を行う。
【0035】
本実施形態は、ユーザの前方を撮影したカメラ画像からオブジェクトを認識して拡大表示するものである。以下、本実施形態におけるオブジェクト認識の概要を説明する。
【0036】
図2Aは、カメラ画像を模式的に示す図である。この例では、カメラ画像の左側に看板91があり、右側にポスター92があるものとする。看板91は「9時オープン」の文字を含み、ポスター92は「禁煙」の文字を含んでいる。ここで、カメラ画像全体に対してオブジェクト認識を行って文字を認識し、看板91の文字を拡大表示し、同時に、ポスター92の文字を拡大表示することも考えられる。
【0037】
しかしながら、カメラ画像全体に対してオブジェクト認識を行う場合、認識対象の範囲が広すぎて処理負荷が大きく、処理速度が実用的でないことがある。かといって、処理速度を上げようとすると認識精度が低下してしまう。
【0038】
そこで、本実施形態では、カメラ画像における、ユーザの視点に応じた一部分の領域に対してのみ、オブジェクト認識を行う。例えば、ユーザの視点が左方向であれば、図2Bに示すように、左側の看板91のみが認識され、透過型ディスプレイ5に拡大される。一方、ユーザの視点が右方向であれば、図2Cに示すように、右側のポスター92のみが認識され、透過型ディスプレイ5に拡大表示される。なお、図2Bおよび図2Cにおいて、破線は透過型ディスプレイ5を透過してユーザに直接見えることを示しており、実線は透過型ディスプレイ5に表示されることを示している。
【0039】
このように、オブジェクト認識の領域を狭くすることで、認識精度を低下させることなく、処理速度が向上する。以下、詳細に説明する。
【0040】
図3は、第1の実施形態に係るオブジェクト認識システムの概略構成を示す機能ブロック図である。オブジェクト認識システムは、上述したウェアラブルデバイス100と、サーバ200(オブジェクト認識装置)とから構成される。ウェアラブルデバイス100は、例えば3G回線、4G回線あるいはWiFi(登録商標)により、サーバ200と通信可能である。
【0041】
ウェアラブルデバイス100の画像処理部4は、カメラ画像取得部41と、視点情報取得部42と、オブジェクト情報取得部43と、出力部44と、制御部45とを有する。これら各機能部の一部または全部は、ハードウェア回路で実装されてもよい。あるいは、ウェアラブルデバイス100のCPUが所定のプログラムを実行することでこれら各機能部の一部または全部が実現されてもよい。
【0042】
カメラ画像取得部41はカメラ2と接続されている。そして、カメラ画像取得部41はカメラ2から出力されるカメラ画像を取得し、通信モジュール6を介してサーバ200に送信する。
【0043】
視点情報取得部42はアイトラッキングモジュール3と接続されている。そして、視点情報取得部42はアイトラッキングモジュール3から出力される視点情報を取得し、通信モジュール6を介してサーバ200に送信する。視点情報はカメラ画像におけるどの部分に視点があるかを示す。具体的には、視点情報は、カメラ画像における特定の1または複数画素を示してもよいし、カメラ画像を複数領域に分割したうちの1つの領域を示していてもよい。
【0044】
オブジェクト情報取得部43は、カメラ画像のうち、ユーザの視点に応じた領域を含む一部分の領域において認識されるオブジェクトを示すオブジェクト情報を通信モジュール6を介してサーバ200から取得する。
【0045】
出力部44はオブジェクト情報が示すオブジェクトの拡大画像を透過型ディスプレイ5に表示させる。
【0046】
制御部45はウェアラブルデバイス100の全体を制御する。
【0047】
サーバ200はウェアラブルデバイス100との間で種々のデータ送受を行う通信モジュール20を有する。また、サーバ200は、カメラ画像受信部21と、視点情報受信部22と、認識領域設定部23と、オブジェクト認識部24と、オブジェクト情報送信部25とを有する。これら各機能部の一部または全部は、ハードウェア回路で実装されてもよい。あるいは、サーバ200のCPUが所定のプログラムを実行することでこれら各機能部の一部または全部が実現されてもよい。
【0048】
カメラ画像受信部21および視点情報受信部22は、ウェアラブルデバイス100から通信モジュール20を介して、それぞれカメラ画像および視点情報を受信する。
【0049】
認識領域設定部23は、視点情報に基づき、カメラ画像の認識領域を設定する。認識領域は、カメラ画像の一部分であって、オブジェクト認識部24によるオブジェクト認識の対象となる領域である。
【0050】
オブジェクト認識部24は、カメラ画像のうち、認識領域設定部23によって設定された認識領域のみにおいてオブジェクト認識を実行する。オブジェクト認識の手法に特に制限はないが、例えばディープラーニングを適用した人工知能を利用することができる。
【0051】
オブジェクト情報送信部25は、認識されたオブジェクトを示すオブジェクト情報を、通信モジュール20を介してウェアラブルデバイス100に送信する。オブジェクト情報は、認識されたオブジェクトのカメラ画像における位置を示してもよいし、認識されたオブジェクトが何であるかを示してもよい。
【0052】
図4は、第1の実施形態に係るオブジェクト認識システムの処理動作の一例を示すシーケンス図である。
【0053】
ユーザはオブジェクト認識処理を開始させるためのトリガ動作をウェアラブルデバイス100に対して行う。トリガ動作は任意であるが、例えば所定時間目を瞑る、ウィンクを行う、所定回瞬きをする、などアイトラッキングモジュール3で検知できる予め定めた動作であるのが望ましい。制御部45は、アイトラッキングモジュール3の出力からトリガ動作を検知すると(ステップS1のYES)、以下に述べるようにカメラ画像からオブジェクト情報を取得するよう制御する。
【0054】
制御部45は、トリガ動作が検知された時点(多少のタイムラグは構わない)で、カメラ画像を取得するようカメラ画像取得部41を制御するとともに、ユーザの視点を示す視線情報を取得するよう視点情報取得部42を制御する(ステップS2)。取得されたカメラ画像および視点情報は、通信モジュール6を介してサーバ200に送信される(ステップS3)。
【0055】
サーバ200のカメラ画像受信部21および視点情報受信部22は、通信モジュール20を介して、ウェアラブルデバイス100からのカメラ画像および視点情報をそれぞれ受信する(ステップS11)。そして、認識領域設定部23およびオブジェクト認識部24は、視点情報を利用し、カメラ画像における一部分のみの領域においてオブジェクト認識を行う。(ステップS12)。その詳細は図5を用いて後述する。オブジェクト情報送信部25はオブジェクトを示すオブジェクト情報をウェアラブルデバイス100に送信する(ステップS13)。
【0056】
ウェアラブルデバイス100のオブジェクト情報取得部43はサーバ200からオブジェクト情報を受信する(ステップS4)。そして、出力部44は、オブジェクト情報に基づいて、オブジェクトの拡大画像を透過型ディスプレイ5に表示させる(ステップS5)。
【0057】
透過型ディスプレイ5における拡大画像の表示位置は、オブジェクトの位置から少し外れた近傍とするのが望ましい。このようにすれば、ユーザは、透過型ディスプレイ5を介してオブジェクトが見つつ、透過型ディスプレイ5に表示された拡大画像を見ることができる。一例として、カメラ画像において、水平方向における左側、垂直方向における中央付近にオブジェクトが認識された場合、透過型ディスプレイ5の水平方向における左側、垂直方向における中央より下に拡大画像が表示される。
【0058】
なお、出力部44は、ユーザから特段の指示がない限り拡大画像を表示したままにしておいてもよいが、一定時間表示させた後に自動的に非表示とするのが望ましい。
【0059】
図2Aに示した例において、例えば視点が右方向であれば図4のステップS5において右側のポスター92の拡大画像が透過型ディスプレイ5に表示されるが、左側の看板91の拡大画像は表示されない(図2C参照)。一方、視点が左方向であれば図4のステップS5において左側の看板91の拡大画像が透過型ディスプレイ5に表示されるが、右側のポスター92の拡大画像は表示されない(図2B参照)。
【0060】
ステップS5において、出力部44はオブジェクトをカメラ2で再撮影して得られるカメラ画像の少なくとも一部を拡大画像として表示させてもよい。具体的には、制御部45は、ステップS2でカメラ画像を取得したときよりもカメラ2の拡大率を高くし、オブジェクト(より具体的には、オブジェクト情報が示す位置)が中心となるよう再撮影を行う。この際、制御部45は、ステップS2でカメラ画像を取得したときよりも、オブジェクトにピントが合うようにカメラ2を設定するのがさらに望ましい。
【0061】
なお、出力部44は、ステップS2で取得されたカメラ画像のうち、オブジェクト情報によって示される部分を拡大処理したものを拡大画像として表示させてもよい。しかし、拡大処理に比べ、再撮影の方がより高画質な拡大画像を表示させることができるし、ピントを合わせることも容易である。
【0062】
続いて、図4のステップS12に示すオブジェクト認識処理について詳しく説明する。図5は、第1の実施形態におけるオブジェクト認識処理の処理動作の一例を示すフローチャートである。
【0063】
認識領域設定部23は視点情報に基づいて認識領域の初期値を設定する(ステップS21)。図6は、認識領域の初期値を模式的に示す図である。図示のように、認識領域設定部23はカメラ画像における視点を含む予め定めた大きさのエリアを認識領域の初期値とする。認識領域は、例えば視点を中心とし、カメラ画像を縮小した(あるいはカメラ画像と長手方向が一致する)長方形である。
【0064】
続いて、オブジェクト認識部24は設定された認識領域内でオブジェクト認識を行う(ステップS22)。認識領域内でオブジェクトが認識された場合(ステップS23のYES)、認識されたオブジェクトと視点との距離r1を算出する(ステップS24、図7参照)。なお、距離r1は、オブジェクトの中心から視点との距離でもよいし、オブジェクトのうち最も近い位置と視点との距離であってもよい。
【0065】
そして、距離r1が所定の閾値TH1以下であれば(ステップS25のYES)、オブジェクト認識部24はオブジェクト認識に成功したと判断する。
【0066】
一方、距離r1が閾値TH1より大きい場合、視点から離れすぎていると考えられるため、ステップS23で認識されたオブジェクトを採用しない。そして、認識領域設定部23は認識領域を狭めることとする(ステップS26)。また、ステップS23において、オブジェクトが認識されなかった場合(ステップS23のNO)も、認識領域設定部23は認識領域を狭める(ステップS26)。
【0067】
図8は、狭めた認識領域を模式的に示す図である。図示のように、認識領域設定部23は、視点を中心としたまま所定量だけ長方形を小さくして、新たな認識領域とする。その結果、認識領域の大きさが所定の閾値TH2以下となった場合(ステップS27のYES)、オブジェクト認識部24はオブジェクト認識に失敗したと判断する。認識領域が小さすぎる場合、小さなオブジェクトを見つけるのが困難であるためである。なお、認識領域の大きさは、例えば長方形の長辺あるいは短辺の長さを基準にしてもよいし、面積を基準にしてもよい。
【0068】
認識領域の大きさが所定の閾値TH2より大きければ(ステップS27のNO)、オブジェクト認識部24は新たな認識領域内でオブジェクト認識を行う(ステップS22)。以上の処理を認識成功あるいは認識失敗と判断されるまで行う。
【0069】
このようにして認識されたオブジェクト(および/または、カメラ画像におけるオブジェクトの位置)を示すオブジェクト情報がウェアラブルデバイス100に送信される(図4のステップS13)。
【0070】
このように、第1の実施形態では、カメラ画像の全体に対してオブジェクト認識を行うのではなく、視点に応じた一部分に対してのみオブジェクト認識を行う。これにより、オブジェクト認識の領域が狭くなるため、認識精度を低下させることなく、処理速度が向上する。また、カメラ画像の一部分に対してオブジェクト認識を行うため、オブジェクトが小さくても認識可能となる。さらに、視点が向いていない位置にあるオブジェクトの拡大表示は行わないため、不要な情報がなく、透過型ディスプレイ5の表示がすっきりする。
【0071】
なお、図3に示すシステム構成は例示にすぎず、ウェアラブルデバイス100の機能の一部をサーバ200が行ってもよいし、サーバ200の機能の一部または全部をウェアラブルデバイス100が行ってもよい。具体例として、認識領域設定部23をウェアラブルデバイス100内に設け、認識領域の初期値をウェアラブルデバイス100からサーバ200に送信してもよい。
【0072】
別の例として、認識領域設定部23に加え、オブジェクト認識部24もウェアラブルデバイス100内に設けてもよい。この構成によれば、処理性能に優れるサーバ200でのオブジェクト認識と比較すると認識精度や認識速度が多少犠牲になる可能性もあるが、通信機能が不要となり、ウェアラブルデバイス100単体で一連の処理が可能となる。また、ウェアラブルデバイス100でもサーバ200でもオブジェクト認識を行えるようにし、通信可能な環境下ではサーバ200でオブジェクト認識を行い、通信不能な環境下ではウェアラブルデバイス100でオブジェクト認識を行うようにしてもよい。
【0073】
なお、認識対象となるオブジェクトは文字に限られない。
【0074】
(第2の実施形態)
以下に説明する第2の実施形態は、オブジェクト認識の精度を向上すべく、GPSなどを用いるものである。以下、第1の実施形態との相違点を中心に説明する。
【0075】
図9Aは、第2の実施形態に係るウェアラブルデバイス101の概略斜視図である。また、図9Bは、第2の実施形態に係るオブジェクト認識システムの概略構成を示す機能ブロック図である。ウェアラブルデバイス101は、さらにGPS受信装置7と、地磁気センサ8と、加速度センサ9とを備えており、これらは画像処理部4に接続されている。
【0076】
GPS受信装置7は枠体1の内部に配置され、GPS衛星からの信号に基づいてウェアラブルデバイス101の位置を取得する。GPS受信装置7から出力される、ウェアラブルデバイス101の位置を示す位置情報は画像処理部4に供給される。位置情報は、例えば緯度および経度で表される。
【0077】
地磁気センサ8は枠体1の内部に配置され、地球の磁力を検知してウェアラブルデバイス101が向いている方角を取得する。地磁気センサ8は、自身が取得する方角と、ユーザが向いている方向とが一致するよう配置されるのが望ましい。地磁気センサ8から出力される、ウェアラブルデバイス101が向いている方角を示す方角情報は画像処理部4に供給される。方角情報は、例えば東西南北の4方角のいずれであるかを示してもよいし、北東・南東・南西・北西を加えた8方角のいずれであるかを示してもよいし、より細かくてもよい。
【0078】
加速度センサ9は枠体1の内部に配置され、重力加速度を検知してウェアラブルデバイス101の水平方向に対する上下方向の角度(すなわち仰俯角)を取得する。加速度センサ9から出力される、ウェアラブルデバイス101の鉛直方向の仰俯角を示す仰俯角情報は画像処理部4に出力される。仰俯角情報は、例えば水平方向を0度とし、上向きを正の角度、下向きを負の角度として表される。
【0079】
また、図9Bに示すように、本実施形態の画像処理部4はデバイス情報取得部46をさらに有する。デバイス情報取得部46は、GPS受信装置7、地磁気センサ8および加速度センサ9と接続されており、位置情報、方角情報および仰俯角情報をそれぞれから取得する。なお、以下では、位置情報、方角情報および仰俯角情報を総称してデバイス情報と呼ぶ。このデバイス情報は通信モジュール6を介してサーバ200に送信される。
【0080】
一方、本実施形態のサーバ201は、デバイス情報受信部26と、オブジェクトデータベース27と、オブジェクト候補取得部28とをさらに有する。
【0081】
デバイス情報受信部26はウェアラブルデバイス100から通信モジュール20を介してデバイス情報を受信する。
【0082】
オブジェクトデータベース27は、オブジェクトと、デバイス情報との関係を記憶している。
【0083】
図10は、オブジェクトデータベース27の構造の一例を示す図である。図示のように、デバイス情報(位置、方角および仰俯角)と、オブジェクトとの関係が記憶されている。これは、各位置から各方角および各仰俯角で見たときに、そのオブジェクトが見えることを意味している。同図の例では、ウェアラブルデバイス101の位置がAであり、ウェアラブルデバイス101が向いている方角が北西であり、仰俯角が0度であればTタワーが見えることを意味している。
【0084】
さらに、オブジェクトデータベース27には、オブジェクト名に加えて、オブジェクト画像が関連付けられている。オブジェクト画像は当該オブジェクトを正面から見た画像、右から見た画像、左から見た画像など、複数用意されているのが望ましい。
【0085】
なお、図10には少数のオブジェクトのみを示しているが、実際には多数ある。特定の位置、方角および仰俯角に複数のオブジェクトが関連付けられることもある。
【0086】
図9Bに戻り、オブジェクト候補取得部28は、デバイス情報に基づき、オブジェクトデータベース27を参照して、オブジェクト候補を取得する。オブジェクト候補は、カメラ画像に含まれている可能性が高いオブジェクトである。具体的には、オブジェクト候補取得部28は、デバイス情報と一致する、あるいは、近いオブジェクト(オブジェクト名およびオブジェクト画像)を取得する。例として、デバイス情報受信部26が受信した位置がB、方角が北、仰俯角が0度であった場合、図10を参照して、オブジェクトR,Sが取得される。
【0087】
取得されたオブジェクト候補はオブジェクト認識部24で用いられる。本実施形態におけるオブジェクト認識の手順は図13を用いて後述する。また、オブジェクト情報送信部25は、オブジェクト情報として、第1の実施形態と同様、認識されたオブジェクトのカメラ画像における位置を示してもよいし、認識されたオブジェクトが何であるか(オブジェクト名)を示してもよいし、オブジェクトデータベース27におけるオブジェクト画像を含んでいてもよい。
【0088】
図11は、第2の実施形態に係るオブジェクト認識システムの処理動作の一例を示すシーケンス図である。カメラ画像および視点情報に加え、ウェアラブルデバイス102がデバイス情報を取得し、サーバ201に送信する点(ステップS2’〜S4’)を除き、図4と同じである。
【0089】
図12は、第2の実施形態におけるオブジェクト認識処理の処理動作の一例を示すフローチャートである。まず、オブジェクト候補取得部28はデバイス情報に基づいて1または複数のオブジェクト候補を取得する(ステップS20)。ここでは、オブジェクトR,S,Tが取得されたものとする。
【0090】
次に、第1の実施形態と同様、認識領域設定部23は視点情報に基づいて認識領域の初期値を設定する(ステップS21)。
【0091】
続いて、オブジェクト認識部24は設定された認識領域内でオブジェクト認識を行う(ステップS22)。本実施形態のオブジェクト認識は、例えばパターンマッチングにより、オブジェクト候補が認識領域内に存在するか否かを判定する。本例では、認識領域内にオブジェクトR,Sのいずれかと一致するか否かが判定される。予め取得したオブジェクト候補とのパターンマッチングを行うことで、処理時間を短縮できる。
【0092】
認識領域内でオブジェクトが認識された場合(ステップS23のYES)、すなわち、オブジェクト候補のいずれかと一致した場合、ステップS24に進む。一方、認識領域内でオブジェクトが認識されなかった場合(ステップS23のNO)、すなわち、オブジェクト候補のいずれとも一致しない場合、ステップS26に進む。以降は第1の実施形態で説明したとおりである。このようにして認識されたオブジェクトを示すオブジェクト情報がウェアラブルデバイス100に送信される(図11のステップS13)。
【0093】
図13Aは、図11のステップS2で取得されるカメラ画像を模式的に示す図である。この例では、カメラ画像の右側にF山93があり、左側にTタワー94がある。そして、図11のステップS2’で取得されるデバイス情報は、位置:A、方角:北西、仰俯角0であったとする。また、ステップS2’で取得される視点情報はカメラ画像の右側を示していたとする。
【0094】
上記デバイス情報によれば、図10のオブジェクトデータベース27を参照して、F山およびTタワーがオブジェクト候補となる(図12のステップS20)。そして、視点情報がカメラ画像の右側を示すことから、結果的にはTタワーでなくF山93がオブジェクトとして認識される。
【0095】
図13Bは、透過型ディスプレイ5に表示される画像を模式的に示す図である。図示のように、F山の拡大画像95が表示される。この拡大画像95は第1と実施形態と同様に生成されたものでもよいし、オブジェクトデータベース27における画像であってもよい。また、出力部44は拡大画像95に加えてオブジェクト名96を表示させてもよい。
【0096】
このように、第2の実施形態では、デバイス情報も利用する。デバイス情報に基づいてオブジェクトの候補を取得できるため、より高精度にオブジェクトを認識できるし、処理時間も短縮できる。
【0097】
なお、オブジェクト候補を取得するためのデバイス情報として、少なくとも位置情報および方角情報を含んでいればよい。また、デバイス情報が他の情報を含んでいてもよい。
【0098】
上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうることである。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲とすべきである。
【符号の説明】
【0099】
100,101 ウェアラブルデバイス
1 枠体
2 カメラ
3 アイトラッキングモジュール
4 画像処理部
41 カメラ画像取得部
42 視点情報取得部
43 オブジェクト情報取得部
44 出力部
45 制御部
46 デバイス情報取得部
5 透過型ディスプレイ
6 通信モジュール
7 GPS受信装置
8 地磁気センサ
9 加速度センサ
200,201 サーバ
20 通信モジュール
21 カメラ画像受信部
22 視点情報受信部
23 認識領域設定部
24 オブジェクト認識部
25 オブジェクト情報送信部
26 デバイス情報受信部
27 オブジェクトデータベース
28 オブジェクト候補取得部
図1
図2A
図2B
図2C
図3
図4
図5
図6
図7
図8
図9A
図9B
図10
図11
図12
図13A
図13B