IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ キヤノンマーケティングジャパン株式会社の特許一覧 ▶ キヤノンITソリューションズ株式会社の特許一覧

特開2022-72514情報処理装置、情報処理システム、制御方法、プログラム
<>
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図1
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図2
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図3
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図4
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図5
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図6
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図7
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図8
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図9
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図10
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図11
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図12
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図13
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図14
  • 特開-情報処理装置、情報処理システム、制御方法、プログラム 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022072514
(43)【公開日】2022-05-17
(54)【発明の名称】情報処理装置、情報処理システム、制御方法、プログラム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20220510BHJP
   G06T 7/70 20170101ALI20220510BHJP
   G06F 3/04815 20220101ALI20220510BHJP
【FI】
G06T19/00 600
G06T7/70 A
G06F3/0481 150
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2020181991
(22)【出願日】2020-10-30
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
(71)【出願人】
【識別番号】390002761
【氏名又は名称】キヤノンマーケティングジャパン株式会社
(71)【出願人】
【識別番号】592135203
【氏名又は名称】キヤノンITソリューションズ株式会社
(74)【代理人】
【識別番号】100189751
【弁理士】
【氏名又は名称】木村 友輔
(72)【発明者】
【氏名】山田 望
【テーマコード(参考)】
5B050
5E555
5L096
【Fターム(参考)】
5B050AA08
5B050BA06
5B050BA07
5B050BA11
5B050BA13
5B050BA18
5B050BA20
5B050CA07
5B050CA08
5B050DA01
5B050EA19
5B050FA02
5E555AA26
5E555AA58
5E555AA63
5E555BA06
5E555BB06
5E555BC04
5E555BC08
5E555BD01
5E555BE17
5E555CA42
5E555CB48
5E555CB74
5E555CC05
5E555DB53
5E555DB56
5E555DC09
5E555DC63
5E555DD01
5E555DD08
5E555EA10
5E555EA22
5E555FA00
5L096AA06
5L096CA02
5L096DA01
5L096FA66
5L096FA67
5L096FA69
5L096GA51
5L096GA53
(57)【要約】
【課題】本発明では、収集したイベントの発生箇所を直観的に知らせる仕組みを提供することを目的とする。
【解決手段】本発明は、空間内の位置および方向を認識可能な特徴物の画像を含む画像を取得する情報処理装置であって、空間内のイベント発生箇所と前記特徴物との相対位置関係を取得する取得手段と、前記画像から認識した特徴物の位置および方向と前記相対位置関係とに基づいて、前記イベント発生箇所が前記画像の範囲内に存在するかを判定する判定手段と、前記イベント発生箇所が前記画像の範囲内に存在しないと判定された場合に、前記画像に前記イベント発生箇所の位置を示す情報を表示する表示制御手段とを備えることを特徴とする。
【選択図】図1
【特許請求の範囲】
【請求項1】
空間内の位置および方向を認識可能な特徴物の画像を含む画像を取得する情報処理装置であって、
空間内のイベント発生箇所と前記特徴物との相対位置関係を取得する取得手段と、
前記画像から認識した特徴物の位置および方向と前記相対位置関係とに基づいて、前記イベント発生箇所が前記画像の範囲内に存在するかを判定する判定手段と、
前記イベント発生箇所が前記画像の範囲内に存在しないと判定された場合に、前記画像に前記イベント発生箇所の位置を示す情報を表示する表示制御手段と
を備えることを特徴とする情報処理装置。
【請求項2】
前記表示制御手段は、前記イベント発生箇所の位置に対する方向と距離の情報を表示することを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記表示制御手段は、前記イベント発生箇所の位置を示すマップを表示することを特徴とする請求項1または2に記載の情報処理装置。
【請求項4】
空間内に複数の特徴物が配置されることを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。
【請求項5】
空間内の位置および方向を認識可能な特徴物の画像を含む画像を取得する情報処理システムであって、
空間内のイベント発生箇所と前記特徴物との相対位置関係を取得する取得手段と、
前記画像から認識した特徴物の位置および方向と前記相対位置関係とに基づいて、前記イベント発生箇所が前記画像の範囲内に存在するかを判定する判定手段と、
前記イベント発生箇所が前記画像の範囲内に存在しないと判定された場合に、前記画像に前記イベント発生箇所の位置を示す情報を表示する表示制御手段と
を備えることを特徴とする情報処理システム。
【請求項6】
空間内の位置および方向を認識可能な特徴物の画像を含む画像を取得する情報処理装置の制御方法であって、
取得手段が、空間内のイベント発生箇所と前記特徴物との相対位置関係を取得する取得ステップと、
判定手段が、前記画像から認識した特徴物の位置および方向と前記相対位置関係とに基づいて、前記イベント発生箇所が前記画像の範囲内に存在するかを判定する判定ステップと、
表示制御手段が、前記イベント発生箇所が前記画像の範囲内に存在しないと判定された場合に、前記画像に前記イベント発生箇所の位置を示す情報を表示する表示制御ステップと
を備えることを特徴とする情報処理装置の制御方法。
【請求項7】
空間内の位置および方向を認識可能な特徴物の画像を含む画像を取得する情報処理装置において実行可能なプログラムであって、
前記情報処理装置を、
空間内のイベント発生箇所と前記特徴物との相対位置関係を取得する取得手段と、
前記画像から認識した特徴物の位置および方向と前記相対位置関係とに基づいて、前記イベント発生箇所が前記画像の範囲内に存在するかを判定する判定手段と、
前記イベント発生箇所が前記画像の範囲内に存在しないと判定された場合に、前記画像に前記イベント発生箇所の位置を示す情報を表示する表示制御手段
として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、イベントの発生箇所を表示制御する技術に関する。
【背景技術】
【0002】
AR(Augumented Rearlity;拡張現実)では、表示装置に現実環境の映像に拡張した情報を付加して表示するが、基本的には現在表示している範囲のみにしか拡張した情報は表示されない。しかし、現在表示している範囲外で注意が必要なイベントが発生した場合、イベントが発生している場所にユーザの注意を向けさせる必要がある。
【0003】
特許文献1では、運転者のアイポイントを検出し、アイポイントが拡張現実の可視範囲の最適範囲にあるとき、拡張現実の表示が欠損する方向への強調表示や頭部を誘導するための表示を行い、アイポイントが最適範囲から逸脱する場合にはそのような表示を行わない技術が開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-18770号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1の技術では、運転者の前方のフロントガラスに表示されるヘッドアップディスプレイを対象としているため、運転者の視線が同ディスプレイを視認可能な範囲から逸脱した場合に情報表示を停止しているが、タブレットやスマートフォンのような携帯端末のディスプレイに表示する場合には、ユーザは常にディスプレイを視認可能であり、かつ、携帯端末本体を移動させて表示範囲を変更させることができるため、拡張現実の表示が欠損した場合には、欠損する方向や、携帯端末本体を誘導するための情報を常に表示する必要がある。
【0006】
また、特定のイベントの発生を監視するような場合、当該イベントに関する情報を拡張表示する際に、イベントの発生箇所がディスプレイの表示範囲内か表示範囲外かにかかわらず、ユーザに的確に知らせる必要がある。
【0007】
本発明では、収集したイベントの発生箇所を直観的に知らせる仕組みを提供することを目的とする。
【課題を解決するための手段】
【0008】
本発明は、 空間内の位置および方向を認識可能な特徴物の画像を含む画像を取得する情報処理装置であって、空間内のイベント発生箇所と前記特徴物との相対位置関係を取得する取得手段と、前記画像から認識した特徴物の位置および方向と前記相対位置関係とに基づいて、前記イベント発生箇所が前記画像の範囲内に存在するかを判定する判定手段と、前記イベント発生箇所が前記画像の範囲内に存在しないと判定された場合に、前記画像に前記イベント発生箇所の位置を示す情報を表示する表示制御手段とを備えることを特徴とする。
【発明の効果】
【0009】
本発明により、収集したイベントの発生箇所を直観的に知らせる仕組みを提供することが可能となる。
【図面の簡単な説明】
【0010】
図1】本発明のARを用いたエラー情報ガイド表示システムの構成の一例を示すシステム構成図である。
図2】本発明のARを用いたエラー情報ガイド表示システムのクライアント端末に適用可能なハードウェア構成の一例である。
図3】本発明のARを用いたエラー情報ガイド表示システムのサーバに適用可能なハードウェア構成の一例である。
図4】本発明のARを用いたエラー情報ガイド表示システムにおけるエラー情報ガイド処理の一例を示すフローチャートである。
図5】本発明のARを用いたエラー情報ガイド表示システムにおけるマスタARマーカテーブルの一例を示すデータ構成図である。
図6】本発明のARを用いたエラー情報ガイド表示システムにおけるサブARマーカテーブルの一例を示すデータ構成図である。
図7】本発明のARを用いたエラー情報ガイド表示システムにおける端末情報テーブルの一例を示すデータ構成図である。
図8】本発明のARを用いたエラー情報ガイド表示システムにおける端末パラメータテーブルの一例を示すデータ構成図である。
図9】本発明のARを用いたエラー情報ガイド表示システムにおける注視点ベクトルテーブルの一例を示すデータ構成図である。
図10】本発明のARを用いたエラー情報ガイド表示システムにおけるセンサ情報テーブルの一例を示すデータ構成図である。
図11】本発明のARを用いたエラー情報ガイド表示システムにおけるマーカ位置座標テーブルの一例を示すデータ構成図である。
図12】本発明のARを用いたエラー情報ガイド表示システムにおけるガイドベクトルテーブルの一例を示すデータ構成図である。
図13】本発明のARを用いたエラー情報ガイド表示システムにおけるARスキャン時にARマーカを読み取る際の画面表示イメージである。
図14】本発明のARを用いたエラー情報ガイド表示システムにおける画面外でエラーが発生した際のガイド表示画面例である。
図15】本発明のARを用いたエラー情報ガイド表示システムにおける画面内にエラー箇所が存在する際の表示画面例である。
【発明を実施するための形態】
【0011】
以下、図面を参照して、本発明の実施形態を詳細に説明する。
【0012】
図1は、本発明のARを用いたエラー情報ガイド表示システムの構成の一例を示すシステム構成図である。
図1は、ローカル環境にある治具/各種Device100のデータを、クラウド環境にあるサーバ103にインターネット接続105を用いてアップロードを行う。その後、ローカル環境にあるクライアント端末102からWi-Fi/Sim通信を用いてアップロードされたデータを取得し、ARを実現する構成となっている。
【0013】
OPCサーバ101は、治具/各種Device100から送られてくるデータを、それぞれのプロトコルを使用してサーバ内に集約し、インターネット接続105経由で通信を行うサーバである。
【0014】
クラウド環境内のサーバ103は、ローカル環境にあるOPCサーバ101と通信を行い、必要に応じてデータの加工をし、配信用サーバ104にデータを渡すサーバである。
【0015】
ローカル環境にあるクライアント端末102は、インターネット接続105経由で配信用サーバ104内のデータを取得する。取得したそのデータを端末内で表示するAR表示用端末である。
【0016】
以上で、図1に示すシステム構成図に関する説明を終了する。
【0017】
以下、図2を用いて、図1に示したクライアント端末102に適用可能なハードウェア構成について説明する。
【0018】
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
【0019】
また、ROM202あるいはフラッシュメモリ214には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムプログラム(以下、OS)や、当該クライアント端末が実行する機能を実現するために必要な、後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。
【0020】
CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
【0021】
また、入力コントローラ205は、タッチパネル210、マイク211、カメラ212からの入力を制御する。タッチパネル210からはユーザのタッチ操作に関する入力を制御し、マイク211からは音声の入力を制御し、カメラ212からは撮影された静止画、動画の入力を制御する。出力コントローラ206は、タッチパネル210、スピーカ213への出力を制御する。
【0022】
タッチパネル210は、ユーザからのタッチ操作を検知すると共に、前述した出力コントローラ206から送られた映像を表示する。タッチパネル210は、表示器と位置入力装置とが一体となった部品である。複数の箇所に対するタッチ操作(以下、マルチタッチ)も検知可能である。
【0023】
メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するフラッシュメモリ214へのアクセスを制御する。本実施形態においては、フラッシュメモリとして説明を行うが、ハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の記憶媒体であってもよい。
【0024】
通信I/Fコントローラ209は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。
【0025】
センサコントローラ208は、クライアント端末102が備える内蔵センサ215からの入力を制御する。クライアント端末102の内蔵センサ215には様々なセンサが存在し、例えば方位センサ、加速度センサである。
【0026】
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、タッチパネル210上での表示を可能としている。
【0027】
本発明のクライアント端末102が後述する各種処理を実行するために用いられる各種プログラム等はフラッシュメモリ214に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルはフラッシュメモリ214に格納されている。
【0028】
以上で、図2の説明を終了する。上記の構成は一例であって、目的や用途に応じて適宜変更されうる。
【0029】
以下、図3を用いて、図1に示したOPCサーバ101、サーバ103、配信用サーバ104に適用可能なハードウェア構成について説明する。
【0030】
図3に示すように、各サーバは、システムバス304を介してCPU(Central Processing Unit)301、RAM(Random Access Memory)302、ROM(Read Only Memory)303、入力コントローラ305、ビデオコントローラ306、メモリコントローラ307、通信I/Fコントローラ308等が接続された構成を採る。
【0031】
CPU301は、システムバス304に接続される各デバイスやコントローラを統括的に制御する。
【0032】
また、ROM302あるいは外部メモリ311には、CPU301の制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、各情報処理装置が実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。また、本発明を実施するために必要な情報が記憶されている。なお外部メモリはデータベースであってもよい。
【0033】
RAM303は、CPU301の主メモリ、ワークエリア等として機能する。CPU301は、処理の実行に際して必要なプログラム等をROM302あるいは外部メモリ311からRAM303にロードし、ロードしたプログラムを実行することで各種動作を実現する。
【0034】
また、入力コントローラ305は、キーボード(KB)309や不図示のマウス等のポインティングデバイス等からの入力を制御する。
【0035】
ビデオコントローラ306は、ディスプレイ310等の表示器への表示を制御する。尚、表示器は液晶ディスプレイ等の表示器でもよい。これらは、必要に応じて管理者が使用する。
【0036】
メモリコントローラ307は、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、あるいは、PCMCIA(Personal Computer Memory Card International Association)カードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ311へのアクセスを制御する。
【0037】
通信I/Fコントローラ308は、ネットワークを介して外部機器と接続・通信し、ネットワークでの通信制御処理を実行する。例えば、TCP/IP(Transmission Control Protocol/Internet Protocol)を用いた通信等が可能である。
【0038】
尚、CPU301は、例えばRAM303内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ310上に表示することが可能である。また、CPU301は、ディスプレイ310上のマウスカーソル(図示しない)等によるユーザ指示を可能とする。
【0039】
本発明を実現するための後述する各種プログラムは、外部メモリ311に記録されており、必要に応じてRAM303にロードされることによりCPU301によって実行されるものである。
【0040】
以上で、図3の説明を終了する。上記の構成は一例であって、目的や用途に応じて適宜変更されうる。
【0041】
以下、図4を参照して、本発明のARを用いたエラー情報ガイド表示システムにおけるガイド情報表示処理について説明する。
【0042】
本処理はAR表示用端末内にインストールされているARアプリケーションを通して実施され、アプリケーション起動を行うとARマーカ読み取り画面が表示される(図13)。なお、端末パラメータテーブル(図8)はフローチャート処理とは別に、端末に取り付けられている各種センサ(加速度センサなど)から撮影時常に更新が行われている。また、センサ情報テーブル(図10)は、治具/各種Device100に取り付けられたセンサよりセンサ値を随時取得し更新されている。
【0043】
ステップS401では、ARコンテンツで表示するコンテンツ内容をローカル環境の開発ソフトウェア上にて定義し、ARマーカに紐づけを行う。
【0044】
ステップS402では、ARスキャンするために必要なARマーカを適切な場所に設置を行う。サブARマーカは位置補正に用いるため、センサを映した際に画面内に入る位置に設置を行う。
【0045】
ステップS403では、上記ARマーカ読み取り画面(図13)にて、ユーザが現実世界に存在するARマーカを画面内の四角形に収める。スキャンが成功するとARマーカに紐づけられている情報(図5:マスタARマーカテーブル)を取得する。マスタARマーカが画面外に出た際、画面内に表示されているサブARマーカを用いてセンサ位置の補正を行う。
【0046】
ステップS404では、ステップS403にてスキャンした情報(図5:マスタARマーカテーブル)を参照し、センサの情報(センサID、センサ座標)を取得する。
【0047】
ステップS405では、端末情報テーブル(図7)より、端末自身の情報を取得する。
【0048】
ステップS406では、ステップS405にて取得した視野角より、端末視野を算出する。
【0049】
ステップS407では、端末パラメータテーブル(図8)より、端末が向いている方角、端末自身の傾きを取得する。
【0050】
ステップS408では、端末パラメータテーブル(図8)より、端末の位置情報を取得する。
【0051】
ステップS409では、端末パラメータテーブル(図8)から端末が現在表示している画面のベクトル(注視点)を算出し、注視点ベクトルテーブル(図9)に登録を行う。
【0052】
ステップS410では、ARマーカの位置座標を決める処理と、それに紐づくセンサの位置座標から2Dマップを作成・更新する処理を行う。
【0053】
まず、端末パラメータテーブル(図8)から取得する情報より、ARマーカの位置座標を算出する。端末パラメータテーブル内の各種センサ値から算出される方角、傾き、焦点距離から求まる端末距離の3つの情報よりARマーカの位置を特定する。値はマーカ位置座標テーブル(図11)に登録する。なお、この時登録されるARマーカの座標は絶対座標として登録する。
【0054】
次に、ステップS403にて取得したマスタARマーカテーブル(図5)に紐づけられたセンサ情報(ARマーカからの相対座標)と、先ほど算出したARマーカの位置座標を用いて、センサの絶対座標を算出し、その値をマーカ位置座標テーブル(図11)に登録を行う。マーカ位置座標テーブル(図11)より、マーカ位置、それに紐づく各センサの位置、ステップS408で取得した端末自身の位置、ステップ406で取得した端末の視野を2Dマップ上にマッピングを行う。視野内に存在しないセンサは、センサ情報テーブル(図10)内の視野内判定列に「False」に更新する。視野内に存在するセンサは「True」に更新する。
【0055】
ステップS411でマスタARマーカまたは、サブARマーカに紐づけられているセンサIDをもとに、センサ情報テーブル(図10)内のセンサ値とエラー情報を取得する。
【0056】
ステップS412でステップS406にて取得したエラー情報がTrueを示していた場合、ステップS413に、Falseを示していた場合はステップS407に処理を分岐させる。
【0057】
ステップS413でステップS410にて取得した視野内判定がTrueを示していた場合、ステップS415に、Falseを示していた場合はステップS414に処理を分岐させる。
【0058】
ステップS414ではマーカ位置座標テーブル(図11)より、エラー発生センサへのガイドベクトルを取得して表示する。マーカ座標を始点、エラー発生センサ座標を終点としたベクトル、その距離を算出し、ガイドベクトルテーブル(図12)に登録を行う。そのガイドベクトルを画面に表示する。
【0059】
なお、表示するガイドベクトルはそのまま結ぶと画面外に出てしまうためスケールは固定とする。また、この際、画面上に残り距離として、ガイドベクトルテーブル(図12)の距離(cm)列の値を表示する。
視野外にある場合は表示画面例1(図14)を表示する。表示画面例1では、ガイドベクトルを矢印で表示し、さらにマップ画面でセンサの位置を星印で表示する。
【0060】
以降、ガイド表示にて端末の方向を誘導しながら、エラー発生センサが視野内に入るまで、ステップS407から処理を繰り返す。
【0061】
ステップS415では上記ステップによって、エラーが発生している地点まで誘導を行った後、エラーが発生しているセンサを画面内に収めたときに、表示画面例2(図15)を表示する。表示画面例2では、エラーが発生しているセンサに対応するオブジェクトを強調表示する。また表示画面例1と同様に、マップ画面でセンサの位置を表示してもよい。
【0062】
以下、本システムで使用するデータ類の一例について説明する。
【0063】
図5に示すように、マスタARマーカテーブルはマスタマーカID501、センサA_ID502、センサA座標503(X,Y,Z)、センサB_ID504、センサB座標505(X,Y,Z)、センサC_ID506、センサC座標507(X,Y,Z)の情報から構成される。
【0064】
本実施例では、マスタARマーカに対してすべてのセンサ情報が直接紐づいているが、センサごとにマスタARマーカを設置してもよい。マーカの位置に対するセンサ位置が定義されているため、マーカの位置を特定すれば、センサの位置も算出される。
【0065】
図6に示すように、サブARマーカテーブルはサブマーカID601、センサID602、センサ相対座標603(X,Y,Z)から構成される。マスタARマーカが画面外に出てしまった際の位置補正に使用する。そのため同じような構成になっている。本実施例では、サブARマーカをセンサに対応付けているが、まずサブARマーカをマスタARマーカに対応付けて、マスタARマーカを介して間接的にセンサに対応付けるようにしてもよい。
【0066】
図7に示すように、端末情報テーブルは端末ID701、端末名702、端末視野角(水平)703、焦点距離704の情報から構成される。
各メーカーが公表している端末の情報を登録しておく。
【0067】
図8に示すように、端末パラメータテーブルは端末ID801、地磁気センサから公知の方法により算出する各軸方向の方角802(方角X、方角Y、方角Z)、加速度センサから公知の方法により算出する各軸方向の傾き803(傾きX、傾きY、傾きZ)、端末位置座標804(端末位置座標X、端末位置座標Y、端末位置座標Z)の情報から構成される。端末の位置情報に関してはBluetooth信号の強度の強弱を利用したビーコン測位技術を用いて取得する。
【0068】
図9に示すように、注視点ベクトルテーブルは端末注視点座標901(端末注視点座標X、端末注視点座標Y、端末注視点座標Z)の情報から構成される。図8の端末パラメータテーブルに格納してある方角・傾きを用いて端末の注視点座標を算出する。
【0069】
図10に示すように、センサ情報テーブルはセンサID1001、センサ種類1002、センサ値1003、エラー情報1004、視野内判定1005の情報から構成される。装置に設置してある各種センサの値を取得して、マイコンから送信する。マイコンで送信する際に設定した閾値を超えていた場合はエラーとみなし、エラー情報の値をTrueにする。平常時はFalseとして処理する。2Dマップ作成時に端末の視野内にセンサが存在する場合、視野内判定の値をTrueに、存在しない場合はFalseを設定する。
【0070】
図11に示すように、マーカ位置座標テーブルはマーカ座標1101(マーカ座標X、マーカ座標Y、マーカ座標Z)、センサA座標1102(センサA座標X、センサA座標Y、センサA座標Z)、センサB座標1103(センサB座標X、センサB座標Y、センサB座標Z)、センサC座標1104(センサC座標X、センサC座標Y、センサC座標Z)の情報から構成される。ARスキャンした時点の端末のパラメータを用いて、マーカ位置の絶対座標として登録し、マーカに紐づけられた相対座標から各センサ地点の絶対座標を決定する。
【0071】
図12に示すように、ガイドベクトルテーブルはセンサ座標1201(センサ座標X、センサ座標Y、センサ座標Z)、距離(cm)1202の情報から構成される。
【0072】
マーカ位置座標テーブルに登録されているARマーカの位置情報を始点、センサの座標を終点としたベクトルと、その距離をそれぞれ登録する。
【0073】
上記により、エラー発生箇所が視野外となる場合でも、適切に端末方向を誘導することが可能となる。
【0074】
また本実施例では、AR(拡張現実)を対象にARマーカを認識するようにしたが、撮影された動画や静止画から、空間内の位置および方向を特定できる任意の物体を認識するようにしてもよい。
【0075】
いくつかの実施形態について示したが、本発明は、例えば、システム、装置、方法、コンピュータプログラムもしくは記録媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
【0076】
また、本発明におけるコンピュータプログラムは、図4に示すフローチャートの処理方法をコンピュータが実行可能なコンピュータプログラムであり、本発明の記憶媒体は図4の処理方法をコンピュータが実行可能なコンピュータプログラムが記憶されている。なお、本発明におけるコンピュータプログラムは図4の各装置の処理方法ごとのコンピュータプログラムであってもよい。
【0077】
以上のように、前述した実施形態の機能を実現するコンピュータプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたコンピュータプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。
【0078】
この場合、記録媒体から読み出されたコンピュータプログラム自体が本発明の新規な機能を実現することになり、そのコンピュータプログラムを記憶した記録媒体は本発明を構成することになる。
【0079】
コンピュータプログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、DVD-ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。
【0080】
また、コンピュータが読み出したコンピュータプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのコンピュータプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0081】
さらに、記録媒体から読み出されたコンピュータプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのコンピュータプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0082】
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にコンピュータプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのコンピュータプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
【0083】
さらに、本発明を達成するためのコンピュータプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。
【符号の説明】
【0084】
101 OPCサーバ
102 クライアント端末
103 サーバ
104 配信用サーバ
105 インターネット接続
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15