IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社NTTコノキューの特許一覧

<>
  • 特開-制御装置及び制御方法 図1
  • 特開-制御装置及び制御方法 図2
  • 特開-制御装置及び制御方法 図3
  • 特開-制御装置及び制御方法 図4
  • 特開-制御装置及び制御方法 図5
  • 特開-制御装置及び制御方法 図6
  • 特開-制御装置及び制御方法 図7
  • 特開-制御装置及び制御方法 図8
  • 特開-制御装置及び制御方法 図9
  • 特開-制御装置及び制御方法 図10
  • 特開-制御装置及び制御方法 図11
  • 特開-制御装置及び制御方法 図12
  • 特開-制御装置及び制御方法 図13
  • 特開-制御装置及び制御方法 図14
  • 特開-制御装置及び制御方法 図15
  • 特開-制御装置及び制御方法 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025145162
(43)【公開日】2025-10-03
(54)【発明の名称】制御装置及び制御方法
(51)【国際特許分類】
   G06F 3/01 20060101AFI20250926BHJP
   G06F 3/0346 20130101ALI20250926BHJP
【FI】
G06F3/01 510
G06F3/0346 423
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2024045200
(22)【出願日】2024-03-21
(71)【出願人】
【識別番号】522470080
【氏名又は名称】株式会社NTTコノキュー
(74)【代理人】
【識別番号】110003177
【氏名又は名称】弁理士法人旺知国際特許事務所
(72)【発明者】
【氏名】西▲崎▼ 達哉
(72)【発明者】
【氏名】森永 康夫
(72)【発明者】
【氏名】長谷川 貴哉
(72)【発明者】
【氏名】高橋 勇気
【テーマコード(参考)】
5B087
5E555
【Fターム(参考)】
5B087AA09
5B087BC05
5B087BC32
5E555AA12
5E555AA64
5E555BA02
5E555BA38
5E555BB02
5E555BB38
5E555BC07
5E555BC13
5E555BE17
5E555CA42
5E555CA44
5E555CB65
5E555CB66
5E555CC03
5E555DA09
5E555DB06
5E555DB53
5E555DC13
5E555DD06
5E555DD07
5E555EA11
5E555EA22
5E555FA00
(57)【要約】
【課題】透過型ウェアラブルデバイスと電子デバイスとを共通の操作用デバイスにより、容易に操作することができる。
【解決手段】取得部111は、行動情報と画像情報とを取得する。行動情報は、MRグラス10を装着したユーザUが端末装置20を利用する意思を示すユーザUの行動に関する情報である。画像情報は、ユーザU前方の領域に関する情報である。切替部113は、画像情報が示す画像に端末装置20の画像が含まれ、且つ行動情報に基づいてユーザUが端末装置20を利用する意思があると認められる場合、操作用デバイス30によって操作される操作対象をMRグラス10から端末装置20に切り替える。
【選択図】図14
【特許請求の範囲】
【請求項1】
透過型ウェアラブルデバイスを装着したユーザが第1デバイスを利用する意思を示す前記ユーザの行動に関する行動情報と、前記ユーザ前方の領域の画像に関する画像情報とを取得する取得部と、
前記画像情報が示す画像に前記第1デバイスの画像が含まれ、且つ前記行動情報に基づいて前記ユーザが前記第1デバイスを利用する意思があると認められる場合、前記透過型ウェアラブルデバイスと前記第1デバイスとをそれぞれ制御可能な操作用デバイスによって操作される操作対象を前記透過型ウェアラブルデバイスから前記第1デバイスに切り替える切替部と、
を備える、
制御装置。
【請求項2】
前記行動情報は、前記ユーザの視線に関する情報である、
請求項1に記載の制御装置。
【請求項3】
前記行動情報に基づいて前記ユーザが前記第1デバイスを利用する意思があると認められる場合とは、一定期間、前記ユーザの前記視線が前記第1デバイスに向いている場合である、
請求項2に記載の制御装置。
【請求項4】
前記行動情報は、前記ユーザが前記透過型ウェアラブルデバイスの表示面上のポインタで指し示した位置に関するポインタ情報である、
請求項1に記載の制御装置。
【請求項5】
前記行動情報に基づいて前記ユーザが前記第1デバイスを利用する意思があると認められる場合とは、一定期間、前記ポインタと前記第1デバイスとが前記ユーザの視線上において重なっている場合である、
請求項4に記載の制御装置。
【請求項6】
前記操作用デバイスは、前記ユーザにより把持され、本体の姿勢を変更することによって前記ユーザが行う操作を受け付ける、
請求項1に記載の制御装置。
【請求項7】
透過型ウェアラブルデバイスを装着したユーザが第1デバイスを利用する意思を示す前記ユーザの行動に関する行動情報と、前記ユーザ前方の領域の画像に関する画像情報とを取得し、
前記画像情報が示す画像に前記第1デバイスの画像が含まれ、且つ前記行動情報に基づいて前記ユーザが前記第1デバイスを利用する意思があると認められる場合、前記透過型ウェアラブルデバイスと前記第1デバイスとをそれぞれ制御可能な操作用デバイスによって操作される操作対象を前記透過型ウェアラブルデバイスから前記第1デバイスに切り替える、
制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、制御装置及び制御方法に関する。
【背景技術】
【0002】
ARグラス等の透過型ウェアラブルデバイスを頭部に装着したユーザが、透過型ウェアラブルデバイス越しにPC等の電子デバイスを操作することがある。例えば特許文献1は、装着型表示装置の姿勢及び情報処理装置の姿勢に基づく装着型表示装置と情報処理装置との相対的な配置関係に応じて、装着型表示装置における表示態様を変化させる表示システムを開示している。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2021-56371号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来の表示システムでは、ユーザは、透過型ウェアラブルデバイスを操作する操作用デバイスと電子デバイスを操作する操作用デバイスとを併用する必要があるため、操作が煩わしいという課題があった。
【0005】
本発明は、上記のような課題を解決するために為されたものであり、透過型ウェアラブルデバイスと電子デバイスとを共通の操作用デバイスにより、容易に操作可能にすることを目的とする。
【課題を解決するための手段】
【0006】
本発明の好適な態様に係る制御装置は、透過型ウェアラブルデバイスを装着したユーザが第1デバイスを利用する意思を示す前記ユーザの行動に関する行動情報と、前記ユーザ前方の領域の画像に関する画像情報とを取得する取得部と、前記画像情報が示す画像に前記第1デバイスの画像が含まれ、且つ前記行動情報に基づいて前記ユーザが前記第1デバイスを利用する意思があると認められる場合、前記透過型ウェアラブルデバイスと前記第1デバイスとをそれぞれ制御可能な操作用デバイスによって操作される操作対象を前記透過型ウェアラブルデバイスから前記第1デバイスに切り替える切替部と、を備える。
【0007】
本発明の好適な態様に係る制御方法は、透過型ウェアラブルデバイスを装着したユーザが第1デバイスを利用する意思を示す前記ユーザの行動に関する行動情報と、前記ユーザ前方の領域の画像に関する画像情報とを取得し、前記画像情報が示す画像に前記第1デバイスの画像が含まれ、且つ前記行動情報に基づいて前記ユーザが前記第1デバイスを利用する意思があると認められる場合、前記透過型ウェアラブルデバイスと前記第1デバイスとをそれぞれ制御可能な操作用デバイスによって操作される操作対象を前記透過型ウェアラブルデバイスから前記第1デバイスに切り替える。
【発明の効果】
【0008】
本発明に係る制御装置によれば、透過型ウェアラブルデバイスと電子デバイスとを共通の操作用デバイスにより、容易に操作することができる。
【図面の簡単な説明】
【0009】
図1】第1実施形態に係る制御装置を含む制御システムの全体構成を示す図である。
図2図1の制御システムの利用状況を示す図である。
図3図1のMRグラスの外観を示す斜視図である。
図4】MRグラスの表示面に表示される画像の一例である。
図5図1のMRグラスの構成例を示すブロック図である。
図6図1の端末装置の構成例を示すブロック図である。
図7図1の操作用デバイスの外観を示す斜視図である。
図8図1の操作用デバイスの構成例を示すブロック図である。
図9】初期設定時における操作用デバイスの長手方向を示す図である。
図10】方向LVを回転軸とする操作用デバイスの回転の一例を示す図である。
図11】方向LHを回転軸とする操作用デバイスの回転の一例を示す図である。
図12】端末装置、MRグラス、及び左右眼球の位置関係を示す平面図である。
図13】操作用デバイスによる端末装置の操作方法を説明する図である。
図14図5の処理装置の切替動作の一例を示すフローチャートである。
図15】変形例1に係る処理装置の切替動作の一例を示すフローチャートである。
図16】変形例2に係る制御装置を含む制御システムの全体構成を示す図である。
【発明を実施するための形態】
【0010】
1.第1実施形態
以下、図1図14を参照することにより、本発明の第1実施形態に係る制御装置の構成について説明する。
【0011】
1.1.第1実施形態の構成
1.1.1.全体構成
図1は、第1実施形態に係る制御装置を含む制御システム1の全体構成を示す図である。図2は、図1の制御システム1の利用状況を示す図である。制御システム1は、AR(Augmented Reality)技術を用いてユーザUに視認される補助画像を仮想オブジェクトとして外界画像に重畳することによって得られる画像を表示し、表示された画像を見ながらユーザUが行う操作を補助するシステムである。
【0012】
制御システム1は、MR(Mixed Reality)グラス10、端末装置20、及び操作用デバイス30を備えている。ユーザUは、操作用デバイス30を把持し、且つ頭部にMRグラス10を装着している。
【0013】
MRグラス10は、ユーザUの頭部に装着されるウェアラブルディスプレイデバイスである。MRグラス10は、ユーザUの両眼に対応する各レンズにそれぞれ設けられている表示パネルに仮想オブジェクトを表示させる。MRグラス10の各レンズ及び表示パネルはシースルーである。従って、MRグラス10を装着したユーザUは、MRグラス10の各レンズ及び表示パネル越しに現実空間を外界画像として視認可能である。外界画像は、ユーザUの周囲を撮像することによって得られる仮想的な画像であってもよい。現実の外界画像を用いる方式は、光学シースルー方式と称される。仮想的な外界画像を用いる方式は、ビデオシースルー方式と称される。以下の説明では、MRグラス10は、光学シースルー方式を採用しているとして説明する。MRグラス10は、透過型ウェアラブルデバイスの一例である。
【0014】
端末装置20は、パーソナルコンピュータ、タブレット端末、スマートフォン、スマートウォッチ等を含む。端末装置20は、第1デバイスの一例である。
【0015】
操作用デバイス30は、ユーザUにより把持される。操作用デバイス30は、操作用デバイス30本体の姿勢を変更することによってユーザUが行う操作を受け付ける装置である。操作用デバイス30は、MRグラス10と端末装置20とをそれぞれ制御可能である。
【0016】
制御システム1において、MRグラス10と操作用デバイス30とは互いに通信可能に接続されており、端末装置20と操作用デバイス30とは互いに通信可能に接続されている。
【0017】
1.1.2.MRグラスの構成
図3は、図1のMRグラス10の外観を示す斜視図である。MRグラス10は、テンプル94Lと、テンプル94Rと、ブリッジ96と、投射光学系98Lと、投射光学系98Rと、音出力装置18とを備える。以下の説明では、同種の要素を区別する場合には、テンプル94Lにおける「L」、テンプル94Rにおける「R」のようなサフィックスが使用される。同種の要素を区別しない場合には、テンプル94のように、サフィックスを有さない共通番号だけが使用される。
【0018】
テンプル94は、耳介によって支えられる棒状の部品である。ブリッジ96は、投射光学系98Lと投射光学系98Rとの間に配置される。投射光学系98は、表示装置17と、導光路981と、ハーフミラー982とを有する。ブリッジ96には、撮像装置15が設けられている。撮像装置15は、ユーザU前方の外界を撮像する。
【0019】
表示装置17は、テンプル94内に配置される。表示装置17は、画像を表示する。表示装置17は、例えば、液晶パネル及び有機EL(Electro Luminescence)パネル等の各種の表示パネルを有する。表示装置17が画像を表示すると、画像を表す光が表示装置17から出射される。表示装置17から出射された光は、導光路981によってハーフミラー982に導かれる。ハーフミラー982は、導光路981によって導かれた光を反射する。ハーフミラー982によって反射された光は、ユーザUの網膜に投射される。この光によって、ユーザUは、画像を認識する。ハーフミラー982は、ユーザと対向する面を有する。以下、この面を「表示面SC」と称する。表示装置17が画像を表示しない場合、ユーザUは、ハーフミラー982を通して外界を見ることができる。
【0020】
音出力装置18は、テンプル94の側面に配置される。音出力装置18は、音を出力する。
【0021】
図4は、MRグラス10の表示面SCに表示される画像の一例である。表示面SCは、現実の外界画像に、ポインタP1と、文字入力画像80と、が重畳された画像を表示する。表示面SCに表示される画像を、以下、「表示画像」と称する。図4に示される表示画像では、文字入力画像80にポインタP1が重畳されている。ポインタP1及び文字入力画像80は、AR空間上の仮想オブジェクトである。表示面SCは、平面又は曲面である。現実の外界画像には、端末装置20が含まれる。端末装置20の表示部DPには、風景写真の壁紙にWebブラウザのウィンドウが開いている。
【0022】
ユーザUは、現実の空間内に文字入力画像80及びポインタP1が表示されたような画像を見ることができる。ユーザUが認識する文字入力画像80の位置は、導光路981の形状及びハーフミラー982の形状によって決定される。以下では、説明の簡略化のため、表示面SCが平面であるとする。表示面SC上のX軸とY軸とは、図4に示されるように、互いに直交する。X軸は表示面SCの横方向と平行であり、Y軸は表示面SCの高さ方向と平行である。
【0023】
文字入力画像80は、入力文字領域81と、文字入力のための複数のボタン82とを有する。図4では、図面の煩雑化を抑えるため、複数のボタン82のうち一部のボタン82に符号が付されている。
【0024】
入力文字領域81は、ユーザUが入力した文字列を表示する領域である。ボタン82は、ボタン82に対するタップ操作によってボタン82に応じた所定処理が実行されることを示す画像である。ボタン82に応じた所定処理は、例えば、「1」を入力文字領域81に記載する処理、及び、入力文字領域81に表示された文字列を1文字削除する処理等である。所定処理を実行するかをユーザUに理解させるため、ボタン82は、ボタン82に応じた所定処理の内容を示唆する画像又は記号を有する。
【0025】
図4は、「123」と入力しようとするユーザが「12」までの入力を行った状況を示す。図4は、さらに、ポインタP1が、「3」を示すボタン82に位置していることを示す。ポインタP1の位置は、操作用デバイス30の姿勢に応じて決定される。「3」を示すボタン82にポインタP1が位置する状態において、ユーザUが操作用デバイス30へのタップ操作を行うと、MRグラス10は、「3」を示すボタン82に応じた所定処理として、「3」を入力文字領域81に記載した画像を示す画像情報を生成する。MRグラス10は、生成した画像情報が示す表示画像を表示面SCに表示する。
【0026】
以上の構成により、ユーザUは、MRグラス10を頭部に装着することにより、左眼用及び右眼用それぞれの表示パネルに表示される画像を、外界の様子と重ね合わせて観察することができる。また、MRグラス10は、視差を伴う両眼画像のうち、左眼用画像を左眼用の表示パネルに表示させ、右眼用画像を右眼用の表示パネルに表示させる。これにより、MRグラス10は、ユーザUに対し、表示された画像があたかも奥行き及び立体感を持つかのように知覚させることが可能となる。
【0027】
図5は、図1のMRグラス10の構成例を示すブロック図である。MRグラス10は、処理装置11、記憶装置12、視線取得装置13、動き検出装置14、撮像装置15、通信装置16、表示装置17、及び音出力装置18を備えている。MRグラス10の各要素は、情報を通信するための単体又は複数のバスにより相互に接続されている。なお、本明細書における「装置」という用語は、回路、デバイス、ユニット等の他の用語に読み替えてもよい。
【0028】
処理装置11は、MRグラス10の全体を制御するプロセッサであり、例えば、単数又は複数のチップを用いて構成されている。処理装置11は、例えば、周辺装置とのインタフェース、演算装置、及びレジスタを含む中央処理装置(CPU:Central Processing Unit)を用いて構成されている。なお、処理装置11の機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアによって実現してもよい。処理装置11は、各種の処理を並列的又は逐次的に実行する。
【0029】
記憶装置12は、処理装置21により読み取り及び書き込みが可能な記録媒体である。記憶装置12は、例えば、不揮発性メモリと揮発性メモリとを含む。不揮発性メモリは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)、及びEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリは、例えば、RAM(Random Access Memory)である。
【0030】
記憶装置12は、処理装置11が実行するための制御プログラムPR1を含む複数のプログラムを記憶している。また、記憶装置12は、処理装置11のワークエリアとして機能する。
【0031】
視線取得装置13は、ユーザUの左右の眼球の動きを追跡するアイトラッキングにより、ユーザが見ている方向、即ち、ユーザの視線の方向を取得し、取得結果に基づいてユーザUの視線の方向を示す視線情報を処理装置11に出力する。
【0032】
より具体的に述べると、視線取得装置13には、一対の光源及び一対のカメラが含まれる。一対の光源のそれぞれは、ユーザUの左眼と右眼とに対応し、一対のカメラのそれぞれは、ユーザUの左眼と右眼とに対応する。ユーザUの左眼に対応する光源は、ユーザUの左眼に赤外光を照射し、ユーザUの左眼に対応するカメラは、照射された赤外光が反射することにより形成される像として、ユーザUの左眼の角膜反射像を撮像する。同様に、ユーザUの右眼に対応する光源は、ユーザUの右眼に赤外光を照射し、ユーザUの右眼に対応するカメラは、ユーザUの右眼の角膜反射像を撮像する。
【0033】
視線取得装置13は、取得された左眼の角膜反射像及び右眼の角膜反射像からユーザUの目頭の位置と虹彩の位置とを検出し、検出されたユーザUの目頭の位置と虹彩の位置とに基づいて、ユーザUの視線情報を取得する。処理装置11へ出力された視線情報は、処理装置11へ出力される。なお、視線取得装置13による視線の取得方法としては、上記の方法に限定されず、どのような方法が用いられてもよい。
【0034】
動き検出装置14は、MRグラス10の動きを検出して、動きデータを処理装置11へ出力する。動きデータは、X軸、Y軸、及びZ軸の各方向の加速度をそれぞれ示す加速度データ及びX軸、Y軸、及びZ軸の各軸を回転の中心とする角加速度をそれぞれ示す角加速度データを含んでいる。動き検出装置14には、加速度を検出する加速度センサ、角加速度を検出するジャイロセンサ等の慣性センサ、及びMRグラス10が向いている方角を検出する地磁気センサが含まれている。
【0035】
加速度センサは、互いに直交するX軸、Y軸、及びZ軸の各方向の加速度をそれぞれ検出する。ジャイロセンサは、X軸、Y軸、及びZ軸の各軸を回転の中心とする角加速度をそれぞれ検出する。地磁気センサは、X軸、Y軸、及びZ軸の各方向の地磁気をそれぞれ検出し、MRグラス10が向いている方角を検出する。動き検出装置14は、ジャイロセンサからの出力情報に基づいて、MRグラス10の姿勢を示す姿勢情報を生成する。また、動き検出装置14は、MRグラス10の動きに係る動き情報を処理装置11へ出力する。
【0036】
撮像装置15は、外界を撮像することにより得られた撮像情報を出力する。撮像装置15は、例えば、レンズ、撮像素子、増幅器、及びAD変換器を備えている。レンズを介して集光された光は、撮像素子によってアナログ信号である撮像信号に変換される。増幅器は、撮像信号を増幅したうえでAD変換器に出力する。AD変換器は、アナログ信号である増幅された撮像信号を、デジタル信号である撮像情報に変換する。変換された撮像情報は、処理装置11に出力される。
【0037】
通信装置16は、他の装置と通信を行うための送受信デバイスとしてのハードウェアである。通信装置16は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置16は、有線接続用のコネクタを備え、コネクタに対応するインタフェース回路を備えていてもよい。また、通信装置16は、無線通信インタフェースを備えていてもよい。有線接続用のコネクタ及びインタフェース回路としては、有線LAN、IEEE1394、USB等に準拠した製品が挙げられる。また、無線通信インタフェースとしては、無線LAN、Bluetooth(登録商標)等に準拠した製品が挙げられる。
【0038】
表示装置17は、画像を表示する装置である。表示装置17は、処理装置11による制御に基づいて各種の画像を表示する。表示装置17は、左眼用の表示パネル及び右眼用の表示パネルを含んでいる。
【0039】
音出力装置18は、音を出力する装置である。音出力装置18は、処理装置11による制御に基づいて各種の音を表示する。音出力装置18は、左耳用のスピーカ及び右耳用のスピーカを含んでいる。
【0040】
処理装置11は、例えば、記憶装置12から制御プログラムPR1を読み出して実行することにより、取得部111、判定部112、切替部113、及び表示制御部114として機能する。
【0041】
取得部111は、行動情報と画像情報とを取得する。
【0042】
行動情報は、MRグラス10を装着したユーザUが端末装置20を利用する意思を示すユーザUの行動に関する情報である。行動情報は、例えば、視線情報及び操作情報を含む。視線情報は、ユーザUの視線に関する情報である。操作情報は、ユーザUによる操作に関する情報である。
【0043】
画像情報は、前方領域の画像に関する情報である。前方領域は、ユーザUよりも前方の領域である。ここで、前方領域は、ユーザUの視界の範囲に対応する領域である。前方領域の画像は、撮像装置15により撮像される。
【0044】
また、取得部111は、視線取得装置13から入力される視線情報、動き検出装置14から入力される動き情報、及び撮像装置15から入力される撮像情報を取得する。
【0045】
判定部112は、画像情報を解析し、画像情報が示す画像に端末装置20の画像が含まれているか否かを判定する。画像情報の解析には、公知の画像認識技術が用いられる。より具体的に述べると、端末装置20の画像は、予め撮影され、記憶装置12に登録画像として記憶されている。判定部112は、登録画像を参照して、画像情報が示す画像に端末装置20の画像が含まれているか否かを判定する。
【0046】
判定部112は、画像情報が示す画像に端末装置20の画像が含まれている場合、さらに、ユーザUの行動情報に基づいてユーザUが端末装置20を利用する意思があるか否かを判定する。ユーザUの行動の態様は、以下の2つに大別される。
【0047】
ユーザUの行動の第1の態様は、ユーザUが端末装置20を利用する意思を有していると認められるが、特にユーザUが端末装置20を利用する意思を有していることが明白な態様である。ユーザUが、端末装置20の利用を選択するためのスイッチ又はボタンを操作する態様は、第1の態様の一例である。或いは、ユーザUが、端末装置20を利用する意思があることを発話する態様は、第1の態様の一例である。
【0048】
また、端末装置20を利用する意思をユーザUが特定のジェスチャー又は合図を用いて伝える態様は、第1の態様の一例である。特定のジェスチャーとしては、首を小刻みに振る、所定回数だけまばたきする、等が考えられる。特定の合図としては、操作用デバイス30を特定のパターンで振る、タッチセンサ34を特定のパターンでタップする等が考えられる。
【0049】
ユーザUの第2の態様は、ユーザUが端末装置20を利用する意思を有していると認められる態様である。例えば、一定期間以上、ユーザUの視線が端末装置20に向いている場合、ユーザUが端末装置20を利用する意思があると認められる。言い換えると、一定期間以上、ユーザUの視線の先である注視位置が端末装置20と重なっている場合、ユーザUが端末装置20を利用する意思があると認められる。
【0050】
以上のことから、ユーザUの行動を示す行動情報は、意思表示情報と意思相関情報とに大別される。意思表示情報は、ユーザUの端末装置20の利用意思を明白に示す情報、即ち、第1の態様を示す情報である。意思相関情報は、ユーザUが端末装置20の利用意思があると認められることを示す情報、即ち、第2の態様を示す情報である。意思相関情報は、ユーザUが端末装置20を利用する意思の程度に相関するユーザUの行動に関する情報であるとも言える。
【0051】
一定期間、ユーザUの視線が端末装置20に向いている場合、ユーザUが端末装置20を利用する意思があると認められる。ここで、一定期間とは、例えば、数秒程度の期間を言う。仮に一定期間が1秒以下であると、ユーザUが端末装置20を一瞥した場合も検出されるため、意図せず操作対象が切り替わるおそれがある。また、仮に一定期間が数秒よりも長い期間であると、ユーザUが操作対象を切り替えるまで時間がかかるため、ユーザUが煩わしさを感じるおそれがある。なお、操作対象は、操作用デバイス30によって操作される対象となるデバイスである。
【0052】
そこで、判定部112は、画像情報が示す画像に端末装置20の画像が含まれ、且つ一定期間、ユーザUの視線が端末装置20に向いているか否かを判定する。
【0053】
切替部113は、画像情報が示す画像に端末装置20の画像が含まれ、且つ一定期間、ユーザUの視線が端末装置20に向いていると認められる場合、操作用デバイス30の操作対象をMRグラス10から端末装置20に切り替える。言い換えると、切替部113は、操作用デバイス30に対して、操作対象をMRグラス10から端末装置20に切り替えるよう指示する。
【0054】
表示制御部114は、表示装置17における表示を制御する。本実施形態では、図4に示したように、表示装置17を用いて、仮想オブジェクトとして、ポインタP1及び文字入力画像80を表示面SCに表示する。
【0055】
1.1.3.端末装置の構成
図6は、図1の端末装置20の構成例を示すブロック図である。図6に示したように、端末装置20は、処理装置21、記憶装置22、通信装置23、表示装置24、及び入力装置25を備えている。端末装置20が備えている各要素は、情報を通信するための単体又は複数のバスにより相互に接続されている。
【0056】
処理装置21は、端末装置20の全体を制御するプロセッサであり、例えば、単数又は複数のチップを用いて構成されている。処理装置21は、例えば、周辺装置とのインタフェース、演算装置、レジスタ等を含む中央処理装置(CPU)を用いて構成されている。なお、処理装置21が備えている機能の一部又は全部は、DSP、ASIC、PLD、FPGA等のハードウェアによって実現されてもよい。処理装置21は、各種の処理を並列的又は逐次的に実行する。
【0057】
記憶装置22は、処理装置21により読み取り及び書き込みが可能な記録媒体である。記憶装置22は、例えば、不揮発性メモリと揮発性メモリとを含む。不揮発性メモリは、例えば、ROM、EPROM、及びEEPROMである。揮発性メモリは、例えば、RAMである。
【0058】
記憶装置22は、処理装置21が実行するための制御プログラムPR2を含む複数のプログラムを記憶している。また、記憶装置22は、処理装置21のワークエリアとして機能する。制御プログラムPR2は、処理装置21全体を制御するプログラムである。
【0059】
通信装置23は、他の装置と通信を行うための送受信デバイスとしてのハードウェアである。通信装置23は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置23は、有線接続用のコネクタを備え、上記コネクタに対応するインタフェース回路を備えていてもよい。また、通信装置23は、無線通信インタフェースを備えていてもよい。有線接続用のコネクタ及びインタフェース回路としては、有線LAN、IEEE1394、USBに準拠した製品が挙げられる。また、無線通信インタフェースとしては、無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
【0060】
表示装置24は、画像及び文字情報を表示するデバイスである。表示装置24は、処理装置21による制御に基づいて各種の画像を表示する。例えば、液晶パネル及び有機ELパネル等の各種の表示パネルが表示装置24として好適に利用される。
【0061】
入力装置25は、ユーザUからの操作を受け付ける。例えば、入力装置25は、キーボード、タッチパッド、タッチパネル、マウス等のポインティングデバイスを含んで構成されている。ここで、入力装置25は、タッチパネルを含んで構成されている場合、表示装置24を兼ねていてもよい。
【0062】
1.1.4.操作用デバイスの構成
図7は、図1の操作用デバイス30の外観を示す斜視図である。図8は、図1の操作用デバイス30の構成例を示すブロック図である。操作用デバイス30は、処理装置31、記憶装置32、慣性センサ33、タッチセンサ34、及び通信装置35を備えている。操作用デバイス30が備えている各要素は、情報を通信するための単体又は複数のバスにより相互に接続されている。
【0063】
処理装置31は、操作用デバイス30の全体を制御するプロセッサであり、例えば、単数又は複数のチップを用いて構成されている。処理装置31は、例えば、周辺装置とのインタフェース、演算装置、レジスタ等を含む中央処理装置(CPU)を用いて構成されている。なお、処理装置31が備えている機能の一部又は全部は、DSP、ASIC、PLD、FPGA等のハードウェアによって実現されてもよい。処理装置31は、各種の処理を並列的又は逐次的に実行する。
【0064】
記憶装置32は、処理装置31により読み取り及び書き込みが可能な記録媒体である。記憶装置32は、例えば、不揮発性メモリと揮発性メモリとを含む。不揮発性メモリは、例えば、ROM、EPROM、及びEEPROMである。揮発性メモリは、例えば、RAMである。
【0065】
記憶装置32は、処理装置31が実行するための制御プログラムPR3を含む複数のプログラムを記憶している。また、記憶装置32は、処理装置31のワークエリアとして機能する。制御プログラムPR3は、処理装置31全体を制御するプログラムである。
【0066】
慣性センサ33は、三次元空間において、操作用デバイス30にかかる3軸の各々の方向における加速度と、この3軸の各々を回転軸とする操作用デバイス30に掛かる角速度とを測定する。処理装置31は、測定された3軸の各々の方向における加速度と、3軸の各々を回転軸とする角速度とに基づいて、姿勢情報PIを生成する。姿勢情報PIは、角度θ1及び角度θ2を含む。角度θ1は、方向LVを回転軸として操作用デバイス30が回転したとき、操作用デバイス30の初期設定時における位置からの角度を示す。角度θ2は、方向LHを回転軸として操作用デバイス30が回転したとき、操作用デバイス30の初期設定時における位置からの角度を示す。
【0067】
タッチセンサ34は、ユーザUが行うタップ操作、スワイプ操作等を検出する。処理装置31は、タッチセンサ34がタップ操作を検出した場合に、タップ情報TIを生成する。タップ情報TIは、ユーザUが行うタップ操作を受け付けたことを示す情報である。処理装置31は、タッチセンサ34がスワイプ操作を検出した場合に、スワイプ情報SIを生成する。スワイプ情報SIは、ユーザUが行うスワイプ操作を受け付けたことを示す情報である。
【0068】
通信装置35は、他の装置と通信を行うための送受信デバイスとしてのハードウェアである。通信装置35は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置35は、有線接続用のコネクタを備え、上記コネクタに対応するインタフェース回路を備えていてもよい。また、通信装置35は、無線通信インタフェースを備えていてもよい。有線接続用のコネクタ及びインタフェース回路としては、有線LAN、IEEE1394、USBに準拠した製品が挙げられる。また、無線通信インタフェースとしては、無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
【0069】
以下、図9図11を参照することにより、操作用デバイス30の操作方法について詳細に説明する。なお、ここでは、操作用デバイス30の操作対象がMRグラス10である場合について説明する。
【0070】
図9は、初期設定時における操作用デバイス30の長手方向を示す図である。ユーザUが、タッチセンサ34に対し、数秒以上の長押し操作を実行すると、操作用デバイス30が操作用デバイス30の長手方向を記憶する初期設定モードに遷移する。初期設定モードにおいて、操作用デバイス30は、三次元空間における操作用デバイス30の長手方向LINを特定する。操作用デバイス30は、特定された長手方向LINを示す情報を記憶する。三次元空間における操作用デバイス30の長手方向LINは、操作用デバイス30にかかる加速度に基づいて特定可能である。なお、操作用デバイス30は、動作モードを初期設定モードへ遷移させるためのボタン、スイッチ等を備えていてもよい。
【0071】
また、操作用デバイス30は、方向LVと方向LHとを特定する。方向LVは、長手方向LINに対して垂直な方向である。方向LVは、さらに、操作用デバイス30の高さ方向である。方向LHは、長手方向LINに対して垂直な方向である。方向LHは、さらに、操作用デバイス30の幅方向である。初期設定モードの終了後において、方向LVを回転軸とする操作用デバイス30の回転によって、表示面SCのX軸方向におけるポインタP1の位置が変化する。初期設定モードの終了後において、方向LHを回転軸とする操作用デバイス30の回転によって、表示面SCのY軸方向におけるポインタP1の位置が変化する。
【0072】
図10は、方向LVを回転軸とする操作用デバイス30の回転の一例を示す図である。方向LVを回転軸として、初期設定時における操作用デバイス30の位置から操作用デバイス30が回転した角度θ1に応じて、X軸方向におけるポインタP1の位置が変化する。角度θ1は、方向LVから操作用デバイス30を見た場合に、初期設定時における操作用デバイス30の長手方向LINに対して、現在の操作用デバイス30の長手方向L1がなす角度であるとも言える。
【0073】
図11は、方向LHを回転軸とする操作用デバイス30の回転の一例を示す図である。方向LHを回転軸として、初期設定時における操作用デバイス30の位置から操作用デバイス30が回転した角度θ2に応じて、Y軸方向におけるポインタP1の位置が変化する。角度θ2は、方向LHから操作用デバイス30を見た場合に、初期設定時における操作用デバイス30の長手方向LINに対して、現在の操作用デバイス30の長手方向L1がなす角度であるとも言える。このように、操作対象がMRグラス10である場合、操作用デバイス30による操作は、AR空間上のポインタP1の座標を特定することである。
【0074】
1.2.第1実施形態に係る制御装置の動作
1.2.1.ユーザの視線の方向と端末装置の位置との関係
以下、図12を参照することにより、ユーザUの視線が端末装置20に向いていることを検出する方法について説明する。図12は、端末装置20、MRグラス10、及び左右眼球の位置関係を示す平面図である。図12では、端末装置20として平面ディスプレイが想定されている。なお、説明を簡略化するために、図12では、端末装置20の主面とMRグラス10の面とが平行な状態を仮定している。
【0075】
図12において、ユーザUは、MRグラス10を通して端末装置20の点S1を注視している。ユーザUの左眼球EYLは、端末装置20の点S1を向いている。左眼球EYLの視線LSLは、ハーフミラー982Lを通って点S1に向かっている。ユーザUの右眼球EYRは、端末装置20の点S1を向いている。右眼球EYRの視線LSRは、ハーフミラー982Rを通って点S1に向かっている。
【0076】
ハーフミラー982Lとハーフミラー982Rとの間に撮像装置15が配置されている。撮像装置15と左眼球EYLとの距離をdL、撮像装置15と右眼球EYRとの距離をdRとする。この場合、左眼球EYLと右眼球EYRとの距離は、「dL+dR」により表される。左眼球EYLの視線LSLの方向は、ハーフミラー982Lの法線NLLと視線LSLとのなす角αLにより表される。右眼球EYRの視線LSRの方向は、ハーフミラー982Rの法線NLRと視線LSRとのなす角αRにより表される。
【0077】
左眼球EYL及び右眼球EYRと、端末装置20との距離をDとすると、距離Dは、以下の(1)式により表される。
【0078】
D=(dL+dR)/(tanαL+tanαR) ・・・(1)
【0079】
判定部112は、撮像装置15から取得した画像から、距離D及び距離dLを考慮して、左眼用の視差画像を生成する。判定部112は、撮像装置15から取得した画像から、距離D及び距離dRを考慮して、右眼用の視差画像を生成する。ここで、左眼用の視差画像とは、ユーザUが左眼によって現実空間の外界画像を視認した画像に対応する画像である。右眼用の視差画像とは、ユーザUが右眼によって現実空間の外界画像を視認した画像に対応する画像である。
【0080】
生成された左眼用の視差画像は、左眼用の表示面SCLに表示される画像と対応付けられる。生成された右眼用の視差画像は、右眼用の表示面SCRに表示される画像と対応付けられる。
【0081】
判定部112は、表示面SCLと視線LSLとの交点I1を、左眼用の視差画像上においてシミュレートする。表示面SCL上の交点I1と端末装置20とがユーザUの視線LSL上において重なると、左眼用の視差画像上においても、視線LSLと端末装置20との交点である注視点が端末装置20に重なる。同様に、判定部112は、表示面SCRと視線LSRとの交点I2を、右眼用の視差画像上においてシミュレートする。表示面SCR上の交点I2と端末装置20とがユーザUの視線LSR上において重なると、右眼用の視差画像上においても、注視点が端末装置20に重なる。これにより、判定部112は、ユーザUの視線LSL及びLSRが端末装置20を向いていることを検出することができる。
【0082】
1.2.2.操作用デバイスによる端末装置の操作方法
【0083】
図13は、操作用デバイス30による端末装置20の操作方法を説明する図である。ここでは、操作用デバイス30の操作対象は端末装置20である。図13において、端末装置20のディスプレイの横方向をX軸方向とし、ディスプレイの高さ方向をY軸方向とする。操作用デバイス30は、操作対象をMRグラス10から端末装置20に切り替える旨の指示をMRグラス10から受け付けると、操作対象をMRグラス10から端末装置20に切り替える。端末装置20には、操作用デバイス30による操作に適応するアプリケーションプログラムが予めインストールされる。
【0084】
図9図11を参照しながら説明したのと同様に、操作用デバイス30は、初期設定時における操作用デバイス30の位置から操作用デバイス30が回転した角度θ1及びθ2に応じて、それぞれX軸方向におけるポインタP2の位置及びY軸方向におけるポインタP2の位置を変化させる。このように、操作対象が端末装置20である場合、操作用デバイス30による操作は、ディスプレイ上のポインタP2の座標を特定することである。
【0085】
1.2.3.処理装置の動作
図14は、図5の処理装置11の切替動作の一例を示すフローチャートである。以下、図14を参照することにより、処理装置11の切替動作について説明する。図14のルーチンは、例えば、処理装置11が起動されることにより開始され、一定の時間が経過するごとに実行されるようになっている。
【0086】
ステップS11において、処理装置11は、取得部111として機能することにより、ユーザUの行動情報及び画像情報を取得する。
【0087】
ステップS12において、処理装置11は、判定部112として機能することにより、画像情報が示す画像に端末装置20の画像が含まれるか否かを判定する。
【0088】
画像情報が示す画像に端末装置20の画像が含まれていなかった場合、即ち、ステップS12における判定結果が否定であった場合、処理装置11は、本ルーチンを一旦終了する。
【0089】
一方、画像情報が示す画像に端末装置20の画像が含まれていた場合、即ち、ステップS12における判定結果が肯定であった場合、処理装置11は、判定部112として機能することにより、ステップS13において、ユーザUが端末装置20を利用する意思があると認められるか否かを判定する。
【0090】
ユーザUが端末装置20を利用する意思があると認められない場合、即ち、ステップS13における判定結果が否定であった場合、処理装置11は、本ルーチンを一旦終了する。
【0091】
一方、ユーザUが端末装置を利用する意思があると認められる場合、即ち、ステップS13における判定結果が肯定であった場合、処理装置11は、切替部113として機能することにより、操作対象をMRグラス10から端末装置20に切り替えて、本ルーチンを一旦終了する。
【0092】
1.3.第1実施形態が奏する効果
以上の説明によれば、第1実施形態に係る制御装置は、取得部111と切替部113とを備える。取得部111は、行動情報と画像情報とを取得する。行動情報は、MRグラス10を装着したユーザUが端末装置20を利用する意思を示すユーザUの行動に関する情報である。画像情報は、ユーザU前方の領域に関する情報である。切替部113は、画像情報が示す画像に端末装置20の画像が含まれ、且つ行動情報に基づいてユーザUが端末装置20を利用する意思があると認められる場合、操作用デバイス30によって操作される操作対象を、MRグラス10から端末装置20に切り替える。操作用デバイス30は、MRグラス10と端末装置20とをそれぞれ制御可能である。
【0093】
この態様によれば、制御装置は、端末装置20がユーザUの前方に存在し、且つ行動情報に基づいてユーザUが端末装置20を利用する意思があると認められる場合、操作対象がMRグラス10から端末装置20に切り替えられる。従って、MRグラス10から端末装置20への操作対象の切り替えには、ユーザUの意思がより反映される。その結果、ユーザUは、MRグラス10と端末装置20とを共通の操作用デバイス30によって容易に操作することができる。つまり、ユーザUは、操作用デバイス30によって、AR空間上のポインタP1の座標を特定するとともに、現実空間のディスプレイ上のポインタP2の座標を特定することができる。
【0094】
また、行動情報は、ユーザUの視線に関する情報である。
【0095】
この態様によれば、端末装置20の利用をユーザUが望む場合、ユーザUは、端末装置20に視線を向けることにより操作対象を端末装置20に切り替えることができる。
【0096】
また、行動情報に基づいてユーザUが端末装置20を利用する意思があると認められる場合とは、一定期間、ユーザUの視線が端末装置20に向いている場合である。
【0097】
この態様によれば、操作対象が意図せず切り替わることを抑制できる。
【0098】
また、操作用デバイス30は、ユーザUにより把持される。操作用デバイス30は、本体の姿勢を変更することによってユーザUが行う操作を受け付ける。
【0099】
この態様によれば、ユーザUは、操作用デバイス30の姿勢を変更するだけで直感的にポインタP1又はP2を操作することができる。
【0100】
また、第1実施形態に係る制御方法は、行動情報と画像情報とを取得し、画像情報が示す画像に端末装置20の画像が含まれ、且つ行動情報に基づいてユーザUが端末装置20を利用する意思があると認められる場合、操作用デバイス30によって操作される操作対象をMRグラス10から端末装置20に切り替える。
【0101】
この態様によれば、端末装置20がユーザUの前方に存在し、且つ行動情報に基づいてユーザUが端末装置20を利用する意思があると認められる場合、操作対象がMRグラス10から端末装置20に切り替えられる。MRグラス10から端末装置20への操作対象の切り替えには、ユーザUの意思がより反映される。その結果、ユーザUは、MRグラス10と端末装置20とを共通の操作用デバイス30によって容易に操作することができる。つまり、ユーザUは、操作用デバイス30によって、AR空間上のポインタP1の座標を特定するとともに、現実空間のディスプレイ上のポインタP2の座標を特定することができる。
【0102】
2.変形例
本開示は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を組み合わせてもよい。また、上記実施形態の態様及び以下の変形の態様は、相互に矛盾しない限り任意に組み合わせることができる。
【0103】
2.1.変形例1
第1実施形態において、行動情報として視線情報が利用されるが、行動情報は、例えば、ユーザUが操作用デバイス30の表示面SC上のポインタP1で指し示した位置に関する情報であってもよい。以下、ユーザUが操作用デバイス30の表示面SC上のポインタP1で指し示した位置に関する情報は、「ポインタ情報」と称される。例えば、一定期間、ポインタP1と端末装置20とがユーザUの視線上において重なっている場合、ユーザUが端末装置20を利用する意思があると認められる。従って、判定部112は、視差画像上においてユーザUの視線をシミュレートすることに代えて、ポインタP1の位置をシミュレートしてもよい。
【0104】
判定部112は、表示面SCL上のポインタP1Lの位置を、左眼用の視差画像上においてシミュレートする。表示面SCL上のポインタP1Lと端末装置20とがユーザUの視線LSL上において重なると、左眼用の視差画像上においても、ポインタP1Rが端末装置20に重なる。同様に、判定部112は、表示面SCR上のポインタP1Rの位置を、右眼用の視差画像上においてシミュレートする。表示面SCR上のポインタP1Rと端末装置20とがユーザUの視線LSR上において重なると、右眼用の視差画像上においても、ポインタP1Rが端末装置20に重なる。これにより、判定部112は、ポインタP1Lと端末装置20とがユーザUの視線LSL上において重なり、ポインタP1Rと端末装置20とがユーザUの視線LSR上において重なっていることを検出することができる。
【0105】
図15は、変形例1に係る処理装置11の切替動作の一例を示すフローチャートである。以下、図15を参照することにより、処理装置11の切替動作について説明する。図15のルーチンは、例えば、処理装置11が起動されることにより開始され、一定の時間が経過するごとに実行されるようになっている。
【0106】
ステップS11において、処理装置11は、取得部111として機能することにより、行動情報及び画像情報を取得する。
【0107】
ステップS12において、処理装置11は、判定部112として機能することにより、画像情報が示す画像に端末装置20の画像が含まれるか否かを判定する。
【0108】
画像情報が示す画像に端末装置20の画像が含まれていなかった場合、即ち、ステップS12における判定結果が否定であった場合、処理装置11は、本ルーチンを一旦終了する。
【0109】
一方、画像情報が示す画像に端末装置20の画像が含まれていた場合、即ち、ステップS12における判定結果が肯定であった場合、処理装置11は、判定部112として機能することにより、ステップS21において、一定期間、ポインタP1と端末装置20とがユーザUの視線上において重なっているか否かを判定する。一定期間は、例えば、1~3秒程度に設定される。
【0110】
一定期間、ポインタP1と端末装置20とがユーザUの視線上において重なっていない場合、即ち、ステップS21における判定結果が否定であった場合、処理装置11は、本ルーチンを一旦終了する。
【0111】
一方、一定期間、ポインタP1と端末装置20とがユーザUの視線上において重なっている場合、即ち、ステップS21における判定結果が肯定であった場合、処理装置11は、切替部113として機能することにより、操作対象をMRグラス10から端末装置20に切り替えて、本ルーチンを一旦終了する。
【0112】
以上説明したように、行動情報は、ユーザUがMRグラス10の表示面SC上のポインタP1で指し示した位置に関するポインタ情報である。
【0113】
この態様によれば、端末装置20の利用をユーザUが望む場合、ユーザUは、ポインタP1を端末装置20の像に重ねるだけで操作対象を端末装置20に切り替えることができる。
【0114】
また、行動情報に基づいてユーザUが端末装置20を利用する意思があると認められる場合とは、一定期間、ポインタP1と端末装置20とがユーザUの視線上において重なっている場合である。
【0115】
この態様によれば、操作対象が意図せず切り替わることを抑制できる。
【0116】
2.2.変形例2
第1実施形態において、画像情報の解析は、予め撮像された登録画像を参照することにより行われる。しかしながら、画像情報の解析はこのような方法に限定されない。例えば、画像情報の解析には、複数の端末装置の画像と、複数の端末装置の各々の種類との関係が学習済みの学習モデルが用いられてもよい。
【0117】
図16は、変形例2に係る制御装置を含む制御システム1Aの全体構成を示す図である。MRグラス10は、通信網NETを介して学習サーバ40と相互に通信可能に接続されている。学習サーバ40は、学習済みの学習モデルを格納している。取得部111は、学習サーバ40の学習モデルを用いて、画像情報を解析する。
【0118】
より具体的に述べると、取得された画像情報が学習モデルに入力されると、画像情報が示す画像に端末装置20の画像が含まれている場合、学習モデルは、端末装置20の種類及び端末装置20の当該画像上の位置を特定する。学習サーバ40は、特定された種類及び位置に関する端末情報をMRグラス10へ送信する。画像情報が示す画像に端末装置20の画像が含まれていない場合、学習モデルは、当該画像に端末装置20が含まれていない旨を出力する。
【0119】
この態様によれば、学習モデルが各種の端末装置20の種類を特定するため、事前に端末装置20の画像を予め撮影して登録画像として準備する必要がない。従って、ユーザUにとって利便性がより高くなる。なお、通信網NETが利用される場合、MRグラス10と操作用デバイス30との通信又は端末装置20と操作用デバイス30との通信は、通信網NETを介して行われてもよい。
【0120】
2.3.変形例3
操作用デバイス30は、本体の姿勢を変更することによってポインタP1又はP2を操作するデバイスに限定されない。操作用デバイス30は、ポインタP1又はP2の移動先の位置を指定するデバイスであってもよい。ポインタの位置を指定する操作用デバイスは、例えば、ユーザUが指し示す方向に仮想的な光線が本体から出力するように表示させる。ユーザUは、MRグラス10の表示面SC上に投影される仮想的な光線を、ポインタP1を移動させたい位置に当てた状態で操作用デバイスのボタンをクリックする。これにより、仮想的な光線が当たった位置がポインタP1の移動先として指定され、当該位置にポインタが移動する。
【0121】
操作対象がMRグラス10から端末装置20に切り替えられた場合、ユーザUがMRグラス10の表示面SC上に投影される仮想的な光線を端末装置20の表示装置24の像に当てた状態で操作用デバイスのボタンをクリックする。これにより、表示装置24の対応する位置にポインタP2が移動する。
【0122】
なお、操作用デバイスは、上記に開示したデバイスに限られず、スマートフォン、スマートウォッチ等でもよいし、マウス、トラックボール等の入力デバイスであってもよい。
【0123】
2.4.変形例4
端末装置20は、パーソナルコンピュータ、タブレット端末、スマートフォン、スマートウォッチ等に限定されない。通信機能を有するテレビ、エアコン、電子レンジ等の家電が含まれてもよい。例えば、操作対象がMRグラス10からエアコンに切り替えられると、エアコンの操作メニューに関する情報がエアコンから操作用デバイス30を経由してMRグラス10へ送信され、表示面SCにエアコンの操作メニューが表示される態様が考えられる。この態様では、表示面SCに表示されたエアコンの操作メニューから、操作用デバイス30を用いて希望の動作を選択することができる。
【0124】
2.5.変形例5
第1実施形態において、MRグラス10には、光学シースルー方式が採用されていたが、ビデオシースルー方式が採用されてもよい。
【0125】
2.6.変形例6
第1実施形態において、制御装置はMRグラス10の処理装置11に含まれていたが、制御装置は操作用デバイス30に含まれてもよい。
【0126】
3.その他
(1)上述した実施形態では、記憶装置12、記憶装置22、及び記憶装置32は、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。また、プログラムは、電気通信回線を介して通信網NETから送信されてもよい。
【0127】
(2)上述した実施形態において、説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
【0128】
(3)上述した実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
【0129】
(4)上述した実施形態において、判定は、1ビットを用いて表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
【0130】
(5)上述した実施形態において例示した処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
【0131】
(6)図1図16に例示された各機能は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
【0132】
(7)上述した実施形態において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称を用いて呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
【0133】
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
【0134】
(8)前述の各形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
【0135】
(9)本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
【0136】
(10)上述した実施形態において、MRグラス10及び学習サーバ40は、移動局(MS:Mobile Station)である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。また、本開示においては、「移動局」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」等の用語は、互換的に使用され得る。
【0137】
(11)上述した実施形態において、「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的な結合又は接続であっても、論理的な結合又は接続であっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」を用いて読み替えられてもよい。本開示において使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
【0138】
(12)上述した実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
【0139】
(13)本開示において使用される「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
【0140】
(14)上述した実施形態において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
【0141】
(15)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
【0142】
(16)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」等の用語も、「異なる」と同様に解釈されてもよい。
【0143】
(17)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行う通知に限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
【0144】
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。したがって、本開示の記載は、例示説明を目的とし、本開示に対して何ら制限的な意味を有さない。
【符号の説明】
【0145】
10…MRグラス、20…端末装置、30…操作用デバイス、111…取得部、113…切替部、LSL,LSR…視線、P1…ポインタ、SC,SCL,SCR…表示面、U…ユーザ。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16