(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-28
(45)【発行日】2024-11-06
(54)【発明の名称】携帯端末とヘッドマウントディスプレイ及びその連携表示システム
(51)【国際特許分類】
H04L 67/00 20220101AFI20241029BHJP
G06F 3/01 20060101ALI20241029BHJP
G06F 3/0346 20130101ALI20241029BHJP
H04L 65/40 20220101ALI20241029BHJP
【FI】
H04L67/00
G06F3/01 510
G06F3/0346 423
H04L65/40
(21)【出願番号】P 2022555220
(86)(22)【出願日】2020-10-09
(86)【国際出願番号】 JP2020038271
(87)【国際公開番号】W WO2022074815
(87)【国際公開日】2022-04-14
【審査請求日】2023-03-08
(73)【特許権者】
【識別番号】000005810
【氏名又は名称】マクセル株式会社
(74)【代理人】
【識別番号】110001689
【氏名又は名称】青稜弁理士法人
(72)【発明者】
【氏名】川前 治
(72)【発明者】
【氏名】伊藤 滋行
【審査官】木村 雅也
(56)【参考文献】
【文献】特開2012-044429(JP,A)
【文献】特開2005-346609(JP,A)
【文献】特開2014-086063(JP,A)
【文献】国際公開第2020/003361(WO,A1)
【文献】特開2012-002568(JP,A)
【文献】特開2014-153889(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04L 67/00
G06F 3/01
G06F 3/0346
H04L 65/40
(57)【特許請求の範囲】
【請求項1】
携帯端末とヘッドマウントディスプレイを接続して連携して情報を表示する連携表示システムにおいて、
前記携帯端末は、第1ディスプレイに情報を表示するとともに、表示される情報の少なくとも一部を、前記ヘッドマウントディスプレイへ送信し、
前記ヘッドマウントディスプレイは、前記携帯端末から送信された情報を第2ディスプレイで分担して表
示し、
前記携帯端末の備えるセンサでユーザが静止中か移動中か否かを検出し、
ユーザが静止中の場合は、前記携帯端末の前記第1ディスプレイでの情報の表示を中止し、前記ヘッドマウントディスプレイの前記第2ディスプレイのみで情報の表示を行うことを特徴とする連携表示システム。
【請求項2】
携帯端末とヘッドマウントディスプレイを接続して連携して情報を表示する連携表示システムにおいて、
前記携帯端末は、第1ディスプレイに情報を表示するとともに、表示される情報の少なくとも一部を、前記ヘッドマウントディスプレイへ送信し、
前記ヘッドマウントディスプレイは、前記携帯端末から送信された情報を第2ディスプレイで分担して表
示し、
前記携帯端末の備えるセンサでユーザが静止中か移動中か否かを検出し、
前記携帯端末が備える第1カメラ、または前記ヘッドマウントディスプレイが備える第2カメラにてユーザ周辺の画像を撮影し、
ユーザが静止中で、かつ、カメラ画像にユーザ周辺に他の人物が写っている場合は、前記携帯端末の前記第1ディスプレイでの情報の表示を中止し、前記ヘッドマウントディスプレイの前記第2ディスプレイのみで情報の表示を行うことを特徴とする連携表示システム。
【請求項3】
請求項1または2に記載の連携表示システムにおいて、
前記携帯端末で表示される情報は階層的な情報であって、
前記ヘッドマウントディスプレイで表示される情報は、前記階層的な情報のうち下位の情報であることを特徴とする連携表示システム。
【請求項4】
請求項1または2に記載の連携表示システムにおいて、
前記ヘッドマウントディスプレイで表示される情報は、前記携帯端末で表示された情報に対する付加的な情報であることを特徴とする連携表示システム。
【請求項5】
請求項1または2に記載の連携表示システムにおいて、
前記携帯端末には、情報が表示された前記第1ディスプレイに対するユーザのタッチ操作を検出するタッチセンサを有し、
前記ヘッドマウントディスプレイで表示される情報は、前記タッチセンサにより検出された、ユーザが選択した項目の詳細情報であることを特徴とする連携表示システム。
【請求項6】
請求項1に記載の連携表示システムにおいて、
前記携帯端末には、情報が表示された前記第1ディスプレイに対するユーザの視線方向を検出する第1カメラを有し、
前記ヘッドマウントディスプレイで表示される情報は、前記第1カメラにより検出されたユーザの視線方向にある項目の詳細情報であることを特徴とする連携表示システム。
【請求項7】
請求項1に記載の連携表示システムにおいて、
前記ヘッドマウントディスプレイには、情報が表示された前記携帯端末の前記第1ディスプレイに対するユーザの視線方向を検出する第2カメラを有し、
前記ヘッドマウントディスプレイで表示される情報は、前記第2カメラにより検出されたユーザの視線方向にある項目の詳細情報であることを特徴とする連携表示システム。
【請求項8】
請求項2に記載の連携表示システムにおいて、
前記第1カメラは、情報が表示された前記第1ディスプレイに対するユーザの視線方向を検出し、
前記ヘッドマウントディスプレイで表示される情報は、前記第1カメラにより検出されたユーザの視線方向にある項目の詳細情報であることを特徴とする連携表示システム。
【請求項9】
請求項2に記載の連携表示システムにおいて、
前記第2カメラは、情報が表示された前記携帯端末の前記第1ディスプレイに対するユーザの視線方向を検出し、
前記ヘッドマウントディスプレイで表示される情報は、前記第2カメラにより検出されたユーザの視線方向にある項目の詳細情報であることを特徴とする連携表示システム。
【請求項10】
請求項1または2に記載の連携表示システムにおいて、
前記携帯端末は、前記第1ディスプレイに表示する情報を保存するメモリと、前記第1ディスプレイの表示を制御する第1制御部と、前記ヘッドマウントディスプレイとの間で情報の送受信を行う第1外部機器インターフェースと、を有し、
前記ヘッドマウントディスプレイは、前記第2ディスプレイの表示を制御する第2制御部と、前記携帯端末との間で情報の送受信を行う第2外部機器インターフェースと、を有することを特徴とする連携表示システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、携帯端末とヘッドマウントディスプレイとを接続して連携して情報表示を行う技術に関する。
【背景技術】
【0002】
スマートフォンなどの携帯端末はネットワークに接続し、各種アプリケーションをインストールすることによって様々な動作を行い、データの記録や再生、それらを表示することができる。また、ヘッドマウントディスプレイ(Head Mounted Display、以下、HMDと記す)は、ユーザの頭部に装着し、メガネやゴーグル状のディスプレイに画像を表示するデバイスである。HMDには、カメラ、物体までの距離を測るセンサ、位置を測定するGPSセンサなどの複数のセンサや、画像処理を行うCPU、バッテリなどが搭載されている。HMDも携帯端末と同様に、使用するアプリケーションをインストールしたり、バージョンアップしたりすることができる。
【0003】
さらに、携帯端末とHMDを連携させ、新たな機能や使い方が提案されている。例えば特許文献1には、HMDが使用するアプリケーション(以下、アプリ)を容易に管理するために、HMDと端末装置(携帯情報端末)の表示する画面を共有し、端末装置の画面を操作して外部サーバ装置からHMDへ向けてアプリを配信させる構成が記載されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
HMDの利用・応用範囲は、飛躍的に拡大すると予測される。しかしながら、HMDは元来頭部に装着して使用するものであり、ディスプレイに表示できる画面の大きさや処理能力、分解能、重量などに制約がある。
【0006】
携帯端末は、大きなディスプレイ、高度な処理、データの記録などの特徴があり、様々な利用方法が実現されており、そのためのアプリケーションも多々開発されている。しかしながら、表示画面が大きいことで周囲の人にのぞき見される可能性があり、プライバシーの観点では注意して用いる必要がある。
【0007】
前記特許文献1はHMDと携帯端末を連携して使用する形態の一例であるが、アプリ取得のための操作を行うために、操作しやすい携帯端末を用いて行うだけであり、それぞれのデバイスの特徴を活かして機能を分担することについてはまだ十分考慮されていない。例えば、階層的な情報の表示やプライバシー保護に関して、2つのデバイスで同様に表示することを前提としており、ユーザの使い勝手について特に考慮されていない。
【0008】
本発明の目的は、携帯端末とHMDを連携させて情報を表示する場合に、それぞれのデバイスの特徴を活かして、使い勝手の良い操作と見やすい表示形態を実現することである。
【課題を解決するための手段】
【0009】
本発明は、上記課題を解決するため、以下の方法を採用する。
本発明は、ヘッドマウントディスプレイと接続し、連携して情報を表示する携帯端末において、情報を表示する第1ディスプレイと、第1ディスプレイに表示する情報を保存するメモリと、第1ディスプレイの表示を制御する第1制御部と、ヘッドマウントディスプレイとの間で情報の送受信を行う第1外部機器インターフェースと、を備え、第1制御部は、第1ディスプレイに表示される情報の少なくとも一部を、第1外部機器インターフェースからヘッドマウントディスプレイへ送信し、ヘッドマウントディスプレイが備える第2ディスプレイで分担して表示するよう制御する。
【0010】
また本発明は、携帯端末と接続し、ユーザの頭部に装着されて連携して情報を表示するヘッドマウントディスプレイにおいて、情報を表示する第2ディスプレイと、第2ディスプレイの表示を制御する第2制御部と、携帯端末との間で情報の送受信を行う第2外部機器インターフェースと、を備え、第2制御部は、携帯端末にて表示される情報の少なくとも一部を、第2外部機器インターフェースを介して受信し、第2ディスプレイで分担して表示する。
【0011】
また本発明は、携帯端末とヘッドマウントディスプレイを接続して連携して情報を表示する連携表示システムにおいて、携帯端末は、第1ディスプレイに情報を表示するとともに、表示される情報の少なくとも一部を、ヘッドマウントディスプレイへ送信し、ヘッドマウントディスプレイは、携帯端末から送信された情報を第2ディスプレイで分担して表示する。
【発明の効果】
【0012】
本発明によれば、携帯端末とHMDを連携させて情報を表示する場合に、それぞれのデバイスの特徴を活かして、使い勝手の良い操作と見やすい表示形態を実現することができる。
【図面の簡単な説明】
【0013】
【
図1】携帯端末とHMDを接続した連携表示システムを示す模式図(実施例1)。
【
図5】携帯端末とHMDとの間で入出力されるデータの種類を示す図。
【
図6】携帯端末における操作ログの表示例を示す図。
【
図7】携帯端末における操作ログの他の表示例を示す図。
【
図8】操作ログの詳細情報を階層的に表示する例を示す図。
【
図9】携帯端末とHMDで分担して表示する例を示す図。
【
図11】携帯端末の動作手順を示すフローチャート。
【
図13】携帯端末のカメラを用いた視線タッチを説明する図(実施例2)。
【
図14】携帯端末のカメラで撮影したユーザの顔画像の例を示す図。
【
図15】携帯端末のカメラを用いた視線タッチの動作手順を示すフローチャート。
【
図16】HMDのカメラを用いた視線タッチを説明する図。
【
図17】HMDのカメラで撮影した携帯端末の画像の例を示す図。
【
図18】HMDのカメラで撮影した端末画像により視点位置を求める例を示す図。
【
図19】HMDのカメラを用いた視線タッチの動作手順を示すフローチャート。
【
図20】のぞき見防止機能を自動的に実施するための構成図(実施例3)。
【
図21】のぞき見防止機能を自動的に実施する場合のフローチャート。
【
図22】のぞき見防止機能をユーザが選択して実施する場合のフローチャート。
【発明を実施するための形態】
【0014】
本発明の実施の形態について、図面を用いて説明する。以下の実施例では、携帯端末1とヘッドマウントディスプレイ(HMD)2を接続し、連携して表示動作を行う連携表示システムについて説明する。
【実施例1】
【0015】
図1は、携帯端末1とHMD2を接続した連携表示システムを示す模式図である。HMD2はユーザUの頭部に装着され、携帯端末1とは無線接続されて、データやコマンドを送受信しながら連携して動作する。ユーザUは、携帯端末1のディスプレイ10に表示される画像を見るとともに、HMD2のディスプレイ30に表示される画像を見ることができる。ここでの無線接続9には、LAN(Local Area Network)を用いても良いし、電話網通信を用いても良い。また、近距離通信のBluetooth(登録商標)や赤外線通信部等、他の通信方式を用いても良く、伝送する情報量に合わせて方式を選択すればよい。
【0016】
図2は、HMD2の外観を示す図である。ユーザの装着するHMD2は、ディスプレイ30、カメラ40(及びマイク)、タッチセンサ37、骨伝導タイプのイヤフォン(音声出力部)43、CPU32、バッテリ42などの部品から構成されている。各構成要素の詳細については後述する。
【0017】
図3は、携帯端末1の内部構成を示す図である。携帯端末1は、例えばスマートフォンの場合について説明するが、その他、タブレット端末などの携帯情報端末が該当する。
【0018】
ディスプレイ10は様々な画像や情報を表示し、表示制御部11はディスプレイ10の表示を制御する。CPU(主制御部)12は携帯端末1の全体の動作を制御し、メモリ13はCPU12で実行する動作プログラム等を保存する。データ保存メモリ14は携帯端末1の固有データを保存する。機器ID情報15は、携帯端末1を特定するための固有の機器情報を保存する。
【0019】
外部機器IF16は、HMD2との間で無線接続9によりデータを入出力するためのインターフェースである。外部機器IF16を介してHMD2との接続認証を行い、データが携帯端末1に送信されることで、HMD2が携帯端末1に接続されたかどうかの判別を行う。タッチセンサ17は、携帯端末1に対するユーザの操作を入力するもので、ディスプレイ10と一体で構成することができる。
【0020】
カメラ20は、外景を撮影するアウトカメラと、ディスプレイ10を見ているユーザUを撮影するインカメラを有し、カメラ動作異常検出部20aはカメラ20の異常を検出する。各種センサ21は、携帯端末1の状態(回転、位置、加速度など)を検出する。バッテリ22は携帯端末1に対して電力を供給し、バッテリ容量センサ22aはバッテリ22の残容量を検出する。ユーザ認証部23は携帯端末1のユーザを特定し、外部通信部24は外部ネットワーク4を介して外部サーバ(データベースなど)と通信する。
【0021】
図4は、HMD2の内部構成を示す図である。ディスプレイ30は、携帯端末1から入力した画像を表示するとともに、HMD2内で生成した画像データとカメラ40で撮影した画像を重畳して表示することができる。表示制御部31はディスプレイ30の表示を制御する。CPU(主制御部)32はHMD2の全体の動作を制御し、メモリ33はCPU32で実行する動作プログラム等を保存する。機器ID情報35はHMD2を特定するための固有の機器情報を保存する。
【0022】
外部機器IF36は、携帯端末1との間で無線接続9によりデータの送受信を行う。タッチセンサ37は、HMD2に対するユーザの操作を入力する。
【0023】
カメラ40はHMD2の外景を撮影し、カメラ動作異常検出部40aはカメラ40の異常を検出する。各種センサ41は、カメラ40で撮影される物体の位置や距離の測定と、HMD2の動き、加速度、回転を測定するジャイロなどのセンサである。センサ動作異常検出部41aは各種センサ41の動作異常を検出する。バッテリ42はHMD2に電力を供給し、バッテリ容量センサ42aはバッテリ7の残容量を検出する。
【0024】
音声出力部43は骨伝導タイプのイヤフォンを駆動し、音声出力異常検出部43aは音声出力部43の動作異常を検出する。
【0025】
図5は、携帯端末1とHMD2との間で、外部機器IF16,36を介して入出力されるデータの種類を示す図である。
【0026】
(a)に示す携帯端末1からHMD2へ出力されるデータは、携帯端末1を特定するための固有ID、HMD2にて情報を表示するための画像データ、HMD2から入力されたカメラ画像データと測距データを用いて、奥行き方向の前後関係を考慮したAR(拡張現実)画像を表示するための画像データ、及びHMD2からの操作入力に応答するコマンドなどである。
【0027】
(b)に示すHMD2から携帯端末1へ出力されるデータは、HMD2を特定するための固有ID、カメラ40で撮影した画像データ、各種センサ41の検出データ(位置、距離、加速度、回転、バッテリ容量、使用者認証等)、及びHMD2に対する操作入力データ(タッチ操作、ジェスチャー、音声入力等)である。
【0028】
<携帯端末の動作>
携帯端末1で動作する各種のアプリケーションは、メモリ13に格納されており、起動時に表示されるホーム画面には、ユーザが選択できるアプリケーションのアイコンが複数表示される。これら表示されているアイコンをタッチすると、対応するアプリケーションが起動する。
【0029】
携帯端末1では、いつ、どこで、どのアプリケーションを、どのデバイスをどのように使用したのかを記録し、必要に応じて表示できる操作ログ表示機能を有している。以下では、携帯端末1及びHMD2を使って操作した「操作ログ」を表示する「操作ログアプリ」を例として説明する。
【0030】
このための「操作ログアプリ」は、携帯端末1を起動した時点から操作ログを取得する動作を自動的に開始する。この機能によりデータ保存メモリ14には、操作指示を入力されたアプリの起動時刻、アプリ名称、動作内容、位置情報、HMD2の使用有無などの操作ログが保存される。
【0031】
保存されている操作ログを表示する場合は、データ保存メモリ14に保存されている操作ログ情報を、ディスプレイ10に一覧として表示する。タッチセンサ17により表示された操作ログが選択されると、選択された操作ログの詳細が表示される。
【0032】
なお、データ保存メモリ14に保存されている操作ログ情報は、外部通信部24とネットワーク4を介して、例えば外部のアプリ会社5aに送信され、携帯端末1の使用状況等の調査のため利用される。携帯端末1に格納されている他のアプリについても、同様に外部のアプリ会社5bへ使用状況等の情報が送信される。
【0033】
<HMDの動作>
携帯端末1からHMD2に、外部機器IF16,36を介して様々なデータが送られる。このデータには操作ログ情報が含まれ、HMD2のディスプレイ30においても操作ログ情報が表示される。ただし本実施例では、携帯端末1に表示した操作ログのうち、ユーザがタッチ操作で選択した項目の詳細情報(階層的な情報のうち下位の情報や付加的な情報)をHMD2にて分担して表示する。これによりそれぞれのデバイス(携帯端末1とHMD2)の特徴を活かして、見やすい表示形態を実現する。あるいは後述の実施例3のように、携帯端末1に表示することで周囲の人にのぞき見される可能性がある場合は、HMD2にて分担して表示する。これによりユーザのプライバシーを保護する効果がある。
【0034】
図6は、携帯端末1における操作ログの表示例を示す図である。携帯端末1では操作ログアプリを用いて、ユーザの操作内容について記録している。
図6では、1日の操作内容を時系列に表示した例である。例えば、日付:2019/11/28の最初の操作で、携帯端末1の時計アプリにてアラームを鳴らしたとすると、その操作ログとして、時刻:06:05、アプリケーション(アプリ):時計、動作内容:アラーム、住所、HMD2を未使用(HMDのアイコン表示なし)、を表示する。次に、時刻:08:30、アプリ:SMS(Short Message Service)、動作内容:メッセージ送受信5件、HMD2を使用(HMDのアイコン表示あり)、を表示する。同様に順次操作内容を表示し、その日の最終操作として、時刻:23:30、アプリ:電子書籍アプリ、動作内容:読書、HMD2を未使用(HMDのアイコン表示なし)、を表示している。
【0035】
なお、ここでは、日付:2019/11/28を条件に操作ログを表示したが、日付以外の項目、表示行列数、時間など、記録してある情報を選択して表示設定することもできる。
【0036】
図7は、携帯端末1における操作ログの他の表示例を示す図である。
図6では1日分の操作内容を表示したのに対して、
図7では複数日分の操作内容を表示している。すなわち、1日を1ページとして複数日分を重ね、日記のようにめくることで、過去の操作ログを簡単に参照できるようなフォーマットで表示した例である。
【0037】
図6や
図7で示した操作ログは、その操作内容に関する情報であり、さらにその操作で実行した詳細な情報を表示することができる。
【0038】
図8は、操作ログの詳細情報を階層的に表示する例を示す図である。ここでは、日付、時刻、アプリ、動作内容などを指でタッチして選択し、その詳細な情報を表示させる例を示す。
【0039】
例えば、(a)の全体表示の画面において、17:30に操作したカメラアプリで「写真14枚」をタッチしたとする(タッチ1)。その結果、(b)のように、記録された写真が種類ごとに表示される(タッチ1での表示例)。ここでは、6種類のカテゴリが表示され、さらに、各カテゴリに含まれる写真の枚数が表示される。
【0040】
この表示された枚数情報をさらにタッチすると(タッチ2)、(c)のように、タッチしたカテゴリに含まれている写真の一覧が表示される(タッチ2での表示例)。このように、表示内容の階層を深く掘り下げることで、その時に行った操作内容を具体的に把握することができる。また、それらの内容を後から日記のように振り返ることが可能となる。
【0041】
ここまでは、操作ログを携帯端末1のみで表示する例を示したが、情報の一部をHMD2に送信してHMD2にて分担して表示することもできる。携帯端末1は、
図6~
図8に示したように多くの情報を表示することが可能であるが、例えば操作ログとともに階層が下がった情報を同時に表示すると、それぞれの表示面積が小さくなり、表示された情報が見えにくくなる。そこでHMD2を用いて、例えば階層が下がった詳細情報を分担して表示するようにする。HMD2は、ユーザの頭部に搭載するデバイスであるため、携帯端末1に比べて表示できる文字サイズが小さく内容が少なくなる。そこで、
図8で説明した携帯端末1に表示した操作ログのうち、タッチ1の操作を行って階層が下がった詳細な情報をHMD2にて分担して表示する。
【0042】
図9は、携帯端末1とHMD2で分担して表示する例を示す図である。ここでは、携帯端末1には(a)のように操作ログの全体画面を表示し、HMD2のディスプレイ30には、(b)のように階層が下がった詳細情報を表示している。詳細情報としては、例えば前記したように、
図8(b)のような写真の種類のカテゴリを表示したり、
図8(c)のようなカテゴリ内に含まれる複数の写真を、サムネイルや写真画像で順次に表示したりする。これにより、携帯端末1のみで表示する場合に比べ、ユーザは情報を見やすくなる。
【0043】
また、HMD2は、光学系の方式が携帯端末1と異なり、周囲にいる他人に表示内容を見られにくいという特徴がある。携帯端末1に表示する情報のうち他人に見られたくない情報(例えば写真)をHMD2に表示することで、ユーザ本人だけが見ることができプライバシー保護の点でも利点がある。また、携帯端末1も表示する情報量には限界があるので、HMD2と表示情報を分担することで、複数ディスプレイとして使うことができ、使い勝手が向上する。
【0044】
このように本実施例では、携帯端末1とHMD2とで操作ログを分担表示するようにしている。HMD2で表示する操作ログは、ユーザが操作ログアプリの設定にて、写真、SMSメッセージ内容など、表示項目を選択することや、携帯端末1に表示した操作ログの詳細内容を表示することが可能である。また、周囲に人がいる場合には、HMD2に選択した項目を表示させ、操作ログの詳細内容を表示させることも可能である。なお、当然ながら、HMD2にて表示する場合はHMD2が携帯端末1に接続された場合に限られ、携帯端末1からHMD2に表示データが送信される。周囲に他人がいる場合の動作については、実施例3で詳細に説明する。
【0045】
図10は、携帯端末1における表示の変形例を示す図である。
図6で示した表示例と比較し、操作ログのうちHMD2を使用した操作のみを表示し、HMD2を使用しなかった操作を削除している。例えば、
図6にて表示された、時刻:06:05の操作ログ(アプリ:時計、動作内容:アラーム)、時刻:17:30の操作ログ(アプリ:カメラ、動作内容:写真14枚)、時刻:23:30の操作ログ(アプリ:電子書籍アプリ、動作内容:読書)、についてはHMD2を用いておらず、
図10では表示していない。なお、ここに表示されたHMD利用の操作ログを選択することで、その詳細を
図8のように表示することや、
図9のようにHMD2に分担して表示できることは言うまでもない。
【0046】
次に、本実施例の分担表示機能を実施するための、携帯端末1とHMD2のそれぞれの動作フローを説明する。
図11は、携帯端末1の動作手順を示すフローチャートである。携帯端末1の動作を開始し(S100)、操作ログアプリを起動して、携帯端末1に対して操作された操作ログの表示機能を実行する(S101)。
【0047】
携帯端末1とHMD2との接続チェックを行う(S102)。そのため携帯端末1は、HMD2との間でデータが正常に送受信されていることと、HMD2からのセンサ情報(加速度情報など)により、HMD2がユーザに装着されていることの確認を行う。この接続チェックは、定期的または携帯端末1のイベント(表示項目の選択など)が生じた時に実施する。S102の判定で接続エラーとされた場合には、HMD2との通信を終了し、接続を切断する(S111)。
【0048】
S102の判定で接続がOKの場合、ユーザは操作ログの表示方法を選択する。この選択では、携帯端末1のみで単独表示するか(
図6~
図8の例)、または携帯端末1とHMD2とで分担表示するか(
図9の例)、を選択する(S103)。
【0049】
携帯端末1は、操作ログ概要の全表示データを作成する(
図6で説明した操作ログの内容表示)。またその中で、HMD2を利用した場合にHMD2で表示するための操作ログ概要の表示データも併せて作成する(S104)。作成した操作ログ概要の全表示データを、携帯端末1のディスプレイ10に表示する(S105)。
【0050】
ディスプレイ10に表示されている操作ログのうち、ユーザが詳細を表示したい項目をタッチして選択すると(S106)、その詳細表示データを作成する(S107)。例えば、
図8(a)のように操作ログをタッチした場合(タッチ1)、データ保存メモリ14からタッチ1で表示するデータを抽出して作成する。
【0051】
次に、S103にて選択した操作ログの表示方法で分岐する(S108)。携帯端末1のみで単独表示する場合は、S105に戻り、S107で作成した詳細表示データを携帯端末1のディスプレイ10に表示する。さらにS106で、ユーザが詳細を表示したい項目をタッチした場合は(タッチ2)、タッチ2で表示する詳細データを作成して表示する。
【0052】
一方、S108の分岐で、携帯端末1とHMD2とで分担表示する場合は、一部の表示データをHMD2にて表示するように表示先を切り換える(S109)。そして、外部機器IF16を介しHMD2に一部の表示データを出力する(S110)。例えば、
図9で示したように、タッチ1で選択された詳細データをHMD2に出力する。HMD2ではこの詳細データを受け取り、ディスプレイ30に表示する。
【0053】
図12は、HMD2の動作手順を示すフローチャートである。ここでは
図9に示したように、HMD2にて操作ログを分担表示する場合について説明する。HMD2の動作を開始し(S200)、携帯端末1との接続チェックを行う(S201)。
【0054】
カメラ動作異常検出部40aとセンサ動作異常検出部41aにて、HMD2に搭載されている各種部品(カメラ、センサ、ディスプレイなど)の動作チェックを行う(S202)。また、バッテリ容量センサ42aにて、HMD2のバッテリ42の残量をチェックする(S203)。
【0055】
S201の判定で接続エラーと判定された場合には、ディスプレイ30にエラー発生を表示する(S211)。S202の判定でいずれかの部品に動作エラーがあった場合、またはS203の判定でバッテリ残量が少ない場合には、携帯端末1にエラー情報を送り(S210)、HMD2のディスプレイ30にエラー情報を表示する(S211)。なお、S210で携帯端末1にエラー情報を出力することで、S211では、携帯端末1からの指示でHMD2にエラーを表示させるようにしてもよい。
【0056】
S201~S203のチェックで異常がない場合、HMD2のチェック結果を携帯端末1に出力する(S204)。すると携帯端末1は、HMD2がユーザに装着され、各種動作が正常であり、携帯端末1から出力する表示データを表示可能であることを確認する。
【0057】
HMD2は、携帯端末1からの表示データを外部機器IF36を介して取得する(S205)。これは、
図11のステップS110に対応する。取得した表示データをHMD2のディスプレイ30に表示する(S206)。これにより、例えば
図9(b)のような画像(タッチ1の後)が表示される。
【0058】
S206の表示画面において、ユーザからのタッチ操作により、次に表示したい項目(アイコン)を選択する(S207)。例えば
図9(b)において、タッチ2の操作を受け付ける。あるいは、表示の終了を選択することもできる。ユーザの選択操作は、HMD2のタッチセンサ37やジェスチャー入力により行う。
【0059】
S207で選択された項目の情報を、外部機器IF36を介し携帯端末1に出力する(S208)。携帯端末1は選択された項目の詳細データ作成し、HMD2は携帯端末1から詳細データを取得する(S209)。そしてS206に戻り、取得した詳細データをディスプレイ30に表示する。これにより、例えば
図9(b)におけるタッチ2の操作に応答する表示がなされる。
【0060】
なお、上記の説明で用いた「操作ログ」は階層的な情報であり、下位の階層の情報を読み出す動作を説明する上で好適な一例である。つまり操作ログは、携帯端末に対して行われたユーザからの指示動作について、時系列に、その時の場所や、連携したデバイス等の情報も併せて記録されて構成されているからである。
【0061】
携帯端末とHMDとで表示する情報を分担するのは、操作ログに限らない。他の例として、例えば、携帯端末で書籍を表示して読んでいる時に、分からない言葉の意味をHMDに表示したり、携帯端末で地図を表示している時に、その中の特定の場所についての詳細情報をHMDに表示したりする場合にも適用できる。また、携帯端末で映画を見ている時に、HMDで登場人物のブログを調べたり、背景の地理の情報を検索したりすることもできる。要は、携帯端末の画面を邪魔しないように、付加的な情報についてはHMDで分担して表示することが可能になる。
【0062】
このように実施例1では、携帯端末とHMDとが連携して表示画面を構成するようにした。その際、HMDを携帯端末の子画面のように扱い、携帯端末の画面で表示しきれないような情報や、階層的に下位の情報をHMD側に表示するものである。そのため、携帯端末の表示内容はそのまま保持されており、携帯端末を見ればその内容を確認できつつ、HMDでさらに詳細な情報も同時に見ることができる。これより、それぞれのデバイスの特徴を活かして、使い勝手の良い操作と見やすい表示形態を実現することができる。
【実施例2】
【0063】
実施例1では、表示された操作ログの詳細内容を表示したいときに、該当する項目を選択するために、携帯端末1やHMD2のタッチセンサ17,37を使用する方法を説明した。ここで、一般の携帯端末1やHMD2には、カメラが搭載されている場合が多い。そこで実施例2では、このカメラを利用してユーザの視線を検知し、項目を選択する方法(以下、「視線タッチ」と呼ぶ)について説明する。
【0064】
図13は、携帯端末1のカメラ20を用いた視線タッチを説明する図である。視線タッチというのは、ユーザの眼球の方向(視線)がどの項目を見ているかを検出して、その項目を選択するものである。(a)は、ユーザUが携帯端末1の表示画面を見ている状態である。ユーザUの視線が表示画面上のどの位置(どの項目)を見ているのか、つまり、視線がどこにあるのかを、携帯端末1に搭載されているカメラ(インカメラ)20を用いて検出する。
【0065】
(b)は携帯端末1の画面の例を示す。ユーザUの視線を検出するに当たって、まず、携帯端末1の画面に、例えば5つのクロスポイント(X1~X5)を所定の時間ごとに次々に表示する。ユーザは、この表示されたクロスポイントを、携帯端末1からの指示に従って順番に見つめる。その時の眼球の方向、すなわち視線方向を、携帯端末1のカメラ20で検出し、この5個のクロスポイントへの視線方向からユーザの視線の基準位置や角度を求める。
【0066】
例えば、ユーザが画面中央のクロスポイントX1を注視している時の顔の位置と眼球の瞳孔や虹彩の位置や向きを基準とし、画面の上端部のクロスポイントX2とX3を注視している時の眼球の瞳孔や虹彩の位置や向きの違いを検出する。同様に画面中央のX1を注視している時を基準に、画面の下端部のX4とX5を注視している時の眼球の瞳孔や虹彩の位置や向きの違いを検出する。さらに同じ方法で、中心と左右の端を注視している場合の位置や向きの差を検出し、これらの検出値をデータ保存メモリ14に蓄える。
【0067】
(c)は、ユーザUが実際に画面内のある位置を注視した状態である。カメラ20で捉えたユーザの視線位置(顔の位置と眼球の瞳孔や虹彩の位置や向き)を、基準位置であるクロスポイントに対する視線位置と比較して、現在のユーザの視線位置を算出する。そして算出した画面上の位置には、ユーザ視線の注視点を示すマーカーMを表示する。
【0068】
なお、視線検出では、携帯端末1とユーザUの顔及び眼球との角度や位置、距離の値が重要となる。視線タッチに使用するにあたり、上述した視線の基準方向は、携帯端末1と顔や眼球さらには瞳孔や虹彩の角度や位置、距離の変動(精度)を、携帯端末1のカメラ20や距離センサ21などでチェックして、補正することが必要である。
【0069】
図14は、携帯端末1のカメラ(インカメラ)20で撮影したユーザの顔画像(ユーザ画像)の例を示す図である。(a)は、ユーザUが画面内の基準位置(
図13のクロスポイントX1)を注視した状態である。この画像より、ユーザUの視線方向を求め、基準値とする。また(b)は、現在、ユーザUが画面内の所望の位置(選択位置)を注視している状態である。注視位置が変わると、ユーザUの画像、特にユーザの顔や眼球の位置、角度等が変化する。
【0070】
この例では、基準位置の注視画像(a)に比較して選択位置の注視画像(b)は、顔の大きさが小さくなり、距離が離れていることが分かる。また、眼の中心位置は、破線L1→L2で示すように下側にずれている。なお、顔までの距離はカメラ画像の差ではなく、距離センサ21で検出しても構わない。
【0071】
ここで、(b)の選択位置の注視画像で得られる顔や眼球の位置や距離の計測値を、
図13(a)の5個のクロスポイント(X1~X5)を注視した時に得られた計測値を基準とし、その差分量を求めて補正することで、ユーザが現在注視している画面内の位置を算出することができる。すなわち、携帯端末1のカメラ20を用いて、ユーザが画面上のどの位置を注視しているかを検出することが可能となる。
【0072】
図15は、携帯端末1のカメラ20を用いた視線タッチの動作手順を示すフローチャートである。
【0073】
携帯端末1の動作を開始し(S300)、視線タッチアプリを起動する(S301)。
視線タッチの初期設定を開始する(S302)。携帯端末1のディスプレイ10に、視線タッチ初期設定のための画像を表示する(S303)。例えば、
図13(a)のようなクロスポイントX1~X5を順次表示する。
【0074】
ユーザは装着しているHMD2を介して、ディスプレイ10に表示された画像(クロスポイント)を順次注視する(S304)。
携帯端末1に搭載のカメラ20で、注視しているユーザの眼球の画像を取得する(S305)。
【0075】
クロスポイントX1を表示した際に取得したユーザ画像の情報から、視線方向の基準値を計算し、視線タッチの初期位置とする(S306)。
各クロスポイントX1~X5を順次注視した時の視線位置の計算結果を、視線タッチの初期位置の情報とともに保存する。この時の携帯端末1と眼球との位置関係(角度、位置、距離)を、携帯端末1のセンサ21で取得する。また、HMD2を装着している場合には、携帯端末1までの距離情報や、アイトラッキングカメラにより眼球の瞳孔や虹彩の位置や方向なども取得する(S307)。
【0076】
S306で計算した初期位置と、S307で取得した各クロスポイントを注視したときの携帯端末1と眼球との位置関係情報とを、HMD2の機器ID35やユーザ情報に紐付けして、携帯端末1のデータ保存メモリ14に保存する(S308)。
【0077】
これで、初期設定を完了する(S309)。なお、クロスポイントX2~X5の注視点の平均値を求め、クロスポイントX1の注視点と比較して凡そ同一の位置になっていれば、それぞれ正しく検出できていると判断しても良い。
【0078】
次に、実際に視線タッチ動作を行う。ユーザは携帯端末1の画面内の所望の操作位置を注視する(S310)。
携帯端末1に搭載のカメラ20で、注視しているユーザの眼球の画像を取得する(S311)。
【0079】
取得したユーザ画像の情報からユーザの視線方向を求め、S308でデータ保存メモリ14に保存している各ポイント注視時の位置関係情報と比較して(差分を求めて)、ユーザの注視点を計算する(S312)。
【0080】
携帯端末1の画面上に注視点の位置、すなわち視線タッチ位置をマーカーで表示する(S313)。マーカーが表示された位置に一定の時間以上、注視点が留まった場合には、そのマーカーが存在する位置に対して、クリックもしくは指先でタッチしたのと同様の操作を行う。
【0081】
ここで上記の視線タッチ動作を正確に実施するためには、携帯端末1と顔の距離、眼球との角度、位置、距離などを常にチェックし、変化した場合には基準点からの顔や眼球の変化による視線位置の変化を補正する必要がある。そのため、初期設定の位置をもとに、携帯端末と顔や眼球の角度、位置、距離などを常時監視し、一定以上のずれが出た時には、初期設定において、得られた視線の動き範囲より計算した値をもとに偏差を補正する。
【0082】
この視線タッチの補正は、操作ログ終了アイコンなどアプリケーションでよく使うアイコンを目印として決まった位置に表示し、そのアイコンを正確に把握しているかを一定頻度でチェックすることで、補正可能な偏差の補正を実施する。
【0083】
視線タッチ動作は、HMD2に搭載するカメラ40を用いて行うこともできる。以下、これについて説明する。
【0084】
図16は、HMD2のカメラ40を用いた視線タッチを説明する図である。視線位置を特定するために、携帯端末1の画面に、例えば
図16に示すように基準となるクロスポイントX1~X3の画像を表示する。例えばポイントX1は画面の中央、ポイントX2は画面の左上隅、ポイントX3は画面の右下隅に表示する。ユーザUは、これらの表示されたクロスポイントを携帯端末1の指示に従って注視し、HMD2のカメラ40で撮影する。そして、カメラ40で撮影した画像を携帯端末1に送る。
【0085】
携帯端末1では、取得した各クロスポイントのカメラ画像から基準となる中心位置を求める。例えば、画面中央のクロスポイントX1の位置と、画面隅のクロスポイントX2,X3の位置の平均値とを比較して、凡そ同じ位置になっていれば視線タッチの基準位置として設定する。ここで、眼球の瞳孔や虹彩の位置や角度を検出するために、HMD2にアイトラッキング用のカメラが搭載されていれば、その情報を用いても良い。なお、視線検出に当たって、携帯端末1とHMD2との角度や位置、距離、HMD2自身の眼球との位置や角度(頭に搭載時の位置や角度)などが重要となる。
【0086】
図17は、HMD2のカメラ40で撮影した携帯端末1の画像の例を示す図である。HMD2のカメラ40で撮影した携帯端末1の画像(ここでは、「端末画像」と呼ぶ)から、携帯端末1の画面に対するユーザUの注視ポイントを検出する。初期位置の調整において、(a)の端末画像1のように撮影されていれば、携帯端末1の画面全体が見えており、ユーザがどのポイントを注視しているかを検出するための情報を取得でき、適切である。
【0087】
しかし、例えば、携帯端末1とHMD2との距離が離れ過ぎていると、(b)の端末画像2のように、携帯端末1全体が小さな画像として撮られてしまう。そのため、注視点の検出において誤差が生じ、正確に注視点を検出することが難しくなる。この場合には、HMD2がもっと携帯端末1に近づくよう指示を出す。
【0088】
また、(c)の端末画像3のような場合には、撮影中心が携帯端末1の左上方向にずれているので、右下方向に移動するように指示する。逆に(d)の端末画像4は、撮影中心が携帯端末1の右下方向にずれているので、左上方向に移動するように指示する。
【0089】
(e)の端末画像5は、携帯端末1の画面全体を限度一杯で撮影しており、これ以上接近できない位置にあることを示している。このようにして、(a)の端末画像1の状態で携帯端末1が撮影されるように調整する。
【0090】
なお、前記した携帯端末1のカメラ20を利用する場合と同様に、携帯端末1とHMD2との角度、位置、距離などが一定範囲にあることが必要となる。そのため、上述の設定した視線の基準位置は、常時、携帯端末1とHMD2との角度や位置などとの変化をチェックして、補正を加えることが必要である。
【0091】
図18は、HMD2のカメラ40で撮影した端末画像により視点位置を求める例を示す図である。(a)は携帯端末1の画面の基準位置を求める場合、(b)は実際に取得した端末画像からユーザの視点位置を求める場合を示す。
【0092】
(a)の端末画像では、3か所のクロススポイトX1~X3により、携帯端末1の画面に対するHMD2の距離や角度を検出し、基準位置を求める。その時の数値に対して、(b)の端末画像がどのような差分があるかを検出する。この例では、(b)の端末画像は、画面の中央(クロスポイントX1)がHMD2で撮影した範囲の中央に来ているので、携帯端末1がHMD2のほぼ正面にあることが分かる。また携帯端末1の画面が大きく写っているため、(a)の端末画像撮影時よりも、HMD2に距離が近いことが分かる。
【0093】
ここで、携帯端末1の画面が台形やひし形に変形している場合には、携帯端末1が傾いて保持されているためである。このような場合にも、携帯端末1の画面の4隅の位置情報を検出するなどして、傾きの状態を検出することができる。そして(a)の基準位置の設定で求めた注視点位置に対して、(b)で携帯端末1の画面のどこを注視していることが検出することが可能となる。なお、HMD2にアイトラッキング用のカメラが搭載され、眼球の瞳孔や虹彩の位置や向きを計測することができる場合には、それらもパラメータとして用いることで、注視点を求める精度が向上する。
【0094】
図19は、HMD2のカメラ40を用いた視線タッチの動作手順を示すフローチャートである。
【0095】
HMD2の動作を開始し(S400)、視線タッチアプリを起動し、携帯端末1にもそのアプリを立ち上げるコマンドを送る(S401)。
視線タッチの初期設定を開始する(S402)。携帯端末1ではそのディスプレイ10に、視線タッチ初期設定のための画像(クロスポイント)を表示する(S403)。例えば、
図16のようなクロスポイントX1~X3を表示する。
【0096】
ユーザは、HMD2を介して携帯端末1に表示された画像を注視する(S404)。
HMD2搭載のカメラ40でユーザが注視している携帯端末1の画像を撮影し、外部機器IF36より携帯端末1へ送る。携帯端末1は、HMD2で撮影した携帯端末の画像(端末画像)を取得する(S405)。
【0097】
携帯端末1では、表示した画像の位置と、HMD2が撮影した端末画像から、HMD2の位置と角度を計算し、視線タッチの基準位置を設定する(S406)。
この時、携帯端末1とHMD2が離れ過ぎていたり、角度が斜め過ぎる場合には、携帯端末1の保持位置を修正するようにユーザに指示を出す。そして、携帯端末1とHMD2との角度、位置の情報、及びHMD2に搭載されたアイトラッキング用カメラにて、眼球の瞳孔や虹彩の角度情報などを取得する(S407)。
【0098】
S406で計算した初期位置と、S407で取得した携帯端末1とHMD2との角度、位置の情報を、HMD2の機器ID35、ユーザ情報とを結びつけて、データ保存メモリ14に保存する(S408)。これで、初期設定を完了する(S409)。
【0099】
次に、実際に視線タッチ動作を行う。ユーザはHMD2を介して、携帯端末1の画面内の所望の操作位置を注視する(S410)。
HMD2に搭載のカメラ40で、注視している携帯端末1の画像(端末画像)を取得し、携帯端末へ送る(S411)。
【0100】
携帯端末1は、取得した端末画像と、S408でデータ保存メモリ14に保存しているHMD2との角度、位置の情報と比較して、携帯端末1の画面上のどこを注視しているかを計算によって求める(S412)。
【0101】
携帯端末1の画面上に注視点の位置、すなわち視線タッチ位置をマーカーで表示する(S413)。マーカーが表示された位置に一定の時間以上、注視点が留まった場合には、そのマーカーが存在する位置に対して、クリックもしくは指先でタッチしたのと同様の操作を行う。
【0102】
なお、初期設定の位置をもとに、携帯端末とHMDとの距離や角度や、ユーザが装着した時のHMD自身の角度などを常時監視し、一定以上のずれが出た時には、偏差を補正する。
【0103】
上記の例では、HMD2のカメラ40での撮影画像を携帯端末1に送って、携帯端末1側で距離や角度を求めたが、これに限らず、これらの処理をHMD2側で行ったり、ネットワーク経由で外部サーバ上で行ったりしても構わない。
【0104】
実施例2によれば、ユーザは携帯端末の表示画面を注視するだけで所望の表示項目を選択し、選択した項目に関する詳細情報を表示させることができる。よって、表示内容を切り替えるためのユーザ操作の利便性が向上する。
【実施例3】
【0105】
実施例1では、携帯端末1に表示された操作ログの詳細内容の一部をHMD2にて表示するようにした。携帯端末1の操作ログの表示は、プライバシーの観点から他人に見られることを好まない場合がある。その点HMD2では、光学系の方式の相違により、表示面であるメガネのレンズ上では焦点が合わず、周囲の人から何を表示しているか見られにくいというメリットがある。そこで実施例3では、プライバシーを考慮し、積極的にHMD2を利用して表示する構成について説明する。
【0106】
本実施例では、取得した操作ログ情報を、携帯端末1とHMD2とを適宜切り替えて表示する。そして、表示する操作ログを周囲の人に見られるのを防止するため、「のぞき見防止機能」を付加している。「のぞき見防止機能」により、操作ログがのぞき見されやすい環境または見せたくない場合においては、操作ログ情報は携帯端末1では非表示としHMD2にて表示する。「のぞき見防止機能」は自動的に実施する場合と、ユーザが選択して実施する場合とがある。
【0107】
まず、のぞき見防止機能を自動的に実施する場合について説明する。
図20は、のぞき見防止機能を自動的に実施するための構成を説明する図である。ユーザUはHMD2を装着して、携帯端末1の表示画面を見ている状態である。ユーザUの周辺には他人Unが居て、携帯端末1の画面がのぞき見されている可能性がある。
【0108】
このような場合、携帯端末1に搭載されているカメラ20(ただし、ユーザU側を撮影するインカメラ)で携帯端末1を使用時のユーザ周辺の画像を撮影する。撮影したカメラ画像C1に、ユーザU以外の人物Unが写っている場合には、のぞき見される可能性があると判断する。この時、HMD2のカメラ40を用いて、ユーザの前面の画像を撮影し、撮影したカメラ画像C2にのぞき見の可能性がある人物Unが居るかを検出しても良い。
【0109】
この時のポイントとしては、撮影用のカメラ20,40は広角レンズを備えたものが望ましい。広角の程度は、携帯端末1のディスプレイ10を周囲から見ることができる視野角以上であることが求められる。
【0110】
また、撮影されたユーザU以外の人物Unの顔の方向を検出し、携帯端末1のディスプレイ10との角度を検出して、ディスプレイ10の視野角以上の場合には、のぞき見の可能性は低いと判断することができる。
【0111】
なお、カメラ画像C1,C2に写っているユーザUを特定するためには、顔認証などを利用することが可能である。また、のぞき見防止機能を動作させているときには、カメラ20,40を常に動作させるか、一定間隔で動作させることで、監視することが重要である。
【0112】
カメラ20,40を常に動作させる、または一定間隔で継続的に動作させることは、意図しないカメラ撮影を行うことになりかねず、逆に他人のプライバシーを配慮する必要が生じる。そこで、カメラが動作していること、またはのぞき見防止機能が動作していることを周囲に知らせるように、携帯端末1などで明示することが必要である。例えば、携帯端末1のランプを点灯させて明示することが望ましい。
【0113】
図21は、のぞき見防止機能を自動的に実施する場合のフローチャートを示す。
携帯端末1の動作を開始し(S500)、操作ログアプリを起動して、携帯端末1に対して操作された操作ログの表示機能を実行する(S501)。ユーザを認証し(S502)、HMD2との接続をチェックする(S503)。接続エラーとされた場合には、HMD2との通信を終了し、接続を切断する。
【0114】
携帯端末1のセンサ21からの加速度情報から、ユーザが移動中かどうかを判定する(S504)。移動中であればS509へ進み、のぞき見が生じる可能性が少ないため、携帯端末1の画面を用いて表示する。
S504の判定でユーザが静止中であれば、のぞき見される可能性があり、「のぞき見防止機能」を実行する(S505)。
【0115】
携帯端末1のカメラ20で、ユーザの周辺の画像を撮影する。あるいはHMD2のカメラ40で、携帯端末1の周辺の画像を撮影してもよい(S506)。
撮影したカメラ画像からユーザ以外の人物の有無を判定する。さらに撮影された人物と携帯端末1のディスプレイ10との角度などから、のぞき見の可能性の有無を判定する(S507)。
【0116】
S507でのぞき見の可能性有と判定された場合には、携帯端末1での操作ログの表示を中止し、HMD2のみで表示を行う(S508)。また、HMD2に表示された操作ログの情報に対して、さらに詳細な情報を表示する操作(選択)があった場合にも、HMD2のみで詳細な情報を表示する。
一方、S507でのぞき見の可能性無と判定された場合には、そのまま携帯端末1にて、あるいは携帯端末1とHMD2の両方を用いて操作ログを表示する(S509)。
【0117】
その後S504に戻り、再度ユーザが移動中かどうかを判定し、またS507でのぞき見の可能性の有無を判定し、表示の切り替えを行う。このようにして、HMD2のみでの表示は、のぞき見の可能性がなくなるまで継続する。
【0118】
次に、のぞき見防止機能をユーザが選択して実施する場合について説明する。
図22は、のぞき見防止機能をユーザが選択して実施する場合のフローチャートを示す。
携帯端末1の動作を開始し(S600)、操作ログアプリを起動して、携帯端末1に対して操作された操作ログの表示機能を実行する(S601)。携帯端末1とHMD2との接続チェックを行う(S602)。
【0119】
ユーザは「のぞき見防止機能」の設定(ON/OFF)を選択する(S603)。携帯端末1のセンサ21(加速度センサ)で、ユーザが移動中か静止中かを判定する(S604)。ユーザが移動中のときは、S607へ進む。
S604でユーザが静止中のときは、ユーザが携帯端末1の「のぞき見防止機能」の設定状態を判定する(S605)。設定されていないときは(S605,Off)、S607へ進む。
【0120】
「のぞき見防止機能」が設定されているときは(S605,On)、携帯端末1での操作ログの表示を中止し、HMD2のみで表示を行う(S606)。また、HMD2に表示された操作ログの情報に対して、さらに詳細な情報を表示する操作(選択)があった場合にも、HMD2のみで詳細な情報を表示する。
S607では、ユーザが移動中であり周囲の人にのぞき見される可能性は少なく、またユーザはのぞき見防止機能を選択していないので、そのまま携帯端末1にて、あるいは携帯端末1とHMD2の両方を用いて操作ログを表示する。
【0121】
その後S604に戻り、再度ユーザが移動中かどうかを判定し、表示の切り替えを行う。このようにして、HMD2のみでの表示は、のぞき見の可能性がなくなるまで継続する。
【0122】
なお、上記で述べたのぞき見防止機能は、操作ログを表示する場合に限るものではなく、様々な情報の表示に適用できることは言うまでもない。
【0123】
実施例3によれば、携帯端末とHMDの連携表示において、他人に見られたくない情報はHMDのみに表示することで、携帯端末の周囲の人にのぞき見されることがなく、ユーザのプライバシーを保護する効果がある。
【符号の説明】
【0124】
1:携帯端末、
2:ヘッドマウントディスプレイ(HMD)、
10,30:ディスプレイ、
11,31:表示制御部、
12,32:CPU(主制御部)、
14:データ保存メモリ、
16,36:外部機器IF(インターフェース)、
17,37:タッチセンサ、
20,40:カメラ、
21,41:各種センサ。