IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ セイコーエプソン株式会社の特許一覧

<>
  • 特開-表示方法および表示システム 図1
  • 特開-表示方法および表示システム 図2
  • 特開-表示方法および表示システム 図3
  • 特開-表示方法および表示システム 図4
  • 特開-表示方法および表示システム 図5
  • 特開-表示方法および表示システム 図6
  • 特開-表示方法および表示システム 図7
  • 特開-表示方法および表示システム 図8
  • 特開-表示方法および表示システム 図9
  • 特開-表示方法および表示システム 図10
  • 特開-表示方法および表示システム 図11
  • 特開-表示方法および表示システム 図12
  • 特開-表示方法および表示システム 図13
  • 特開-表示方法および表示システム 図14
  • 特開-表示方法および表示システム 図15
  • 特開-表示方法および表示システム 図16
  • 特開-表示方法および表示システム 図17
  • 特開-表示方法および表示システム 図18
  • 特開-表示方法および表示システム 図19
  • 特開-表示方法および表示システム 図20
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024004891
(43)【公開日】2024-01-17
(54)【発明の名称】表示方法および表示システム
(51)【国際特許分類】
   H04N 5/74 20060101AFI20240110BHJP
   G03B 21/00 20060101ALI20240110BHJP
   G10L 25/51 20130101ALI20240110BHJP
   G10L 17/00 20130101ALI20240110BHJP
【FI】
H04N5/74 Z
G03B21/00 D
G10L25/51 400
G10L17/00 200C
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2022104773
(22)【出願日】2022-06-29
(71)【出願人】
【識別番号】000002369
【氏名又は名称】セイコーエプソン株式会社
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100140774
【弁理士】
【氏名又は名称】大浪 一徳
(74)【代理人】
【識別番号】100114937
【弁理士】
【氏名又は名称】松本 裕幸
(74)【代理人】
【識別番号】100196058
【弁理士】
【氏名又は名称】佐藤 彰雄
(72)【発明者】
【氏名】山田 壮真
(72)【発明者】
【氏名】三好 一弘
(72)【発明者】
【氏名】竹内 広太
【テーマコード(参考)】
2K203
5C058
【Fターム(参考)】
2K203FA03
2K203FA23
2K203FA34
2K203KA42
2K203KA55
2K203MA23
5C058BA23
5C058EA02
5C058EA54
(57)【要約】
【課題】投射方向が可変であるプロジェクターが利用される際の、ユーザーの利便性を向上させる。
【解決手段】表示方法は、ユーザーを識別する第1の情報を、第1のセンサーの出力に基づいて取得することと、ユーザーの位置に関する第2の情報を、第2のセンサーの出力に基づいて取得することと、第2の情報に基づいて、第1の方向を決定することと、第1の情報と第2の情報との組み合わせに基づいて、画像の種類を決定することと、種類の画像を表す画像光を、プロジェクターによって第1の方向に投射することと、を含む。
【選択図】図4
【特許請求の範囲】
【請求項1】
ユーザーを識別する第1の情報を、第1のセンサーの出力に基づいて取得することと、
前記ユーザーの位置に関する第2の情報を、第2のセンサーの出力に基づいて取得することと、
前記第2の情報に基づいて、第1の方向を決定することと、
前記第1の情報と前記第2の情報との組み合わせに基づいて、画像の種類を決定することと、
前記種類の画像を表す画像光を、プロジェクターによって前記第1の方向に投射することと、
を含む、表示方法。
【請求項2】
前記第2の情報は、前記第2のセンサーに対して前記ユーザーが位置する第2の方向を示す情報を含み、
前記第1の方向を決定することは、前記第2の方向の反対方向を前記第1の方向として決定することを含む、
請求項1に記載の表示方法。
【請求項3】
前記種類を決定することは、前記第1の情報と前記第2の方向との組み合わせに基づいて、前記種類を決定することを含む、
請求項2に記載の表示方法。
【請求項4】
前記第2のセンサーは、複数のマイクロフォンを有し、
前記第2の情報を取得することは、
音波が音源から前記複数のマイクロフォンのそれぞれに到達する時刻の間に生じる時間差を、前記複数のマイクロフォンの出力に基づいて算出することと、
前記時間差に基づいて、前記第2の方向を決定することと、
を含む、
請求項2または3に記載の表示方法。
【請求項5】
前記第2の情報は、前記ユーザーが位置する場所を示す情報をさらに含み、
前記種類を決定することは、前記第1の情報と前記場所との組み合わせに基づいて、前記種類を決定することを含む、
請求項2に記載の表示方法。
【請求項6】
前記第2のセンサーは、一方向を撮影する第1のカメラであり、
前記第2の情報を取得することは、
前記ユーザーを含む第1の画像を、前記第1のカメラの出力に基づいて取得することと、
前記第1の画像に基づいて、前記第2の方向を決定することと、
前記第1の方向に位置する領域を含む第2の画像を、前記第1のカメラの出力に基づいて取得することと、
前記第2の画像に基づいて、前記場所を決定することと、
を含む、
請求項5に記載の表示方法。
【請求項7】
前記第2の情報は、前記ユーザーが位置する場所を示す情報を含み、
前記第1の方向を決定することは、前記第1の情報と前記場所との組み合わせに基づいて、前記第1の方向を決定することを含む、
請求項1に記載の表示方法。
【請求項8】
前記種類を決定することは、前記第1の情報と前記場所との組み合わせに基づいて、前記種類を決定することを含む、
請求項7に記載の表示方法。
【請求項9】
前記第2のセンサーは、360度の方向を撮影する第2のカメラであり、
前記第2の情報を取得することは、
前記第2のカメラを中心として前記360度の範囲に含まれる領域を含む第3の画像を、前記第2のカメラの出力に基づいて取得することと、
前記第3の画像に基づいて、前記場所を決定することと、
を含む、
請求項7または8に記載の表示方法。
【請求項10】
前記第1のセンサーは、少なくとも1つのマイクロフォンを有し、
前記第1の情報を取得することは、
前記ユーザーの声紋データを、前記少なくとも1つのマイクロフォンの出力に基づいて取得することと、
前記声紋データに基づいて、前記ユーザーを示す識別情報を前記第1の情報として取得することと、
を含む、
請求項1に記載の表示方法。
【請求項11】
第1のセンサーと、
第2のセンサーと、
画像光を投射する光学装置と、
前記画像光が投射される方向を所定の方向に向ける駆動装置と、
プロセッサーと、
を備え、
前記プロセッサーは、
ユーザーを識別する第1の情報を、前記第1のセンサーの出力に基づいて取得することと、
前記ユーザーの位置に関する第2の情報を、前記第2のセンサーの出力に基づいて取得することと、
前記第2の情報に基づいて、第1の方向を決定することと、
前記第1の情報と前記第2の情報との組み合わせに基づいて、画像の種類を決定することと、
前記光学装置及び前記駆動装置を制御することによって、前記種類の画像を表す画像光を前記第1の方向に投射することと、
を実行する、
表示システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、表示方法および表示システムに関する。
【背景技術】
【0002】
特許文献1には、プロジェクターの利用環境を示す環境情報と、プロジェクターを利用するユーザーに関するユーザー情報とに基づいて、画像コンテンツの投影位置及び投影向きを調整する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】国際公開第2020/031740号
【発明の概要】
【発明が解決しようとする課題】
【0004】
例えば、画像コンテンツの投影位置及び内容などを決定する方法は、ユーザーの利便性に影響し得るが、その方法は特許文献1に記載されていない。そのため、特許文献1の技術では、投射方向が可変であるプロジェクターが利用される際の、ユーザーの利便性を向上させることは困難である。
【課題を解決するための手段】
【0005】
本発明の一つの態様の表示方法は、ユーザーを識別する第1の情報を、第1のセンサーの出力に基づいて取得することと、前記ユーザーの位置に関する第2の情報を、第2のセンサーの出力に基づいて取得することと、前記第2の情報に基づいて、第1の方向を決定することと、前記第1の情報と前記第2の情報との組み合わせに基づいて、画像の種類を決定することと、前記種類の画像を表す画像光を、プロジェクターによって前記第1の方向に投射することと、を含む。
【0006】
本発明の一つの態様の表示システムは、第1のセンサーと、第2のセンサーと、画像光を投射する光学装置と、前記画像光が投射される方向を所定の方向に向ける駆動装置と、プロセッサーと、を備え、前記プロセッサーは、ユーザーを識別する第1の情報を、前記第1のセンサーの出力に基づいて取得することと、前記ユーザーの位置に関する第2の情報を、前記第2のセンサーの出力に基づいて取得することと、前記第2の情報に基づいて、第1の方向を決定することと、前記第1の情報と前記第2の情報との組み合わせに基づいて、画像の種類を決定することと、前記光学装置及び前記駆動装置を制御することによって、前記種類の画像を表す画像光を前記第1の方向に投射することと、を実行する。
【図面の簡単な説明】
【0007】
図1】第1実施形態の表示システムの斜視図である。
図2】第1実施形態の表示システムの側面図である。
図3】第1実施形態の表示システムの機能構成を示すブロック図である。
図4】第1実施形態のプロセッサーが実行する処理を示すフローチャートである。
図5】表示システムの設置例を示す平面図である。
図6】投射方向が第1の方向に向けられる様子を示す図である。
図7】第1のコンテンツ選択テーブルの一例を示す図である。
図8】画像光が第1の方向に投射される様子を示す図である。
図9】第2実施形態の表示システムの機能構成を示すブロック図である。
図10】第2実施形態のプロセッサーが実行する処理を示すフローチャートである。
図11】表示システムの設置例を示す平面図である。
図12】投射方向が第1の方向に向けられる様子を示す図である。
図13】第2のコンテンツ選択テーブルの一例を示す図である。
図14】画像光が第1の方向に投射される様子を示す図である。
図15】第3実施形態の表示システムの機能構成を示すブロック図である。
図16】第3実施形態のプロセッサーが実行する処理を示すフローチャートである。
図17】表示システムの設置例を示す平面図である。
図18】方向設定テーブルの一例を示す図である。
図19】投射方向が第1の方向に向けられる様子を示す図である。
図20】画像光が第1の方向に投射される様子を示す図である。
【発明を実施するための形態】
【0008】
以下、本開示の一実施形態について図面を参照しながら説明する。
なお、以下の各図面においては各構成要素を見やすくするため、構成要素によって寸法の縮尺を異ならせて示すことがある。
【0009】
〔第1実施形態〕
まず、本開示の第1実施形態について説明する。
図1は、本実施形態の表示システム1の外観を模式的に示す斜視図である。図2は、図1で示される表示システム1の側面図である。図1及び図2に示すように、表示システム1は、プロジェクター10と、台座20と、駆動装置30と、を備える。
【0010】
プロジェクター10は、画像光Lを不図示の投射面に投射することにより、投射面に画像を表示する。投射面は、専用のプロジェクタースクリーンでもよいし、或いは、壁面などでもよい。一例として、プロジェクター10は、6つの平面を有する6面体である。プロジェクター10の前面11には、プロジェクター10の内部で生成された画像光Lを出射する光出射部12が設けられている。以下の説明では、プロジェクター10から画像光Lが投射される方向を「投射方向Dp」と呼称する。例えば、投射方向Dpは、前面11に直交する方向であって、且つプロジェクター10から遠ざかる方向である。
【0011】
台座20は、プロジェクター10を所定の場所に設置するための支持部材である。台座20は、プロジェクター10及び駆動装置30を支持する。一例として、台座20は、円板形状を有する。台座20の上面21に駆動装置30が配置されており、台座20は、駆動装置30を介してプロジェクター10の下面13と連結されている。
【0012】
駆動装置30は、画像光Lが投射される方向、すなわち投射方向Dpを、所定の方向に向ける。具体的には、図2に示すように、駆動装置30は、プロジェクター10を、ヨー軸Yとピッチ軸Xとの少なくとも一方の軸周りに回転させることにより、投射方向Dpを所定の方向に向ける。駆動装置30は、第1の駆動装置31と、第2の駆動装置32と、を有する。
【0013】
第1の駆動装置31は、プロジェクター10をヨー軸Y周りに回転させる。一例として、第1の駆動装置31は、台座20よりも径が小さい円柱形状を有する。第1の駆動装置31は、その中心軸が台座20の中心軸と一致する状態で、台座20の上面21に配置されている。第1の駆動装置31の中心軸が、ヨー軸Yである。第1の駆動装置31がヨー軸Y周りに回転することにより、プロジェクター10もヨー軸Y周りに回転する。
【0014】
第2の駆動装置32は、プロジェクター10をピッチ軸X周りに回転させる。一例として、第2の駆動装置32は、半円柱形状を有する。第2の駆動装置32が有する面のうち、第2の駆動装置32の径方向に延びる面が、プロジェクター10の下面13に接続されている。第2の駆動装置32は、その中心軸がヨー軸Yと直交する状態で、第1の駆動装置31の上端面に配置されている。第2の駆動装置32の中心軸が、ピッチ軸Xである。第2の駆動装置32がピッチ軸X周りに回転することにより、プロジェクター10もピッチ軸X周りに回転する。
【0015】
上記のように構成された駆動装置30の動作は、後述のプロセッサー47によって制御される。すなわち、第1の駆動装置31のヨー軸Y周りの回転動作と、第2の駆動装置32のピッチ軸X周りの回転動作とのそれぞれは、プロセッサー47によって制御される。より具体的には、第1の駆動装置31のヨー軸Y周りの回転角度であるヨー角θと、第2の駆動装置32のピッチ軸X周りの回転角度であるピッチ角αとのそれぞれが、プロセッサー47によって制御されることにより、投射方向Dpは所定の方向に向けられる。このように、本実施形態の表示システム1において、プロジェクター10の投射方向Dpは可変である。
【0016】
図3は、表示システム1の機能構成を模式的に示すブロック図である。図3に示すように、表示システム1は、機能を有する構成要素として、上記のプロジェクター10及び駆動装置30を備える。さらに、プロジェクター10は、光学装置41と、入力装置42と、通信装置43と、マイクロフォンアレイ44と、スピーカー45と、メモリー46と、プロセッサー47と、を備える。
【0017】
光学装置41は、プロセッサー47によって制御されることにより、カラー画像を表す画像光Lを生成し、生成した画像光Lを投射方向Dpに投射する。光学装置41は、第1の画像生成パネル41aと、第2の画像生成パネル41bと、第3の画像生成パネル41cと、ダイクロイックプリズム41dと、投射光学系41eと、を有する。
【0018】
第1の画像生成パネル41aは、赤色の画像を表す赤色画像光LRを生成してダイクロイックプリズム41dに出射する。第1の画像生成パネル41aは、マトリクス状に配置された複数の画素を有し、複数の画素のそれぞれは赤色光を出射する。プロセッサー47によって画素ごとに赤色光の出射光量が制御されることにより、第1の画像生成パネル41aから赤色画像光LRが出射される。
【0019】
第2の画像生成パネル41bは、緑色の画像を表す緑色画像光LGを生成してダイクロイックプリズム41dに出射する。第2の画像生成パネル41bは、マトリクス状に配置された複数の画素を有し、複数の画素のそれぞれは緑色光を出射する。プロセッサー47によって画素ごとに緑色光の出射光量が制御されることにより、第2の画像生成パネル41bから緑色画像光LGが出射される。
【0020】
第3の画像生成パネル41cは、青色の画像を表す青色画像光LBを生成してダイクロイックプリズム41dに出射する。第3の画像生成パネル41cは、マトリクス状に配置された複数の画素を有し、複数の画素のそれぞれは青色光を出射する。プロセッサー47によって画素ごとに青色光の出射光量が制御されることにより、第3の画像生成パネル41cから青色画像光LBが出射される。
【0021】
例えば、各画像生成パネル41a、41b及び41cは、OLED(Organic Light Emitting Diode)パネル、又はμLED(Micro Light Emitting Diode)パネルなどの自発光型電気光学装置である。なお、各画像生成パネル41a、41b及び41cは、液晶パネル、又はDMD(Digital Micromirror Device)などの非自発光型電気光学装置であってもよい。各画像生成パネル41a、41b及び41cが非自発光型電気光学装置である場合には、LED等の不図示の光源からの光が、赤色光、緑色光、及び青色光にそれぞれ分離される。赤色光は、第1の画像生成パネル41aに入射する。緑色光は、第2の画像生成パネル41bに入射する。青色光は、第3の画像生成パネル41cに入射する。また、単板の画像生成パネルを用いて、時分割で各色の光を出射させてもよい。
【0022】
ダイクロイックプリズム41dは、赤色画像光LRと、緑色画像光LGと、青色画像光LBとを合成することにより、カラー画像を表す画像光Lを生成して投射光学系41eに出射する。投射光学系41eは、レンズなどの複数の光学素子から構成されており、ダイクロイックプリズム41dから出射される画像光Lを投射方向Dpに向けて拡大投射する。図示は省略するが、投射光学系41eには、レンズシフト量、レンズフォーカス量及びレンズズーム量などの光学パラメーターを調整できる機構が設けられている。それらの機構がプロセッサー47によって制御されることにより、投射光学系41eの光学パラメーターが調整される。
【0023】
入力装置42は、プロジェクター10に対するユーザーの入力操作を受け付ける装置である。一例として、入力装置42は、操作部42aと、受光部42bと、を含む。操作部42aは、プロジェクター10に設けられた複数の操作キーから構成される。例えば、操作キーは、電源キー、メニュー呼び出しキー、方向キー、決定キー、および音量調整キーなどを含む。操作キーは、ハードウェアキーでもよいし、或いはプロジェクター10に設けられたタッチパネルに表示されるソフトウェアキーでもよい。操作部42aは、各操作キーがユーザーによって操作されることで生じる電気信号を操作信号としてプロセッサー47に出力する。
【0024】
受光部42bは、プロジェクター10のリモートコントローラー(図示省略)から送信される赤外光を受光して電気信号に変換する光電変換回路を含む。受光部42bは、赤外光の光電変換によって得られた電気信号をリモート操作信号としてプロセッサー47に出力する。リモートコントローラーには、操作部42aと同様に複数の操作キーが設けられている。リモートコントローラーは、リモートコントローラーに設けられた各操作キーがユーザーによって操作されることで生じる電気信号を赤外光に変換してプロジェクター10に送信する。つまり、受光部42bから出力されるリモート操作信号は、リモートコントローラーの各操作キーがユーザーによって操作されることで生じる電気信号と実質的に同じである。なお、リモートコントローラーが、Bluetooth(登録商標)などの近距離無線通信規格に従って電波信号を送信する場合には、受光部42bの代わりに、電波信号を受信する受信装置を設けてもよい。
【0025】
通信装置43は、プロセッサー47からの指示に従って、例えばWi-Fi(登録商標)などの無線通信規格をサポートする無線LAN(Local Area Network)を介してインターネットにアクセスし、映像コンテンツ配信サービスを提供するインターネットサーバーである映像コンテンツ配信サーバー(図示省略)と通信する。通信装置43は、映像コンテンツ配信サーバーから受信した映像信号をプロセッサー47に出力する。
【0026】
マイクロフォンアレイ44は、所定の間隔で配置された複数のマイクロフォンを有する。各マイクロフォンは、ユーザーの音声を電気信号に変換する。マイクロフォンアレイ44は、複数のマイクロフォンから得られる電気信号を音声信号としてプロセッサー47に出力する。スピーカー45は、プロセッサー47によって制御されることにより、所定の音量を有する音声を出力する。
【0027】
メモリー46は、プロセッサー47に各種処理を実行させるのに必要なプログラム及び各種設定データなどを記憶する不揮発性メモリーと、プロセッサー47が各種処理を実行する際にデータの一時保存先として使用される揮発性メモリーとを含む。例えば、不揮発性メモリーは、EEPROM(Electrically Erasable Programmable Read-Only Memory)又はフラッシュメモリーなどである。揮発性メモリーは、例えばRAM(Random Access Memory)などである。
【0028】
プロセッサー47は、メモリー46に予め記憶されたプログラムに従って、プロジェクター10及び駆動装置30の動作を制御する演算処理装置である。一例を挙げると、プロセッサー47は、単数または複数のCPU(Central Processing Unit)によって構成される。プロセッサー47の機能の一部または全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及びFPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。プロセッサー47は、各種の処理を並列的または逐次的に実行する。
【0029】
プロセッサー47は、操作部42aから入力される操作信号と、受光部42bから入力されるリモート操作信号と、マイクロフォンアレイ44から入力される音声信号と、通信装置43から入力される映像信号とに基づいて、駆動装置30、光学装置41及びスピーカー45を制御する。プロセッサー47が実行する処理の詳細については後述する。
【0030】
次に、上記のように構成された表示システム1の動作について説明する。
図4は、第1実施形態においてプロセッサー47が実行する第1の表示処理を示すフローチャートである。プロセッサー47は、音声信号の入力を待ち受ける音声待ち受けモードで動作している期間に、マイクロフォンアレイ44から音声信号が入力されると、メモリー46からプログラムを読み出して実行することにより、図4で示される第1の表示処理を実行する。プロセッサー47が第1の表示処理を実行することにより、第1実施形態の表示方法が実現される。
【0031】
図5は、表示システム1の設置例を示す平面図である。図5で示される例において、表示システム1は、ユーザー100の自宅に設けられた部屋200内の中央に設置されている。部屋200は、北(N)に位置する北側壁面210と、南(S)に位置する南側壁面220と、東(E)に位置する東側壁面230と、西(W)に位置する西側壁面240と、を有する。以下の説明では、図5に示すように、プロジェクター10の投射方向Dpが南を向き、且つユーザー100が表示システム1の西側に位置する状態で、プロセッサー47が音声待ち受けモードで動作していると想定する。
【0032】
図5で示される状況でユーザー100が音声を発すると、マイクロフォンアレイ44からプロセッサー47に音声信号が出力される。プロセッサー47は、音声待ち受けモードで動作している期間に、マイクロフォンアレイ44から音声信号が入力されると、図4で示される第1の表示処理を開始する。
【0033】
図4に示すように、プロセッサー47は、第1の表示処理を開始すると、まず、マイクロフォンアレイ44から入力される音声信号と、メモリー46に予め記憶されているユーザー情報とに基づいて、ユーザー認証を行う(ステップS1)。ステップS1は、ステップS1a、S1b、S1c及びS1dを含む。
【0034】
ユーザー情報とは、表示システム1の正規ユーザーとして登録された複数のユーザーに関する情報である。以下では、表示システム1の正規ユーザーとして登録されたユーザーを「登録ユーザー」と呼称する。一例として、ユーザー情報は、登録ユーザーのユーザーIDと、ユーザーIDに紐づけられた登録声紋データと、を含む。ユーザーIDは、登録ユーザーの識別情報である。例えば、ユーザーIDは、登録ユーザーの名前でもよいし、登録ユーザーに個別に割り当てられた識別番号でもよい。登録声紋データは、予め登録ユーザーの音声を解析することにより得られた、登録ユーザーの声紋データである。
【0035】
具体的には、ステップS1において、プロセッサー47は、まず、マイクロフォンアレイ44に含まれる複数のマイクロフォンから出力される音声信号のうち、少なくとも1つの音声信号に対して周波数解析を行うことにより、ユーザー100の声紋データを取得する(ステップS1a)。
【0036】
続いて、プロセッサー47は、ユーザー100の声紋データと一致する登録声紋データがユーザー情報に存在するか否かを判定する(ステップS1b)。プロセッサー47は、ユーザー100の声紋データと一致する登録声紋データがユーザー情報に存在する場合(ステップS1b:Yes)、ユーザー情報に含まれるユーザーIDのうち、ユーザー100の声紋データと一致する登録声紋データに紐づけられたユーザーIDを、ユーザー100のユーザーIDとして取得する(ステップS1c)。
【0037】
一方、プロセッサー47は、ユーザー100の声紋データと一致する登録声紋データがユーザー情報に存在しない場合(ステップS1b:No)、ユーザー認証が失敗したことをユーザー100に知らせる音声を出力するようにスピーカー45を制御する(ステップS1d)。プロセッサー47は、ステップS1dを実行した後、第1の表示処理を終了して音声待ち受けモードに戻る。
【0038】
上記のように、ステップS1において、プロセッサー47は、ユーザー100を識別する第1の情報を、第1のセンサーの出力に基づいて取得すること、を実行する。すなわち、第1実施形態の表示方法は、ユーザー100を識別する第1の情報を、第1のセンサーの出力に基づいて取得すること、を含む。第1実施形態では、ユーザー100のユーザーIDが第1の情報に対応し、マイクロフォンアレイ44が第1のセンサーに対応する。
【0039】
また、第1実施形態の表示方法において、第1のセンサーであるマイクロフォンアレイ44は、少なくとも1つのマイクロフォンを有し、第1の情報を取得することは、ユーザー100の声紋データを、少なくとも1つのマイクロフォンの出力に基づいて取得することと、声紋データに基づいて、ユーザー100を示す識別情報を第1の情報として取得することと、を含む。第1実施形態では、ユーザー100のユーザーIDが、ユーザー100を示す識別情報に対応する。なお、音声によるユーザー認証技術は一般的に知られた技術であるため、本実施形態においてステップS1に関する詳細な説明は省略する。
【0040】
続いて、プロセッサー47は、マイクロフォンアレイ44から入力される音声信号に基づいて、音源方向Dsを決定する(ステップS2)。音源方向Dsとは、マイクロフォンアレイ44に対して音源が位置する方向である。なお、ユーザー100が音源であるため、音源方向Dsとは、マイクロフォンアレイ44に対してユーザー100が位置する方向であると言い換えることができる。
【0041】
マイクロフォンアレイ44に含まれる各マイクロフォンから音源までの距離が異なる場合、音波が音源から各マイクロフォンに到達する時刻の間に時間差が生じる。以下では、音波が音源から各マイクロフォンに到達する時刻の間に生じる時間差を「音波到達時間差」と呼称する。このような音波到達時間差に基づいて音源方向Dsを決定または算出する技術は、音源定位技術として一般的に知られている。一例として、第1実施形態では、この音源定位技術を利用することにより、音源方向Dsが決定される。
【0042】
すなわち、ステップS2において、プロセッサー47は、マイクロフォンアレイ44に含まれる複数のマイクロフォンから出力される音声信号に基づいて、音波到達時間差を算出し、算出した音源到達時間差に基づいて、音源方向Dsを決定する。上記のように、音源定位技術は一般的に知られた技術であるため、ステップS2に関する詳細な説明は省略する。例えば、図5に示すように、ユーザー100が表示システム1の西側に位置する場合、プロセッサー47は、「西」を音源方向Dsとして決定する。なお、方位として各種の方向を決定する場合は、不図示の方位センサーを用いても良く、プロセッサー47は、メモリー46に予め記憶された、プロジェクター10を基準とした方向と方位との対応関係を示す情報を参照してもよい。
【0043】
上記のように、ステップS2において、プロセッサー47は、ユーザー100の位置に関する第2の情報を、第2のセンサーの出力に基づいて取得すること、を実行する。すなわち、第1実施形態の表示方法は、ユーザー100の位置に関する第2の情報を、第2のセンサーの出力に基づいて取得すること、を含む。第2の情報は、第2のセンサーに対してユーザー100が位置する第2の方向を示す情報を含む。第1実施形態では、マイクロフォンアレイ44が第2のセンサーに対応し、音源方向Ds、すなわちマイクロフォンアレイ44に対してユーザー100が位置する方向が第2の方向に対応し、第2の方向を示す情報が第2の情報に対応する。このように、第1のセンサーと第2のセンサーとが同一のセンサーであってもよいが、第1のセンサーと第2のセンサーとが異なるセンサーであってもよい。
【0044】
また、第1実施形態の表示方法において、第2のセンサーであるマイクロフォンアレイ44は、複数のマイクロフォンを有し、第2の情報を取得することは、音波が音源から複数のマイクロフォンのそれぞれに到達する時刻の間に生じる時間差、すなわち音波到達時間差を、複数のマイクロフォンの出力に基づいて算出することと、時間差に基づいて、第2の方向である音源方向Dsを決定することと、を含む。
【0045】
図4に示すように、プロセッサー47は、上記のステップS2を実行した後、音源方向Dsに基づいて、第1の方向D1を決定する(ステップS3)。具体的には、ステップS3において、プロセッサー47は、音源方向Dsの反対方向を第1の方向D1として決定する。例えば、図5に示すように、プロセッサー47は、「西」を音源方向Dsとして決定した場合、音源方向Dsの反対方向である「東」を第1の方向D1として決定する。
【0046】
上記のように、ステップS3において、プロセッサー47は、第2の情報である音源方向Dsを示す情報に基づいて、第1の方向D1を決定すること、を実行する。すなわち、第1実施形態の表示方法は、第2の情報に基づいて、第1の方向D1を決定すること、を含む。第1の方向D1を決定することは、第2の方向である音源方向Dsの反対方向を第1の方向D1として決定することを含む。
【0047】
図4に示すように、プロセッサー47は、上記のステップS3を実行した後、プロジェクター10の投射方向Dpが第1の方向D1に向けられるように駆動装置30を制御する(ステップS4)。より具体的には、ステップS4において、プロセッサー47は、プロジェクター10の投射方向Dpが第1の方向D1に向けられるように、第1の駆動装置31のヨー角θと、第2の駆動装置32のピッチ角αとを制御する。
【0048】
図6は、プロジェクター10の投射方向Dpが第1の方向D1に向けられる様子を示す図である。例えば、図5を参照して説明したように、プロセッサー47は、プロジェクター10の投射方向Dpが南を向いた状態で、「東」を第1の方向D1として決定した場合、プロジェクター10の投射方向Dpが南から東に向けられるように駆動装置30を制御する。その結果、図6に示すように、プロジェクター10がヨー軸Yを中心として反時計回りに90度回転することにより、プロジェクター10の投射方向Dpは東に向けられる。
【0049】
図4に示すように、プロセッサー47は、上記のステップS4を実行した後、ユーザー100のユーザーIDと音源方向Dsとの組み合わせに基づいて、投射コンテンツを決定する(ステップS5)。投射コンテンツとは、プロジェクター10から画像光Lとして投射されることにより、ユーザー100に提供される映像コンテンツである。映像コンテンツとは、例えば、映画、TVドラマ、アニメーション、天気、政治、経済、及びスポーツなどの各映像ジャンルに属する映像作品または放送番組である。
【0050】
具体的には、ステップS5において、プロセッサー47は、ユーザー100のユーザーIDと音源方向Dsとの組み合わせと、メモリー46に予め記憶されている第1のコンテンツ選択テーブルとに基づいて、投射コンテンツを決定する。図7は、第1のコンテンツ選択テーブルの一例を示す図である。図7に示すように、第1のコンテンツ選択テーブルは、ユーザーIDと音源方向Dsとの組み合わせと、映像ジャンルとの対応関係を示すデータである。
【0051】
例えば、第1のコンテンツ選択テーブルにおいて、「ユーザーA」というユーザーIDと、「西」という音源方向Dsとの組み合わせに対して、「映画」が映像ジャンルとして紐づけられている。また、第1のコンテンツ選択テーブルにおいて、「ユーザーB」というユーザーIDと、「東」という音源方向Dsとの組み合わせに対して、「天気」が映像ジャンルとして紐づけられている。さらに、第1のコンテンツ選択テーブルにおいて、「ユーザーC」というユーザーIDと、「南」という音源方向Dsとの組み合わせに対して、「アニメーション」が映像ジャンルとして紐づけられている。
【0052】
ステップS5において、プロセッサー47は、まず、第1のコンテンツ選択テーブルに含まれる映像ジャンルから、ユーザー100のユーザーIDと音源方向Dsとの組み合わせに対応する映像ジャンルを選択する。例えば、ステップS1において「ユーザーA」がユーザー100のユーザーIDとして取得され、ステップS2において「西」が音源方向Dsとして決定された場合、プロセッサー47は、第1のコンテンツ選択テーブルに含まれる映像ジャンルから「映画」を選択する。
【0053】
例えば、プロセッサー47は、映像ジャンルを選択した後、通信装置43を介して映像コンテンツ配信サーバーと通信することにより、選択した映像ジャンルに属する映像コンテンツの配信リストを、映像コンテンツ配信サーバーから取得する。プロセッサー47は、配信リストと、配信リストから映像コンテンツを選択する操作を行うことをユーザー100に要求するメッセージとを含む配信リスト画像を生成する。プロセッサー47は、配信リスト画像を表す画像光Lが投射されるように光学装置41を制御する。
【0054】
図8は、画像光Lが第1の方向D1に投射される様子を示す図である。例えば、図8に示すように、プロジェクター10の投射方向Dpが、第1の方向D1の一例である東に向けられた状態で、プロセッサー47が、配信リスト画像を表す画像光Lが投射されるように光学装置41を制御すると、プロジェクター10から東に向かって画像光Lが投射される。その結果、部屋200の壁面のうち、東、すなわちユーザー100の正面方向に位置する東側壁面230に配信リスト画像が表示される。
【0055】
例えば、ユーザー100は、東側壁面230に表示される配信リスト画像を見ながら、リモートコントローラーを用いて、配信リストから映像コンテンツを選択する操作を行う。プロセッサー47は、配信リスト画像が表示されている期間に、受光部42bから入力されるリモート操作信号に基づいて、配信リストから映像コンテンツを選択する操作を受け付けたと判定すると、ユーザー100によって選択された映像コンテンツを、投射コンテンツとして決定する。
【0056】
または、プロセッサー47は、以下の処理を実行することで投射コンテンツを決定してもよい。例えば、各映像ジャンルに属する複数の映像コンテンツの映像信号が、メモリー46に予め保存されている場合、プロセッサー47は、選択した映像ジャンルに属する映像コンテンツの保存リストを作成する。プロセッサー47は、保存リストと、保存リストから映像コンテンツを選択する操作を行うことをユーザー100に要求するメッセージとを含む保存リスト画像を生成する。プロセッサー47は、保存リスト画像を表す画像光Lが投射されるように光学装置41を制御する。
【0057】
例えば、ユーザー100は、表示された保存リスト画像を見ながら、リモートコントローラーを用いて、保存リストから映像コンテンツを選択する操作を行う。プロセッサー47は、保存リスト画像が表示されている期間に、受光部42bから入力されるリモート操作信号に基づいて、保存リストから映像コンテンツを選択する操作を受け付けたと判定すると、ユーザー100によって選択された映像コンテンツを、投射コンテンツとして決定する。
【0058】
上記のように、ステップS5において、プロセッサー47は、第1の情報と第2の情報との組み合わせに基づいて、画像の種類を決定すること、を実行する。すなわち、第1実施形態の表示方法は、第1の情報と第2の情報との組み合わせに基づいて、画像の種類を決定すること、を含む。第1実施形態において、ユーザー100のユーザーIDが第1の情報に対応し、音源方向Dsを示す情報が第2の情報に対応し、投射コンテンツが画像の種類に対応する。すなわち、画像の種類とは、映像ジャンル別に分類される映像作品または放送番組などの映像コンテンツである。
【0059】
図4に示すように、プロセッサー47は、上記のステップS5を実行した後、投射コンテンツの画像を表す画像光Lが投射されるように光学装置41を制御する(ステップS6)。具体的には、ステップS6において、プロセッサー47は、投射コンテンツとして決定された映像コンテンツの映像信号を、通信装置43を介して映像コンテンツ配信サーバーから受信するか、または、メモリー46から読み出す。そして、プロセッサー47は、映像信号に含まれる画像データに基づく画像を表す画像光Lが投射されるように光学装置41を制御し、映像信号に含まれる音声データに基づく音声が出力されるようにスピーカー45を制御する。
【0060】
例えば、図8に示すように、プロジェクター10の投射方向Dpが、第1の方向D1の一例である東に向けられた状態で、プロセッサー47が、投射コンテンツの画像を表す画像光Lが投射されるように光学装置41を制御すると、プロジェクター10から東に向かって画像光Lが投射される。その結果、部屋200の壁面のうち、ユーザー100の正面方向に位置する東側壁面230に、投射コンテンツとして決定された映像コンテンツの画像が表示される。
【0061】
上記のように、ステップS4及びS6において、プロセッサー47は、光学装置41及び駆動装置30を制御することによって、決定された種類の画像である投射コンテンツの画像を表す画像光Lを第1の方向D1に投射すること、を実行する。すなわち、第1実施形態の表示方法は、決定された種類の画像を表す画像光Lを、プロジェクター10によって第1の方向D1に投射すること、を含む。
【0062】
(第1実施形態の効果)
以上のように、第1実施形態の表示方法は、ユーザー100を識別する第1の情報であるユーザーIDを、第1のセンサーであるマイクロフォンアレイ44の出力に基づいて取得することと、ユーザー100の位置に関する第2の情報である音源方向Dsを示す情報を、第2のセンサーであるマイクロフォンアレイ44の出力に基づいて取得することと、第2の情報に基づいて、第1の方向D1を決定することと、第1の情報と第2の情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定することと、決定された種類の画像である投射コンテンツの画像を表す画像光Lを、プロジェクター10によって第1の方向D1に投射することと、を含む。
ユーザー100が求める映像コンテンツは、ユーザー100の年齢、性別、職業、及び趣味などの個人属性だけでなく、ユーザー100の位置によって異なる場合がある。第1実施形態の表示方法では、ユーザー100を識別する第1の情報と、ユーザー100の位置に関する第2の情報とに基づいて、投射コンテンツが決定され、第2の情報に基づいて決定された第1の方向D1に、投射コンテンツの画像を表す画像光Lが投射される。
これにより、ユーザー100の個人属性及び位置に適した映像コンテンツの画像が、ユーザー100が視認しやすい投射面に表示される可能性が高まる。従って、第1実施形態の表示方法によれば、投射方向Dpが可変であるプロジェクター10が利用される際の、ユーザー100の利便性を向上させることができる。
【0063】
第1実施形態の表示方法において、第2の情報は、第2のセンサーであるマイクロフォンアレイ44に対してユーザー100が位置する第2の方向である音源方向Dsを示す情報を含み、第1の方向D1を決定することは、第2の方向である音源方向Dsの反対方向を第1の方向D1として決定することを含む。
このように、第2のセンサーに対してユーザー100が位置する第2の方向の反対方向を、第1の方向D1として決定することにより、ユーザー100の正面方向に位置する投射面、すなわちユーザー100が視認しやすい投射面に、投射コンテンツの画像を表示させることができるため、ユーザー100の利便性が向上する。
【0064】
第1実施形態の表示方法において、画像の種類である投射コンテンツを決定することは、第1の情報であるユーザーIDと第2の方向である音源方向Dsとの組み合わせに基づいて、画像の種類である投射コンテンツを決定することを含む。
このように、第1の情報であるユーザーIDと第2の方向である音源方向Dsとの組み合わせに基づいて、投射コンテンツを決定することにより、ユーザー100の個人属性と、ユーザー100が位置する第2の方向との組み合わせに適した映像コンテンツの画像を、ユーザー100の正面方向に位置する投射面に表示させることができるため、ユーザー100の利便性が向上する。
【0065】
第1実施形態の表示方法において、第2のセンサーであるマイクロフォンアレイ44は、複数のマイクロフォンを有し、第2の情報を取得することは、音波が音源から複数のマイクロフォンのそれぞれに到達する時刻の間に生じる時間差を、複数のマイクロフォンの出力に基づいて算出することと、時間差に基づいて、第2の方向である音源方向Dsを決定することと、を含む。
このように、音波が音源から複数のマイクロフォンのそれぞれに到達する時刻の間に生じる時間差を、複数のマイクロフォンの出力に基づいて算出することにより、第2のセンサーに対して音源が位置する方向である音源方向Dsを、ユーザー100が位置する第2の方向として正確に得ることができる。
【0066】
第1実施形態の表示方法において、第1のセンサーであるマイクロフォンアレイ44は、少なくとも1つのマイクロフォンを有し、第1の情報を取得することは、ユーザー100の声紋データを、少なくとも1つのマイクロフォンの出力に基づいて取得することと、声紋データに基づいて、ユーザー100を示す識別情報であるユーザーIDを第1の情報として取得することと、を含む。
このように、ユーザー100固有の生体データである声紋データを、少なくとも1つのマイクロフォンの出力に基づいて取得することにより、ユーザー100のユーザーIDを第1の情報として正確に得ることができる。また、第1実施形態のように、第1のセンサーと第2のセンサーとが同一のセンサー、すなわちマイクロフォンアレイ44であることにより、この1つのセンサーの出力に基づいて、第1の情報と第2の情報との両方を取得できる。
【0067】
第1実施形態の表示システム1は、第1のセンサーであるマイクロフォンアレイ44と、第2のセンサーであるマイクロフォンアレイ44と、画像光Lを投射する光学装置41と、画像光Lが投射される方向を所定の方向に向ける駆動装置30と、プロセッサー47と、を備える。プロセッサー47は、ユーザー100を識別する第1の情報であるユーザーIDを、第1のセンサーの出力に基づいて取得することと、ユーザー100の位置に関する第2の情報である音源方向Dsを示す情報を、第2のセンサーの出力に基づいて取得することと、第2の情報に基づいて、第1の方向D1を決定することと、第1の情報と第2の情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定することと、光学装置41及び駆動装置30を制御することによって、決定された種類の画像である投射コンテンツの画像を表す画像光Lを第1の方向D1に投射することと、を実行する。
第1実施形態の表示システム1では、ユーザー100を識別する第1の情報と、ユーザー100の位置に関する第2の情報とに基づいて、投射コンテンツが決定され、第2の情報に基づいて決定された第1の方向D1に、投射コンテンツの画像を表す画像光Lが投射される。
これにより、ユーザー100の個人属性及び位置に適した映像コンテンツの画像が、ユーザー100が視認しやすい投射面に表示される可能性が高まる。従って、第1実施形態の表示システム1によれば、投射方向Dpが可変であるプロジェクター10が利用される際の、ユーザー100の利便性を向上させることができる。
【0068】
〔第2実施形態〕
以下、本開示の第2実施形態について説明する。以下に例示する各形態において、第1実施形態と共通の構成については、第1実施形態で使用した符号と同じ符号を付し、詳細な説明を適宜省略する。
図9は、第2実施形態の表示システム2の機能構成を模式的に示すブロック図である。図9に示すように、表示システム2は、機能を有する構成要素として、プロジェクター10A及び駆動装置30を備える。第2実施形態のプロジェクター10Aは、光学装置41と、入力装置42と、通信装置43と、スピーカー45と、メモリー46と、プロセッサー47と、を備える点で、第1実施形態のプロジェクター10と一致する。
【0069】
プロジェクター10Aは、マイクロフォンアレイ44に替えて、マイクロフォン48を第1のセンサーとして備える点で、プロジェクター10と相違する。また、プロジェクター10Aは、第1のカメラ49を第2のセンサーとして備える点で、プロジェクター10と相違する。以下、第2実施形態と第1実施形態との相違点について詳細に説明する。
【0070】
マイクロフォン48は、ユーザー100の音声を電気信号に変換し、電気信号を音声信号としてプロセッサー47に出力する。第1のカメラ49は、一方向を撮影するデジタルカメラである。第1のカメラ49は、投射方向Dpを撮影するように、プロジェクター10Aに取り付けられている。言い換えれば、第1のカメラ49は、その撮影方向が投射方向Dpと一致するように、プロジェクター10Aに取り付けられている。第1のカメラ49は、撮影画像を示す撮影画像データをプロセッサー47に出力する。
【0071】
次に、上記のように構成された表示システム2の動作について説明する。
図10は、第2実施形態においてプロセッサー47が実行する第2の表示処理を示すフローチャートである。プロセッサー47は、音声待ち受けモードで動作している期間に、マイクロフォン48から音声信号が入力されると、メモリー46からプログラムを読み出して実行することにより、図10で示される第2の表示処理を実行する。プロセッサー47が第2の表示処理を実行することにより、第2実施形態の表示方法が実現される。
【0072】
図11は、表示システム2の設置例を示す平面図である。図11で示される例において、表示システム2は、図5で示される例と同様に、ユーザー100の自宅に設けられた部屋200内の中央に設置されている。以下の説明では、図11に示すように、プロジェクター10Aの投射方向Dpが東を向き、且つユーザー100が表示システム2の東側に位置する状態で、プロセッサー47が音声待ち受けモードで動作していると想定する。この場合、第1のカメラ49は、投射方向Dpと同一の方向である東を撮影する。
【0073】
図11で示される状況でユーザー100が音声を発すると、マイクロフォン48からプロセッサー47に音声信号が出力される。プロセッサー47は、音声待ち受けモードで動作している期間に、マイクロフォン48から音声信号が入力されると、図10で示される第2の表示処理を開始する。
【0074】
図10に示すように、プロセッサー47は、第2の表示処理を開始すると、まず、マイクロフォン48から入力される音声信号と、メモリー46に予め記憶されているユーザー情報とに基づいて、ユーザー認証を行う(ステップS11)。ステップS11は、ステップS11a、S11b、S11c及びS11dを含む。第2の表示処理におけるステップS11の処理は、第1の表示処理におけるステップS1の処理と実質的に同じであるため、以下ではステップS11の処理について簡単に説明する。
【0075】
ステップS11において、プロセッサー47は、まず、マイクロフォン48から出力される音声信号に対して周波数解析を行うことにより、ユーザー100の声紋データを取得する(ステップS11a)。プロセッサー47は、ユーザー100の声紋データと一致する登録声紋データがユーザー情報に存在するか否かを判定する(ステップS11b)。プロセッサー47は、ユーザー100の声紋データと一致する登録声紋データがユーザー情報に存在する場合(ステップS11b:Yes)、ユーザー情報に含まれるユーザーIDのうち、ユーザー100の声紋データと一致する登録声紋データに紐づけられたユーザーIDを、ユーザー100のユーザーIDとして取得する(ステップS11c)。
【0076】
一方、プロセッサー47は、ユーザー100の声紋データと一致する登録声紋データがユーザー情報に存在しない場合(ステップS11b:No)、ユーザー認証が失敗したことをユーザー100に知らせる音声を出力するようにスピーカー45を制御する(ステップS11d)。プロセッサー47は、ステップS11dを実行した後、第2の表示処理を終了して音声待ち受けモードに戻る。
【0077】
上記のように、ステップS11において、プロセッサー47は、ユーザー100を識別する第1の情報を、第1のセンサーの出力に基づいて取得すること、を実行する。すなわち、第2実施形態の表示方法は、ユーザー100を識別する第1の情報を、第1のセンサーの出力に基づいて取得すること、を含む。第2実施形態では、ユーザーIDが第1の情報に対応し、マイクロフォン48が第1のセンサーに対応する。
【0078】
また、第2実施形態の表示方法において、第1のセンサーは、少なくとも1つのマイクロフォン48を有し、第1の情報を取得することは、ユーザー100の声紋データを、少なくとも1つのマイクロフォン48の出力に基づいて取得することと、声紋データに基づいて、ユーザー100を示す識別情報であるユーザーIDを第1の情報として取得することと、を含む。
【0079】
続いて、プロセッサー47は、第1のカメラ49から入力される撮影画像データに基づいて、ユーザー方向Duを決定する(ステップS12)。ユーザー方向Duとは、第1のカメラ49に対してユーザー100が位置する方向である。例えば、図11に示すように、ユーザー100が表示システム2の東側に位置する状態で、第1のカメラ49が投射方向Dpである東を撮影すると、ユーザー100が写り込んだ撮影画像を示す撮影画像データが、第1のカメラ49からプロセッサー47に出力される。
【0080】
第2実施形態におけるユーザー情報は、登録ユーザーのユーザーID及び登録声紋データに加えて、ユーザーIDに紐づけられた顔識別情報を含む。顔識別情報は、登録ユーザーの顔を識別する情報である。ステップS12において、プロセッサー47は、ユーザー情報に含まれる顔識別情報のうち、ユーザー100のユーザーIDに紐づけられた顔識別情報を取得する。そして、プロセッサー47は、撮影画像データ及び顔識別情報に基づいて撮影画像の画像解析を行うことにより、撮影画像に含まれる画像領域のうち、ユーザー100の顔に相当する画像領域をユーザー画像領域として決定する。
【0081】
第2実施形態では、撮影画像の画像座標系における座標を、投射方向Dpの可動範囲を表す座標系における座標へ変換する座標変換式が、予めメモリー46に記憶されている。投射方向Dpの可動範囲を表す座標系は、ヨー角θとピッチ角αとで定義される座標系である。ステップS12において、プロセッサー47は、この座標変換式に基づいて、画像座標系におけるユーザー画像領域の中心座標を、ヨー角θとピッチ角αとで定義される座標に変換する。このような座標変換により得られる座標は、第1のカメラ49に対してユーザー100が位置する方向を表す。すなわち、プロセッサー47は、座標変換により得られた座標に対応する方向を、ユーザー方向Duとして取得する。例えば、プロセッサー47は、予めメモリー46に記憶されている方位と投射方向Dpの可動範囲を表す座標系との対応関係を示すテーブルを参照して、座標に対応する方位をユーザー方向Duとして取得する。図11に示すように、ユーザー100が表示システム2の東側に位置する場合、プロセッサー47は、座標に対応する「東」をユーザー方向Duとして取得する。なお、プロセッサー47は、投射方向Dpの可動範囲を表す座標系における座標そのものを、ユーザー方向Duとして取得してもよい。
【0082】
上記のように、ステップS12において、プロセッサー47は、ユーザー100の位置に関する第2の情報を、第2のセンサーの出力に基づいて取得すること、を実行する。すなわち、第2実施形態の表示方法は、ユーザー100の位置に関する第2の情報を、第2のセンサーの出力に基づいて取得すること、を含む。第2の情報は、第2のセンサーに対してユーザー100が位置する第2の方向を示す情報を含む。第2実施形態では、第1のカメラ49が第2のセンサーに対応し、ユーザー方向Du、すなわち第1のカメラ49に対してユーザー100が位置する方向が第2の方向に対応し、第2の方向を示す情報が第2の情報に対応する。
【0083】
また、第2実施形態の表示方法において、第2の情報を取得することは、ユーザー100を含む第1の画像を、第1のカメラ49の出力に基づいて取得することと、第1の画像に基づいて、第2の方向であるユーザー方向Duを決定することと、を含む。上記のように、第1のカメラ49から得られる撮影画像のうち、ユーザー100が写り込んだ撮影画像が、第1の画像に対応する。
【0084】
なお、ステップS12の開始時に得られる撮影画像にユーザー画像領域が存在しない場合、第1のカメラ49の撮影方向である投射方向Dpにユーザー100が存在しないと考えられる。そのため、プロセッサー47は、ステップS12の開始時に得られる撮影画像にユーザー画像領域が存在しない場合、プロジェクター10Aがヨー軸Y周りに1回転するように駆動装置30を制御しながら、所定の時間間隔で第1のカメラ49から撮影画像データを取得する。そして、プロセッサー47は、撮影画像データを取得するたびに、撮影画像にユーザー画像領域が存在するか否かを判定する。プロセッサー47は、撮影画像にユーザー画像領域が存在すると判定した場合に、駆動装置30の制御を停止し、上記の座標変換を実行することにより、ユーザー方向Duを決定する。
【0085】
図10に示すように、プロセッサー47は、上記のステップS12を実行した後、ユーザー方向Duに基づいて、第1の方向D1を決定する(ステップS13)。具体的には、ステップS13において、プロセッサー47は、ユーザー方向Duの反対方向を第1の方向D1として決定する。例えば、図11に示すように、プロセッサー47は、「東」をユーザー方向Duとして決定した場合、ユーザー方向Duの反対方向である「西」を第1の方向D1として決定する。
【0086】
上記のように、ステップS13において、プロセッサー47は、第2の情報であるユーザー方向Duを示す情報に基づいて、第1の方向D1を決定すること、を実行する。すなわち、第2実施形態の表示方法は、第2の情報であるユーザー方向Duを示す情報に基づいて、第1の方向D1を決定すること、を含む。第1の方向D1を決定することは、第2の方向であるユーザー方向Duの反対方向を第1の方向D1として決定することを含む。
【0087】
図10に示すように、プロセッサー47は、上記のステップS13を実行した後、プロジェクター10Aの投射方向Dpが第1の方向D1に向けられるように駆動装置30を制御する(ステップS14)。より具体的には、ステップS14において、プロセッサー47は、プロジェクター10Aの投射方向Dpが第1の方向D1に向けられるように、第1の駆動装置31のヨー角θと、第2の駆動装置32のピッチ角αとを制御する。これにより、第1のカメラ49の撮影方向も第1の方向D1に向けられる。
【0088】
図12は、プロジェクター10Aの投射方向Dpが第1の方向D1に向けられる様子を示す図である。例えば、図11を参照して説明したように、プロセッサー47は、プロジェクター10Aの投射方向Dpが東を向いた状態で、「西」を第1の方向D1として決定した場合、プロジェクター10Aの投射方向Dpが東から西に向けられるように駆動装置30を制御する。その結果、図12に示すように、プロジェクター10Aがヨー軸Yを中心として反時計回りに180度回転することにより、プロジェクター10Aの投射方向Dpは西に向けられる。この場合、第1のカメラ49の撮影方向も西に向けられる。
【0089】
図10に示すように、プロセッサー47は、上記のステップS14を実行した後、第1のカメラ49から入力される撮影画像データに基づいて、視聴場所を決定する(ステップS15)。視聴場所とは、ユーザー100が位置する場所である。
【0090】
例えば、図12に示すように、投射方向Dpが第1の方向D1である「西」に向けられた状態で、第1のカメラ49が第1の方向D1を撮影すると、部屋200内の領域のうち、第1の方向D1に位置する領域、すなわち西側壁面240を含む西側の領域が写り込んだ撮影画像を示す撮影画像データが、第1のカメラ49からプロセッサー47に出力される。
【0091】
ステップS15において、プロセッサー47は、撮影画像データに基づいて、複数の視聴場所候補のうち1つの視聴場所候補を、視聴場所として決定する。例えば、複数の視聴場所候補には、リビングルーム、寝室、及び洗面所などの部屋が含まれる。メモリー46には、視聴場所候補である部屋の内部を第1のカメラ49を使って撮影することで得られた画像データが、参照画像データとして予め記憶されている。
【0092】
具体的には、ステップS15において、プロセッサー47は、撮影画像データが示す撮影画像と、参照画像データが示す参照画像との類似度を、パターンマッチングなどの画像処理によって算出する。参照画像とは、上記のように、視聴場所候補である部屋の内部を第1のカメラ49を使って撮影することで得られた画像である。そして、プロセッサー47は、複数の視聴場所候補のうち、撮影画像に対する類似度が最も高い参照画像が得られた視聴場所候補を、視聴場所として決定する。
【0093】
上記のように、第2実施形態の表示方法において、ユーザー100の位置に関する第2の情報は、ユーザー100が位置する第2の方向であるユーザー方向Duを示す情報に加えて、ユーザー100が位置する場所である視聴場所を示す情報をさらに含む。また、第2実施形態の表示方法において、第2の情報を取得することは、第1の方向D1に位置する領域を含む第2の画像を、第1のカメラ49の出力に基づいて取得することと、第2の画像に基づいて、視聴場所を決定することと、を含む。上記のように、第1のカメラ49から得られる撮影画像のうち、第1の方向D1を撮影することで得られる撮影画像が、第2の画像に対応する。
【0094】
図10に示すように、プロセッサー47は、上記のステップS15を実行した後、ユーザー100のユーザーIDと視聴場所との組み合わせに基づいて、投射コンテンツを決定する(ステップS16)。具体的には、ステップS16において、プロセッサー47は、ユーザー100のユーザーIDと視聴場所との組み合わせと、メモリー46に予め記憶されている第2のコンテンツ選択テーブルとに基づいて、投射コンテンツを決定する。図13は、第2のコンテンツ選択テーブルの一例を示す図である。図13に示すように、第2のコンテンツ選択テーブルは、ユーザーIDと視聴場所との組み合わせと、映像ジャンルとの対応関係を示すデータである。
【0095】
例えば、第2のコンテンツ選択テーブルにおいて、「ユーザーA」というユーザーIDと、「リビングルーム」という視聴場所との組み合わせに対して、「映画」が映像ジャンルとして紐づけられている。また、第2のコンテンツ選択テーブルにおいて、「ユーザーB」というユーザーIDと、「寝室」という視聴場所との組み合わせに対して、「コスメティック」が映像ジャンルとして紐づけられている。さらに、第2のコンテンツ選択テーブルにおいて、「ユーザーC」というユーザーIDと、「洗面所」という視聴場所との組み合わせに対して、「アニメーション」が映像ジャンルとして紐づけられている。
【0096】
ステップS16において、プロセッサー47は、まず、第2のコンテンツ選択テーブルに含まれる映像ジャンルから、ユーザー100のユーザーIDと視聴場所との組み合わせに対応する映像ジャンルを選択する。例えば、ステップS11において「ユーザーA」がユーザー100のユーザーIDとして取得され、ステップS15において「リビングルーム」が視聴場所として決定された場合、プロセッサー47は、第2のコンテンツ選択テーブルに含まれる映像ジャンルから「映画」を選択する。プロセッサー47は、映像ジャンルを選択した後に、第1実施形態で説明した処理と同じ処理を行うことにより、投射コンテンツを決定する。
【0097】
上記のように、ステップS16において、プロセッサー47は、第1の情報であるユーザーIDと第2の情報である視聴場所を示す情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定すること、を実行する。すなわち、第2実施形態の表示方法は、第1の情報であるユーザーIDと第2の情報である視聴場所を示す情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定すること、を含む。また、第2の情報は、ユーザーが位置する場所である視聴場所を示す情報を含み、画像の種類である投射コンテンツを決定することは、第1の情報であるユーザーIDと視聴場所との組み合わせに基づいて、画像の種類である投射コンテンツを決定することを含む。
【0098】
図10に示すように、プロセッサー47は、上記のステップS16を実行した後、投射コンテンツの画像を表す画像光Lが投射されるように光学装置41を制御する(ステップS17)。第2の表示処理におけるステップS17の処理は、第1の表示処理におけるステップS6の処理と同じであるため、ステップS17に関する説明は省略する。
【0099】
図14は、画像光Lが第1の方向D1に投射される様子を示す図である。例えば、図14に示すように、プロジェクター10Aの投射方向Dpが、第1の方向D1の一例である西に向けられた状態で、プロセッサー47が、投射コンテンツを表す画像光Lが投射されるように光学装置41を制御すると、プロジェクター10Aから西に向かって画像光Lが投射される。その結果、部屋200の壁面のうち、ユーザー100の正面方向に位置する西側壁面240に、投射コンテンツとして決定された映像コンテンツの画像が表示される。
【0100】
上記のように、ステップS14及びS17において、プロセッサー47は、光学装置41及び駆動装置30を制御することによって、決定された種類の画像である投射コンテンツの画像を表す画像光Lを第1の方向D1に投射すること、を実行する。すなわち、第2実施形態の表示方法は、決定された種類の画像である投射コンテンツの画像を表す画像光Lを、プロジェクター10Aによって第1の方向D1に投射すること、を含む。
【0101】
(第2実施形態の効果)
以上のように、第2実施形態の表示方法は、ユーザー100を識別する第1の情報であるユーザーIDを、第1のセンサーであるマイクロフォン48の出力に基づいて取得することと、ユーザー100の位置に関する第2の情報であるユーザー方向Du及び視聴場所を示す情報を、第2のセンサーである第1のカメラ49の出力に基づいて取得することと、第2の情報であるユーザー方向Duを示す情報に基づいて、第1の方向D1を決定することと、第1の情報と第2の情報である視聴場所を示す情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定することと、決定された種類の画像である投射コンテンツの画像を表す画像光Lを、プロジェクター10Aによって第1の方向D1に投射することと、を含む。
第1実施形態と同様に、第2実施形態の表示方法では、ユーザー100を識別する第1の情報と、ユーザー100の位置に関する第2の情報とに基づいて、投射コンテンツが決定され、第2の情報に基づいて決定された第1の方向D1に、投射コンテンツの画像を表す画像光Lが投射される。
これにより、ユーザー100の個人属性及び位置に適した映像コンテンツの画像が、ユーザー100が視認しやすい投射面に表示される可能性が高まる。従って、第2実施形態の表示方法によれば、投射方向Dpが可変であるプロジェクター10Aが利用される際の、ユーザー100の利便性を向上させることができる。
【0102】
第2実施形態の表示方法において、第2の情報は、第2のセンサーである第1のカメラ49に対してユーザー100が位置する第2の方向であるユーザー方向Duを示す情報を含み、第1の方向D1を決定することは、第2の方向であるユーザー方向Duの反対方向を第1の方向D1として決定することを含む。
このように、第2のセンサーに対してユーザー100が位置する第2の方向の反対方向を、第1の方向D1として決定することにより、ユーザー100の正面方向に位置する投射面、すなわちユーザー100が視認しやすい投射面に、投射コンテンツの画像を表示させることができるため、ユーザー100の利便性が向上する。
【0103】
第2実施形態の表示方法において、第2の情報は、ユーザー100が位置する場所である視聴場所を示す情報をさらに含み、画像の種類である投射コンテンツを決定することは、第1の情報であるユーザーIDと視聴場所との組み合わせに基づいて、画像の種類である投射コンテンツを決定することを含む。
第1実施形態では、第1の情報であるユーザーIDと音源方向Dsとの組み合わせに基づいて、投射コンテンツを決定する。音源方向Dsは、あくまで第2のセンサーに対してユーザー100が位置する方向であるため、ユーザー100が位置する場所、すなわち視聴場所となる部屋等を、音源方向Dsから決定することは困難である。
従って、上記のように、第1の情報であるユーザーIDと視聴場所との組み合わせに基づいて、投射コンテンツを決定することにより、ユーザー100の個人属性と視聴場所とに適した映像コンテンツの画像を投射面に表示させることができるため、第1実施形態と比較して、ユーザー100の利便性がより向上する。
【0104】
第2実施形態の表示方法において、第2のセンサーは、一方向を撮影する第1のカメラ49であり、第2の情報を取得することは、ユーザー100を含む第1の画像を、第1のカメラ49の出力に基づいて取得することと、第1の画像に基づいて、第2の方向であるユーザー方向Duを決定することと、第1の方向D1に位置する領域を含む第2の画像を、第1のカメラ49の出力に基づいて取得することと、第2の画像に基づいて、視聴場所を決定することと、を含む。
このように、第1のカメラ49から得られる第1の画像及び第2の画像に基づいて、ユーザー方向Duと視聴場所との両方を決定することにより、1台のカメラを使ってユーザー100の位置に関する第2の情報を正確に得ることができる。
【0105】
第2実施形態の表示方法において、第1のセンサーは、少なくとも1つのマイクロフォン48を有し、第1の情報を取得することは、ユーザー100の声紋データを、少なくとも1つのマイクロフォン48の出力に基づいて取得することと、声紋データに基づいて、ユーザー100を示す識別情報であるユーザーIDを第1の情報として取得することと、を含む。
このように、ユーザー100固有の生体データである声紋データを、少なくとも1つのマイクロフォン48の出力に基づいて取得することにより、ユーザー100のユーザーIDを第1の情報として正確に得ることができる。
【0106】
第2実施形態の表示システム2は、第1のセンサーであるマイクロフォン48と、第2のセンサーである第1のカメラ49と、画像光Lを投射する光学装置41と、画像光Lが投射される方向を所定の方向に向ける駆動装置30と、プロセッサー47と、を備える。プロセッサー47は、ユーザー100を識別する第1の情報であるユーザーIDを、第1のセンサーの出力に基づいて取得することと、ユーザー100の位置に関する第2の情報であるユーザー方向Du及び視聴場所を示す情報を、第2のセンサーの出力に基づいて取得することと、第2の情報であるユーザー方向Duを示す情報に基づいて、第1の方向D1を決定することと、第1の情報と第2の情報である視聴場所を示す情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定することと、光学装置41及び駆動装置30を制御することによって、決定された種類の画像である投射コンテンツの画像を表す画像光Lを第1の方向D1に投射することと、を実行する。
第2実施形態の表示システム2では、ユーザー100を識別する第1の情報と、ユーザー100の位置に関する第2の情報である視聴場所を示す情報とに基づいて、投射コンテンツが決定され、第2の情報であるユーザー方向Duを示す情報に基づいて決定された第1の方向D1に、投射コンテンツの画像を表す画像光Lが投射される。
これにより、ユーザー100の個人属性及び位置に適した映像コンテンツの画像が、ユーザー100が視認しやすい投射面に表示される可能性が高まる。従って、第2実施形態の表示システム2によれば、投射方向Dpが可変であるプロジェクター10Aが利用される際の、ユーザー100の利便性を向上させることができる。
【0107】
〔第3実施形態〕
以下、本開示の第3実施形態について説明する。
図15は、第3実施形態の表示システム3の機能構成を模式的に示すブロック図である。図15に示すように、表示システム3は、機能を有する構成要素として、プロジェクター10B及び駆動装置30を備える。第3実施形態のプロジェクター10Bは、光学装置41と、入力装置42と、通信装置43と、スピーカー45と、メモリー46と、プロセッサー47と、マイクロフォン48と、を備える点で、第2実施形態のプロジェクター10Aと一致する。
【0108】
プロジェクター10Bは、第1のカメラ49に替えて、第2のカメラ50を第2のセンサーとして備える点で、プロジェクター10Aと相違する。以下、第3実施形態と第2実施形態との相違点について詳細に説明する。
【0109】
第2のカメラ50は、第2のカメラ50を中心として360度の方向を撮影するデジタルカメラである。例えば、第2のカメラ50は、プロジェクター10Bの筐体の上面に取り付けられている。第2のカメラ50は、撮影画像を示す撮影画像データをプロセッサー47に出力する。
【0110】
次に、上記のように構成された表示システム3の動作について説明する。
図16は、第3実施形態においてプロセッサー47が実行する第3の表示処理を示すフローチャートである。プロセッサー47は、音声待ち受けモードで動作している期間に、マイクロフォン48から音声信号が入力されると、メモリー46からプログラムを読み出して実行することにより、図16で示される第3の表示処理を実行する。プロセッサー47が第3の表示処理を実行することにより、第3実施形態の表示方法が実現される。
【0111】
図17は、表示システム3の設置例を示す平面図である。図17で示される例において、表示システム3は、図5で示される例と同様に、ユーザー100の自宅に設けられた部屋200内の中央に設置されている。以下の説明では、図17に示すように、プロジェクター10Bの投射方向Dpが東を向き、且つユーザー100が表示システム3の東側に位置する状態で、プロセッサー47が音声待ち受けモードで動作していると想定する。第2のカメラ50は、第2のカメラ50を中心として360度の方向を撮影する。
【0112】
図17で示される状況でユーザー100が音声を発すると、マイクロフォン48からプロセッサー47に音声信号が出力される。プロセッサー47は、音声待ち受けモードで動作している期間に、マイクロフォン48から音声信号が入力されると、図16で示される第3の表示処理を開始する。
【0113】
図16に示すように、プロセッサー47は、第3の表示処理を開始すると、まず、マイクロフォン48から入力される音声信号と、メモリー46に予め記憶されているユーザー情報とに基づいて、ユーザー認証を行う(ステップS21)。ステップS21は、ステップS21a、S21b、S21c及びS21dを含む。第3の表示処理におけるステップS21の処理は、第2の表示処理におけるステップS11の処理と同じであるため、以下ではステップS21の処理について簡単に説明する。
【0114】
ステップS21において、プロセッサー47は、まず、マイクロフォン48から出力される音声信号に対して周波数解析を行うことにより、ユーザー100の声紋データを取得する(ステップS21a)。プロセッサー47は、ユーザー100の声紋データと一致する登録声紋データがユーザー情報に存在するか否かを判定する(ステップS21b)。プロセッサー47は、ユーザー100の声紋データと一致する登録声紋データがユーザー情報に存在する場合(ステップS21b:Yes)、ユーザー情報に含まれるユーザーIDのうち、ユーザー100の声紋データと一致する登録声紋データに紐づけられたユーザーIDを、ユーザー100のユーザーIDとして取得する(ステップS21c)。
【0115】
一方、プロセッサー47は、ユーザー100の声紋データと一致する登録声紋データがユーザー情報に存在しない場合(ステップS21b:No)、ユーザー認証が失敗したことをユーザー100に知らせる音声を出力するようにスピーカー45を制御する(ステップS21d)。プロセッサー47は、ステップS21dを実行した後、第3の表示処理を終了して音声待ち受けモードに戻る。
【0116】
上記のように、ステップS21において、プロセッサー47は、ユーザー100を識別する第1の情報を、第1のセンサーの出力に基づいて取得すること、を実行する。すなわち、第3実施形態の表示方法は、ユーザー100を識別する第1の情報を、第1のセンサーの出力に基づいて取得すること、を含む。第3実施形態では、ユーザーIDが第1の情報に対応し、マイクロフォン48が第1のセンサーに対応する。
【0117】
続いて、プロセッサー47は、第2のカメラ50から入力される撮影画像データに基づいて、視聴場所を決定する(ステップS22)。第2実施形態と同様に、視聴場所とは、ユーザー100が位置する場所である。
【0118】
例えば、図17に示すように、部屋200の中心に表示システム3が設置された状態で、第2のカメラ50が、第2のカメラ50を中心として360度の方向を撮影すると、部屋200内の領域のうち、第2のカメラ50を中心とする360度の範囲に含まれる領域が写り込んだ撮影画像を示す撮影画像データが、第2のカメラ50からプロセッサー47に出力される。
【0119】
ステップS22において、プロセッサー47は、撮影画像データに基づいて、複数の視聴場所候補のうち1つの視聴場所候補を、視聴場所として決定する。例えば、複数の視聴場所候補には、リビングルーム、寝室、及び洗面所などの部屋が含まれる。メモリー46には、視聴場所候補である部屋の内部を第2のカメラ50を使って撮影することで得られた画像データが、参照画像データとして予め記憶されている。
【0120】
具体的には、ステップS22において、プロセッサー47は、撮影画像データが示す撮影画像と、参照画像データが示す参照画像との類似度を、パターンマッチングなどの画像処理によって算出する。参照画像とは、上記のように、視聴場所候補である部屋の内部を第2のカメラ50を使って撮影することで得られた画像である。そして、プロセッサー47は、複数の視聴場所候補のうち、参照画像に対する類似度が最も高い撮影画像が得られた視聴場所候補を、視聴場所として決定する。
【0121】
上記のように、ステップS22において、プロセッサー47は、ユーザー100の位置に関する第2の情報を、第2のセンサーの出力に基づいて取得すること、を実行する。すなわち、第3実施形態の表示方法は、ユーザー100の位置に関する第2の情報を、第2のセンサーの出力に基づいて取得すること、を含む。第2の情報は、ユーザー100が位置する場所である視聴場所を示す情報を含む。第3実施形態では、360度の方向を撮影する第2のカメラ50が第2のセンサーに対応する。
【0122】
また、第3実施形態の表示方法において、第2の情報を取得することは、第2のカメラ50を中心として360度の範囲に含まれる領域を含む第3の画像を、第2のカメラ50の出力に基づいて取得することと、第3の画像に基づいて、視聴場所を決定することと、を含む。上記のように、第2のカメラ50から得られる撮影画像のうち、第2のカメラ50を中心とする360度の範囲に含まれる領域が写り込んだ撮影画像が、第3の画像に対応する。
【0123】
図16に示すように、プロセッサー47は、上記のステップS22を実行した後、ユーザー100のユーザーIDと視聴場所との組み合わせに基づいて、第1の方向D1を決定する(ステップS23)。具体的には、ステップS23において、プロセッサー47は、ユーザー100のユーザーIDと視聴場所との組み合わせと、メモリー46に予め記憶されている方向設定テーブルとに基づいて、第1の方向D1を決定する。図18は、方向設定テーブルの一例を示す図である。図18に示すように、方向設定テーブルは、ユーザーIDと視聴場所との組み合わせと、第1の方向候補との対応関係を示すデータである。
【0124】
例えば、方向設定テーブルにおいて、「ユーザーA」というユーザーIDと、「リビングルーム」という視聴場所との組み合わせに対して、「西」が第1の方向候補として紐づけられている。また、方向設定テーブルにおいて、「ユーザーB」というユーザーIDと、「寝室」という視聴場所との組み合わせに対して、「東」が第1の方向候補として紐づけられている。さらに、方向設定テーブルにおいて、「ユーザーC」というユーザーIDと、「寝室」という視聴場所との組み合わせに対して、「天井」が第1の方向候補として紐づけられている。
【0125】
ステップS23において、プロセッサー47は、方向設定テーブルに含まれる第1の方向候補のうち、ユーザー100のユーザーIDと視聴場所との組み合わせに対応する第1の方向候補を、第1の方向D1として決定する。例えば、図17に示すように、ステップS21において「ユーザーA」がユーザー100のユーザーIDとして取得され、ステップS22において「リビングルーム」が視聴場所として決定された場合、プロセッサー47は、方向設定テーブルに含まれる第1の方向候補のうち、「西」を第1の方向D1として決定する。
【0126】
上記のように、ステップS23において、プロセッサー47は、第2の情報である視聴場所を示す情報に基づいて、第1の方向D1を決定すること、を実行する。すなわち、第3実施形態の表示方法は、第2の情報である視聴場所を示す情報に基づいて、第1の方向D1を決定すること、を含む。第1の方向D1を決定することは、第1の情報であるユーザーIDと視聴場所との組み合わせに基づいて、第1の方向D1を決定することを含む。
【0127】
図16に示すように、プロセッサー47は、上記のステップS23を実行した後、プロジェクター10Bの投射方向Dpが第1の方向D1に向けられるように駆動装置30を制御する(ステップS24)。より具体的には、ステップS24において、プロセッサー47は、プロジェクター10Bの投射方向Dpが第1の方向D1に向けられるように、第1の駆動装置31のヨー角θと、第2の駆動装置32のピッチ角αとを制御する。
【0128】
図19は、プロジェクター10Bの投射方向Dpが第1の方向D1に向けられる様子を示す図である。例えば、図17を参照して説明したように、プロセッサー47は、プロジェクター10Bの投射方向Dpが東を向いた状態で、「西」を第1の方向D1として決定した場合、プロジェクター10Bの投射方向Dpが東から西に向けられるように駆動装置30を制御する。その結果、図19に示すように、プロジェクター10Bがヨー軸Yを中心として反時計回りに180度回転することにより、プロジェクター10Bの投射方向Dpは西に向けられる。
【0129】
図16に示すように、プロセッサー47は、上記のステップS24を実行した後、ユーザー100のユーザーIDと視聴場所との組み合わせに基づいて、投射コンテンツを決定する(ステップS25)。具体的には、ステップS25において、プロセッサー47は、ユーザー100のユーザーIDと視聴場所との組み合わせと、メモリー46に予め記憶されている、図13に示される第2のコンテンツ選択テーブルとに基づいて、投射コンテンツを決定する。
【0130】
ステップS25において、プロセッサー47は、まず、第2のコンテンツ選択テーブルに含まれる映像ジャンルから、ユーザー100のユーザーIDと視聴場所との組み合わせに対応する映像ジャンルを選択する。例えば、ステップS21において「ユーザーA」がユーザー100のユーザーIDとして取得され、ステップS22において「リビングルーム」が視聴場所として決定された場合、プロセッサー47は、第2のコンテンツ選択テーブルに含まれる映像ジャンルから「映画」を選択する。プロセッサー47は、映像ジャンルを選択した後に、第1実施形態で説明した処理と同じ処理を行うことにより、投射コンテンツを決定する。
【0131】
上記のように、ステップS25において、プロセッサー47は、第1の情報であるユーザーIDと第2の情報である視聴場所を示す情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定すること、を実行する。すなわち、第3実施形態の表示方法は、第1の情報であるユーザーIDと第2の情報である視聴場所を示す情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定すること、を含む。また、画像の種類である投射コンテンツを決定することは、第1の情報であるユーザーIDと視聴場所との組み合わせに基づいて、画像の種類である投射コンテンツを決定することを含む。
【0132】
図16に示すように、プロセッサー47は、上記のステップS25を実行した後、投射コンテンツの画像を表す画像光Lが投射されるように光学装置41を制御する(ステップS26)。第3の表示処理におけるステップS26の処理は、第1の表示処理におけるステップS6の処理と同じであるため、ステップS26に関する説明は省略する。
【0133】
図20は、画像光Lが第1の方向D1に投射される様子を示す図である。例えば、図20に示すように、プロジェクター10Bの投射方向Dpが、第1の方向D1の一例である西に向けられた状態で、プロセッサー47が、投射コンテンツを表す画像光Lが投射されるように光学装置41を制御すると、プロジェクター10Bから西に向かって画像光Lが投射される。その結果、部屋200の壁面のうち、ユーザー100の正面方向に位置する西側壁面240に、投射コンテンツとして決定された映像コンテンツが表示される。
【0134】
上記のように、ステップS23及びS26において、プロセッサー47は、光学装置41及び駆動装置30を制御して、決定された種類の画像である投射コンテンツの画像を表す画像光Lを第1の方向D1に投射すること、を実行する。すなわち、第3実施形態の表示方法は、決定された種類の画像である投射コンテンツの画像を表す画像光Lを、プロジェクター10Bによって第1の方向D1に投射すること、を含む。
【0135】
(第3実施形態の効果)
以上のように、第3実施形態の表示方法は、ユーザー100を識別する第1の情報であるユーザーIDを、第1のセンサーであるマイクロフォン48の出力に基づいて取得することと、ユーザー100の位置に関する第2の情報である視聴場所を示す情報を、第2のセンサーである第2のカメラ50の出力に基づいて取得することと、第2の情報である視聴場所を示す情報に基づいて、第1の方向D1を決定することと、第1の情報と第2の情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定することと、決定された種類の画像である投射コンテンツの画像を表す画像光Lを、プロジェクター10Bによって第1の方向D1に投射することと、を含む。
第1実施形態及び第2実施形態と同様に、第3実施形態の表示方法では、ユーザー100を識別する第1の情報と、ユーザー100の位置に関する第2の情報とに基づいて、投射コンテンツが決定され、第2の情報に基づいて決定された第1の方向D1に、投射コンテンツの画像を表す画像光Lが投射される。
これにより、ユーザー100の個人属性及び位置に適した映像コンテンツの画像が、ユーザー100が視認しやすい投射面に表示される可能性が高まる。従って、第3実施形態の表示方法によれば、投射方向Dpが可変であるプロジェクター10Bが利用される際の、ユーザー100の利便性を向上させることができる。
【0136】
第3実施形態の表示方法において、第2の情報は、ユーザー100が位置する場所である視聴場所を示す情報を含み、第1の方向D1を決定することは、第1の情報であるユーザーIDと視聴場所との組み合わせに基づいて、第1の方向D1を決定することを含む。
このように、第1の情報であるユーザーIDと視聴場所との組み合わせに基づいて、第1の方向D1を決定することにより、ユーザー100の個人属性及び視聴場所に応じて、ユーザー100が視認しやすい投射面に、投射コンテンツの画像を表示させることができるため、ユーザー100の利便性が向上する。
【0137】
第3実施形態の表示方法において、画像の種類である投射コンテンツを決定することは、第1の情報であるユーザーIDと視聴場所との組み合わせに基づいて、画像の種類である投射コンテンツを決定することを含む。
第1実施形態では、第1の情報であるユーザーIDと音源方向Dsとの組み合わせに基づいて、投射コンテンツを決定する。音源方向Dsは、あくまで第2のセンサーに対してユーザー100が位置する方向であるため、ユーザー100が位置する場所、すなわち視聴場所となる部屋等を、音源方向Dsから決定することは困難である。
従って、上記のように、第1の情報であるユーザーIDと視聴場所との組み合わせに基づいて、投射コンテンツを決定することにより、ユーザー100の個人属性と視聴場所とに適した映像コンテンツの画像を投射面に表示させることができるため、第1実施形態と比較して、ユーザー100の利便性がより向上する。
【0138】
第3実施形態の表示方法において、第2のセンサーは、360度の方向を撮影する第2のカメラ50であり、第2の情報を取得することは、第2のカメラ50を中心として360度の範囲に含まれる領域を含む第3の画像を、第2のカメラの出力に基づいて取得することと、第3の画像に基づいて、視聴場所を決定することと、を含む。
このように、360度の方向を撮影する第2のカメラ50から得られる第3の画像に基づいて、視聴場所を決定することにより、1台のカメラを使ってユーザー100の位置に関する第2の情報を正確に得ることができる。
【0139】
第3実施形態の表示方法において、第1のセンサーは、少なくとも1つのマイクロフォン48を有し、第1の情報を取得することは、ユーザー100の声紋データを、少なくとも1つのマイクロフォン48の出力に基づいて取得することと、声紋データに基づいて、ユーザー100を示す識別情報であるユーザーIDを第1の情報として取得することと、を含む。
このように、ユーザー100固有の生体データである声紋データを、少なくとも1つのマイクロフォン48の出力に基づいて取得することにより、ユーザー100のユーザーIDを第1の情報として正確に得ることができる。
【0140】
第3実施形態の表示システム3は、第1のセンサーであるマイクロフォン48と、第2のセンサーである第2のカメラ50と、画像光Lを投射する光学装置41と、画像光Lが投射される方向を所定の方向に向ける駆動装置30と、プロセッサー47と、を備える。プロセッサー47は、ユーザー100を識別する第1の情報であるユーザーIDを、第1のセンサーの出力に基づいて取得することと、ユーザー100の位置に関する第2の情報である視聴場所を示す情報を、第2のセンサーの出力に基づいて取得することと、第2の情報に基づいて、第1の方向D1を決定することと、第1の情報と第2の情報との組み合わせに基づいて、画像の種類である投射コンテンツを決定することと、光学装置41及び駆動装置30を制御することによって、決定された種類の画像である投射コンテンツの画像を表す画像光Lを第1の方向D1に投射することと、を実行する。
第3実施形態の表示システム3では、ユーザー100を識別する第1の情報と、ユーザー100の位置に関する第2の情報である視聴場所を示す情報とに基づいて、投射コンテンツが決定され、第2の情報である視聴場所を示す情報に基づいて決定された第1の方向D1に、投射コンテンツの画像を表す画像光Lが投射される。
これにより、ユーザー100の個人属性及び位置に適した映像コンテンツの画像が、ユーザー100が視認しやすい投射面に表示される可能性が高まる。従って、第3実施形態の表示システム3によれば、投射方向Dpが可変であるプロジェクター10Bが利用される際の、ユーザー100の利便性を向上させることができる。
【0141】
以上、本開示の実施形態について説明したが、本開示の技術範囲は上記実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
【0142】
例えば、上記第1実施形態及び第2実施形態では、ユーザー100が位置する第2の方向である音源方向Ds及びユーザー方向Duと、第1の方向D1とが、東西南北の4つの方向で表される形態を例示した。本開示はこれに限定されず、それぞれの方向は、ヨー角θとピッチ角αとで定義される座標で表されてもよい。
【0143】
例えば、上記第1実施形態では、プロジェクター10に外付けされた駆動装置30によって、プロジェクター10の向きを変えることにより、プロジェクター10から画像光Lが投射される方向である投射方向Dpを第1の方向D1に向ける形態を例示した。本開示はこれに限定されず、プロジェクターの筐体内に、光学装置から画像光が投射される方向を所定の方向に向ける駆動装置が設けられていてもよい。この駆動装置は、光学装置の向きを機械的に変える装置でもよいし、或いは、ミラーなどの光学素子によって画像光の進行方向を変える装置でもよい。このように、第1のセンサーと、第2のセンサーと、光学装置と、駆動装置と、プロセッサーと、を備えるプロジェクターは、本開示の表示システムであるといえる。
【0144】
〔本開示のまとめ〕
以下、本開示のまとめを付記する。
【0145】
(付記1)ユーザーを識別する第1の情報を、第1のセンサーの出力に基づいて取得することと、前記ユーザーの位置に関する第2の情報を、第2のセンサーの出力に基づいて取得することと、前記第2の情報に基づいて、第1の方向を決定することと、前記第1の情報と前記第2の情報との組み合わせに基づいて、画像の種類を決定することと、前記種類の画像を表す画像光を、プロジェクターによって前記第1の方向に投射することと、を含む、表示方法。
ユーザーが求める画像の種類は、ユーザーの年齢、性別、職業、及び趣味などの個人属性だけでなく、ユーザーの位置によって異なる場合がある。付記1の表示方法では、ユーザーを識別する第1の情報と、ユーザーの位置に関する第2の情報とに基づいて、画像の種類が決定され、第2の情報に基づいて決定された第1の方向に、決定された種類の画像を表す画像光が投射される。
これにより、ユーザーの個人属性及び位置に適した種類の画像が、ユーザーが視認しやすい投射面に表示される可能性が高まる。従って、付記1の表示方法によれば、投射方向が可変であるプロジェクターが利用される際の、ユーザーの利便性を向上させることができる。
【0146】
(付記2)前記第2の情報は、前記第2のセンサーに対して前記ユーザーが位置する第2の方向を示す情報を含み、前記第1の方向を決定することは、前記第2の方向の反対方向を前記第1の方向として決定することを含む、付記1に記載の表示方法。
このように、第2のセンサーに対してユーザーが位置する第2の方向の反対方向を、第1の方向として決定することにより、ユーザーの正面方向に位置する投射面、すなわちユーザーが視認しやすい投射面に、決定された種類の画像を表示させることができるため、ユーザーの利便性が向上する。
【0147】
(付記3)前記種類を決定することは、前記第1の情報と前記第2の方向との組み合わせに基づいて、前記種類を決定することを含む、付記2に記載の表示方法。
このように、第1の情報と第2の方向との組み合わせに基づいて、画像の種類を決定することにより、ユーザーの個人属性と、ユーザーが位置する第2の方向とに適した種類の画像を、ユーザーの正面方向に位置する投射面に表示させることができるため、ユーザーの利便性が向上する。
【0148】
(付記4)前記第2のセンサーは、複数のマイクロフォンを有し、前記第2の情報を取得することは、音波が音源から前記複数のマイクロフォンのそれぞれに到達する時刻の間に生じる時間差を、前記複数のマイクロフォンの出力に基づいて算出することと、前記時間差に基づいて、前記第2の方向を決定することと、を含む、付記2または3に記載の表示方法。
このように、音波が音源から複数のマイクロフォンのそれぞれに到達する時間に生じる時間差を、複数のマイクロフォンの出力に基づいて算出することにより、第2のセンサーに対して音源が位置する方向を、ユーザーが位置する第2の方向として正確に得ることができる。
【0149】
(付記5)前記第2の情報は、前記ユーザーが位置する場所を示す情報をさらに含み、前記種類を決定することは、前記第1の情報と前記場所との組み合わせに基づいて、前記種類を決定することを含む、付記2に記載の表示方法。
付記3の表示方法では、第1の情報と第2の方向との組み合わせに基づいて、画像の種類を決定する。第2の方向は、あくまで第2のセンサーに対してユーザーが位置する方向であるため、ユーザーが位置する場所を、第2の方向から決定することは困難である。
従って、付記5の表示方法のように、第1の情報とユーザーが位置する場所との組み合わせに基づいて、画像の種類を決定することにより、ユーザーの個人属性と場所とに適した種類の画像を投射面に表示させることができるため、付記3の表示方法と比較して、ユーザーの利便性がより向上する。
【0150】
(付記6)前記第2のセンサーは、一方向を撮影する第1のカメラであり、前記第2の情報を取得することは、前記ユーザーを含む第1の画像を、前記第1のカメラの出力に基づいて取得することと、前記第1の画像に基づいて、前記第2の方向を決定することと、前記第1の方向に位置する領域を含む第2の画像を、前記第1のカメラの出力に基づいて取得することと、前記第2の画像に基づいて、前記場所を決定することと、を含む、付記5に記載の表示方法。
このように、第1のカメラから得られる第1の画像及び第2の画像に基づいて、ユーザーが位置する第2の方向と、ユーザーが位置する場所との両方を決定することにより、1台のカメラを使ってユーザーの位置に関する第2の情報を正確に得ることができる。
【0151】
(付記7)前記第2の情報は、前記ユーザーが位置する場所を示す情報を含み、前記第1の方向を決定することは、前記第1の情報と前記場所との組み合わせに基づいて、前記第1の方向を決定することを含む、付記1に記載の表示方法。
このように、第1の情報とユーザーが位置する場所との組み合わせに基づいて、第1の方向を決定することにより、ユーザーの個人属性及び場所に応じて、ユーザーが視認しやすい投射面に、決定された種類の画像を表示させることができるため、ユーザーの利便性が向上する。
【0152】
(付記8)前記種類を決定することは、前記第1の情報と前記場所との組み合わせに基づいて、前記種類を決定することを含む、付記7に記載の表示方法。
付記3の表示方法では、第1の情報と第2の方向との組み合わせに基づいて、画像の種類を決定する。第2の方向は、あくまで第2のセンサーに対してユーザーが位置する方向であるため、ユーザーが位置する場所を、第2の方向から決定することは困難である。
従って、付記8の表示方法のように、第1の情報とユーザーが位置する場所との組み合わせに基づいて、画像の種類を決定することにより、ユーザーの個人属性と場所とに適した種類の画像を投射面に表示させることができるため、付記3の表示方法と比較して、ユーザーの利便性がより向上する。
【0153】
(付記9)前記第2のセンサーは、360度の方向を撮影する第2のカメラであり、前記第2の情報を取得することは、前記第2のカメラを中心として前記360度の範囲に含まれる領域を含む第3の画像を、前記第2のカメラの出力に基づいて取得することと、前記第3の画像に基づいて、前記場所を決定することと、を含む、付記7または8に記載の表示方法。
このように、360度の方向を撮影する第2のカメラから得られる第3の画像に基づいて、ユーザーが位置する場所を決定することにより、1台のカメラを使ってユーザーの位置に関する第2の情報を正確に得ることができる。
【0154】
(付記10)前記第1のセンサーは、少なくとも1つのマイクロフォンを有し、前記第1の情報を取得することは、前記ユーザーの声紋データを、前記少なくとも1つのマイクロフォンの出力に基づいて取得することと、前記声紋データに基づいて、前記ユーザーを示す識別情報を前記第1の情報として取得することと、を含む、付記1から9のいずれか1つに記載の表示方法。
このように、ユーザー固有の生体データである声紋データを、少なくとも1つのマイクロフォンの出力に基づいて取得することにより、ユーザーを示す識別情報を第1の情報として正確に得ることができる。
【0155】
(付記11)第1のセンサーと、第2のセンサーと、画像光を投射する光学装置と、前記画像光が投射される方向を所定の方向に向ける駆動装置と、プロセッサーと、を備え、前記プロセッサーは、ユーザーを識別する第1の情報を、前記第1のセンサーの出力に基づいて取得することと、前記ユーザーの位置に関する第2の情報を、前記第2のセンサーの出力に基づいて取得することと、前記第2の情報に基づいて、第1の方向を決定することと、前記第1の情報と前記第2の情報との組み合わせに基づいて、画像の種類を決定することと、前記光学装置及び前記駆動装置を制御することによって、前記種類の画像を表す画像光を前記第1の方向に投射することと、を実行する表示システム。
付記11の表示システムでは、ユーザーを識別する第1の情報と、ユーザーの位置に関する第2の情報とに基づいて、画像の種類が決定され、第2の情報に基づいて決定された第1の方向に、決定された種類の画像を表す画像光が投射される。
これにより、ユーザーの個人属性及び位置に適した種類の画像が、ユーザーが視認しやすい投射面に表示される可能性が高まる。従って、付記11の表示システムによれば、投射方向が可変であるプロジェクターが利用される際の、ユーザーの利便性を向上させることができる。
【符号の説明】
【0156】
1、2、3…表示システム、10、10A、10B…プロジェクター、20…台座、30…駆動装置、41…光学装置、44…マイクロフォンアレイ(第1のセンサー、第2のセンサー)、47…プロセッサー、48…マイクロフォン(第1のセンサー)、49…第1のカメラ(第2のセンサー)、50…第2のカメラ(第2のセンサー)、100…ユーザー、L…画像光
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20