(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-03-12
(45)【発行日】2024-03-21
(54)【発明の名称】コンピュータシミュレーションによって生成された画像、ビデオ、及び/または、ホログラムを投影するための方法及び装置
(51)【国際特許分類】
A63F 13/26 20140101AFI20240313BHJP
A63F 13/52 20140101ALI20240313BHJP
A63F 13/54 20140101ALI20240313BHJP
A63F 13/57 20140101ALI20240313BHJP
H04N 5/74 20060101ALI20240313BHJP
【FI】
A63F13/26
A63F13/52
A63F13/54
A63F13/57
H04N5/74 Z
H04N5/74 C
(21)【出願番号】P 2022082948
(22)【出願日】2022-05-20
(62)【分割の表示】P 2019167975の分割
【原出願日】2016-09-16
【審査請求日】2022-05-20
(32)【優先日】2015-09-29
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2016-01-12
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】310021766
【氏名又は名称】株式会社ソニー・インタラクティブエンタテインメント
(74)【代理人】
【識別番号】100105924
【氏名又は名称】森下 賢樹
(72)【発明者】
【氏名】松川 武夫
【審査官】赤坂 祐樹
(56)【参考文献】
【文献】米国特許出願公開第2012/0262487(US,A1)
【文献】特開2005-168892(JP,A)
【文献】特開2011-156260(JP,A)
【文献】特開2012-220757(JP,A)
【文献】特開2014-107608(JP,A)
【文献】特開2014-097219(JP,A)
【文献】特開2014-110037(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A63F 13/00-13/98、9/24
H04N 5/74
(57)【特許請求の範囲】
【請求項1】
ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを、プロセッサベースの装置を用いて実行することと、
前記コンピュータシミュレーションが生成した画像をディスプレイに表示することと、
前記ハンドヘルドコントローラに結合された画像プロジェクタから前記コンピュータシミュレーションが生成した少なくとも1つの画像を投影することと、
前記コンピュータシミュレーションの状態に従って、前記画像プロジェクタの投影角度を自動的に調節することと、
を含
み、
前記画像プロジェクタから投影された前記少なくとも1つの画像は、前記ディスプレイに表示されるシーンの一部ではないコンテンツを含み、
前記コンテンツは、前記画像プロジェクタのために意図されたものであって、さもなければ前記画像プロジェクタによらずに生成されることはなく、
前記画像プロジェクタから投影された前記少なくとも1つの画像は、追加のシーンを含み、
前記追加のシーンは、前記ディスプレイに表示される前記シーンの一部ではない、前記コンピュータシミュレーションによって生成されたアクションを含む、方法。
【請求項2】
ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを、プロセッサベースの装置を用いて実行することと、
前記コンピュータシミュレーションが生成した画像をディスプレイに表示することと、
前記ハンドヘルドコントローラに結合された画像プロジェクタから前記コンピュータシミュレーションが生成した少なくとも1つの画像を投影することと、
前記コンピュータシミュレーションの状態に従って、前記画像プロジェクタの投影角度を自動的に調節することと、
を含み、
前記画像プロジェクタから投影された前記少なくとも1つの画像は、前記ディスプレイに表示されるシーンの一部ではないコンテンツを含み、
前記コンテンツは、前記画像プロジェクタのために意図されたものであって、さもなければ前記画像プロジェクタによらずに生成されることはなく、
前記画像プロジェクタから投影された前記少なくとも1つの画像は、
前記ディスプレイに表示される前記シーンの一部ではない、前記コンピュータシミュレーションによって生成されたアクションを含む追加のシーンにおける追加のキャラクタを含む、方法。
【請求項3】
前記画像プロジェクタから投影された前記少なくとも1つの画像は、前記コンピュータシミュレーションのユーザのチームのメンバーの少なくとも1つを含む、請求項1に記載の方法。
【請求項4】
前記画像プロジェクタから投影された前記少なくとも1つの画像は、メニューの画像、マップの画像、または武器の画像を含む、請求項1に記載の方法。
【請求項5】
前記ハンドヘルドコントローラに結合された画像プロジェクタの存在を検出することと、
前記ハンドヘルドコントローラに結合された画像プロジェクタの存在を検出することに応答して、前記コンピュータシミュレーションが前記少なくとも1つの画像を生成し、前記ディスプレイに前記コンピュータシミュレーションが生成した画像が表示されるのと同時に前記画像プロジェクタが前記少なくとも1つの画像を投影することと、
をさらに含む、請求項1に記載の方法。
【請求項6】
前記画像プロジェクタから投影された前記少なくとも1つの画像は、前記ディスプレイに同時に表示されている前記画像とは異なる、請求項1に記載の方法。
【請求項7】
前記コンピュータシミュレーションが生成した前記少なくとも1つの画像を前記画像プロジェクタから投影する前に、前記コンピュータシミュレーションが生成した前記少なくとも1つの画像を前記ハンドヘルドコントローラに結合された前記画像プロジェクタの場所に無線でストリーミングすることを
さらに含む、請求項1に記載の方法。
【請求項8】
前記ハンドヘルドコントローラに結合された前記画像プロジェクタの場所に1つまたは複数の音声信号を提供することをさらに含み、前記1つまたは複数の音声信号は、前記コンピュータシミュレーションによって生成され、且つ、前記画像プロジェクタから投影された前記少なくとも1つの画像に関連付けられる、
請求項1に記載の方法。
【請求項9】
前記ハンドヘルドコントローラに結合された前記画像プロジェクタの場所に1つまたは複数の音声信号を前記提供することは、
前記ハンドヘルドコントローラに結合された前記画像プロジェクタの場所に前記1つまたは複数の音声信号を無線でストリーミングすることをさらに含む、請求項8に記載の方法。
【請求項10】
前記コンピュータシミュレーションが生成した少なくとも1つの画像を前記ハンドヘルドコントローラに結合された前記画像プロジェクタから前記投影することは、
前記コンピュータシミュレーションが生成した前記少なくとも1つの画像をパネルの方向に投影することを含む、請求項1~9のいずれか1項に記載の方法。
【請求項11】
前記パネルは、前記ハンドヘルドコントローラに結合される、請求項10に記載の方法。
【請求項12】
ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを、プロセッサベースの装置を用いて実行することと、
前記コンピュータシミュレーションが生成した画像をディスプレイに表示することと、
前記ハンドヘルドコントローラに結合された画像プロジェクタから前記コンピュータシミュレーションが生成した少なくとも1つの画像を投影することと、
を含み、
前記画像プロジェクタから投影された前記少なくとも1つの画像は、前記ディスプレイに表示されるシーンの一部ではないコンテンツを含み、
前記コンテンツは、前記画像プロジェクタのために意図されたものであって、さもなければ前記画像プロジェクタによらずに生成されることはなく、
前記画像プロジェクタから投影された前記少なくとも1つの画像は、追加のシーンを含み、
前記追加のシーンは、前記ディスプレイに表示される前記シーンの一部ではない、前記コンピュータシミュレーションによって生成されたアクションを含み、
前記コンピュータシミュレーションが生成した少なくとも1つの画像を前記ハンドヘルドコントローラに結合された前記画像プロジェクタから前記投影することは、
空中に浮遊する小粒子の方向に、前記コンピュータシミュレーションが生成した前記少なくとも1つの画像を投影することを含む、方法。
【請求項13】
空中に浮遊する前記小粒子は、霧を含む、請求項12に記載の方法。
【請求項14】
前記コンピュータシミュレーションの状態に従って、空中に浮遊する前記小粒子を自動的に設置することを、
さらに含む、請求項12に記載の方法。
【請求項15】
ディスプレイと、
ハンドヘルドコントローラと、
前記ハンドヘルドコントローラに結合された画像プロジェクタと、
前記ディスプレイ、前記ハンドヘルドコントローラ、及び、前記画像プロジェクタと通信するプロセッサベースの装置と、
を含むシステムであって、
前記プロセッサベースの装置は、
前記ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを実行することと、
前記コンピュータシミュレーションが生成した画像を前記ディスプレイに送信することと、
前記コンピュータシミュレーションが生成した少なくとも1つの画像を前記画像プロジェクタに送信することと、
前記コンピュータシミュレーションの状態に従って、前記ハンドヘルドコントローラに対する前記画像プロジェクタの投影角度を自動的に調節することと、
を含むステップを実行するように構成され
、前記画像プロジェクタに送信された前記少なくとも1つの画像は、前記ディスプレイに表示されるシーンの一部ではないコンテンツを含み、
前記コンテンツは、前記画像プロジェクタのために意図されたものであって、さもなければ前記画像プロジェクタによらずに生成されることはなく、
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、追加のシーンを含み、
前記追加のシーンは、前記ディスプレイに表示される前記シーンの一部ではない、前記コンピュータシミュレーションによって生成されたアクションを含む、システム。
【請求項16】
ディスプレイと、
ハンドヘルドコントローラと、
前記ハンドヘルドコントローラに結合された画像プロジェクタと、
前記ディスプレイ、前記ハンドヘルドコントローラ、及び、前記画像プロジェクタと通信するプロセッサベースの装置と、
を含むシステムであって、
前記プロセッサベースの装置は、
前記ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを実行することと、
前記コンピュータシミュレーションが生成した画像を前記ディスプレイに送信することと、
前記コンピュータシミュレーションが生成した少なくとも1つの画像を前記画像プロジェクタに送信することと、
前記コンピュータシミュレーションの状態に従って、前記ハンドヘルドコントローラに対する前記画像プロジェクタの投影角度を自動的に調節することと、
を含むステップを実行するように構成され、
前記画像プロジェクタに送信された前記少なくとも1つの画像は、前記ディスプレイに表示されるシーンの一部ではないコンテンツを含み、
前記コンテンツは、前記画像プロジェクタのために意図されたものであって、さもなければ前記画像プロジェクタによらずに生成されることはなく、
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、
前記ディスプレイに表示される前記シーンの一部ではない、前記コンピュータシミュレーションによって生成されたアクションを含む追加のシーンにおける追加のキャラクタを含む、システム。
【請求項17】
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、前記コンピュータシミュレーションのユーザのチームのメンバーの少なくとも1つを含む、請求項15に記載のシステム。
【請求項18】
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、メニューの画像、マップの画像、または武器の画像を含む、請求項15に記載のシステム。
【請求項19】
前記プロセッサベースの装置は、
前記ハンドヘルドコントローラに結合された前記画像プロジェクタの存在を検出することと、
前記ハンドヘルドコントローラに結合された前記画像プロジェクタの存在を検出することに応答して、前記コンピュータシミュレーションが、前記少なくとも1つの画像を生成し、前記ディスプレイに前記コンピュータシミュレーションが生成した画像が送信されるのと同時に前記画像プロジェクタに前記少なくとも1つの画像を送信することと、
を含むステップを実行するようにさらに構成される、請求項15に記載のシステム。
【請求項20】
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、前記ディスプレイに同時に送信される前記コンピュータシミュレーションが生成した前記画像とは異なる、請求項15に記載のシステム。
【請求項21】
前記コンピュータシミュレーションが生成した前記少なくとも1つの画像を前記画像プロジェクタに前記送信することは、
前記コンピュータシミュレーションが生成した前記少なくとも1つの画像を前記画像プロジェクタに無線でストリーミングすることを含む、請求項15に記載のシステム。
【請求項22】
前記プロセッサベースの装置は、前記ハンドヘルドコントローラに結合された前記画像プロジェクタの場所に1つまたは複数の音声信号を提供すること
を含むステップを実行するようにさらに構成され、前記1つまたは複数の音声信号は、前記コンピュータシミュレーションによって生成され、前記画像プロジェクタに送信される前記コンピュータシミュレーションが生成した前記少なくとも1つの画像と関連付けられる、請求項15に記載のシステム。
【請求項23】
前記プロセッサベースの装置は、前記画像プロジェクタを制御して、前記コンピュータシミュレーションが生成した前記少なくとも1つの画像をパネルの方向に投影すること
を含むステップを実行するようにさらに構成される、請求項15~22のいずれか1項に記載のシステム。
【請求項24】
ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを実行することと、
前記コンピュータシミュレーションが生成した画像をディスプレイに送信することと、
前記コンピュータシミュレーションが生成した少なくとも1つの画像を前記ハンドヘルドコントローラに結合された画像プロジェクタに送信することと、
前記コンピュータシミュレーションの状態に従って、前記画像プロジェクタの投影角度を自動的に調節することと、
を含むステップをプロセッサベースのシステムに実行させるように構成され
、前記画像プロジェクタに送信された前記少なくとも1つの画像は、前記ディスプレイに表示されるシーンの一部ではないコンテンツを含み、
前記コンテンツは、前記画像プロジェクタのために意図されたものであって、さもなければ前記画像プロジェクタによらずに生成されることはなく、
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、追加のシーンを含み、
前記追加のシーンは、前記ディスプレイに表示される前記シーンの一部ではない、前記コンピュータシミュレーションによって生成されたアクションを含む、1つまたは複数のコンピュータプログラムを記憶する非一時的コンピュータ可読記憶媒体。
【請求項25】
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、前記コンピュータシミュレーションのユーザのチームのメンバーの少なくとも1つを含む、請求項24に記載の非一時的コンピュータ可読記憶媒体。
【請求項26】
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、メニューの画像、マップの画像、または武器の画像を含む、請求項24に記載の非一時的コンピュータ可読記憶媒体。
【請求項27】
ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを実行することと、
前記コンピュータシミュレーションが生成した画像をディスプレイに送信することと、
前記コンピュータシミュレーションが生成した少なくとも1つの画像を前記ハンドヘルドコントローラにリリース可能にドッキングされるように構成されたユニットに収容される画像プロジェクタに送信することと、
前記コンピュータシミュレーションの状態に従って、前記画像プロジェクタの投影角度を自動的に調節することと、
を含むステップをプロセッサベースのシステムに実行させるように構成され
、前記画像プロジェクタに送信された前記少なくとも1つの画像は、前記ディスプレイに表示されるシーンの一部ではないコンテンツを含み、
前記コンテンツは、前記画像プロジェクタのために意図されたものであって、さもなければ前記画像プロジェクタによらずに生成されることはなく、
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、追加のシーンを含み、
前記追加のシーンは、前記ディスプレイに表示される前記シーンの一部ではない、前記コンピュータシミュレーションによって生成されたアクションを含む、1つまたは複数のコンピュータプログラムを記憶する非一時的コンピュータ可読記憶媒体。
【請求項28】
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、前記コンピュータシミュレーションのユーザのチームのメンバーの少なくとも1つを含む、請求項27に記載の非一時的コンピュータ可読記憶媒体。
【請求項29】
前記画像プロジェクタに送信された前記コンピュータシミュレーションが生成した前記少なくとも1つの画像は、メニューの画像、マップの画像、または武器の画像を含む、請求項27に記載の非一時的コンピュータ可読記憶媒体。
【請求項30】
前記1つまたは複数のコンピュータプログラムは、
前記画像プロジェクタの存在を検出することと、
前記画像プロジェクタの存在を検出することに応答して、前記ディスプレイに前記コンピュータシミュレーションが生成した画像が送信されるのと同時に前記画像プロジェクタに前記コンピュータシミュレーションが生成した少なくとも1つの画像を送信することと、
を含むステップを前記プロセッサベースのシステムに実行させるようにさらに構成される、請求項27に記載の非一時的コンピュータ可読記憶媒体。
【請求項31】
前記1つまたは複数のコンピュータプログラムは、さらに前記画像プロジェクタの存在を検出することに応答して、前記コンピュータシミュレーションが、前記少なくとも1つの画像であって、前記画像プロジェクタに送信されると、前記ディスプレイに同時に送信される前記画像と異なる前記少なくとも1つの画像を生成すること
を含むステップを前記プロセッサベースのシステムに実行させるようにさらに構成される、請求項30に記載の非一時的コンピュータ可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
[関連出願の相互参照]
本出願は、2016年1月12日出願の米国特許出願第14/994,027号「METHOD AND APPARATUS FOR THE PROJECTION OF IMAGES,VIDEO,AND/OR HOLOGRAMS GENERATED BY A COMPUTER SIMULATION」の継続出願であり、その利益を主張し、同出願は、2015年9月29日出願の米国仮特許出願第62/234,570号「METHOD AND APPARATUS FOR THE PROJECTION OF IMAGES,VIDEO, AND/OR HOLOGRAMS GENERATED BY A COMPUTER SIMULATION」の利益を主張し、その内容と開示全体を、参照により、本明細書に組み込む。
【0002】
[発明の分野]
本発明の実施形態は、一般的に、コンピュータシミュレーション出力技術に関し、より詳細には、コンピュータゲーム及びビデオゲーム等、コンピュータシミュレーションによって採用されてよい画像、ビデオ、及び、音声出力技術に関する。
【背景技術】
【0003】
ビデオゲーム等のコンピュータゲームは、人気のあるエンターテインメントソースになった。コンピュータゲームは、典型的には、コンピュータゲームソフトウェアアプリケーションで実施され、ゲームコンソール、エンターテインメントシステム、デスクトップコンピュータ、ラップトップコンピュータ、ノートブックコンピュータ、ポータブルデバイス、パッド型デバイス等で実行されることが多い。コンピュータゲームはコンピュータシミュレーションの一種である。
【0004】
コンピュータゲームのユーザは、典型的には、ディスプレイでゲームプレイを見て、ゲームコントローラ、ゲームパッド、ワンド、動作検知コントローラ、ジョイスティック、マウス、または、他の種類のハンドヘルドコントローラ等、ハンドヘルドコントローラを用いて、ゲームの様々な局面を制御できる。コンピュータゲームは、典型的には、例えば、声、足音、肉体的争い、銃声、爆発、カーチェイス、車の衝突等、他のプレイヤのキャラクタが生成した音など、ゲームが生成した音をユーザが聞くことができるように、音声出力も含む。
【発明の概要】
【課題を解決するための手段】
【0005】
一実施形態は、ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを、プロセッサベースの装置を用いて、実行することと、コンピュータシミュレーションが生成した画像をディスプレイに表示することと、コンピュータシミュレーションが生成した少なくとも1つの画像をハンドヘルドコントローラに結合された画像プロジェクタから投影することを含む方法を提供する。
【0006】
別の実施形態は、ディスプレイと、ハンドヘルドコントローラと、ハンドヘルドコントローラに結合された画像プロジェクタと、ディスプレイ、ハンドヘルドコントローラ、及び、画像プロジェクタと通信するプロセッサベースの装置とを含むシステムを提供し、プロセッサベースの装置は、ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを実行することと、コンピュータシミュレーションが生成した画像をディスプレイに送信することと、コンピュータシミュレーションが生成した少なくとも1つの画像を画像プロジェクタに送信することを含むステップを実行するように構成される。
【0007】
別の実施形態は、ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを実行することと、コンピュータシミュレーションが生成した画像をディスプレイに送信することと、コンピュータシミュレーションが生成した少なくとも1つの画像をハンドヘルドコントローラに結合された画像プロジェクタに送信することを含むステップをプロセッサベースのシステムに実行させるように構成された1つまたは複数のコンピュータプログラムを記憶する非一時的コンピュータ可読記憶媒体を提供する。
【0008】
別の実施形態は、ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを実行することと、コンピュータシミュレーションが生成した画像をディスプレイに送信することと、コンピュータシミュレーションが生成した少なくとも1つの画像をハンドヘルドコントローラにリリース可能にドッキングされるように構成されたユニットに収容された画像プロジェクタに送信することを含むステップをプロセッサベースのシステムに実行させるように構成された1つまたは複数のコンピュータプログラムを記憶する非一時的コンピュータ可読記憶媒体を提供する。
【0009】
本発明の様々な実施形態の特徴と長所は、本発明の実施形態の原理を利用した説明的な実施形態を規定する以下の詳細な記載と添付の図面を参照することによって、より良く理解されよう。
【0010】
本発明の実施形態の上記及び他の態様、特徴、及び、長所は、以下の図面と共に示された以下のより詳細な記載から明らかとなろう。
【図面の簡単な説明】
【0011】
【
図1】本発明の実施形態によるシステムを示すブロック図である。
【
図2】本発明の実施形態によるシステムを示すブロック図である。
【
図3】本発明の実施形態によるシステムを示すブロック図である。
【
図4A】本発明の実施形態による画像プロジェクタの使用例を示すブロック図である。
【
図4B】本発明の実施形態による画像プロジェクタの使用例を示すブロック図である。
【
図4C】本発明の実施形態による画像プロジェクタの使用例を示すブロック図である。
【
図5A】本発明の実施形態による、画像プロジェクタの投影角度の調節を示すブロック図である。
【
図5B】本発明の実施形態による、画像プロジェクタの投影角度の調節を示すブロック図である。
【
図5C】本発明の実施形態による、画像プロジェクタの投影角度の調節を示すブロック図である。
【
図6A】本発明の実施形態による、パネルと画像プロジェクタを使用してホログラムを形成することを示すブロック図である。
【
図6B】本発明の実施形態による、パネルと画像プロジェクタを使用してホログラムを形成することを示すブロック図である。
【
図7】本発明の実施形態による、空中に浮遊している霧または他の微粒子と画像プロジェクタとを使用してホログラムを形成することを示すブロック図である。
【
図8】本発明の実施形態による、ユニットの構成要素の例を示すブロック図である。
【
図9】本発明の実施形態による、ハンドヘルドコントローラの構成要素の例を示すブロック図である。
【
図10】本発明の実施形態による、方法を示すフロー図である。
【
図11】本発明の実施形態による、本明細書に示し記載する方法、スキーム、及び、技術のいずれかを実行、実施、及び/または、遂行するために使用されてよいプロセッサベースの装置/システムを示すブロック図である。
【発明を実施するための形態】
【0012】
上記のように、ビデオゲーム等のコンピュータゲームは、人気のあるエンターテイメントソースとなった。現在、大抵のコンピュータゲームのビデオ出力は、典型的には、例えば、モニタまたはテレビ(TV)等の1つのディスプレイに表示される。従って、コンピュータゲームをプレイする時、ユーザは、典型的に、同じ場所、すなわち、1つのディスプレイをただ見続ける。
【0013】
ある実施形態においては、本発明は、従来のビデオ表示出力に加えて使用される画像投影出力を追加することによって、コンピュータゲームと、他の種類のコンピュータシミュレーションとを、よりインタラクティブに、面白くする。ある実施形態においては、画像は、コンピュータシミュレーションを制御するためにユーザが使用するハンドヘルドコントローラから投影される。これは、壁、床、天井、または、ユーザがハンドヘルドコントローラを向ける任意の場所に、ユーザが追加の投影画像を表示するのを可能にする。例えば、ユーザは、ゲームで、町、森等を探検するために、床または壁にマップを投影できる。
【0014】
ある実施形態においては、ホログラフィ画像が投影される。すなわち、ハンドヘルドコントローラから投影される画像を使用して、ホログラムを形成してよい。これは、例えば、ゲームのキャラクタ等の人の顔または全身が、空中に投影され、空中に浮かぶのを可能にする。また、ある実施形態においては、システムは、投影された画像と関連付けられた音声も生成する。これは、例えば、ゲームキャラクタのホログラムに声を追加するのを可能にし、それによって、ホログラムが、ユーザに話しかけて、例えば、次の使命または何らかの他の指示もしくは情報に従うように命令を与えるのを可能にする。
【0015】
図1を参照すると、本発明の実施形態によるシステム100のブロック図が示されている。システム100は、ゲームコンソールまたはエンターテインメントシステム等のプロセッサベースの装置102を含む。プロセッサベースの装置102は、コンピュータゲームまたはビデオゲーム等のコンピュータシミュレーションを実行できる。コンピュータシミュレーションは、ゲームコントローラ、ゲームパッド、ワンド、または、任意の他の種類のハンドヘルドコントローラ等のハンドヘルドコントローラ104によって少なくとも部分的に制御される。
【0016】
ディスプレイ106は、コンピュータシミュレーションが生成した画像を表示するために使用される。ディスプレイ106は、モニタ、TV、または、任意の他の種類のディスプレイ等、任意の種類のディスプレイを含んでよい。ディスプレイ106は、有線または無線接続を介して、プロセッサベースの装置102に結合されてよい、または、プロセッサベースの装置102と通信してよい。
【0017】
ある実施形態においては、画像プロジェクタ108は、ハンドヘルドコントローラ104に結合される。画像プロジェクタは、画像を表面上に投影する光学装置である。小規模または小型の画像プロジェクタは、ピコプロジェクタ、ハンドヘルドプロジェクタ、または、モバイルプロジェクタとして知られている。ピコプロジェクタによって採用される主な画像装置技術には、デジタル光処理(DLP)、エルコス(LCoS:Liquid Crystal on Silicon)、及び、レーザが含まれる。本明細書で論じる画像プロジェクタは、これらの種類の画像プロジェクタのうちのいずれかと、任意の他の種類の画像プロジェクタとを含んでよい。
【0018】
ある実施形態においては、画像プロジェクタ108は、ハンドヘルドコントローラ104に組み込まれることによって、ハンドヘルドコントローラ104に結合される。例えば、画像プロジェクタ108は、ハンドヘルドコントローラ104のハウジングに含まれてよい、及び/または、搭載されてよい。または、画像プロジェクタ108は、何らかの他の方法で、ハンドヘルドコントローラ104と一体化、組み込み、及び/または、組み合わされてよい。画像プロジェクタ108をハンドヘルドコントローラ104に結合するこの種のバージョンは、
図9の例と共に以下に記載する。
【0019】
ある実施形態においては、画像プロジェクタ108は、
図1に示すように、ユニット110に収容されることによって、ハンドヘルドコントローラ104に結合される。ユニット110は、ハンドヘルドコントローラ104に取り外し可能またはリリース可能に取り付けまたはドッキングできる。例えば、ユニット110及びハンドヘルドコントローラ104は、ユニット110がハンドヘルドコントローラ104にドッキングされ、その後、容易に取り外せるように、構成されてよい。ユニット110は、取り付け具、ホルダ、ブラケット、または、類似のリリース可能な取り付けもしくはドッキング機構を用いて、ハンドヘルドコントローラ104にドッキングまたは取り付けられるように、小型であってよい。このように、ある実施形態においては、画像プロジェクタ108は、ハンドヘルドコントローラ104にリリース可能にドッキングするように構成されるユニット110に収容される。ある実施形態においては、ユニット110は、ハンドヘルドコントローラ104とドッキングされていてもいなくても、動作できる。例えば、ユニット110のスタンドアロン使用を以下に記載する。
【0020】
システム100の操作中、プロセッサベースの装置102は、ハンドヘルドコントローラ104によって少なくとも部分的に制御されるコンピュータシミュレーションを実行し、ハンドヘルドコントローラ104は、ユーザによって操作される。コンピュータシミュレーションが生成した画像は、ディスプレイ106に送信され、ディスプレイ106で画像がユーザに表示される。さらに、コンピュータシミュレーションが生成した少なくとも1つの画像は、画像プロジェクタ108に送信される。
【0021】
ある実施形態においては、コンピュータシミュレーションが生成した少なくとも1つの画像は、無線ストリーミングによって画像プロジェクタ108に送信される。例えば、WiFi(登録商標)または他の無線接続が、プロセッサベースの装置102によって使用されて、コンピュータシミュレーションが生成した少なくとも1つの画像を画像プロジェクタ108に送信してよい。
【0022】
受信すると、画像プロジェクタ108は、コンピュータシミュレーションが生成した少なくとも1つの画像を投影する。画像プロジェクタ108による画像の投影は、ビーム109によって示される。
図1に示す例においては、画像プロジェクタ108は、画像112によって示される画像を床に投影する。しかしながら、画像112は、壁もしくは天井等の任意の表面上、または、空中にさえ投影されて、ホログラムを形成できることは理解されたい。これについては、以下に記載する。
【0023】
ある実施形態においては、ユニット110は、ステレオスピーカ等の1つまたは複数の音声スピーカ、または、(外部のスピーカに接続するための)音声出力ジャックも含み、それによって、投影された画像112を見ながら、ユーザは音を聞くことができる。例えば、コンピュータシミュレーションは、画像プロジェクタ108に送信されるコンピュータシミュレーションが生成した少なくとも1つの画像に関連付けられた1つまたは複数の音声信号を生成してよい。プロセッサベースの装置102は、次に、ユニット110、または、プロジェクタ108に関連付けられた音声回路が置かれている所にはどこでも、1つまたは複数の音声信号を提供してよい。ある実施形態においては、プロセッサベースの装置102は、上記WiFiまたは他の無線接続によって等、無線ストリーミングを介してユニット110に1つまたは複数の音声信号を提供する。従って、通常の使用の場合のように、ハンドヘルドコントローラ104は、一般的に、ゲームの制御のために(または、より一般的に、シミュレーション制御のために)無線接続を介して、ゲームコンソール等のプロセッサベースの装置102に接続される。ユニット110は、別の無線リンクを通して接続されてよく、何らかの圧縮データフォーマットを用いて、音声及びビデオ(A/V)をストリーミングしてよい。
【0024】
従って、システム100は、ユーザの近くまたは周囲でインタラクティブな二次画像112をユーザに与える解決法を提供する。ハンドヘルドコントローラ104を動かす及び/または向けることによって、ユーザは、床、壁、または、テーブル等、自分の望む場所に画像112を投影できる。これは、ユーザが1つのPCモニタまたはTV等の1つのディスプレイを見てゲームをプレイする従来のシステムよりも面白い、わくわくした体験をユーザに提供する。このような従来のシステムにおいては、ゲームプレイ中、関連する追加の映像が無かった、その短所をシステム100が解決する。システム100は、適度にコンパクトなシステムで、インタラクティブな二次画像/画面をユーザに提供する。さらに、システム100は、投影技術を用いて、既存のハンドヘルドコントローラと一体化できる、または、既存のハンドヘルドコントローラに一体化できるコンパクトなビデオ/音声システムを提供する。
【0025】
図2は、システム100を使用して壁に画像をどのように投影できるかの例を示す。詳細には、システム100を再度示すが、今度は、ハンドヘルドコントローラ104と取り付けられたユニット110とは、違う位置に動かされる。図の位置において、画像プロジェクタ108は、画像112を側壁120上に投影する。画像プロジェクタ108による画像の投影は、ビーム109によって示される。
【0026】
ある実施形態において、ユニット110は、ハンドヘルドコントローラ104にドッキングされていてもいなくても動作できることと、ユニット110のドッキングされていないスタンドアロンの使用の例を記載すると先に述べた。
図3は、本発明の実施形態による、ユニット110のスタンドアロン使用を示す。詳細には、システム100を再度示すが、今度は、ユニット110は、ドッキングされておらず、ハンドヘルドコントローラ104から離されて、違う場所に動かされる。ユニット110は依然として動作でき、従って、画像プロジェクタ108は、床、壁、天井等、プロジェクタ108が向けられるどの表面にでも画像112を投影する。図の例においては、画像プロジェクタ108は、画像112を後壁122に投影する。ここでも、画像プロジェクタ108による画像の投影は、ビーム109によって示される。1つの場所/位置にユニット110を置いたまま、ディスプレイ106の隣の後壁122に投影することによって、投影された画像112は、幾つかの点で、より従来的な二次ディスプレイに似ている。
【0027】
このオプションのスタンドアロンの特徴は、ユーザが、ハンドヘルドコントローラ104に結合されているユニット110ひいては画像プロジェクタ108を取り外し、且つ、画像プロジェクタ108が画像を投影し続けるのを可能にする。このような取り外しは、例えば、ユーザが、ハンドヘルドコントローラ104に多くの急な動きをさせたいが、投影される画像は安定させておきたい場合、望ましいであろう。ユーザが選択するといつでも、ユニット110は、ハンドヘルドコントローラ104にドッキングした状態に戻すことができ、それによって、ユーザは、再度、画像の投影方向に関してより制御できるようになる。
【0028】
従って、ある実施形態においては、ユニット110は、プロセッサベースの装置102とのWiFi等の無線接続を通して音声/ビデオストリーミング機能を含み、プロセッサベースの装置102は、ゲームコンソール、エンターテインメントシステム、PC等を含んでよい。ある実施形態においては、ユニット110は、ハンドヘルドコントローラとのドッキング機能を含む。ある実施形態においては、ユニット110は、スタンドアロンユニットとしても動作でき、それによって、ユーザは、例えば、ユニット110をハンドヘルドコントローラとのドッキングから解除して、ユニット110をある一定の場所に置くことができる。
【0029】
ユニット110が、ハンドヘルドコントローラ104にドッキングされても、ユニット110がドッキングを解除されても、または、画像プロジェクタ108が、ハンドヘルドコントローラ104に組み込まれても、画像プロジェクタ108は、任意の種類の画像(複数可)を投影してよい。例えば、画像プロジェクタ108は、静止画像、動画、ビデオ、または、任意の他の種類の写真または画像を投影してよい。画像プロジェクタ108は、画像またはビデオを任意の表面に投影してよい。平らな表面に投影することは、良い結果を提供するが、任意の表面に投影されてよいと考えられる。さらに、上記のように、または、以下にさらに記載するように、画像プロジェクタ108は、画像及び/またはビデオを空中に投影して、ホログラムを形成してよい。
【0030】
ある実施形態においては、プロセッサベースの装置102は、最初に、画像プロジェクタが存在するか否か、すなわち、画像プロジェクタが、システムに結合、システムと通信、及び/または、他の方法でシステムに利用可能であるか否かを検出または決定する。プロセッサベースの装置102が、画像プロジェクタが存在することを検出した場合、ある実施形態においては、プロセッサベースの装置102は、投影のための追加のコンテンツを生成、送信する。例えば、詳細には、画像プロジェクタによって投影されるための追加のシーン、キャラクタ、メニュー、または、他の画像及び/またはビデオが生成されてよい。
【0031】
従って、ある実施形態においては、画像プロジェクタ108から投影される画像、複数の画像、及び/または、ビデオは、ディスプレイ106に同時に表示される画像、複数の画像、及び/または、ビデオとは異なる。すなわち、画像プロジェクタ108から投影される二次画像及び/またはビデオは、同じ時または同じ期間にディスプレイ106に表示されるのと同じ画像及び/またはビデオであっても、なくてもよい。ある実施形態においては、主ディスプレイに表示される画像と全く異なる画像が、投影画像に使用されてよい。ある実施形態においては、画像プロジェクタ108から投影される画像及び/またはビデオは、ディスプレイ106に同時に表示される画像及び/またはビデオと異なるが、画像プロジェクタ108から投影される画像及び/またはビデオは、ディスプレイ106に同時に表示される画像及び/またはビデオと同期される。従って、ある実施形態においては、画像プロジェクタ108から投影される画像及び/またはビデオは、異なるが、コンピュータシミュレーションと同期され、画像及び/またはビデオが、ディスプレイ106に同時に表示される。このように、これは、ビデオゲームまたは他のコンピュータシミュレーションをプレイするための異なる環境/画像をユーザに提供する。
【0032】
図4A、4B、4Cを参照して、画像プロジェクタ108の使用例を記載する。上記のように、ある実施形態においては、画像プロジェクタ108は、ユニット110を使用せずに、ハンドヘルドコントローラ104に組み込まれる。このように、画像プロジェクタ108は、本発明の様々な実施形態によると、ユニット110またはハンドヘルドコントローラ104のいずれかに収容されてよいので、画像プロジェクタ108は、「ユニット110(または、ハンドヘルドコントローラ104)」に収容されているとして図に示されている。
【0033】
詳細には、
図4Aを参照すると、ユーザが、ディスプレイ106に表示されるファーストパーソンシューターゲームをプレイする間、フィールドマップ130が、画像プロジェクタ108によって投影されてよい。すなわち、シューティングは、ディスプレイ106に表示されるが、画像プロジェクタ108によっては投影されず、フィールドマップ130は、画像プロジェクタ108によって投影されるが、ディスプレイ106には表示されない。従って、ユーザがマップを開く必要がある場合、マップは、主ディスプレイ106に表示される代わりに、床、壁、または、何らかの他の表面に投影される。このようにして、画像プロジェクタ108は、ある種の二次ディスプレイを追加する。
【0034】
図4Bは、別の例を示す。すなわち、剣や銃のような武器等のアイテム132が、画像プロジェクタ108によって投影されてよいが、ディスプレイ106には表示されなくてよい。この特徴は、ゲームまたはシミュレーションに関連する(または、関連さえしない)何か他の物をディスプレイ106に表示しながら、例えば、ユーザが、武器等のアイテムのリスト、画像プロジェクタ108によって投影される画像をスクロールするのを可能にし得る。従って、プレイメニューに行って、同じディスプレイ106にオプション/メニュー/アイテムをポップアップする代わりに、画像プロジェクタ108を用いて、オプション/メニュー/アイテムを、床、壁、天井等に、または、ホログラムとしてさえ投影することによって、ディスプレイ106とは別個に示すことができる。
【0035】
図4Cは、画像プロジェクタ108に関する別の使用例を示す。詳細には、ある実施形態においては、ユーザは、ゲームの中で誰かが自分を呼ぶのを聞く場合があり、次に、画像プロジェクタ108に投影された顔134がポップアップする。顔134は、例えば、ゲームまたはシミュレーションのキャラクタ、または、チームのメンバーもしくは友達、または、他の誰かの顔であってよい。
【0036】
上記のように、ある実施形態においては、ユニット110は、投影された画像を見ながら、ユーザが音を聞くことができるように、音声スピーカまたは音声出力ジャックも含む。これは、ユニット110に音声をストリーミングすることを可能にし、その結果、例えば、顔134は、声を持ち、例えば、指示を与える、戦略を立てる等、ユーザに話しかけることができる。従って、ある実施形態においては、画像プロジェクタ108から投影される二次画像及び/またはビデオは、対応する、または、関連付けられた二次音声も含み、二次音声は、ユニット110にストリーミングされ、ユニット110でスピーカを通して、または、ユーザが装着したイヤホンもしくはヘッドホンを通してプレイされる。ある実施形態においては、音声が、画像またはビデオで描かれる人に属するように意図した声等、画像またはビデオに対応する、画像またはビデオに伴う、または、画像またはビデオに属する時、二次音声は、画像プロジェクタ108から投影される二次画像及び/またはビデオと関連付けられるとみなされる。二次的な投影画像またはビデオと同様、二次音声は、ディスプレイ106でプレイされるのと同じ音声であってもなくてもよい。ある実施形態においては、二次音声は、ディスプレイ106を用いて同時にプレイされるのと同じ音声ではない。
【0037】
ある実施形態においては、ユニット110は、マイクロホンも含む。マイクロホンは、ユニット110が、ユーザの声等の音を検出して、プロセッサベースの装置102に送り返すのも可能にする。この特徴は、ユーザが、投影された画像に話しかけるのを可能にする。例えば、投影された顔134が、ユーザに話しかける時、ユーザが、返答して、顔134と会話を続けることができる。
【0038】
従って、ある実施形態においては、ユニット110は、画像及び/またはビデオを任意の表面に投影できる、または、空中にホログラムを形成できる、且つ、画像、ビデオ、または、ホログラムと関連付けられた音もプレイできる。このように、画像またはビデオ投影に音声を伴うことができる。例えば、上記のオプション/メニュー/アイテムは、関連する音声と共に、画像プロジェクタ108によって投影できる。
【0039】
ある実施形態においては、ユーザが、ハンドヘルドコントローラ104を使用して、ジェスチャコマンドを行う時、画像プロジェクタ108は、画像及び/またはビデオを投影する。詳細には、ハンドヘルドコントローラ104が、ジェスチャを検知できる動作検知コントローラである場合、コンピュータシミュレーションは、画像及び/またはビデオを生成し、それらを画像プロジェクタ108に送信し、それによって、画像及び/またはビデオが、ジェスチャコマンドの1つまたは複数の間、投影されてよい。このように、ユーザが、ハンドヘルドコントローラ104をあちこちに動かして、ジェスチャコマンドを行う間、画像プロジェクタ108は、ジェスチャ動作に何かを追加する。例えば、ある実施形態においては、ジェスチャ動作中、コントローラ104は動いている間、画像プロジェクタ108は、流れ星または虹を投影して、コマンドをよりワクワクした面白いものにすることができる。コンピュータシミュレーションの状態は、ジェスチャコマンドがあると分かっていると、この特徴を使用できる。あるビデオゲーム等のあるコンピュータシミュレーションは、ジェスチャコマンドを使用しない。従って、ジェスチャコマンドの使用は、特定のコンピュータシミュレーションまたはゲームタイトルに左右される。ジェスチャコマンドがない場合、ハンドヘルドコントローラ104は、比較的静止しており、画像プロジェクタ108を使用して、メニュー、マップ等のアイテムを投影できることが、コンピュータシミュレーションに分かる。
【0040】
ある実施形態においては、画像プロジェクタ108は、機械的に動かして投影角度を変更できる。例えば、ある実施形態においては、画像プロジェクタ108は、上下、及び/または、左右に機械的に動かすことができ、及び/または、スイベルで回転させて、投影角度を変更できる。このように、ある実施形態においては、画像プロジェクタ108は、ハンドヘルドコントローラ104に対する投影角度が調節可能なように、ハンドヘルドコントローラ104に結合される。ある実施形態においては、このような結合は、画像プロジェクタ108をハンドヘルドコントローラ104に組み込むことと、画像プロジェクタ108の投影角度を調節可能にすることによって達成される。ある実施形態においては、このような結合は、画像プロジェクタ108をユニット110に収納し、ユニット110をハンドヘルドコントローラ104にドッキング及び/または取り付けできることと、画像プロジェクタ108の投影角度を調節可能にすることとによって達成される。
【0041】
図5A、5B、5Cは、このような結合と画像プロジェクタ108の投影角度の調節とのある実施形態の例を示す。詳細には、画像プロジェクタ108は、ユニット110に取り付けられる、あるいは、画像プロジェクタ108は、ハンドヘルドコントローラ104に直接、取り付けられる。図は側面図なので、
図5Aは、画像プロジェクタ108が上に動かされているのを示し、
図5Bは、画像プロジェクタ108が、床に平行に投影するように、動かされているのを示し、
図5Cは、画像プロジェクタ108が下に動かされているのを示す。従って、画像プロジェクタ108の投影角度は、上を向くから、水平に向く、そして、下を向くと回転される。画像プロジェクタ108が、ハンドヘルドコントローラ104に直接取り付けられても、ユニット110に取り付けられても、ユニット110は、ハンドヘルドコントローラ104にリリース可能にドッキングまたは取り付けられてよいので、投影角度は、ハンドヘルドコントローラ104に対して変わる。ある実施形態においては、画像プロジェクタ108は、投影角度を変えるために、スイベルで回転する。
【0042】
ある実施形態においては、画像プロジェクタ108の投影角度は、コンピュータシミュレーションの状態に従って、自動的に調節される。例えば、コンピュータシミュレーションが、ビデオゲームを含み、画像プロジェクタ108が、ゲームでキャラクタの画像を投影している場合、ゲーム状態は、時々、キャラクタまたは他の投影された画像を移動させるために、1つまたは複数の信号またはコマンドを送信して、画像プロジェクタ108の投影角度を自動的に調節及び/または回転させてよい。このように、ゲーム状態によって、画像プロジェクタ108の動き及び回転を制御できる。ある実施形態においては、小型のモータまたは他の移動手段を採用して、画像プロジェクタ108を自動的に動かして、投影角度を変更または調節する。
【0043】
ここまでに数回、記載したように、ある実施形態においては、画像プロジェクタ108は、ホログラフィ画像を投影する。詳細には、ホログラムは、コンピュータシミュレーションが生成した1つまたは複数の画像に基づいて形成されてよい。画像プロジェクタ108は、画像及び/またはビデオを空中に投影して、ホログラムを形成する。ある実施形態においては、ホログラムは、コンピュータシミュレーションが生成した画像及び/またはビデオを1つまたは複数のクリアパネルまたはホログラム作成に適した他の種類のパネルの方向に投影することによって形成される。すなわち、画像及び/またはビデオは、1つまたは複数のクリアパネル、または、ホログラム作成に適した他の種類のパネルの方に、の内に、または、を通して向けられる。ある実施形態においては、1つまたは複数のクリアパネルは、アクリルパネルを含んでよい。
【0044】
ある実施形態においては、クリアパネルは、ハンドヘルドコントローラに結合されてよい。すなわち、ある実施形態においては、小さいクリアパネルが、ハンドヘルドコントローラに結合され、それによって、小さいクリアパネルは、ハンドヘルドコントローラの上、横、または、下に画像及び/またはビデオを投影できる。
図6A、6Bは、クリアパネル140がどのようにハンドヘルドコントローラに結合され得るかの例を示す。詳細には、クリアパネル140は、ユニット110に取り付けられてよい、あるいは、クリアパネル140は、ハンドヘルドコントローラ104に直接、取り付けられてよい。ある実施形態においては、クリアパネル140は、アクリルパネルを含んでよい。
図6Aにおいては、クリアパネル140は、ユニット110またはコントローラ104の側面に取り付けられ、それによって、アセンブリの合わせた長さを最小にする。画像プロジェクタ108は、クリアパネル140内に投影するように、回転される。
図6Bにおいて、クリアパネル140は、ユニット110またはコントローラ104の端に取り付けられ、それによって、アセンブリの合わせた長さは増えるが、幅が最小になる。画像プロジェクタ108は、ある角度でクリアパネル140に投影するように、少し回転される。
【0045】
ある実施形態においては、クリアパネル140の角度は、調節可能またはチューニング可能である。すなわち、ユニット110またはハンドヘルドコントローラ104に対するクリアパネル140の角度は、調節可能またはチューニング可能である。ある実施形態においては、この調節性またはチューニング性は、ヒンジ、ピボット、または、軸機構142を用いて、クリアパネル140をユニット110またはハンドヘルドコントローラ104に取り付けることによって達成されてよい。
【0046】
ある実施形態においては、クリアパネルの角度は、コンピュータシミュレーションの状態に従って自動的に調節される。例えば、ホログラムを形成するプロセスの一部として、コンピュータシミュレーションは、ホログラム形成のための適切な条件を作り出すように、クリアパネル140の角度と、画像プロジェクタ108の投影角度とを自動的に調節またはチューニングしてよい。別の例として、コンピュータシミュレーションが、ビデオゲームを含み、画像プロジェクタ108が、クリアパネル140を用いて、ゲームにキャラクタのホログラムを投影している場合、ゲーム状態は、ホログラムを作成、ホログラムを維持、ホログラムを移動させる等のために、クリアパネル140の角度及び/または画像プロジェクタ108の投影角度を自動的に調節またはチューニングしてよい。ある実施形態においては、小型のモータまたは他の移動手段が、ヒンジ、ピボット、または、軸機構142と共に採用されて、または、関連付けられて、クリアパネル140を自動的に動かして、その角度を変更、調節、または、チューニングする。
【0047】
ある実施形態においては、ホログラムは、コンピュータシミュレーションが生成した画像及び/またはビデオを空中に浮遊する小粒子または微粒子の方向に投影することによって形成される。例を挙げると、空中に浮遊する小粒子または微粒子は、霧、蒸気、埃、または、空中に浮遊でき、その上に光を投影できる任意の他の物質を含んでよい。例えば、電子たばこ等の装置が生成する蒸気は、空中に浮遊でき、その上に光を投影できる物質であると考えられる。
【0048】
図7は、空中に浮遊する小粒子を用いてホログラムを作成する例を示す。詳細には、煙霧機150は、霧152を作る。画像プロジェクタ108は、霧152の方向に、霧152の上に、霧152の中に、または、霧152を通して画像及び/またはビデオを投影する。霧152を含む物質上に光を投影することによって、ホログラム154を作成する。ホログラム154は、図に示した例では、ゲームキャラクタである。
【0049】
ある実施形態においては、空中に浮遊する小粒子は、コンピュータシミュレーションの状態に従って、自動的に設置される。例えば、ホログラムを形成するプロセスの一部として、コンピュータシミュレーションは、ホログラム形成のための適切な条件を生み出すために、煙霧機150または他の粒子製造装置と、画像プロジェクタ108の投影角度とを自動的に制御してよい。別の例として、コンピュータシミュレーションが、ビデオゲームを含み、ゲーム状態が、ホログラフィのキャラクタ154の作成を要求する場合、ゲーム状態は、キャラクタを表すホログラムを作成、維持、または、移動させるために、煙霧機150または他の粒子製造装置と、画像プロジェクタ108の投影角度とを自動的に制御してよい。すなわち、ゲーム状態は、煙霧機150を制御して、霧152を空中に放出または設置し、次に、ゲーム状態は、画像プロジェクタ108を制御して、画像またはビデオを霧152上に投影して、ホログラム154を作成する。
【0050】
図8を参照すると、ある実施形態において、画像プロジェクタ108を支持するユニット110で使用されてよいハードウェアと回路の構成要素の構成例が示されている。図に示すように、構成要素は、画像プロジェクタ108(光学ブロックと呼ばれてもよい)と、制御回路ブロック160と、無線ブロック162と、音声ブロック164と、インタフェースブロック166と、外部インタフェースブロック178と、バッテリブロック168とを含む。
【0051】
上記のように、ある実施形態においては、画像プロジェクタ108は、例えば、ピコプロジェクタ、ハンドヘルドプロジェクタ、または、モバイルプロジェクタ等を含むが、これらに限らない任意の種類の画像プロジェクタを含んでよい。ある実施形態においては、画像プロジェクタ108は、マイクロプロジェクトモジュールを含んでよい。さらに、ある実施形態においては、画像プロジェクタ108は、例えば、デジタル光処理(DLP)、エルコス(LCoS:Liquid Crystal on Silicon)、及び、レーザ等であるが、これらに限らない任意の画像装置技術を採用してよい。
【0052】
画像プロジェクタ108は、制御回路ブロック160に結合される。ある実施形態においては、制御回路ブロック160は、マイクロプロセッサ及びCODEC(コーダ-デコーダ)を含んでよい。ある実施形態においては、制御回路ブロック160は、本明細書に記載の特徴、方法、及び、技術の1つまたは複数を実施するように構成される。
【0053】
無線ブロック162は、制御回路ブロック160にも結合される。無線ブロック162は、ホスト、すなわち、プロセッサベースの装置102とデータを送受信するために使用される。例えば、無線ブロック162は、コンピュータシミュレーションが生成した1つまたは複数の画像及び/またはビデオをプロセッサベースの装置102から受信するために使用されてよい。無線ブロック162は、ユーザの声の音声データ等のデータをプロセッサベースの装置102に送信するためにも使用されてよい。上記のように、ある実施形態においては、無線ブロック162は、WiFiまたは他の無線接続技術を使用して、プロセッサベースの装置102とユニット110との間でデータを送信する。
【0054】
音声ブロック164も、制御回路ブロック160に結合される。上記のように、ある実施形態においては、ユニット110は、1つまたは複数の音声スピーカ170、及び/または、(外部のスピーカに接続するための)音声出力ジャック172を含み、それによって、画像プロジェクタ108が投影する画像またはビデオを見ながら、ユーザは音を聞くことができる。ある実施形態においては、スピーカ170及び/または出力ジャック172は、ステレオサウンド用に構成されてよい。プロセッサベースの装置102から受信した1つまたは複数の音声信号は、投影された画像またはビデオに関連付けられてよい。さらに、先にも述べたように、ある実施形態においては、ユニット110は、マイクロホン174も含む。マイクロホン174は、ユニット110が、ユーザの声等の音を検出し、無線ブロック162を介してプロセッサベースの装置102に送信するのを可能にする。ある実施形態においては、音声認識ソフトウェアまたは技術が、マイクロホン174が受信した声を認識または変換するために、音声ブロック164及び/またはプロセッサベースの装置102によって採用されてよい。
【0055】
インタフェースブロック166は、ある実施形態において使用され、インタフェースブロック166も制御回路ブロック160に結合される。ユニット110が、ハンドヘルドコントローラ104にリリース可能にドッキングされる時、インタフェースブロック166は、ハンドヘルドコントローラ104とインタフェースを取るために使用される。インタフェースブロック166は、ハンドヘルドコントローラ104の拡大インタフェース等の対応するインタフェース176に結合する。従って、インタフェースブロック166は、ユニット110とハンドヘルドコントローラ104の間に通信を提供する。ある実施形態においては、インタフェースブロック166は、例えば、ハンドヘルドコントローラ104からの電力、ハンドヘルドコントローラ104にあってよい1つまたは複数の音声スピーカ、ハンドヘルドコントローラ104にあってよいマイクロホン、ハンドヘルドコントローラ104が生成した制御信号等、ハンドヘルドコントローラ104にある1つまたは複数のリソースをユニット110が使用するのを可能にする。例えば、あるハンドヘルドコントローラは、ユーザが、イヤホンまたはヘッドホンをハンドヘルドコントローラに差し込むことができるように、音声信号を備える。ある実施形態においては、インタフェースブロック166及び対応するインタフェース176は、ユニット110が、ハンドヘルドコントローラ104から音声信号を取得するのを可能にする。このような状況で、ある実施形態においては、ユニット110は、音声信号をプロセッサベースの装置102から取得する必要はない。
【0056】
バッテリブロック168は、オプションで、ある実施形態において使用され、バッテリブロック168も制御回路ブロック160に結合される。詳細には、ある実施形態においては、ユニット110がハンドヘルドコントローラ104にドッキングされる時、ハンドヘルドコントローラ104によって電力がユニット110に供給される。そして、ユニット110が、ハンドヘルドコントローラ104からドッキングを解除され、スタンドアロン構成の時、電力は、壁のコンセントからユニット110に供給できる。従って、これらの状況においては、バッテリブロック168は、必要でない場合もあり、取り除くことができる。しかし、ユニット110がハンドヘルドコントローラ104にドッキングされている時、ハンドヘルドコントローラ104が、ユニット110に十分な電力を供給できない場合、バッテリブロック168は必要となり得る。同様に、壁のコンセントが利用できない場合、バッテリブロック168は、スタンドアロン構成のために必要となり得る。ある実施形態においては、バッテリブロック168は、外部インタフェースブロック178から充電可能なバッテリ技術を含む。
【0057】
外部インタフェースブロック178は、ある実施形態において使用され、外部インタフェースブロック178も、制御回路ブロック160とバッテリブロック168に結合される。無線環境が利用できない、及び/または、無線送受信機162がスリープモードの時、または、ユニット110が、外部電源から電力供給を受けている時、外部インタフェースブロック178は、プロセッサベースの装置102とインタフェースを取るために使用される。外部インタフェースブロック178は、ユニット110とプロセッサベースの装置102の間に通信を提供できる。ある実施形態においては、外部インタフェースブロック178は、例えば、プロセッサベースの装置102からの電力、プロセッサベースの装置102が生成した音声信号、プロセッサベースの装置102が生成したビデオ信号、及び、プロセッサベースの装置102が生成した制御信号等、1つまたは複数のリソースをユニット110がプロセッサベースの装置102から取得するのを可能にする。ある実施形態においては、外部インタフェースブロック178は、プロセッサベースの装置102が、ユニット110でマイクロホン信号を使用するのを可能にする。
【0058】
上記のように、ある実施形態においては、画像プロジェクタ108は、ハンドヘルドコントローラ104に組み込まれる。従って、ある実施形態においては、ユニット110は、必要とされず、
図8に示す構成要素の多くは、代わりに、ハンドヘルドコントローラ104を構成する通常の構成要素と共に、ハンドヘルドコントローラ104に収容される。
図9は、ある実施形態において画像プロジェクタ108を支持するハンドヘルドコントローラ104で使用されてよいハードウェアと回路の構成要素の構成例を示す。ユニット110と同様に、構成要素は、画像プロジェクタ108(光学ブロックとも呼ばれてよい)と、制御回路ブロック160と、無線ブロック162と、外部インタフェースブロック178と、音声ブロック164とを含み、これらは、上述したのと同様に動作する。しかし、ユニット110とは異なり、構成要素がハンドヘルドコントローラ104に組み込まれているので、ハンドヘルドコントローラとインタフェースを取るためのインタフェースブロック166は、必要とされない。さらに、ハンドヘルドコントローラ104で十分な電力が利用できる場合、バッテリブロック168は、必要ない場合がある。しかしながら、ハンドヘルドコントローラ104で十分な電力が利用できない場合、バッテリブロック168を含むことができるのは当然である。
【0059】
従って、
図9は、画像プロジェクタ108がハンドヘルドコントローラ104に組み込まれることによってハンドヘルドコントローラ104に結合されている例を示す。すなわち、
図9は、ハンドヘルドコントローラ104のハウジングに画像プロジェクタ108が含まれる、及び/または、搭載される例を示す。
【0060】
ある実施形態のシステム100の動作フローの例(
図1~
図3)が、
図10の方法200によって示される。方法200のステップの全てが必要でない実施形態もあることは理解されたい。すなわち、方法200のステップの全てを含まない実施形態もある。実際、方法200のステップの一部は、オプションである。ある実施形態においては、方法200のステップの1つまたは複数は、上記のプロセッサベースの装置102等、プロセッサベースの装置またはシステムによって実行されてよく、プロセッサベースの装置またはシステムは、ある実施形態においては、ゲームコンソール、エンターテインメントシステム、ハンドヘルドデバイス、モバイルデバイス、パーソナルコンピュータ、ワークステーション等を含んでよい。
【0061】
方法200は、ステップ202で開始し、ステップ202において、コンピュータシミュレーションが実行される。コンピュータシミュレーションは、例えば、ゲームコントローラ、ゲームパッド、ワンド、モバイルデバイス、ハンドヘルドデバイス、または、本明細書に記載の他の種類のハンドヘルドコントローラのいずれか等、ハンドヘルドコントローラによって少なくとも部分的に制御される種類のコンピュータシミュレーションである。ある実施形態においては、コンピュータシミュレーションは、コンピュータゲーム、ビデオゲーム、または、任意の他の種類のコンピュータシミュレーションを含んでよい。
【0062】
ステップ204において、コンピュータシミュレーションが生成した画像は、ディスプレイに送信される。ディスプレイは、モニタ、TV、または、任意の他の種類のディスプレイ等、任意の種類のディスプレイを含んでよい。
【0063】
ステップ206において、画像プロジェクタの存在を検出する。例えば、ある実施形態においては、プロセッサベースの装置は、画像プロジェクタが、システムに結合されているか否か、システムと通信しているか否か、及び/または、他の方法でシステムによって利用可能であるか否かを検出または決定する。
【0064】
ステップ206の結果は、決定ブロック208によって決定される。プロセッサベースの装置が、画像プロジェクタが存在することを検出する場合、決定ブロック208の答えは「はい」であり、これは、ある実施形態においては、プロセッサベースの装置が、投影のための追加のコンテンツを生成及び/または送信することに進むことを意味する。従って、プロセスフローは、ステップ210に進み、ステップ210において、追加のコンテンツが生成される。
【0065】
他方、プロセッサベースの装置が、画像プロジェクタが存在することを検出しない場合、決定ブロック208の答えは「いいえ」であり、プロセスフローは、ステップ202に戻る。従って、システムが、画像プロジェクタにアクセスがない場合、ある実施形態においては、プロセッサベースの装置は、主ディスプレイ用のコンテンツのみを生成及び/または送信する。
【0066】
画像プロジェクタが存在する場合、ステップ210において、画像プロジェクタによって投影するための少なくとも1つの画像が、コンピュータシミュレーションによって生成される。例えば、詳細には、画像プロジェクタによって投影されることを意図した追加のシーン、キャラクタ、メニュー、または、他の画像及び/またはビデオが生成されてよい。別の例として、ビデオゲームにおいて、ゲーム状態が、画像プロジェクタの存在を検出する場合、プロセッサベースの装置は、敵のキャラクタの顔、チームメート、ボス、マップ、及び/または、画像プロジェクタが投影するための他のアイテムを生成する。これらのアイテムは、壁に、床に、または、空中のホログラムとして、投影できる。ある実施形態においては、1つまたは複数の画像、動画、ビデオ、及び/または、ホログラムが生成される。ある実施形態においては、生成された画像及び/またはビデオは、ディスプレイに同時に表示されている画像及び/またはビデオとは異なる。従って、ある実施形態においては、画像プロジェクタが、存在する時、及び/または、システムによって利用可能な時、追加のコンテンツが、画像プロジェクタによって投影されるために生成される。
【0067】
ステップ212において、コンピュータシミュレーションが生成した投影のための少なくとも1つの画像は、画像プロジェクタに送信される。ある実施形態においては、1つまたは複数の画像及び/またはビデオは、無線送信を介して画像プロジェクタに送信される。ある実施形態においては、画像プロジェクタは、上記に記載の方法のうちのいずれかで、ハンドヘルドコントローラに結合される。
【0068】
ステップ214において、画像プロジェクタは、コンピュータシミュレーションが生成した投影のための少なくとも1つの画像を投影する。ある実施形態においては、少なくとも1つの画像が、表面上に投影される。ある実施形態においては、少なくとも1つの画像を使用して、ホログラムを形成する。
【0069】
ある実施形態においては、本明細書に記載の方法、スキーム、及び、技術は、多くの異なる種類のプロセッサベースの装置またはシステムで、利用、実施、及び/または、実行されてよい。例えば、本明細書に記載の方法、スキーム、及び、技術は、ゲームコンソール、エンターテインメントシステム、ポータブルデバイス、モバイルデバイス、パッド型デバイス、コンピュータ、ワークステーション、デスクトップコンピュータ、ノートブックコンピュータ、サーバ等で、利用、実施、及び/または、実行されてよい。さらに、ある実施形態においては、本明細書に記載の方法、スキーム、及び、技術は、オンライン状況で、ネットワーク状況で、インターネットを介して等、利用、実施、及び/または、実行されてよい。
【0070】
図11を参照すると、このような実施態様のいずれかで使用し得るシステム300の例が示されている。システム300は、このような実施態様のいずれかでも使用し得るプロセッサベースの装置またはシステム320を含む。例えば、ある実施形態においては、システム300またはプロセッサベースの装置もしくはシステム320の1つまたは複数の構成要素が、例えば、上記のゲームコンソール、エンターテインメントシステム、ポータブルデバイス、モバイルデバイス、パッド型デバイス、コンピュータ、ワークステーション、デスクトップコンピュータ、ノートブックコンピュータ、サーバ等のうちのいずれか等、上記の任意の方法、スキーム、技術、システム、または、装置を実施するために使用されてよい。しかしながら、システム300、プロセッサベースの装置もしくはシステム320、または、それらの任意の部分の使用は、必ずしも必要とされない。例を挙げると、ある実施形態においては、システム300、または、プロセッサベースの装置もしくはシステム320、または、それらのいずれかの部分は、上記のシステム100(
図1~3)、または、システム100のいずれかの部分もしくは構成要素を実施するために使用されてよい。例えば、ある実施形態においては、プロセッサベースの装置もしくはシステム320は、プロセッサベースの装置102を実施するために使用されてよい。ある実施形態においては、ディスプレイ312は、ディスプレイ106に対応してよく、入力装置316は、ハンドヘルドコントローラ104に対応してよい。
【0071】
例を挙げると、プロセッサベースの装置またはシステム320(
図11)は、中央処理装置(CPU)302と、無線及び/または有線ネットワークインタフェース304と、ランダムアクセスメモリ(RAM)308と、ディスクドライブ等の大容量記憶ユニット310とを含んでよいが、含むことは必須ではない。システム320は、ディスプレイ312及び/または入力装置316等、本明細書に記載の他の構成要素のいずれかに結合、または、いずれかと一体化されてよい。ある実施形態においては、システム320は、プロセッサベースの装置またはシステムの例を含む。ある実施形態においては、このようなプロセッサベースの装置またはシステムは、ディスプレイ312及び/または入力装置316も含むとみなされてよい。CPU302を使用して、本明細書に記載の方法、スキーム、及び、技術のステップを実行、または、実行を支持してよく、様々なプログラムコンテンツ、画像、ビデオ、メニュー、メニュー画面、インタフェース、グラフィカルユーザインタフェース(GUI)、ウィンドウ、表、グラフィック、アバタ、キャラクタ、プレイヤ、ビデオゲーム、シミュレーション、仮想世界等をディスプレイ312にレンダリングしてよい。
【0072】
ある実施形態においては、無線及び/または有線のネットワークインタフェース304を使用して、上記無線ストリーミング、無線接続、WiFi等のいずれかを実施するための任意の必要な機能を提供してよい。例えば、ある実施形態においては、無線及び/または有線のネットワークインタフェース304を使用して、プロセッサベースの装置102(
図1~3)と、ユニット110、ハンドヘルドコントローラ104及び/または画像プロジェクタ108との間で音声、画像及び/またはビデオの無線ストリーミングを提供してよい。例えば、ある実施形態においては、無線及び/または有線のネットワークインタフェース304が、無線ブロック162と無線通信するために使用されてよい(
図8及び
図9)。ある実施形態においては、無線及び/または有線のネットワークインタフェース304は、システム320が、ローカルエリアネットワーク、インターネット、イントラネット、広域ネットワーク、または、任意の他のネットワーク等のネットワークとインタフェースするための任意の必要な機能を提供する。
【0073】
入力装置316は、任意の種類の入力装置または入力技術もしくは方法を含んでよい。例えば、入力装置316は、ハンドヘルドコントローラ、ゲームコントローラ、ゲームパッド、ワンド、動作検知コントローラ、ジョイスティック、キーボード、マウス、タッチパッド、トラックボール、カメラ、センサ、または、他の入力装置及び/または入力技術を含んでよい。入力装置316は、無線または有線であってよい、例えば、入力装置316は、無線でシステム320に結合されてよい、または、有線接続を含んでよい。ある実施形態においては、入力装置316は、ユーザ及び/またはユーザが制御する物体の動き及び/または動作を検知及び/または追跡する手段またはセンサを含んでよい。ディスプレイ312は、例えば、モニタ、TV等を含むが、これらに限らない任意の種類のディスプレイまたはディスプレイデバイスもしくは装置を含んでよい。
【0074】
大容量記憶ユニット310は、任意の種類のコンピュータ可読記憶または記録媒体(単数または複数)を含んでよい。コンピュータ可読記憶または記録媒体(単数または複数)は、大容量記憶ユニット310に固定されてよい、または、大容量記憶ユニット310が、デジタルビデオディスク(DVD)、ブルーレイディスク、コンパクトディスク(CD)、USB記憶装置、フロッピー(登録商標)ディスク、または、他の媒体等、取り外し可能な記憶媒体314をオプションで含んでよい。例を挙げると、大容量記憶ユニット310は、ディスクドライブ、ハードディスクドライブ、フラッシュメモリ装置、USB記憶装置、ブルーレイディスクドライブ、DVDドライブ、CDドライブ、フロッピーディスクドライブ等を含んでよい。大容量記憶ユニット310または取り外し可能記憶媒体314は、本明細書に記載の方法及び技術を実施するコードまたはマクロを記憶するために使用されてよい。
【0075】
従って、取り外し可能記憶媒体314は、大容量記憶ユニット310と共にオプションで使用されてよく、上記の方法、スキーム、及び、技術を実行するためのプログラムコード等、本明細書に記載の方法及び技術を実施するプログラムまたはコンピュータコードを記憶するために使用されてよい。しかしながら、RAM308または大容量記憶ユニット310等の記憶装置のいずれかが、このようなコードの記憶に使用されてよい。例えば、このような記憶装置のいずれかが、ゲームコンソール、エンターテインメントシステム、モバイルデバイス、システム、コンピュータ、ワークステーション、サーバ、クライアント、または、他のプロセッサベースの装置もしくはシステムに、本明細書に記載の方法、コード、スキーム、及び/または、技術のいずれかのステップを実行または行わせるための1つまたは複数のコンピュータプログラムまたはソフトウェアアプリケーションを記憶または具体化するための有形の非一時的コンピュータ可読記憶媒体として働いてよい。さらに、RAM308、大容量記憶ユニット310、または、取り外し可能記憶媒体314等の記憶装置のいずれかが、任意の必要なデータベース(複数可)を記憶するために使用されてよい。
【0076】
従って、上記のように、ある実施形態においては、プロセッサベースの装置もしくはシステム320は、プロセッサベースの装置102(
図1~3)を実施するために使用されてよい。ある実施形態においては、ディスプレイ312は、ディスプレイ106に対応してよく、入力装置316は、ハンドヘルドコントローラ104に対応してよい。
【0077】
ある実施形態においては、上記の実施形態、方法、アプローチ、スキーム、及び/または、技術の1つまたは複数は、プロセッサベースの装置またはシステムによって実行可能な1つまたは複数のコンピュータプログラムまたはソフトウェアアプリケーションで実施されてよい。例を挙げると、このようなプロセッサベースのシステムは、プロセッサベースの装置もしくはシステム320(
図11)、または、エンターテインメントシステム、ゲームコンソール、モバイルデバイス、コンピュータ、ワークステーション、デスクトップコンピュータ、ノートブックコンピュータ、サーバ、グラフィックスワークステーション、クライアント、ポータブルデバイス、パッド型デバイス等を含んでよい。このようなコンピュータプログラム(複数可)またはソフトウェアは、上記の方法、スキーム、及び/または、技術の様々なステップ及び/または特徴を実行するために使用されてよい。すなわち、コンピュータプログラム(複数可)またはソフトウェアは、プロセッサベースの装置もしくはシステムに、本明細書に記載の機能を実行、達成させる、または、実行、達成するように構成するように適合または構成されてよい。例えば、このようなコンピュータプログラム(複数可)またはソフトウェアは、上記の方法、ステップ、技術、スキーム、または、特徴の任意の実施形態を実施するために使用されてよい。別の例として、このようなコンピュータプログラム(複数可)またはソフトウェアは、上記の実施形態、方法、アプローチ、スキーム、及び/または、技術のいずれか1つまたは複数を使用する任意の種類のツールまたは類似のユーティリティを実施するために使用されてよい。ある実施形態においては、1つまたは複数のこのようなコンピュータプログラムまたはソフトウェアは、ツール、ユーティリティ、アプリケーション、コンピュータシミュレーション、コンピュータゲーム、ビデオゲーム、ロールプレイングゲーム(RPG)、他のコンピュータシミュレーション、または、オペレーティングシステム、BIOS、マクロ、もしくは、他のユーティリティ等、システムソフトウェアを含んでよい。ある実施形態においては、コンピュータプログラム(複数可)内または外のプログラムコードマクロ、モジュール、ループ、サブルーチン、コール等が、上記の方法、スキーム、及び/または、技術の様々なステップ及び/または特徴を実行するために使用されてよい。ある実施形態においては、このようなコンピュータプログラム(複数可)またはソフトウェアは、上記の有形のコンピュータ可読記憶または記録媒体(単数または複数)のいずれか等、非一時的コンピュータ可読記憶または記録媒体(単数または複数)に記憶または具体化されてよい。ある実施形態においては、このようなコンピュータプログラム(複数可)またはソフトウェアは、1つまたは複数の一時的形態の信号送信(例えば、伝搬する電子または電磁信号)等、一時的コンピュータ可読記憶または記録媒体(単数または複数)に記憶または具体化されてよい。
【0078】
よって、ある実施形態においては、本発明は、コンピュータに入力するためのコンピュータプログラムを具体化するための媒体と、本明細書に記載の実施形態、方法、アプローチ、スキーム、及び/または、技術のいずれか1つまたは複数に伴うステップのいずれか1つまたは複数を含むステップをコンピュータに行わせる、または、実行させるための媒体で具体化されたコンピュータプログラムとを含むコンピュータプログラム製品を提供する。例えば、ある実施形態においては、本発明は、ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを実行することと、コンピュータシミュレーションが生成した画像をディスプレイに送信することと、コンピュータシミュレーションが生成した少なくとも1つの画像をハンドヘルドコントローラに結合された画像プロジェクタに送信することを含むステップをプロセッサベースの装置またはシステムに実行させるように適合または構成された1つまたは複数のコンピュータプログラムを記憶する1つまたは複数の非一時的コンピュータ可読記憶媒体を提供する。別の例として、ある実施形態においては、本発明は、ハンドヘルドコントローラによって少なくとも部分的に制御されるコンピュータシミュレーションを実行することと、コンピュータシミュレーションが生成した画像をディスプレイに送信することと、ハンドヘルドコントローラにリリース可能にドッキングされるように構成されたユニットに収容された画像プロジェクタにコンピュータシミュレーションが生成した少なくとも1つの画像を送信することを含むステップをプロセッサベースの装置またはシステムに実行させるように適合または構成された1つまたは複数のコンピュータプログラムを記憶する1つまたは複数の非一時的コンピュータ可読記憶媒体を提供する。
【0079】
ここに、開示の発明を、具体的な実施形態とその適用例とを用いて記載したが、請求項に記載の発明の範囲を逸脱することなく、それらに対して、当業者は多くの修正及び変更を行うことができる。