(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-11-07
(45)【発行日】2023-11-15
(54)【発明の名称】メディアコンテンツ計画システム
(51)【国際特許分類】
G06F 3/04815 20220101AFI20231108BHJP
G06T 19/00 20110101ALI20231108BHJP
H04N 21/472 20110101ALI20231108BHJP
【FI】
G06F3/04815
G06T19/00 A
H04N21/472
(21)【出願番号】P 2021501059
(86)(22)【出願日】2019-03-27
(86)【国際出願番号】 AU2019050274
(87)【国際公開番号】W WO2019183676
(87)【国際公開日】2019-10-03
【審査請求日】2022-03-24
(32)【優先日】2018-03-27
(33)【優先権主張国・地域又は機関】AU
(73)【特許権者】
【識別番号】520372814
【氏名又は名称】スペースドラフト・プロプライエタリー・リミテッド
(74)【代理人】
【識別番号】100118902
【氏名又は名称】山本 修
(74)【代理人】
【識別番号】100106208
【氏名又は名称】宮前 徹
(74)【代理人】
【氏名又は名称】中西 基晴
(74)【代理人】
【識別番号】100162846
【氏名又は名称】大牧 綾子
(72)【発明者】
【氏名】クック,ルーシー
【審査官】星野 裕
(56)【参考文献】
【文献】米国特許出願公開第2008/0300053(US,A1)
【文献】米国特許出願公開第2003/0058238(US,A1)
【文献】米国特許出願公開第2016/0227262(US,A1)
【文献】特開2012-138087(JP,A)
【文献】米国特許出願公開第2012/0162210(US,A1)
【文献】米国特許出願公開第2009/0219291(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/048
G06T 19/00
H04N 21/472
(57)【特許請求の範囲】
【請求項1】
メディアコンテンツ計画システムであって、
メディアコンテンツプロジェクトの場面を示す情報を記憶するように配置されたデータ記憶デバイスと、
ユーザインターフェースであって、
メディアコンテンツプロジェクトの場面の位置、および/または、前記メディアコンテンツプロジェクト内の前記場面のそれぞれの発生タイミングを示す場面の印を表示すること、
表示のための体験空間をユーザが選択できるようにすることであって、前記体験空間が、定義した時刻に関連付けられ、観察者の記号を含む、選択できるようにすること、
前記場面に関連付けられた観察者体験を示す少なくとも1つの体験アイコンを前記ユーザが選択できるようにすること、
前記ユーザが、各体験アイコンを配列する前記体験空間における位置を選択し、各体験アイコンの前記体験空間における位置の選択に応答して、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを表示できるようにすることであって、各選択した位置が、前記定義した時刻における前記場面における観察者体験の前記観察者に関する少なくとも2次元空間内の所望の位置を表す、表示できるようにすること、
表示のための少なくとも1つのさらなる体験空間を前記ユーザが選択できるようにすることであって、各さらなる体験空間が、前記定義した時刻より後の前記場面における時刻に対応するさらに定義した時刻に関連付けられた、選択できるようにすること、
前記ユーザが、体験アイコンを配列する前記体験空間におけるさらなる位置を選択し、前記さらなる体験空間におけるさらなる位置の選択に応答して、前記選択したさらなる位置に、前記さらなる体験空間における前記体験アイコンを表示できるようにすることであって、前記選択したさらなる位置が、前記さらなる定義した時刻における前記体験アイコンに関連付けられた前記観察者体験の前記観察者に関する少なくとも2次元空間内の所望のさらなる位置を表す、表示できるようにすること
を行うように配置された、ユーザインターフェースと
を備え、
前記システムが、
前記または各選択した観察者体験、
各観察者体験に関連付けられた前記場面、および
各体験空間のための、前記観察者に関する各観察者体験の前記観察者に関する少なくとも2次元空間内の前記選択した位置
を示すデータを記憶するように配置された、
メディアコンテンツ計画システム。
【請求項2】
前記システムは、前記体験アイコンに関連付けられた観察者体験のタイプを前記ユーザが選択できるようにする、請求項1に記載のシステム。
【請求項3】
前記体験空間は、前記観察者の前記記号を取り囲む少なくとも1つの環状部分を含み、前記環状部分は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の2次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項1または2に記載のシステム。
【請求項4】
前記体験空間は、前記観察者の前記記号を取り囲む球体を含み、前記球体は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の3次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項1または2に記載のシステム。
【請求項5】
前記観察者体験は、触感体験、視覚体験、および/または音響体験のいずれか1つまたは複数を含む、請求項1から4のいずれか一項に記載のシステム。
【請求項6】
メディアコンテンツを計画する方法であって、
メディアコンテンツプロジェクトの場面を示す情報を記憶するステップと、
前記メディアコンテンツプロジェクトの場面の位置、および/または、前記メディアコンテンツプロジェクト内の前記場面のそれぞれの発生タイミングを示す場面の印を表示するステップと、
場面を表す場面の印をユーザが選択できるようにするステップと、
表示のための体験空間を前記ユーザが選択できるようにするステップであって、前記体験空間が、定義した時刻に関連付けられ、観察者の記号を含む、ステップと、
前記場面に関連付けられた観察者体験を示す少なくとも1つの体験アイコンを前記ユーザが選択できるようにするステップと、
前記ユーザが、各体験アイコンを配列することになる前記体験空間における位置を選択し、各体験アイコンの前記体験空間における位置の選択に応答して、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを表示できるようにするステップであって、各選択した位置が、前記定義した時刻における前記場面における観察者体験の前記観察者に関する少なくとも2次元空間内の所望の位置を表す、ステップと、
表示のための少なくとも1つのさらなる体験空間を前記ユーザが選択できるようにするステップであって、各さらなる体験空間が、前記定義した時刻より後の前記場面における時刻に対応するさらなる定義した時刻に関連付けられた、ステップと、
前記ユーザが、体験アイコンを配列することになる前記体験空間におけるさらなる位置を選択し、前記さらなる体験空間における位置の選択に応答して、前記選択したさらなる位置に、前記さらなる体験空間における前記体験アイコンを表示できるようにするステップであって、前記選択した位置が、前記さらなる定義した時刻における前記体験アイコンに関連付けられた前記観察者体験の前記観察者に関する少なくとも2次元空間内の所望のさらなる位置を表す、ステップと、
記憶するステップであって、
前記または各選択した観察者体験、
各観察者体験に関連付けられた前記場面、および
各体験空間のための、前記観察者に関する各観察者体験の前記観察者に関する少なくとも2次元空間内の前記選択した位置
を示すデータを記憶するステップと
を含む、方法。
【請求項7】
前記体験アイコンに関連付けられた観察者体験のタイプを前記ユーザが選択できるようにするステップを含む、請求項6に記載の方法。
【請求項8】
前記体験空間は、前記観察者の前記記号を取り囲む少なくとも1つの環状部分を含み、前記環状部分は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の2次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項6または7に記載の方法。
【請求項9】
前記体験空間は、前記観察者の前記記号を取り囲む球体を含み、前記球体は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の3次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項6または7に記載の方法。
【請求項10】
前記観察者体験が、触感体験、視覚体験、および/または音響体験のいずれか1つまたは複数を含む、請求項6から9のいずれか一項に記載の方法。
【請求項11】
メディアコンテンツを計画するためのシステム
のプロセッサにより実行される方法であって、
前記システムはユーザインターフェースを備え、前記方法は、
メディアコンテンツプロジェクトの場面の位置、および/または、前記メディアコンテンツプロジェクト内の前記場面のそれぞれの発生タイミングを示す場面の印を
前記ユーザインターフェースに表示することと、
表示のための体験空間をユーザが選択できるようにすることであって、前記体験空間が、定義した時刻に関連付けられ、観察者の記号を含む、
前記ユーザインターフェース上で選択できるようにすることと、
場面に関連付けられた観察者体験を示す少なくとも1つの体験アイコンを前記ユーザが
前記ユーザインターフェース上で選択できるようにすることと、
前記ユーザが、各体験アイコンを配列することになる前記体験空間における位置を選択し、各体験アイコンの前記体験空間における位置の選択に応答して、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを
前記ユーザインターフェース上に表示でき
るようにすることであって、各選択した位置が、前記定義した時刻における前記場面における観察者体験の前記観察者に関する少なくとも2次元空間内の所望の位置を表す、表示できるようにすることと、
表示のための少なくとも1つのさらなる体験空間を前記ユーザが
前記ユーザインターフェース上で選択できるようにすることであって、各さらなる体験空間が、前記定義した時刻より後の前記場面における時刻に対応するさらなる定義した時刻に関連付けられた、選択できるようにすることと、
前記ユーザが、体験アイコンを配列することになる前記体験空間におけるさらなる位置を選択し、各体験アイコンの前記体験空間におけるさらなる位置の選択に応答して、前記それぞれの選択したさらなる位置に、前記さらなる体験空間における各体験アイコンを
前記ユーザインターフェース上に表示できるようにすることであって、前記選択したさらなる位置が、前記さらなる定義した時刻における前記体験アイコンに関連付けられた前記観察者体験の前記観察者に関する少なくとも2次元空間内の所望のさらなる位置を表す、表示できるようにすることと
を
含む、
方法。
【請求項12】
前記メディアコンテンツプロジェクトは、閉世界プロジェクトであり、前記ユーザインターフェースは、前記メディアコンテンツプロジェクトの一部を形成することになる場面、および、観察者に前記場面を提示する順序についての前記ユーザによる選択を容易にするように配置された、請求項11に記載の
方法。
【請求項13】
前記ユーザインターフェースは、前記メディアコンテンツプロジェクトの場面を提示する前記タイミングについての前記ユーザによる選択を容易にするように配置された、請求項12に記載の
方法。
【請求項14】
前記メディアコンテンツプロジェクトは、開世界プロジェクトであり、前記ユーザインターフェースは、前記メディアコンテンツプロジェクトの一部を形成することになる場面についての前記ユーザによる選択を容易にするように配置された、請求項11から13のいずれか一項に記載の
方法。
【請求項15】
前記ユーザインターフェースは、世界外観を表示するように配置され、前記世界外観は、前記メディアコンテンツプロジェクト内の前記場面の前記所望の位置を表す世界空間上の位置の少なくとも1つの場面を示す少なくとも1つの場面アイコンを含む前記世界空間を含む、請求項11から14のいずれか一項に記載の
方法。
【請求項16】
前記世界空間は、コンピュータ生成空間メッシュに応じて定義される、請求項15に記載の
方法。
【請求項17】
前記空間メッシュは、実際の現実世界空間を表し、前記空間メッシュは、スキャンデバイスを使用して生成される、請求項16に記載の
方法。
【請求項18】
前記ユーザインターフェースは、前記体験アイコンに関連付けられた観察者体験のタイプを前記ユーザが選択できるように
構成される、請求項11から17のいずれか一項に記載の
方法。
【請求項19】
前記体験空間は、前記観察者の前記記号を取り囲む少なくとも1つの環状部分を含み、前記環状部分は、前記場面における観察者体験の前記観察者の周囲の少なくとも2次元空間内の前記所望の位置を表す前記観察者の周囲の2次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項18に記載の
方法。
【請求項20】
前記体験空間は、前記観察者の前記記号を取り囲む球体を含み、前記球体は、前記場面における観察者体験の前記観察者の周囲の少なくとも3次元空間内の前記所望の位置を表す前記観察者の周囲の3次元空間内の位置において、体験アイコンを前記体験空間に追加するために前記ユーザによって使用することができる、請求項19に記載の
方法。
【請求項21】
前記ユーザインターフェースは、メモを場面に前記ユーザが追加できるように配置された、請求項11から20のいずれか一項に記載の
方法。
【請求項22】
前記ユーザインターフェースは、前記メディアコンテンツプロジェクトのための視点をユーザが選択できるように配置された、請求項11から21のいずれか一項に記載の
方法。
【請求項23】
前記ユーザインターフェースが、
複数のキャラクタを作成すること、および
各キャラクタのための観察者体験データを作成すること
を前記ユーザが行えるように配置された、請求項11から22のいずれか一項に記載の
方法。
【請求項24】
前記ユーザインターフェースは、選択した他のユーザと前記メディアコンテンツプロジェクトを前記ユーザが共有できるように配置された、請求項11から23のいずれか一項に記載の
方法。
【請求項25】
前記観察者体験が、触感体験、視覚体験、および/または音響体験のいずれか1つまたは複数を含む、請求項11から24のいずれか一項に記載の
方法。
【請求項26】
前記ユーザインターフェースは、ユーザインターフェースデバイス上で実現された、請求項11から25のいずれか一項に記載の
方法。
【請求項27】
前記ユーザインターフェースデバイスは、前記ユーザインターフェースを示すデータをリモートサーバから受け取るように配置された、請求項26に記載の
方法。
【請求項28】
メディアコンテンツ計画システムであって、
メディアコンテンツプロジェクトの場面を示す情報を記憶するように配置されたデータ記憶デバイス
を備え、
前記システムは、ユーザインターフェースデバイスに表示するために情報を前記ユーザインターフェースデバイスに通信するように配置され、前記情報が、
メディアコンテンツプロジェクトの場面の位置、および/または、前記メディアコンテンツプロジェクトの前記場面のそれぞれの発生タイミングを示す場面の印、
場面に関連付けられ、観察者の記号を含む体験空間であって、定義した時刻に関連付けられた、体験空間、ならびに
前記体験空間における少なくとも1つの体験アイコンであって、各体験アイコンが、観察者体験の観察者に関する少なくとも2次元空間内の位置を示し、前記体験空間における各体験アイコンの前記位置が、前記場面における前記観察者体験の前記観察者に関する2次元空間内の所望の位置を表す、少なくとも1つの体験アイコン
を示し、
前記システムが、定義した時刻に関連付けられた体験空間についてのユーザによる選択を示す情報を受け取り、前記場面に関連付けられることになる観察者体験についての前記ユーザによる選択を示す情報を受け取り、前記観察者に関する少なくとも2次元空間内の前記観察者体験に関連付けられた体験アイコンを配列することになる前記体験空間における位置についての前記ユーザによる選択を示す情報を受け取るように配置され、各体験アイコンの前記体験空間における位置の選択に応答して、前記システムが、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを表示するために、前記ユーザインターフェースデバイスによって使用できる情報を前記ユーザインターフェースデバイスに通信するように配置され、
前記システムが、前記定義した時刻より後の前記場面における時刻に対応するさらなる定義した時刻に関連付けられた少なくとも1つのさらなる体験空間についてのユーザによる選択を示す情報を受け取り、前記観察者に関する少なくとも2次元空間内の前記観察者体験に関連付けられた前記体験アイコンを配列することになる前記体験空間におけるさらなる位置についての前記ユーザによる選択を示す情報を受け取るように配置され、前記体験アイコンの前記体験空間におけるさらなる位置の選択に応答して、前記システムが、前記それぞれの選択したさらなる位置に、前記さらなる体験空間における前記体験アイコンを表示するために、前記ユーザインターフェースデバイスによって使用できる情報を前記ユーザインターフェースデバイスに通信するように配置され、
前記システムが、
前記選択した観察者体験、
各観察者体験に関連付けられた前記場面、および
各体験空間のための、前記観察者に関する各観察者体験の前記観察者に関する少なくとも2次元空間内の前記選択した位置
を示すデータを記憶するように配置された、
メディアコンテンツ計画システム。
【請求項29】
前記システムは、前記体験アイコンに関連付けられた観察者体験のタイプについての前記ユーザによる選択を示す情報を受け取るように配置された、請求項28に記載のシステム。
【請求項30】
プロジェクト計画システムであって、
プロジェクトを示す情報を記憶するように配置されたデータ記憶デバイスと、
ユーザインターフェースであって、
表示のための体験空間をユーザが選択できるようにすることであって、前記体験空間が、定義した時刻に関連付けられた、選択できるようにすること、
前記プロジェクトにおける体験を示す少なくとも1つの体験アイコンを前記ユーザが選択できるようにすること、
前記ユーザが、各体験アイコンを配列することになる前記体験空間における位置を選択し、各体験アイコンの前記体験空間における位置の選択に応答して、前記それぞれの選択した位置に、前記体験空間における各体験アイコンを表示できるようにすることであって、各選択した位置が、前記定義した時刻における体験の少なくとも2次元空間内の所望の位置を表す、表示できるようにすること、
表示のための少なくとも1つのさらなる体験空間を前記ユーザが選択できるようにすることであって、各さらなる体験空間が、前記定義した時刻より後の時刻に対応するさらなる定義した時刻に関連付けられた、選択できるようにすること
を行うように配置され、
各さらなる体験空間が、前記ユーザが、体験アイコンを配列することになる前記体験空間におけるさらなる位置を選択し、前記さらなる体験空間におけるさらなる位置の選択に応答して、前記選択したさらなる位置に、前記さらなる体験空間における前記体験アイコンを表示できるようにし、前記選択したさらなる位置が、前記さらなる定義した時刻における前記体験アイコンに関連付けられた前記体験の少なくとも2次元空間内の所望のさらなる位置を表す、
ユーザインターフェースと
を備え、
前記システムが、
前記または各選択した体験、および
各体験空間のための、各体験の少なくとも2次元空間内の前記選択した位置
を示すデータを記憶するように配置された、
プロジェクト計画システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、メディアコンテンツ計画システムに関し、メディアコンテンツ計画システムに関する。コンテンツ計画システムは、仮想現実、拡張現実、および複合現実のコンテンツ、ならびに動画ゲーム開発のための特定のアプリケーションを有する。
【背景技術】
【0002】
映画などの動画コンテンツの制作では、映画を制作して映画に関連付けられたストーリーが実際にはうまくいかないと後で判断するよりも、映画を制作する前に映画を概念化し、計画を立てる方が安いので、映画を制作する前に映画を概念化し、計画を立てることが望ましい。
【0003】
典型的には、この「事前映像化」ステップは、脚本、および/または、コンピュータ生成アニメーションを使用して、映画の「青写真」を最初に作ることによって達成される。
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、観察者体験(observer experience)は典型的には定義した時刻に発生せず、典型的にはユーザによって制御された観察者の位置に依存し、観察者に関する任意の位置から生じる可能性があるので、仮想現実(VR:virtual reality)、拡張現実(AR:augmented reality)、および複合現実(MR:mixed reality)のコンテンツ制作者がVR/AR/MRのコンテンツを適切に概念化し、計画を立てるのは難しい。
【課題を解決するための手段】
【0005】
本発明の第1の態様によれば、メディアコンテンツ計画システムを提供し、
メディアコンテンツプロジェクトの場面を示す情報を記憶するように配置された(arranged)データ記憶デバイスと、
ユーザインターフェースであって、
メディアコンテンツプロジェクトの場面の位置、および/または、メディアコンテンツプロジェクト内の場面のそれぞれの発生タイミングを示す場面の印(scene indicia)を表示すること、
ユーザが場面の印を選択し、選択した場面の印について、場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する少なくとも2次元空間内の位置おいて、観察者の記号、および、場面に関連付けられた観察者体験を示す情報を表示できるようにすること、
選択した場面について、場面に関連付けられることになる観察者体験についてのユーザによる選択、および、観察者に関する観察者体験の少なくとも2次元空間内の位置についての選択を容易にすること
を行うように配置された、ユーザインターフェースと、
を備え、
システムは、
選択した観察者体験、
観察者体験に関連付けられた場面、および
観察者に関する観察者体験の少なくとも2次元空間内の位置
を示す観察者体験データレコードを記憶するように配置される。
【0006】
システムは、開世界(open world)プロジェクトまたは閉世界(closed world)プロジェクトについてのユーザによる選択を容易にするように配置されてもよい。
【0007】
開世界プロジェクトについて、システムは、開世界旅行(journey)プロジェクトまたはフリーローミング開世界プロジェクトについてのユーザによる選択を容易にするように配置されてもよい。
【0008】
1つの実施形態において、メディアコンテンツは、閉世界プロジェクトであり、ユーザインターフェースは、メディアコンテンツの一部を形成することになる場面、および、観察者に場面を提示する順序についてのユーザによる選択を容易にするように配置される。ユーザインターフェースは、メディアコンテンツの場面を提示するタイミングについてのユーザによる選択を容易にするようにさらに配置されてもよい。
【0009】
1つの実施形態において、メディアコンテンツは、開世界プロジェクトであり、ユーザインターフェースは、メディアコンテンツの一部を形成することになる場面についてのユーザによる選択を容易にするように配置される。
【0010】
1つの実施形態において、システムは、世界概観を表示するように配置され、世界概観は、メディアコンテンツ内の場面の所望の位置を表す世界空間上の位置の少なくとも1つの場面を示す少なくとも1つの場面アイコンを含む世界空間を含む。
【0011】
1つの実施形態において、世界空間は、世界概観を表すための定義した形状を含む。
1つ代替実施形態において、世界空間は、コンピュータ生成空間メッシュに応じて定義される。空間メッシュは、実際の現実世界空間を表すことができ、空間メッシュは、LIDAR、マーターポートスキャナ、または他の任意のスキャンデバイスを使用して生成されてもよい。
【0012】
1つの実施形態において、システムは、メディアコンテンツ内の場面の所望の位置を表す位置において、場面アイコンを世界空間にユーザが追加できるようにし、場面アイコンに関連付けるために少なくとも1つの観察者体験をユーザが選択できるようにする。
【0013】
1つの実施形態において、システムは、場面のための体験空間を表示するように配置され、体験空間は、観察者の記号、および、場面における観察者体験の所望の位置を表す観察者に関する位置の少なくとも1つの観察者体験を示す少なくとも1つの体験ピンを含む。
【0014】
1つの実施形態において、システムは、場面における観察者体験の所望の位置を表す観察者に関する位置において、体験ピンを体験空間にユーザが追加できるようにし、体験ピンに関連付けられた観察者体験のタイプをユーザが選択できるようにする。
【0015】
1つの実施形態において、体験空間は、観察者の記号を取り囲む少なくとも1つの環状部分を含み、環状部分は、場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する2次元空間内の位置において、体験ピンを体験空間に追加するためにユーザによって使用することができる。
【0016】
1つの実施形態において、体験空間は、観察者の記号を取り囲む球体を含み、球体は、場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する3次元空間内の位置において、体験ピンを体験空間に追加するためにユーザによって使用することができる。
【0017】
1つの実施形態において、システムは、メモを場面にユーザが追加できるように配置される。
1つの実施形態において、システムは、代表画像をメディアコンテンツプロジェクトにユーザが追加できるように配置される。代表画像は、360°画像または2D画像であってもよい。
【0018】
1つの実施形態において、システムは、メディアコンテンツプロジェクトのための視点をユーザが選択できるように配置される。
1つの実施形態において、システムは、
複数のキャラクタを作成すること、および
各キャラクタのための観察者体験データを作成すること
をユーザが行えるように配置される。
【0019】
1つの実施形態において、システムは、観察者体験データレコードに関連付けられることになる時刻値をユーザが選択できるように配置される。
1つの実施形態において、少なくとも1つの場面は、複数の関連付けられた観察者体験データレコードを含み、各観察者体験データレコードは、それぞれの観察者体験データレコードに関連付けられた観察者体験を場面における異なる時刻に観察者が利用できるように、異なる時刻に関連付けられる。
【0020】
1つの実施形態において、システムは、選択した他のユーザとメディアコンテンツプロジェクトをユーザが共有できるように配置される。
1つの実施形態において、観察者体験は、触感体験、視覚体験、および/または音響体験のいずれか1つまたは複数を含む。
【0021】
1つの実施形態において、システムは、ユーザインターフェースデバイス、および、ユーザインターフェースデバイスと通信するリモートコンピューティングデバイスを備える。
【0022】
1つの実施形態において、リモートコンピューティングデバイスは、ユーザインターフェースを示すデータをユーザインターフェースデバイスに供給するように配置されたサーバを備える。ユーザインターフェースを示すデータは、ウェブページを示すデータを含むことができる。
【0023】
観察者体験データは、リモートコンピューティングデバイスおよび/またはユーザインターフェースデバイスに記憶されてもよい。
1つの実施形態において、ユーザインターフェースデバイスは、ヘッドマウントデバイス(HMD)を備え、ヘッドマウントデバイス(HMD)は、WebVRをサポートするツールを含むことができる。
【0024】
本発明の第2の態様によれば、メディアコンテンツを計画する方法が提供され、方法は、
メディアコンテンツプロジェクトの場面を示す情報を記憶することと、
メディアコンテンツプロジェクトの場面の位置、および/または、メディアコンテンツプロジェクト内の場面のそれぞれの発生タイミングを示す場面の印を表示することと、
ユーザによる場面の印の選択を容易にし、選択した場面の印について、場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する少なくとも2次元空間内の位置において、観察者の記号、および、場面に関連付けられた観察者体験を示す情報を表示することと、
選択した場面の印について、場面に関連付けられることになる観察者体験についてのユーザによる選択、および、観察者に関する観察者体験の少なくとも2次元空間内の位置についての選択を容易にすることと、
記憶することであって、
選択した観察者体験、
観察者体験に関連付けられた場面、および
観察者に関する観察者体験の少なくとも2次元空間内の位置
を示す観察者体験データレコードを記憶することと
を含む。
【0025】
本発明の第3の態様によれば、メディアコンテンツを計画するためのシステムのためのユーザインターフェースが提供され、ユーザインターフェースは、
メディアコンテンツプロジェクトの場面の位置、および/または、メディアコンテンツプロジェクト内の場面のそれぞれの発生タイミングを示す記憶した場面の印を表示することと、
ユーザが場面の印を選択し、選択した場面の印について、
観察者の記号、および
場面における観察者体験の少なくとも2次元空間内の所望の位置を表す観察者に関する少なくとも2次元空間内の位置における、メディアコンテンツの場面に関連付けられた観察者体験
を示す記憶した情報を表示できるようにすることと、
場面に関連付けられることになる観察者体験についてのユーザによる選択、および、観察者に関する観察者体験の少なくとも2次元空間内の位置についての選択を容易にすることと
を行うように配置される。
【0026】
本発明の第4の態様によれば、メディアコンテンツ計画システムが提供され、
メディアコンテンツプロジェクトの場面を示す情報を記憶するように配置されたデータ記憶デバイス
を備え、
システムは、ユーザインターフェースデバイスに表示するために情報をユーザインターフェースデバイスに通信するように配置され、情報は、
メディアコンテンツプロジェクトの場面の位置、および/または、メディアコンテンツプロジェクトの場面のそれぞれの発生タイミングを示す場面の印、
場面に関連付けられた観察者体験、ならびに
観察者体験の観察者に関する少なくとも2次元空間内の位置であって、観察者体験の位置が、場面における観察者体験の2次元空間内の所望の位置を表す、位置
を示し、
システムは、ユーザによる場面の印の選択を示す情報を受け取り、選択した場面の印について、場面に関連付けられることになる観察者体験についてのユーザによる選択を示す情報、および、観察者に関する観察者体験の少なくとも2次元空間内の位置についてのユーザによる選択を示す情報を受け取るように配置され、
システムは、
選択した観察者体験、
観察者体験に関連付けられた場面、および
観察者に関する観察者体験の少なくとも2次元空間内の位置
を示す観察者体験データレコードを記憶するように配置される。
【0027】
本発明は、次に、添付の図面を参照しながら、ほんの一例として説明されることになる。
【図面の簡単な説明】
【0028】
【
図1】本発明の1つの実施形態によるメディアコンテンツ計画システムの概略ブロック図である。
【
図2】
図1に示したシステムと共に使用するためのユーザコンピューティングデバイスの機能構成要素の概略ブロック図である。
【
図3】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図4】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図5】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図6】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図7】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図8】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図9】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図10】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図11】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図12】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【
図13】
図1に示したシステムによってユーザコンピューティングデバイス上でユーザに提示される画面の図表示の図である。
【発明を実施するための形態】
【0029】
本明細書において、「閉世界」とは、観察者が自由に歩き回ることができないと定義した空間環境であり、世界の場面は、例えば360°動画などの定義した構造で観察者に提示され、開世界とは、定義した旅行に従って、または任意の方向に自由に、観察者が歩き回ることができる環境であるということが理解されよう。
【0030】
図面の
図1および
図2を参照すると、メディアコンテンツ計画システム10を示しており、このメディアコンテンツ計画システム10は、実際のメディアコンテンツの制作前に、没入型メディア体験を概念化し、計画を立てるためにメディア制作者が使用できる、メディアコンテンツ、特に、仮想現実(VR)、拡張現実(AR)、および複合現実(MR)のコンテンツの試作段階の青写真の作成を容易にするように配置され(arranged)ている。このシステムは、リニアではない複合現実体験に適用してもよい。
【0031】
このシステムは、VR/AR/MRコンテンツの青写真を作成することによって時間および空間内でVR/AR/MRの参加者に示されるようにアイデアを表示するために、3Dアイデアのマッピングを容易にするように配置される。システムは、ユーザが、VR/AR/MR世界の構造の表現および所望の内容の発展に時間を費やし、共同制作のために、制作したVR/AR/MR世界の意図した体験を他の人と共有できるようにする。
【0032】
閉世界の実装形態では、システムは、並べられた場面の連続の作成を容易にし、ユーザが、各場面における観察者体験の相対位置をプロットし、音響体験、視覚体験、および/または触感体験など、それぞれの位置で発生する特定の観察者体験を判定できるようにする。例えば、各場面において、システムは、2D空間または3D空間における観察者の音響体験、視覚体験、および/または触感体験の相対位置をユーザがプロットできるようにする。
【0033】
開世界の実装形態では、システムは、3D世界空間の作成を容易にし、世界空間内の場面の相対位置をユーザがプロットできるようにし、2D空間または3D空間内の場面位置のそれぞれにおける観察者体験の相対位置をユーザがプロットできるようにし、音響体験、視覚体験、および/または触感体験など、それぞれの場面位置において発生する特定の観察者体験をユーザが判定できるようにする。
【0034】
このようにして、システムは、体験した時間および空間内でVR/AR/MR観察者にコンテンツのアイデアが見えるように、コンテンツのアイデアをマッピングする。各観察者はキャラクタに相当してもよく、したがって、システムは、各キャラクタの異なる体験および/または異なる視点を定義するために使用することができる
この例では、システム10は、通信ネットワーク18を通じて通信するように配置されたスマートフォン12、タブレット型コンピュータ14、およびパーソナルコンピューティングデバイス16を含むユーザコンピューティングデバイスによってアクセス可能なサーバ20の形のリモートコンピューティングデバイスを使用して実現される。
【0035】
この例では、ユーザコンピューティングデバイス12、14、16は、システム10に関連付けられた画面を提示するように配置されたユーザインターフェースをユーザに提供してユーザから入力を受け取りやすくするのに役立ち、システムの機能構成要素22は、サーバ20で実質的に実現される。しかし、他の実装形態が可能であるということが理解されよう。例えば、ユーザコンピューティングデバイス12、14、16は、例えば、ユーザデバイス12、14、16にアプリケーションをダウンロードすること、またはそうでなければ、インストールすることによって、スタンドアロンデバイスとしてシステムの機能構成要素22を実質的に実現するように配置されてもよく、または、システム10の機能構成要素22は、部分的にユーザコンピューティングデバイス12、14、16によって、かつ、部分的にサーバ20によって実現されてもよい。
【0036】
この例では、通信ネットワーク18はインターネットを含むが、有線および/またはワイヤレスの通信経路を含む任意の適切な通信ネットワークを想定するということが理解されよう。プログラムを実行すること、ユーザに情報を表示すること、および、ユーザから入力を受け取ることができる任意の適切なコンピューティングデバイスを想定するということも理解されよう。
【0037】
サーバ20において所望の機能を実現するために、この例では、サーバ20は、少なくとも1つの専用ソフトウェアアプリケーションを含むように配置されるが、機能は、専用ハードウェア、または、専用のハードウェアとソフトウェアの組合せを使用して実現することができるということが理解されよう。
【0038】
サーバ20によって実現される機能構成要素22は、例えばSQLプロトコルを使用して実現されたローカルデータ記憶デバイス、および/または、クラウドベースのデータ記憶装置を含むことができるデータ記憶デバイス26に記憶したデータを管理するように配置されたデータベース管理システム(DBMS)24と、例えば、ユーザコンピューティングデバイス12、14、16からユーザログイン詳細を受け取り、データ記憶デバイス26に記憶した参照ログイン詳細30で、受け取ったログイン詳細を検証することによってユーザログイン処理を管理するように配置されたログインアプリケーション28と、閉世界プロジェクトの機能を実現するように配置された閉世界アプリケーション32と、開世界プロジェクトの機能を実現するように配置された開世界アプリケーション32と、2D空間内の場面における観察者のための観察者体験の相対位置をユーザが選択できるようにする2Dピンアプリケーション36と、3D空間内の場面における観察者のための観察者体験の相対位置をユーザが選択できるようにする3Dピンアプリケーション38を含む。
【0039】
この例では、データ記憶デバイス26は、SQLプロトコルに従って構成することができる複数のリレーショナルデータベースにシステム10によって使用されるデータを記憶するように配置される。データベースは、
プロジェクト名、プロジェクトタイプ(閉世界、開世界での旅行、または開世界でのフリーローミング)、および場面位置を含むVR/AR/MRプロジェクトを示すデータを記憶するように配置されたプロジェクトデータベース40と、
場面位置のそれぞれにおける観察者体験の相対位置、ならびに、音響体験、視覚体験、および/または触感体験など、それぞれの場面位置において発生する観察者体験のタイプを示すデータを記憶するように配置された体験データベース42と、
場面位置にリンクされた観察者の触感体験に関連付けられた触覚または嗅覚などの触感情報を示すデータを記憶するように配置された触感データベース44と、
場面位置にリンクされた観察者の動画体験に関連付けられた動画情報を示すデータを記憶するように配置された動画データベース46と、
例えば、従来の音響、および/または、アンビソニックス(ambisonic)/空間音響といった、場面位置にリンクされた観察者の音響体験に関連付けられた音響情報を示すデータを記憶するように配置された音響データベース48と、
場面位置にリンクされた観察者の画像体験に関連付けられた画像情報を示すデータを記憶するように配置された画像データベース50と、
システムに関連付けられた登録ユーザを示すデータを記憶するように配置されたユーザデータベース52と、
例えば、.OBJフォーマットで3Dファイルを記憶するように配置された3Dファイルデータベース53と
を含む。
【0040】
ユーザコンピューティングデバイス12、14、16の構成の例、この例ではタブレット型コンピュータ14を
図2に示す。
ユーザコンピューティングデバイス14は、ユーザコンピューティングデバイス14における動作を制御し、協調させるように配置されたプロセッサ60と、所望の機能を実現するためにプロセッサ60によって使用されるプログラムおよびデータを記憶するように配置されたデータ記憶デバイス62と、使用中のプログラムおよび/またはデータを一時的に記憶するためにプロセッサによって使用されるメモリ64とを含む。
【0041】
ユーザコンピューティングデバイス14は、ユーザコンピューティングデバイス14がユーザからの入力を受け取れるように配置された、この例ではタッチスクリーンの形の、ディスプレイ68およびユーザインターフェース70をさらに含む。
【0042】
ユーザコンピューティングデバイス12、14、16上でユーザに表示された画面に関する実装形態の例を
図3から
図13に示す。この例では、コンピューティングデバイス12、14、16は、ディスプレイ68に重ねられたタッチスクリーン70の形のユーザインターフェースを有するタブレット型コンピュータ14である。したがって、コンピューティングデバイス14への入力は、タップ、スワイプ、および、他の任意のデバイスが認識できるジェスチャを使用してタッチスクリーン70をタッチすることによって主に行われる。しかし、この例は、他のコンピューティングデバイス上の実装形態に等しく適用できるということが理解されよう。例えば、ユーザコンピューティングデバイスは、ヘッドマウントデバイス(HMD)およびWebVRをサポートするツールを含んでもよい。
【0043】
ユーザは、最初に、ユーザコンピューティングデバイス14によって実現されたユーザインターフェースにユーザログイン詳細を入力することによってシステム10にログインし、システム10は、ログイン詳細をログインアプリケーション28に通信し、ログインアプリケーション28で入力したログイン詳細を、ユーザに関連付けられた記憶済参照ログイン詳細30と比較することによって入力したログイン詳細を検証する。
【0044】
ユーザインターフェースは、サーバ20と通信するように配置されたユーザコンピューティングデバイス12、14、16にインターフェースアプリケーションをインストールすることによって、ユーザコンピューティングデバイス12、14、16上に実装してもよく、ユーザインターフェースは、例えば、要求に応じて、
図3から
図13に示した画面に対応するウェブページを提供することによって、ウェブブラウザを介してユーザインターフェースデバイスに実装してもよく、または、ユーザインターフェースは、他の任意の方式で実装してもよいということが理解されよう。
【0045】
図3に示すように、ユーザがログインに成功した後、ユーザに対し、作成したプロジェクト82を示す情報をユーザに表示するホームページ80が提示される。各表示したプロジェクト82は、プロジェクト名84、プロジェクトに関連付けられた世界環境のタイプ(閉世界または開世界)を示す世界タイプの印86、および、選択されたユーザがプロジェクト作成処理で協働作業できるように、選択されたユーザにプロジェクトへのリンクを提供するために使用できる共有アイコン88を含む。
【0046】
ホームページ80は、新しいプロジェクトを作成するために使用できる新プロジェクト作成ボタン90をさらに含む。
新プロジェクト作成ボタン90をアクティブにすると、
図4に示すような、新プロジェクト作成画面94が表示される。同様かつ類似の特徴は同様の参照番号で示す。
【0047】
新プロジェクト作成画面94は、プロジェクトに関連付けられた世界環境のタイプ、すなわち、閉世界環境、開世界旅行環境、またはフリーローミング開世界環境をユーザが選択できるようにする世界タイプ選択フィールド96と、選択した世界のタイプを表す世界タイプアイコン98と、プロジェクトタイトルを受け取るためのプロジェクト名フィールド100と、プロジェクトタグラインを受け取るためのプロジェクトタグラインフィールド102と、プロジェクトに関連付けられた説明情報を受け取るための説明フィールド104とを含む。
【0048】
新プロジェクト作成画面94は、プロジェクトを表す画像の選択および表示を容易にするために使用できる参照画像フィールド106と、アクティブになると、プロジェクトデータベース40内に新しいプロジェクトレコードを作成させる作成ボタン110とをさらに含む。作成ボタン110がアクティブになると、
図6、
図12、または
図13に示すような、プロジェクトに関連付けられた関連プロジェクト概観画面120、230、260がさらに表示される。
【0049】
ホームページ80上、または新プロジェクト作成画面94上の共有アイコン88を選択すると、
図5に示すような、プロジェクトの協働作業を行うために選択されたユーザのユーザインターフェースにプロジェクト共有画面111が表示される。
【0050】
共有プロジェクト画面111は、アクティブになると、
図6、
図12、または
図13に示すような、プロジェクトに関連付けられた関連プロジェクト概観画面120、230、260が表示させるプロジェクトオープンボタン112を含む。
【0051】
この例では、ユーザは、閉世界環境を選択し、したがって、
図6に示すような、プロジェクトに関連付けられた閉プロジェクト概観画面120が表示される。
閉プロジェクト概観画面120は、世界タイプの間をユーザが切り替えできるようにする世界タイプセレクタ113-閉世界セレクタ114、開世界旅行セレクタ116、およびフリーローミング開世界セレクタ117、ならびに、観察者の視点、この例では第1の人物の視点の選択を容易にするように配置された視点セレクタ118を含む。
【0052】
現在のプロジェクトは閉世界プロジェクトなので、閉プロジェクト概観画面120は、一連の定義した場面128を閉世界体験中に観察者に提示するタイミングを定義するタイムライン122を示す。タイムラインは、非表示/表示ボタン124を使用して表示にしても、非表示にしてもよい。
【0053】
場面128は、場面グループ126内にまとめられ、各場面グループ126は、プロジェクトに関連付けられたストーリーの異なる部分、この例では「セットアップ」、「対立」、および「解決」を表す。新場面グループ126は、場面グループ追加ボタン130を使用して追加される。同様に、新場面128は、場面追加ボタン132を使用して追加される。
【0054】
各場面128には、関連付けられたメモアイコン134があり、選択すると、
図7に示すようなメモ画面140が表示される。
メモ画面140は、場面タイトル142を含み、例えば編集ツール144を使用して、場面についてのメモを内容フィールド146に追加するために使用することができる。
【0055】
場面128を選択すると、
図8に示すような、2D体験位置画面150(以下、「プレート画面(plate screen)」)が表示される。プレート画面150は、場面128で発生させることができる観察者に関する体験位置、ならびに、音響体験、動画体験、および/または触感体験など、発生させる観察者体験のタイプを選択するために使用することができる。
【0056】
プレート画面150は、観察者アイコン156を取り囲むいくつかの同心環部分154を含む体験空間、この例ではプレートエリア152を含む。プレートエリア152における使い捨てアイテム(disposable)は、観察者156に関する観察者体験を表すピン158である。プレート画面150を使用すると、ユーザは、観察者156に関する所望の体験位置、および、観察者体験のタイプを選択することができる。この例では、利用できる観察者体験は、動画体験、画像体験、音響体験、および触感体験を含む。
【0057】
各ピン158は、例えば、視覚ピンアイコン160、音響ピンアイコン162、または触感ピンアイコン164といった、ピンタイプアイコンを含む。ピンのタイプは、ピンタイプセレクタ166、この例では、視覚ピンセレクタ168、音響ピンセレクタ170、および触感ピンセレクタ172を使用して選択する。
【0058】
プレート画面150は、体験選択モデルのタイプを選択するために使用できる体験モデルセレクタ174をさらに含み、体験選択モデルのタイプは、この例では、場面で発生させることができる観察者に関する体験位置をユーザが2Dで選択できる、
図8および
図9に示すような2D体験選択モデル、ならびに、場面で発生させることができる観察者に関する体験位置をユーザが3Dで選択できる、
図11に示すような3D体験選択モデルである。
【0059】
プレート画面150は、例えば、全てのピン158、触感ピンのみ、音響ピンのみ、または動画ピンのみといった、プレートエリア152に表示されるピン158のタイプを選択するために使用できるピン閲覧セレクタ176をさらに含む。
【0060】
プレート画面150は、表示されたプレートエリア152に関連付けられた場面、この例では、「古い友人と話す」というタイトルが付いた場面のタイトルを識別する場面識別子178と、ストーリータイムラインにおける前の場面にナビゲートするために使用できる前場面ナビゲーションボタン180と、ストーリータイムラインにおけるその後の場面にナビゲートするために使用できる次場面ナビゲーションボタン182とをさらに含む。
【0061】
プレート画面150は、プレートエリア152のピン158によって表された体験および相対体験位置に対応する場面の関連時刻を示すための現在時刻マーカ186を含むタイムライン184をさらに含む。
【0062】
場面の中に複数のプレート画面150を作成することができ、各プレート画面150は、場面における異なる時刻に対応し、各プレート画面150は、観察者156に関する異なるピン158および/または異なるピン位置を潜在的に含む。例えば、
図8に示したように、場面「古い友人と話す」に関連付けられたさらなるプレート画面150が示され、さらなるプレート画面150は、
図8に示したプレート画面150より後の場面における時刻188を表す。このようにして、場面の間に、観察者は、観察者に関する異なる位置にリンクされた異なる体験をすることができる。
【0063】
ユーザがピンセレクタ166を選択し、その後、プレートエリア152上の位置を選択すると、選択したタイプのピン158がプレートエリア152に追加される。その後、ピンを選択すると、プレート画面150の上にピン追加ウィンドウ190が表示される。ピン追加ウィンドウ190は、関連体験を示す情報を追加するため、または、関連体験を示す情報へのリンクを追加するために使用する。
【0064】
この例では、ピン追加画面190は、ピン158に関連付けられるように選択した動画の位置を示す情報を追加するために使用できる動画リンクボックス194と、ピン158に関連付けられるように選択した画像の位置を示す情報を追加するために使用できる画像リンクボックス196と、ピン158に関連付けられるように選択した音響の位置を示す情報を追加するために使用できる音響リンクボックス198と、ピン158に関連付けられるように選択したドキュメントの位置を示す情報を追加するために使用できるドキュメントリンクボックス200とを含む。
【0065】
ピン追加画面190は、ピン158にメモを追加するために使用できるメモ追加フィールド202、アクション位置フィールド204、キャラクタ遭遇フィールド206、および、次場面トリガポイントフィールド208をさらに含む。他の場面に場面をリンクするための場面リンクインジケータ210をさらに含んでもよい。
【0066】
アクション位置フィールド204、キャラクタ遭遇フィールド206、および次場面トリガポイントフィールド208は、体験の中のリニアではない遭遇および対話を、ユーザが追跡し、ログ記録し、グループ化できるようにする。例えば、ユーザは、非時系列の他の世界および場面にリンクするユーザに対する機会を作り出すことができ、または、ユーザは、メディアコンテンツに関連付けられた異なるキャラクタに対する異なる視点および/もしくは異なる体験を定義することができる。
【0067】
図8および
図9に示すような2D体験選択モデルへの代替として、
図11に示すような3D体験選択モデルを使用することができ、ユーザは、場面で発生させることができる観察者に関する体験位置を3Dで選択することができる。同様かつ類似の特徴は同様の参照番号で示す。
【0068】
3D体験選択モデルは、体験モデルセレクタ174を使用して「閉」ではなく、「3D球体」を選択することによって選択することができ、これにより、3D体験位置画面220(以下、「球体空間画面」)が表示される。球体空間画面220は、場面で発生させることができる観察者に関する3Dの体験位置、ならびに、音響体験、動画体験、および/または触感体験など、発生させる観察者体験のタイプを選択するために使用することができる。
【0069】
観察者に関する2Dの体験位置を表すためのプレートエリア152の代わりに、球体体験空間222は、観察者に関する3Dの体験位置を表すために提供される。
プレート画面150と同様に、球体空間画面220を使用して、ユーザは、観察者156に関する所望の体験位置、および観察者体験のタイプを選択することができる。この例で利用できる観察者体験は、動画体験、画像体験、音響体験、および触感体験を含む。所望の3D位置におけるピン158の追加を容易にするために、球体空間画面220は、ナビゲーションツール224を含む。
【0070】
図4および
図6を参照すると、閉世界の代わりに、新プロジェクト作成画面94上の世界タイプ選択フィールド96を使用して開世界旅行を選択した場合、または、閉プロジェクト概観画面120上で開世界旅行セレクタ116を選択した場合、開世界旅行概観画面230が、
図12に示すように表示される。同様かつ類似の特徴は同様の参照番号で示す。
【0071】
開世界旅行概観画面230は、観察者に対して基礎となる方向を定義するが、観察者が旅行中に歩き回れるという意味で旅行として構造化された世界空間内の場面の相対位置を定義するため、場面位置のそれぞれにおける観察者体験の相対位置を定義するため、ならびに、音響体験、視覚体験、および/または触感体験など、それぞれの場面位置で発生させる特定の観察者体験を定義するために使用される。
【0072】
定義した構造およびタイミングに従って観察者に場面が提示される
図6から
図11に関して説明された閉世界プロジェクトとは異なり、
図12に表した開世界旅行では、観察者には、観察者の移動、およびしたがって、利用できる場面に関する観察者の位置に対して、ならびに、場面において観察者に提供された結果として起こる体験に対して、少なくともいくらかの制御権があるということが理解されよう。
【0073】
図12に示したように、開世界旅行概観画面230は、観察者156が利用できるローミング空間を表す旅行空間232を含む。ユーザは、例えば、タッチスクリーン上で位置を選択することによって、場面の所望の位置に対応する観察者156に関する位置において、旅行空間232に場面アイコンを追加することによって場面を追加することができる。
【0074】
場面は、いくつかの場面グループ240、242、244にグループ化することができ、各場面グループは、異なる場面アイコンに割り当てられる。この例では、場面アイコンは、メイン場面アイコン234、サイドミッションアイコン236、および写真ミッションアイコン238を含む。
【0075】
利用可能な場面の場面タイトル246、248、250は、開世界旅行概観画面230上で、複数の場面グループ242、242、244内に示すことができ、場面グループは、非表示/表示ボタン254を使用して非表示にしても、表示にしてもよい。
【0076】
開世界旅行概観画面230は、場面グループ240、242、244に場面を追加するために使用することができる場面追加ボタン256をさらに含む。
この例では、旅行空間232上の場面アイコン234、236、238を選択すると、関連場面タイトル246、248、250が、関連場面グループ240、242、244内で強調される。場面タイトル246、248、250を選択すると、
図8および
図9に示したプレート画面150が表示され、ユーザは、場面に対する観察者156に関する所望の体験位置、および、観察者体験のタイプを定義することができるようになる。プレート画面150において、ユーザは、2Dではなく、観察者に関する3Dの体験位置を定義することが望まれる場合、体験モデルセレクタ174を使用して、「閉」ではなく、「3D球体」を選択することができる。
【0077】
図4および
図6を参照すると、新プロジェクト作成画面94上の世界タイプ選択フィールド96を使用してフリーローミング開世界を選択した場合、または、閉プロジェクト概観画面120上でフリーローミング世界セレクタ117を選択した場合、フリーローミング開世界概観画面260が、
図13に示したように表示される。同様かつ類似の特徴は同様の参照番号で示す。
【0078】
フリーローミング開世界概観画面260は、構造化された旅行ではなく、フリーローミング空間として構造化された世界空間内の場面の相対位置を定義するために、フリーローミング開世界概観画面260を使用することを除いて、開世界旅行概観画面230に似ている。開世界旅行概観画面230と同様に、フリーローミング開世界概観画面260は、観察者に関する場面の位置を定義するために使用し、
図8、
図9、および
図11に示したプレート画面150または球体画面220を通じて、場面位置のそれぞれにおける観察者体験の相対位置、ならびに、音響体験、視覚体験、および/または触感体験など、それぞれの場面位置で発生させる特定の観察者体験を定義するために使用する。
【0079】
フリー世界ローミングプロジェクトによって、場面は、定義した構造に従って観察者に提示されず、代わりに、観察者には、観察者の移動、ならびに従って、利用可能な場面に関する観察者の位置、および、場面において観察者に提供される結果として起こる体験に対する十分な制御権があるということが理解されよう。
【0080】
図13に示したように、フリーローミング開世界概観画面260は、観察者156が利用できるローミング空間、この例では、立方体として示したフリーローミング空間262を表すフリーローミング空間262を含む。ユーザは、例えば、タッチスクリーン上で位置を選択することによって、場面の所望の位置に対応する位置において、フリーローミング空間262に場面アイコンを追加することによって場面を追加することができる。
【0081】
変形形態において、フリーローミング空間を表すために定義した形状を使用する代わりに、フリーローミング空間は、任意の形状を有することができるコンピュータ生成空間メッシュに応じて定義してもよい。例えば、空間メッシュは、実際の現実世界の空間を表すことができ、空間メッシュは、LIDARまたはマーターポートスキャナを使用して生成してもよい。
【0082】
使用中のメディアコンテンツ計画システムの例を次に説明することになる。
第1の例では、動画の定義した場面および定義した時刻において、定義した動画、音響、および/または触感の応答がある360°動画を作成することをユーザが望む。
【0083】
システム10を使用して、必要であれば、ユーザは、最初に、触感、動画、音響、および/または画像のデータベース44、46、48、50に触感、動画、音響、および画像の体験情報を追加し、次に、ホームページ80上の新プロジェクト作成ボタン90を選択し、
図4に示した新プロジェクト作成画面94上の世界タイプ選択フィールド96内の「閉」を選択することによって閉世界プロジェクトを作成する。ユーザは、新プロジェクト作成画面94上のプロジェクト名、タグライン、説明、および参照画像フィールド100、102、104、106を使用して、プロジェクト名、タグライン、説明、および参照画像をさらに追加することができる。
【0084】
作成ボタン110を選択した後、閉世界プロジェクト概観画面120は、
図6に示したように表示される。
閉世界プロジェクト概観画面120を使用して、ユーザは、場面グループ126と、場面タイトル128と、視点セレクタ118を使用した観察者の視点と、場面グループ126および場面128の順序およびタイミングとを定義することができる。ユーザは、メモアイコン134およびメモ画面140を使用して、場面128にメモをさらに追加することができる。
【0085】
ユーザは、さらに、
図8および
図9に示すようなプレート画面150を使用して、場面128で発生させる観察者体験、および、観察者に関する体験位置を定義することができる。ユーザが3D空間内に観察者体験を定義したいと思った場合、ユーザは、体験モデルセレクタ174で3D球体を選択し、
図11に示すような球体画面22を表示する。
【0086】
プレート画面150または球体画面220を使用して、ユーザは、時刻マーカ186によって示された定義時刻における、観察者体験の所望の位置に対応する観察者156に関する位置において、関連するプレートエリア152または球体空間222にピン158を追加し、ユーザは、ピン追加ウィンドウ190を使用して、各ピン158に対応するユーザ体感のタイプを選択する。例えば、体験は、場面における定義した時刻に、定義した場面における観察者156の背後で発生する爆発であってもよい。この体験について、ユーザは、観察者156の背後の位置に対応する位置において、プレートエリア152または球体空間222にピンを追加することになり、ユーザは、ピン追加ウィンドウ190を使用して、ピン158に対する、関連動画、および任意選択として、爆発に関連付けられた触感応答を識別することになる。
【0087】
後で発生する場面におけるその後の観察者体験は、タイムライン184上で異なる時刻を選択し、異なる時刻における、所望の観察者体験の所望の位置に対応する観察者156に関する位置において、さらなるプレートエリア152または球体空間222にピン158を追加することによって、追加することができる。
【0088】
第2の例では、ユーザが、ゲーム世界内の定義した場面位置における定義した場面において、および、観察者156に関する場面における定義した位置において、定義した動画、音響、および/または触感の応答が発生するフリーローミングゲーム世界を作成することを望む。
【0089】
システム10を使用して、必要であれば、ユーザは、最初に、触感、動画、音響、および/または画像のデータベース44、46、48、50に触感、動画、音響、および画像の体験情報を追加し、次に、ホームページ80上の新プロジェクト作成ボタン90を選択し、
図4に示した新プロジェクト作成画面94上の世界タイプ選択フィールド96内のフリーローミング開世界を選択することによって、フリー世界ローミングプロジェクトを作成する。ユーザは、新プロジェクト作成画面94上のプロジェクト名、タグライン、説明、および参照画像フィールド100、102、104、106を使用して、プロジェクト名、タグライン、説明、および参照画像をさらに追加することができる。
【0090】
作成ボタン110選択した後、フリーローミング開世界概観画面260が、
図13に示したように表示される。
フリーローミング開世界概観画面260を使用して、ユーザは、
場面タイプを定義し、場面タイプを場面グループ240、242、244にグループ化すること、
場面タイトル246、248、250を定義すること、
視点セレクタ118を使用して観察者の視点を定義すること、および
フリーローミング空間262の関連位置に場面アイコン234、236、238を追加することによって、フリーローミング空間262に関する場面の位置を定義すること
ができる。
【0091】
ユーザは、さらに、場面246、248、250を選択して、
図8および
図9に示すようなプレート画面150を表示することによって、各場面で発生させる観察者体験、および、観察者に関する体験位置を定義することができる。
【0092】
ユーザが3D空間内に観察者体験を定義したいと思った場合、ユーザは、体験モデルセレクタ174で3D球体を選択し、
図11に示すような球体画面220を表示する。
プレート画面150または球体画面220を使用して、ユーザは、時刻マーカ186によって示された定義時刻における、所望の観察者体験の所望の位置に対応する観察者156に関する位置において、関連するプレートエリア152または球体空間222にピン158を追加し、ユーザは、ピン追加ウィンドウ190を使用して、各ピン158に対応するユーザ体感のタイプを選択する。
【0093】
後で発生する場面におけるその後の観察者体験は、タイムライン184上で異なる時刻を選択し、異なる時刻における、所望の観察者体験の所望の位置に対応する観察者156に関する位置において、さらなるプレートエリア152または球体空間222にピン158を追加することによって、追加することができる。
【0094】
任意の従来技術の公開が本明細書で参照される場合、このような参照は、オーストラリアまたは他のいずれかの国において、当技術分野における共通の一般的知識の一部をこの公開が形成すると認めることと等しいわけではないということが理解されよう。
【0095】
以下の特許請求の範囲において、および、本発明の前の説明において、言語または必要な暗示を表現することにより別途文脈が必要とする場合を除き、単語「備える(comprise)」または「備える(comprises)」もしくは「備える(comprising)」などの変形形態は、包括的な意味で、すなわち、述べた特徴の存在を指定するために使用されるが、本発明の様々な実施形態におけるさらなる特徴の存在または追加を排除するために使用しない。
【0096】
当業者に明らかになるような変更形態および変形形態は、本発明の範囲内にあるものと判断する。