IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

<>
  • 特開-情報処理装置及び情報処理方法 図1
  • 特開-情報処理装置及び情報処理方法 図2
  • 特開-情報処理装置及び情報処理方法 図3
  • 特開-情報処理装置及び情報処理方法 図4
  • 特開-情報処理装置及び情報処理方法 図5
  • 特開-情報処理装置及び情報処理方法 図6
  • 特開-情報処理装置及び情報処理方法 図7
  • 特開-情報処理装置及び情報処理方法 図8
  • 特開-情報処理装置及び情報処理方法 図9
  • 特開-情報処理装置及び情報処理方法 図10
  • 特開-情報処理装置及び情報処理方法 図11
  • 特開-情報処理装置及び情報処理方法 図12
  • 特開-情報処理装置及び情報処理方法 図13
  • 特開-情報処理装置及び情報処理方法 図14
  • 特開-情報処理装置及び情報処理方法 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024097450
(43)【公開日】2024-07-19
(54)【発明の名称】情報処理装置及び情報処理方法
(51)【国際特許分類】
   H04N 21/462 20110101AFI20240711BHJP
   H04N 21/442 20110101ALI20240711BHJP
【FI】
H04N21/462
H04N21/442
【審査請求】未請求
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2023000903
(22)【出願日】2023-01-06
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】100121131
【弁理士】
【氏名又は名称】西川 孝
(74)【代理人】
【氏名又は名称】稲本 義雄
(74)【代理人】
【識別番号】100168686
【弁理士】
【氏名又は名称】三浦 勇介
(72)【発明者】
【氏名】森岡 裕一
(72)【発明者】
【氏名】林田 康史
【テーマコード(参考)】
5C164
【Fターム(参考)】
5C164FA08
5C164FA16
5C164UA04S
5C164UB41P
5C164UC27P
5C164YA21
(57)【要約】
【課題】移動体内で視聴するコンテンツの品質の低下を抑制する。
【解決手段】情報処理装置は、移動体の移動状態に基づいて、ユーザが前記移動体内で視聴するコンテンツの映像を示す第1の映像情報、又は、前記コンテンツに応じて変動する情報である変動情報を選択して、1以上のサーバを含むサーバ群から受信する情報取得部と、前記コンテンツにおいて固定されており、予め取得されている情報である固定情報、及び、前記変動情報に基づいて、前記コンテンツの映像を示す第2の映像情報を生成する映像生成部と、前記第1の映像情報及び前記第2の映像情報の表示部への出力を制御する出力制御部とを備える。本技術は、例えば、車両に適用できる。
【選択図】図7
【特許請求の範囲】
【請求項1】
移動体の移動状態に基づいて、ユーザが前記移動体内で視聴するコンテンツの映像を示す第1の映像情報、又は、前記コンテンツに応じて変動する情報である変動情報を選択して、1以上のサーバを含むサーバ群から受信する情報取得部と、
前記コンテンツにおいて固定されており、予め取得されている情報である固定情報、及び、前記変動情報に基づいて、前記コンテンツの映像を示す第2の映像情報を生成する映像生成部と、
前記第1の映像情報及び前記第2の映像情報の表示部への出力を制御する出力制御部と
を備える情報処理装置。
【請求項2】
前記移動状態は、前記移動体が移動している場所、前記移動体の周囲の状態、及び、前記移動体の状態のうち少なくとも1つを含む
請求項1に記載の情報処理装置。
【請求項3】
前記情報取得部は、前記移動体が停止している場合、又は、前記移動体が所定の場所を移動している場合、前記第1の映像情報を前記サーバ群から受信し、前記移動体が前記所定の場所以外の場所を移動している場合、前記変動情報を前記サーバ群から受信する
請求項2に記載の情報処理装置。
【請求項4】
前記情報取得部は、前記コンテンツの配信が開始される前に、前記移動体が停止している間に、前記固定情報を前記サーバ群から受信する
請求項3に記載の情報処理装置。
【請求項5】
前記移動体は、車両であり、
前記所定の場所は、自動車専用の道路である
請求項3に記載の情報処理装置。
【請求項6】
前記情報取得部は、前記車両が停止している場合、又は、前記車両が自動車専用の道路を所定の速度以上で走行している場合、前記第1の映像情報を前記サーバ群から受信し、前記車両が自動車専用の道路以外の場所を走行している場合、又は、前記車両が前記所定の速度未満で走行している場合、前記変動情報を前記サーバ群から受信する
請求項5に記載の情報処理装置。
【請求項7】
前記出力制御部は、前記情報取得部が前記第1の映像情報を受信した場合、前記第1の映像情報を前記表示部に出力し、前記情報取得部が前記変動情報を受信した場合、前記第2の映像情報を前記表示部に出力する
請求項1に記載の情報処理装置。
【請求項8】
前記コンテンツは、イベントの自由視点映像を含む
請求項1に記載の情報処理装置。
【請求項9】
前記情報取得部は、前記ユーザの視界に関する情報を含む制御情報を前記サーバ群に送信し、前記イベントの各シーンを表す第1の3次元モデルから前記制御情報に基づいて生成された前記第1の映像情報を前記サーバ群から受信する
請求項8に記載の情報処理装置。
【請求項10】
前記映像生成部は、前記イベントの各シーンを表し、前記固定情報及び前記変動情報に基づく第2の3次元モデルから前記制御情報に基づいて前記第2の映像情報を生成する
請求項9に記載の情報処理装置。
【請求項11】
前記固定情報は、前記イベントが行われる場所に関する情報、前記イベントの演者の外観に関する情報、前記イベントの演出の企画に関する情報、及び、前記イベントの観客の外観に関する情報のうち少なくとも1つを含み、
前記変動情報は、前記演者の動きに関する情報、前記演出の動きに関する情報、及び、前記観客の動きに関する情報のうち少なくとも1つを含む
請求項8に記載の情報処理装置。
【請求項12】
前記表示部は、自由視点映像を表示可能である
請求項8に記載の情報処理装置。
【請求項13】
前記表示部は、ヘッドマウントディスプレイを含む
請求項12に記載の情報処理装置。
【請求項14】
前記コンテンツは、ライブストリーミング配信される
請求項1に記載の情報処理装置。
【請求項15】
前記第1の映像情報の方が前記第2の映像情報より高精細である
請求項1に記載の情報処理装置。
【請求項16】
前記移動状態を検出する状態検出部を
さらに備える請求項1に記載の情報処理装置。
【請求項17】
前記表示部は、外部に設けられる
さらに備える請求項1に記載の情報処理装置。
【請求項18】
前記表示部を
さらに備える請求項1に記載の情報処理装置。
【請求項19】
前記情報取得部は、前記サーバ群のうち前記移動体により近い前記サーバから優先的に前記第1の映像情報を受信する
請求項1に記載の情報処理装置。
【請求項20】
情報処理装置が、
移動体の移動状態に基づいて、ユーザが前記移動体内で視聴するコンテンツの映像を示す第1の映像情報、又は、前記コンテンツに応じて変動する情報である変動情報を選択して、1以上のサーバを含むサーバ群から受信し、
前記第1の映像情報を受信した場合、前記第1の映像情報を表示部に出力し、
前記変動情報を受信した場合、前記コンテンツにおいて固定されており、予め取得されている情報である固定情報、及び、前記変動情報に基づいて、前記コンテンツの映像を示す第2の映像情報を生成し、前記第2の映像情報を前記表示部に出力する
情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本技術は、情報処理装置及び情報処理方法に関し、特に、移動体内においてコンテンツを視聴する場合に用いて好適な情報処理装置及び情報処理方法に関する。
【背景技術】
【0002】
自動運転技術を適用した自動運転車両内では、搭乗者が移動中に自由に時間を使用できるため、例えば、コンサートや映画等のエンタテイメント系コンテンツを車内で楽しむことが想定される(例えば、特許文献1参照)。
【0003】
また、車内においてコンサート等のイベントのエンタテイメント系コンテンツをリアルタイムに視聴できるようになると、例えば、演者と観客、及び、観客同士のインターアクティブ性が確保され、共感によりユーザのコンテンツ満足度が向上する。
【0004】
一方、エンタテイメント系コンテンツはデータ容量が非常に大きい。そのため、例えば、車内においてコンサート等のイベントの映像をリアルタイムに視聴するためには、コンテンツを配信するサーバと車両間において、伝送速度が速く安定した無線通信回線の確保が要求される。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2021-170694号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、サーバと車両間の無線通信回線の品質は必ずしも安定しない。例えば、車両が市街地を走行している場合、他にも無線通信回線を使用する車両や通行者等が多くなるため、エンタテイメント系コンテンツの伝送に使用可能な通信帯域が狭くなる。例えば、車両が自動運転を実行する場合、車両の周囲の状態等に応じて、地図情報やセンサデータ等の大量のデータをサーバ等と送受信する必要が生じ、エンタテイメント系コンテンツの伝送に使用可能な通信帯域が狭くなる。そのため、車内で視聴するコンテンツの品質が低下するおそれがある。
【0007】
本技術は、このような状況に鑑みてなされたものであり、車両等の移動体内で視聴するコンテンツの品質の低下を抑制できるようにするものである。
【課題を解決するための手段】
【0008】
本技術の第1の側面の情報処理装置は、移動体の移動状態に基づいて、ユーザが前記移動体内で視聴するコンテンツの映像を示す第1の映像情報、又は、前記コンテンツに応じて変動する情報である変動情報を選択して、1以上のサーバを含むサーバ群から受信する情報取得部と、前記コンテンツにおいて固定されており、予め取得されている情報である固定情報、及び、前記変動情報に基づいて、前記コンテンツの映像を示す第2の映像情報を生成する映像生成部と、前記第1の映像情報及び前記第2の映像情報の表示部への出力を制御する出力制御部とを備える。
【0009】
本技術の第2の側面の情報処理方法は、情報処理装置が、移動体の移動状態に基づいて、ユーザが前記移動体内で視聴するコンテンツの映像を示す第1の映像情報、又は、前記コンテンツに応じて変動する情報である変動情報を選択して、1以上のサーバを含むサーバ群から受信し、前記第1の映像情報を受信した場合、前記第1の映像情報を表示部に出力し、前記変動情報を受信した場合、前記コンテンツにおいて固定されており、予め取得されている情報である固定情報、及び、前記変動情報に基づいて、前記コンテンツの映像を示す第2の映像情報を生成し、前記第2の映像情報を前記表示部に出力する。
【0010】
本技術の第1の側面においては、移動体の移動状態に基づいて、ユーザが前記移動体内で視聴するコンテンツの映像を示す第1の映像情報、又は、前記コンテンツに応じて変動する情報である変動情報が選択され、1以上のサーバを含むサーバ群から受信され、前記コンテンツにおいて固定されており、予め取得されている情報である固定情報、及び、前記変動情報に基づいて、前記コンテンツの映像を示す第2の映像情報が生成され、前記第1の映像情報及び前記第2の映像情報の表示部への出力が制御される。
【0011】
本技術の第2の側面においては、移動体の移動状態に基づいて、ユーザが前記移動体内で視聴するコンテンツの映像を示す第1の映像情報、又は、前記コンテンツに応じて変動する情報である変動情報が選択され、1以上のサーバを含むサーバ群から受信され、前記第1の映像情報が受信された場合、前記第1の映像情報が表示部に出力され、前記変動情報が受信された場合、前記コンテンツにおいて固定されており、予め取得されている情報である固定情報、及び、前記変動情報に基づいて、前記コンテンツの映像を示す第2の映像情報が生成され、前記第2の映像情報が前記表示部に出力される。
【図面の簡単な説明】
【0012】
図1】車両制御システムの構成例を示すブロック図である。
図2】センシング領域の例を示す図である。
図3】本技術の背景を説明するための図である。
図4】本技術の背景を説明するための図である。
図5】本技術を適用した情報処理システムの第1の実施の形態を示すブロック図である。
図6】サーバ群の機能の構成例を示すブロック図である。
図7】車両及び情報処理端末の機能の構成例を示すブロック図である。
図8】サーバ群により実行されるコンテンツ配信処理を説明するためのフローチャートである。
図9】サーバ群により実行されるコンテンツ配信処理を説明するためのフローチャートである。
図10】車両及び情報処理端末により実行されるコンテンツ再生処理を説明するためのフローチャートである。
図11】車両及び情報処理端末により実行されるコンテンツ再生処理を説明するためのフローチャートである。
図12】クラウド側と車両側との間で伝送される情報の例を示すシーケンス図である。
図13】本技術を適用した情報処理システムの第2の実施の形態を示すブロック図である。
図14】コンテンツ生成部及びサーバの機能の構成例を示すブロック図である。
図15】コンピュータの構成例を示すブロック図である。
【発明を実施するための形態】
【0013】
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.車両制御システムの構成例
2.本技術の背景
3.第1の実施の形態
4.第2の実施の形態
5.変形例
6.その他
【0014】
<<1.車両制御システムの構成例>>
図1は、本技術が適用される移動装置制御システムの一例である車両制御システム11の構成例を示すブロック図である。
【0015】
車両制御システム11は、車両1に設けられ、車両1の運転自動化に関わる処理を行う。この運転自動化には、レベル1乃至レベル5の運転自動化、並びに、遠隔運転者による車両1の遠隔運転及び遠隔支援が含まれる。
【0016】
車両制御システム11は、車両制御ECU(Electronic Control Unit)21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、運転自動化制御部29、DMS(Driver Monitoring System)30、HMI(Human Machine Interface)31、及び、車両制御部32を備える。
【0017】
車両制御ECU21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、運転自動化制御部29、DMS30、HMI31、及び、車両制御部32は、通信ネットワーク41を介して相互に通信可能に接続されている。通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったディジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク41は、伝送されるデータの種類によって使い分けられてもよい。例えば、車両制御に関するデータに対してCANが適用され、大容量データに対してイーサネットが適用されるようにしてもよい。なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続される場合もある。
【0018】
なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、車両制御ECU21と通信部22が通信ネットワーク41を介して通信を行う場合、単に車両制御ECU21と通信部22とが通信を行うと記載する。
【0019】
車両制御ECU21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種のプロセッサにより構成される。車両制御ECU21は、車両制御システム11全体又は一部の機能の制御を行う。
【0020】
通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。このとき、通信部22は、複数の通信方式を用いて通信を行うことができる。
【0021】
通信部22が実行可能な車外との通信について、概略的に説明する。通信部22は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行う。通信部22が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部22が外部ネットワークに対して行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でディジタル双方向通信が可能な無線通信方式であれば、特に限定されない。
【0022】
また例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車等の比較的低速で移動する移動体が装着する端末、店舗等に位置が固定されて設置される端末、又は、MTC(Machine Type Communication)端末である。さらに、通信部22は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信をいう。
【0023】
通信部22は、例えば、車両制御システム11の動作を制御するソフトウエアを更新するためのプログラムを外部から受信することができる(Over The Air)。通信部22は、さらに、地図情報、交通情報、車両1の周囲の情報等を外部から受信することができる。また例えば、通信部22は、車両1に関する情報や、車両1の周囲の情報等を外部に送信することができる。通信部22が外部に送信する車両1に関する情報としては、例えば、車両1の状態を示すデータ、認識部73による認識結果等がある。さらに例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行う。
【0024】
例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信する。
【0025】
通信部22が実行可能な車内との通信について、概略的に説明する。通信部22は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部22は、例えば、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部22は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部22は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部22は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。
【0026】
ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器を指す。車内の機器としては、例えば、運転者等の車内の利用者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
【0027】
地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図の一方又は両方を蓄積する。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。
【0028】
高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両1に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、例えば、車線や信号機の位置といった交通情報等をポイントクラウドマップに対応付け、運転自動化に適合させた地図である。
【0029】
ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、カメラ51、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。
【0030】
位置情報取得部24は、GNSS(Global Navigation Satellite System)衛星からGNSS信号を受信し、車両1の位置情報を取得する。取得した位置情報は、運転自動化制御部29に供給される。なお、位置情報取得部24は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。
【0031】
外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。外部認識センサ25が備えるセンサの種類や数は任意である。
【0032】
例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を備える。これに限らず、外部認識センサ25は、カメラ51、レーダ52、LiDAR53、及び、超音波センサ54のうち1種類以上のセンサを備える構成でもよい。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は、現実的に車両1に設置可能な数であれば特に限定されない。また、外部認識センサ25が備えるセンサの種類は、この例に限定されず、外部認識センサ25は、他の種類のセンサを備えてもよい。外部認識センサ25が備える各センサのセンシング領域の例は、後述する。
【0033】
なお、カメラ51の撮影方式は、特に限定されない。例えば、測距が可能な撮影方式であるToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じてカメラ51に適用することができる。これに限らず、カメラ51は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。
【0034】
また、例えば、外部認識センサ25は、車両1に対する環境を検出するための環境センサを備えることができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。
【0035】
さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを備える。
【0036】
車内センサ26は、車内の情報を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車内センサ26が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
【0037】
例えば、車内センサ26は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロフォン、生体センサのうち1種類以上のセンサを備えることができる。車内センサ26が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ26が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ26が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、利用者の各種の生体情報を検出する。
【0038】
車両センサ27は、車両1の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車両センサ27が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
【0039】
例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、並びに、外部からの衝撃を検出する衝撃センサを備える。
【0040】
記憶部28は、不揮発性の記憶媒体及び揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶する。記憶部28は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)及びRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスを適用することができる。記憶部28は、車両制御システム11の各部が用いる各種プログラムやデータを記憶する。例えば、記憶部28は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両1の情報や車内センサ26によって取得された情報を記憶する。
【0041】
運転自動化制御部29は、車両1の運転自動化機能の制御を行う。例えば、運転自動化制御部29は、分析部61、行動計画部62、及び、動作制御部63を備える。
【0042】
分析部61は、車両1及び周囲の状況の分析処理を行う。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を備える。
【0043】
自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定する。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心が基準とされる。
【0044】
ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。
【0045】
なお、自己位置推定部71は、位置情報取得部24により取得される位置情報、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。
【0046】
センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、複合、統合、融合、連合等がある。
【0047】
認識部73は、車両1の外部の状況の検出を行う検出処理、及び、車両1の外部の状況の認識を行う認識処理を実行する。
【0048】
例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。
【0049】
具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。
【0050】
例えば、認識部73は、レーダ52又はLiDAR53等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。
【0051】
例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。
【0052】
例えば、認識部73は、カメラ51から供給される画像データに基づいて、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等を検出又は認識する。また、認識部73は、セマンティックセグメンテーション等の認識処理を行うことにより、車両1の周囲の物体の種類を認識してもよい。
【0053】
例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置推定部71による自己位置の推定結果、及び、認識部73による車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行うことができる。認識部73は、この処理により、信号機の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等を認識することができる。
【0054】
例えば、認識部73は、車両1の周囲の環境の認識処理を行うことができる。認識部73が認識対象とする周囲の環境としては、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。
【0055】
行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。
【0056】
なお、経路計画は、広域的パスプランニング(Global path planning)及び局所的パスプランニング(Local path planning)を含む。広域的パスプランニングは、スタートからゴールまでの大まかな経路を計画する処理を含む。局所的パスプランニングは、軌道計画とも言われ、計画した経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成を行う処理を含む。
【0057】
経路追従とは、経路計画により計画された経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部62は、例えば、この経路追従の処理の結果に基づき、車両1の目標速度と目標角速度を計算することができる。
【0058】
動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御する。
【0059】
例えば、動作制御部63は、後述する車両制御部32に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、横方向車両運動制御及び縦方向車両運動制御を行う。例えば、動作制御部63は、衝突回避又は衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等の運転者支援機能や、運転者又は遠隔運転者の操作によらない走行等の運転自動化を目的とした制御を行う。
【0060】
DMS30は、車内センサ26からのセンサデータ、及び、後述するHMI31に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行う。認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。
【0061】
なお、DMS30が、運転者以外の利用者の認証処理、及び、当該利用者の状態の認識処理を行うようにしてもよい。また、例えば、DMS30が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。
【0062】
HMI31は、各種のデータや指示等の入力と、各種のデータの利用者への提示を行う。
【0063】
HMI31によるデータの入力について、概略的に説明する。HMI31は、人がデータを入力するための入力デバイスを備える。HMI31は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。HMI31は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を備える。これに限らず、HMI31は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに備えてもよい。さらに、HMI31は、例えば、赤外線又は電波を利用したリモートコントロール装置や、車両制御システム11の操作に対応したモバイル機器又はウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
【0064】
HMI31によるデータの提示について、概略的に説明する。HMI31は、利用者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI31は、生成された各情報の出力、出力内容、出力タイミング及び出力方法等を制御する出力制御を行う。HMI31は、視覚情報として、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報を生成及び出力する。また、HMI31は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成及び出力する。さらに、HMI31は、触覚情報として、例えば、力、振動、動き等により利用者の触覚に与えられる情報を生成及び出力する。
【0065】
HMI31が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、利用者の視界内に視覚情報を表示する装置であってもよい。また、HMI31は、車両1に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。
【0066】
HMI31が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。
【0067】
HMI31が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、利用者が接触する部分に設けられる。
【0068】
車両制御部32は、車両1の各部の制御を行う。車両制御部32は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を備える。
【0069】
ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うステアリングECU、ステアリングシステムの駆動を行うアクチュエータ等を備える。
【0070】
ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を備える。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うブレーキECU、ブレーキシステムの駆動を行うアクチュエータ等を備える。
【0071】
駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部83は、例えば、駆動システムの制御を行う駆動ECU、駆動システムの駆動を行うアクチュエータ等を備える。
【0072】
ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部84は、例えば、ボディ系システムの制御を行うボディ系ECU、ボディ系システムの駆動を行うアクチュエータ等を備える。
【0073】
ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うライトECU、ライトの駆動を行うアクチュエータ等を備える。
【0074】
ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行う。ホーン制御部86は、例えば、カーホーンの制御を行うホーンECU、カーホーンの駆動を行うアクチュエータ等を備える。
【0075】
図2は、図1の外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54等によるセンシング領域の例を示す図である。なお、図2において、車両1を上面から見た様子が模式的に示され、左端側が車両1の前端(フロント)側であり、右端側が車両1の後端(リア)側となっている。
【0076】
センシング領域101F及びセンシング領域101Bは、超音波センサ54のセンシング領域の例を示している。センシング領域101Fは、複数の超音波センサ54によって車両1の前端周辺をカバーしている。センシング領域101Bは、複数の超音波センサ54によって車両1の後端周辺をカバーしている。
【0077】
センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。
【0078】
センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域102Fは、車両1の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両1の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両1の右側面の後方の周辺をカバーしている。
【0079】
センシング領域102Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。
【0080】
センシング領域103F乃至センシング領域103Bは、カメラ51によるセンシング領域の例を示している。センシング領域103Fは、車両1の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両1の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両1の左側面の周辺をカバーしている。センシング領域103Rは、車両1の右側面の周辺をカバーしている。
【0081】
センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。
【0082】
センシング領域104は、LiDAR53のセンシング領域の例を示している。センシング領域104は、車両1の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域104は、センシング領域103Fより左右方向の範囲が狭くなっている。
【0083】
センシング領域104におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。
【0084】
センシング領域105は、長距離用のレーダ52のセンシング領域の例を示している。
センシング領域105は、車両1の前方において、センシング領域104より遠い位置までカバーしている。一方、センシング領域105は、センシング領域104より左右方向の範囲が狭くなっている。
【0085】
センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。
【0086】
なお、外部認識センサ25が含むカメラ51、レーダ52、LiDAR53、及び、超音波センサ54の各センサのセンシング領域は、図2以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。
【0087】
<<2.本技術の背景>>
次に、図3及び図4を参照して、本技術の背景について簡単に説明する。
【0088】
図3は、コンサート等のイベントの自由視点映像を含むエンタテイメント系コンテンツを車両1にライブストリーミング配信する場合の従来の処理の流れの概要を示している。
【0089】
例えば、クラウド側(サーバ側)には、キャプチャ部201、3次元モデル生成部202、及び、描画部203が配置されている。車両1側には、HMD204が配置されている。ユーザ(搭乗者)は、HMD204を用いて車両1内でコンテンツを視聴する。
【0090】
キャプチャ部201は、例えば、イベントが開催される場所(以下、イベント会場と称する)を囲むように配置された複数のカメラによりそれぞれ撮影された各方向からの映像に基づいて、ボリュメトリックキャプチャ技術(ボリュメトリックビデオ技術)を用いて、ポイントクラウドを生成する。キャプチャ部201は、生成したポイントクラウドを3次元モデル生成部202に供給する。
【0091】
3次元モデル生成部202は、ポイントクラウド、及び、事前に生成されているイベント会場の3次元モデル(以下、会場モデルと称する)に基づいて、コンテンツ(イベント)の各シーンを表す3次元モデル(以下、3次元イベントモデルと称する)を生成する。3次元モデル生成部202は、生成した3次元イベントモデルを描画部203に供給する。
【0092】
描画部203は、例えば、レンダラ等を備える。描画部203は、所定の方式の無線通信により、HMD204の制御情報を車両1から受信する。制御情報は、HMD204を使用するユーザの視界に関する情報(以下、視界情報と称する)を含む。視界情報は、例えば、ユーザの動き(例えば、頭部や視線の動き)、及び、HMD204の表示範囲(視界範囲)に対する操作内容に関する情報を含む。
【0093】
描画部203は、制御情報に基づいて、HMD204に表示する映像を3次元イベントモデルから切り出す。例えば、描画部203は、制御情報に基づいて、ユーザの視界の範囲に相当する範囲を含む映像を3次元イベントモデルから切り出す。描画部203は、切り出した映像を示す映像情報を、所定の方式の無線通信により車両1に送信する。
【0094】
車両1の通信部22は、所定の方式の無線通信により、映像情報を描画部203から受信する。通信部22は、映像情報をHMD204に送信する。
【0095】
HMD204は、映像情報に基づく映像を表示する。
【0096】
ここで、HMD204を用いて自由視点映像のコンテンツを視聴する場合、VR(Virtual Reality)酔いを防止するために、Motion-to-Photon Latencyを10ms以内に抑える必要がある。Motion-to-Photon Latencyとは、ユーザの視界(例えば、顔の向きや視線方向)が移動してから、移動後の視界に対応する映像が表示されるまでの所要時間である。
【0097】
一方、例えば、HMD204の各ディスプレイに表示されるコンテンツの映像の解像度を4000画素×2000画素、フレームレートを120fps、ビット深度を12ビット、RGBのサブサンプリングを4:4:4とする。この場合、HMD204の各ディスプレイに供給される映像情報のデータレートは、4000×2000×120×12×3=34.56Gbpsとなる。HMD204は、2つのディスプレイを備えるため、HMD204に供給される映像情報のデータレートは、69.12Gbpsとなる。
【0098】
また、コンテンツの音声がリニアPCM(Pulse Code Modulation)により変調され、各チャネルの音声のデータレートを1.5Mbps、チャネル数を32チャネルとした場合、音声情報のデータレートは、1.5Mbps×32ch=4.6Mbpsとなる。
【0099】
上述したように、Motion-to-Photon Latencyを10ms以内に抑える必要があるため、映像情報及び音声情報を高い圧縮率で圧縮することはできない。従って、例えば、描画部203からHMD204まで、69.12Gbps以上の伝送速度の無線通信回線の確保が要求されるが、これは非常に困難である。
【0100】
従って、ほぼ無遅延で映像情報及び音声情報を伝送するのに必要な無線通信回線が確保できず、コンテンツの品質(例えば、画質)が低下したり、コンテンツの品質を落とす必要が生じたりするおそれがある。また、Motion-to-Photon Latencyが長くなり、ユーザのVR酔いを誘発するおそれがある。
【0101】
これに対して、図4に示されるように、描画部222を車両1側に配置することが考えられる。なお、図4では、図3と対応する部分には同じ符号を付しており、その説明は適宜省略する。
【0102】
例えば、クラウド側(サーバ側)には、キャプチャ部201及び情報生成部221が配置されている。車両1側には、描画部222及びHMD204が配置されている。
【0103】
情報生成部221は、キャプチャ部201により生成されたポイントクラウドに基づいて、テクスチャ情報及びモーション情報を生成する。
【0104】
テクスチャ情報は、例えば、イベントの演者の外観に関する情報を含む。情報生成部221は、イベントの開始前に生成されポイントクラウドに基づいて、テクスチャ情報を生成し、イベントの開始前に車両1に送信する。
【0105】
モーション情報は、例えば、イベント中の演者の動きや演出の動きに関する情報を含む。情報生成部221は、イベント中に生成されポイントクラウドに基づいて、モーション情報を生成し、車両1にライブストリーミング配信する。
【0106】
描画部222は、イベントの開始前にイベント会場の3次元モデル(会場モデル)を取得する。描画部222は、イベント中に、事前に取得している会場モデル及びテクスチャ情報と、情報生成部221からライブストリーミング配信により受信したモーション情報に基づいて、コンテンツ(イベント)の各シーンを表す3次元イベントモデルを生成する。
【0107】
描画部203は、HMD204から供給される制御情報に基づいて、HMD204に表示する映像を3次元イベントモデルから切り出す。描画部203は、切り出した映像を示す映像情報を、所定の無線通信によりHMD204に送信する。
【0108】
HMD204は、映像情報に基づく映像を表示する。
【0109】
この場合、ライブストリーミング配信中のクラウド(情報生成部221)と車両1との間のデータ伝送量を抑制することができる。これにより、コンテンツの品質が安定するとともに、Motion-to-Photon Latencyが短縮される。
【0110】
一方、車両1側の描画部222において、事前に取得されたテクスチャ情報に基づいて演者等の映像が生成される。そのため、例えば、演者とのコールアンドレスポンス等のインターアクティブ性に富んだ体験をユーザに提供できなくなる。
【0111】
これに対して、本技術は、車両1等の移動体内で視聴するコンテンツの品質の低下を抑制できるようにする。また、本技術は、コンテンツの品質の低下を抑制しつつ、コンテンツのインターアクティブ性を向上できるようにする。
【0112】
<<3.第1の実施の形態>>
次に、図5乃至図12を参照して、本技術の第1の実施の形態について説明する。
【0113】
<情報処理システム301の構成例>
図5は、本技術を適用した情報処理システムの第1の実施の形態である情報処理システム301の構成例を示している。
【0114】
情報処理システム301は、サーバ群311、車両1-1乃至車両1-n、及び、情報処理端末312-1乃至情報処理端末312-nを備える。サーバ群311及び車両1-1乃至車両1-nは、ネットワーク313を介して相互に接続されている。
【0115】
以下、車両1-1乃至車両1-nを個々に区別する必要がない場合、単に車両1と称する。以下、情報処理端末312-1乃至情報処理端末312-nを個々に区別する必要がない場合、単に情報処理端末312と称する。
【0116】
サーバ群311は、1以上のサーバを含む。サーバ群311は、ネットワーク313を介して、各車両1に各種のコンテンツを配信する。
【0117】
情報処理端末312は、各車両1内において、サーバ群311から配信されるコンテンツを視聴するために用いられる。例えば、情報処理端末312は、自由視点映像のコンテンツを視聴可能な表示デバイスを備える。
【0118】
なお、情報処理端末312は、2以上の装置により構成されてもよい。例えば、情報処理端末312は、HMD及びコントローラにより構成される。
【0119】
また、各車両1において2以上の情報処理端末312が使用されてもよい。
【0120】
<サーバ群311の機能の構成例>
図6は、サーバ群311の機能の構成例を示している。サーバ群311は、データ取得部351、コンテンツ情報生成部352、配信制御部353、及び、通信部354を備える。コンテンツ情報生成部352は、固定情報生成部361、変動情報生成部362、3次元モデル生成部363、映像生成部364、及び、リアルタイム情報生成部365を備える。
【0121】
なお、図6のサーバ群311の機能は、1つのサーバにより実現されてもよいし、2以上のサーバにより実現されてもよい。
【0122】
データ取得部351は、配信するコンテンツに関する各種のデータを取得すし、取得したデータを固定情報生成部361、変動情報生成部362、3次元モデル生成部363、及び、リアルタイム情報生成部365に供給する。
【0123】
例えば、データ取得部351は、配信するコンテンツにおいて基本的に変化せずに固定された情報を収集し、固定情報生成部361に供給する。
【0124】
例えば、データ取得部351は、配信するコンテンツの対象となるイベントが開催されるイベント会場を囲むように配置された複数のカメラを備える。データ取得部351は、各カメラにより撮影された各方向からの映像に基づいて、ボリュメトリックキャプチャ技術を用いて、コンテンツ(イベント)の各シーンを表すポイントクラウドを生成する。データ取得部351は、生成したポイントクラウドを変動情報生成部362及び3次元モデル生成部363に供給する。
【0125】
例えば、データ取得部351は、イベント会場に配置された1以上のマイクロフォンを備える。データ取得部351は、各マイクロフォンにより収集された音声を示す音声信号に基づいて、音声情報を生成する。データ取得部351は、生成した音声情報を変動情報生成部362及びリアルタイム情報生成部365に供給する。
【0126】
固定情報生成部361は、データ取得部351から供給されるデータに基づいて、コンテンツにおいて固定されている情報である固定情報を生成する。固定情報生成部361は、生成した固定情報を配信制御部353に供給する。固定情報の詳細については、後述する。
【0127】
変動情報生成部362は、データ取得部351から供給されるデータに基づいて、コンテンツにおいて固定されていない情報、換言すれば、コンテンツに応じて変動する情報である変動情報を生成する。変動情報生成部362は、生成した変動情報を配信制御部353に供給する。変動情報の詳細については、後述する。
【0128】
3次元モデル生成部363は、データ取得部351から供給されるデータに基づいて、コンテンツ(イベント)の各シーンを表す3次元イベントモデルを生成する。3次元モデル生成部363は、生成した3次元イベントモデルを映像生成部364に供給する。
【0129】
映像生成部364は、例えば、レンダラ等を備える。映像生成部364は、配信制御部353等を介して車両1から受信した制御情報に基づいて、ユーザに提示する映像を3次元イベントモデルから切り出す。制御情報は、上述したように視界情報を含む。映像生成部364は、切り出した映像を示す映像情報をリアルタイム情報生成部365に供給する。
【0130】
リアルタイム情報生成部365は、データ取得部351から供給されるデータ、及び、映像生成部364から供給される映像情報に基づいて、リアルタイム情報を生成する。リアルタイム情報は、例えば、コンテンツ(イベント)の各シーンを略リアルタイムに表す情報である。リアルタイム情報生成部365は、生成したリアルタイム情報を配信制御部353に供給する。
【0131】
なお、リアルタイム情報は、高精細な映像情報(以下、高精細映像情報と称する)を含む高精細リアルタイム情報、及び、低容量の映像情報(以下、低容量映像情報と称する)を含む低容量リアルタイム情報の少なくとも2種類が存在する。高精細映像情報に基づく映像の方が、低容量映像情報に基づく映像より高精細かつ高品質である。換言すれば、低容量映像情報に基づく映像の方が、高精細映像情報に基づく映像より粗く低品質である。
【0132】
配信制御部353は、通信部354を介して、各車両1へのコンテンツの配信を制御する。例えば、配信制御部353は、車両1からの要求に従って、通信部354を介して、固定情報、変動情報、及び、リアルタイム情報を各車両に送信する。
【0133】
通信部354は、所定の通信方式により、ネットワーク313を介して、各車両1の通信部22と通信を行う。なお、通信部354の通信方式には、大容量のエンタテイメント系コンテンツの配信を安定して行えるように、高速かつ安定した通信方式が採用される。
【0134】
<車両1の情報処理部401及び情報処理端末312の機能の構成例>
図7は、車両1の情報処理部401及び情報処理端末312の機能の構成例を示している。
【0135】
車両1の情報処理部401は、サーバ群311から配信されたコンテンツを情報処理端末312において再生する処理に関わる処理を実行する。情報処理部401は、状態検出部411、情報取得部412、映像生成部413、及び、出力制御部414を備える。
【0136】
状態検出部411は、通信部22により車外又は車内から受信された各種のデータ、車両センサ27からのセンサデータ、自己位置推定部71による車両1の自己位置の推定結果、認識部73による車両1の外部の状況の認識結果、及び、車両制御部32による車両1の各部の状態の検出結果のうち1つ以上に基づいて、車両1の移動状態を検出する。車両1の移動状態は、例えば、車両1が走行(移動)している場所、車両1の周囲の状態、及び、車両1の状態のうち少なくとも1つを含む。
【0137】
情報取得部412は、ネットワーク313及び通信部22を介して、サーバ群311から配信されるコンテンツに関する情報を受信する。例えば、情報取得部412は、ネットワーク313及び通信部22を介して、固定情報、変動情報、及び、リアルタイム情報をサーバ群311から受信する。このとき、例えば、情報取得部412は、状態検出部411により検出された車両1の移動状態に基づいて、サーバ群311から取得する情報を選択する。
【0138】
映像生成部413は、例えば、レンダラ等を備える。映像生成部413は、固定情報及び変動情報に基づいて、コンテンツの映像情報を生成する。
【0139】
出力制御部414は、情報処理端末312へのコンテンツ(例えば、映像情報及び音声情報等)の出力を制御する。例えば、出力制御部414は、通信部22を介して、コンテンツの映像情報、音声情報、及び、リアルタイム情報を情報処理端末312に送信する。このとき、例えば、出力制御部414は、状態検出部411により検出された車両1の移動状態に基づいて、情報処理端末312に送信する情報(例えば、映像情報等)を選択する。
【0140】
情報処理端末312は、制御部451、表示部452、音声出力部453、操作部454、動作検出部455、及び、通信部456を備える。
【0141】
制御部451は、情報処理端末312の各種の処理を実行したり、各部の制御を実行したりする。
【0142】
表示部452は、ディスプレイ等の表示デバイスを備える。表示部452は、コンテンツの映像情報に基づく映像を表示する。表示部452は、例えば、自由視点映像や3次元映像の表示が可能である。
【0143】
音声出力部453は、スピーカ又はヘッドホン等の音声出力デバイスを備える。音声出力部453は、コンテンツの音声情報に基づく音声を出力する。
【0144】
操作部454は、各種の操作デバイスを備え、情報処理端末312の操作に用いられる。
【0145】
動作検出部455は、各種のセンサ等を備え、各センサからのセンサデータ等に基づいて、ユーザの動きを検出する。例えば、動作検出部455は、ユーザの頭部又は視線の動きを検出する。
【0146】
通信部456は、所定の通信方式により、車両1の通信部22と通信を行う。通信部456の通信方式は、有線通信又は無線通信のいずれでもよい。なお、通信部354の通信方式には、大容量のエンタテイメント系コンテンツの配信を安定して行えるように、高速かつ安定した通信方式が採用される。例えば、通信部456の通信方式には、光無線通信が用いられる。
【0147】
<情報処理システム301の処理>
次に、図8乃至図12を参照して、情報処理システム301の処理について説明する。
【0148】
なお、以下、サーバ群311が、コンサート等のイベントの自由視点映像を含むコンテンツを略リアルタイムにライブストリーミング配信(ライブ配信、リアルタイム配信)する場合の例について説明する。
【0149】
<コンテンツ配信処理>
まず、図8及び図9のフローチャートを参照して、サーバ群311により実行されるコンテンツ配信処理について説明する。
【0150】
この処理は、例えば、コンテンツ配信処理が開始される日時になったとき開始される。コンテンツ配信処理の開始日時は、イベントの開始日時より前に設定される。
【0151】
ステップS1において、サーバ群311は、固定情報を収集する。例えば、データ取得部351は、ライブストリーミング配信するイベントに関する情報であって、コンテンツのライブストリーミング配信中に基本的に変化せずに固定されている情報を収集し、固定情報生成部361に供給する。
【0152】
固定情報生成部361は、データ取得部351により収集された情報に基づいて、固定情報を生成する。
【0153】
固定情報は、例えば、イベント会場情報、演者外観情報、演出企画情報、他観客外観情報等を含む。イベント会場情報は、イベント会場に関する情報、例えば、イベント会場の高精細3次元マップ情報を含む。演者外観情報は、演者の外観に関する情報、例えば、演者の高精細テクスチャ情報等を含む。演出企画情報は、例えば、ライティング及び花火等のイベントの各種の演出の企画に関する情報を含む。他観客外観情報は、ユーザ以外の他の観客の外観に関する情報、例えば、他観客のアバター情報等を含む。なお、他観客のアバター情報は、実際の他観客の外観と異なっていてもよい。
【0154】
ステップS2において、配信制御部353は、固定情報が要求されたか否かを判定する。配信制御部353は、ネットワーク313及び通信部354を介して、固定情報を要求する信号(以下、固定情報要求信号と称する)を車両1から受信した場合、固定情報が要求されたと判定し、処理はステップS3に進む。
【0155】
ステップS3において、サーバ群311は、固定情報を送信する。具体的には、配信制御部353は、固定情報を固定情報生成部361から取得する。配信制御部353は、通信部354及びネットワーク313を介して、固定情報を要求元の車両1に送信する。
【0156】
その後、処理はステップS4に進む。
【0157】
一方、ステップS2において、固定情報が要求されていないと判定された場合、ステップS3の処理はスキップされ、処理はステップS4に進む。
【0158】
ステップS4において、配信制御部353は、イベントの開始時刻になったか否かを判定する。イベントの開始時刻になっていないと判定された場合、処理はステップS2に戻る。
【0159】
その後、ステップS4において、イベントの開始時刻になったと判定されるまで、ステップS2乃至ステップS4の処理が繰り返し実行される。
【0160】
一方、ステップS4において、イベントの開始時刻になったと判定された場合、処理はステップS5に進む。
【0161】
ステップS5において、配信制御部353は、イベントの開始を通知する。具体的には、配信制御部353は、イベントの開始を通知するイベント開始通知信号を生成し、通信部354及びネットワーク313を介して、各車両1に送信する。
【0162】
ステップS6において、サーバ群311は、変動情報及びリアルタイムキャプチャ情報の収集を開始する。
【0163】
例えば、データ取得部351は、イベント会場を囲むように配置された複数のカメラによりイベント会場を撮影する処理を開始する。データ取得部351は、各カメラにより撮影された各方向からの映像に基づいて、ボリュメトリックキャプチャ技術を用いて、コンテンツ(イベント)の各シーンを表すポイントクラウドを生成する処理を開始する。データ取得部351は、生成したポイントクラウドを変動情報生成部362及び3次元モデル生成部363に供給する処理を開始する。
【0164】
例えば、データ取得部351は、イベント会場の各部に配置されたマイクロフォンにより、イベント会場の音声を収集する処理を開始する。データ取得部351は、各マイクロフォンにより収集された音声を示す音声信号に基づいて、音声情報を生成し、変動情報生成部362及びリアルタイム情報生成部365に供給する処理を開始する。
【0165】
変動情報生成部362は、データ取得部351から供給されるポイントクラウド及び音声情報に基づいて、変動情報を生成する処理を開始する。
【0166】
変動情報は、例えば、演者動作情報、他観客動作情報、演出動作情報、音声情報等を含む。演者動作情報は、演者の動きに関する情報を含む。演者の動きは、例えば、演者の体の動きだけでなく、表情の動きも含む。他観客動作情報は、イベント中に他観客の動きに関する情報を含む。演出動作情報は、ライティングの方向や花火のタイミング等の各種の演出の動きに関する情報を含む。
【0167】
3次元モデル生成部363は、データ取得部351から供給されるポイントクラウドに基づいて、コンテンツ(イベント)の各シーンを表す3次元イベントモデルを生成し、映像生成部364に供給する処理を開始する。
【0168】
ステップS7において、配信制御部353は、高精細リアルタイム情報が要求されたか否かを判定する。配信制御部353は、ネットワーク313及び通信部354を介して、高精細リアルタイム情報を要求する信号(以下、高精細リアルタイム情報要求信号と称する)を車両1から受信した場合、高精細リアルタイム情報が要求されたと判定し、処理はステップS8に進む。
【0169】
高精細リアルタイム要求信号は、例えば、上述した視界情報を含む制御情報を含む。
【0170】
ステップS8において、サーバ群311は、高精細リアルタイム情報を生成する。例えば、映像生成部364は、高精細リアルタイム情報要求信号に含まれる制御情報に基づいて、ユーザの視界の範囲に相当する範囲を含む映像を、解像度を落とさずにそのまま3次元イベントモデルから切り出す。映像生成部364は、切り出した映像を示す高精細映像情報をリアルタイム情報生成部365に供給する。
【0171】
リアルタイム情報生成部365は、高精細映像情報、及び、高精細映像情報に対応する音声情報を含む高精細リアルタイム情報を生成する。高精細映像情報に対応する音声情報とは、高精細映像情報に基づく映像と同期して出力される音声を示す音声情報である。リアルタイム情報生成部365は、高精細リアルタイム情報を配信制御部353に供給する。
【0172】
ステップS9において、サーバ群311は、高精細リアルタイム情報を送信する。具体的には、配信制御部353は、通信部354及びネットワーク313を介して、高精細リアルタイム情報を要求元の車両1に送信する。
【0173】
その後、処理はステップS15に進む。
【0174】
一方、ステップS7において、高精細リアルタイム情報が要求されていないと判定された場合、処理はステップS10に進む。
【0175】
ステップS10において、配信制御部353は、変動情報が要求されたか否かを判定する。配信制御部353は、ネットワーク313及び通信部354を介して、変動情報を要求する信号(以下、変動情報要求信号と称する)を車両1から受信した場合、変動情報が要求されたと判定し、処理はステップS11に進む。
【0176】
ステップS11において、サーバ群311は、変動情報を送信する。具体的には、配信制御部353は、変動情報を変動情報生成部362から取得する。配信制御部353は、通信部354及びネットワーク313を介して、変動情報を要求元の車両1に送信する。
【0177】
その後、処理はステップS15に進む。
【0178】
一方、ステップS10において、変動情報が要求されていないと判定された場合、処理はステップS12に進む。
【0179】
ステップS12において、配信制御部353は、低容量リアルタイム情報が要求されたか否かを判定する。配信制御部353は、ネットワーク313及び通信部354を介して、低容量リアルタイム情報を要求する信号(以下、低容量リアルタイム情報要求信号と称する)を車両1から受信した場合、低容量リアルタイム情報が要求されたと判定し、処理はステップS13に進む。
【0180】
ステップS13において、サーバ群311は、低容量リアルタイム情報を生成する。例えば、映像生成部364は、所定の範囲の映像を、解像度を落として3次元イベントモデルから切り出す。映像生成部364は、切り出した映像を示す低容量映像情報をリアルタイム情報生成部365に供給する。
【0181】
なお、例えば、映像を切り出す範囲は、ユーザの視界の範囲に関わらず固定される。すなわち、所定のアングルの映像が3次元イベントモデルから切り出される。これにより、低容量映像情報を生成する時間が短縮される。
【0182】
リアルタイム情報生成部365は、低容量映像情報、及び、低容量映像情報に対応する音声情報を含む低容量リアルタイム情報を生成する。リアルタイム情報生成部365は、低容量リアルタイム情報を配信制御部353に供給する。
【0183】
ステップS14において、サーバ群311は、低容量リアルタイム情報を送信する。具体的には、配信制御部353は、通信部354及びネットワーク313を介して、低容量リアルタイム情報を要求元の車両1に送信する。
【0184】
その後、処理はステップS15に進む。
【0185】
一方、ステップS12において、低容量リアルタイム情報が要求されていないと判定された場合、ステップS13及びステップS14の処理はスキップされ、処理はステップS15に進む。
【0186】
ステップS15において、配信制御部353は、イベントの終了時刻になったか否かを判定する。イベントの終了時刻になっていないと判定された場合、処理はステップS7に戻る。
【0187】
その後、ステップS15において、イベントの終了時刻になったと判定されるまで、ステップS7乃至ステップS15の処理が繰り返し実行される。これにより、車両1からの要求に応じて、高精細リアルタイム情報、変動情報、又は、低容量リアルタイム情報が要求元の車両1に送信される。
【0188】
一方、ステップS15において、イベントの終了時刻になったと判定された場合、処理はステップS16に進む。
【0189】
ステップS16において、サーバ群311は、変動情報及びリアルタイムキャプチャ情報の収集を終了する。すなわち、ステップS6の処理で開始された処理が終了する。
【0190】
ステップS17において、配信制御部353は、イベントの終了を通知する。具体的には、配信制御部353は、イベントの終了を通知するイベント終了通知信号を生成し、通信部354及びネットワーク313を介して、各車両1に送信する。
【0191】
その後、コンテンツ配信処理は終了する。
【0192】
<コンテンツ再生処理>
次に、図10及び図11のフローチャートを参照して、図8及び図9のサーバ群311によるコンテンツ配信処理に対応して、車両1及び情報処理端末312により実行されるコンテンツ再生処理について説明する。
【0193】
ステップS51において、車両1の情報取得部412は、固定情報の取得が要求されたか否かを判定する。
【0194】
例えば、ユーザは、固定情報の取得を要求する場合、情報処理端末312の操作部454を介して、固定情報を取得するための操作を実行する。そして、通信部456は、対応する操作信号を車両1に送信する。
【0195】
これに対して、車両1の情報取得部412は、通信部22を介して、当該操作信号を受信した場合、固定情報の取得が要求されたと判定し、処理はステップS52に進む。
【0196】
ステップS52において、車両1の状態検出部411は、固定情報を受信可能な状態であるか否かを判定する。具体的には、状態検出部411は、通信部22により車外又は車内から受信された各種のデータ、車両センサ27からのセンサデータ、自己位置推定部71による車両1の自己位置の推定結果、認識部73による車両1の外部の状況の認識結果、及び、車両制御部32による車両1の各部の状態の検出結果のうち1つ以上に基づいて、車両1の移動状態を検出する。
【0197】
状態検出部411は、車両1の移動状態が、コンテンツ配信に対して所定の速度以上の通信回線を安定して確保可能な状態であると推定される場合、固定情報を受信可能な状態であると判定する。例えば、状態検出部411は、車両1が停止中、かつ、通信部22が所定の通信方式の通信回線を介してネットワーク313に接続されている場合、固定情報を受信可能な状態であると判定する。所定の通信方式の通信回線を介してネットワーク313に接続されている場合とは、例えば、ミリ波等の高速無線通信回線を介してネットワーク313に接続されている場合、又は、通信ケーブル若しくは通信可能な充電ケーブルにより有線通信回線を介してネットワーク313に接続されている場合等である。そして、固定情報を受信可能な状態であると判定された場合、処理はステップS53に進む。
【0198】
ステップS53において、車両1の情報取得部412は、固定情報を要求する。具体的には、情報取得部412は、固定情報要求信号を生成し、通信部22及びネットワーク313を介して、サーバ群311に送信する。
【0199】
ステップS54において、車両1の情報取得部412は、固定情報を受信する。具体的には、情報取得部412は、上述した図8のステップS3においてサーバ群311から送信された固定情報を、ネットワーク313及び通信部22を介して受信する。情報取得部412は、固定情報を記憶部28に記憶させる。
【0200】
その後、処理はステップS55に進む。
【0201】
一方、ステップS52において、固定情報を受信可能な状態でないと判定された場合、ステップS53及びステップS54の処理はスキップされ、処理はステップS55に進む。
【0202】
また、ステップS51において、固定情報の取得が要求されていないと判定された場合、ステップS52乃至ステップS54の処理はスキップされ、処理はステップS55に進む。
【0203】
ステップS55において、車両1の情報取得部412は、イベントの開始が通知されたか否かを判定する。イベントの開始が通知されていないと判定された場合、処理はステップS51に戻る。
【0204】
その後、ステップS55において、イベントの開始が通知されたと判定されるまで、ステップS51乃至ステップS55の処理が繰り返し実行される。
【0205】
一方、ステップS55において、車両1の情報取得部412は、上述した図8のステップS5においてサーバ群311から送信されたイベント開始通知信号を、ネットワーク313及び通信部22を介して受信した場合、イベントの開始が通知されたと判定し、処理はステップS56に進む。
【0206】
ステップS56において、車両1の状態検出部411は、高精細リアルタイム情報を受信可能な状態であるか否かを判定する。具体的には、状態検出部411は、上述したステップS52と同様の処理により、車両1の状態を検出する。
【0207】
例えば状態検出部411は、車両1の移動状態が、コンテンツ配信に対して所定の速度以上の通信回線を安定して確保可能な状態であると推定される場合、高精細リアルタイム情報を受信可能な状態であると判定する。
【0208】
例えば、状態検出部411は、車両1の移動状態が、上述した固定情報を受信可能な状態である場合と同様な状態である場合、高精細リアルタイム情報を受信可能な状態であると判定する。
【0209】
また、例えば、状態検出部411は、車両1が走行中、かつ、運転自動化に必要な通信データ量が小さい(所定の閾値未満である)と推定される状態である場合、高精細リアルタイム情報を受信可能な状態であると判定する。運転自動化に必要な通信データ量が小さいと推定される状態とは、例えば、車両1が自動車専用の道路(以下、自動車専用道と称する)を所定の速度以上で走行している場合である。すなわち、車両1の周囲に歩行者が存在せず、かつ、渋滞していない状態である。
【0210】
そして、高精細リアルタイム情報を受信可能な状態であると判定された場合、処理はステップS57に進む。
【0211】
ステップS57において、車両1の情報取得部412は、高精細リアルタイム情報を要求する。具体的には、情報取得部412は、通信部22を介して、視界情報を含む制御情報を情報処理端末312から受信する。情報取得部412は、制御情報を含む高精細リアルタイム情報要求信号を生成する。情報取得部412は、通信部22及びネットワーク313を介して、高精細リアルタイム情報要求信号をサーバ群311に送信する。
【0212】
ステップS58において、車両1の情報取得部412は、高精細リアルタイム情報を受信する。具体的には、情報取得部412は、上述した図9のステップS9においてサーバ群311から送信された高精細リアルタイム情報を、ネットワーク313及び通信部22を介して受信する。
【0213】
ステップS59において、情報処理端末312は、高精細リアルタイム情報に基づいて、コンテンツを再生する。
【0214】
具体的には、車両1の出力制御部414は、通信部22を介して、高精細リアルタイム情報を情報処理端末312に送信する。すなわち、高精細映像情報、及び、当該高精細映像情報に対応する音声情報が、情報処理端末312に出力される。
【0215】
これに対して、情報処理端末312の通信部456は、高精細リアルタイム情報を車両1から受信する。表示部452は、高精細リアルタイム情報に含まれる高精細映像情報に基づいて、高精細なコンテンツの映像を表示する。音声出力部453は、高精細リアルタイム情報に含まれる音声情報に基づいて、音声を出力する。
【0216】
このようにして、高精細リアルタイム情報を受信可能な状態である場合、実際にイベントの模様をキャプチャした映像に基づいて、イベントの高精細な自由視点映像が略リアルタイムにユーザに提示される。これにより、3R(Remote, Real, Realtime)を実現したコンテンツがユーザに提供され、インターアクティブ性に富んだコンテンツをユーザに提供することが可能になる。例えば、ユーザの反応(例えば、声援等)に対して、イベントの演者が呼応することが可能になる。
【0217】
また、高精細リアルタイム情報を受信可能な状態であることが確認された上で、高精細リアルタイム情報の伝送が行われるため、Motion-to-Photon Latencyの増大が抑制される。
【0218】
その後、処理はステップS67に進む。
【0219】
一方、ステップS56において、高精細リアルタイム情報を受信可能な状態でないと判定された場合、処理はステップS60に進む。例えば、車両1が走行中、かつ、運転自動化に必要な通信データ量が大きい(所定の閾値以上である)と推定される状態である場合、高精細リアルタイム情報を受信可能な状態でないと判定される。運転自動化に必要な通信データ量が大きいと推定される状態とは、例えば、車両1が自動車専用道以外の場所を走行している場合、又は、車両1が所定の速度未満で走行している場合である。すなわち、例えば、車両1の周囲に歩行者が存在する可能性のある状態、又は、渋滞している状態である。
【0220】
ステップS60において、車両1の情報取得部412は、固定情報を取得済みであるか否かを判定する。具体的には、情報取得部412は、イベントの開始前に取得した固定情報が記憶部28に記憶されている場合、固定情報を取得済みであると判定し、処理はステップS61に進む。
【0221】
ステップS61において、車両1の情報取得部412は、変動情報を要求する。具体的には、情報取得部412は、変動情報要求信号を生成し、通信部22及びネットワーク313を介して、サーバ群311に送信する。
【0222】
ステップS62において、車両1の情報取得部412は、変動情報を受信する。具体的には、情報取得部412は、上述した図9のステップS11においてサーバ群311から送信された変動情報を、ネットワーク313及び通信部22を介して受信する。
【0223】
ステップS63において、車両1及び情報処理端末312は、固定情報及び変動情報に基づいて、コンテンツを再生する。
【0224】
具体的には、車両1の映像生成部413は、固定情報及び変動情報に基づいて、コンテンツ(イベント)の各シーンを表す3次元イベントモデルを生成する。映像生成部413は、通信部22を介して、上述した視界情報を含む制御情報を情報処理端末312から受信する。映像生成部413は、制御情報に基づいて、ユーザの視界の範囲に相当する範囲を含む映像を、解像度を落とさずにそのまま3次元イベントモデルから切り出す。出力制御部414は、通信部22を介して、生成された映像情報、及び、当該映像情報に対応する音声情報を情報処理端末312に送信する。すなわち、映像生成部354により生成された映像情報、及び、当該映像情報に対応する音声情報が、情報処理端末312に出力される。
【0225】
これに対して、情報処理端末312の通信部456は、映像情報及び音声情報を車両1から受信する。表示部452は、映像情報に基づく映像を表示する。音声出力部453は、音声情報に基づく音声を出力する。
【0226】
これにより、車両1の移動状態が高精細リアルタイム情報を受信可能な状態でなくても、換言すれば、サーバ群311と車両1との間に高速かつ安定した通信回線を確保できなくても、イベントの高精細な自由視点映像が略リアルタイムにユーザに提示される。
【0227】
また、変動情報のみがサーバ群311から車両1に送信され、変動情報及び固定情報に基づいて、レンダリング処理(3次元イベントモデルの生成処理、及び、3次元イベントモデルからの映像情報生成処理)が、車両1において実行される。これにより、サーバ群311と車両1との間のデータ伝送量が削減され、レンダリング処理の時間が短縮される。その結果、Motion-to-Photon Latencyが短縮される。
【0228】
一方、変動情報は、高精細リアルタイム情報より情報量が低下する。そのため、ユーザに提示される映像が、実際のイベントの模様と異なる場合がある。例えば、演者の汗や涙等は、固定情報及び変動情報のみでは表現することが困難である。また、高精細リアルタイム情報を用いた場合と比較して、コンテンツのインターアクティブ性が低下する場合がある。
【0229】
その後、処理はステップS67に進む。
【0230】
一方、ステップS60において、固定情報を取得済みでないと判定された場合、処理はステップS64に進む。
【0231】
ステップS64において、車両1の情報取得部412は、低容量リアルタイム情報を要求する。具体的には、情報取得部412は、低容量リアルタイム情報要求信号を生成し、通信部22及びネットワーク313を介して、サーバ群311に送信する。
【0232】
ステップS65において、車両1の情報取得部412は、低容量リアルタイム情報を受信する。具体的には、情報取得部412は、上述した図9のステップS14においてサーバ群311から送信された低容量リアルタイム情報を、ネットワーク313及び通信部22を介して受信する。
【0233】
ステップS63において、車両1及び情報処理端末312は、低容量リアルタイム情報に基づいて、コンテンツを再生する。
【0234】
具体的には、車両1の出力制御部414は、通信部22を介して、低容量リアルタイム情報を情報処理端末312に送信する。すなわち、低容量映像情報、及び、当該低容量映像情報に対応する音声情報が、情報処理端末312に出力される。
【0235】
これに対して、情報処理端末312の通信部456は、低容量リアルタイム情報を車両1から受信する。表示部452は、低容量リアルタイム情報に含まれる低容量映像情報に基づく映像を表示する。音声出力部453は、低容量リアルタイム情報に含まれる音声情報に基づく音声を出力する。
【0236】
これにより、車両1の移動状態が高精細リアルタイム情報を受信可能な状態でなく、換言すれば、サーバ群311と車両1との間に高速かつ安定した通信回線を確保できず、かつ、固定情報を事前に取得していなくても、コンテンツのインターアクティブ性及び映像の品質が低下するものの、略リアルタイムにイベントの模様を示すコンテンツをユーザに提供することが可能になる。
【0237】
その後、処理はステップS67に進む。
【0238】
ステップS67において、車両1の情報取得部412は、イベントの終了が通知されたか否かを判定する。イベントの終了が通知されていないと判定された場合、処理はステップS56に戻る。
【0239】
その後、ステップS67において、イベントの終了が通知されたと判定されるまで、ステップS56乃至ステップS67の処理が繰り返し実行される。
【0240】
一方、ステップS67において、車両1の情報取得部412は、上述した図9のステップS17においてサーバ群311から送信されたイベント終了通知信号を、ネットワーク313及び通信部22を介して受信した場合、イベントの終了が通知されたと判定し、コンテンツ再生処理は終了する。
【0241】
図12は、以上の処理において、クラウド側(サーバ群311側)と車両1側とで伝送される情報の例を示している。
【0242】
例えば、まず、クラウド側で固定情報の収集が行われる。そして、車両1の停車中に、車両1側からの要求に応じて、クラウド側から車両1側に固定情報が送信される。
【0243】
イベントが開始された後、イベントが終了するまで、クラウド側で変動情報及びリアルタイムキャプチャ情報の収集が行われる。また、クラウド側から車両1側にイベントの開始が通知される。
【0244】
車両1は、市街地の走行中に、変動情報をクラウド側に要求し、クラウド側から変動情報を受信する。
【0245】
一方、車両1は、自動車専用道の走行中に、(高精細)リアルタイム情報をクラウド側に要求し、クラウド側から(高精細)リアルタイム情報を受信する。
【0246】
そして、イベントが終了した後、クラウド側から車両1側にイベントの終了が通知される。
【0247】
以上のようにして、車両1の移動状態に応じて、レンダリング処理の処理主体、及び、サーバ群311と車両1との間で伝送される情報が適応的に制御されることにより、車両1内で視聴するコンテンツの品質の低下が抑制される。例えば、映像の品質の低下やMotion-to-Photon Latencyの増大が抑制される。
【0248】
また、インターアクティブ性に富んだコンテンツがユーザに提供され、ユーザが、より臨場感溢れる体験をすることができる。
【0249】
<<4.第2の実施の形態>>
次に、図13及び図14を参照して、本技術の第2の実施の形態について説明する。
【0250】
<情報処理システム501の構成例>
図13は、本技術を適用した情報処理システムの第2の実施の形態である情報処理システム501の構成例を示している。なお、図中、図5の情報処理システム301と対応する部分には、同じ符号を付しており、その説明は適宜省略する。
【0251】
情報処理システム501は、車両1-1乃至車両1-n、情報処理端末312-1乃至情報処理端末312-n、及び、ネットワーク313を備える点が、情報処理システム301と一致する。一方、情報処理システム501は、コンテンツ生成部511、サーバ512-1乃至サーバ512-m、及び、ネットワーク513を備え、サーバ群311を備えていない点が、情報処理システム301と異なる。
【0252】
コンテンツ生成部511及びサーバ512-1乃至サーバ512-mは、ネットワーク513を介して相互に接続されている。サーバ512-1乃至サーバ512-m及び車両1-1乃至車両1-nは、ネットワーク313を介して相互に接続されている。なお、ネットワーク313とネットワーク513は、必ずしも分離される必要はなく、全部又は一部が共通でもよい。
【0253】
なお、以下、サーバ512-1乃至サーバ512-mを個々に区別する必要がない場合、単にサーバ512と称する。
【0254】
コンテンツ生成部511と各サーバ512は、図6のサーバ群311の機能を分担して実行する。
【0255】
具体的には、コンテンツ生成部511は、コンテンツの固定情報、変動情報、3次元イベントモデル、及び、音声情報等を生成し、ネットワーク513を介して、各サーバ512に送信する。
【0256】
各サーバ512は、3次元イベントモデル及び音声情報に基づいて、高精細リアルタイム情報又は低容量リアルタイム情報を生成する。各サーバ512は、各車両1からの要求に応じて、ネットワーク313を介して、固定情報、変動情報、高精細リアルタイム情報、又は、低容量リアルタイム情報を各車両1に送信する。
【0257】
<コンテンツ生成部511及びサーバ512の構成例>
図14は、コンテンツ生成部511及びサーバ512の機能の構成例を示している。なお、図6のサーバ群311と対応する部分には同じ符号を付しており、その説明は適宜省略する。また、この図では、図を分かりやすくするために、サーバ512が1つのみ図示され、コンテンツ生成部511とサーバ512との間のネットワーク513の図示が省略されている。
【0258】
コンテンツ生成部511は、データ取得部351、固定情報生成部361、変動情報生成部362、及び、3次元モデル生成部363を備える点が、サーバ群311と一致する。一方、コンテンツ生成部511は、通信部354の代わりに通信部531を備え、配信制御部353、映像生成部364、及び、リアルタイム情報生成部365を備えていない点が、サーバ群311と異なる。
【0259】
サーバ512は、映像生成部364及びリアルタイム情報生成部365を備える点が、サーバ群311と一致する。一方、サーバ512は、配信制御部353及び通信部354の代わりに配信制御部552及び通信部551を備え、記憶部553を備え、データ取得部351、固定情報生成部361、変動情報生成部362、及び、3次元モデル生成部363を備えていない点が、サーバ群311と異なる。
【0260】
コンテンツ生成部511の通信部531とサーバ512の通信部551とは、ネットワーク513を介して、通信を行う。なお、通信部531及び通信部551の通信方式には、大容量のエンタテイメント系コンテンツの配信を安定して行えるように、高速かつ安定した通信方式が採用される。
【0261】
コンテンツ生成部511の通信部531は、コンテンツの固定情報、変動情報、3次元イベントモデル、及び、音声情報をサーバ512に送信する。
【0262】
サーバ512の通信部551は、コンテンツの固定情報、変動情報、3次元イベントモデル、及び、音声情報をコンテンツ生成部511から受信し、配信制御部552に供給する。
【0263】
配信制御部552は、固定情報、変動情報、3次元イベントモデル、及び、音声情報を必要に応じて記憶部563に記憶させる。配信制御部552は、固定情報又は変動情報が車両1から要求された場合、通信部551及びネットワーク313を介して、固定情報又は変動情報を要求元の車両1に送信する。
【0264】
配信制御部552は、高精細リアルタイム情報が車両1から要求された場合、3次元イベントモデル及び車両1から受信した制御情報を映像生成部364に供給し、音声情報をリアルタイム情報生成部365に供給する。映像生成部364は、3次元イベントモデル及び制御情報に基づいて、高精細映像情報を生成し、リアルタイム情報生成部365に供給する。リアルタイム情報生成部365は、高精細映像情報及び音声情報を含む高精細リアルタイム情報を生成し、配信制御部552に供給する。配信制御部552は、通信部551及びネットワーク313を介して、高精細リアルタイム情報を要求元の車両1に送信する。
【0265】
配信制御部552は、低容量リアルタイム情報が車両1から要求された場合、3次元イベントモデルを映像生成部364に供給し、音声情報をリアルタイム情報生成部365に供給する。映像生成部364は、3次元イベントモデルに基づいて、低容量映像情報を生成し、リアルタイム情報生成部365に供給する。リアルタイム情報生成部365は、低容量映像情報及び音声情報を含む低容量リアルタイム情報を生成し、配信制御部552に供給する。配信制御部552は、通信部551及びネットワーク313を介して、低容量リアルタイム情報を要求元の車両1に送信する。
【0266】
以上のように、高精細リアルタイム情報及び低容量リアルタイム情報の生成に係るレンダリング処理は、各サーバ512で実行される。
【0267】
ここで、各車両1の情報取得部412は、より近いサーバ512、例えば、各車両1の通信部22が接続している無線基地局からより近いサーバ512に、高精細リアルタイム情報を優先的に要求し、当該サーバ512から高精細リアルタイム情報を受信する。これにより、高精細リアルタイム情報に基づいてコンテンツを再生する場合のMotion-to-Photon Latencyが短縮される。
【0268】
なお、車両1が走行している場合、通信部22が接続する無線基地局が切り替わるのに伴い、車両1に最も近いサーバ512も切り替わる。これに対して、例えば、車両1の情報取得部412は、次に最も近くなるサーバ512を予測し、予測したサーバ512に高精細リアルタイム情報の配信を予約するようにしてもよい。これにより、通信部22が接続する無線基地局の切り替えに合わせて、各サーバ512からよりスムーズに高精細リアルタイム情報が配信されるようになる。その結果、Motion-to-Photon Latencyがより短縮される。
【0269】
<<5.変形例>>
以下、上述した本技術の実施の形態の変形例について説明する。
【0270】
例えば、車両1の情報取得部412は、事前に固定情報を取得していない場合、低容量リアルタイム情報に基づいてコンテンツを再生しながら、固定情報をサーバ群311から受信するようにしてもよい。そして、情報取得部412は、固定情報の受信が完了した時点で、車両1の移動状態に応じて、高精細リアルタイム情報をサーバ群311に要求するようにしてもよい。
【0271】
以上の説明では、表示部452を備えコンテンツを再生する情報処理端末312と、車両1とが分かれている例を示したが、例えば、本技術は、車両1が備える装置(例えば、HMI31が備える装置)がコンテンツを再生する場合にも適用することができる。
【0272】
例えば、サーバ群311が、車両1からの要求によらずに、車両1の移動状態に基づいて、車両1に送信する情報(例えば、高精細リアルタイム情報、低容量リアルタイム情報、又は、変動情報)を選択して、送信するようにしてもよい。この場合、例えば、車両1は、移動状態の検出結果、又は、移動状態の検出に用いるセンサデータ等をサーバ群311に送信する。
【0273】
本技術を適用可能なイベントの種類は特に限定されない。
【0274】
本技術は、ライブストリーミング方式以外のストリーミング方式でコンテンツを配信及び再生する場合も適用することができる。例えば、本技術は、オンデマンド型のコンテンツをストリーミング方式で配信及び再生する場合にも適用することができる。
【0275】
本技術は、車両以外にも、ユーザが搭乗しコンテンツを視聴可能な移動体に適用することができる。例えば、本技術は、列車、船舶等にも適用できる。
【0276】
<<6.その他>>
<コンピュータの構成例>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
【0277】
図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
【0278】
コンピュータ1000において、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
【0279】
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、及びドライブ1010が接続されている。
【0280】
入力部1006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
【0281】
以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記憶部1008に記録されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
【0282】
コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
【0283】
コンピュータ1000では、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
【0284】
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
【0285】
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
【0286】
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
【0287】
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
【0288】
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
【0289】
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
【0290】
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
【0291】
(1)
移動体の移動状態に基づいて、ユーザが前記移動体内で視聴するコンテンツの映像を示す第1の映像情報、又は、前記コンテンツに応じて変動する情報である変動情報を選択して、1以上のサーバを含むサーバ群から受信する情報取得部と、
前記コンテンツにおいて固定されており、予め取得されている情報である固定情報、及び、前記変動情報に基づいて、前記コンテンツの映像を示す第2の映像情報を生成する映像生成部と、
前記第1の映像情報及び前記第2の映像情報の表示部への出力を制御する出力制御部と
を備える情報処理装置。
(2)
前記移動状態は、前記移動体が移動している場所、前記移動体の周囲の状態、及び、前記移動体の状態のうち少なくとも1つを含む
前記(1)に記載の情報処理装置。
(3)
前記情報取得部は、前記移動体が停止している場合、又は、前記移動体が所定の場所を移動している場合、前記第1の映像情報を前記サーバ群から受信し、前記移動体が前記所定の場所以外の場所を移動している場合、前記変動情報を前記サーバ群から受信する
前記(2)に記載の情報処理装置。
(4)
前記情報取得部は、前記コンテンツの配信が開始される前に、前記移動体が停止している間に、前記固定情報を前記サーバ群から受信する
前記(3)に記載の情報処理装置。
(5)
前記移動体は、車両であり、
前記所定の場所は、自動車専用の道路である
前記(3)又は(4)に記載の情報処理装置。
(6)
前記情報取得部は、前記車両が停止している場合、又は、前記車両が自動車専用の道路を所定の速度以上で走行している場合、前記第1の映像情報を前記サーバ群から受信し、前記車両が自動車専用の道路以外の場所を走行している場合、又は、前記車両が前記所定の速度未満で走行している場合、前記変動情報を前記サーバ群から受信する
前記(5)に記載の情報処理装置。
(7)
前記出力制御部は、前記情報取得部が前記第1の映像情報を受信した場合、前記第1の映像情報を前記表示部に出力し、前記情報取得部が前記変動情報を受信した場合、前記第2の映像情報を前記表示部に出力する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記コンテンツは、イベントの自由視点映像を含む
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記情報取得部は、前記ユーザの視界に関する情報を含む制御情報を前記サーバ群に送信し、前記イベントの各シーンを表す第1の3次元モデルから前記制御情報に基づいて生成された前記第1の映像情報を前記サーバ群から受信する
前記(8)に記載の情報処理装置。
(10)
前記映像生成部は、前記イベントの各シーンを表し、前記固定情報及び前記変動情報に基づく第2の3次元モデルから前記制御情報に基づいて前記第2の映像情報を生成する
前記(9)に記載の情報処理装置。
(11)
前記固定情報は、前記イベントが行われる場所に関する情報、前記イベントの演者の外観に関する情報、前記イベントの演出の企画に関する情報、及び、前記イベントの観客の外観に関する情報のうち少なくとも1つを含み、
前記変動情報は、前記演者の動きに関する情報、前記演出の動きに関する情報、及び、前記観客の動きに関する情報のうち少なくとも1つを含む
前記(8)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記表示部は、自由視点映像を表示可能である
前記(8)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記表示部は、ヘッドマウントディスプレイを含む
前記(12)に記載の情報処理装置。
(14)
前記コンテンツは、ライブストリーミング配信される
前記(1)乃至(13)のいずれかに記載の情報処理装置。
(15)
前記第1の映像情報の方が前記第2の映像情報より高精細である
前記(1)乃至(14)のいずれかに記載の情報処理装置。
(16)
前記移動状態を検出する状態検出部を
さらに備える前記(1)乃至(15)のいずれかに記載の情報処理装置。
(17)
前記表示部は、外部に設けられる
さらに備える前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
前記表示部を
さらに備える前記(1)乃至(17)のいずれかに記載の情報処理装置。
(19)
前記情報取得部は、前記サーバ群のうち前記移動体により近い前記サーバから優先的に前記第1の映像情報を受信する
前記(1)乃至(18)のいずれかに記載の情報処理装置。
(20)
情報処理装置が、
移動体の移動状態に基づいて、ユーザが前記移動体内で視聴するコンテンツの映像を示す第1の映像情報、又は、前記コンテンツに応じて変動する情報である変動情報を選択して、1以上のサーバを含むサーバ群から受信し、
前記第1の映像情報を受信した場合、前記第1の映像情報を表示部に出力し、
前記変動情報を受信した場合、前記コンテンツにおいて固定されており、予め取得されている情報である固定情報、及び、前記変動情報に基づいて、前記コンテンツの映像を示す第2の映像情報を生成し、前記第2の映像情報を前記表示部に出力する
情報処理方法。
【0292】
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
【符号の説明】
【0293】
1 車両, 301 情報処理システム, 311 サーバ群, 312-1乃至312-n 情報処理端末, 351 データ取得部, 352 コンテンツ情報生成部, 353 配信制御部, 354 通信部, 361 固定情報生成部, 362 変動情報生成部, 363 3次元モデル生成部, 364 映像生成部, 365 リアルタイム情報生成部, 401 情報処理システム, 411 状態検出部, 412 情報取得部, 413 映像生成部, 414 出力制御部, 451 制御部, 452 表示部, 453 音声出力部, 454 操作部, 455 動作検出部, 456 通信部, 501 情報処理システム, 511 コンテンツ生成部, 512-1乃至512-m サーバ, 552 配信制御部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15