IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ サターン ライセンシング エルエルシーの特許一覧

<>
  • 特許-情報処理装置および情報処理方法 図1
  • 特許-情報処理装置および情報処理方法 図2
  • 特許-情報処理装置および情報処理方法 図3
  • 特許-情報処理装置および情報処理方法 図4
  • 特許-情報処理装置および情報処理方法 図5
  • 特許-情報処理装置および情報処理方法 図6
  • 特許-情報処理装置および情報処理方法 図7
  • 特許-情報処理装置および情報処理方法 図8
  • 特許-情報処理装置および情報処理方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-18
(45)【発行日】2024-07-26
(54)【発明の名称】情報処理装置および情報処理方法
(51)【国際特許分類】
   G06F 3/16 20060101AFI20240719BHJP
   G06F 3/0481 20220101ALI20240719BHJP
   H04S 7/00 20060101ALI20240719BHJP
   G09B 21/00 20060101ALI20240719BHJP
【FI】
G06F3/16 610
G06F3/16 620
G06F3/0481
H04S7/00 300
G09B21/00 D
【請求項の数】 12
(21)【出願番号】P 2022187939
(22)【出願日】2022-11-25
(62)【分割の表示】P 2018567385の分割
【原出願日】2018-01-31
(65)【公開番号】P2023024471
(43)【公開日】2023-02-16
【審査請求日】2022-12-22
(31)【優先権主張番号】P 2017022643
(32)【優先日】2017-02-09
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】316009762
【氏名又は名称】サターン ライセンシング エルエルシー
【氏名又は名称原語表記】Saturn Licensing LLC
【住所又は居所原語表記】25 Madison Avenue New York,NY,USA
(74)【代理人】
【識別番号】100093241
【弁理士】
【氏名又は名称】宮田 正昭
(74)【代理人】
【識別番号】100101801
【弁理士】
【氏名又は名称】山田 英治
(74)【代理人】
【識別番号】100095496
【弁理士】
【氏名又は名称】佐々木 榮二
(74)【代理人】
【識別番号】100086531
【弁理士】
【氏名又は名称】澤田 俊夫
(74)【代理人】
【識別番号】110000763
【氏名又は名称】弁理士法人大同特許事務所
(72)【発明者】
【氏名】塚越 郁夫
【審査官】伊藤 昭治
(56)【参考文献】
【文献】特開2007-086856(JP,A)
【文献】特開2016-053767(JP,A)
【文献】特開2007-052385(JP,A)
【文献】特開2004-271748(JP,A)
【文献】特開2010-074238(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/16
G06F 3/01
G06F 3/03 - 3/0489
G09B 21/00 - 21/06
H04S 7/00
(57)【特許請求の範囲】
【請求項1】
画面に対するユーザのポインティング位置を検出する位置検出処理と、該検出されたポインティング位置に対応した音声を出力する音声出力処理を制御する制御部を備え、
上記音声出力処理では、
上記検出されたポインティング位置が画面上の第1の特定領域に存在する第2の特定領域にある場合、ポインティング位置が上記第2の特定領域にあることを示す音声を、ポインティング位置が上記第1の特定領域にあることおよび上記第1の特定領域に存在し、上記第2の特定領域とは別に選択し得る第3の特定領域の位置を示す音声と同時に、出力し、
上記第1の特定領域は、上記画面上に配置された、特定のアプリケーションを起動させるためのアプリケーションロゴの領域であり、
上記画面は、アプリケーションロゴ領域の外側の領域である背景領域を含み、
上記音声出力処理は、ポインティング位置が背景領域であることを示す音声を出力することを含む
情報処理装置。
【請求項2】
上記音声出力処理では、
上記検出されたポインティング位置が画面上にないとき、ポインティング位置が画面外にあることを示す音声を出力する
請求項1に記載の情報処理装置。
【請求項3】
上記音声出力処理では、
上記検出されたポインティング位置に対応した位置を音像位置とする処理をする
請求項1または2に記載の情報処理装置。
【請求項4】
上記音声出力処理では、
上記検出されたポインティング位置に対応した位置を音像位置とするために、該ポインティング位置に対応したオブジェクトメタデータに応じたレンダリング処理をする
請求項3に記載の情報処理装置。
【請求項5】
上記音声出力処理では、
画面上の位置に関連して予め用意されているオブジェクトメタデータに応じたレンダリング処理をする
請求項4に記載の情報処理装置。
【請求項6】
上記音声出力処理では、
上記検出されたポインティング位置から求められたオブジェクトメタデータに応じたレンダリング処理をする
請求項4に記載の情報処理装置。
【請求項7】
画面に対するユーザのポインティング位置を検出する位置検出ステップと、
上記検出されたポインティング位置に対応した音声を出力する音声出力処理を行う音声出力ステップを有し、
上記音声出力処理では、
上記検出されたポインティング位置が画面上の第1の特定領域に存在する第2の特定領域にある場合、ポインティング位置が上記第2の特定領域にあることを示す音声を、ポインティング位置が上記第1の特定領域にあることおよび上記第1の特定領域に存在し、上記第2の特定領域とは別に選択し得る第3の特定領域の位置を示す音声と同時に、出力し、
上記第1の特定領域は、上記画面上に配置された、特定のアプリケーションを起動させるためのアプリケーションロゴの領域であり、
上記画面は、アプリケーションロゴ領域の外側の領域である背景領域を含み、
上記音声出力処理は、ポインティング位置が背景領域であることを示す音声を出力することを含む
情報処理方法。
【請求項8】
上記音声出力処理では、
上記検出されたポインティング位置が画面上にないとき、ポインティング位置が画面外にあることを示す音声を出力する
請求項7に記載の情報処理方法。
【請求項9】
上記音声出力処理では、
上記検出されたポインティング位置が画面上にないとき、ポインティング位置の画面外のはみ出しが画面の上側、下側、左側または右側で、異なる音声を出力する
請求項8に記載の情報処理方法。
【請求項10】
画面を表示する表示部と、
上記画面上の任意の位置をユーザがポイントするユーザ操作部と、
上記画面に対するユーザのポインティング位置を検出する位置検出部と、
上記検出されたポインティング位置に対応した音声を出力する音声出力処理を行う音声出力部を備え、
上記音声出力処理では、
上記検出されたポインティング位置が画面上の第1の特定領域に存在する第2の特定領域にある場合、ポインティング位置が上記第2の特定領域にあることを示す音声を、ポインティング位置が上記第1の特定領域にあることおよび上記第1の特定領域に存在し、上記第2の特定領域とは別に選択し得る第3の特定領域の位置を示す音声と同時に、出力し、
上記第1の特定領域は、上記画面上に配置された、特定のアプリケーションを起動させるためのアプリケーションロゴの領域であり、
上記画面は、アプリケーションロゴ領域の外側の領域である背景領域を含み、
上記音声出力処理は、ポインティング位置が背景領域であることを示す音声を出力することを含む
情報処理装置。
【請求項11】
上記音声出力処理では、
上記検出されたポインティング位置が画面上にないとき、ポインティング位置が画面外にあることを示す音声を出力する
請求項10に記載の情報処理装置。
【請求項12】
上記音声出力処理では、
上記検出されたポインティング位置が画面上にないとき、ポインティング位置の画面外のはみ出しが画面の上側、下側、左側または右側で、異なる音声を出力する
請求項11に記載の情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本技術は、情報処理装置および情報処理方法に関し、特に、ユーザが画面上の所望の位置をポイントして操作を行い得る情報処理装置等に関する。
【背景技術】
【0002】
従来、例えば、特許文献1には、ユーザが画面上の所望の位置をポイントして操作を行い得る情報処理装置が提案されている。この種の情報処理装置では、視覚健常者にとっては、画面上の表示に基づいて所望の位置をポイントして操作を容易に行い得る。しかし、視覚障害者においては、画面上の所望の位置をポイントして操作を行うことは、非常に困難である。
【0003】
また、例えば、特許文献2には、立体(3D)音響技術として、オブジェクト音源のオーディオデータをその位置情報に基づいて任意の位置に存在するスピーカにマッピングする3Dオーディオレンダリングの技術が記載されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2014-044268号公報
【文献】特表2014-520491号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
本技術の目的は、視覚障害者が画面上の所望の位置をポイントして操作を行うことを容易とすることにある。
【課題を解決するための手段】
【0006】
本技術の概念は、
画面に対するユーザのポインティング位置を検出する位置検出処理と、該検出されたポインティング位置に対応した音声を出力する音声出力処理を制御する制御部を備える
情報処理装置にある。
【0007】
本技術において、位置検出処理により、画面に対するユーザのポインティング位置が検出される。そして、音声出力処理により、検出されたポインティング位置に対応した音声が出力される。例えば、画面は表示部に表示され、ユーザ操作部からのユーザ操作により画面上の任意の位置がポイントされる。
【0008】
例えば、音声出力処理では、検出されたポインティング位置が画面上の特定領域にあるとき、このポインティング位置が特定領域であることを示す音声を出力する、ようにされてもよい。この場合、例えば、特定の領域は、画面上に配置された特定のアプリケーションを起動させるためのアプリケーションロゴの領域である、ようにされてもよい。
【0009】
また、例えば、音声出力処理では、検出されたポインティング位置が画面上にないとき、このポインティング位置が画面外にあることを示す音声を出力する、ようにされてもよい。また、例えば、音声出力処理では、検出されたポインティング位置が画面上の第1の特定領域内に存在する第2の特定領域にあるとき、このポインティング位置が第1の特定領域であることを示す音声を出力すると同時に、このポインティング位置が第2の特定領域であることを示す音声を出力する、ようにされてもよい。
【0010】
また、例えば、音声出力処理では、検出されたポインティング位置に対応した位置を音像位置とする処理をする、ようにされてもよい。これにより、ポインティング位置が画面上のどの辺りにあるのかを音声が聞こえる方向から把握可能となる。この場合、例えば、音声出力処理では、検出されたポインティング位置に対応した位置を音像位置とするために、このポインティング位置に対応したオブジェクトメタデータに応じたレンダリング処理をする、ようにされてもよい。
【0011】
この場合、例えば、音声出力処理では、画面上の位置に関連して予め用意されているオブジェクトメタデータに応じたレンダリング処理をする、ようにされてもよい。また、この場合、例えば、音声出力処理では、検出されたポインティング位置から求められたオブジェクトメタデータに応じたレンダリング処理をする、ようにされてもよい。
【0012】
このように本技術においては、ポインティング位置に対応した音声を出力するものである。そのため、視覚障害者が画面上の所望の位置をポイントして操作を行うことが容易となる。
【発明の効果】
【0013】
本技術によれば、視覚障害者が画面上の所望の位置をポイントして操作を行うことを容易とできる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
【図面の簡単な説明】
【0014】
図1】実施の形態としての情報処理装置の構成例を示すブロック図である。
図2】画面構成の一例を示す図である。
図3】ポインティング位置P(x,y)が背景の領域にある場合を説明するための図である。
図4】表示インタラクティブ処理部でポインティング位置P(x,y)の情報から算出する位置情報(θ,φ,r)の各要素を模式的に示す図である。
図5】オブジェクトレンダラにおけるレンダリング処理の概要を示す図である。
図6】ポインティング位置P(x,y)がアプリケーションロゴの領域にある場合を説明するための図である。
図7】アプリケーションロゴの矩形領域のオブジェクト・ポジションの奥行方向の位置関係を説明するための図である。
図8】ロゴ・リージョンの中に選択し得るボタンが存在する場合を説明するための図である。
図9】ポインティング位置P(x,y)が画面外にある場合を説明するための図である
【発明を実施するための形態】
【0015】
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
【0016】
<1.実施の形態>
[情報処理装置の構成例]
図1は、実施の形態としての情報処理装置100の構成例を示している。この情報処理装置100は、例えば、インターネット等のネット上にあるサーバにアクセスして所望の情報を取得してユーザに提示するものである。
【0017】
情報処理装置100は、CPU(Central Processing Unit)101と、ユーザ操作部102を有している。また、情報処理装置100は、通信インタフェース111と、画像処理部112と、OSD(On Screen Display)部113と、パネル駆動部114と、表示パネル115を有している。また、情報処理処置100は、オブジェクトレンダラ121と、表示インタラクティブ処理部122と、ミキサ123と、音声出力処理部124と、スピーカシステム125を有している。
【0018】
CPU101は、情報処理装置100の各部の動作を制御する。ユーザ操作部102は、ユーザが種々の操作を行うためのユーザインタフェースであり、CPU101に接続されている。このユーザ操作部102は、キーボード、タッチパネルなどの他に、画面上の任意の位置をポイントして操作を行うためのポインティングデバイス、例えばマウスなども含んでいる。
【0019】
通信インタフェース111は、インターネット等のネット上にあるサーバにアクセスして、情報提示のための画像データVDや音声データADを取得する。なお、図示は省略しているが、通信インタフェース111はデコード機能も備えるものであり、通信により取得された画像や音声の符号化データのデコードもここで行われている。また、通信インタフェース111は、表示画像に関連付けされたアプリケーションの情報、さらにはユーザ操作によるポインティング位置に対応した音声を出力するための情報なども取得し、CPU101に送る。アプリケーションの情報には、このアプリケーションを起動させるためのアプリケーションロゴ(ショートカット)を画面上のどの位置に配置するかを示す表示位置情報も含まれる。
【0020】
画像処理部112は、通信インタフェース111で取得された画像データVDに対してスケーリング処理、画質調整処理などを行って表示用画像データを得る。OSD部113は、CPU101の制御のもと、GUI(Graphical User Interface)表示信号を発生する。このGUI表示信号には、アプリケーションを起動させるためのアプリケーションロゴ(ショートカット)を表示するための表示信号、ポインティング位置を示す矢印を表示するための表示信号等が含まれる。このGUI表示信号は、画像処理部112に送られ、画像データに重畳される。
【0021】
パネル駆動回路114は、画像処理部114で得られる表示用画像データに基づいて、表示パネル115を駆動する。表示パネル115は、例えば、LCD(Liquid Crystal Display)、有機ELディスプレイ(organic electroluminescence display)などで構成されている。
【0022】
ミキサ123は、通信インタフェース111で取得された音声データ(音声チャネルデータ)ADや、情報処理装置100内部で発生した音声データと、オブジェクトレンダラ121で得られたポインティング位置に対応した音声を出力するための音声チャネルデータを合成する。音声出力処理部124は、ミキサ123で得られた音声チャネルデータに対してD/A変換や増幅等の必要な処理を行ってスピーカシステム125に供給する。スピーカシステム125は、複数チャネル、この実施の形態では画面のトップレフト(TL)、ボトムレフト(BL)、トップライト(TR)、ボトムライト(BR)のそれぞれの位置に配置される4チャネルのスピーカを備える。
【0023】
通信インタフェース111は、上述したように、ユーザ操作によるポインティング位置に対応した音声を出力するための情報を取得してCPU101に送る。この情報には、画面に対するユーザのポインティング位置に応じた音声出力のための音声データが含まれる。
【0024】
このユーザのポインティング位置に応じた音声出力のための音声データとして、ポインティング位置が画面上に配置されたアプリケーションロゴ(ショートカット)の矩形領域(ロゴ・リージョン)にある場合に使用する音声データSA2が含まれる。この音声データSA2は、画面上に配置されたアプリケーションロゴの種類分だけ存在する。この音声データSA2には、アプリケーションロゴ(ショートカット)の画面上の配置位置に対応した位置を音像位置、つまりオブジェクト・ポジション(object position)とする音声チャネルデータを得るためのレンダリング処理で用いられるオブジェクトメタデータが付随している。
【0025】
また、ユーザのポインティング位置に応じた音声出力のための音声データとして、ポインティング位置が画面上であるがアプリケーションロゴの矩形領域でない背景領域にある場合に使用する音声データSA1が含まれる。さらに、ユーザのポインティング位置に応じた音声出力のための音声データとして、ポインティング位置が画面外にある場合の音声データSA3が含まれる。なお、この音声データSA3は、1種類だけではなく、例えばはみ出した方向に応じた複数種類、例えば上下左右の4種類が存在する。
【0026】
図2は、画面構成の一例を示している。図示の例において、黒の太い実線の矩形枠は表示パネル115の画面枠を示している。この画面枠の背面側には、4分割されたそれぞれの位置に対応した音声出力モジュール(スピーカ)が配されている。この音声出力モジュールは、表示パネル115自体で構成され、画面と一体となっているものも含まれる。
【0027】
画面上には、背景上に丸1~丸5を付して示している特定のアプリケーションを起動させるためのアプリケーションロゴの矩形領域が存在する。この矩形領域内にはアプリケーションロゴ(ショートカットなど)が表示されている(図2においてロゴ表示は省略している)。
【0028】
白抜きの矢印は、例えばマウスカーソルであって、ユーザ操作によるポインティング位置を示している。ポインティング位置がアプリケーションロゴの矩形領域内にあるとき、その矩形領域はハイライト状態となる。図示の例では、ポインティング位置が丸1の矩形領域内にあるので、その矩形領域がハイライト状態となっている。
【0029】
また、図示の例において、「Top-Bottom」と「Left-Right」の一点鎖線の交点がセンター位置(O)で基準点となっており、この基準点に対して上下左右のオフセットにより、ポインティング位置が現在どこにあるかということがわかるようになっている。このポインティング位置はユーザ操作部102からのユーザ操作により移動するものであり、CPU101は、ポインティング位置を常に把握している。センター位置(O)はポインティング位置検出の際に画面との位置関係を決定する際の基準として設けるもので、表示インタラクティブ処理部122で、位置の検出結果をオブジェクト位置情報(θ,φ,r)に変換する際に、視聴者の位置からみたポインティング位置の情報を音場再生するベクトルの位置座標とする。
【0030】
「1.ポインティング位置P(x,y)が背景の領域にある場合」
図3(a)は、ポインティング位置P(x,y)が背景の領域にある状態を示している。CPU101は、上述したようにポインティング位置P(x,y)を常に把握している。また、CPU101は、各アプリケーションロゴの表示信号の発生を制御していることから、画面上における各アプリケーションロゴの矩形領域も把握している。この場合、CPU101は、ポインティング位置P(x,y)が各アプリケーションロゴの矩形領域にはなく、背景領域にあることを認識する。
【0031】
この場合、CPU101は、ポインティング位置P(x,y)が画面上であるがアプリケーションロゴの領域でない背景領域にあることを示すための音声出力を行うために、上述の音声データSA1を用いることを決定し、オブジェクトレンダラ121に、音声データSA1(BG sound)を送る(図3(b)参照)。また、この場合、CPU101は、ポインティング位置P(x,y)を、音像位置、つまりオブジェクト・ポジション(object position)とすることに決定する。この例では、オブジェクト・ポジションは、画面上の右上(High & Right)の位置となる(図3(b)参照)。
【0032】
この場合、CPU101は、表示インタラクティブ処理部122に、ポインティング位置P(x,y)の情報を送る。表示インタラクティブ処理部122は、このポインティング位置P(x,y)の情報に基づいて、オブジェクトメタデータを構成する位置情報(θ,φ,r)を求める。ここで、θはアジマス(Azimuth)であり、φはエレベーション(Elevation)であり、rはラジアス(Radius)である。
【0033】
図4は、表示インタラクティブ処理部122でポインティング位置P(x,y)の情報から算出する位置情報(θ,φ,r)の各要素を模式的に示している。rは、視聴位置からの距離を示すもので、センサーなどの実測値を適用することも可能である。あるいは、実測値の代わりに、図示のように、標準視聴距離とされるものを代用して、それにθから導き出されるアングルを考慮した距離としてもよい。ここで、標準視聴距離は、モニタ(表示パネル)の縦方向の大きさの約3倍、UHD(4K)解像度では約1.5倍といわれている。
【0034】
オブジェクトレンダラ121は、音声データSA1(BG sound)に対して、表示インタラクティブ処理部122で算出されたオブジェクトメタデータを用いたレンダリング処理を行って、ポインティング位置P(x,y)に対応した位置をオブジェクト・ポジションとするための音声チャネルデータを生成する。
【0035】
図5は、オブジェクトレンダラ121におけるレンダリング処理の概要を示している。このレンダリング処理では、3つのスピーカで構成される三角形領域(TL-BL-BR)と(TR-BL-BR)の各々において、オブジェクトデータを構成する位置情報(θ,φ,r)を利用して三角形領域を合成して仮想音像P(x,y)の位置を定めるようにする。
【0036】
P(x,y)の位置は、図示のようにr,φ,θで表現されるもので、点Qから各スピーカ位置へ伸ばした軸Q-TL,Q-BL,Q-TR,Q-BR上のベクトルr_TL,r_BL,r_TR,r-BRに射影する。この場合、三角領域TL-BL-BRにおいて、P(x,y)の位置は(r_TL,r_BL,r_BR) に射影される。この3つのベクトルのベクトル量に相当する音圧を各スピーカへのチャンネルデータにあてる。
【0037】
一方、三角領域TR-BL-BRにおいて、P(x,y)の位置は(r_TR,r_BL,r_BR) に射影される。この3つのベクトルのベクトル量に相当する音圧を各スピーカへのチャンネルデータにあてる。2つの三角領域の間で、個々のベクトルごとに射影されたベクトル量を合成することで4つのスピーカから出力される合成された音声出力が得られる。
【0038】
オブジェクトレンダラ121は、上述のレンダリング処理で得られた音声チャネルデータをミキサ123に送る。これにより、スピーカシステム125からはポインティング位置P(x,y)が背景領域にあることを示す音声出力がなされる。そのため、ユーザは、ポインティング位置P(x,y)が背景領域にあることを音声で知ることができる。
【0039】
また、その音像位置、つまりオブジェクト・ポジションは、ポインティング位置P(x,y)に対応した位置となる。図3の例では、オブジェクト・ポジションは画面上の右上(High & Right)の位置となる。そのため、ユーザは音声が聞こえる方向でもってポインティング位置の画面上におけるおおよその位置を知ることが可能となる。
【0040】
「2.ポインティング位置P(x,y)がアプリケーションロゴの領域にある場合」
図6(a)は、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にある状態を示している。CPU101は、上述したようにポインティング位置P(x,y)を常に把握している。また、CPU101は、各アプリケーションロゴの表示信号の発生を制御していることから、画面上における各アプリケーションロゴの矩形領域も把握している。この場合、CPU101は、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあることを認識する。
【0041】
この場合、CPU101は、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあることを示すための音声出力を行うために、上述の音声データSA2を用いることを決定し、オブジェクトレンダラ121に、音声データSA2(丸1 sound)を送る(図6(b)参照)。
【0042】
また、CPU101は、ポインティング位置P(x,y)に対応した位置を、音声出力位置、つまりオブジェクト・ポジション(object position)とすることを決定する。この例では、オブジェクト・ポジションは、画面上の右下(Low & Right)の位置とされる(図6(b)参照)。この場合、CPU101は、音声データSA2(丸1 sound)に付随しているオブジェクトメタデータをオブジェクトレンダラ121に送る。このオブジェクトメタデータは、オブジェクト・ポジションが画面上の右下(Low & Right)の位置となるように設定されている。
【0043】
因みに、音声データSA2(丸2 sound)に付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の中央(Center)の位置となるように設定されている。また、音声データSA2(丸3 sound)に付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の左上(High & Left)の位置となるように設定されている。
【0044】
また、音声データSA2(丸4 sound)に付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の左中央(Center & Left)の位置となるように設定されている。さらに、音声データSA2(丸5 sound)に付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の左下(Low & Left)の位置となるように設定されている。
【0045】
なお、この場合、オブジェクトメタデータのrの値を制御することで、空間的にオーバーラップするアプリケーションロゴの矩形領域のオブジェクト・ポジションの奥行方向の位置関係を表現することが可能となる。
【0046】
図7を用いて、丸1のアプリケーションロゴの矩形領域が丸2のアプリケーションロゴの矩形領域より手前に配置される場合を考える。この場合、(ベクトルr(丸1)の大きさ)<(ベクトルr(丸2)の大きさ)の関係を満たすようにする。このようにオブジェクトメタデータのrの値を設定することで、ポインティング位置がP1(x,y)で丸1のアプリケーションロゴの矩形領域にあるときと、ポインティング位置がP2(x,y)で丸2のアプリケーションロゴの矩形領域にあるときとで、丸1のアプリケーションロゴの矩形領域が丸2のアプリケーションロゴの矩形領域より手前にあることを音声で検知できるようになる。
【0047】
ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあるとき、オブジェクトレンダラ121は、音声データSA2(丸1 sound)に対して、それに付随しているオブジェクトメタデータを用いたレンダリング処理を行って、ポインティング位置P(x,y)が存在する丸1のアプリケーションロゴの矩形領域に対応した位置をオブジェクト・ポジションとするための音声チャネルデータを生成する。このオブジェクトレンダラ121におけるレンダリング処理の説明については上述の図5を用いた説明と同様であるので、ここでは省略する。
【0048】
オブジェクトレンダラ121は、レンダリング処理で得られた音声チャネルデータをミキサ123に送る。これにより、スピーカシステム125からはポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあることを示す音声出力がなされる。そのため、ユーザは、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にあることを音声で知ることができる。
【0049】
また、その音像位置、つまりオブジェクト・ポジションは、丸1のアプリケーションロゴの矩形領域に対応した位置となる。図6の例では、オブジェクト・ポジションは画面上の右下(Low & Right)の位置となる。そのため、ユーザは音声の聞こえる方向でもって丸1のアプリケーションロゴの矩形領域の画面上におけるおおよその位置を知ることが可能となる。
【0050】
なお、上述では、ポインティング位置P(x,y)が丸1のアプリケーションロゴの矩形領域にある状態を説明した。詳細説明は省略するが、ポインティング位置P(x,y)がその他のアプリケーションロゴの領域にある状態においても同様である。また、上述では、レンダリング処理に用いるオブジェクトメタデータとして音声データに付随しているものを用いる例を示したが、ポインティング位置P(x,y)から表示インタラクティブ処理部122で計算したものを用いることも可能である。
【0051】
また、上述では、アプリケーションロゴの矩形領域(ロゴ・リージョン)に選択し得るボタンが存在しない例を説明した。しかし、図8(a),(b)に示すように、ロゴ・リージョン1の中に選択し得るボタンが存在する場合もある。この場合、ポインティング位置P(x,y)が、ロゴ・リージョン1内の所定のボタンの領域にある状態では、上述したようにポインティング位置P(x,y)がロゴ・リージョン1にあることを示す音声を出力し、同時に、ポインティング位置P(x,y)がこの所定のボタンの領域にあることを示す音声を出力するようにされる。
【0052】
図示の例の場合、通信インタフェース111(図1参照)は、ロゴ・リージョン1に関連した音声出力情報を取得する。この音声出力情報には、ポインティング位置がロゴ・リージョン1にあることを示す音声出力のための音声データと、これに付随したオブジェクトメタデータが含まれる他に、ボタン毎に、ポインティング位置がそのボタン領域にあることを示す音声出力のための音声データと、これに付随したオブジェクトメタデータが含まれる。
【0053】
例えば、ロゴ・リージョン1の音声データに付随しているオブジェクトメタデータは、オブジェクト・ポジションが画面上の右下(Low & Right)の位置となるように設定されている。また、「シーンA」、「シーンB」、「シーンC」、「シーンD」のボタン領域の音声データに付随しているオブジェクトメタデータは、それぞれ、オブジェクト・ポジションが画面上の左上(High & Left)、右上(High & Right)、左下(Low & Left)、右下(Low & Right)の位置となるように設定されている。
【0054】
図示のように、ポインティング位置P(x,y)が「シーンA」のボタン領域にある状態では、CPU101は、オブジェクトレンダラ121(図1参照)に、ロゴ・リージョン1の音声データと、それに付随したオブジェクトメタデータを送ると共に、「シーンA」のボタン領域の音声データと、それに付随したオブジェクトメタデータを送る。
【0055】
オブジェクトレンダラ121は、音声データに対してオジェクトメタデータを用いたレンダリング処理を行って、ロゴ・リージョン1に対応した位置、ここでは画面上の右下(Low & Right)の位置をオブジェクト・ポジションとするための音声チャネルデータを生成して、ミキサ123(図1参照)に送る。
【0056】
これにより、スピーカシステム125からは、ロゴ・リージョン1にあることを示す音声、例えば「ロゴ・リージョン1です」の音声が出力される。この場合、その音像位置、つまりオブジェクト・ポジションは、図8(a)に示すように、画面上の右下(Low & Right)の位置となる。
【0057】
また、図示のように、ポインティング位置P(x,y)が「シーンA」のボタン領域にある状態では、CPU101は、オブジェクトレンダラ121(図1参照)に、「シーンA」のボタン領域の音声データと、それに付随したオブジェクトメタデータを送る。
【0058】
オブジェクトレンダラ121は、音声データに対してオジェクトメタデータを用いたレンダリング処理を行って、「シーンA」のボタン領域に対応した位置、ここでは画面上の左上(High & Left)の位置をオブジェクト・ポジションとするための音声チャネルデータを生成して、上述のロゴ・リージョン1の音声チャネルデータに合成してミキサ123(図1参照)に送る。
【0059】
これにより、スピーカシステム125からは、上述のロゴ・リージョン1にあることを示す音声と同時に、「シーンA」のボタン領域にあることを示す音声、例えば「ロゴ・リージョン1内のシーンAです。右や下に他のボタンが選択できます」の音声が出力される。この場合、その音像位置、つまりオブジェクト・ポジションは、図8(a)に示すように、ボタン同士の相対位置関係が把握できるよう、画面上の左上(High & Left)の位置となる。
【0060】
なお、詳細説明は省略するが、ポインティング位置P(x,y)が他のボタン領域にある状態においても同様の処理がなされ、ロゴ・リージョン1にあることを示す音声と、そのボタン領域にあることを示す音声がそれぞれ設定されたオブジェクト・ポジションで同時に出力される。
【0061】
「3.ポインティング位置P(x,y)が画面外にある場合」
図9は、ポインティング位置P(x,y)が画面外、この例では画面の右側にある状態を示している。CPU101は、上述したようにポインティング位置P(x,y)を常に把握している。この場合、CPU101は、ポインティング位置P(x,y)が画面の右側にはみ出していることを認識する。
【0062】
この場合、CPU101は、ポインティング位置P(x,y)が面の右側にはみ出していることを示すための音声出力を行うために、上述の音声データSA3を用いることを決定し、オブジェクトレンダラ121に、その音声データSA3(OUT sound)を送る。また、この場合、CPU101は、ポインティング位置P(x,y)を、音像位置、つまりオブジェクト・ポジション(object position)とすることに決定する。この例では、オブジェクト・ポジションは、画面に対して右上にはみ出した位置となる。
【0063】
この場合、CPU101は、表示インタラクティブ処理部122に、ポインティング位置P(x,y)の情報を送る。表示インタラクティブ処理部122は、このポインティング位置P(x,y)の情報に基づいて、オブジェクトメタデータを構成する位置情報(θ,φ,r)を求める。この位置情報(θ,φ,r)の詳細説明については上述の図4を用いた説明と同様であるので、ここでは省略する。
【0064】
オブジェクトレンダラ121は、音声データSA3(OUT sound)に対して、表示インタラクティブ処理部122で算出されたオブジェクトメタデータを用いたレンダリング処理を行って、ポインティング位置P(x,y)に対応した位置をオブジェクト・ポジションとするための音声チャネルデータを生成する。このオブジェクトレンダラ121におけるレンダリング処理の説明については上述の図5を用いた説明と同様であるので、ここでは省略する。
【0065】
オブジェクトレンダラ121は、レンダリング処理で得られた音声チャネルデータをミキサ123に送る。これにより、スピーカシステム125からはポインティング位置P(x,y)が画面外にあること、ここでは右側にはみ出していることを示す音声、例えば「画面の右にはみ出ました」の音声が出力される。そのため、ユーザは、ポインティング位置P(x,y)が画面の右側はみ出していることを音声で知ることができる。
【0066】
また、その音像位置、つまりオブジェクト・ポジションは、ポインティング位置P(x,y)に対応した位置となる。図9の例では、オブジェクト・ポジションは画面に対して右上にはみ出した位置となる。そのため、ユーザは音声が聞こえる方向でもってポインティング位置の画面に対するおおよその位置を知ることが可能となる。
【0067】
上述したように、図1に示す情報処理装置100においては、ポインティング位置P(x,y)が背景、アプリケーションロゴの矩形領域、画面外などの位置にある場合、その位置に対応した音声を出力する。そのため、視覚障害者は、この音声出力による支援を受けて、画面上の所望の位置をポイントして操作を行うことが容易となる。
【0068】
また、図1に示す情報処理装置100においては、ポインティング位置P(x,y)に対応した音声を出力する際の音像位置(オブジェクト・ポジション)を、そのポインティング位置P(x,y)に対応した位置とするものである。そのため、ポインティング位置が画面上のどの辺りにあるのか音声が聞こえる方向から把握可能となる。
【0069】
<2.変形例>
なお、上述実施の形態においては、画面上に特定のアプリケーションを起動させるためのアプリケーションロゴ(ショートカット)の矩形領域が配置された例を示した。画面上に配置される領域はこれに限定されるものではなく、ユーザがポインティングして操作をし得るその他の領域であってもよい。例えば、コンテンツを再生する装置において、再生コンテンツを選択するためのロゴ領域などであってもよい。
【0070】
また、本技術は、以下のような構成を取ることもできる。
(1)画面に対するユーザのポインティング位置を検出する位置検出処理と、該検出されたポインティング位置に対応した音声を出力する音声出力処理を制御する制御部を備える
情報処理装置。
(2)上記音声出力処理では、
上記検出されたポインティング位置が画面上の特定領域にあるとき、該ポインティング位置が上記特定領域であることを示す音声を出力する
前記(1)に記載の情報処理装置。
(3)上記特定の領域は、上記画面上に配置された特定のアプリケーションを起動させるためのアプリケーションロゴの領域である
前記(2)に記載の情報処理装置。
(4)上記音声出力処理では、
上記検出されたポインティング位置が画面上にないとき、該ポインティング位置が画面外にあることを示す音声を出力する
前記(1)から(3)のいずれかに記載の情報処理装置。
(5)上記音声出力処理では、
上記検出されたポインティング位置が画面上の第1の特定領域内に存在する第2の特定領域にあるとき、該ポインティング位置が上記第1の特定領域であることを示す音声を出力すると同時に、該ポインティング位置が上記第2の特定領域であることを示す音声を出力する
前記(1)に記載の情報処理装置。
(6)上記音声出力処理では、
上記検出されたポインティング位置に対応した位置を音像位置とする処理をする
前記(1)から(5)のいずれかに記載の情報処理装置。
(7)上記音声出力処理では、
上記検出されたポインティング位置に対応した位置を音像位置とするために、該ポインティング位置に対応したオブジェクトメタデータに応じたレンダリング処理をする
前記(6)に記載の情報処理装置。
(8)上記音声出力処理では、
画面上の位置に関連して予め用意されているオブジェクトメタデータに応じたレンダリング処理をする
前記(7)に記載の情報処理装置。
(9)上記音声出力処理では、
上記検出されたポインティング位置から求められたオブジェクトメタデータに応じたレンダリング処理をする
前記(7)に記載の情報処理装置。
(10)画面に対するユーザのポインティング位置を検出する位置検出ステップと、
上記検出されたポインティング位置に対応した音声を出力する音声出力ステップを有する
情報処理方法。
(11)画面を表示する表示部と、
上記画面上の任意の位置をユーザがポイントするユーザ操作部と、
上記画面に対するユーザのポインティング位置を検出する位置検出部と、
上記検出されたポインティング位置に対応した音声を出力する音声出力部を備える
情報処理装置。
【0071】
本技術の主な特徴は、ポインティング位置に対応した音声を出力することで、視覚障害者が画面上の所望の位置をポイントして操作をすることを容易としたことである(図1図3図4図9参照)。また、本技術の主な特徴は、ポインティング位置に対応した音声を出力する際の音像位置を、そのポインティング位置に対応した位置とする処理をすることで、ポインティング位置が画面上のどの辺りにあるのか音声が聞こえる方向から把握可能としたことである(図1図3図4図9参照。
【符号の説明】
【0072】
100・・・情報処理装置
101・・・CPU
102・・・ユーザ操作部
111・・・通信インタフェース
112・・・画像処理部
113・・・OSD部
114・・・パネル駆動部
115・・・表示パネル
121・・・オブジェクトレンダラ
122・・・表示インタラクティブ処理部
123・・・ミキサ
124・・・音声出力処理部
125・・・スピーカシステム
図1
図2
図3
図4
図5
図6
図7
図8
図9