特許第5937202号(P5937202)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ クゥアルコム・インコーポレイテッドの特許一覧

特許5937202モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること
<>
  • 特許5937202-モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること 図000003
  • 特許5937202-モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること 図000004
  • 特許5937202-モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること 図000005
  • 特許5937202-モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること 図000006
  • 特許5937202-モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること 図000007
  • 特許5937202-モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること 図000008
  • 特許5937202-モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること 図000009
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】5937202
(24)【登録日】2016年5月20日
(45)【発行日】2016年6月22日
(54)【発明の名称】モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること
(51)【国際特許分類】
   G10L 21/01 20130101AFI20160609BHJP
   G10L 15/10 20060101ALI20160609BHJP
【FI】
   G10L21/01
   G10L15/10 500Z
【請求項の数】32
【全頁数】23
(21)【出願番号】特願2014-512870(P2014-512870)
(86)(22)【出願日】2012年5月14日
(65)【公表番号】特表2014-517939(P2014-517939A)
(43)【公表日】2014年7月24日
(86)【国際出願番号】US2012037783
(87)【国際公開番号】WO2012162009
(87)【国際公開日】20121129
【審査請求日】2014年1月7日
(31)【優先権主張番号】61/488,927
(32)【優先日】2011年5月23日
(33)【優先権主張国】US
(31)【優先権主張番号】13/213,294
(32)【優先日】2011年8月19日
(33)【優先権主張国】US
(73)【特許権者】
【識別番号】595020643
【氏名又は名称】クゥアルコム・インコーポレイテッド
【氏名又は名称原語表記】QUALCOMM INCORPORATED
(74)【代理人】
【識別番号】100108855
【弁理士】
【氏名又は名称】蔵田 昌俊
(74)【代理人】
【識別番号】100109830
【弁理士】
【氏名又は名称】福原 淑弘
(74)【代理人】
【識別番号】100103034
【弁理士】
【氏名又は名称】野河 信久
(74)【代理人】
【識別番号】100075672
【弁理士】
【氏名又は名称】峰 隆司
(74)【代理人】
【識別番号】100153051
【弁理士】
【氏名又は名称】河野 直樹
(74)【代理人】
【識別番号】100140176
【弁理士】
【氏名又は名称】砂川 克
(74)【代理人】
【識別番号】100158805
【弁理士】
【氏名又は名称】井関 守三
(74)【代理人】
【識別番号】100172580
【弁理士】
【氏名又は名称】赤穂 隆雄
(74)【代理人】
【識別番号】100179062
【弁理士】
【氏名又は名称】井上 正
(74)【代理人】
【識別番号】100124394
【弁理士】
【氏名又は名称】佐藤 立志
(74)【代理人】
【識別番号】100112807
【弁理士】
【氏名又は名称】岡田 貴志
(74)【代理人】
【識別番号】100111073
【弁理士】
【氏名又は名称】堀内 美保子
(72)【発明者】
【氏名】グロコップ、レオナルド・エイチ.
(72)【発明者】
【氏名】ナラヤナン、ビドゥヤ
(72)【発明者】
【氏名】ドルター、ジェームズ・ダブリュ.
(72)【発明者】
【氏名】ナンダ、サンジブ
【審査官】 山下 剛史
(56)【参考文献】
【文献】 特開2009−294642(JP,A)
【文献】 特開2010−79748(JP,A)
【文献】 特表2005−534061(JP,A)
【文献】 特開2005−86707(JP,A)
【文献】 特開2009−75160(JP,A)
【文献】 特開2006−238110(JP,A)
【文献】 山野貴一郎他,"音響情報を用いたライフログデータのクラスタリング",第3回音声ドキュメント処理ワークショップ講演論文集,豊橋技術科学大学メディア科学リサーチセンター,2009年 2月,pp.65-70
(58)【調査した分野】(Int.Cl.,DB名)
G10L 15/00−17/26,21/00−25/93
(57)【特許請求の範囲】
【請求項1】
デバイスが、連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にし、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャすることと、
前記デバイスが、オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記デバイスが、前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うこととを備える、プライバシー敏感オーディオ分析の方法。
【請求項2】
オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、請求項1に記載のプライバシー敏感オーディオ分析の方法。
【請求項3】
前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことをさらに備える、請求項1に記載のプライバシー敏感オーディオ分析の方法。
【請求項4】
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、請求項1に記載のプライバシー敏感オーディオ分析の方法。
【請求項5】
前記連続オーディオストリームの各時間ブロックは、長さが250ms〜2sである、請求項1に記載のプライバシー敏感オーディオ分析の方法。
【請求項6】
オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更することをさらに備える、請求項1に記載のプライバシー敏感オーディオ分析の方法。
【請求項7】
前記複数のオーディオデータセグメントの前記順序をランダムに変更することが、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づく、請求項6に記載のプライバシー敏感オーディオ分析の方法。
【請求項8】
マイクロフォンと、
前記マイクロフォンに通信可能に結合された処理ユニットであって、
前記マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にし、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことと
を行うように構成された処理ユニットとを備える、プライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項9】
オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項10】
前記処理ユニットが、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項11】
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項12】
前記連続オーディオストリームの各時間ブロックは、長さが250ms〜2sである、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項13】
前記処理ユニットが、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更するように構成された、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項14】
前記処理ユニットが、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
前記マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づいて、前記複数のオーディオデータセグメントの前記順序をランダムに変更するように構成された、請求項13に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項15】
連続オーディオストリームを受信するように構成されたオーディオセンサーと、
前記オーディオセンサーに結合された少なくとも1つの処理ユニットであって、
オーディオデータのサブセットが前記連続オーディオストリーム中に含まれる人間音声の成分を不明瞭にするように、前記連続オーディオストリーム中に含まれているオーディオデータの前記サブセットをキャプチャすることであって、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことと
を行うように構成された少なくとも1つの処理ユニットとを備える、モバイルデバイスに関連する環境を判断するためのシステム。
【請求項16】
前記モバイルデバイスからリモートにあるロケーションに、ネットワークを介してオーディオデータの前記サブセットを表す情報を送るように構成されたネットワークインターフェースをさらに備える、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
【請求項17】
前記少なくとも1つの処理ユニットが、前記モバイルデバイスからリモートにある前記ロケーションにおいて前記周囲環境の前記判断を行うように構成された、請求項16に記載のモバイルデバイスに関連する環境を判断するためのシステム。
【請求項18】
前記少なくとも1つの処理ユニットが、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
【請求項19】
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
【請求項20】
前記連続オーディオストリームの各時間ブロックは、長さが250ms〜2sである、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
【請求項21】
前記少なくとも1つの処理ユニットが、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更するように構成された、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
【請求項22】
連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にし、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うこととをプロセッサに行わせるためのコンピュータプログラム。
【請求項23】
オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、請求項22に記載のコンピュータプログラム。
【請求項24】
前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことを前記プロセッサにさらに行わせる、請求項22に記載のコンピュータプログラム。
【請求項25】
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、請求項22に記載のコンピュータプログラム。
【請求項26】
前記連続オーディオストリームの各時間ブロックは、長さが250ms〜2sである、請求項22に記載のコンピュータプログラム。
【請求項27】
オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更することを前記プロセッサにさらに行わせる、請求項22に記載のコンピュータプログラム。
【請求項28】
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づいて、前記複数のオーディオデータセグメントの前記順序をランダムに変更することを前記プロセッサにさらに行わせる、請求項27に記載のコンピュータプログラム。
【請求項29】
マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャするための手段であって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にし、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャするための手段と、
オーディオ特性についてオーディオデータの前記サブセットを分析するための手段と、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境を判断するための手段とを備える、プライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項30】
オーディオデータの前記サブセットをキャプチャするための前記手段が、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数に従ってオーディオデータの前記サブセットをキャプチャするように構成された、請求項29に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項31】
前記周囲環境を判断するための前記手段が、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、請求項29に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
【請求項32】
オーディオデータの前記サブセットをキャプチャするための前記手段は、前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備えるように、オーディオデータの前記サブセットをキャプチャするように構成された、請求項29に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本出願は、そのすべてがすべての目的のために参照により本明細書に組み込まれる、2011年5月23日に出願された「PRESERVING AUDIO DATA COLLECTION PRIVACY IN MOBILE DEVICES」と題する米国仮特許出願第61/488,927号、代理人整理番号第111174P1号の優先権を主張する。本出願はまた、そのすべてがすべての目的のために参照により本明細書に組み込まれる、2011年8月19日に出願された「PRESERVING AUDIO DATA COLLECTION PRIVACY IN MOBILE DEVICES」と題する米国特許出願第13/213,294号、代理人整理番号第111174号の優先権を主張する。
【背景技術】
【0002】
モバイルデバイスは、今日の社会において信じられないほど普及している。たとえば、人々は、セルラーフォン、スマートフォン、携帯情報端末、ラップトップコンピュータ、ページャ、タブレットコンピュータなどを使用して、無数のロケーションからデータをワイヤレスに送信および受信する。さらに、ワイヤレス通信技術の進歩は、今日のモバイルデバイスの汎用性を大幅に高め、ユーザは、従来は複数のデバイスまたはより大きい非ポータブル機器のいずれかを必要とした広範囲のタスクを単一のポータブルデバイスから実行することが可能になった。
【0003】
たとえば、モバイルデバイスは、コンテキスト判断と呼ばれるプロセスを通して、モバイルデバイスユーザがどんな環境(たとえば、レストラン、車、公園、空港など)にあり得るかを判断するように構成され得る。そのようなコンテキスト判断を実行するコンテキストアウェアネスアプリケーションは、GPS、WiFiおよびBlueTooth(登録商標)など、モバイルデバイスのセンサー入力からの情報を利用することによってモバイルデバイスの環境を判断しようとする。多くのシナリオでは、モバイルデバイスのマイクロフォンからのオーディオを分類することは、コンテキスト判断を行う際に極めて有益であるが、音声を含み得るオーディオを収集するプロセスはプライバシー問題を引き起こすことがある。
【発明の概要】
【0004】
本明細書で開示する技法は、オーディオデータを使用したコンテキストアウェアネスアプリケーションによってコンテキスト判断が行われる前に、オーディオデータ中の音声を不明瞭にするためにモバイルデバイスのハードウェアおよび/またはソフトウェアを使用することを提供する。特に、収集されたオーディオから音声(単語、句および文)が確実に再構成され得ないように、連続オーディオストリームのサブセットがキャプチャされる。サブセットはオーディオ特性について分析され、周囲環境に関する判断が行われ得る。
【0005】
いくつかの実施形態では、プライバシー敏感オーディオ分析の方法を提示する。本方法は、連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることを含み得る。連続オーディオストリームは人間音声を含んでいることがある。オーディオデータのサブセットは人間音声の成分を不明瞭にし得る。本方法は、オーディオ特性についてオーディオデータのサブセットを分析することを含み得る。本方法は、オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことを含み得る。
【0006】
そのような方法の実施形態は、以下のうちの1つまたは複数を含み得る。オーディオデータのサブセットは、了解性忠実度をもって連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する連続オーディオストリームの計算された関数を備え得る。オーディオデータのサブセットは複数のオーディオデータセグメントを備え得、各オーディオデータセグメントは、連続オーディオストリームの異なる時間成分からのデータを備える。本方法は、オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことを含み得る。複数のオーディオデータセグメントは、30ms〜100msの記録されたオーディオを備え得る。連続オーディオストリームの各時間成分は、長さが250ms〜2sであり得る。本方法は、オーディオデータのサブセットを分析する前に、複数のオーディオデータセグメントの順序をランダムに変更することを含み得る。複数のオーディオデータセグメントの順序をランダムに変更することは、地球測位システム(GPS)デバイスと、モバイルデバイス内の回路からの信号雑音と、マイクロフォンからの信号雑音と、アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づき得る。
【0007】
いくつかの実施形態では、プライバシー敏感オーディオを不明瞭にするためのデバイスを提示する。本デバイスはマイクロフォンを含み得る。本デバイスは、マイクロフォンに通信可能に結合された処理ユニットを含み得る。処理ユニットは、マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャするように構成され得る。連続オーディオストリームは人間音声を含んでいることがある。オーディオデータのサブセットは人間音声の成分を不明瞭にし得る。処理ユニットは、オーディオ特性についてオーディオデータのサブセットを分析するように構成され得る。処理ユニットは、オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うように構成され得る。
【0008】
そのようなデバイスの実施形態は、以下のうちの1つまたは複数を含み得る。オーディオデータのサブセットは、了解性忠実度をもって連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する連続オーディオストリームの計算された関数を備え得る。オーディオデータのサブセットは複数のオーディオデータセグメントを備え得、各オーディオデータセグメントは、連続オーディオストリームの異なる時間成分からのデータを備える。処理ユニットは、オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成され得る。複数のオーディオデータセグメントの各々は、30ms〜100msの記録されたオーディオを備え得る。連続オーディオストリームの各時間成分は、長さが250ms〜2sであり得る。処理ユニットは、オーディオデータのサブセットを分析する前に、複数のオーディオデータセグメントの順序をランダムに変更するようにさらに構成される。複数のオーディオデータセグメントの順序をランダムに変更することは、地球測位システム(GPS)デバイスと、モバイルデバイス内の回路からの信号雑音と、マイクロフォンからの信号雑音と、アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づき得る。
【0009】
いくつかの実施形態では、モバイルデバイスに関連する環境を判断するためのシステムを提示する。本システムは、連続オーディオストリームを受信するように構成されたオーディオセンサーを含み得る。本システムは、オーディオセンサーに結合された少なくとも1つの処理ユニットを含み得る。処理ユニットは、オーディオデータのサブセットが連続オーディオストリーム中に含まれる人間音声の成分を不明瞭にするように、連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャするように構成され得る。処理ユニットは、オーディオ特性についてオーディオデータのサブセットを分析するように構成され得る。処理ユニットは、オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うように構成され得る。
【0010】
そのようなシステムの実施形態は、以下のうちの1つまたは複数を含み得る。本システムは、モバイルデバイスからリモートにあるロケーションに、ネットワークを介してオーディオデータのサブセットを表す情報を送るように構成されたネットワークインターフェースを含み得る。少なくとも1つの処理ユニットは、モバイルデバイスからリモートにあるロケーションにおいて周囲環境の判断を行うように構成され得る。オーディオデータのサブセットは複数のオーディオデータセグメントを備え得、各オーディオデータセグメントは、連続オーディオストリームの異なる時間成分からのデータを備える。少なくとも1つの処理ユニットは、オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成され得る。複数のオーディオデータセグメントの各々は、30ms〜100msの記録されたオーディオを備え得る。連続オーディオストリームの各時間成分は、長さが250ms〜2sであり得る。処理ユニットは、オーディオデータのサブセットを分析する前に、複数のオーディオデータセグメントの順序をランダムに変更するようにさらに構成され得る。
【0011】
いくつかの実施形態では、非一時的プロセッサ可読媒体上に常駐するコンピュータプログラム製品を提示する。非一時的プロセッサ可読媒体は、連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることをプロセッサに行わせるように構成されたプロセッサ可読命令を含む。連続オーディオストリームは人間音声を含んでいることがある。オーディオデータのサブセットは人間音声の成分を不明瞭にし得る。プロセッサ可読命令は、オーディオ特性についてオーディオデータのサブセットを分析することをプロセッサに行わせるように構成され得る。プロセッサ可読命令は、オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことをプロセッサに行わせるように構成され得る。
【0012】
そのようなコンピュータプログラム製品の実施形態は、以下のうちの1つまたは複数を含み得る。オーディオデータのサブセットは、了解性忠実度をもって連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する連続オーディオストリームの計算された関数を備え得る。オーディオデータのサブセットは複数のオーディオデータセグメントを備え得、各オーディオデータセグメントは、連続オーディオストリームの異なる時間成分からのデータを備える。プロセッサ可読命令は、オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことをプロセッサに行わせるように構成され得る。複数のオーディオデータセグメントの各々は、30ms〜100msの記録されたオーディオを備え得る。連続オーディオストリームの各時間成分は、長さが250ms〜2sであり得る。プロセッサ可読命令は、オーディオデータのサブセットを分析する前に、複数のオーディオデータセグメントの順序をランダムに変更するように構成され得る。複数のオーディオデータセグメントの順序をランダムに変更するためのプロセッサ可読命令は、地球測位システム(GPS)デバイスと、モバイルデバイス内の回路からの信号雑音と、マイクロフォンからの信号雑音と、アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づく。
【0013】
いくつかの実施形態では、プライバシー敏感オーディオを不明瞭にするためのデバイスを提示する。本デバイスは、マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャするための手段を含み得る。連続オーディオストリームは人間音声を含んでいることがある。オーディオデータのサブセットは人間音声の成分を不明瞭にし得る。本デバイスは、オーディオ特性についてオーディオデータのサブセットを分析するための手段を含み得る。本デバイスは、オーディオ特性に少なくとも部分的に基づいて周囲環境を判断するための手段を含み得る。
【0014】
そのようなデバイスの実施形態は、以下のうちの1つまたは複数を含み得る。オーディオデータのサブセットをキャプチャするための手段は、了解性忠実度をもって連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する連続オーディオストリームの計算された関数に従ってオーディオデータのサブセットをキャプチャするように構成され得る。オーディオデータのサブセットをキャプチャするための手段は、オーディオデータのサブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、連続オーディオストリームの異なる時間成分からのデータを備えるように、オーディオデータのサブセットをキャプチャするように構成され得る。周囲環境を判断するための手段は、オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成され得る。オーディオデータのサブセットをキャプチャするための手段は、複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備えるように、オーディオデータのサブセットをキャプチャするように構成され得る。
【0015】
本明細書で説明するアイテムおよび/または技法は、以下の機能、ならびに言及しない他の機能のうちの1つまたは複数を提供し得る。コンテキスト判断の精度にほとんどまたはまったく影響を与えることなしに、コンテキスト判断のために使用されるオーディオストリーム中に含まれ得る音声の成分を不明瞭にすること。最小処理リソースを使用して、リアルタイムで実行され得る比較的単純な方法を利用すること。コンテキスト判断において使用されるモデルの精度を改善するのを助けるために、(不明瞭にされた音声を有する)オーディオデータのサブセットをアップロードする能力を含むこと。少なくとも1つのアイテム/技法効果ペアについて説明したが、言及した効果は、言及した手段以外の手段によって実現されることが可能であり得、言及したアイテム/技法は、必ずしも言及した効果を生じ得るとは限らない。
【0016】
以下の図を参照すれば、様々な実施形態の性質および利点の理解が促進され得る。添付の図において、同様の構成要素または特徴は同じ参照ラベルを有し得る。さらに、同じタイプの様々な構成要素は、参照ラベルの後に、ダッシュと、それらの同様の構成要素同士を区別する第2のラベルとを続けることによって区別され得る。第1の参照ラベルのみが明細書において使用される場合、その説明は、第2の参照ラベルにかかわらず、同じ第1の参照ラベルを有する同様の構成要素のうちのいずれか1つに適用可能である。
【図面の簡単な説明】
【0017】
図1】一実施形態による、コンテキストアウェアネスアプリケーションをサポートするように構成されたモバイルデバイスの基本構成要素の簡略ブロック図。
図2a】音声のプライバシーを保証するのを助けると同時に、性能劣化のないモバイルデバイスの周囲環境を分類するために十分なオーディオ情報をキャプチャするためのプロセスの可視化を示す図。
図2b】音声のプライバシーを保証するのを助けると同時に、性能劣化のないモバイルデバイスの周囲環境を分類するために十分なオーディオ情報をキャプチャするためのプロセスの可視化を示す図。
図2c】音声のプライバシーを保証するのを助けると同時に、性能劣化のないモバイルデバイスの周囲環境を分類するために十分なオーディオ情報をキャプチャするためのプロセスの可視化を示す図。
図3a図2bおよび図2cに示した機能を提供するための方法の流れ図。
図3b図2bおよび図2cに示した機能を提供するための方法の流れ図。
図4】本明細書で説明するいくつかの処理方法から生じるオーディオデータから、音声認識器が単語のn字列(n-gram)を再構成する確率に対する上限を計算する分析の結果を示すグラフ。
【発明を実施するための形態】
【0018】
図面を参照しながら以下の説明を行う。図面全体にわたって、同様の要素を指すのに同様の参照番号を使用する。本明細書では、1つまたは複数の技法の様々な詳細について説明するが、他の技法も可能である。いくつかの例では、様々な技法の説明を円滑にするために、よく知られている構造およびデバイスをブロック図の形態で示す。
【0019】
携帯情報端末(PDA)、モバイルフォン、タブレットコンピュータ、および他のパーソナル電子機器など、モバイルデバイスは、コンテキストアウェアネスアプリケーションが使用可能であり得る。これらのコンテキストアウェアネスアプリケーションは、たとえば、モバイルデバイスのユーザがどこにいるか、特に、そのユーザが何をしている可能性があるかを判断することができる。そのようなコンテキスト判断は、モバイルデバイスが、ユーザが車中にいると判断した後に自動車モードに入ること、またはユーザが映画館に入ったと判断したときにサイレントモードに入ることなど、追加の機能をユーザに与えることを可能にするのを助けることができる。
【0020】
本明細書では、モバイルデバイスのコンテキスト判断のために使用されるオーディオ中でキャプチャされ得る音声におけるプライバシーを保護するための技法について説明する。より詳細には、オーディオデータのサブセットが、音声を含んでいることがある連続オーディオストリームからキャプチャされ得、それにより、サンプリングの性質は、連続オーディオストリーム中に含まれていることがある音声を不明瞭にする。しかしながら、サンプリングの性質はまた、モバイルデバイスの特定の周囲環境に関する判断などのコンテキスト判断が精度の低減をほとんどまたはまったく受けないように、連続オーディオストリームのいくつかのオーディオ特性を保護する。これらおよび他の技法について以下でさらに詳細に説明する。
【0021】
図1は、一実施形態による、コンテキストアウェアネスを提供することができるモバイルデバイス100のいくつかの構成要素を示す簡略ブロック図である。この図は一例であり、限定的なものではない。たとえば、モバイルデバイス100は、簡単のために図1から省略される追加の構成要素(たとえば、ユーザインターフェース、アンテナ、ディスプレイなど)を含み得る。さらに、図示された構成要素は、モバイルデバイス100の機能に応じて、組み合わせられるか、分離されるか、または省略され得る。
【0022】
この実施形態では、モバイルデバイス100はモバイルネットワークインターフェース120を含む。そのようなインターフェースは、モバイルキャリアと通信するためのハードウェア、ソフトウェア、および/またはファームウェアを含むことができる。モバイルネットワークインターフェース120は、高速パケットアクセス(HSPA:High Speed Packet Access)、Enhanced HSPA(HSPA+)、3GPP Long Term Evolution(LTE)、および/またはモバイル通信のための他の規格を利用することができる。モバイルネットワークインターフェース120はまた、コンテキストアウェアネスアプリケーションにおいて有用であり得る、ロケーションデータなどのある情報を与えることができる。
【0023】
さらに、モバイルデバイス100は他の(1つまたは複数の)ワイヤレスインターフェース170を含むことができる。そのようなインターフェースは、IEEE802.11(WiFi)、Bluetooth(登録商標)、および/または他のワイヤレス技術を含むことができる。これらの(1つまたは複数の)ワイヤレスインターフェース170は、コンテキスト判断において使用され得るモバイルデバイス100に情報を与えることができる。たとえば、(1つまたは複数の)ワイヤレスインターフェース170は、(1つまたは複数の)ワイヤレスインターフェース170のうちの1つまたは複数が接続されるワイヤレスネットワークの近似ロケーションを判断することによってロケーションに関する情報を与えることができる。追加または代替として、(1つまたは複数の)ワイヤレスインターフェース170は、モバイルデバイス100が、モバイルデバイス100のコンテキストを判断する際に有用な情報を与え得る、ワイヤレスヘッドセットおよび/またはマイクロフォンなど、他のデバイスと通信することを可能にすることができる。
【0024】
モバイルデバイス100はまた、全地球測位システム(GPS)ユニット160、(1つまたは複数の)加速度計130、および/または他の(1つまたは複数の)センサー150を含むことができる。これらの追加の特徴は、ロケーション、配向、動き、温度、近接度などの情報を与えることができる。(1つまたは複数の)ワイヤレスインターフェース170の場合と同様に、これらの構成要素からの情報は、コンテキストアウェアネスアプリケーションがモバイルデバイス100のコンテキストに関するコンテキスト判断を行うのを助けることができる。
【0025】
モバイルデバイス100はさらに(1つまたは複数の)分析/判断モジュール110を含むことができる。特に、(1つまたは複数の)分析/判断モジュール110は、それが通信可能に結合される様々な構成要素からセンサー情報を受信することができる。(1つまたは複数の)分析/判断モジュール110はまた、(1つまたは複数の)分析/判断モジュール110とは別個であり、および/または(1つまたは複数の)分析/判断モジュール110に組み込まれ得る、メモリ180に記憶された(コンテキストアウェアネスアプリケーションを含む)ソフトウェアを実行することができる。さらに、(1つまたは複数の)分析/判断モジュール110は、中央処理ユニット(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、および/または、特に、オーディオデータを分析し、その分析に基づいて判断を行うことが可能な手段を有する構成要素を含む、1つのまたは多数の処理デバイスを備えることができる。
【0026】
ワイヤレスインターフェース170、GPSユニット160、(1つまたは複数の)加速度計130、および/または他の(1つまたは複数の)センサー150からの情報は、ユーザが、屋外にいるとき、識別可能なWiFiまたはBlueToothアクセスポイントの近くにいるとき、歩行しているときなどのロケーションを判断するのを大いに支援することができるが、これらの構成要素には限界がある。多くのシナリオでは、それらは、環境および状況を判断するためにあまり有用でない。たとえば、これらの構成要素からの情報は、ユーザが会議中であるのか、自分のオフィスにいるのか、またはユーザが食品雑貨品店にいるのか、そのすぐ隣のジムにいるのかを区別する際にあまり有用でない。これらのシナリオなどでは、モバイルデバイス100のオーディオキャプチャモジュール140(たとえば、(1つまたは複数の)マイクロフォンおよび/または他のオーディオキャプチャ手段)からの情報は、環境を分類するのを助けるために使用され得る極めて有益なオーディオデータを与え、ならびに音声が存在するかどうか、複数の話者が存在するかどうか、話者の識別情報などを判断することができる。
【0027】
コンテキスト判断のためにモバイルデバイス100によってオーディオデータをキャプチャするプロセスは、電話のメモリ180にオーディオデータを一時的におよび/または永続的に記憶することを含むことができる。しかしながら、明瞭な音声を含むオーディオデータのキャプチャはプライバシー問題を引き起こすことがある。事実上、モバイルデバイス100が、承諾なしに、モバイルデバイス100のユーザまたは別の人間からの音声をキャプチャする場合、連邦法、州法、および/または地域法が関係していることがある。これらの問題は、音声(単語、句および文)が、キャプチャされたオーディオデータから確実に再構成され得ないように、音声がキャプチャされる前にオーディオデータを前処理するために、モバイルデバイス100のハードウェアおよび/またはソフトウェアを使用することによって緩和され得る。その上、前処理は、さらに、(たとえば、背景雑音からの)周囲環境、および/または音声、音楽、タイピング音などの存在など、オーディオデータの他のオーディオ特性の判断を可能にすることができる。
【0028】
図2aは、性能劣化のないモバイルデバイスおよび/またはユーザの状況/環境を分類するために十分なオーディオ情報をキャプチャするためのプロセスを可視化したものである。さらに、そのプロセスはまた、キャプチャされた情報から音声(単語、句および文)が確実に再構成され得ないことを保証するのを助けることができる。このプロセスは、入力オーディオストリームの次元数を低減することを伴う。言い換えれば、連続オーディオの入力ストリームのビット(すなわち、デジタルデータ)は、得られたオーディオストリームが、了解性忠実度をもって連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有するように低減される。したがって、次元数を低減することは、音声が再生不可能であることを保証するように設計された、計算された関数であり得る。
【0029】
たとえば、連続オーディオストリームは、Twindow秒持続するオーディオデータのウィンドウ210を備えることができる。ウィンドウ210は、複数のオーディオデータセグメントを有するものと見なされ得る。より詳細には、ウィンドウ210は、N個の時間成分、またはブロック220を備えることができ、各ブロック220は、Tblock秒持続し、それぞれTframe秒の複数のフレーム230を備える。マイクロフォン信号は、(データのTframe秒をもつ)ただ1つのフレーム230がTblock秒のあらゆるブロック中で収集されるようにサンプリングされ得る。
【0030】
frameおよびTblockの値は、所望の機能に応じて変動することができる。一実施形態では、たとえば、Tframe=50msおよびTblock=500msであるが、これらの設定は、得られたオーディオ情報240aを使用するコンテキスト判断の精度への影響がほとんどなしに大幅に変動することができる。たとえば、Tframeは30ms未満から100ms以上にわたることができ、Tblockは250ms未満から2000ms(2s)以上までにわたることができ、Twindowは、単一のブロックと同じくらい短く(たとえば、ウィンドウ当たり1つのブロック)、最高1分以上になり得る。異なるフレーム長、ブロック長、およびウィンドウ長は、ブロック220当たりのフレーム230の数とウィンドウ210当たりのブロック220の数とに影響を及ぼすことがある。
【0031】
フレーム230のキャプチャは異なる方法で達成され得る。たとえば、(1つまたは複数の)分析/判断モジュール110は、連続オーディオのウィンドウ210中のマイクロフォン信号を連続的にサンプリングし、不要なフレーム230を廃棄する(すなわち、記憶しない)ことがある。したがって、上記の例では、Tframe=50msおよびTblock=500msである場合、処理ユニットは、サンプリングされた500msごとに450msを単に廃棄することができる。追加または代替として、(1つまたは複数の)分析/判断モジュール110は、不要なフレーム230の間にオーディオキャプチャモジュール140をオフにし(たとえば、500msごとに450msの間オーディオキャプチャジュール140をオフにし)、それにより、コンテキスト判断において使用される、得られたオーディオ情報240a中に挿入されるフレーム230のみを収集することができる。
【0032】
得られたオーディオ情報240aは、ウィンドウ210中の連続オーディオストリームのサブセットのみを備えるフレーム230の収集である。たとえそうでも、この得られたオーディオ情報240aは、判断の精度への著しい影響なしに、周囲環境を判断することなどのコンテキスト判断を可能にするのを助けることができるオーディオ特性を含むことができる。したがって、得られたオーディオ情報240aは、コンテキスト分類のためのアプリケーションにリアルタイムで与えられ、ならびに/あるいは後の分析のために、および/またはモバイルデバイス100に通信可能に結合されたサーバにアップロードするためにメモリ180に1つまたは複数の波形として記憶され得る。
【0033】
図2bおよび図2cは、図2aに示したプロセスと同様に、オーディオ情報をキャプチャするためのプロセスを可視化したものである。ただし、図2bおよび図2cでは、キャプチャされ得る音声のさらなるプライバシーを保証するのを助けるために追加のステップをとる。
【0034】
図2bを参照すると、Twindow秒のウィンドウ210ごとに、各ブロック220の第1のフレーム230がどのようにキャプチャされ得るかを示す可視化が与えられている。ウィンドウ210の最終ブロック220のフレーム230−1がキャプチャされた後、ウィンドウ210のすべてのキャプチャされたフレームは、得られたオーディオ情報240bを与えるためにランダムに置換(すなわち、ランダムにシャッフル)され得る。したがって、得られたオーディオ情報240bは、図2aの得られたオーディオ情報240aと同様であるが、得られたオーディオ情報240bがそれから構成されるフレームがランダム化される追加の特徴をもち、それにより、得られたオーディオ情報240b中に含まれ得る音声が了解性忠実度をもって再生され得る可能性がさらに低下する。
【0035】
図2cは、図2bに示したプロセスと同様であるが、各ブロック220についてキャプチャされたフレーム230をさらにランダム化するプロセスを示す。より詳細には、図2aおよび図2bに示したようにウィンドウ210の各ブロック220の第1のフレーム230をキャプチャするのではなく、図2cに示すプロセスは、代わりに各ブロック220からのランダムフレーム230が選択され得ることを示す。ウィンドウ210のフレーム230のキャプチャと得られたオーディオ情報240c中のフレーム230の順序付けの両方のランダム化は、ウィンドウ210内の連続オーディオストリーム中に含まれている音声が不明瞭にされ、再生不可能であることをさらに保証するのを助ける。
【0036】
図2bおよび図2cに示したプロセスにおいて使用されるランダム化は、多数の方法で生成されるシードを使用して計算され得る。たとえば、シードは、GPSユニット160によって与えられるGPS時間、モバイルデバイス100内の回路からの雑音、オーディオキャプチャモジュール140からの雑音(または他の信号)、アンテナからの雑音などに基づき得る。さらに、置換は、シャフリング効果が逆転させられ得ないことを保証するのを助けるために廃棄され得る(たとえば、記憶され得ない)。
【0037】
図2a、図2b、および図2cに示したプロセスは、例として与えたものであり、限定的なものではない。他の実施形態が企図される。たとえば、ブロック220は、フレーム230がキャプチャされる前にランダムに置換され得る。代替的に、フレーム230は、ブロック220当たり1つのフレーム230をキャプチャするのではなく、ウィンドウ210全体にわたってランダムにキャプチャされ得る。
【0038】
図3aは、図2bおよび図2cに示した機能を提供するための方法300−1の実施形態を示す流れ図である。方法300−1は段階310において開始し、そこで、連続オーディオストリームからオーディオデータのブロック220を受信する。連続オーディオストリームは、たとえば、モバイルデバイス100のオーディオキャプチャモジュール140が露出される時間のウィンドウ210内のオーディオであり得る。
【0039】
段階320において、オーディオデータのブロック220のフレーム230をキャプチャする。前に説明したように、フレーム230はオーディオデータの各ブロック220の所定のフレーム(たとえば、第1のフレーム)であり得るか、またはそれはランダムに選択され得る。フレーム230は、たとえば、モバイルデバイス100のメモリ180に(一時的にまたは永続的に)記憶されることによってキャプチャされる。前に説明したように、フレーム230のキャプチャは、オーディオキャプチャモジュール140をオンおよびオフにすることおよび/または連続オーディオストリームを表すオーディオキャプチャモジュール140からの信号のいくつかの部分をサンプリングすることを含むことができる。
【0040】
段階330において、現在のウィンドウ210中に追加のブロック220があるかどうかを判断する。追加のブロック220がある場合、ブロック220からのフレーム230をキャプチャするプロセスが繰り返される。これは、所望の機能に応じて、何度でも繰り返され得る。たとえば、Tblock=500msおよびTwindow=10秒である場合、フレーム230をキャプチャするプロセスは20回繰り返され、その結果、フレーム230が20個キャプチャされることになる。
【0041】
現在のウィンドウ210中のすべてのブロック220からのフレーム230がキャプチャされた場合、プロセスは段階340に移動し、そこで、キャプチャされたフレームの順序をランダム化する。これらのランダム化されたフレームは、たとえば、コンテキストアウェアネスアプリケーションによる分析のために使用されるオーディオファイルに記憶され得る。最後に、段階350において、ランダム化されたフレームのオーディオ特性に少なくとも部分的に基づいて周囲環境の判断(または他のコンテキスト判断)を行う。
【0042】
方法300−1の異なる段階は、モバイルデバイス100の1つまたは複数の異なる構成要素および/またはモバイルデバイス100に通信可能に結合された他のシステムによって実行され得る。さらに、段階は、ハードウェア、ソフトウェア、および/またはファームウェアの任意の組合せによって実行され得る。たとえば、オーディオストリーム全体(たとえば、認識可能な音声を有し得るオーディオストリーム)が、モバイルデバイス100によって実行されるソフトウェアアプリケーションにアクセス不可能であることを保証するのを助けるために、段階320〜340などのいくつかの段階は、((1つまたは複数の)分析/判断モジュール110などの)ハードウェアによって実行され、キャプチャされたフレームをメモリ180に記憶するおよび/またはそれらをソフトウェアアプリケーションに与える前に、たとえば、バッファ上でそれらをランダム化し得る。追加または代替として、いくつかの実施形態は、いくつかのパラメータ(たとえば、Twindow、Tblock、および/またはTframe)がソフトウェアによって少なくとも部分的に構成可能であることを可能にし得る。
【0043】
さらに他の実施形態では、モバイルデバイス100は、キャプチャされたフレームを含む、得られたオーディオ情報240をリモートサーバにアップロードし得る。この場合、リモートサーバは、段階350の周囲環境の判断を行うことができる。代替的に、モバイルデバイス100は、モバイルデバイス100によって行われた周囲環境の判断とともに、得られたオーディオ情報240をアップロードすることができる。いずれの場合も、リモートサーバは、その判断と得られたオーディオ情報240とを使用して、周囲環境判断を行うために使用される既存のモデルを変更することができる。これにより、サーバは、モバイルデバイス100によって受信された入力から「学習する」ことが可能であるモデルを維持することが可能になる。次いで、修正および/または更新されたモデルは、モバイルデバイス100によって行われた周囲環境判断の精度を改善するのを助けるためにモバイルデバイス100にダウンロードされ得る。したがって、周囲環境判断(または他のコンテキスト判断)は継続的に改善され得る。
【0044】
上記のように、本明細書で説明する技法は、周囲環境および/または他のコンテキスト判断だけでなく、オーディオデータの他のオーディオ特性の判断をも可能にすることができる。これらのオーディオ特性は、音声、音楽、タイピング音などの存在を含むことができる。オーディオ特性に応じて、異なる判断が行われ得る。
【0045】
図3bは、図3の方法300−1と同様の段階を含む、方法300−1の一例を示す流れ図である。ただし、図3bの方法300−2は、周囲環境の判断を行うために使用されるキャプチャされたフレーム中に音声が含まれる(1人または複数の)話者の識別情報に関する判断を行う追加の段階360を含む。段階350の場合と同様に、段階360の判断は、モバイルデバイス100、および/またはキャプチャされたフレームがアップロードされるリモートサーバによって行われ得る。さらに、識別情報に関する判断は、話者の年齢、性別などを判断するのを助けるためのモデル、および特定の人間の音声のオーディオ特性に関する記憶された情報など、他の情報および/またはモデル、ならびに他のデータの使用を含むことができる。
【0046】
上記で説明したプロセスによって生成された、キャプチャされたオーディオファイルをリッスンすることは、単語がこの方式から確実に再構成され得ないことを明確に示す。ただし、この概念は、商用音声認識器を開発するための公開されているソースからの収集されたオーディオデータが与えられれば、音声認識器が単語のn字列を再構成する確率に対する上限を計算するための分析を実行することによって数学的に示され得、単語のn字列はn個の連続する単語の集合である。
【0047】
図4は、収集されたオーディオが与えられれば、n字列を正しく推測する確率に対する上限を示す、そのような分析の結果を示すグラフである。1字列410と2字列420とを正しく再構成するための結果を示し、Tblockの可変長について、Tframe=50msである。直観的にn字列を再構成する確率はnの増加とともに減少する。これは図4からわかり得、Tblock=500msの場合、1字列410を正しく再構成する確率は14%であり、2字列420を正しく再構成する確率は8%である。(この分析は、言語をなお一層不明瞭にし得る、本明細書で説明するフレームの置換を含まず、おおよそ(Twindow/Tblock)だけ確率を低減することに留意されたい。)
音声を再構成する確率の低減にもかかわらず、本明細書で説明する技法は、ユーザの環境を見分けるための、分類器(たとえば、コンテキストアウェアネスアプリケーションにおいて使用される確率的分類器)の能力に著しい影響を与えない。これは、1つの混合成分と2つの混合成分とを有する統計的モデルを用いた、コンテキストアウェアネス分類器の精度および再現率(recall)を示す表1に示されており、Tframe=50msであり、Tblockは可変である。使用されたデータは、コンテキストアウェアネスアプリケーション間で共通の(たとえば、公園内、街路上、マーケット内、車中、空港内などの)環境のセットの環境音の商業的に収集されたオーディオデータセットであった。
【表1】
【0048】
frame=50msであるので、Tblock=50msについて表1に示した精度および再現率は連続オーディオである。したがって、表1は、連続オーディオストリームのサブセットのみをサンプリングすることによってオーディオデータの次元数を低減することが、Tblockが2秒に近づく(すなわち、マイクロフォンが、2秒ごとに50msのみ、またはその時間の2.5%の間オンである)まで、周囲環境の分類器の判断の精度にほとんど影響を与えないことがあることを示す。分類器ごとに結果が異なり得る。
【0049】
上記で説明した方法、システム、デバイス、グラフ、および表は例である。様々な構成は、適宜に様々なプロシージャまたは構成要素を省略、置換、または追加し得る。たとえば、代替構成では、本方法は、説明した順序とは異なる順序で実行され得、ならびに/あるいは様々な段階が追加、省略、および/または組み合わせられ得る。また、いくつかの構成に関して説明した特徴は、様々な他の構成において組み合わせられ得る。構成の異なる態様および要素が、同様の方法で組み合わせられ得る。また、技術は発展し、したがって、要素の多くは例であり、本開示または特許請求の範囲を限定しない。さらに、本明細書で説明した技法は、異なるタイプのコンテキストアウェアネス分類器を用いて異なる結果を与え得る。
【0050】
説明では、(実装形態を含む)例示的な実施形態の完全な理解が得られるように具体的な詳細を与えた。ただし、実施形態は、これらの具体的な詳細なしに実施され得る。たとえば、構成を不明瞭にすることを避けるために、よく知られている回路、プロセス、アルゴリズム、構造、および技法を不要な詳細なしに示した。この説明は、例示的な構成を与えるにすぎず、特許請求の範囲の範囲、適用性、または構成を限定しない。そうではなく、構成の上記の説明は、説明した技法を実装することを可能にする説明を当業者に与えるものである。本開示の趣旨および範囲から逸脱することなく、要素の機能および構成において様々な変更が行われ得る。
【0051】
また、構成は、流れ図またはブロック図として示されるプロセスとして説明されることがある。各々は動作を逐次プロセスとして説明することがあるが、動作の多くは並行してまたは同時に実行され得る。さらに、動作の順序は並べ替えられ得る。プロセスは、図中に含まれない追加のステップを有し得る。
【0052】
本発明の様々な特徴を組み込んだコンピュータプログラムは、様々な非一時的コンピュータ可読記憶媒体および/または非一時的プロセッサ可読記憶媒体上で符号化され得、好適な媒体は、磁気媒体と、光学媒体と、フラッシュメモリと、他の非一時的媒体とを含む。プログラムコードで符号化された非一時的プロセッサ可読記憶媒体は、互換デバイスとともにパッケージングされるか、または他のデバイスから別々に与えられ得る。さらに、プログラムコードは、インターネットを含む、様々なプロトコルに準拠するワイヤード、光、および/またはワイヤレスネットワークを介して符号化され、送信され、それにより、たとえば、インターネットダウンロードを介した配信が可能になり得る。
【0053】
いくつかの例示的な構成を説明したが、本開示の趣旨から逸脱することなく、様々な変更形態、代替構成、および等価物が使用され得る。たとえば、上記の要素は、より大きいシステムの構成要素であり得、他のルールが、本発明の適用よりも優先するかまたは他の方法で本発明の適用を変更し得る。また、上記の要素が考慮される前に、考慮されている間に、または考慮された後に、いくつかのステップが行われ得る。したがって、上記の説明は特許請求の範囲を限定しない。
以下に、本願の出願当初請求項に記載された発明を付記する。
[C1]
連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にする
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うこととを備える、プライバシー敏感オーディオ分析の方法。
[C2]
オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、上記C1に記載のプライバシー敏感オーディオ分析の方法。
[C3]
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備える、上記C1に記載のプライバシー敏感オーディオ分析の方法。
[C4]
前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことをさらに備える、上記C3に記載のプライバシー敏感オーディオ分析の方法。
[C5]
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、上記C3に記載のプライバシー敏感オーディオ分析の方法。
[C6]
前記連続オーディオストリームの各時間成分は、長さが250ms〜2sである、上記C3に記載のプライバシー敏感オーディオ分析の方法。
[C7]
オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更することをさらに備える、上記C3に記載のプライバシー敏感オーディオ分析の方法。
[C8]
前記複数のオーディオデータセグメントの前記順序をランダムに変更することが、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づく、上記C7に記載のプライバシー敏感オーディオ分析の方法。
[C9]
マイクロフォンと、
前記マイクロフォンに通信可能に結合された処理ユニットであって、
前記マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にする
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことと
を行うように構成された処理ユニットとを備える、プライバシー敏感オーディオを不明瞭にするためのデバイス。
[C10]
オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、上記C9に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C11]
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備える、上記C9に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C12]
前記処理ユニットが、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、上記C11に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C13]
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、上記C11に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C14]
前記連続オーディオストリームの各時間成分は、長さが250ms〜2sである、上記C11に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C15]
前記処理ユニットが、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更するように構成された、上記C11に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C16]
前記処理ユニットが、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
前記マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づいて、前記複数のオーディオデータセグメントの前記順序をランダムに変更するように構成された、上記C15に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C17]
連続オーディオストリームを受信するように構成されたオーディオセンサーと、
前記オーディオセンサーに結合された少なくとも1つの処理ユニットであって、
オーディオデータのサブセットが前記連続オーディオストリーム中に含まれる人間音声の成分を不明瞭にするように、前記連続オーディオストリーム中に含まれているオーディオデータの前記サブセットをキャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことと
を行うように構成された少なくとも1つの処理ユニットとを備える、モバイルデバイスに関連する環境を判断するためのシステム。
[C18]
前記モバイルデバイスからリモートにあるロケーションに、ネットワークを介してオーディオデータの前記サブセットを表す情報を送るように構成されたネットワークインターフェースをさらに備える、上記C17に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C19]
前記少なくとも1つの処理ユニットが、前記モバイルデバイスからリモートにある前記ロケーションにおいて前記周囲環境の前記判断を行うように構成された、上記C18に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C20]
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備える、上記C18に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C21]
前記少なくとも1つの処理ユニットが、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、上記C20に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C22]
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、上記C20に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C23]
前記連続オーディオストリームの各時間成分は、長さが250ms〜2sである、上記C20に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C24]
前記少なくとも1つの処理ユニットが、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更するように構成された、上記C20に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C25]
非一時的プロセッサ可読媒体上に常駐するコンピュータプログラム製品であって、
連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にする
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うこととをプロセッサに行わせるように構成されたプロセッサ可読命令を備えるコンピュータプログラム製品。
[C26]
オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、上記C25に記載のコンピュータプログラム製品。
[C27]
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備える、上記C25に記載のコンピュータプログラム製品。
[C28]
前記プロセッサ可読命令が、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことを前記プロセッサに行わせるように構成された、上記C27に記載のコンピュータプログラム製品。
[C29]
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、上記C27に記載のコンピュータプログラム製品。
[C30]
前記連続オーディオストリームの各時間成分は、長さが250ms〜2sである、上記C27に記載のコンピュータプログラム製品。
[C31]
前記プロセッサ可読命令が、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更することを前記プロセッサに行わせるように構成された、上記C27に記載のコンピュータプログラム製品。
[C32]
前記プロセッサ可読命令が、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づいて、前記複数のオーディオデータセグメントの前記順序をランダムに変更することを前記プロセッサに行わせるように構成された、上記C31に記載のコンピュータプログラム製品。
[C33]
マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャするための手段であって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にする
キャプチャするための手段と、
オーディオ特性についてオーディオデータの前記サブセットを分析するための手段と、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境を判断するための手段とを備える、プライバシー敏感オーディオを不明瞭にするためのデバイス。
[C34]
オーディオデータの前記サブセットをキャプチャするための前記手段が、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数に従ってオーディオデータの前記サブセットをキャプチャするように構成された、上記C33に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C35]
オーディオデータの前記サブセットをキャプチャするための前記手段は、オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備えるように、オーディオデータの前記サブセットをキャプチャするように構成された、上記C33に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C36]
前記周囲環境を判断するための前記手段が、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、上記C35に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C37]
オーディオデータの前記サブセットをキャプチャするための前記手段は、前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備えるように、オーディオデータの前記サブセットをキャプチャするように構成された、上記C35に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
図1
図2a
図2b
図2c
図3a
図3b
図4