(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-02-27
(45)【発行日】2025-03-07
(54)【発明の名称】集約コンテンツアイテムユーザインタフェース
(51)【国際特許分類】
G06F 3/0484 20220101AFI20250228BHJP
G06F 3/16 20060101ALI20250228BHJP
H04N 23/60 20230101ALI20250228BHJP
H04N 23/63 20230101ALI20250228BHJP
【FI】
G06F3/0484
G06F3/16 500
H04N23/60
H04N23/63
(21)【出願番号】P 2023560216
(86)(22)【出願日】2022-05-23
(86)【国際出願番号】 US2022030589
(87)【国際公開番号】W WO2022256195
(87)【国際公開日】2022-12-08
【審査請求日】2023-09-28
(32)【優先日】2021-06-01
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2021-12-06
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】503260918
【氏名又は名称】アップル インコーポレイテッド
【氏名又は名称原語表記】Apple Inc.
【住所又は居所原語表記】One Apple Park Way,Cupertino, California 95014, U.S.A.
(74)【代理人】
【識別番号】110003281
【氏名又は名称】弁理士法人大塚国際特許事務所
(72)【発明者】
【氏名】クラーク, グラハム アール.
(72)【発明者】
【氏名】ボヴェ, シモン
(72)【発明者】
【氏名】バーネット, チェルシー ルブラン
(72)【発明者】
【氏名】サークレイズ, エリック エム. ジー.
(72)【発明者】
【氏名】クライマー, アンドリュー パトリック
(72)【発明者】
【氏名】コネホ, ブルーノ ジェイ.
(72)【発明者】
【氏名】クーン, ケイリー
(72)【発明者】
【氏名】コスマン, スティーブン ジェームス
(72)【発明者】
【氏名】ダイ, アラン シー.
(72)【発明者】
【氏名】フェデリーギ, クレイグ エム.
(72)【発明者】
【氏名】フィニガン, ゴードン トーマス
(72)【発明者】
【氏名】ガスラン ド リシュブール, ジャック フィリップ
(72)【発明者】
【氏名】カル, カル オヌカ
(72)【発明者】
【氏名】カン, ウソン
(72)【発明者】
【氏名】カノフ, リナト
(72)【発明者】
【氏名】リン, チア ヤン
(72)【発明者】
【氏名】ルーカス, マシュー
(72)【発明者】
【氏名】マンザリ,ジョニー ビー.
(72)【発明者】
【氏名】メザック, チャールズ エー.
(72)【発明者】
【氏名】ピヴォンカ, パヴェル
(72)【発明者】
【氏名】レキク, サブリン
(72)【発明者】
【氏名】スナイダー, トゥビア
(72)【発明者】
【氏名】ソレンティーノ サード, ウィリアム エー.
(72)【発明者】
【氏名】ソーザ ドス サントス, アンドレ
(72)【発明者】
【氏名】スクアーリ, サナ
(72)【発明者】
【氏名】スタンチク, ピョートル ジェイ.
(72)【発明者】
【氏名】スタス, デニス
(72)【発明者】
【氏名】タタルチュク, セルヒー
(72)【発明者】
【氏名】ヴェルノー, ギョーム
(72)【発明者】
【氏名】ウォード, スティーブン ジェイ.
【審査官】渡辺 慶人
(56)【参考文献】
【文献】特許第5162082(JP,B2)
【文献】米国特許出願公開第2015/0147048(US,A1)
【文献】特表2017-538975(JP,A)
【文献】特表2010-539619(JP,A)
【文献】国際公開第2021/096507(WO,A1)
【文献】米国特許出願公開第2015/0213001(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
3/048- 3/04895
(57)【特許請求の範囲】
【請求項1】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、
前記表示生成構成要素を介して、第1の集約コンテンツアイテム
の視覚コンテンツを再生することであって、
前記第1の集約コンテンツアイテムは、選択基準の第1のセットに基づいてコンテンツアイテムのセットから選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含
み、
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生することは、ユーザ入力を検出することなく、前記第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテムを表示することから、前記第1の複数のコンテンツアイテムのうちの第2のコンテンツアイテムを表示することへ切り替えることを含む、ことと、
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生している間に、前記コンテンツアイテムとは別個のオーディオコンテンツを再生することと、
前記第1の集約コンテンツアイテムの前記視覚コンテンツ及び前記オーディオコンテンツを再生している間に、前記1つ以上の入力デバイスを介して、ユーザ入力を検出することと、
前記ユーザ入力を検出したことに応じて、
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正することであって、前記第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正することが、前記第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、前記オーディオコンテンツを、第1のオーディオトラックから前記第1のオーディオトラックとは異なる第2のオーディオトラックに変更することを含む、ことと、
を含む、方法。
【請求項2】
前記ユーザ入力を検出したことに応じて、
前記第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、前記第1の集約コンテンツアイテムの視覚コンテンツの再生の視覚パラメータを修正すること、
を更に含む、請求項1に記載の方法。
【請求項3】
前記表示生成構成要素を介して、前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生することが、第1の視覚フィルタが前記視覚コンテンツの第1の領域に適用された状態で前記視覚コンテンツを表示することを含み、
前記第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、前記第1の集約コンテンツアイテムの視覚コンテンツの再生の前記視覚パラメータを修正することが、前記第1の視覚フィルタとは異なる第2の視覚フィルタが前記視覚コンテンツの前記第1の領域に適用された状態で前記視覚コンテンツを表示することを含む、
請求項2に記載の方法。
【請求項4】
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生している間に、前記コンテンツアイテムとは別個のオーディオコンテンツを再生することが、前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生している間に、前記コンテンツアイテムとは別個の第1のオーディオトラックを再生することを含み、
前記第1のオーディオトラックを再生している間に、前記第1の集約コンテンツアイテムの前記視覚コンテンツが、前記第1の視覚フィルタが前記視覚コンテンツの前記第1の領域に適用された状態で表示され、
前記第1のオーディオトラックが、前記第1の視覚フィルタとの第1の既定の組み合わせの一部であり、
前記第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正することが、前記第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、前記コンテンツアイテムとは別個の、かつ前記第1のオーディオトラックとは異なる第2のオーディオトラックを再生することを含み、
前記第2のオーディオトラックを再生している間に、前記第1の集約コンテンツアイテムの前記視覚コンテンツが、前記第2の視覚フィルタが前記視覚コンテンツの前記第1の領域に適用された状態で表示され、
前記第2のオーディオトラックが、前記第2の視覚フィルタとの第2の既定の組み合わせの一部であり、
前記第1の既定の組合せ及び前記第2の既定の組合せが、フィルタとオーディオトラックとの複数の既定の組合せの一部であり、
フィルタとオーディオトラックとの前記複数の既定の組合せが、ある順序で配置されており、
前記第2の既定の組合せが、前記順序内で前記第1の既定の組合せに隣接するように選択され、前記第1のオーディオトラックが、前記第2のオーディオトラックとは異なる、
請求項3に記載の方法。
【請求項5】
前記第1の視覚フィルタが、前記第1のオーディオトラックの1つ以上のオーディオ特性及び前記第1の視覚フィルタの1つ以上の視覚特性に基づいて、前記第1のオーディオトラックとの前記第1の既定の組合せの一部であるように選択される、請求項4に記載の方法。
【請求項6】
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生することが、
前記表示生成構成要素を介して、
前記視覚コンテンツの中央表示部分を含む、前記視覚コンテンツの前記第1の領域に前記第1の視覚フィルタが適用された状態での前記視覚コンテンツと、
前記視覚コンテンツの第1の縁部を含む、前記第1の領域とは異なる前記視覚コンテンツの第2の領域に前記第2の視覚フィルタが適用された状態での前記視覚コンテンツと、
を同時に表示することを含む、請求項3に記載の方法。
【請求項7】
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生することが、
前記第1の視覚フィルタが前記第1の領域に適用され、かつ前記第2の視覚フィルタが前記第2の領域に適用された状態で、前記視覚コンテンツを同時に表示している間に、前記表示生成構成要素を介して、前記第1の視覚フィルタ及び前記第2の視覚フィルタとは異なる第3の視覚フィルタが、前記第1の領域及び前記第2の領域とは異なる前記視覚コンテンツの第3の領域であって、前記第1の縁部とは異なる前記視覚コンテンツの第2の縁部を含む、第3の領域に適用された状態で、前記視覚コンテンツを表示すること、
を更に含む、請求項6に記載の方法。
【請求項8】
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生することが、第1の視覚遷移タイプの遷移を前記第1の集約コンテンツアイテムの前記視覚コンテンツに適用することを含み、
前記第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、前記第1の集約コンテンツアイテムの視覚コンテンツの再生の前記視覚パラメータを修正することが、前記第1の視覚遷移タイプとは異なる第2の視覚遷移タイプに前記遷移を修正することを含む、
請求項2に記載の方法。
【請求項9】
前記第1の視覚遷移タイプが、前記ユーザ入力を検出する前に再生されている前記オーディオコンテンツに基づいて、複数の視覚遷移タイプから選択され、
前記第2の視覚遷移タイプが、前記ユーザ入力を検出した後に再生されているオーディオコンテンツに基づいて、前記複数の視覚遷移タイプから選択される、
請求項8に記載の方法。
【請求項10】
前記第1の視覚遷移タイプが、前記ユーザ入力を検出する前に再生されている前記オーディオコンテンツのテンポに基づいて、視覚遷移タイプの第1のセットから選択され、
前記第2の視覚遷移タイプが、前記ユーザ入力を検出した後に再生されている前記オーディオコンテンツのテンポに基づいて、前記第1のセットとは異なる視覚遷移タイプの第2のセットから選択される、
請求項8に記載の方法。
【請求項11】
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生することが、
視覚パラメータの第1のセットが前記視覚コンテンツの第1の領域に適用された状態で前記視覚コンテンツを表示することと、
前記第1の視覚フィルタが前記第1の領域に適用された状態で前記視覚コンテンツを同時に表示している間に、前記第1の領域とは異なり、かつ前記第1の領域に隣接する前記視覚コンテンツの第2の領域に、視覚パラメータの前記第1のセットとは異なる視覚パラメータの第2のセットが適用された状態で前記視覚コンテンツを表示することと、
前記第1の領域と前記第2の領域との間にディバイダを表示することと、
を含む、請求項3に記載の方法。
【請求項12】
前記ユーザ入力を検出したことに応じて、
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生し続けている間に、かつ前記第1の集約コンテンツアイテムの前記視覚コンテンツをシフトすることなく、前記ユーザ入力と同時に前記ディバイダをシフトすること、
を更に含む、請求項11に記載の方法。
【請求項13】
前記ユーザ入力を検出する前に、前記第1の集約コンテンツアイテムが、第1の持続時間にわたって、前記第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテムを表示するように構成されており、
前記第1の集約コンテンツアイテムの視覚コンテンツの再生の前記視覚パラメータを修正することが、前記第1の持続時間とは異なる第2の持続時間にわたって前記第1のコンテンツアイテムを表示するように、前記第1の集約コンテンツアイテムを構成することを含む、
請求項2に記載の方法。
【請求項14】
前記ユーザ入力がジェスチャを含む、請求項1に記載の方法。
【請求項15】
前記オーディオコンテンツを前記第1のオーディオトラックから前記第2のオーディオトラックに変更することが、
前記第1のオーディオトラックの開始位置ではない前記第1のオーディオトラックの第1の再生位置で、前記第1のオーディオトラックの再生を中止することと、
前記第2のオーディオトラックの開始位置ではない前記第2のオーディオトラックの第2の再生位置で、前記第2のオーディオトラックの再生を開始することと、
を含む、請求項1に記載の方法。
【請求項16】
前記1つ以上の入力デバイスを介して、1つ以上の持続時間設定入力を検出することと、
前記1つ以上の持続時間設定入力を検出したことに応じて、前記第1の集約コンテンツアイテムの持続時間を修正することと、
を更に含む、請求項1に記載の方法。
【請求項17】
前記第1のオーディオトラックが第1の持続時間を有し、前記第2のオーディオトラックが、前記第1の持続時間とは異なる第2の持続時間を有し、
前記方法が、
前記ユーザ入力を検出したことに応じて、前記第2の持続時間に基づいて、前記第1の集約コンテンツアイテムの持続時間を修正すること、
を更に含む、請求項1に記載の方法。
【請求項18】
前記オーディオコンテンツを再生している間に、前記1つ以上の入力デバイスを介して、1つ以上の持続時間適合入力を検出することと、
前記1つ以上の持続時間適合入力を検出したことに応じて、かつ前記オーディオコンテンツが第1の持続時間を有するとの判定に従って、前記第1の集約コンテンツアイテムの持続時間を、前記第1の持続時間とは異なる第2の持続時間から前記第1の持続時間に修正することと、
を更に含む、請求項1に記載の方法。
【請求項19】
前記第1の集約コンテンツアイテムの前記視覚コンテンツと、前記コンテンツアイテムとは別個の前記オーディオコンテンツとを再生している間に、前記表示生成構成要素を介して、複数の視覚フィルタオプションを表示するために選択可能な第1の選択可能なオブジェクトを表示することと、
前記第1の選択可能なオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第1の選択可能なオブジェクトの選択に対応する第1の選択入力を検出することと、
前記第1の選択入力を検出したことに応じて、前記第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、
前記第1の視覚フィルタが前記視覚コンテンツに適用された状態での前記第1の集約コンテンツアイテムの前記視覚コンテンツの継続した前記再生の表示を含む、第1のユーザインタフェースオブジェクトと、
前記第1の視覚フィルタとは異なる第2の視覚フィルタが前記視覚コンテンツに適用された状態での前記第1の集約コンテンツアイテムの前記視覚コンテンツの継続した前記再生の表示を含む、第2のユーザインタフェースオブジェクトと、
を同時に表示することを含む、視覚フィルタ選択ユーザインタフェースを表示することと、
を更に含む、請求項3に記載の方法。
【請求項20】
前記第1の集約コンテンツアイテムの前記視覚コンテンツと、前記コンテンツアイテムとは別個の前記オーディオコンテンツとを再生している間に、前記表示生成構成要素を介して、複数のオーディオトラックオプションを表示するために選択可能な第2の選択可能なオブジェクトを表示することと、
前記第2の選択可能なオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第2の選択可能なオブジェクトの選択に対応する第2の選択入力を検出することと、
前記第2の選択入力を検出したことに応じて、オーディオトラック選択ユーザインタフェースであって、
前記第1のオーディオトラックに対応する第3のユーザインタフェースオブジェクトであって、前記第1のオーディオトラックを前記第1の集約コンテンツアイテムに適用するプロセスを開始するために選択可能である、第3のユーザインタフェースオブジェクトと、
前記第1のオーディオトラックとは異なる前記第2のオーディオトラックに対応する第4のユーザインタフェースオブジェクトであって、前記第2のオーディオトラックを前記第1の集約コンテンツアイテムに適用するプロセスを開始するために選択可能である、第4のユーザインタフェースオブジェクトと、
を含む、オーディオトラック選択ユーザインタフェースを表示することと、
を更に含む、請求項1に記載の方法。
【請求項21】
前記第3のユーザインタフェースオブジェクトが、前記第1のオーディオトラックに対応するトラックタイトルの表示を含み、
前記第4のユーザインタフェースオブジェクトが、前記第2のオーディオトラックに対応するトラックタイトルの表示を含む、
請求項20に記載の方法。
【請求項22】
前記第3のユーザインタフェースオブジェクト及び前記第4のユーザインタフェースオブジェクトを含む前記オーディオトラック選択ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、第3の選択入力を検出することと、
前記第3の選択入力を検出したことに応じて、
前記第3の選択入力が前記第3のユーザインタフェースオブジェクトの選択に対応するとの判定に従って、前記第1のオーディオトラックの先頭から前記第1のオーディオトラックを再生することと、
前記第3の選択入力が前記第4のユーザインタフェースオブジェクトの選択に対応するとの判定に従って、前記第2のオーディオトラックの先頭から前記第2のオーディオトラックを再生することと、
を更に含む、請求項20に記載の方法。
【請求項23】
前記第3のユーザインタフェースオブジェクト及び前記第4のユーザインタフェースオブジェクトを含む前記オーディオトラック選択ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記第3のユーザインタフェースオブジェクトの選択に対応する第4の選択入力を検出することと、
前記第4の選択入力を検出したことに応じて、
前記コンピュータシステムのユーザがオーディオサービスに加入していないとの判定に従って、前記ユーザが前記オーディオサービスに加入するためのプロンプトを表示するプロセスを開始することと、
を更に含む、請求項20に記載の方法。
【請求項24】
前記第3のユーザインタフェースオブジェクト及び前記第4のユーザインタフェースオブジェクトを含むオ前記オーディオトラック選択ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記第3のユーザインタフェースオブジェクトの選択に対応する第5の選択入力を検出することと、
前記第5の選択入力を検出したことに応じて、
前記コンピュータシステムのユーザがオーディオサービスに加入していないとの判定に従って、プレビューユーザインタフェースを表示するプロセスであって、前記プレビューユーザインタフェースを表示することが、前記第1のオーディオトラックが前記第1の集約コンテンツアイテムの前記視覚コンテンツに適用された前記第1の集約コンテンツアイテムのプレビューを再生することを含み、前記プレビューユーザインタフェースが、前記ユーザが前記オーディオサービスに加入するまで、前記ユーザが前記プレビューを共有することを許可しない、及び/又は前記ユーザが後の再生のために前記プレビューを保存することを許可しない、プロセスを開始することと、
を更に含む、請求項20に記載の方法。
【請求項25】
前記第1の集約コンテンツアイテムの前記視覚コンテンツと、前記コンテンツアイテムとは別個の前記オーディオコンテンツとを再生している間に、前記コンピュータシステムを編集モードに入らせるために選択可能な第5のユーザインタフェースオブジェクトを表示することと、
前記第5のユーザインタフェースオブジェクトを表示した後に、前記1つ以上の入力デバイスを介して、第2のユーザ入力を検出することと、
前記第2のユーザ入力を検出したことに応じて、
前記コンピュータシステムが前記編集モードにあるとの判定に従って、前記第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生している前記オーディオコンテンツを修正することと、
前記コンピュータシステムが前記編集モードにないとの判定に従って、再生している前記オーディオコンテンツを修正することを取り止めることと、
を更に含む、請求項1に記載の方法。
【請求項26】
前記第1の集約コンテンツアイテムの前記視覚コンテンツと、前記コンテンツアイテムとは別個の前記オーディオコンテンツとを再生している間に、かつ前記第5のユーザインタフェースオブジェクトを表示している間に、前記表示生成構成要素を介して、前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を一時停止するために選択可能な第6のユーザインタフェースオブジェクトを表示することと、
前記第6のユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第6のユーザインタフェースオブジェクトの選択に対応する第6の選択入力を検出することと、
前記第6の選択入力を検出したことに応じて、
前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を一時停止することと、
前記第5のユーザインタフェースオブジェクトの表示を、前記第1の集約コンテンツアイテムの前記視覚コンテンツのアスペクト比を修正するために選択可能な第7のユーザインタフェースオブジェクトに置き換えることと、
前記第7のユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第7のユーザインタフェースオブジェクトの選択に対応する第7の選択入力を検出することと、
前記第7の選択入力を検出したことに応じて、前記表示生成構成要素を介して、第1のアスペクト比で表示されている状態から、前記第1のアスペクト比とは異なる第2のアスペクト比で表示されている状態に遷移する前記第1の集約コンテンツアイテムの前記視覚コンテンツを表示することと、
を更に含む、請求項25に記載の方法。
【請求項27】
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生している間に、前記1つ以上の入力デバイスを介して、前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を一時停止する要求に対応する一時停止入力を検出することと、
前記一時停止入力を検出したことに応じて、
前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を一時停止することと、
前記表示生成構成要素を介して、前記第1の集約コンテンツアイテムの前記視覚コンテンツを通してナビゲートするための視覚ナビゲーションユーザインタフェース要素を表示することと、
を更に含む、請求項1に記載の方法。
【請求項28】
前記視覚ナビゲーションユーザインタフェース要素を表示することが、
前記第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテムの表現と、
前記第1の複数のコンテンツアイテムのうちの第2のコンテンツアイテムの表現と、
を同時に表示することを含む、請求項27に記載の方法。
【請求項29】
前記一時停止入力を検出したことに応じて、
前記表示生成構成要素を介して、かつ前記視覚ナビゲーションユーザインタフェース要素と同時に、持続時間制御オプションを表示することと、
前記持続時間制御オプションを表示している間に、前記1つ以上の入力デバイスを介して、前記持続時間制御オプションの選択に対応する持続時間制御入力を検出することと、
前記持続時間制御入力を検出したことに応じて、前記表示生成構成要素を介して、
第1の再生持続時間に対応する第1の再生持続時間オプションと、
前記第1の再生持続時間とは異なる第2の再生持続時間に対応する第2の再生持続時間オプションと、
を同時に表示することと、
を更に含む、請求項27に記載の方法。
【請求項30】
前記一時停止入力を検出したことに応じて、
前記表示生成構成要素を介して、かつ前記視覚ナビゲーションユーザインタフェース要素と同時に、オーディオトラック制御オプションを表示することと、
前記オーディオトラック制御オプションを表示している間に、前記1つ以上の入力デバイスを介して、前記オーディオトラック制御オプションの選択に対応するオーディオトラック制御入力を検出することと、
前記オーディオトラック制御入力を検出したことに応じて、前記表示生成構成要素を介して、
前記第1のオーディオトラックに対応する第1のオーディオトラックオプションと、
前記第1のオーディオトラックとは異なる前記第2のオーディオトラックに対応する第2のオーディオトラックオプションと、
を同時に表示することと、
を更に含む、請求項27に記載の方法。
【請求項31】
前記第1の集約コンテンツアイテムの前記視覚コンテンツを再生することが、
前記表示生成構成要素を介して、第1の時間に、前記第1の集約コンテンツアイテム内の前記第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテムを表示することと、
前記表示生成構成要素を介して、前記第1のコンテンツアイテムと同時に、前記第1のコンテンツアイテムに対応する第1のタイトル情報を表示することと、
前記第1の時間の後の第2の時間に、前記表示生成構成要素を介して、前記第1の集約コンテンツアイテム内の前記第1の複数のコンテンツアイテムのうちの第2のコンテンツアイテムを表示することと、
前記表示生成構成要素を介して、前記第2のコンテンツアイテムと同時に、前記第2のコンテンツアイテムに対応し、かつ前記第1のタイトル情報とは異なる第2のタイトル情報を表示することと、
を含む、請求項1に記載の方法。
【請求項32】
前記第1の集約コンテンツアイテムの前記視覚コンテンツ及び前記オーディオコンテンツを再生している間に、前記1つ以上の入力デバイスを介して、1つ以上の視覚パラメータ修正入力を検出することと、
前記1つ以上の視覚パラメータ修正入力を検出したことに応じて、
前記1つ以上の視覚パラメータ修正入力が第1のジェスチャに対応するとの判定に従って、前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を第1の方式で修正することと、
前記1つ以上の視覚パラメータ修正入力が前記第1のジェスチャとは異なる第2のジェスチャに対応するとの判定に従って、前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第1の方式とは異なる第2の方式で修正することと、
を更に含む、請求項1に記載の方法。
【請求項33】
前記第1のジェスチャが、長い押圧ジェスチャであり、
前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第1の方式で修正することが、前記長い押圧ジェスチャの間、現在表示されているコンテンツアイテムの表示を維持することを含む、
請求項32に記載の方法。
【請求項34】
前記長い押圧ジェスチャの間、前記現在表示されているコンテンツアイテムの表示を維持している間に、前記1つ以上の入力デバイスを介して、前記長い押圧ジェスチャの終了を検出することと、
前記長い押圧ジェスチャの終了を検出した後に、前記現在表示されているコンテンツアイテムの後に表示される1つ以上の後続のコンテンツアイテムの再生持続時間を修正することと、
を更に含む、請求項33に記載の方法。
【請求項35】
前記第1のジェスチャが第1のタップジェスチャであり、
前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第1の方式で修正することが、前記第1の集約コンテンツアイテム内のコンテンツアイテムの前記順序付けられたシーケンス内の前のコンテンツアイテムにナビゲートすることを含み、
前記第2のジェスチャが、前記第1のタップジェスチャとは異なる第2のタップジェスチャであり、
前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第2の方式で修正することが、前記第1の集約コンテンツアイテム内のコンテンツアイテムの前記順序付けられたシーケンス内の次のコンテンツアイテムにナビゲートすることを含む、
請求項33に記載の方法。
【請求項36】
前記第1のジェスチャが第1のスワイプジェスチャであり、
前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第1の方式で修正することが、前記第1の集約コンテンツアイテム内のコンテンツアイテムの前記順序付けられたシーケンス内の前のコンテンツアイテムにナビゲートすることを含み、
前記第2のジェスチャが、前記第1のスワイプジェスチャとは異なる第2のスワイプジェスチャであり、
前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第2の方式で修正することが、前記第1の集約コンテンツアイテム内のコンテンツアイテムの前記順序付けられたシーケンス内の次のコンテンツアイテムにナビゲートすることを含む、
請求項33に記載の方法。
【請求項37】
前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第1の方式で修正することが、前記コンテンツアイテムとは別個の前記オーディオコンテンツを再生し続けている間に、前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第1の方式で修正することを含み、
前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第2の方式で修正することが、前記コンテンツアイテムとは別個の前記オーディオコンテンツを再生し続けている間に、前記第1の集約コンテンツアイテムの前記視覚コンテンツの再生を前記第2の方式で修正することを含む、
請求項33に記載の方法。
【請求項38】
前記表示生成構成要素を介して、前記第1の集約コンテンツアイテムの第1のコンテンツアイテムを表示し、第3のユーザ入力を検出している間に、かつ
前記第3のユーザ入力を検出したことに応じて、前記表示生成構成要素を介して、
前記第1のコンテンツアイテムに示される人物を識別するプロセスを開始するために選択可能なタグ付けオプションと、
前記第1の集約コンテンツアイテムから、前記第1のコンテンツアイテムにも示される人物を示す1つ以上のコンテンツアイテムを除去するプロセスを開始するために選択可能な除去オプションと、
を同時に表示すること、
を更に含む、請求項1に記載の方法。
【請求項39】
請求項1から38のいずれか一項に記載の方法をコンピュータに実行させるコンピュータプログラム。
【請求項40】
請求項39に記載のコンピュータプログラムを記憶するメモリと、
前記メモリに記憶された前記コンピュータプログラムを実行可能な1つ以上のプロセッサであって、前記コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されている、1つ以上のプロセッサと、
を含む、コンピュータシステム。
【請求項41】
表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムであって、
請求項1から38のいずれか一項に記載の方法を実行する手段、
を備える、コンピュータシステム。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本出願は、2021年12月6日に出願された「AGGREGATED CONTENT ITEM USER INTERFACES」と題する米国特許出願第17/542,947号、及び2021年6月1日に出願された「AGGREGATED CONTENT ITEM USER INTERFACES」と題する米国特許仮出願第63/195,645号の優先権を主張するものであり、これらのそれぞれの内容全体が参照により本明細書に組み込まれる。
【0002】
本開示は、概して、コンピュータユーザインタフェースに関し、より具体的には、集約コンテンツアイテムを含むメディアアイテムの集合をナビゲート、閲覧、及び編集する技術に関する。
【背景技術】
【0003】
デバイスの記憶容量及び処理電力が増加し続けるにつれて、相互接続されたデバイス間の努力を要しないメディア共有の上昇と相俟って、メディアアイテム(例えば、写真及びビデオ)のユーザのライブラリのサイズが増加し続ける。
【発明の概要】
【0004】
しかしながら、メディアアイテムのライブラリが成長し続けるにつれて、ユーザの生活及び経験のアーカイブを作成すると、ライブラリは、ナビゲートすることが煩雑となる可能性がある。例えば、多くのライブラリは、デフォルトでは実質的に柔軟性のない方法でメディアアイテムを配置する。メディアのユーザ閲覧は、異なる期間にわたる現在のコンテキストに関連するメディアを見ることを望む可能性がある。しかしながら、いくつかのインタフェースは、ユーザが、求めるコンテンツを検索するために、過剰な数の異なるメディアディレクトリ又はインタフェースにナビゲートすることを必要とする。これは非効率的であり、ユーザの時間及びリソースの浪費である。したがって、コンテキスト上関連する方法でメディアアイテムの提示を容易にし、それによって、メディアコンテンツに関与するための改善されたインタフェースを提供することが望ましい。
【0005】
更に、電子デバイスを使用してメディアアイテムの集合をナビゲート、閲覧、及び/又は編集するためのいくつかの技術は、概して煩雑かつ非効率的である。例えば、いくつかの既存の技術では、複数回のキー押圧又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。この後者の考慮事項は、バッテリ動作式デバイスにおいて特に重要である。
【0006】
したがって、本技術は、集約コンテンツアイテム(例えば、集約メディアアイテム)を含むメディアアイテムの集合をナビゲート、閲覧、及び編集するための、より速く、より効率的な方法及びインタフェースを電子デバイスに提供する。そのような方法及びインタフェースは、任意選択的に、メディアアイテムの集合をナビゲート、閲覧、及び編集するための他の方法を補完する、又は置き換える。そのような方法及びインタフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、バッテリ充電の間隔を長くする。
【0007】
いくつかの実施形態によれば、方法が記載される。この方法は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、選択基準の第1のセットに基づいてコンテンツアイテムのセットから選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生することと、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、コンテンツアイテムとは別個のオーディオコンテンツを再生することと、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生している間に、1つ以上の入力デバイスを介して、ユーザ入力を検出することと、ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正することと、を含む。
【0008】
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、選択基準の第1のセットに基づいてコンテンツアイテムのセットから選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、コンテンツアイテムとは別個のオーディオコンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生している間に、1つ以上の入力デバイスを介して、ユーザ入力を検出し、ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正する、命令を含む。
【0009】
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、選択基準の第1のセットに基づいてコンテンツアイテムのセットから選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、コンテンツアイテムとは別個のオーディオコンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生している間に、1つ以上の入力デバイスを介して、ユーザ入力を検出し、ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正する、命令を含む。
【0010】
いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されており、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリとを備え、1つ以上のプログラムは、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、選択基準の第1のセットに基づいてコンテンツアイテムのセットから選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、コンテンツアイテムとは別個のオーディオコンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生している間に、1つ以上の入力デバイスを介して、ユーザ入力を検出し、ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正する、命令を含む。
【0011】
いくつかの実施形態によれば、方法が記載される。この方法は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択された第1の複数のコンテンツアイテムであって、選択基準の第1のセットに基づいて選択された、第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生することと、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、オーディオコンテンツを再生することと、第1の集約コンテンツアイテムの視覚コンテンツの少なくとも一部分を再生した後に、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出することと、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に、1つ以上の再生条件のうちの第1のセットの再生条件が満たされたとの判定に従って、第1の集約コンテンツアイテムとは異なる第2の集約コンテンツアイテムであって、第1の複数のコンテンツアイテムとは異なる第2の複数のコンテンツアイテムであって、更に、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択され、選択基準の第2のセットに基づいて選択された、第2の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第2の集約コンテンツアイテムの視覚コンテンツを再生することと、を含む。
【0012】
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択された第1の複数のコンテンツアイテムであって、選択基準の第1のセットに基づいて選択された、第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、オーディオコンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツの少なくとも一部分を再生した後に、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出し、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に、1つ以上の再生条件のうちの第1のセットの再生条件が満たされたとの判定に従って、第1の集約コンテンツアイテムとは異なる第2の集約コンテンツアイテムであって、第1の複数のコンテンツアイテムとは異なる第2の複数のコンテンツアイテムであって、更に、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択され、選択基準の第2のセットに基づいて選択された、第2の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第2の集約コンテンツアイテムの視覚コンテンツを再生する、命令を含む。
【0013】
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択された第1の複数のコンテンツアイテムであって、選択基準の第1のセットに基づいて選択された、第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、オーディオコンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツの少なくとも一部分を再生した後に、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出し、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に、1つ以上の再生条件のうちの第1のセットの再生条件が満たされたとの判定に従って、第1の集約コンテンツアイテムとは異なる第2の集約コンテンツアイテムであって、第1の複数のコンテンツアイテムとは異なる第2の複数のコンテンツアイテムであって、更に、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択され、選択基準の第2のセットに基づいて選択された、第2の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第2の集約コンテンツアイテムの視覚コンテンツを再生する、命令を含む。
【0014】
いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されており、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリとを備え、1つ以上のプログラムは、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択された第1の複数のコンテンツアイテムであって、選択基準の第1のセットに基づいて選択された、第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、オーディオコンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツの少なくとも一部分を再生した後に、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出し、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に、1つ以上の再生条件のうちの第1のセットの再生条件が満たされたとの判定に従って、第1の集約コンテンツアイテムとは異なる第2の集約コンテンツアイテムであって、第1の複数のコンテンツアイテムとは異なる第2の複数のコンテンツアイテムであって、更に、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択され、選択基準の第2のセットに基づいて選択された、第2の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第2の集約コンテンツアイテムの視覚コンテンツを再生する、命令を含む。
【0015】
いくつかの実施形態によれば、方法が記載される。この方法は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、選択基準の第1のセットに基づいてコンテンツアイテムのセットから選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生することと、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、1つ以上の入力デバイスを介して、ユーザ入力を検出することと、ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止することと、表示生成構成要素を介して、第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテムの第1の表現と、第1の複数のコンテンツアイテムのうちの第2のコンテンツアイテムの第2の表現とを含む、第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現を同時に表示することを含む、ユーザインタフェースを表示することと、を含む。
【0016】
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、選択基準の第1のセットに基づいてコンテンツアイテムのセットから選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、1つ以上の入力デバイスを介して、ユーザ入力を検出し、ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止し、表示生成構成要素を介して、第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテムの第1の表現と、第1の複数のコンテンツアイテムのうちの第2のコンテンツアイテムの第2の表現とを含む、第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現を同時に表示することを含む、ユーザインタフェースを表示する、命令を含む。
【0017】
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、選択基準の第1のセットに基づいてコンテンツアイテムのセットから選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、1つ以上の入力デバイスを介して、ユーザ入力を検出し、ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止し、表示生成構成要素を介して、第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテムの第1の表現と、第1の複数のコンテンツアイテムのうちの第2のコンテンツアイテムの第2の表現とを含む、第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現を同時に表示することを含む、ユーザインタフェースを表示する、命令を含む。
【0018】
いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されており、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリとを備え、1つ以上のプログラムは、表示生成構成要素を介して、第1の集約コンテンツアイテムであって、選択基準の第1のセットに基づいてコンテンツアイテムのセットから選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む、第1の集約コンテンツアイテムの視覚コンテンツを再生し、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、1つ以上の入力デバイスを介して、ユーザ入力を検出し、ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止し、表示生成構成要素を介して、第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテムの第1の表現と、第1の複数のコンテンツアイテムのうちの第2のコンテンツアイテムの第2の表現とを含む、第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現を同時に表示することを含む、ユーザインタフェースを表示する、命令を含む。
【0019】
これらの機能を実行する実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるために構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるために構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。
【0020】
したがって、メディアアイテムをナビゲート、閲覧、及び編集するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それにより、そのようなデバイスの有効性、効率、及びユーザ満足度が増す。そのような方法及びインタフェースは、メディアアイテムをナビゲート、閲覧、及び編集するための他の方法を補完する、又は置き換えることができる。
【図面の簡単な説明】
【0021】
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
【0022】
【
図1A】いくつかの実施形態に係る、タッチ感知ディスプレイを備えたポータブル多機能デバイスを示すブロック図である。
【0023】
【
図1B】いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。
【0024】
【
図2】いくつかの実施形態に係る、タッチスクリーンを有するポータブル多機能デバイスを示す。
【0025】
【
図3】いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。
【0026】
【
図4A】いくつかの実施形態に係る、ポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザインタフェースを示す。
【0027】
【
図4B】いくつかの実施形態に係る、ディスプレイとは別個のタッチ感知面を有する多機能デバイスの例示的なユーザインタフェースを示す。
【0028】
【
図5A】いくつかの実施形態に係る、パーソナル電子デバイスを示す。
【0029】
【
図5B】いくつかの実施形態に係る、パーソナル電子デバイスを示すブロック図である。
【0030】
【
図6A】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6B】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6C】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6D】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6E】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6F】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6G】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6H】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6I】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6J】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6K】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6L】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6M】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6N】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6O】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6P】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6Q】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6R】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6S】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6T】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6U】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6V】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6W】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6X】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6Y】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6Z】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6AA】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6AB】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6AC】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6AD】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6AE】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6AF】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【
図6AG】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
【0031】
【
図7】いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを修正する方法を示すフロー図を示す。
【0032】
【
図8A】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8B】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8C】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8D】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8E】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8F】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8G】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8H】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8I】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8J】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8K】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【
図8L】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
【0033】
【
図9】いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理する方法を示すフロー図を示す。
【0034】
【
図10A】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10B】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10C】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10D】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10E】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10F】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10G】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10H】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10I】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10J】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10K】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10L】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10M】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10N】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10O】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10P】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10Q】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10R】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【
図10S】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
【0035】
【
図11】いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧する方法を示すフロー図を示す。
【0036】
【
図12A】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12B】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12C】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12D】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12E】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12F】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12G】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12H】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12I】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12J】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12K】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12L】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12M】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12N】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12O】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12P】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12Q】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12R】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12S】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12T】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12U】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12V】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【
図12W】いくつかの実施形態に係る、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
【発明を実施するための形態】
【0037】
以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、むしろ例示的な実施形態の説明として提供されることを認識されたい。
【0038】
コンテンツアイテム(例えば、メディアアイテム(例えば、写真及び/又はビデオ))をナビゲート、閲覧、及び編集するための効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。例えば、現在のコンテキストに関連するメディアコンテンツを取り出すためのユーザによる多大な手作業を排除する技術、及び/又は集約コンテンツアイテムなどのコンテンツアイテムを修正するためのユーザによる多大な手作業を排除する技術が必要とされている。このような技術によって、コンテンツアイテムをナビゲート、閲覧、及び/又は編集するユーザの認識的負担を軽減することができ、それによって生産性を向上させる。更に、そのような技術は、普通なら冗長なユーザ入力に浪費されるプロセッサ及びバッテリの電力を低減することができる。
【0039】
以下の
図1A~
図1B、
図2、
図3、
図4A~
図4B、及び
図5A~
図5Bは、コンテンツアイテムを閲覧、ナビゲート、及び編集するための技術を実行する例示的なデバイスの説明を提供する。
図6A~
図6AGは、視覚コンテンツを再生し続けている間に、コンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。
図7は、いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、コンテンツアイテムを修正する方法を示すフロー図である。
図6A~
図6AGのユーザインタフェースは、
図7のプロセスを含む、後述するプロセスを例示するために使用される。
図8A~
図8Lは、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。
図9は、いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理する方法を示すフロー図である。
図8A~
図8Lのユーザインタフェースは、
図9のプロセスを含む、後述するプロセスを例示するために使用される。
図10A~
図10Sは、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。
図11は、いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧する方法を示すフロー図である。
図10A~
図10Sのユーザインタフェースは、
図11のプロセスを含む、後述するプロセスを例示するために使用される。
図12A~
図12Wは、コンテンツアイテムを閲覧、ナビゲート、及び編集するための例示的なユーザインタフェースを示す。
図12A~
図12Wのユーザインタフェースは、
図7、
図9、及び
図11のプロセスを含む、後述するプロセスを例示するために使用される。
【0040】
後述のプロセスは、改善された視覚的なフィードバックをユーザに提供すること、動作を実行するために必要な入力の数を低減すること、表示される追加のコントロールでユーザインタフェースを雑然とさせることなく追加の制御オプションを提供すること、条件のセットが満たされたときに更なるユーザ入力を必要とせずに動作を実行すること、及び/又は、他の技術を含む、様々な技術により、(例えば、ユーザがデバイスを操作する/デバイスと対話するときに、適切な入力を提供するのを助け、ユーザの誤りを低減することによって)デバイスの操作性を向上させ、ユーザとデバイスのインタフェースをより効率化する。これらの技術はまた、ユーザがデバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0041】
更に、1つ以上の条件が満たされたことを1つ以上のステップが条件とする本明細書に記載の方法では、記載の方法は、繰り返しの過程にわたって、本方法のステップが条件とする条件の全てが本方法の異なる繰り返しで満たされるように、複数の繰り返しで繰り返すことができることを理解されたい。例えば、ある方法が、条件が満たされた場合に第1のステップを実行し、条件が満たされなかった場合に第2のステップを実行することを必要とする場合、当業者であれば、条件が満たされ、満たされなくなるまで、請求項に記載のステップが、特定の順序でなく繰り返されることを理解するであろう。したがって、1つ以上の条件が満たされたことを条件とする1つ以上のステップで説明される方法は、方法に記載された各条件が満たされるまで繰り返される方法として書き換えることができる。しかしながら、これは、システム又はコンピュータ可読媒体が、対応する1つ以上の条件の充足に基づいて条件付き動作を実行する命令を含み、したがって、方法のステップが条件付きである全ての条件が満たされるまで、方法のステップを明示的に繰り返すことなく偶発性が満たされたか否かを判定することができる、システム又はコンピュータ可読媒体の請求項には必要とされない。当業者はまた、条件付きステップを有する方法と同様に、システム又はコンピュータ可読記憶媒体が、条件付きステップの全てが実行されたことを確実にするために必要な回数だけ方法のステップを繰り返すことができることを理解するであろう。
【0042】
以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。
【0043】
本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲で使用されるとき、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。
【0044】
「~の場合(if)」という用語は、任意選択的に、文脈に従って、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応じて(in response to determining)」若しくは「~を検出したことに応じて(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の条件又はイベント]が検出された場合(if [a stated condition or event] is detected)」という語句は、任意選択的に、文脈に従って、「~と判定したとき(upon determining)」若しくは「~と判定したことに応じて(in response to determining)」、又は「[記載の条件又はイベント]を検出したとき(upon detecting [the stated condition or event])」若しくは「[記載の条件又はイベント]を検出したことに応じて(in response to detecting [the stated condition or event])」を意味すると解釈される。
【0045】
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップコンピュータ又はタブレットコンピュータなどの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。いくつかの実施形態では、電子デバイスは、表示生成構成要素と(例えば、無線通信を介して、有線通信を介して)通信しているコンピュータシステムである。表示生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚的な出力を提供するように構成されている。いくつかの実施形態では、表示生成構成要素は、コンピュータシステムと一体化されている。いくつかの実施形態では、表示生成構成要素は、コンピュータシステムとは別個である。本明細書で使用するとき、コンテンツを「表示すること」は、コンテンツを視覚的に生成するために、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を、一体型又は外部の表示生成構成要素に送信することによって、コンテンツ(例えば、ディスプレイコントローラ156によってレンダリング又はデコードされたビデオデータ)を表示させることを含む。
【0046】
以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。
【0047】
デバイスは、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。
【0048】
本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーション毎に、及び/又は個別のアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透明なユーザインタフェースを備える様々なアプリケーションをサポートする。
【0049】
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。
図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(input/output、I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。
【0050】
本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代替(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値が、接触の推定される力を判定するために組み合わされる(例えば、加重平均される)。同様に、スタイラスの感圧性先端部が、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変更、接触に近接するタッチ感知面の電気容量及び/若しくはその変更、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変更が、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。いくつかの実装形態では、接触の力又は圧力の代替測定値が、強度閾値を上回っているか否かを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触の力又は圧力の代替測定値は、力又は圧力の推定値に変換され、力又は圧力の推定値が、強度閾値を上回っているか否かを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを表示する実装面積が限られている低減されたサイズのデバイス上で、ユーザが他の方法ではアクセス不可能であり得る追加のデバイス機能にユーザがアクセスすること(例えば、タッチ感知ディスプレイ上で)、及び/又は、ユーザ入力を受信すること(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的コントロールを介して)が可能となる。
【0051】
本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変更に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。場合によっては、ユーザの動作により物理的に押圧された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の実施例として、タッチ感知面の移動は、タッチ感知面の平滑度に変更がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。
【0052】
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。
図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実装される。
【0053】
メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。
【0054】
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム((例えば、命令を含む)コンピュータプログラムなど)及び/又は命令セットを動作させる又は実行して、デバイス100のための様々な機能を実施し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上に実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。
【0055】
RF(radio frequency、無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラ電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、モバイル通信用グローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution,Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth、Bluetooth Low Energy(BTLE)、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi)(例えば、IEEE802.11a、IEEE802.11b、IEEE802.11g、IEEE802.11n、及び/若しくはIEEE802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンション用のセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適切な通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
【0056】
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取り出され、かつ/又はメモリ102及び/若しくはRF回路108に送信される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、
図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
【0057】
I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光学センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくはコントロールデバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合されている(又はいずれにも結合されていない)。1つ以上のボタン(例えば、
図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量制御のためのアップ/ダウンボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、
図2の206)を含む。いくつかの実施形態では、電子デバイスは、1つ以上の入力デバイスと(例えば、無線通信を介して、有線通信を介して)通信しているコンピュータシステムである。いくつかの実施形態では、1つ以上の入力デバイスは、タッチ感知面(例えば、タッチ感知ディスプレイの一部としてのトラックパッド)を含む。いくつかの実施形態では、1つ以上の入力デバイスは、入力としてユーザのジェスチャ(例えば、ハンドジェスチャ)を追跡するためなど、1つ以上のカメラセンサ(例えば、1つ以上の光学センサ164及び/又は1つ以上の深度カメラセンサ175)を含む。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。
【0058】
全体が参照により本明細書に組み込まれる、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押圧は、任意選択的に、タッチスクリーン112のロックを解放し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをロック解除するプロセスを開始する。プッシュボタン(例えば、206)のより長い押圧は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。
【0059】
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚的出力を表示する。この視覚的出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚的出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。
【0060】
タッチスクリーン112は、触覚及び/又は触知接触に基づくユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は、(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、検出された接触をタッチスクリーン112に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との相互作用に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
【0061】
タッチスクリーン112は、任意選択的に、LCD(liquid crystal display)(液晶ディスプレイ)技術、LPD(light emitting polymer display)(発光ポリマーディスプレイ)技術、又はLED(light emitting diode)(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる移動又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。
【0062】
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれ全体が参照により本明細書に組み込まれる、米国特許第6,323,846号(Westermanら)、同第6,570,557号(Westermanら)、及び/若しくは同第6,677,932号(Westerman)、並びに/又は米国特許出願公開第2002/0015024(A1)号に記載されているマルチタッチ感知タッチパッドに類似している。しかし、タッチスクリーン112はデバイス100からの視覚的出力を表示するのに対して、タッチ感知タッチパッドは視覚的出力を提供しない。
【0063】
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、以下の出願、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」で説明されている。これらの出願は全て、全体が参照により本明細書に組み込まれる。
【0064】
タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適したオブジェクト又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に使用して動作するように設計されているが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど正確でない可能性がある。いくつかの実施形態では、デバイスは、指ベースの粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。
【0065】
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚的出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面又はタッチスクリーンによって形成されるタッチ感知面の拡張部である。
【0066】
デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状況インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
【0067】
また、デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。
図1Aは、I/Oサブシステム106内の光学センサコントローラ158に結合された光学センサを示す。光学センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光学センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光学センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、任意選択的に、静止画像又はビデオをキャプチャする。いくつかの実施形態では、光学センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対側のデバイス100の裏面に位置し、したがってタッチスクリーンディスプレイは、静止画像及び/又はビデオ画像の取得のためのビューファインダとして使用することが可能である。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間、ユーザの画像が、任意選択的に、テレビ会議のために取得されるように、光学センサは、デバイスの前面に配置されている。いくつかの実施形態では、光学センサ164の位置は、ユーザによって(例えば、デバイス筐体内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光学センサ164が、タッチスクリーンディスプレイと共に、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。
【0068】
デバイス100は、任意選択的に、1つ以上の深度カメラセンサ175もまた含む。
図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔面)の3次元モデルを作成する。いくつかの実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の異なる部分の深度マップを判定するために使用される。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間、任意選択的に、深度情報を有するユーザの画像をテレビ会議のために取得し、また、深度マップデータを有する自撮り画像をキャプチャするために、デバイス100の前面に深度カメラセンサが配置されている。いくつかの実施形態では、深度カメラセンサ175は、デバイスの背面に、又はデバイス100の背面及び前面に配置されている。いくつかの実施形態では、深度カメラセンサ175の位置は、ユーザによって(例えば、デバイス筐体内でレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイと共に、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。
【0069】
デバイス100はまた、任意選択的に、1つ以上の接触強度センサ165を含む。
図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、任意選択的に、1つ以上のピエゾ抵抗ひずみゲージ、容量性力センサ、電気力センサ、圧電力センサ、光学力センサ、容量性タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(若しくは圧力)を測定するために使用されるセンサ)を含む。接触強度センサ165は、接触強度情報(例えば、圧力情報、又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置されている、又はそれに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。
【0070】
また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。
図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合されている。近接センサ166は、任意選択的に、全体が参照により本明細書に組み込まれる、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、同第11/240,788号、「Proximity Detector In Handheld Device」、同第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、同第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で記載されているように機能する。いくつかの実施形態では、多機能デバイスが、ユーザの耳の近くに置かれた場合(例えば、ユーザが電話をかけている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。
【0071】
デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。
図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された、触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触知フィードバック生成命令を触覚フィードバックモジュール133から受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と並置されている、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に移動させることによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。
【0072】
また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。
図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合されている。加速度計168は、任意選択的に、どちらも全体が参照により本明細書に組み込まれる、米国特許出願公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許出願公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、縦長表示又は横長表示でタッチスクリーンディスプレイに表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の位置及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。
【0073】
いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、メモリ102(
図1A)又は370(
図3)は、
図1A及び
図3に示されるように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスの位置及び/又は姿勢に関する位置情報のうちの1つ以上を含む。
【0074】
オペレーティングシステム126(例えば、Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS、又はVxWorksなどの組込み型オペレーティングシステム)は、全般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。
【0075】
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIREなど)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに結合するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは同様であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。
【0076】
接触/動きモジュール130は、任意選択的に、タッチスクリーン112及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を(ディスプレイコントローラ156と連携して)検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指ダウンイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、1つ以上の指ドラッグイベントを検出すること)、及び接触が中止したか否かを判定すること(例えば、指アップイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変更)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
【0077】
いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するために(例えば、ユーザがアイコン上で「クリック」したか否かを判定するために)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、強度閾値の少なくともサブセットは、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変更することなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変更することなく、広範囲の予め定義された閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザに、(例えば、個々の強度閾値を調整すること、及び/又は複数の強度閾値をシステムレベルのクリック「強度」パラメータによって一度に調整することによって)強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される。
【0078】
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じ位置(又は実質的に同じ位置)(例えば、アイコンの位置)で指アップ(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。
【0079】
グラフィックモジュール132は、表示されるグラフィックの視覚的な影響(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚的プロパティ)を変更する構成要素を含む、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリング及び表示する様々な既知のソフトウェア構成要素を含む。本明細書で使用されるとき、「グラフィック」という用語は、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含むがそれらに限定されない、ユーザに表示することができる任意のオブジェクトを含む。
【0080】
いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィックプロパティデータと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力するスクリーンの画像データを生成する。
【0081】
触覚フィードバックモジュール133は、触知出力生成器(単数又は複数)167によって使用される命令を生成するための様々なソフトウェア構成要素を含み、ユーザのデバイス100との相互作用に応じて、デバイス100上の1つ以上の位置での触知出力を生成する。
【0082】
テキスト入力モジュール134は、任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
【0083】
GPSモジュール135は、デバイスの位置を判定し、様々なアプリケーション内で使用するためにこの情報を提供する(例えば、位置ベースのダイアリングで使用するために電話138へ、写真/ビデオメタデータとしてカメラ143へ、並びに気象ウィジェット、ローカルイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの位置ベースのサービスを提供するアプリケーションへ)。
【0084】
アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/若しくはビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダーモジュール148、
●任意選択的に、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを一体化したビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
【0085】
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
【0086】
連絡先モジュール137は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、任意選択的に、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレス帳又は連絡先リストを管理するために用いられ、それには、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含む。
【0087】
電話モジュール138は、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、任意選択的に、電話番号に対応する一連の文字の入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、個別の電話番号のダイヤル、通話の実行、並びに通話終了時の接続解除又は通話停止のために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
【0088】
テレビ会議モジュール139は、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光学センサ164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、ユーザの命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了する実行可能命令を含む。
【0089】
電子メールクライアントモジュール140は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの命令に応じて電子メールを作成、送信、受信、及び管理する実行可能命令を含む。電子メールクライアントモジュール140は、画像管理モジュール144と連携して、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。
【0090】
インスタントメッセージングモジュール141は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージに対応する一連の文字を入力し、以前に入力された文字を修正し、(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)個別のインスタントメッセージを送信し、インスタントメッセージを受信し、受信したインスタントメッセージを閲覧する実行可能命令を含む。いくつかの実施形態では、送信される及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるようなグラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書で使用されるとき、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)とインターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)の両方を指す。
【0091】
トレーニングサポートモジュール142は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連携して、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼の目標を有する)を作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、トレーニングデータを表示、記憶、及び送信する実行可能命令を含む。
【0092】
カメラモジュール143は、タッチスクリーン112、ディスプレイコントローラ156、光学センサ(単数又は複数)164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、静止画像若しくは(ビデオストリームを含む)ビデオをキャプチャし、それらをメモリ102に記憶し、静止画像若しくはビデオの特性を修正し、又はメモリ102から静止画像若しくはビデオを削除する実行可能命令を含む。
【0093】
画像管理モジュール144は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連携して、静止画像及び/若しくはビデオ画像を配置、修正(例えば、編集)、又は他の方法で操作、ラベル付け、削除、(例えば、デジタルスライドショー若しくはアルバムにおいて)提示、及び記憶する実行可能命令を含む。
【0094】
ブラウザモジュール147は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ウェブページ又はその一部、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含む、ユーザの命令に従ってインターネットをブラウジングする実行可能命令を含む。
【0095】
カレンダーモジュール148は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザの命令に従って、カレンダー及びカレンダーに関連付けられたデータ(例えば、カレンダー項目、to-doリストなど)を作成、表示、修正、及び記憶する実行可能命令を含む。
【0096】
ウィジェットモジュール149は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、任意選択的に、ユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されたミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
【0097】
ウィジェットクリエータモジュール150は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。
【0098】
検索モジュール151は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)と一致するメモリ102内のテキスト、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索する実行可能命令を含む。
【0099】
ビデオ及び音楽プレーヤモジュール152は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能命令、並びにビデオを(例えば、タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生する実行可能命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を含む。
【0100】
メモモジュール153は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの命令に従ってメモ、to-doリストなどを作成及び管理する実行可能命令を含む。
【0101】
地図モジュール154は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、任意選択的に、ユーザの命令に従って、地図及び地図に関連付けられたデータ(例えば、運転の道順、特定の位置又はその付近の店舗及び他の対象地点に関するデータ、並びに他の位置ベースのデータ)を受信、表示、修正、及び記憶するために使用される。
【0102】
オンラインビデオモジュール155は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、(例えば、ストリーミング及び/又はダウンロードによる)受信、(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上の)再生、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容の全体が参照により本明細書に組み込まれる、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」に見出すことができる。
【0103】
上記で識別したモジュール及びアプリケーションは各々、前述した1つ以上の機能及び本出願に記載した方法(例えば、本明細書に記載したコンピュータにより実行される方法及び他の情報処理方法)を実行する実行可能命令のセットに対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム((例えば、命令を含む)コンピュータプログラムなど)、手順、又はモジュールとして実装される必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットが、任意選択的に組み合わされ、又は他の方法で再構成されている。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、
図1Aのビデオ及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択的に、上記で識別したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
【0104】
いくつかの実施形態では、デバイス100は、そのデバイスにおける既定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを介して実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。
【0105】
タッチスクリーン及び/又はタッチパッドのみを介して実行される既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。
【0106】
図1Bは、いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(
図1A)又は370(
図3)は、イベントソート部170(例えば、オペレーティングシステム126内)と、個別のアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。
【0107】
イベントソート部170は、イベント情報を受信し、イベント情報を配信するアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソート部170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中であるときにタッチ感知ディスプレイ112に表示される現在のアプリケーションビュー(単数又は複数)を示すアプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定するためにイベントソート部170によって使用され、アプリケーション内部状態192は、イベント情報が配信されるアプリケーションビュー191を判定するためにイベントソート部170によって使用される。
【0108】
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを可能にする状態キュー、及びユーザによって行われた前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加情報を含む。
【0109】
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、タッチ感知ディスプレイ112でのマルチタッチジェスチャの一部としてのユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
【0110】
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。
【0111】
いくつかの実施形態では、イベントソート部170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
【0112】
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示しているときに、サブイベントが1つ以上のビュー内のどこで起きたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができるコントロール及び他の要素から構成されている。
【0113】
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウィンドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(個別のアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチに基づくジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて判定される。
【0114】
ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するとき、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを識別する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成する一連のサブイベントにおける第1のサブイベント)が発生する最下位レベルビューである。ヒットビューがヒットビュー判定モジュール172によって識別されると、ヒットビューは、典型的には、ヒットビューとして識別されたタッチ又は入力ソースと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。
【0115】
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)が特定の一連のサブイベントを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみが特定の一連のサブイベントを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理的位置を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、特定の一連のサブイベントを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。
【0116】
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、個別のイベント受信部182によって取り出されるイベント情報をイベントキューに記憶する。
【0117】
いくつかの実施形態では、オペレーティングシステム126は、イベントソート部170を含む。あるいは、アプリケーション136-1がイベントソート部170を含む。更に他の実施形態では、イベントソート部170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部である。
【0118】
いくつかの実施形態では、アプリケーション136-1は、各々がアプリケーションのユーザインタフェースの個別のビュー内で発生するタッチイベントを処理する命令を含む、複数のイベント処理部190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、個別のアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136-1がメソッド及び他のプロパティを継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、個別のイベント処理部190は、データ更新部176、オブジェクト更新部177、GUI更新部178、及び/又はイベントソート部170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は、任意選択的に、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し又は呼び出して、アプリケーション内部状態192を更新する。あるいは、アプリケーションビュー191のうちの1つ以上が、1つ以上のそれぞれのイベント処理部190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178のうちの1つ以上は、個別のアプリケーションビュー191に含まれる。
【0119】
個別のイベント認識部180は、イベントソート部170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを識別する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。
【0120】
イベント受信部182は、イベントソート部170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。
【0121】
イベント比較部184は、イベント情報を、既定のイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント若しくはサブイベントを判定する、又はイベント若しくはサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば、既定の一連のサブイベント)の定義を含む。いくつかの実施形態では、イベント(187)内のサブイベントは、例えば、タッチの開始、タッチの終了、タッチの移動、タッチのキャンセル、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベント処理部190に関する情報も含む。
【0122】
いくつかの実施形態では、イベント定義187は、個別のユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、ヒットテストを実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、個別のイベント処理部190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベント処理部190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベント処理部を選択する。
【0123】
いくつかの実施形態では、個別のイベントの定義(187)は、一連のサブイベントがイベント認識部のイベントタイプに対応するか否かが判定された後まで、イベント情報の配信を遅らせる遅延アクションも含む。
【0124】
一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと個別のイベント認識部180が判定した場合、個別のイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの後続のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチに基づくジェスチャのサブイベントの追跡及び処理を続行する。
【0125】
いくつかの実施形態では、個別のイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように相互作用するか、又はイベント認識部が互いにどのように相互作用することが可能となるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
【0126】
いくつかの実施形態では、個別のイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベント処理部190をアクティブ化する。いくつかの実施形態では、個別のイベント認識部180は、イベントに関連付けられたイベント情報をイベント処理部190に配信する。イベント処理部190をアクティブ化することは、個別のヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投入し、そのフラグに関連付けられたイベント処理部190は、そのフラグを捕らえ、既定のプロセスを実行する。
【0127】
いくつかの実施形態では、イベント配信命令188は、イベント処理部をアクティブ化することなく、サブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベント処理部に、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベント処理部は、イベント情報を受信し、所定のプロセスを実行する。
【0128】
いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新し、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新しいユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
【0129】
いくつかの実施形態では、イベント処理部(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含む又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、個別のアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
【0130】
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、それらの全てがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された目の移動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。
【0131】
図2は、いくつかの実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、デバイス100と接触した指の、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上向きに及び/若しくは下向きに)、並びに/又は、ローリング(右から左へ、左から右へ、上向きに及び/若しくは下向きに)を、任意選択的に含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。
【0132】
デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的にデバイス100上で実行されるアプリケーションのセット内の任意のアプリケーション136にナビゲートするために、任意選択的に使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112に表示されるGUI内のソフトキーとして実装される。
【0133】
いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン206、音量調整ボタン(単数又は複数)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、既定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替の実施形態では、デバイス100は、マイクロフォン113を介して、いくつかの機能をアクティブ化又は非アクティブ化するための口頭入力もまた受け入れる。デバイス100は、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167もまた含む。
【0134】
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又はコントロールデバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は、ディスプレイ340を含む入出力(I/O)インタフェース330を含み、ディスプレイ340は、典型的には、タッチスクリーンディスプレイである。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350並びにタッチパッド355と、デバイス300上に触知出力を生成する(例えば、
図1Aを参照して前述した触知出力生成器(単数又は複数)167に類似している)触知出力生成器357と、センサ359(例えば、光、加速度、近接、タッチ感知、及び/又は
図1Aを参照して前述した、接触強度センサ(単数又は複数)165に類似している接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択的に、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(
図1A)のメモリ102内に記憶されているプログラム、モジュール、及びデータ構造に類似したプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択的に、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(
図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。
【0135】
図3の上記で識別した要素は各々、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で識別したモジュールは各々、前述した機能を実行する命令セットに対応する。上記で識別したモジュール又はコンピュータプログラム(例えば、命令セット又は命令を含む)は、別個のソフトウェアプログラム((例えば、命令を含む)コンピュータプログラムなど)、手順、又はモジュールとして実装される必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットが、任意選択的に組み合わされ、又は他の方法で再構成されている。いくつかの実施形態では、メモリ370は、任意選択的に、上記で識別したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
【0136】
次に、任意選択的に、例えばポータブル多機能デバイス100に実装されるユーザインタフェースの実施形態に注意を向ける。
【0137】
図4Aは、いくつかの実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラ信号及びWi-Fi信号などの無線通信(単数又は複数)用の信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状況インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の商標)モジュール152とも呼ばれるビデオ及び音楽プレーヤモジュール152のアイコン422、並びに
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダー」とラベル付けされた、カレンダーモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株価ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、並びに
○デバイス100及びその様々なアプリケーション136の設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュールのアイコン446。
【0138】
図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、個別のアプリケーションアイコンに関するラベルは、個別のアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
【0139】
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、
図3のタブレット又はタッチパッド355)を有するデバイス(例えば、
図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対して触知出力を生成する1つ以上の触知出力生成器357を含む。
【0140】
以下の実施例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、
図4Bに示されるように、ディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、
図4Bの451)は、ディスプレイ(例えば、450)上の一次軸(例えば、
図4Bの453)に対応する一次軸(例えば、
図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、
図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、
図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、
図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの移動)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、
図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。
【0141】
加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられる一方、いくつかの実施形態では、指入力のうちの1つ以上が別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、(例えば、接触の代わりに、)マウスクリックであって、その後に(例えば、接触の移動の代わりに)スワイプの経路に沿ったカーソルの移動を伴うマウスクリックによって置き換えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置上に位置している間、(例えば、接触を検出して、それに続いて接触の検出を中止する代わりに)マウスクリックによって置き換えられる。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。
【0142】
図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、
図1A~
図4B)に関して説明された機能のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504を有する。あるいは、又はタッチスクリーン504に加えて、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチ(複数)に、その強度に基づいて応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。
【0143】
タッチ強度を検出し処理する例示的な技術は、例えば、それぞれ全体が参照により本明細書に組み込まれる関連出願である、国際公開第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際公開第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」を参照されたい。
【0144】
いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的であり得る。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、眼鏡類、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、ウォッチのバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。
【0145】
図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、
図1A、
図1B、及び
図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi-Fi、Bluetooth、近距離通信(near field communication、NFC)、セルラ、及び/又は他の無線通信技術を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530と接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば、回転可能な入力デバイスである、又は押下可能かつ回転可能な入力デバイスである。いくつかの実施例では、入力機構508は、任意選択的にボタンである。
【0146】
いくつかの実施例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はそれらの組み合わせなどの様々なセンサを含み、それらは全て、I/Oセクション514に動作可能に接続することができる。
【0147】
パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス700~1100(
図7、
図9、及び
図11)を含む、以下に説明する技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、若しくはデバイスによって、又は命令実行システム、装置、若しくはデバイスに関連して、使用されるコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体であり得る。いくつかの実施例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの実施例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それらに限定されるものではないが、磁気記憶装置、光学記憶装置、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの永続性ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、
図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。
【0148】
本明細書で使用されるとき、「アフォーダンス」という用語は、任意選択的にデバイス100、300、及び/又は500(
図1A、
図3、及び
図5A~
図5B)のディスプレイスクリーンに表示される、ユーザ相互作用グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及びテキスト(例えば、ハイパーリンク)は各々、任意選択的に、アフォーダンスを構成する。
【0149】
本明細書で使用されるとき、「フォーカスセレクタ」という用語は、ユーザが相互作用しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の位置マーカーを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の上に位置している間、入力(例えば、押圧入力)がタッチ感知面(例えば、
図3のタッチパッド355又は
図4Bのタッチ感知面451)上で検出されたとき、特定のユーザインタフェース要素は、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接相互作用を可能にするタッチスクリーンディスプレイ(例えば、
図1Aのタッチ感知ディスプレイシステム112又は
図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の位置で入力(例えば、接触による押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装形態では、(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによって)タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域に動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタが取る具体的な形態に関わらず、フォーカスセレクタは、概して、ユーザが意図するユーザインタフェースとの相互作用を(例えば、ユーザがそれを通じて相互作用することを意図しているユーザインタフェースの要素をデバイスに示すことによって)通信するためにユーザによって制御されるユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)である。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、個別のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その個別のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。
【0150】
本明細書及び特許請求の範囲において使用されるとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、又は、既定のイベントに関連する(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)所定の時間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。いくつかの実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって動作が実行されたか否かを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この実施例では、第1の閾値を超えない特性強度を有する接触は第1の動作をもたらし、第1の強度閾値を上回るが第2の強度閾値を超えない特性強度を有する接触は第2の動作をもたらし、第2の閾値を超える特性強度を有する接触は第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、個別の動作を実行するべきか、それとも個別の動作を実行するのを取り止めるべきか)を判定するために使用される。
【0151】
本明細書で使用されるとき、「インストール済みアプリケーション」は、電子デバイス(例えば、デバイス100、300、及び/又は500)上へダウンロードされ、デバイス上で起動する準備ができた(例えば、開かれた)ソフトウェアアプリケーションを指す。いくつかの実施形態では、ダウンロードされたアプリケーションは、ダウンロードされたパッケージからプログラム部分を抽出し、抽出された部分をコンピュータシステムのオペレーティングシステムと統合するインストールプログラムによって、インストール済みアプリケーションになる。
【0152】
本明細書で使用されるとき、「開いているアプリケーション」又は「実行中のアプリケーション」という用語は、保持された状態情報を(例えば、デバイス/グローバル内部状態157及び/又はアプリケーション内部状態192の一部として)有するソフトウェアアプリケーションを指す。開いている又は実行中のアプリケーションは、任意選択的に、以下のタイプのアプリケーションのうちのいずれか1つである。
●アプリケーションが使用されているデバイスのディスプレイスクリーンに現在表示されているアクティブなアプリケーション、
●現在表示されていないが、アプリケーションに対する1つ以上のプロセスが1つ以上のプロセッサによって処理されている背景アプリケーション(又は背景プロセス)、並びに
●稼働していないが、(揮発性及び不揮発性それぞれの)メモリに記憶されており、かつアプリケーションの実行を再開するために使用することができる状態情報を有する、中断又は休止状態のアプリケーション。
【0153】
本明細書で使用されるとき、「閉じているアプリケーション」という用語は、保持された状態情報を有していないソフトウェアアプリケーションを指す(例えば、閉じているアプリケーションに対する状態情報は、デバイスのメモリ内に記憶されていない)。したがって、アプリケーションを閉じることは、アプリケーションに対するアプリケーションプロセスを停止及び/又は除去し、アプリケーションに対する状態情報をデバイスのメモリから除去することを含む。概して、第1のアプリケーション中に第2のアプリケーションを開いても、第1のアプリケーションは閉じない。第2のアプリケーションが表示されており、かつ第1のアプリケーションが表示を中止されたとき、第1のアプリケーションは、背景アプリケーションになる。
【0154】
次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。
【0155】
図6A~
図6AGは、いくつかの実施形態に係る、視覚コンテンツを再生し続けている間に、集約コンテンツアイテムを含むコンテンツアイテムを閲覧及び修正するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、
図7のプロセスを含む、後述するプロセスを例示するために使用される。
【0156】
図6Aは、タッチ感知ディスプレイ602を備えるスマートフォンである電子デバイス600を示す。いくつかの実施形態では、電子デバイス600は、デバイス100、300、及び/又は500の1つ以上の特徴を含む。電子デバイス600は、メディアライブラリユーザインタフェース604を示す。メディアライブラリユーザインタフェース604は、電子デバイス600に記憶された、かつ/又は他の方法で電子デバイス600に関連付けられたメディアライブラリの一部である複数のメディアアイテム(例えば、写真及び/又はビデオ)を表す複数のタイルを含む。メディアライブラリユーザインタフェース604は、選択可能なオプション606A~606Dを含む。オプション606Aは、メディアアイテムがキャプチャされた暦年に基づいて、メディアアイテムをグループで提示するために選択可能である。オプション606Bは、メディアアイテムがキャプチャされた暦月に基づいて、メディアアイテムをグループで提示するために選択可能である。オプション606Cは、メディアアイテムがキャプチャされた暦日に基づいて、メディアアイテムをグループで提示するために選択可能である。
図6Aで現在選択されているオプション606Dは、(例えば、キャプチャされた日付に基づいてソートされた)メディアライブラリ内の全てのメディアアイテムを提示するために選択可能である。
【0157】
メディアライブラリユーザインタフェース604はまた、選択可能なオプション606I及び606Jを含む。オプション606Iは、メディアアイテムがメディアライブラリユーザインタフェース604内に提示されるアスペクト比を切り替えるために選択可能である。
図6Aでは、全てのメディアアイテムは、正方形のアスペクト比でメディアライブラリユーザインタフェース604内に提示される。いくつかの実施形態では、ユーザがオプション606Iを選択した場合、電子デバイス600は、メディアライブラリユーザインタフェース604内の全てのメディアアイテムをネイティブアスペクト比で表示する。オプション606Jは、ユーザが選択されたメディアアイテムに対して1つ以上の動作を実行する(例えば、選択されたメディアアイテムを共有及び/又は削除する)ことができるように、ユーザがメディアライブラリユーザインタフェース604内に提示された1つ以上のメディアアイテムを選択することを可能にするために選択可能である。
【0158】
メディアライブラリユーザインタフェース604はまた、選択可能なオプション606E~606Hを含む。オプション606Eは、メディアライブラリユーザインタフェース604を表示するために選択可能である。オプション606Fは、選択基準に基づいてユーザのために選択及び/又はキュレートされた1つ以上のメディアアイテムをユーザに提示するキュレートされたコンテンツユーザインタフェースを表示するために選択可能である。オプション606Gは、メディアアイテムの1つ以上の集合(例えば、1つ以上のアルバム)を表示するために選択可能である。1つ以上の集合は、様々な実施形態では、1つ以上のユーザ定義集合及び/又は1つ以上の自動的に生成された集合を含む。オプション606Hは、ユーザがメディアライブラリ内のメディアアイテムを検索する(例えば、メディアアイテムのキーワード検索を実行する)ことを可能にするために選択可能である。
【0159】
図6Aでは、電子デバイス600は、オプション606Fの選択に対応するユーザ入力608を検出する。
図6Bでは、ユーザ入力608を検出したことに応じて、電子デバイス600は、キュレートされたコンテンツユーザインタフェース610を表示する。キュレートされたコンテンツユーザインタフェース610は、選択基準に基づいてユーザのために選択及び/又はキュレートされた1つ以上のメディアアイテムを提示する。図示の実施形態では、キュレートされたコンテンツユーザインタフェース610は、複数の集約コンテンツアイテムを表す複数のタイル612A、612Bを含む。いくつかの実施形態では、集約コンテンツアイテムは、選択基準に基づいてユーザのメディアライブラリから(例えば、電子デバイス600によって)選択された複数のメディアアイテム(例えば、複数の写真及び/又はビデオ)を含む、自動的に生成されたコンテンツアイテムである。例えば、集約コンテンツアイテムのために選択された複数のメディアアイテムは、特定の時間枠内にキャプチャされ、かつ特定の地理的位置に関連付けられたメディアアイテムを含むことができる(例えば、
図6Bのヨセミテ2020年10月)。いくつかの実施形態では、集約コンテンツアイテムは、最初に自動的に生成されるが、ユーザによって修正及び/又は編集することができ、修正された集約コンテンツアイテムは、(本明細書でより詳細に説明するように)保存及び記憶することができる。
図6Bでは、集約コンテンツアイテムタイル612Aは、対応する集約コンテンツアイテムをお気に入りフォルダに追加するために選択可能なお気に入りオプション613Aと、集約コンテンツアイテムタイル612Aの追加オプションを表示するために選択可能なオプション613Bとを含む。いくつかの実施形態では、集約コンテンツアイテムを表すタイル612A、612Bは、アニメーション化され、かつ/又は関連付けられた集約コンテンツアイテムのプレビュー(例えば、アニメーション化されたプレビュー、移動プレビュー、及び/又はビデオプレビュー)を表示する(例えば、複数のフレームを有するメディアアイテムのプレビューを再生する、又は静止メディアアイテムをパン及び/若しくはズームする)。
【0160】
キュレートされたコンテンツユーザインタフェース610はまた、注目メディアアイテム612Cを含む1つ以上の注目メディアアイテムを含む。注目メディアアイテムは、1つ以上の選択基準に基づいてユーザへの提示のために選択された(例えば、自動的に選択された)ユーザのメディアライブラリからのメディアアイテム(例えば、写真及び/又はビデオ)である。いくつかの実施形態では、キュレートされたコンテンツユーザインタフェース610に提示される注目メディアアイテムは、経時的に変化する(例えば、ある日から次の日へ、又はある週から次の週へ変化する)。
図6Bでは、キュレートされたコンテンツユーザインタフェース610を表示している間に、電子デバイス600は、注目メディアアイテム612Cの選択に対応するユーザ入力614(例えば、タップ入力又は長い押圧入力)を検出する。
【0161】
図6Cでは、ユーザ入力614を検出したことに応じて、電子デバイス600は、複数の選択可能なオプション616A~616Iとともに注目メディアアイテム612Cを表示する。オプション616Aは、注目メディアアイテム612Cをコピーするために選択可能である。オプション616Bは、1つ以上の通信媒体(例えば、電子メール、テキストメッセージ、NFC、Bluetooth、及び/又はコンテンツ共有プラットフォームへのアップロード)を介して、注目メディアアイテム612Cを共有するプロセスを開始するために選択可能である。オプション616Cは、注目メディアアイテム612Cをお気に入りに入れる(例えば、注目メディアアイテム612Cをお気に入りアルバムに追加する)ために選択可能である。オプション616Dは、メディアライブラリユーザインタフェース604内に注目メディアアイテム612Cを表示するために選択可能である。オプション616Eは、注目メディアアイテム612Cに示された1人以上の人物にタグ付けするプロセスを開始するために選択可能である。オプション616Fは、電子デバイス600に、注目メディアアイテム612Cに示された人物を示すメディアアイテムが注目メディアアイテムとして(例えば、キュレートされたコンテンツユーザインタフェース610内に)選択される頻度を減少させ、かつ/又は注目メディアアイテム612Cに示された人物を示すメディアアイテムが集約コンテンツアイテムに含めるために選択される頻度を減少させるために選択可能である。オプション616Gは、メディアアイテムが注目メディアアイテム612Cに示される人物を示す場合、電子デバイス600に、そのメディアアイテムを注目メディアアイテムとして選択することを中止させる(例えば、キュレートされたコンテンツユーザインタフェース610に含めるためにそのメディアアイテムを選択することを中止させる、かつ/又は集約コンテンツアイテムに含めるためにそのメディアアイテムを選択することを中止させる)ために選択可能である。オプション616Hは、注目メディアアイテム612Cをメディアライブラリから削除するために選択可能である。オプション616Iは、注目メディアアイテム612Cを注目メディアアイテムとして選択しない(例えば、キュレートされたコンテンツユーザインタフェース610から注目メディアアイテムを除去する)ために選択可能である。
図6Cでは、電子デバイス600は、ユーザ入力618(例えば、タップ入力及び/又は非タップ入力)を検出する。
【0162】
図6Dでは、ユーザ入力618に応じて、電子デバイス600は、キュレートされたコンテンツユーザインタフェース610を再表示する。
図6Dでは、キュレートされたコンテンツユーザインタフェース610を表示している間に、電子デバイス600は、第1の集約コンテンツアイテム(例えば、ヨセミテ2020年10月の集約コンテンツアイテム)を表すタイル612Aの選択に対応するユーザ入力620(例えば、タップ入力)を検出する。図示の実施形態では、第1の集約コンテンツアイテムは、特定の地理的位置(例えば、ヨセミテ)及び特定の期間(例えば、2020年10月)に対応するユーザのメディアライブラリから選択されたメディアアイテムの集合を含む。
【0163】
図6Eでは、ユーザ入力620を検出したことに応じて、電子デバイス600は、第1の集約コンテンツアイテムに対応する(例えば、一意に対応する)集約コンテンツユーザインタフェース622を表示する。集約コンテンツユーザインタフェース622は、キュレートされたコンテンツユーザインタフェース610に戻るために選択可能なオプション624Aを含む。集約コンテンツユーザインタフェース622はまた、第1の集約コンテンツアイテムを表し、かつ第1の集約コンテンツアイテムの視覚及び/又はオーディオコンテンツの再生を開始するために選択可能である、タイル624Bを含む。集約コンテンツユーザインタフェース622はまた、第1の集約コンテンツアイテムに含まれるメディアアイテムを表す複数のタイル624C、624Dを含む。タイル624C、624Dは、(例えば、第1の集約コンテンツアイテムの完全な視覚コンテンツを再生することなく)対応する個々のメディアアイテムを閲覧するために選択可能であり、第1の集約コンテンツアイテムに含まれるメディアアイテムは、集約コンテンツユーザインタフェース622内のそれぞれのタイルによって表される。このようにして、集約コンテンツユーザインタフェース622は、ユーザが第1の集約コンテンツアイテムを(例えば、タイル624Bを介して)再生することを可能にし、また、ユーザが第1の集約コンテンツアイテムを構成する構成メディアアイテムを閲覧することを可能にする。
図6Eでは、集約コンテンツユーザインタフェース622を表示している間に、電子デバイス600は、タイル624Bの選択に対応するユーザ入力626(例えば、タップ入力)を検出する。
【0164】
図6Fでは、ユーザ入力626を検出したことに応じて、電子デバイス600は、再生ユーザインタフェース625を表示し、第1の集約コンテンツアイテムの再生を開始する。図示の実施形態では、第1の集約コンテンツアイテムの再生を開始することは、第1の集約コンテンツアイテム内の第1のメディアアイテムであるメディアアイテム628A、並びに第1の集約コンテンツアイテムに対応するタイトル情報627を表示することを含む。図示の実施形態では、第1の集約コンテンツアイテムの再生を開始することはまた、オーディオコンテンツ(例えば、オーディオトラック及び/又は1つ以上のオーディオトラック)を再生することを含む。
図6Fでは、電子デバイス600は、オーディオトラック1の再生を開始する。
【0165】
図6Gでは、電子デバイス600は、第1の集約コンテンツアイテムを再生し続ける。タイトル情報627は、
図6Fの第1の位置から
図6Gの第2の位置に移動しており、1つ以上の他の視覚特性が変化している(例えば、サイズ、フォント、及び色が変化している)。更に、
図6Fから
図6Gへの第1の集約コンテンツアイテムの再生は、メディアアイテム628A上でズームインすることを含む。メディアアイテム628Aを含む再生ユーザインタフェース625を表示し、オーディオトラック1を再生している間に、電子デバイス600は、ユーザ入力630(例えば、タップ入力及び/又は非タップ入力)を検出する。
【0166】
図6Hでは、ユーザ入力630を検出したことに応じて、電子デバイス600は、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生し続けている間に、複数の再生コントロール及びオプションを表示する。閉じるオプション632Aは、再生ユーザインタフェース625の表示を中止し、第1の集約コンテンツアイテムの視覚コンテンツ及び/又はオーディオコンテンツの再生を中止するために選択可能である(例えば、集約コンテンツユーザインタフェース622を再表示するために選択可能である)。共有オプション632Bは、1つ以上の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能である。メニューオプション632Cは、以下で説明するように、1つ以上のオプションを表示するために選択可能である。レシピオプション632Dは、以下でより詳細に説明するように、ユーザが第1の集約コンテンツアイテムの1つ以上の視覚及び/又はオーディオ特性を修正することができるレシピユーザインタフェースを表示するために選択可能である。一時停止オプション632Eは、第1の集約コンテンツアイテムの再生を一時停止する(例えば、視覚及び/又はオーディオ再生を一時停止する)ために選択可能である。グリッドオプション632Fは、
図10A~
図10Sを参照して以下により詳細に説明するように、コンテンツグリッドユーザインタフェースを表示するために選択可能である。
図6Hでは、電子デバイス600は、オプション632Cの選択に対応するユーザ入力634を検出する。
【0167】
図6Iでは、ユーザ入力634を検出したことに応じて、電子デバイス600は、第1の集約コンテンツアイテムの再生を維持し(例えば、オーディオ及び視覚再生を維持し)ている間に、複数のオプション636A~636Hを表示する。オプション636Aは、第1の集約コンテンツアイテムをユーザのお気に入りメディアアイテムに追加する(例えば、第1の集約コンテンツアイテムをお気に入りアルバムに追加する)ために選択可能である。オプション636Bは、第1の集約コンテンツアイテムのタイトル情報を変更するプロセスを開始するために(例えば、ユーザが第1の集約コンテンツアイテムの新しいタイトルを入力することを可能にするために)選択可能である。オプション636Cは、第1の集約コンテンツアイテムを削除するために選択可能である。オプション636Dは、電子デバイス600に、第1の集約コンテンツアイテムに類似するより少ない集約コンテンツアイテムが生成されるように、集約コンテンツアイテムを将来生成するためのその選択基準を修正させるために選択可能である。
【0168】
オプション636E~636Hは、第1の集約コンテンツアイテムに対する異なる持続時間オプションに対応し、第1の集約コンテンツアイテムの持続時間を修正及び/又は指定するために選択可能である。例えば、第1の集約コンテンツアイテムは、現在、オプション636Fに対応する持続時間(例えば、中間持続時間)を有し、指定された持続時間は、38個のメディアアイテムの持続時間である。オプション636Eは、第1の集約コンテンツアイテム内のメディアアイテムの数を(例えば、38個のメディアアイテムから24個のメディアアイテムに)減少させることによって、第1の集約コンテンツアイテムの持続時間を短縮するために選択可能である。オプション636Gは、第1の集約コンテンツアイテム内のメディアアイテムの数を増加させることによって、第1の集約コンテンツアイテムの持続時間を増加させるために選択可能である。図示の実施形態では、オプション636Gは、特定の持続時間(例えば、1分28秒)に対応し、この持続時間は、第1の集約コンテンツアイテムを共有するために許容される最大持続時間に対応する。オプション636Hは、第1の集約コンテンツアイテムに適用されたオーディオトラックの持続時間に一致するように、第1の集約コンテンツアイテムの持続時間を増加させるために選択可能である。
図6Iでは、オーディオトラック1は、第1の集約コンテンツアイテムに適用されており、3分15秒の持続時間を有する。したがって、
図6Iにおけるオプション636Hの選択は、(例えば、約)3分15秒の総持続時間を有するように、(例えば、1つ以上のメディアアイテムを追加及び/若しくは除去すること、並びに/又は第1の集約コンテンツアイテム内のメディアアイテムの表示持続時間を修正することによって)第1の集約コンテンツアイテムを修正させる。しかしながら、この持続時間は1分28秒よりも長いので、オプション636Hの選択は、第1の集約コンテンツアイテムが他のユーザ及び/又はデバイスと共有されることを禁止する。
【0169】
図6Iでは、電子デバイス600は、オプション632Cの選択に対応するユーザ入力638(例えば、タップ入力)を検出する。
図6Jでは、ユーザ入力638を検出したことに応じて、電子デバイス600は、第1の集約コンテンツアイテムの再生(例えば、オーディオ及び視覚再生)を維持している間に、オプション636A~636Hの表示を中止する。
図6Jでは、第1の集約コンテンツアイテムを再生している間に、電子デバイス600は、レシピオプション632Dの選択に対応するユーザ入力640(例えば、タップ入力)を検出する。
【0170】
図6Kでは、ユーザ入力640を検出したことに応じて、電子デバイス600は、第1の集約コンテンツアイテムの再生(例えば、オーディオ及び視覚再生)を維持している間に、レシピユーザインタフェース642を表示する。
図6Kは、垂直向き(左)及び水平向き(右)の両方に向けられている間にレシピユーザインタフェース642を表示する電子デバイス600を示す。レシピユーザインタフェース642では、第1の集約コンテンツアイテムの再生(例えば、視覚及びオーディオ再生)が維持されている一方で、ユーザが視覚特性とオーディオ特性との異なる組み合わせを第1の集約コンテンツアイテムに適用することを可能にする。例えば、図示の実施形態では、各「レシピ」は、視覚フィルタとオーディオトラックとの組み合わせを含み、レシピユーザインタフェース642は、第1の集約コンテンツアイテムの再生が維持されている間に、ユーザが視覚フィルタとオーディオトラックとのこれらの異なる組み合わせの間で切り替えることを可能にする。
図6Kでは、ユーザが第1の集約コンテンツアイテムに適用することができる、6つの異なる「レシピ」又は視覚フィルタとオーディオトラックとの組み合わせがある。
図6Kでは、第1の視覚フィルタ646B及び第1のオーディオトラック(オーディオトラック1)が適用された状態で第1の集約コンテンツアイテムが示されている。第1の視覚フィルタ646B及び第1のオーディオトラックは、第1の既定の組み合わせ(例えば、第1の「レシピ」)を定義する。
図6Kでは、第2の視覚フィルタ646Cが適用された状態で第1の集約コンテンツアイテムを見るために、ユーザがユーザ入力(例えば、右側のタップ入力及び/又は左スワイプ入力)を提供することができることを示すために、第2の視覚フィルタ646C(第1又は第3の視覚フィルタではない)が適用された状態で第1の集約コンテンツアイテムの右側が示されている。同様に、第3の視覚フィルタ646Aが適用された状態で第1の集約コンテンツアイテムを見るために、ユーザがユーザ入力(例えば、左側のタップ入力及び/又は右スワイプ入力)を提供することができることを示すために、第3の視覚フィルタ646A(第1又は第2の視覚フィルタではない)が適用された状態で第1の集約コンテンツアイテムの左側が示されている。
【0171】
レシピユーザインタフェース642は、
図6Kでは、6つの視覚フィルタ/オーディオトラックの組み合わせのうちの第1の視覚フィルタ/オーディオトラックの組み合わせが第1の集約コンテンツアイテムに現在適用されていることを示す、レシピインジケーション644Aを含む。レシピユーザインタフェース642は、オーディオトラック1(アーティスト1による)が第1の集約コンテンツアイテムに現在適用されていることを示すオーディオトラックインジケーション644Bも含む。レシピユーザインタフェース642はまた、オーディオトラック選択ユーザインタフェースを表示するために選択可能なオーディオトラック選択オプション644Cと、視覚フィルタ選択ユーザインタフェースを表示するために選択可能な視覚フィルタオプション644Dとを含む。
図6Kでは、電子デバイス600は、左スワイプジェスチャであるユーザ入力648を検出する。
【0172】
図6Lでは、ユーザ入力648を検出したことに応じて、電子デバイス600は、ユーザ入力648に基づいて視覚フィルタ646A、646B、646Cを左にシフトする(例えば、ユーザ入力の速さ及び並進距離に対応する速さで、かつ並進距離にわたって並進する)。したがって、
図6Lでは、視覚フィルタ646Aはもはや見えず、視覚フィルタ646Bは、メディアアイテム628Aの左側に適用されて示されており、視覚フィルタ646Cは、メディアアイテム628Aの右側に適用されて示されている。このユーザ入力の間、第1の集約コンテンツアイテムの再生は、電子デバイス600によって維持される(例えば、電子デバイス600は、第1の集約コンテンツアイテムの視覚コンテンツを再生し続け、オーディオトラック1を再生し続ける)。
図6Lでは、電子デバイス600は、ユーザ入力648の左スワイプジェスチャを検出し続ける。
【0173】
図6Mでは、ユーザ入力648の継続に応じて、電子デバイス600は、視覚フィルタ646Bが今度はメディアアイテム628Aの左側の小さな部分を占め、かつ視覚フィルタ646Cがメディアアイテム628Aの大部分に適用されるように、視覚フィルタ646B及び646Cをシフトし続ける。
図6Mでは、閾値並進距離を超えるユーザ入力648に応じて、電子デバイス600は、レシピインジケーション644Aを更新し、第2のレシピ(例えば、第2の視覚フィルタ/オーディオトラックの組み合わせ)が第1の集約コンテンツアイテムに適用されたことを示す。更に、閾値並進距離を超えるユーザ入力648に応じて、電子デバイス600は、(第1のレシピ(例えば、第1の既定の視覚フィルタ/オーディオトラックの組み合わせ)の一部であった)オーディオトラック1の再生を中止し、(第2のレシピ(例えば、第2の既定の視覚フィルタ/オーディオトラックの組み合わせ)の一部である)オーディオトラック2の再生を開始する。いくつかの実施形態では、異なる視覚フィルタ/オーディオトラックの組み合わせの間で切り替えるとき、電子デバイス600は、オーディオトラック2の先頭からオーディオトラック2の再生を開始するのではなく、第1の集約コンテンツアイテムの再生進行に対応する再生位置から再生を開始する。例えば、
図6Mでは、第1の集約コンテンツアイテムが40秒間再生されていた場合、電子デバイス600は、40秒マークからオーディオトラック2の再生を開始することができる。
図6Mでは、電子デバイス600は、ユーザ入力648の左スワイプジェスチャを検出し続ける。
【0174】
図6Nでは、ユーザ入力648の継続に応じて、電子デバイス600は、視覚フィルタ646B及び646Cをシフトし続ける。
図6Nでは、視覚フィルタ646Bは、第1の集約コンテンツアイテム(例えば、現在表示中のメディアアイテム628A)の視覚コンテンツの左端領域に適用され、視覚フィルタ646Cは、第1の集約コンテンツアイテムの視覚コンテンツの中央領域に適用され、第4の視覚フィルタ646D(第3の視覚フィルタ/オーディオトラックの組み合わせに対応する)は、第1の集約コンテンツアイテムの視覚コンテンツの右端領域に適用されている。電子デバイス600は、第1の集約コンテンツアイテムの再生(例えば、視覚及び/又はオーディオ再生)を維持し続ける。
【0175】
図6Oでは、第1の集約コンテンツアイテムの継続した再生により、電子デバイス600は、もはやメディアアイテム628Aを表示せず、オーディオトラック2を再生し続けている間に、今度は第1の集約コンテンツアイテムの第2のメディアアイテム628Bを表示する。
図6Oでは、電子デバイス600は、2つの異なるユーザ入力650A、650Bを(別々の時間に、かつ/又は非同時に)検出するものとして示されている。左スワイプジェスチャであるユーザ入力650Bは、電子デバイス600に、第3のレシピ(例えば、視覚フィルタ646Dと第3のオーディオトラックとの第3の既定の組み合わせ)を第1の集約コンテンツアイテムに適用させる。右スワイプジェスチャであるユーザ入力650Aは、電子デバイスに、第1のオーディオトラック及び視覚フィルタ646Bの第1のレシピを再適用させる。
【0176】
図6Pでは、ユーザ入力650Aを検出したことに応じて、電子デバイス600は、ユーザ入力650Aに基づいて視覚フィルタ646D、646C、及び646Bを右にシフトする(例えば、ユーザ入力の速さ及び並進距離に対応する速さで、かつ並進距離にわたって並進する)。
図6Pでは、電子デバイス600は、右スワイプジェスチャユーザ入力650Aを検出し続ける。
【0177】
図6Qでは、ユーザ入力650Aの継続に応じて、電子デバイス600は、視覚フィルタ646B及び646Cをシフトし続ける。
図6Qでは、ユーザ入力650Aが閾値並進距離を超えたとの判定に基づいて、電子デバイス600は、レシピインジケーション644Aを更新して、第1のレシピが第1の集約コンテンツアイテムに適用されたことを示し、オーディオトラック2の再生を中止し、再びオーディオトラック1を再生する。上述したように、いくつかの実施形態では、オーディオトラック1は、オーディオトラック1の先頭から再生されない(例えば、第1の集約コンテンツアイテムの再生位置に対応する再生位置から再生される)。
【0178】
上述し、かつ図に示したように、ユーザがレシピユーザインタフェース642内の異なるレシピ間をスワイプすると、ユーザは、第1の集約コンテンツアイテムに適用される視覚フィルタとオーディオトラックとの組み合わせ間で切り替えることができる。いくつかの実施形態では、第1の集約コンテンツアイテムに適用される視覚フィルタ及びオーディオトラックを変更することに加えて、ユーザが異なるレシピ(例えば、視覚フィルタとオーディオトラックとの異なる組み合わせ)間でスワイプすると、電子デバイス600はまた、第1の集約コンテンツアイテムの再生中に提示されるメディアアイテム間に適用される視覚遷移のタイプなどの、第1の集約コンテンツアイテムの再生の他のオーディオ及び/又は視覚特性を変更する。例えば、第1のレシピ(例えば、第1の視覚フィルタ/オーディオトラックの組み合わせ)は、視覚変換の第1のセット(例えば、フェードイン、フェードアウト)を利用することができ、第2のレシピは、第1のセットとは異なる視覚変換の第2のセット(例えば、スワイプイン、スワイプアウト)を利用することができる。いくつかの実施形態では、メディアアイテム間に適用される視覚遷移は、適用された視覚フィルタ/オーディオトラックの組み合わせの一部であるオーディオトラックのオーディオ特性に基づいて選択される。例えば、より高いエネルギ又はより速いオーディオトラック(例えば、閾値を超える1分当たりのビート値を有するオーディオトラック)は、視覚遷移の第1のセットを利用することができ、より低いエネルギ又はより遅いオーディオトラック(例えば、閾値未満の1分当たりのビート値を有するオーディオトラック)は、視覚遷移の第2のセットを利用することができる。
【0179】
図6Qでは、電子デバイス600は、オーディオトラック選択オプション644Cの選択に対応するユーザ入力652(例えば、タップ入力)を検出する。
図6Rでは、ユーザ入力652を検出したことに応じて、電子デバイス600は、オーディオトラック選択ユーザインタフェース654を表示する。いくつかの実施形態では、オーディオトラック選択ユーザインタフェース654を表示している間に、電子デバイス600は、(例えば、バックグラウンドで)第1の集約コンテンツアイテムの再生(例えば、視覚及び/又はオーディオ再生)を維持する。いくつかの実施形態では、オーディオトラック選択ユーザインタフェース654を表示している間に、電子デバイス600は、第1の集約コンテンツアイテムの再生(例えば、視覚及び/又はオーディオ再生)を一時停止する。オーディオトラック選択ユーザインタフェース654は、(例えば、第1の集約コンテンツアイテムに適用されているオーディオトラックを変更することなく)レシピユーザインタフェース642に戻るために選択可能なキャンセルオプション658Aと、選択されたオーディオトラックを第1の集約コンテンツアイテムに適用するために選択可能な終了オプション658Bと、音楽カタログ内のオーディオトラックを検索するために選択可能な検索オプション658Cとを含む。オーディオトラック選択ユーザインタフェース654はまた、異なるオーディオトラックに対応する複数の選択可能なオプション656A~656Nを含む。ユーザは、個別の対応するオーディオトラックを第1の集約コンテンツアイテムに適用する(例えば、第1の集約コンテンツアイテムの視覚コンテンツが再生されている間に、選択されたオーディオトラックを再生させる)ための個別のオプションを選択することができる。いくつかの実施形態では、オプション656A~656Nの選択は、第1の集約コンテンツアイテムに現在適用されている(例えば、ユーザ入力652が検出されたときに第1の集約コンテンツアイテムに適用されていた)レシピ(例えば、視覚フィルタ/オーディオトラックの組み合わせ)内のオーディオトラックを選択されたオーディオトラックに置き換える。例えば、
図6Rでは、第1のレシピは、現在、オーディオトラック1と視覚フィルタ646Bとの組み合わせであるが、オーディオトラック選択ユーザインタフェース654における異なるオーディオトラックの選択は、選択されたオーディオトラックと視覚フィルタ646Bとの組み合わせ(例えば、オーディオトラック1なし)となるように第1のレシピを修正する。
図6Rでは、オーディオトラック選択ユーザインタフェースは、アーティスト1によるトラック1が第1の集約コンテンツアイテムに現在適用されていることを示す。
図6Rでは、電子デバイス600は、アーティスト3によるオーディオトラック3に対応するオプション656Dの選択に対応するユーザ入力660を検出する。
【0180】
図6Sは、電子デバイス600が選択されたオーディオトラックを第1の集約コンテンツアイテムに適用することを許可されていない第1の例示的なシナリオを示す。例えば、電子デバイス600のユーザは、音楽サブスクリプションサービスに加入しておらず、選択されたオーディオトラックへのアクセス権を有していない。
図6Sでは、ユーザ入力660を検出したことに応じて、かつ電子デバイス600が選択されたオーディオトラックを第1の集約コンテンツアイテムに適用することを許可されていないとの判定に従って(例えば、ユーザが音楽サブスクリプションサービスに加入していないとの判定に従って)、電子デバイス600は、音楽プレビューユーザインタフェース662を表示する。音楽プレビューユーザインタフェース662は、第1の集約コンテンツアイテムに適用される選択されたオーディオトラックのプレビューをユーザに提供し、選択されたオーディオトラックが再生されている間に、第1の集約コンテンツアイテムの視覚再生を表示する。音楽プレビューユーザインタフェース662はまた、第1の集約コンテンツアイテムの視覚コンテンツが再生され、選択されたオーディオトラックが再生されている間に、ユーザが異なる視覚フィルタオプション(例えば、646A、646B、646C)間でスワイプすることを可能にする。しかしながら、ユーザは、プレビューユーザインタフェース662内でプレビューを閲覧することしかできず、ユーザは、選択されたオーディオトラックが適用された状態で第1の集約コンテンツアイテムを保存及び/又は共有することができない(例えば、ユーザには、第1の集約コンテンツアイテムを保存又は共有するためのオプションが提供されない)。ユーザは、オーディオトラックの選択をキャンセルしてオーディオトラック選択ユーザインタフェース654に戻るためのキャンセルオプション664A、又はユーザが選択されたオーディオトラックを第1の集約コンテンツアイテムに適用できるように音楽サブスクリプションサービスの無料トライアルにユーザを登録するプロセスを開始するために選択可能な無料トライアルオプション664Bのいずれかを選択することができる。
【0181】
図6Tは、電子デバイス600が選択されたオーディオトラックを第1の集約コンテンツアイテムに適用することを許可されている第2の例示的なシナリオを示す。
図6Tでは、オーディオトラック選択ユーザインタフェース654は、トラック3が選択されていることを示し、電子デバイス600は、オーディオトラック3を再生する。いくつかの実施形態では、レシピユーザインタフェース642内の異なるレシピを通してスワイプすることにより、第1の集約コンテンツアイテムの現在の再生位置に基づいて異なる再生位置から様々なオーディオトラックを再生させる(例えば、オーディオトラックの先頭ではない再生位置から様々なオーディオトラックを再生させる)が、オーディオトラック選択ユーザインタフェース654内のオーディオトラックの選択により、選択されたオーディオトラックを先頭から再生させる。
図6Tでは、電子デバイス600は、終了オプション658Bの選択に対応するユーザ入力666を検出する。
【0182】
図6Uでは、ユーザ入力666を検出したことに応じて、電子デバイス600は、レシピユーザインタフェース642を再表示する。
図6Qの場合と同様に、レシピユーザインタフェース642は、第1のレシピが第1の集約コンテンツアイテムに適用された状態で第1の集約コンテンツアイテムの再生を表示する(例えば、レシピインジケータ644Aは、「レシピ6のうちの1」を示し、視覚フィルタ646Bは、第1の集約コンテンツアイテムに適用される)。しかしながら、オーディオトラック選択ユーザインタフェース654におけるオーディオトラック3のユーザの選択に起因して、オーディオトラック1は、第1のレシピにおいて(例えば、第1の視覚フィルタ/オーディオトラックの組み合わせにおいて)オーディオトラック3によって置き換えられており、これにより、第1の集約コンテンツアイテムの視覚コンテンツが視覚フィルタ646Bが適用された状態で再生されている間に、オーディオトラック3が第1の集約コンテンツアイテムに適用される。
図6Uでは、電子デバイス600は、視覚フィルタ選択オプション644Dの選択に対応するユーザ入力668(例えば、タップ入力)を検出する。
【0183】
図6Vでは、ユーザ入力668を検出したことに応じて、電子デバイス600は、視覚フィルタ選択ユーザインタフェース670を表示する。視覚フィルタ選択ユーザインタフェース670は、複数のタイル674A~674を含み、異なるタイルは、異なる視覚フィルタに対応する。更に、異なるタイルは、それぞれの視覚フィルタが第1の集約コンテンツアイテムの視覚コンテンツに適用された状態で、第1の集約コンテンツアイテムの視覚コンテンツの継続した再生を表示する。視覚フィルタ選択ユーザインタフェース670はまた、(例えば、異なる視覚フィルタを適用することなく)レシピユーザインタフェース642に戻るために選択可能なキャンセルオプション672Aと、選択された視覚フィルタを第1の集約コンテンツアイテムに適用するために選択可能な終了オプション672Bとを含む。いくつかの実施形態では、視覚フィルタ選択ユーザインタフェース670内の異なる視覚フィルタの選択及び/又は適用は、現在適用されているレシピ内の視覚フィルタを選択された視覚フィルタに置き換えさせる。
【0184】
上述したように、視覚フィルタ選択ユーザインタフェース670を表示している間に、電子デバイス600は、第1の集約コンテンツアイテムの再生(例えば、オーディオ及び視覚再生)を維持し、タイル674A~674Oのうちの異なるものは、異なる視覚フィルタが適用された状態で第1の集約コンテンツアイテムの視覚コンテンツの再生を示す。
図6Wでは、第1の集約コンテンツアイテムの視覚コンテンツは、第1の集約コンテンツアイテムの視覚コンテンツが
図6Vのメディアアイテム628Bを表示することから
図6Wのメディアアイテム628Cを表示することに遷移するように、再生され続ける。
図6Wでは、電子デバイス600は、終了オプション674Bの選択に対応するユーザ入力676(例えば、タップ入力)を検出する。
【0185】
図6Xでは、ユーザ入力676を検出したことに応じて、電子デバイス600は、第1の集約コンテンツアイテムの再生(例えば、オーディオ及び/又は視覚再生)を維持している間に、視覚フィルタ選択ユーザインタフェース672の表示を中止し、レシピユーザインタフェース642を再表示する。上述のように、視覚フィルタ選択ユーザインタフェース672を表示している間に、第1の集約コンテンツアイテムの視覚コンテンツの再生は、メディアアイテム628Bからメディアアイテム628Cに遷移した。したがって、電子デバイス600は、ここで、レシピユーザインタフェース642内にメディアアイテム628Cを表示する。
図6Xでは、電子デバイス600は、
図6Xの第1の集約コンテンツアイテムに現在適用されている第1のレシピ(例えば、第1の視覚フィルタ/オーディオトラックの組み合わせ)の選択に対応するユーザ入力678(例えば、タップ入力)を検出する。
【0186】
図6Yでは、ユーザ入力678を検出したことに応じて、電子デバイス600は、レシピユーザインタフェース642の表示を中止し、再生ユーザインタフェース625内に第1の集約コンテンツアイテムの継続した再生を表示する。更に、
図6Yでは、電子デバイス600は、タイトル情報627を更新して、現在提示されているメディアアイテム628Cに対応するタイトル情報を提示する(例えば、タイトル情報を「イエローストーン2020年10月」から「ハーフドーム2020年10月」に変更する)。
図6Yでは、電子デバイス600は、一時停止オプション632Eの選択に対応するユーザ入力680(例えば、タップ入力)を検出する。
【0187】
図6Zでは、ユーザ入力680を検出したことに応じて、電子デバイス600は、第1の集約コンテンツアイテムの再生を一時停止する(例えば、オーディオ及び/又は視覚再生を一時停止する)。ユーザ入力680を検出したことに応じて、電子デバイス600は、ナビゲーションオブジェクト682(例えば、スクラバ)も表示する。ナビゲーションオブジェクト682は、集約コンテンツアイテムの再生が一時停止されている間にユーザが様々なメディアアイテムを通してナビゲートすることができるように、集約コンテンツアイテム内に提示される順序で配置された集約コンテンツアイテム内の異なるメディアアイテムの表現を含む。
図6Zでは、ナビゲーションオブジェクト682は、電子デバイス600が第1の集約コンテンツアイテム内の第3のメディアアイテムを現在表示していることを示す。更に、ユーザ入力680に応じて、電子デバイス600は、一時停止オプション632Eを再生オプション632Hに置き換え、レシピオプション632Dをアスペクト比オプション632Gに置き換える。再生オプション632Hは、再生を再開する(例えば、第1の集約コンテンツアイテムのオーディオ及び/又は視覚再生を再開する)ために選択可能である。アスペクト比オプション632Gは、表示されたメディアアイテムの表示をフルスクリーンアスペクト比とネイティブアスペクト比との間で切り替えるために選択可能である。
図6Zでは、電子デバイス600は、アスペクト比オプション632Gの選択に対応するユーザ入力683(例えば、タップ入力)を検出する。
【0188】
図6AAでは、ユーザ入力683を検出したことに応じて、電子デバイス600は、メディアアイテム628Cをフルスクリーンアスペクト比で表示することを中止し、次に、メディアアイテム628Cをネイティブアスペクト比で表示する。
図6AAでは、第1の集約コンテンツアイテムの再生は、一時停止されたままである。
図6AAでは、電子デバイス600は、再生オプション632Hの選択に対応するユーザ入力684(例えば、タップ入力)を検出する。
【0189】
図6ABでは、ユーザ入力684を検出したことに応じて、電子デバイス600は、メディアアイテム628Cの表示をフルスクリーンアスペクト比に戻し、第1の集約コンテンツアイテムの再生を再開する。更に、ユーザ入力684に応じて、電子デバイスは、アスペクト比オプション632Gをレシピオプション632Dに置き換え、再生オプション632Hを一時停止オプション632Eに置き換える。
図6ABでは、集約コンテンツアイテムの視覚コンテンツを再生し、オーディオトラック3を再生している間に、電子デバイス600は、持続的タップ入力(例えば、ある持続時間にわたるタップアンドホールド入力)であるタップアンドホールド入力686を検出する。
図6AB及び
図6ACでは、タップアンドホールド入力686を検出したことに応じて(かつタップアンドホールド入力686を検出し続けている間に)、電子デバイス600は、オーディオトラック3を再生し続けている間に、メディアアイテム628Cの表示を維持する(例えば、継続した表示を維持し、かつ/又は表示を維持している間に、視覚再生を一時停止する)。図示のシナリオでは、任意のユーザ入力なしに、電子デバイスは、第1の集約コンテンツアイテムの再生の一部として後続のメディアアイテムを表示することに移動しているが、タップアンドホールド入力686は、電子デバイス600に、オーディオトラック3を再生し続けている間に(例えば、タップアンドホールド入力686が検出される限り)メディアアイテム628Cの表示を維持させる。
【0190】
図6ACでは、タップアンドホールド入力686の終了(例えば、ディスプレイのタッチ感知面からの入力のリフトオフを検出した)後、電子デバイスは、ディスプレイ602の左側のタップ入力であるユーザ入力688を検出する。図示の実施形態では、ディスプレイ602の左側(例えば、ディスプレイ602の左縁部に近接する既定の領域)のタップ入力は、(例えば、第1の集約コンテンツアイテムの再生及び/又は再生の進行を継続している間に、かつ/又はオーディオトラックの再生を維持している間に)第1の集約コンテンツアイテム内の前のメディアアイテムへのナビゲーションを引き起こし、ディスプレイ602の右側(例えば、ディスプレイ602の右縁部に近接する既定の領域)のタップ入力は、(例えば、第1の集約コンテンツアイテムの再生を維持している間に、かつ/又はオーディオトラックの再生を維持している間に)第1の集約コンテンツアイテム内の後続のメディアアイテムへのナビゲーションを引き起こす。いくつかの実施形態では、ユーザ入力688は、タップ入力ではなくスワイプ入力(例えば、右スワイプ)である。
【0191】
図6ADでは、ユーザ入力688を検出したことに応じて、電子デバイス600は、メディアアイテム628Cの表示を中止し、前のメディアアイテム628Bを表示する。
図6ADでは、メディアアイテム628Bを表示している間に、かつ第1の集約コンテンツアイテムの再生及びオーディオトラック3の再生を維持している間に、電子デバイス600は、ディスプレイ602の右側のタップ入力であるユーザ入力690を検出する。いくつかの実施形態では、入力690は、タップ入力ではなくスワイプ入力(例えば、左スワイプ)である。
【0192】
図6AEでは、ユーザ入力690を検出したことに応じて、電子デバイス600は、メディアアイテム628Bの表示を中止し、後続のメディアアイテム628Cを表示する。
図6AB、
図6AC、及び
図6ADに示すユーザ入力は、第1の集約コンテンツアイテムの通常の再生を中断した。第1の集約コンテンツアイテムがこれらの図の各々を通して再生され続けている(かつオーディオトラック3がこれらの図の各々を通して再生され続けている)間に、ユーザ入力686、688、690は、第1の集約コンテンツアイテムの視覚コンテンツの再生を何らかの方法で変更させた(例えば、通常の場合よりも長く現在のメディアアイテムに対する表示を維持する、前のメディアアイテム又は後続のメディアアイテムにナビゲートする)。いくつかの実施形態では、これらのユーザ入力に応じて、電子デバイス600は、ユーザ入力によって引き起こされた第1の集約コンテンツアイテムの視覚コンテンツの再生に対する変更を考慮するように、第1の集約コンテンツアイテムの再生を加速又は減速する。例えば、(通常の場合よりも長くメディアアイテム628Cを表示させた)ユーザ入力686に応じて、電子デバイス600は、第1の集約コンテンツアイテムの再生がターゲット再生持続時間を維持するように、後続のメディアアイテムの再生を加速する。同様に、(逆方向にナビゲートする)ユーザ入力688に応じて、電子デバイス600は、後続のメディアアイテムの再生を加速し、(順方向にナビゲートする)ユーザ入力690に応じて、電子デバイス600は、第1の集約コンテンツアイテムのターゲット再生持続時間を維持するために、後続のメディアアイテムの再生を減速する。
【0193】
図6AFでは、第1の集約コンテンツアイテムの再生は、
図6AEから継続する。
図6AFでは、第1の集約コンテンツアイテムの視覚コンテンツの再生は、3つのメディアアイテム628D、628E、628Fを既定の配置で表示することを含む。いくつかの実施形態では、メディアアイテム628D、628E、628Fは、メディアアイテムに示されるコンテンツの類似性に基づいて、既定の配置で一緒に提示するために選択される。更に、
図6AFでは、ユーザ入力が閾値持続時間にわたって受信されなかったとの判定に基づいて、電子デバイス600は、オプション632A~632Fの表示を中止する。
【0194】
図6AGでは、第1の集約コンテンツアイテムの再生は、
図6AFから継続し、電子デバイス600は、オーディオトラック3を再生し続けている間に、メディアアイテム628D、628E、及び628Fの表示をメディアアイテム628Gの表示に置き換える。
【0195】
図7は、いくつかの実施形態に係る、コンピュータシステムを使用してコンテンツアイテムを閲覧及び編集する方法を示すフロー図である。方法700は、表示生成構成要素(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、及び/又はディスプレイ(例えば、一体化及び/又は接続された))及び1つ以上の入力デバイス(例えば、タッチ感知面(例えば、タッチ感知ディスプレイ)、マウス、キーボード、及び/又はリモートコントロール)と通信しているコンピュータシステム(例えば、100、300、500)(例えば、スマートフォン、スマートウォッチ、タブレット、デジタルメディアプレーヤ、コンピュータセットトップエンターテイメントボックス、スマートTV、及び/又は外部ディスプレイを制御するコンピュータシステム)において実行される。方法700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
【0196】
後述するように、方法700は、コンテンツアイテムを閲覧及び管理する直観的な方法を提供する。この方法は、コンテンツアイテムを閲覧及び管理する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合、ユーザがより速くかつより効率的にコンテンツアイテムを閲覧及び編集することが可能になることにより、電力が節約され、バッテリ充電の間隔が長くなる。
【0197】
コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、
図6Kのメディアアイテム628A)を再生し(702)(例えば、表示生成構成要素を介して、第1の集約コンテンツアイテムの視覚コンテンツを表示し)(例えば、ビデオ、及び/又は複数のコンテンツアイテムから自動的に生成されたコンテンツアイテム)(いくつかの実施形態では、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生し)、第1の集約コンテンツアイテムは、選択基準の第1のセットに基づいてコンテンツアイテムのセットから(例えば、自動的に、かつ/又はユーザ入力なしに)選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む(例えば、第1の集約コンテンツアイテムは、複数の写真及び/若しくはビデオの順序付けられたシーケンス並びに/又は写真及び/若しくはビデオの自動的に生成された集合(例えば、1つ以上の共有特性に基づいてコンテンツアイテムのセットから自動的に集約及び/又は選択された写真及び/又はビデオの集合)を示す)。いくつかの実施形態では、第1の複数のコンテンツアイテムを構成する複数の写真及び/又はビデオは、コンピュータシステムに関連付けられた(例えば、コンピュータシステムに記憶された、コンピュータシステムのユーザに関連付けられた、かつ/又はコンピュータシステムに関連付けられた(例えば、サインインした)ユーザアカウントに関連付けられた)写真及び/又はビデオのセットから選択される。
【0198】
第1の集約コンテンツアイテムの視覚コンテンツ(例えば、
図6Kのメディアアイテム628A)を再生している間に(704)、コンピュータシステムは、コンテンツアイテムとは別個のオーディオコンテンツを再生する(706)(例えば、
図6Kのオーディオトラック1を再生する)(例えば、第1の集約コンテンツアイテムの視覚コンテンツが表示生成構成要素を介して表示されている間に、コンテンツアイテムとは別個の曲又はメディアアセットを出力する、かつ/又はその出力を引き起こす(例えば、1つ以上のスピーカ、1つ以上のヘッドホン、及び/又は1つ以上のイヤホンを介して)。いくつかの実施形態では、コンピュータシステムはまた、第1の集約コンテンツアイテムに対応する、かつ/又はその一部であるオーディオコンテンツ(例えば、集約コンテンツアイテムに組み込まれた1つ以上のビデオからのオーディオ)(例えば、第1の集約コンテンツアイテム上に重ね合わされた、かつ/又は第1の集約コンテンツアイテムの視覚コンテンツが再生及び/若しくは表示されている間に再生されるオーディオトラック)を再生する。
【0199】
第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生している間に(708)、コンピュータシステムは、1つ以上の入力デバイスを介して、ユーザ入力(例えば、648)(例えば、(例えば、タッチ感知ディスプレイ及び/又はタッチ感知面を介した)ジェスチャ(例えば、タップジェスチャ、スワイプジェスチャ)及び/又は音声入力)を検出する(710)。
【0200】
ユーザ入力を検出したことに応じて(712)、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツ(例えば、非音量オーディオパラメータ(例えば、音量とは異なるオーディオパラメータ))を修正する(714)(例えば、オーディオコンテンツを、第1のオーディオトラックから第1のオーディオトラックとは異なる第2のオーディオトラックに(例えば、第1の音楽トラックから第1の音楽トラックとは異なる第2の音楽トラックに)変更する)(例えば、
図6K~
図6N、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている(例えば、メディアアイテム628Aを表示している)間に、オーディオトラック1をオーディオトラック2に変更する)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの再生を中止、一時停止、及び/又は他の方法で中断することなく)。第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、ユーザ入力を検出したことに応じて、オーディオコンテンツを修正することにより、ユーザが視覚コンテンツに適用されるオーディオコンテンツを迅速に修正することを可能にし、それによって、視覚コンテンツに適用されるオーディオコンテンツを修正するために必要とされる入力の数を低減する。ユーザ入力を検出したことに応じて、オーディオコンテンツを修正することにより、デバイスの現在の状態に関する(例えば、デバイスがユーザ入力を検出したという)フィードバックをユーザに提供する。
【0201】
いくつかの実施形態では、ユーザ入力(例えば、648)を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、第1の集約コンテンツアイテムの視覚コンテンツの再生の視覚パラメータ(例えば、輝度、彩度、色相、コントラスト、色、第1の複数のコンテンツアイテムのコンテンツアイテム間の視覚遷移、第1の複数のコンテンツアイテムの各コンテンツアイテムの表示持続時間、第1の集約コンテンツアイテムに使用される1つ以上の視覚遷移(例えば、第1の集約コンテンツアイテム内に提示されるコンテンツアイテム間の))を修正する(716)(例えば、
図6K~
図6N、ユーザ入力648に応じて、メディアアイテム628Aに適用される視覚フィルタを変更する)(例えば、第1の集約コンテンツアイテムに適用される視覚フィルタを(例えば、第1の視覚フィルタから第1の視覚フィルタとは異なる第2の視覚フィルタに)変更する)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの再生を中止、一時停止、及び/又は他の方法で中断することなく)(例えば、第1の複数のコンテンツアイテムの順序付けられたシーケンスの順序を変更することなく)。第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、ユーザ入力を検出したことに応じて、オーディオコンテンツ及び第1の集約コンテンツアイテムの視覚コンテンツの視覚パラメータを修正することにより、ユーザがオーディオコンテンツ及び視覚コンテンツに適用される視覚パラメータを迅速に修正することを可能にし、それによって、オーディオコンテンツ及び視覚コンテンツに適用される視覚パラメータを修正するために必要とされる入力の数を低減する。ユーザ入力を検出したことに応じて、視覚パラメータを修正することにより、デバイスの現在の状態に関する(例えば、デバイスがユーザ入力を検出したという)フィードバックをユーザに提供する。
【0202】
いくつかの実施形態では、(例えば、ユーザ入力を検出する前に)第1の集約コンテンツアイテムの視覚コンテンツを再生することは、第1の視覚フィルタが視覚コンテンツの第1の領域(例えば、第1の表示領域)(例えば、視覚コンテンツの表示領域全体、及び/又は視覚コンテンツの表示領域の一部分)に適用された(例えば、
図6K、視覚フィルタ646Bがメディアアイテム628Aの第1の領域に適用された)状態で視覚コンテンツを表示することを含む。いくつかの実施形態では、(例えば、ユーザ入力を検出する前に)第1の集約コンテンツアイテムの視覚コンテンツを再生することは、(例えば、第1の領域に適用された第1の視覚フィルタを同時に表示している間に)第1の視覚フィルタとは異なる第2の視覚フィルタが第1の領域とは異なる視覚コンテンツの第2の領域(例えば、第2の表示領域)に適用された状態で視覚コンテンツを表示することを含む。
【0203】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、第1の集約コンテンツアイテムの視覚コンテンツの再生の視覚パラメータを修正することは、第1の視覚フィルタとは異なる第2の視覚フィルタが視覚コンテンツの第1の領域に適用された(例えば、
図6N、視覚フィルタ646Cがメディアアイテム628Aの第1の領域に適用された)状態で視覚コンテンツを表示することを含む。いくつかの実施形態では、視覚パラメータを修正することは、第1の視覚フィルタが第1の領域に適用された状態での視覚コンテンツの表示を、第2の視覚フィルタが第1の領域に適用された状態での視覚コンテンツの表示に置き換えることを含む。いくつかの実施形態では、視覚パラメータを修正することは、第2の視覚フィルタが適用された状態での視覚コンテンツの第2の領域の表示を、第1及び第2の視覚フィルタとは異なる第3の視覚フィルタが第2の領域に適用された状態での視覚コンテンツの第2の領域の表示に置き換えることを含む。いくつかの実施形態では、視覚フィルタは、既定の露出設定(例えば、既定の露出値及び/又は既定の露出調整)、既定のコントラスト設定(例えば、既定のコントラスト値及び/又は既定のコントラスト調整)、既定のハイライト設定(例えば、既定のハイライト値及び/又は既定のハイライト調整)、既定の影設定(例えば、既定の影値及び/又は既定の影調整)、既定の輝度設定(例えば、既定の輝度値及び/又は既定の輝度調整)、既定の彩度設定(例えば、既定の彩度値及び/又は既定の彩度調整)、既定の暖かさ設定(例えば、既定の暖かさ値及び/又は既定の暖かさ調整)、及び/又は既定の色合い設定(例えば、既定の色合い値及び/又は既定の色合い調整)のうちの2つ以上の集合を含む。ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツに適用される視覚フィルタを修正することにより、ユーザが第1の集約コンテンツアイテムの視覚コンテンツに適用される視覚フィルタを迅速に修正することを可能にし、それによって、視覚コンテンツに適用される視覚フィルタを修正するために必要とされる入力の数を低減する。ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツに適用される視覚フィルタを修正することにより、デバイスの現在の状態に関する(例えば、デバイスがユーザ入力を検出したという)フィードバックをユーザに提供する。
【0204】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、コンテンツアイテムとは別個のオーディオコンテンツを再生することは、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、コンテンツアイテムとは別個の第1のオーディオトラックを再生すること(例えば、
図6K、メディアアイテム628Aを表示している間に、オーディオトラック1を再生すること)を含む。
【0205】
いくつかの実施形態では、第1のオーディオトラック(例えば、
図6Kのオーディオトラック1)を再生している間に、第1の集約コンテンツアイテムの視覚コンテンツは、第1の視覚フィルタ(例えば、646B)が視覚コンテンツ(例えば、628A)の第1の領域(例えば、視覚コンテンツの表示領域全体、及び/又は視覚コンテンツの表示領域の一部分)に適用された状態で表示される。いくつかの実施形態では、第1のオーディオトラック(例えば、
図6Kのオーディオトラック1)は、第1の視覚フィルタ(例えば、646B)との第1の既定の組み合わせの一部である(例えば、それを形成及び/又は定義する)。いくつかの実施形態では、第1の既定の組み合わせは、任意の他のオーディオトラック又は視覚フィルタを含まない。
【0206】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正することは、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、コンテンツアイテムとは別個の、かつ第1のオーディオトラックとは異なる第2のオーディオトラック(例えば、
図6Nのオーディオトラック2)を再生することを含む。いくつかの実施形態では、ユーザ入力を検出したことに応じて、コンピュータシステムは、第1のオーディオトラックの再生を中止する。
【0207】
いくつかの実施形態では、第2のオーディオトラック(例えば、
図6N、オーディオトラック2)を再生している間に、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、628A)は、第2のフィルタ(例えば、646C)が視覚コンテンツの第1の領域に適用された状態で表示される。いくつかの実施形態では、ユーザ入力を検出したことに応じて、コンピュータシステムは、第1の視覚フィルタが適用された状態での視覚コンテンツの第1の領域の表示を第2の視覚フィルタが適用された状態での視覚コンテンツの第1の領域の表示に置き換える。いくつかの実施形態では、第1の視覚フィルタが視覚コンテンツの第1の領域に適用されている間に、第2の視覚フィルタは、第1の領域とは異なる視覚コンテンツの第2の領域に適用され、ユーザ入力を検出したことに応じて、第2の視覚フィルタは、視覚コンテンツの第1の領域に適用され、第1の視覚フィルタは、視覚コンテンツの第1の領域に適用されることを中止する。
【0208】
いくつかの実施形態では、第2のオーディオトラック(例えば、
図6N、オーディオトラック2)は、第2の視覚フィルタ(例えば、646C)との第2の既定の組み合わせの一部である(例えば、それを形成及び/又は定義する)。いくつかの実施形態では、第2の既定の組み合わせは、任意の他のオーディオトラック又は視覚フィルタを含まない。
【0209】
いくつかの実施形態では、第1の既定の組み合わせ(例えば、
図6Kの思い出レシピ6のうちの1)及び第2の既定の組み合わせ(例えば、
図6Nの思い出レシピ6のうちの2)は、フィルタとオーディオトラックとの複数の既定の組み合わせの一部である。フィルタとオーディオトラックとの複数の既定の組合せは、ある順序(例えば、思い出レシピ1~6)で配置されている。第2の既定の組合せは、順序内で第1の既定の組合せに隣接するように(例えば、第1の既定の組合せの直前及び/又は直後に)選択され、第1のオーディオトラック(例えば、
図6Kのオーディオトラック1)は、第2のオーディオトラック(例えば、
図6Nのオーディオトラック2)とは異なる。第1の視覚フィルタ及び第1のオーディオトラックを含む第1の既定の組合せを、第1の視覚フィルタ及び第1のオーディオトラックとは異なる第2の視覚フィルタ及び第2のオーディオトラックを含む第2の既定の組合せに隣接するように順次順序付けることにより、オーディオコンテンツ及び視覚パラメータの両方がユーザ入力に応じて修正されることをユーザに明確にすることによって、改善されたフィードバックをユーザに提供する。
【0210】
いくつかの実施形態では、コンピュータシステムは、第1の既定の組み合わせを第1の集約コンテンツアイテムに適用し(例えば、第1のオーディオトラックを再生し、第1の視覚フィルタが第1の領域に適用された状態で第1の集約コンテンツアイテムの視覚コンテンツを表示する)、第1の既定の組み合わせが第1の集約コンテンツアイテムに適用されている間に、コンピュータシステムは、ユーザ入力を検出し、ユーザ入力を検出したことに応じて、コンピュータシステムは、第2の既定の組み合わせを第1の集約コンテンツアイテムに適用する(例えば、第2のオーディオトラックを再生し、第2の視覚フィルタが第1の領域に適用された状態で第1の集約コンテンツアイテムの視覚コンテンツを表示する)。いくつかの実施形態では、ユーザ入力を検出したことに応じて、コンピュータシステムは、第1の既定の組み合わせの適用を中止する(例えば、第1のオーディオトラックの再生を中止し、第1の視覚フィルタの第1の領域への適用を中止する)。いくつかの実施形態では、第2の既定の組み合わせは、第2の既定の組み合わせが順序に内で第1の既定の組み合わせに隣接していることに基づいて(例えば、第2の既定の組み合わせが順序内で第1の既定の組み合わせに隣接しているとの判定に従って)、ユーザ入力に応じて適用される。いくつかの実施形態では、ユーザ入力は、方向を含み、ユーザ入力の方向は、順序内の次の既定の組合せを適用する要求を示し、第2の既定の組合せは、第2の既定の組合せが順序内で第1の既定の組合せの直後にあることに基づいて、ユーザ入力に応じて適用される。いくつかの実施形態では、ユーザ入力は、(例えば、異なる)方向を含み、ユーザ入力の方向は、順序内の前の既定の組合せを適用する要求を示し、第2の既定の組合せは、第2の既定の組合せが順序内で第1の既定の組合せの直前にあることに基づいて、ユーザ入力に応じて適用される。
【0211】
いくつかの実施形態では、第1の視覚フィルタ(例えば、646B)は、第1のオーディオトラックの1つ以上のオーディオ特性(例えば、1分当たりのビート及び/又は音波特性)及び第1の視覚フィルタの1つ以上の視覚特性(例えば、露出、輝度、彩度、色相、及び/又はコントラスト)に基づいて、第1のオーディオトラック(例えば、オーディオトラック1)との第1の既定の組み合わせの一部であるように選択される。いくつかの実施形態では、第2の視覚フィルタは、第2のオーディオトラックのもう1つのオーディオ特性及び第2の視覚フィルタの1つ以上の視覚特性に基づいて、第2のオーディオトラックとの第2の既定の組合せの一部であるように選択される。第1のオーディオトラックの1つ以上のオーディオ特性に基づいて、第1のオーディオトラックと対にするように第1の視覚フィルタを選択することにより、ユーザに提供されるフィルタ/オーディオトラックの組合せの品質を改善し、それによって、ユーザによる選択のための改善された手段を提供する。そうでなければ、視覚フィルタとオーディオトラックとの所望の組合せを更に見つけるために、追加の入力が必要になる。
【0212】
いくつかの実施形態では、(例えば、ユーザ入力を検出する前に)第1の集約コンテンツアイテムの視覚コンテンツを再生することは、表示生成構成要素を介して、視覚コンテンツの中央表示部分を含む視覚コンテンツの第1の領域に第1の視覚フィルタ(例えば、646B)が適用された状態(例えば、
図6K)での視覚コンテンツ(例えば、628A)と、視覚コンテンツの第1の縁部(例えば、左縁部、右縁部、上縁部、及び/又は下縁部)を含む、第1の領域とは異なる視覚コンテンツの第2の領域(例えば、第1の領域に重ならない第2の領域及び/又は第1の領域に隣接する第2の領域)に第2の視覚フィルタ(例えば、646C)が適用された状態(例えば、
図6K)での視覚コンテンツ(例えば、628A)とを同時に表示することを含む。第1の視覚フィルタが視覚コンテンツの第1の領域に適用され、かつ第2の視覚フィルタが視覚コンテンツの第2の領域に適用された状態で視覚コンテンツを同時に表示することにより、デバイスの現在の状態に関する(例えば、第2の視覚フィルタが第1の視覚フィルタに隣接して順序付けられているという)フィードバックをユーザに提供する。
【0213】
いくつかの実施形態では、(例えば、ユーザ入力を検出する前に)第1の集約コンテンツアイテムの視覚コンテンツを再生することは、第1の視覚フィルタ(例えば、646B)が第1の領域に適用され、かつ第2の視覚フィルタ(例えば、646C)が第2の領域に適用された状態で視覚コンテンツ(例えば、628A)を同時に表示している間に、表示生成構成要素を介して、第1の視覚フィルタ及び第2の視覚フィルタとは異なる第3の視覚フィルタ(例えば、646A)が第1の領域及び第2の領域とは異なる視覚コンテンツの第3の領域(例えば、第1の領域又は第2の領域に重ならない第3の領域)(例えば、第1の領域に隣接する第3の領域)に適用された状態(例えば、
図6K)で視覚コンテンツを表示することを更に含み、第3の領域は、第1の縁部とは異なる視覚コンテンツの第2の縁部(例えば、左縁部、右縁部、上縁部、及び/又は下縁部)(例えば、第1の縁部の反対側の縁部)を含む。第1の視覚フィルタが視覚コンテンツの第1の領域に適用され、第2の視覚フィルタが視覚コンテンツの第2の領域に適用され、かつ第3の視覚フィルタが視覚コンテンツの第3の領域に適用された状態で視覚コンテンツを同時に表示することにより、デバイスの現在の状態に関する(例えば、第2及び第3の視覚フィルタが第1の視覚フィルタに隣接して順序付けられているという)フィードバックをユーザに提供する。
【0214】
いくつかの実施形態では、(例えば、ユーザ入力を検出する前に)第1の集約コンテンツアイテムの視覚コンテンツ(例えば、628A、628B、628C、628D)を再生することは、第1の視覚遷移タイプの遷移(例えば、クロスフェード、黒色へのフェード、露出ブリード、パン、スケール、及び/又は回転)を第1の集約コンテンツアイテムの視覚コンテンツに適用すること(例えば、第1の集約コンテンツアイテムのコンテンツアイテム間での第1のタイプの視覚遷移を適用すること)を含み、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、第1の集約コンテンツアイテムの視覚コンテンツの再生の視覚パラメータを修正することは、第1の視覚遷移タイプとは異なる第2の視覚遷移タイプに遷移を修正すること(例えば、第1の集約コンテンツアイテム内のコンテンツアイテム間での第2のタイプの視覚遷移を適用すること)を含む。いくつかの実施形態では、(例えば、ユーザ入力を検出する前に)第1の集約コンテンツアイテムの視覚コンテンツを再生することは、第1の集約コンテンツアイテムの第1のコンテンツアイテム(例えば、第1の画像及び/又は第1のビデオ)を表示することと、第1の集約コンテンツアイテムの第1のコンテンツアイテムから第2のコンテンツアイテムへの遷移であって、第1の視覚遷移タイプである遷移を表示することと、第1のコンテンツアイテムから第2のコンテンツアイテムへの遷移を表示した後に、第2のコンテンツアイテムを表示することと、を含む。ユーザ入力を検出し、(例えば、第1の視覚遷移タイプを第2の視覚遷移タイプに修正することを含む)第1の集約コンテンツアイテムの視覚コンテンツの再生の視覚パラメータを修正した後に、コンピュータシステムは、第1の集約コンテンツアイテムの第3のコンテンツアイテムを表示し、第3のコンテンツアイテムを表示した後に、コンピュータシステムは、第3のコンテンツアイテムから第1の集約コンテンツアイテムの第4のコンテンツアイテムへの遷移を表示し、遷移は、第1の視覚遷移タイプとは異なる第2の視覚遷移タイプである。ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツに適用される視覚遷移を修正することにより、ユーザが第1の集約コンテンツアイテムの視覚コンテンツに適用される視覚遷移を迅速に修正することを可能にし、それによって、視覚コンテンツに適用される視覚遷移を修正するために必要とされる入力の数を低減する。
【0215】
いくつかの実施形態では、第1の視覚遷移タイプは、ユーザ入力(例えば、648)を検出する前に(例えば、ユーザ入力の開始が検出される前に)再生されているオーディオコンテンツ(例えば、
図6Kのトラック1)に基づいて(例えば、音波情報及び/又は1分当たりのビート情報に基づいて)、複数の視覚遷移タイプから選択される。いくつかの実施形態では、第2の視覚遷移タイプは、ユーザ入力(例えば、648)を検出した後に(例えば、ユーザ入力の終了が検出された後に)再生されているオーディオコンテンツ(例えば、
図6Nのトラック2)に基づいて(例えば、音波情報及び/又は1分当たりのビート情報に基づいて)、複数の視覚遷移タイプから選択される。再生されているオーディオコンテンツに基づいて遷移タイプを自動的に選択することにより、ユーザに提案される視覚遷移の品質を改善し、ユーザが更なるユーザ入力なしにそれらの改善された視覚遷移を適用することを可能にする。
【0216】
いくつかの実施形態では、第1の視覚遷移タイプは、ユーザ入力(例えば、648)を検出する前に再生されているオーディオコンテンツ(例えば、
図6Kのトラック1)のテンポ(例えば、1分当たりのビート情報)に基づいて、視覚遷移タイプの第1のセットから選択され、第2の視覚遷移タイプは、ユーザ入力(例えば、648)を検出した後に再生されているオーディオコンテンツ(例えば、
図6Nのトラック2)のテンポ(例えば、1分当たりのビート情報)に基づいて、第1のセットとは異なる視覚遷移タイプの第2のセットから選択される(例えば、第1の範囲内の1分当たりのビート値を有するオーディオコンテンツ(例えば、(例えば、閾値を上回る)高い1分当たりのビートを有する「高エネルギ」曲)のための視覚遷移タイプの第1のセット(例えば、露出ブリード、パン、スケール、及び/又は回転)、及び第2の範囲内の1分当たりのビートを有するオーディオコンテンツ(例えば、(例えば、閾値を下回る)より低い1分当たりのビート値を有する「低エネルギ」曲)のための視覚遷移タイプの第2のセット)。再生されているオーディオコンテンツに基づいて遷移タイプを自動的に選択することにより、ユーザに提案される視覚遷移の品質を改善し、ユーザが更なるユーザ入力なしにそれらの改善された視覚遷移を適用することを可能にする。
【0217】
いくつかの実施形態では、(例えば、ユーザ入力を検出する前に)第1の集約コンテンツアイテムの視覚コンテンツ(例えば、628A、628B、628C、628D)を再生することは、視覚パラメータの第1のセット(例えば、
図6K、646B)が視覚コンテンツの第1の領域(例えば、第1の表示領域)に適用された状態で視覚コンテンツ(例えば、
図6Kの628A)を表示することと、第1の視覚フィルタが第1の領域に適用された状態で視覚コンテンツを同時に表示している間に、第1の領域とは異なり、かつ第1の領域に隣接する視覚コンテンツの第2の領域(例えば、第1の領域に重ならない第2の領域)に視覚パラメータの第1のセットとは異なる視覚パラメータの第2のセット(例えば、
図6K、646C)が適用された状態で視覚コンテンツを表示することと、第1の領域と第2の領域との間にディバイダ(例えば、
図6Kの視覚フィルタ646Bと646Cとの間の空白スペース)を表示することとを含む。いくつかの実施形態では、ディバイダは、第1の領域と第2の領域との間の視覚的に別個の領域である。いくつかの実施形態では、ディバイダは、第1及び第2の領域に適用される視覚パラメータとは異なる視覚パラメータに基づいて見える視覚ディバイダである(例えば、ディバイダは、第1の領域と第2の領域との間の別個の領域ではない)(例えば、ディバイダは、第1の領域と第2の領域との間の分割線である)。視覚パラメータの第1のセットが視覚コンテンツの第1の領域に適用され、かつ視覚パラメータの第2のセットが視覚コンテンツの第2の領域に適用された状態で視覚コンテンツを同時に表示することにより、デバイスの現在の状態に関する(例えば、視覚パラメータの第1のセットが現在選択されており、ユーザ入力が視覚パラメータの第2のセットを選択させるという)フィードバックをユーザに提供する。
【0218】
いくつかの実施形態では、ユーザ入力(例えば、648)を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、かつ第1の集約コンテンツアイテムの視覚コンテンツ(例えば、
図6K~
図6Nの628A)をシフトすることなく、ユーザ入力と同時にディバイダをシフトする(例えば、
図6K~
図6Nの視覚フィルタ646Bと646Cとの間の空白スペースをシフトする)(例えば、ユーザ入力の方向に対応する方向にディバイダをシフトする)。いくつかの実施形態では、ユーザ入力と同時にディバイダをシフトさせることは、ユーザ入力に基づいて、かつ/又はディバイダをシフトさせることに基づいて、第1の領域のサイズを変更し、第2の領域のサイズを変更することを含む。いくつかの実施形態では、ユーザ入力と同時にディバイダをシフトさせることは、ユーザ入力に基づいて、かつ/又はディバイダをシフトさせることに基づいて、第1の領域のサイズを(例えば、第1の量だけ)増加させ、第2の領域のサイズを(例えば、第1の量だけ)減少させることを含む。ユーザ入力と同時にディバイダをシフトすることにより、デバイスの現在の状態に関する(例えば、デバイスがユーザ入力を検出したという、並びに/又はユーザ入力が視覚パラメータの第1及び/若しくは第2のセットを適用させるという)フィードバックをユーザに提供する。
【0219】
いくつかの実施形態では、ユーザ入力(例えば、648)を検出する前に、第1の集約コンテンツアイテムは、第1の持続時間(例えば、1秒、又は3秒)にわたって第1の複数のコンテンツアイテムの第1のコンテンツアイテム(例えば、628A)(又は、任意選択的に、その各コンテンツアイテム)を表示するように構成されており、第1の集約コンテンツアイテムの視覚コンテンツの再生の視覚パラメータを修正することは、第1の持続時間とは異なる第2の持続時間(例えば、2秒、又は4秒)にわたって第1のコンテンツアイテム(例えば、628A)(又は、任意選択的に、各コンテンツアイテム)を表示するように第1の集約コンテンツアイテムを構成することを含む。いくつかの実施形態では、ユーザ入力を検出する前に、第1の集約コンテンツアイテムは、第3の持続時間にわたって第1の複数のコンテンツアイテムのうちの第2のコンテンツアイテムを表示するように構成されており、第1の集約コンテンツアイテムの視覚コンテンツの再生の視覚パラメータを修正することは、ユーザ入力を検出したことに応じて、第3の持続時間とは異なる第4の持続時間にわたって第2のコンテンツアイテムを表示するように第1の集約コンテンツアイテムを構成することを含む。いくつかの実施形態では、第2の持続時間は、ユーザ入力がより速いオーディオコンテンツの再生を引き起こすとの判定に基づいて、第1の持続時間よりも短い(例えば、オーディオコンテンツを修正することは、オーディオコンテンツよりも速いテンポ(例えば、より大きい1分当たりのビート値)を有する新しいオーディオコンテンツを再生することを含む)。いくつかの実施形態では、第2の持続時間は、ユーザ入力がより遅いオーディオコンテンツの再生を引き起こすとの判定に基づいて、第1の持続時間よりも長い(例えば、オーディオコンテンツを修正することは、オーディオコンテンツよりも遅いテンポ(例えば、より低い1分当たりのビート値)を有する新しいオーディオコンテンツを再生することを含む)。ユーザ入力を検出したことに応じて、コンテンツアイテムが表示される持続時間を修正することにより、ユーザが、コンテンツアイテムが表示される持続時間を迅速に修正することを可能にし、それによって、コンテンツアイテムの表示持続時間を修正するために必要とされる入力の数を低減する。
【0220】
いくつかの実施形態では、ユーザ入力(例えば、648、650A、650B)は、(例えば、タッチ感知ディスプレイ及び/又はタッチ感知面を介した)ジェスチャ(例えば、タップジェスチャ、スワイプジェスチャ、及び/又は異なるジェスチャ)(例えば、タッチスクリーンジェスチャ及び/又はマウスクリック若しくはホバージェスチャなどの非タッチスクリーンジェスチャ)を含む。ジェスチャを検出したことに応じて、オーディオコンテンツを修正することにより、ユーザが視覚コンテンツに適用されるオーディオコンテンツを迅速に修正することを可能にし、それによって、視覚コンテンツに適用されるオーディオコンテンツを修正するために必要とされる入力の数を低減する。ジェスチャを検出したことに応じて、オーディオコンテンツを修正することにより、デバイスの現在の状態に関する(例えば、デバイスがジェスチャを検出したという)フィードバックをユーザに提供する。
【0221】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正することは、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、628A)を再生し続けている間に、第1のオーディオトラック(例えば、
図6Kのトラック1)(例えば、第1の音楽トラック及び/又は第1の曲)から第1のオーディオトラックとは異なる第2のオーディオトラック(例えば、
図6Nのトラック2)(例えば、第2の音楽トラック及び/又は第2の曲)にオーディオコンテンツを変更することを含む。いくつかの実施形態では、ユーザ入力を検出する前に、コンテンツアイテムとは別個のオーディオコンテンツを再生することは、第1のオーディオトラックを再生することを含み、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正することは、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、第1のオーディオトラックの再生を中止し、第2のオーディオトラックを再生すること(例えば、第1のオーディオトラックの再生を第2のオーディオトラックの再生に置き換えること)を含む。ユーザ入力を検出したことに応じて、第1のオーディオトラックから第2のオーディオトラックにオーディオコンテンツを変更することにより、ユーザが視覚コンテンツに適用されるオーディオトラックを迅速に修正することを可能にし、それによって、視覚コンテンツに適用されるオーディオトラックを修正するために必要とされる入力の数を低減する。第1のオーディオトラックから第2のオーディオトラックにオーディオコンテンツを変更することにより、デバイスの現在の状態に関する(例えば、デバイスがユーザ入力を検出したという)フィードバックをユーザに提供する。
【0222】
いくつかの実施形態では、第1のオーディオトラックから第2のオーディオトラックにオーディオコンテンツを変更することは、第1のオーディオトラックの開始位置ではない第1のオーディオトラックの第1の再生位置で第1のオーディオトラックの再生を中止すること(例えば、
図6K~
図6N、オーディオトラック1の再生を中止すること)(例えば、第1のオーディオトラックの再生中に(例えば、第1のオーディオトラックの途中で)第1のオーディオトラックの再生を中止すること)(例えば、ユーザ入力が検出された場合、その現在の再生位置で第1のオーディオトラックの再生を中止すること)(例えば、ユーザ入力が第1のオーディオトラックに入って37秒で検出された場合、37秒マークで第1のオーディオトラックの再生を中止すること)と、第2のオーディオトラックの開始位置ではない第2のオーディオトラックの第2の再生位置で第2のオーディオトラックの再生を開始すること(例えば、
図6N、オーディオトラック2の再生を開始すること)(例えば、第2のオーディオトラックの途中で(例えば、第2のオーディオトラックの先頭ではない第2のオーディオトラック内の再生位置から)(例えば、第2のオーディオトラックに入って37秒、第2のオーディオトラックに入って48秒)第2のオーディオトラックの再生を開始すること)とを含む。いくつかの実施形態では、第2の再生位置は、第1の再生位置に対応する(例えば、第1の再生位置が第1のオーディオトラックに入って23秒である(例えば、ユーザ入力が第1のオーディオトラックの23秒マークで検出され、かつ/又は第1のオーディオトラックが23秒マークで停止される)場合)、第2の再生位置は、第2のオーディオトラックに入って23秒である(例えば、第2のオーディオトラックは、23秒マークから再生を開始する)。いくつかの実施形態では、第2の再生位置は、第1のオーディオトラック内の第1の再生位置の完了の割合に対応する第2のオーディオトラックの完了の割合に対応する(例えば、第1の再生位置は、第1のオーディオトラックのx%が完了したことを表し、第2の再生位置は、第2のオーディオトラックのx%が完了したことを表す)。いくつかの実施形態では、第2の再生位置は、オーディオトラックに入って所定の時間より長い(例えば、オーディオトラックに入って5秒より長い、オーディオトラックに入って10秒より長い、オーディオトラックに入って20秒より長い、又はオーディオトラックに入って30秒より長い)再生位置である。第2のオーディオトラックの先頭ではない第2のオーディオトラックの第2の再生位置で第2のオーディオトラックの再生を自動的に開始することにより、更なるユーザ入力を必要とせずに、第2のオーディオトラックが適用された状態で第1の集約コンテンツアイテムの再生がどのようであるかのより正確なプレビューをユーザに提供する。
【0223】
いくつかの実施形態では、コンピュータシステムは、(例えば、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生している間に)1つ以上の入力デバイスを介して、1つ以上の持続時間設定入力(例えば、オプション636E~636Hを選択する1つ以上の入力)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。1つ以上の持続時間設定入力を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの持続時間(例えば、長さ)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの持続時間)を(例えば、第1の持続時間から第2の持続時間に)修正する。いくつかの実施形態では、1つ以上の持続時間設定入力を検出する前に、第1の集約コンテンツアイテムのコンテンツが表示される速度は、コンピュータシステムが第1の集約コンテンツを再生するのに第1の持続時間を要することになり、1つ以上の持続時間設定入力を検出した後に、第1の集約コンテンツアイテムのコンテンツが表示される速度は、コンピュータシステムが第1の集約コンテンツを再生するのに(第1の持続時間とは異なる)第2の持続時間を要することになる。ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの持続時間を修正することにより、ユーザが第1の集約コンテンツアイテムの持続時間を迅速に修正することを可能にし、それによって、集約コンテンツアイテムの持続時間を修正するために必要とされる入力の数を低減する。
【0224】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正することは、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、オーディオコンテンツを第1のオーディオトラック(例えば、第1の音楽トラック及び/又は第1の曲)から第1のオーディオトラックとは異なる第2のオーディオトラック(例えば、第2の音楽トラック及び/又は第2の曲)に変更することを含み、第1のオーディオトラックは、第1の持続時間(例えば、長さ)を有し、第2のオーディオトラックは、第1の持続時間とは異なる第2の持続時間(例えば、長さ)を有する。ユーザ入力を検出したことに応じて、コンピュータシステムは、第2の持続時間(例えば、オプション636H「完全な曲」)に基づいて、第1の集約コンテンツアイテムの持続時間(例えば、長さ)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの持続時間)を修正する(例えば、第1の集約コンテンツアイテムの持続時間を第2の持続時間に(例えば、第2の持続時間に等しいように)修正する)。いくつかの実施形態では、第1の集約コンテンツアイテムの持続時間を修正することは、第1の複数のコンテンツアイテムの少なくともサブセットの各コンテンツアイテムについて、コンテンツアイテムが表示されるように構成されている個別の持続時間を修正すること(例えば、第1のコンテンツアイテムが表示される持続時間を修正すること、第2のコンテンツアイテムが表示される持続時間を修正すること)を含む。いくつかの実施形態では、第1の集約コンテンツアイテムの持続時間を修正することは、第1の集約コンテンツアイテム内に表示されるコンテンツアイテムの数を修正すること(例えば、第1の複数のコンテンツアイテム内のコンテンツアイテムの数を修正すること)を含む。第2のオーディオトラックの持続時間に基づいて第1の集約コンテンツアイテムの持続時間を自動的に修正することにより、ユーザが更なるユーザ入力なしに第1の集約コンテンツアイテムの持続時間を迅速に修正することを可能にする。
【0225】
いくつかの実施形態では、オーディオコンテンツを再生している間に、コンピュータシステムは、(例えば、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生している間に)1つ以上の入力デバイスを介して、1つ以上の持続時間適合入力(例えば、オプション636Hを選択する1つ以上の入力)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。1つ以上の持続時間適合入力を検出したことに応じて、かつオーディオコンテンツが第1の持続時間を有するとの判定に従って、コンピュータシステムは、(例えば、オーディオコンテンツが第1の持続時間を有するとの判定に基づいて)第1の集約コンテンツアイテムの持続時間(例えば、長さ)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの持続時間)を、第1の持続時間とは異なる第2の持続時間から第1の持続時間に修正する。いくつかの実施形態では、1つ以上の持続時間適合入力を検出したことに応じて、かつオーディオコンテンツが第1の持続時間及び第2の持続時間とは異なる第3の持続時間を有するとの判定に従って、コンピュータシステムは、第1の集約コンテンツアイテムの持続時間を第2の持続時間から第3の持続時間に修正する。ユーザ入力を検出したことに応じて、第1の集約コンテンツアイテムの持続時間を修正することにより、ユーザが第1の集約コンテンツアイテムの持続時間を迅速に修正することを可能にし、それによって、集約コンテンツアイテムの持続時間を修正するために必要とされる入力の数を低減する。
【0226】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、628A、628B、628C、628D)と、コンテンツアイテムとは別個のオーディオコンテンツ(例えば、
図6F~
図6AGのオーディオトラック1、オーディオトラック2、オーディオトラック3)とを再生している間に、コンピュータシステムは、表示生成構成要素を介して、(例えば、複数の視覚フィルタに対応する)複数の視覚フィルタオプション(例えば、各視覚フィルタオプションは、個別の視覚フィルタに対応する)を表示するために選択可能な第1の選択可能なオブジェクト(例えば、644D)を表示する。第1の選択可能なオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1の選択可能なオブジェクトの選択に対応する第1の選択入力(例えば、668)(例えば、タップ入力及び/又は非タップ入力)を検出する。第1の選択入力を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に(いくつかの実施形態では、コンテンツアイテムとは別個のオーディオコンテンツを再生し続けている間に)、視覚フィルタ選択ユーザインタフェース(例えば、670)を表示する。視覚フィルタ選択ユーザインタフェースを表示することは、第1の視覚フィルタが視覚コンテンツに適用された状態での第1の集約コンテンツアイテムの視覚コンテンツの継続した再生の表示を含む第1のユーザインタフェースオブジェクト(例えば、674A)(例えば、第1の視覚フィルタに対応する第1のユーザインタフェースオブジェクト)と、第1の視覚フィルタとは異なる第2の視覚フィルタが視覚コンテンツに適用された状態での第1の集約コンテンツアイテムの視覚コンテンツの継続した再生の表示を含む第2のユーザインタフェースオブジェクト(例えば、674B)(例えば、第1の視覚フィルタとは異なる第2の視覚フィルタに対応する第2のユーザインタフェースオブジェクト)とを同時に表示することを含む。複数の視覚フィルタオプションを同時に表示することにより、ユーザが所望の視覚フィルタを迅速に閲覧して選択することを可能にし、それによって、視覚フィルタを選択するために必要とされる入力の数を低減する。
【0227】
いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、視覚フィルタ選択ユーザインタフェースの第1の領域に表示され、第2のユーザインタフェースオブジェクトは、第1の領域に重ならない視覚フィルタ選択ユーザインタフェースの第2の領域に表示される。いくつかの実施形態では、視覚フィルタ選択ユーザインタフェースを表示することは、第1及び第2の視覚フィルタとは異なる第3の視覚フィルタが視覚コンテンツに適用された状態で第1の集約コンテンツアイテムの視覚コンテンツの継続した再生を表示する(例えば、第1及び第2の視覚フィルタとは異なる第3の視覚フィルタに対応する)第3のユーザインタフェースオブジェクトを、第1のユーザインタフェースオブジェクト及び第2のユーザインタフェースオブジェクトと同時に表示することを含む。いくつかの実施形態では、この方法は、第1のユーザインタフェースオブジェクト及び第2のユーザインタフェースオブジェクトを含む視覚フィルタ選択ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、第1のユーザインタフェースオブジェクトの選択に対応するユーザ入力を検出することと、ユーザ入力を検出したことに応じて、視覚フィルタ選択ユーザインタフェースの表示を中止すること(例えば、第2のユーザインタフェースオブジェクトの表示を中止すること)と、第1の視覚フィルタが視覚コンテンツに適用された状態で第1の集約コンテンツアイテムの視覚コンテンツの継続した再生を表示することと、を更に含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの選択及び/又は第2のユーザインタフェースオブジェクトの選択は、コンテンツアイテムとは別個のオーディオコンテンツの継続した再生を維持する(例えば、視覚フィルタ選択ユーザインタフェース内のユーザインタフェースオブジェクトの選択は、再生しているオーディオコンテンツに影響を及ぼさない)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの選択は、オーディオコンテンツとは異なる第2のオーディオコンテンツを再生させる(例えば、視覚フィルタ選択ユーザインタフェース内のユーザインタフェースオブジェクトの選択は、再生している、かつ/又は第1の集約コンテンツアイテムに適用されるオーディオコンテンツを変更する)。
【0228】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツと、コンテンツアイテムとは別個のオーディオコンテンツとを再生している間に、コンピュータシステムは、表示生成構成要素を介して、(例えば、複数のオーディオトラックに対応する)複数のオーディオトラックオプション(例えば、各オーディオトラックオプションは、個別のオーディオトラックに対応する)を表示するために選択可能な第2の選択可能なオブジェクト(例えば、644C)を表示する。いくつかの実施形態では、第2の選択可能なオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第2の選択可能なオブジェクトの選択に対応する第2の選択入力(例えば、652)(例えば、タップ入力)(例えば、非タップ入力)を検出する。第2の選択入力を検出したことに応じて、コンピュータシステムは、(いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に)オーディオトラック選択ユーザインタフェース(例えば、654)を表示する(いくつかの実施形態では、第2の選択入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止する)。オーディオトラック選択ユーザインタフェースは、第1のオーディオトラックに対応する第3のユーザインタフェースオブジェクト(例えば、656A)であって、第1のオーディオトラックを第1の集約コンテンツアイテムに適用する(例えば、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に第1のオーディオトラックを再生する)プロセスを開始するために選択可能である、第3のユーザインタフェースオブジェクトと、第1のオーディオトラックとは異なる第2のオーディオトラックに対応する第4のユーザインタフェースオブジェクト(例えば、656B)であって、第2のオーディオトラックを第1の集約コンテンツアイテムに適用する(例えば、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に第2のオーディオトラックを再生する)プロセスを開始するために選択可能である、第4のユーザインタフェースオブジェクトとを含む。第1のオーディオトラックに対応する第3のユーザインタフェースオブジェクト及び第2のオーディオトラックに対応する第4のユーザインタフェースオブジェクトを同時に表示することにより、ユーザが所望のオーディオトラックを迅速に選択することを可能にし、それによって、オーディオトラックを選択するために必要とされる入力の数を低減する。
【0229】
いくつかの実施形態では、オーディオトラック選択ユーザインタフェースは、第1及び第2のオーディオトラックとは異なる第3のオーディオトラックに対応する第5のユーザインタフェースオブジェクトを更に含み、第5のユーザインタフェースオブジェクトは、第3のオーディオトラックを第1の集約コンテンツアイテムに適用する(例えば、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に第3のオーディオトラックを再生する)プロセスを開始するために選択可能である。いくつかの実施形態では、第2の選択入力は、第1の視覚フィルタが適用された状態で第1の集約コンテンツアイテムの視覚コンテンツが表示されている間に検出され、第3のユーザインタフェースオブジェクトの選択及び/又は第4のユーザインタフェースオブジェクトの選択は、第1の集約コンテンツアイテムの視覚コンテンツへの第1の視覚フィルタの適用を維持する(例えば、オーディオトラック選択ユーザインタフェース内のユーザインタフェースオブジェクトの選択は、視覚コンテンツに適用される視覚フィルタに影響を及ぼさない)。いくつかの実施形態では、第3のユーザインタフェースオブジェクトの選択は、第1の視覚フィルタとは異なる第2の視覚フィルタを視覚コンテンツに適用させる(例えば、オーディオトラック選択ユーザインタフェース内のユーザインタフェースオブジェクトの選択は、第1の集約コンテンツアイテムの視覚コンテンツに適用される視覚フィルタを変更する)。いくつかの実施形態では、第1のトラック及び第2のオーディオトラックは、第1の集約コンテンツアイテムの視覚コンテンツに基づいてオーディオトラック選択ユーザインタフェースに含めるために選択される(例えば、曲の提案は、第1の集約コンテンツアイテムに含まれる視覚コンテンツに基づいて生成及び/又は提供される)(例えば、登山旅行に関する第1の集約コンテンツアイテムのための登山関連曲、又はサーフィン旅行に関する第1の集約コンテンツアイテムに関するサーフィン関連曲)。
【0230】
いくつかの実施形態では、第3のユーザインタフェースオブジェクト(例えば、656A)は、第1のオーディオトラックに対応するトラックタイトル(例えば、曲名)の表示を含み、第4のユーザインタフェースオブジェクト(例えば、656B)は、第2のオーディオトラックに対応するトラックタイトル(例えば、曲名)の表示を含む。いくつかの実施形態では、第3のユーザインタフェースオブジェクトは、第1のオーディオトラックに対応するアルバムアートを更に表示し、第4のユーザインタフェースオブジェクトは、第2のオーディオトラックに対応するアルバムアートを更に表示する。第1のオーディオトラックに対応するトラックタイトルを含む第3のユーザインタフェースオブジェクトと、第2のオーディオトラックに対応するトラックタイトルを含む第4のユーザインタフェースオブジェクトとを表示することにより、ユーザが所望のオーディオトラックを迅速に選択することを可能にし、それによって、オーディオトラックを選択するために必要とされる入力の数を低減する。
【0231】
いくつかの実施形態では、第3のユーザインタフェースオブジェクト(例えば、656A~656N)及び第4のユーザインタフェースオブジェクト(例えば、656A~656N)を含むオーディオトラック選択ユーザインタフェース(例えば、654)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第3の選択入力(例えば、660)(例えば、タップ入力及び/又は非タップ入力)を検出する。第3の選択入力を検出したことに応じて、第3の選択入力が第3のユーザインタフェースオブジェクトの選択に対応するとの判定に従って、コンピュータシステムは、第1のオーディオトラックの先頭から第1のオーディオトラックを再生し、第3の選択入力が第4のユーザインタフェースオブジェクトの選択に対応するとの判定に従って、コンピュータシステムは、第2のオーディオトラックの先頭から第2のオーディオトラックを再生する。第3の選択入力に応じて、第1のオーディオトラックの先頭から第1のオーディオトラックを再生すること、又は第2のオーディオトラックの先頭から第2のオーディオトラックを再生することにより、ユーザが所望のオーディオトラックを迅速に聞いて選択することを可能にし、それによって、オーディオトラックを選択するために必要とされる入力の数を低減する。
【0232】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、第1のオーディオトラックの先頭から第1のオーディオトラックを再生し、かつ/又は第2のオーディオトラックの先頭から第2のオーディオトラックを再生する。いくつかの実施形態では、ユーザ入力に応じてオーディオコンテンツを修正することは、オーディオコンテンツを第1のオーディオトラックから第2のオーディオトラックに変更することを含み、第2のオーディオトラックは、第2のオーディオトラックの開始位置ではない再生位置から開始される(例えば、ユーザ入力の特定のセットは、オーディオトラックのトラック中間の切り替えを引き起こし(例えば、第1の視覚フィルタと第1のオーディオトラックとの第1の既定の組み合わせから第2の視覚フィルタと第2のオーディオトラックとの第2の既定の組み合わせへの変更に対応するユーザ入力は、オーディオトラックのトラック中間の切り替えを引き起こす)(例えば、第2のオーディオトラックを第2のオーディオトラックの先頭ではない(例えば、第2のオーディオトラックに入って閾値持続時間よりも長い)再生位置から再生を開始させる)、対照的に、オーディオトラック選択ユーザインタフェースからのオーディオトラックの選択は、選択されたオーディオトラックをオーディオトラックの先頭から再生させる)。
【0233】
いくつかの実施形態では、第3のユーザインタフェースオブジェクト(例えば、656A~656N)及び第4のユーザインタフェースオブジェクト(例えば、656A~656N)を含むオーディオトラック選択ユーザインタフェース(例えば、654)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第3のユーザインタフェースオブジェクト(例えば、656D)の選択に対応する第4の選択入力(例えば、660)を検出する。第4の選択入力を検出したことに応じて、コンピュータシステムのユーザ(例えば、コンピュータシステムにログインしたユーザアカウント)がオーディオサービス(例えば、第1のオーディオトラックへのアクセスを提供するオーディオサービス及び/又は既定のオーディオサービス)に加入していないとの判定に従って、コンピュータシステムは、ユーザがオーディオサービスに加入するためのプロンプトを表示するプロセスを開始する(例えば、
図6S、664B)。いくつかの実施形態では、コンピュータシステムは、ユーザがオーディオサービスに加入していないことを示す通知を表示するプロセスを開始し、かつ/又はユーザにオーディオサービスの無料トライアルにサインアップするように促す通知を表示するプロセスを開始する。いくつかの実施形態では、コンピュータシステムは、オーディオサービスに加入するプロセスを開始するために選択可能な選択可能なユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、第4の選択入力を検出したことに応じて、コンピュータシステムのユーザがオーディオサービスに加入しているとの判定に従って、コンピュータシステムは、第1のオーディオトラックを(例えば、第1のオーディオトラックの先頭から)再生する(いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に)。いくつかの実施形態では、ユーザがオーディオサービスに加入するためのプロンプトを表示している間に、コンピュータシステムは、オーディオサービスに加入する要求に対応する1つ以上のユーザ入力を受信し、1つ以上のユーザ入力を受信したことに応じて、ユーザをオーディオサービスに加入させるプロセスを開始する。いくつかの実施形態では、1つ以上のユーザ入力を受信したことに応じて、コンピュータシステムは、ユーザをオーディオサービスに加入させるために認証を要求する(例えば、ユーザがパスワード及び/若しくはパスコードを入力するためのユーザインタフェースを表示する、かつ/又はバイオメトリック認証のためのバイオメトリック情報を収集する)。ユーザがオーディオサービスに加入していないとの判定に従って、ユーザにオーディオサービスに加入するように促す通知を表示するプロセスを開始することにより、デバイスの現在の状態に関する(例えば、ユーザがオーディオサービスに加入していないとデバイスが判定したという)フィードバックをユーザに提供する。
【0234】
いくつかの実施形態では、第3のユーザインタフェースオブジェクト(例えば、656A~656N)及び第4のユーザインタフェースオブジェクト(例えば、656A~656N)を含むオーディオトラック選択ユーザインタフェース(例えば、654)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第3のユーザインタフェースオブジェクト(例えば、656D)の選択に対応する第5の選択入力(例えば、660)(例えば、タップ入力及び/又は非タップ入力)を検出する。第5の選択入力を検出したことに応じて、かつコンピュータシステムのユーザ(例えば、コンピュータシステムにログインしたユーザアカウント)がオーディオサービス(例えば、第1のオーディオトラックへのアクセスを提供するオーディオサービス)に加入していないとの判定に従って、コンピュータシステムは、プレビューユーザインタフェース(例えば、662)を表示するプロセスを開始し、プレビューユーザインタフェースを表示することは、第1のオーディオトラック(例えば、
図6Sのトラック3)が第1の集約コンテンツアイテムの視覚コンテンツ(例えば、628B)に適用される第1の集約コンテンツアイテムのプレビューを再生することを含み(例えば、第1の集約コンテンツアイテムのプレビューを再生することは、第1の集約コンテンツアイテムの視覚コンテンツを同時に再生(例えば、表示)している間に、第1のオーディオトラックを再生することを含む)、プレビューユーザインタフェースは、ユーザがオーディオサービスに加入するまで、ユーザがプレビューを共有すること及び/又は後の再生のためにプレビューを保存することを許可しない(例えば、防止及び/又は禁止する)(例えば、プレビューユーザインタフェースは、ユーザがプレビューを共有すること及び/又は後の再生のためにプレビューを保存することを可能にする、任意の選択可能なオプションを含まない、又は任意のユーザ入力を提供しない)。ユーザがオーディオサービスに加入していないとの判定に従って、プレビューユーザインタフェースを表示するプロセスを開始することにより、デバイスの現在の状態に関する(例えば、ユーザがオーディオサービスに加入していないとデバイスが判定したという)フィードバックをユーザに提供する。
【0235】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツと、コンテンツアイテムとは別個のオーディオコンテンツとを再生している間に、コンピュータシステムは、コンピュータシステムを編集モードに入らせるために選択可能な第5のユーザインタフェースオブジェクト(例えば、632D)を表示する。いくつかの実施形態では、編集モードに入ることは、編集ユーザインタフェースを表示することを含む。
【0236】
いくつかの実施形態では、第5のユーザインタフェースオブジェクトを表示した後(例えば、第5のユーザインタフェースオブジェクトを表示している間、及び/又は第5のユーザインタフェースオブジェクトを表示した後もはや表示していない間)、コンピュータシステムは、1つ以上の入力デバイスを介して、第2のユーザ入力(例えば、648(例えば、スワイプジェスチャ))(例えば、(例えば、タッチ感知ディスプレイ及び/又はタッチ感知面を介した)ジェスチャ(例えば、タップジェスチャ、スワイプジェスチャ)及び/又は音声入力)を検出する。第2のユーザ入力を検出したことに応じて、かつコンピュータシステムが編集モードにある(例えば、
図6K~
図6N)との判定に従って、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを再生し続けている間に、再生しているオーディオコンテンツを修正する。いくつかの実施形態では、コンピュータシステムはまた、第1の集約コンテンツアイテムの視覚コンテンツの再生の視覚パラメータを修正する。いくつかの実施形態では、第2のユーザ入力を検出したことに応じて、かつコンピュータシステムが編集モードにない(例えば、
図6J)との判定に従って、コンピュータシステムは、再生しているオーディオコンテンツを修正することを取り止める。いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生の視覚パラメータを修正することを取り止める。第2のユーザ入力に応じて、かつコンピュータシステムが編集モードにあるとの判定に従って、オーディオコンテンツを修正することにより、デバイスの現在の状態に関する(例えば、コンピュータシステムが編集モードにあるという)フィードバックをユーザに提供する。
【0237】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、
図6Y、628C)と、コンテンツアイテムとは別個のオーディオコンテンツ(例えば、
図6Y、トラック3)とを再生している間に、かつ第5のユーザインタフェースオブジェクト(例えば、632D)を表示している間に(例えば、コンピュータシステムを編集モードに入らせる前、かつ/又はコンピュータシステムが編集モードにない間に)、表示生成構成要素を介して、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止するために選択可能な第6のユーザインタフェースオブジェクト(例えば、632E)を表示する。いくつかの実施形態では、第6の選択可能なユーザインタフェースオブジェクトの選択はまた、コンテンツアイテムとは別個のオーディオコンテンツの再生を一時停止する。
【0238】
第6の選択可能なユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第6のユーザインタフェースオブジェクト(例えば、680)の選択に対応する第6の選択入力(例えば、タップ入力及び/又は非タップ入力)を検出する。第6の選択入力を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止する(例えば、第1の集約コンテンツアイテムの視覚コンテンツを一時停止状態で表示する)。いくつかの実施形態では、コンピュータシステムはまた、コンテンツアイテムとは別個のオーディオコンテンツの再生を一時停止する。第6の選択入力を検出したことに応じて、コンピュータシステムは、第5のユーザインタフェースオブジェクト(例えば、632D)(例えば、「レシピ」オプション)の表示を、第1の集約コンテンツアイテムの視覚コンテンツのアスペクト比を修正するために選択可能な第7のユーザインタフェースオブジェクト(例えば、632G)(例えば、アスペクト比トグルオプション)に置き換える。第7のユーザインタフェースオブジェクトを表示している間に(例えば、かつ第1の集約コンテンツアイテムの視覚コンテンツが一時停止されている間に、かつ/又は第1の集約コンテンツアイテムの視覚コンテンツを一時停止状態で表示している間に)、コンピュータシステムは、1つ以上の入力デバイスを介して、第7のユーザインタフェースオブジェクトの選択に対応する第7の選択入力(例えば、683)(例えば、タップ入力及び/又は非タップ入力)を検出する。第7の選択入力を検出したことに応じて、コンピュータシステムは、(例えば、第1の集約コンテンツアイテムの視覚コンテンツの表示を一時停止状態に維持している間に)表示生成構成要素を介して、第1のアスペクト比で表示されている状態から、第1のアスペクト比とは異なる第2のアスペクト比で表示されている状態(例えば、628C、
図6AA)に遷移する第1の集約コンテンツアイテムの視覚コンテンツ(例えば、628C、
図6Z)を表示する(例えば、フルスクリーンアスペクト比(例えば、表示領域及び/又はディスプレイを満たすアスペクト比)で表示されている状態から、ネイティブアスペクト比(例えば、表示されているコンテンツアイテムのネイティブアスペクト比)に遷移する第1の集約コンテンツアイテムの視覚コンテンツを表示する)。第6の選択入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止し、第5のユーザインタフェースオブジェクトの表示を第7のユーザインタフェースオブジェクトに置き換えることにより、デバイスの現在の状態に関する(例えば、コンピュータシステムが第6の選択入力を検出したという)フィードバックをユーザに提供する。
【0239】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が一時停止されている間に、第7のユーザインタフェースオブジェクトを表示している間に、かつ第1の集約コンテンツアイテムの視覚コンテンツを第2のアスペクト比で表示している間に、コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムの視覚コンテンツの再生を再開するために選択可能な第8のユーザインタフェースオブジェクトを表示し、第8のユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、第8の選択可能なユーザインタフェースオブジェクトの選択に対応する第8の選択入力(例えば、タップ入力及び/又は非タップ入力)を表示し、第8の選択入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第2のアスペクト比で表示されている状態から第1のアスペクト比で表示されている状態に遷移する第1の集約コンテンツアイテムの視覚コンテンツを表示し、第1の集約コンテンツアイテムの視覚コンテンツの再生を(例えば、第1のアスペクト比で)再開する(いくつかの実施形態では、コンテンツアイテムとは別個のオーディオコンテンツの再生も再開する)。
【0240】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止する要求(例えば、一時停止オプションを選択するタップ入力)に対応する一時停止入力(例えば、680)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。一時停止入力を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止する(例えば、
図6Z)。いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止することは、一時停止入力が検出されたときに表示されていた視覚コンテンツを持続的に表示すること(例えば、1つ以上の更なるユーザ入力(例えば、第1の集約コンテンツアイテムの視覚コンテンツの再生を再開するための1つ以上のユーザ入力)が受信されるまで持続的に表示すること)を含む。いくつかの実施形態では、一時停止入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、その複数のフレーム(例えば、画像))を通してナビゲートするためのビデオナビゲーションユーザインタフェース要素(例えば、682)(例えば、スクラババー)を表示する。一時停止入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止し、ビデオナビゲーションユーザインタフェース要素を表示することにより、デバイスの現在の状態に関する(例えば、コンピュータシステムが一時停止入力を検出したという)フィードバックをユーザに提供する。
【0241】
いくつかの実施形態では、視覚ナビゲーションユーザインタフェース要素(例えば、682)を表示することは、第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテムの表現と、第1の複数のコンテンツアイテムのうちの(例えば、第1のコンテンツアイテムとは異なる)第2のコンテンツアイテムの表現とを同時に表示することを含む(例えば、
図6Z~
図6AA)。いくつかの実施形態では、視覚ナビゲーションユーザインタフェース要素を表示することは、第1のコンテンツアイテムの表現及び第2のコンテンツアイテムの表現と同時に、第1及び第2のコンテンツアイテムとは異なる第1の複数のコンテンツアイテムのうちの第3のコンテンツアイテムの表現を表示することを更に含む。いくつかの実施形態では、視覚ナビゲーションユーザインタフェース要素は、スクラババーであり、スクラババーは、第1の集約コンテンツアイテムに集約されているコンテンツアイテムの表現を含む。第1のコンテンツアイテムの表現及び第2のコンテンツアイテムの表現を同時に表示することにより、デバイスの現在の状態に関する(例えば、第1の集約コンテンツアイテムが第1のコンテンツアイテム及び第2のコンテンツアイテムを含むという)フィードバックをユーザに提供する。
【0242】
いくつかの実施形態では、一時停止入力(例えば、1226)を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、かつ視覚ナビゲーションユーザインタフェース要素(例えば、1228)と同時に(いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が一時停止されている間に)、持続時間制御オプション(例えば、1232A)を表示する。持続時間制御オプションを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、持続時間制御オプションの選択に対応する持続時間制御入力(例えば、1242)(例えば、1つ以上のリモートコントロール入力及び/又は1つ以上の非リモートコントロール入力)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。持続時間制御入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第1の再生持続時間に対応する第1の再生持続時間オプション(例えば、1233A~1244E)(例えば、短い再生持続時間オプション)と、第1の再生持続時間とは異なる第2の再生持続時間に対応する第2の再生持続時間オプション(例えば、1244A~1244E)(例えば、長い再生持続時間オプション)とを同時に表示する。いくつかの実施形態では、第1の再生持続時間オプション及び/又は第2の再生持続時間オプションの選択は、選択された再生持続時間オプションに基づいて、第1の集約コンテンツアイテムを修正させる(例えば、選択された再生持続時間オプションに基づいて、第1の集約コンテンツアイテムに含まれるコンテンツアイテムの数を増加及び/又は減少させる)。第1の再生持続時間オプション及び第2の再生持続時間オプションを同時に表示することにより、ユーザが第1の集約コンテンツアイテムの再生持続時間を迅速に設定することを可能にし、それによって、再生持続時間を設定するために必要とされる入力の数を低減する。
【0243】
いくつかの実施形態では、一時停止入力(例えば、1226)を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、かつ視覚ナビゲーションユーザインタフェース要素(例えば、1228)と同時に(いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が一時停止されている間に)、オーディオトラック制御オプション(例えば、1232B)を表示する。オーディオトラック制御オプションを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、オーディオトラック制御オプションの選択に対応するオーディオトラック制御入力(例えば、1248)(例えば、1つ以上のリモートコントロール入力及び/又は1つ以上の非リモートコントロール入力)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。オーディオトラック制御入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第1のオーディオトラックに対応する第1のオーディオトラックオプション(例えば、1250A~1250E)と、第1のオーディオトラックとは異なる第2のオーディオトラックに対応する第2のオーディオトラックオプション(例えば、1250A~1250E)とを同時に表示する。いくつかの実施形態では、第1のオーディオトラックオプションの選択は、第1のオーディオトラックを第1の集約コンテンツアイテムに適用させ(例えば、第1の集約コンテンツアイテムの視覚コンテンツが再生されている間に、第1のオーディオトラックを再生させ)、第2のオーディオトラックオプションの選択は、第2のオーディオトラックを第1の集約コンテンツアイテムに適用させる(例えば、第1の集約コンテンツアイテムの視覚コンテンツが再生されている間に、第2のオーディオトラックを再生させる)。第1のオーディオトラックオプション及び第2のオーディオトラックオプションを同時に表示することにより、ユーザが第1の集約コンテンツアイテムに適用されるオーディオトラックを迅速に設定することを可能にし、それによって、オーディオトラックを設定するために必要とされる入力の数を低減する。
【0244】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生することは、表示生成構成要素を介して、第1の時間に、第1の集約コンテンツアイテム内の第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテム(例えば、
図6Gの628A)を表示することと、表示生成構成要素を介して、第1のコンテンツアイテムと同時に(例えば、第1の時間に)、第1のコンテンツアイテムに対応する第1のタイトル情報(例えば、
図6Gの627)(例えば、テキスト(例えば、位置情報及び/又は日付情報))を表示することと、第1の時間の後の第2の時間に、表示生成構成要素を介して、第1の集約コンテンツアイテム内の第1の複数のコンテンツアイテムのうちの(例えば、第1のコンテンツアイテムとは異なる)第2のコンテンツアイテム(例えば、
図6Yの628C)を表示することと、表示生成構成要素を介して、第2のコンテンツアイテムと同時に(例えば、第2の時間に)、第2のコンテンツアイテムに対応し、かつ第1のタイトル情報とは異なる、第2のタイトル情報(例えば、
図6Yの627)(例えば、テキスト(例えば、位置情報及び/又は日付情報))を表示することと、を含む。第1のタイトル情報を第1のコンテンツアイテムと同時に表示し、第2のタイトル情報を第2のコンテンツアイテムと同時に表示することにより、デバイスの現在の状態に関する(例えば、デバイスが第1のコンテンツアイテムに対応する第1のタイトル情報及び第2のコンテンツアイテムに対応する第2のタイトル情報を識別したという)フィードバックをユーザに提供する。
【0245】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、
図6ABの628C)及びオーディオコンテンツ(例えば、
図6ABのトラック3)を再生している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、1つ以上の視覚パラメータ修正入力(例えば、686、688、690)(例えば、1つ以上のタッチスクリーン入力、1つ以上のリモートコントロール入力、及び/又は異なる入力)を検出する。1つ以上の視覚パラメータ修正入力を検出したことに応じて、1つ以上の視覚パラメータ修正入力が第1のジェスチャ(例えば、686、688、690)(例えば、長い押圧、スクリーンの左側のタップ、スクリーンの右側のタップ、左スワイプ、及び/又は右スワイプ)に対応するとの判定に従って、第1の集約コンテンツアイテムの視覚コンテンツの再生を第1の方式で修正し(例えば、
図6AB~
図6AD)(例えば、前のコンテンツアイテムを表示する、次のコンテンツアイテムを表示する、かつ/又は現在のコンテンツアイテムの表示を維持する)、1つ以上の視覚パラメータ修正入力が第1のジェスチャとは異なる第2のジェスチャ(例えば、686、688、690)(例えば、長い押圧、スクリーンの左側のタップ、スクリーンの右側のタップ、左スワイプ、及び/又は右スワイプ)に対応するとの判定に従って、第1の集約コンテンツアイテムの視覚コンテンツの再生を第1の方式(例えば、
図6AB~
図6AD)とは異なる第2の方式で修正する(例えば、前のコンテンツアイテムを表示する、次のコンテンツアイテムを表示する、かつ/又は現在のコンテンツアイテムの表示を維持する)。第1のジェスチャに応じて第1の方式で、かつ第2のジェスチャに応じて第2の方式で第1の集約コンテンツアイテムの視覚コンテンツの再生を修正することにより、ユーザが様々なジェスチャを用いて第1の集約コンテンツアイテムの視覚コンテンツの再生を迅速に修正することを可能にし、それによって、第1の集約コンテンツアイテムの視覚コンテンツの再生を修正するために必要とされる入力の数を低減する。
【0246】
いくつかの実施形態では、第1のジェスチャは、長い押圧ジェスチャ(例えば、686)(例えば、タッチスクリーンディスプレイとの持続的接触、タッチパッドとの持続的接触、及び/又はマウスの持続的クリック)であり、第1の方式で第1の集約コンテンツアイテムの視覚コンテンツの再生を修正することは、長い押圧ジェスチャ(例えば、
図6AB~
図6AC)の間(例えば、その持続時間の一部又は全部の間)(例えば、タッチスクリーンディスプレイ及び/若しくはタッチパッドとの接触が維持されている間、並びに/又はマウスボタンが押下されたままである間)、現在表示されているコンテンツアイテムの表示を維持することを含む。いくつかの実施形態では、コンピュータシステムは、再生しているオーディオコンテンツを再生し続けている間に、長い押圧ジェスチャの間、現在表示されているコンテンツアイテムの表示を維持する。長い押圧ジェスチャに応じて現在表示されているコンテンツアイテムの表示を維持することにより、ユーザが現在表示されているコンテンツアイテムの表示を容易に維持することを可能にし、それによって、現在表示されているコンテンツアイテムの表示を維持するために必要とされる入力の数を低減する。
【0247】
いくつかの実施形態では、長い押圧ジェスチャ(例えば、686)の間、現在表示されているコンテンツアイテムの表示を維持している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、長い押圧ジェスチャの終了を検出する。長い押圧ジェスチャの終了を検出した後(例えば、長い押圧ジェスチャの終了を検出したことに応じて)、コンピュータシステムは、現在表示されているコンテンツアイテムの後に表示される1つ以上の後続のコンテンツアイテム(例えば、全ての後続のコンテンツアイテム)の再生持続時間を修正する(例えば、1つ以上の後続のコンテンツアイテムの再生持続時間を減少させる(例えば、1つ以上の後続のコンテンツアイテムの各コンテンツアイテムが表示される時間を減少させる))。いくつかの実施形態では、長い押圧ジェスチャを検出する前に、現在表示されているコンテンツアイテムの後に表示されるように構成された第1の後続のコンテンツアイテムは、視覚コンテンツの再生中に第1の持続時間にわたって表示されるように構成されており、長い押圧ジェスチャを検出した後に、第1の後続のコンテンツアイテムは、第1の持続時間とは異なる第2の持続時間(例えば、第1の持続時間よりも短い第2の持続時間)にわたって表示されるように構成されている。コンテンツアイテムの延長された表示を引き起こした長い押圧ジェスチャの終了に応じて、1つ以上の後続のコンテンツアイテムの再生持続時間を自動的に調整することにより、更なるユーザ入力なしに、ユーザがコンテンツアイテムの延長された再生持続時間を考慮するように視覚コンテンツの再生を調整することを可能にする。
【0248】
いくつかの実施形態では、第1のジェスチャは、第1のタップジェスチャ(例えば、688、690)(例えば、タッチスクリーンディスプレイの第1の領域におけるタップジェスチャ)である。第1の集約コンテンツアイテムの視覚コンテンツの再生を第1の方式で修正することは、第1の集約コンテンツアイテム内のコンテンツアイテムの順序付けられたシーケンス内の前のコンテンツアイテムにナビゲートすること(例えば、
図6AC~
図6AD)(例えば、第1の集約コンテンツアイテム内の現在表示されているコンテンツアイテムの表示を、第1の集約コンテンツアイテム内の前のコンテンツアイテムに置き換えること)を含む(いくつかの実施形態では、再生しているオーディオコンテンツを再生し続けている間に)。いくつかの実施形態では、第2のジェスチャは、第1のタップジェスチャとは異なる第2のタップジェスチャ(例えば、688、690)(例えば、タッチスクリーンディスプレイの第2の領域におけるタップジェスチャ)であり、第1の集約コンテンツアイテムの視覚コンテンツの再生を第2の方式で修正することは、第1の集約コンテンツアイテム内のコンテンツアイテムの順序付けられたシーケンス内の次のコンテンツアイテムにナビゲートすること(例えば、
図6AD~
図6AE)(例えば、第1の集約コンテンツアイテム内の現在表示されているコンテンツアイテムの表示を、第1の集約コンテンツアイテム内の次のコンテンツアイテムに置き換えること)を含む(いくつかの実施形態では、再生しているオーディオコンテンツを再生し続けている間に)。様々なタップジェスチャに応じて、第1の集約コンテンツアイテム内のコンテンツアイテム間でナビゲートすることにより、ユーザがコンテンツアイテム間で容易にナビゲートすることを可能にし、それによって、第1の集約コンテンツアイテム内のコンテンツアイテム間でナビゲートするために必要とされる入力の数を低減する。
【0249】
いくつかの実施形態では、第1のジェスチャは、第1のスワイプジェスチャ(例えば、第1の方向のスワイプジェスチャ)であり、第1の集約コンテンツアイテムの視覚コンテンツの再生を第1の方式で修正することは、第1の集約コンテンツアイテム内のコンテンツアイテムの順序付けられたシーケンス内の前のコンテンツアイテムにナビゲートすること(例えば、
図6AC~
図6AD)(例えば、第1の集約コンテンツアイテム内の現在表示されているコンテンツアイテムの表示を、第1の集約コンテンツアイテム内の前のコンテンツアイテムに置き換えること)を含む(いくつかの実施形態では、再生しているオーディオコンテンツを再生し続けている間に)。いくつかの実施形態では、第2のジェスチャは、第1のスワイプジェスチャとは異なる第2のスワイプジェスチャ(例えば、第2の方向(例えば、第1の方向とは反対又は実質的に反対の第2の方向)のスワイプジェスチャ)であり、第1の集約コンテンツアイテムの視覚コンテンツの再生を第2の方式で修正することは、第1の集約コンテンツアイテム内のコンテンツアイテムの順序付けられたシーケンス内の次のコンテンツアイテムにナビゲートすること(例えば、
図6AD~
図6AE)(例えば、第1の集約コンテンツアイテム内の現在表示されているコンテンツアイテムの表示を、第1の集約コンテンツアイテム内の次のコンテンツアイテムに置き換えること)を含む(いくつかの実施形態では、再生しているオーディオコンテンツを再生し続けている間に)。様々なスワイプジェスチャに応じて、第1の集約コンテンツアイテム内のコンテンツアイテム間でナビゲートすることにより、ユーザがコンテンツアイテム間で容易にナビゲートすることを可能にし、それによって、第1の集約コンテンツアイテム内のコンテンツアイテム間でナビゲートするために必要とされる入力の数を低減する。
【0250】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生を第1の方式で修正することは、コンテンツアイテムとは別個のオーディオコンテンツを再生し続けている間に、第1の集約コンテンツアイテムの視覚コンテンツの再生を第1の方式で修正することを含み(例えば、
図6AB~
図6AE)、第1の集約コンテンツアイテムの視覚コンテンツの再生を第2の方式で修正することは、コンテンツアイテムとは別個のオーディオコンテンツを再生し続けている間に、第1の集約コンテンツアイテムの視覚コンテンツの再生を第2の方式で修正することを含む(例えば、
図6AB~
図6AE)。いくつかの実施形態では、第1の集約コンテンツアイテムの次の(又は前の)コンテンツアイテムに進むユーザ入力を提供することにより、オーディオコンテンツの再生における対応するスキップ/フォワード/変更を引き起こさない。したがって、いくつかの実施形態では、オーディオコンテンツは、第1の集約コンテンツアイテムの次の(又は前の)コンテンツアイテムに進むユーザ入力とは独立して再生される。コンテンツアイテムとは別個のオーディオコンテンツを再生し続けている間に、第1の集約コンテンツアイテムの視覚コンテンツの再生を修正することにより、デバイスの現在の状態に関する(例えば、第1の集約コンテンツアイテムが再生され続けている間に、第1の集約コンテンツアイテムの視覚コンテンツが修正されるという)フィードバックをユーザに提供する。
【0251】
いくつかの実施形態では、表示生成構成要素を介して、第1の集約コンテンツアイテムの第1のコンテンツアイテムを表示している間に(例えば、第1の集約コンテンツアイテムの視覚コンテンツの再生中に)、1つ以上の入力デバイスを介して、第3のユーザ入力(例えば、長い押圧入力、タップ入力、スワイプ入力、及び/又は異なる入力)を検出し、第3のユーザ入力(例えば、614)を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第1のコンテンツアイテムに示される人物を識別する(例えば、第1のコンテンツアイテムに示される人物にタグ付けする)プロセスを開始するために選択可能なタグ付けオプション(例えば、616D)と、第1の集約コンテンツアイテムから、第1のコンテンツアイテムにも示される人物を示す1つ以上のコンテンツアイテムを除去するプロセスを開始するために選択可能な除去オプション(例えば、616E、616F)と、を同時に表示する。第1のコンテンツアイテムに示される人物を識別するプロセスを開始するために選択可能なタグ付けオプションを表示することにより、ユーザが第1のコンテンツアイテムに示される人物を迅速に識別することを可能にし、それによって、示される人物をタグ付け及び/又は識別するために必要とされる入力の数を低減する。第1の集約コンテンツアイテムから、第1のコンテンツアイテムにも示される人物を示す1つ以上のコンテンツアイテムを除去するプロセスを開始するために選択可能な除去オプションを表示することにより、ユーザが特定の人物を示すコンテンツアイテムを迅速かつ容易に除去することを可能にし、それによって、そのようなコンテンツアイテムを除去するために必要とされる入力の数を低減する。
【0252】
いくつかの実施形態では、除去オプションは、その人物が示される第1の集約コンテンツアイテム内のインスタンスの数(例えば、コンテンツアイテムの数)を低減する、「この人物をより登場させない」オプションである。いくつかの実施形態では、除去オプションは、その人物のみが示される(かつ他の人物は示されない)第1の集約コンテンツアイテム内のインスタンスの数(例えば、コンテンツアイテムの数)を低減する。いくつかの実施形態では、除去オプションは、その人物が示される全てのインスタンス(例えば、全てのコンテンツアイテム)が第1の集約コンテンツアイテムから除去される、「この人物を決して登場させない」オプションである。
【0253】
いくつかの実施形態では、第3のユーザ入力を検出したことに応じて、コンピュータシステムは、(例えば、除去オプションを表示することなく)タグ付けオプションを表示する。いくつかの実施形態では、第3のユーザ入力を検出したことに応じて、コンピュータシステムは、(例えば、タグ付けオプションを表示することなく)除去オプションを表示する。いくつかの実施形態では、タグ付けオプション及び/又は削除オプションは、メディアライブラリユーザインタフェース内のコンテンツアイテムと相互作用することによって、及び/又は注目写真ユーザインタフェース内のコンテンツアイテムと相互作用することによって、アクセス可能である。
【0254】
方法700(例えば、
図7)に関して上述したプロセスの詳細はまた、後述する方法にも類似する方式で適用可能であることに留意されたい。例えば、方法900及び1100は、方法700を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、各方法700、900、1100における集約コンテンツアイテムは、同じ集約コンテンツアイテムであってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
【0255】
図8A~
図8Lは、いくつかの実施形態に係る、コンテンツアイテムを再生した後に、コンテンツの再生を管理するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、
図9のプロセスを含む、後述するプロセスを例示するために使用される。
【0256】
図8Aは、タッチ感知ディスプレイ602を備えるスマートフォンである電子デバイス600を示す。いくつかの実施形態では、電子デバイス600は、デバイス100、300、及び/又は500の1つ以上の特徴を含む。電子デバイス600は、
図6A~
図6AGを参照して上述した再生ユーザインタフェース625を示す。
図8Aでは、再生ユーザインタフェース625は、第1の集約コンテンツアイテムの再生を表示し、第1の集約コンテンツアイテムの最後のメディアアイテム628Zを表示する。例えば、
図8Aでは、
図6A~
図6AGを参照して上述した第1の集約コンテンツアイテムは、
図8Aの最後のメディアアイテム628Zに到達するまで再生し続けることが許可されている。
【0257】
図8Bでは、第1の集約コンテンツアイテムの再生が1つ以上の終了基準を満たした(例えば、第1の集約コンテンツアイテムの最後のメディアアイテムが閾値持続時間にわたって表示された、かつ/又は第1の集約コンテンツアイテムの再生において閾値持続時間未満が残っている)との判定に応じて、電子デバイス600は、次のコンテンツアイテムユーザインタフェース800を表示する。次のコンテンツアイテムユーザインタフェース800は、第1の集約コンテンツアイテムの最後のメディアアイテム628Zを表示し続ける再生ユーザインタフェース625上に重ね合わされる。再生ユーザインタフェース625は、次のコンテンツアイテムユーザインタフェース800がその上に重ね合わされている間、視覚的に目立たなくされる(例えば、暗くされる、かつ/又はぼかされる)。次のコンテンツアイテムユーザインタフェース800は、他の集約コンテンツアイテムを表すタイル804A、804B、804Cを含み、タイル804A、804B、804Cは、対応する集約コンテンツアイテムの再生を開始するために選択可能である。タイル804Aは、更なるユーザ入力なしに自動的に再生を開始する「次の」又は後続の集約コンテンツアイテムに対応する。
【0258】
次のコンテンツアイテムユーザインタフェース800は、カウントダウンタイマー802Aを含み、カウントダウンタイマー802Aは、更なるユーザ入力なしに、次の集約コンテンツアイテム(例えば、「パームスプリングス2017年」)がカウントダウンタイマー802Aの終了時に再生を開始することをユーザに示す。次のコンテンツアイテムユーザインタフェース800はまた、第1の集約コンテンツアイテムをリプレイするために選択可能なリプレイオプション802Bと、1つ以上の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能な共有オプション802Cとを含む。
【0259】
図8Cは、電子デバイス600が次のコンテンツアイテムユーザインタフェース800を表示した後に、閾値持続時間(例えば、10秒又は20秒)にわたってユーザ入力が受信されず、カウントダウンタイマー802Aが0までカウントダウンする、例示的なシナリオを示す。
図8Cでは、次のコンテンツアイテムユーザインタフェース800が任意のユーザ入力なしに閾値持続時間にわたって表示されたとの判定に従って、電子デバイス600は、第2の集約コンテンツアイテムの再生を自動的に開始する。第2の集約コンテンツアイテムの再生は、第2の集約コンテンツアイテムのタイトル情報627を表示することと、第2の集約コンテンツアイテムの第1のメディアアイテム(メディアアイテム806)を表示することと、オーディオトラック(例えば、オーディオトラック4)を再生することとを含む。
図8Dでは、第2の集約コンテンツアイテムの再生が継続し、タイトル情報627が第1の表示位置から第2の表示位置に移動する。
【0260】
図8E~
図8Lは、電子デバイス600が次のコンテンツアイテムユーザインタフェース800を表示している間に1つ以上のユーザ入力が受信される代替的なシナリオを表示する。
図8Eでは、電子デバイスは、ユーザ入力808A、808B、808C、808D、及び808Eを検出し、これらの各々について以下で順に説明する。
【0261】
図8Eでは、電子デバイス600は、タイル804Aの選択に対応するユーザ入力808A(例えば、タップ入力)を検出する。タイル804Aは、第2の集約コンテンツアイテムに対応する。
図8Fでは、ユーザ入力808Aに応じて、電子デバイス600は、第1の集約コンテンツアイテム及び次のコンテンツアイテムユーザインタフェース800の表示を中止し、第2の集約コンテンツアイテム(例えば、パームスプリングス2017年)の再生を開始する。
【0262】
図8Eでは、電子デバイス600は、リプレイオプション802Bの選択に対応するユーザ入力808B(例えば、タップ入力)を検出する。
図8Gでは、ユーザ入力808Bに応じて、電子デバイス600は、次のコンテンツアイテムユーザインタフェース800の表示を中止し、再生ユーザインタフェース625内で第1の集約コンテンツアイテムのリプレイを開始する。
図6Fを参照して上述したように、第1の集約コンテンツアイテムの再生を開始することは、第1の集約コンテンツアイテムのタイトル情報627及び第1のメディアアイテム(例えば、メディアアイテム628A)を表示することと、第1の集約コンテンツアイテムに適用されたオーディオトラック(例えば、オーディオトラック3)を再生することとを含む。
【0263】
図8Eでは、電子デバイス600は、次のコンテンツアイテムユーザインタフェース800の上に配置された「ネガティブスペース」に対応するユーザ入力808C(例えば、タップ入力)を検出する。言い換えれば、ユーザ入力808Cは、次のコンテンツアイテムユーザインタフェース800内の任意の特定のユーザインタフェースオブジェクトの選択に対応しない。
図8Hでは、ユーザ入力808Cに応じて、電子デバイス800Cは、次のコンテンツアイテムユーザインタフェース800の表示を中止し、再生ユーザインタフェース625をその前の状態で(例えば、その目立たない状態でなく(例えば、増加した輝度及び/又は明瞭度で))再表示する(第1の集約コンテンツアイテムの最後のメディアアイテム628Zを表示する)。
【0264】
図8Eでは、電子デバイス600は、次のコンテンツアイテムユーザインタフェース800に対応する位置での左スワイプ入力であるユーザ入力808Dを検出する。
図8Iでは、ユーザ入力808Dに応じて、電子デバイス600は、ユーザ入力に基づいて(例えば、ユーザ入力の並進速さ及び/又は並進距離に対応する並進速さで、かつ/又は並進距離にわたって)タイル804A~804Cをシフトする。
図8Iでは、タイル804A、804B、804Cは、左にシフトされており、追加の集約コンテンツアイテムに対応する追加のタイル804D、804Eが現れている。タイル804A~804Eは、対応する集約コンテンツアイテムの再生を開始するために選択可能である。いくつかの実施形態では、タイル804A~804Eは、それらの対応する集約コンテンツアイテムのアニメーション化されたプレビューを表示する。更に、
図8Iでは、ユーザ入力808Dに応じて、電子デバイス600は、タイマー802Aの表示を中止し、後続の集約コンテンツアイテムの自動再生をキャンセルする。いくつかの実施形態では、次のコンテンツアイテムユーザインタフェース800を表示している間に受信された任意のユーザ入力(例えば、ユーザ入力808A、808B、808C、808D、808E)は、電子デバイス600にタイマー802Aの表示を中止させ、後続の集約コンテンツアイテムの自動再生をキャンセルする。
【0265】
図8Eでは、電子デバイス600は、共有オプション802Cの選択に対応するユーザ入力808Eを検出する。
図8Jでは、ユーザ入力808Eに応じて、電子デバイス600は、共有ユーザインタフェース810を表示する。共有ユーザインタフェース810は、オプション812A~812Dを含む。オプション812A~812Dのうちの異なるオプションは、異なるユーザ又はユーザの異なるグループに対応し、個別のオプション812A~812Dの選択は、第1の集約コンテンツアイテムを、選択されたオプションに関連付けられた対応するユーザ又はユーザのグループと共有するプロセスを開始する。共有ユーザインタフェース810はまた、オプション814A~814Dを含む。オプション814A~814Dのうちの異なるオプションは、異なる通信媒体に対応する(例えば、オプション814Aは、近距離通信に対応し、オプション814Bは、SMSメッセージ及び/又はインスタントメッセージングに対応し、オプション814Cは、電子メールに対応し、オプション814Dは、インスタントメッセージングに対応する)。個別のオプション814A~814Dの選択は、選択オプションに関連付けられた対応する通信媒体を介して第1の集約コンテンツアイテムを共有するプロセスを開始する。共有ユーザインタフェース810はまた、共有ユーザインタフェース810の表示を中止し、かつ任意選択的に次のコンテンツアイテムユーザインタフェース800を再表示するために選択可能な、閉じるオプション816を含む。
【0266】
図8Kは、第1の集約コンテンツアイテムが共有するには長すぎる(例えば、第1の集約コンテンツアイテムの再生持続時間が閾値再生持続時間を超える)と電子デバイス600が判定するシナリオを示す。
図8Kでは、ユーザ入力808Eに応じて、かつ第1の集約コンテンツアイテムが共有するには長すぎるとの判定に従って、電子デバイス600は、通知818、及びオプション820A、820B、820Cを表示する。オプション820Aは、(例えば、第1の集約コンテンツアイテムから1つ以上のメディアアイテムを除去及び/又は追加することによって)第1の集約コンテンツアイテムの再生持続時間を修正するプロセスを開始するために選択可能である。オプション820Bは、第1の集約コンテンツアイテムに適用されるオーディオトラックを修正するプロセスを開始するために選択可能である(例えば、ユーザが、共有することができるより短い集約コンテンツアイテムとなる、より短いオーディオトラックを選択することができるように)。オプション820Cは、共有動作をキャンセルし、かつ任意選択的に次のコンテンツアイテムユーザインタフェース800を再表示するために選択可能である。
【0267】
図8Lは、第1の集約コンテンツアイテムがユーザのメディアライブラリに保存されていない1つ以上のメディアアイテムを含むと電子デバイス600が判定する別の代替的なシナリオを示す。例えば、第1の集約コンテンツアイテムは、電子デバイス600上で利用可能、かつ/又は電子デバイス800に利用可能であるが、ユーザのメディアライブラリに保存されていない1つ以上のメディアアイテムを含むことができる。
図8Kでは、ユーザ入力808Eに応じて、かつ第1の集約コンテンツアイテムがユーザのメディアライブラリに保存されていない、かつ/又は電子デバイス600上にローカルに保存されていない1つ以上のメディアアイテムを含むとの判定に従って、電子デバイス600は、通知822、並びにオプション824A、824B、及び824Cを表示する。オプション824Aは、1つ以上のメディアアイテムをユーザのメディアライブラリに追加する、かつ/又は1つ以上のメディアアイテムを電子デバイス600上にローカルに保存するプロセスを開始するために選択可能である。オプション824Bは、1つ以上のメディアアイテムをユーザのメディアライブラリに追加することなく、かつ/又は1つ以上のメディアアイテムを電子デバイス600上にローカルに保存することなく、第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能である。オプション824Cは、共有動作をキャンセルし、かつ任意選択的に次のコンテンツアイテムユーザインタフェース800を再表示するために選択可能である。
【0268】
図9は、いくつかの実施形態に係る、コンピュータシステムを使用してコンテンツアイテムを再生した後に、コンテンツの再生を管理する方法を示すフロー図である。方法900は、表示生成構成要素(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、及び/又はディスプレイ(例えば、一体化及び/又は接続された))及び1つ以上の入力デバイス(例えば、タッチ感知面(例えば、タッチ感知ディスプレイ)、マウス、キーボード、及び/又はリモートコントロール)と通信しているコンピュータシステム(例えば、100、300、500)(例えば、スマートフォン、スマートウォッチ、タブレット、デジタルメディアプレーヤ、コンピュータセットトップエンターテイメントボックス、スマートTV、及び/又は外部ディスプレイを制御するコンピュータシステム)において実行される。方法900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
【0269】
後述するように、方法900は、コンテンツアイテムをナビゲート及び閲覧する直観的な方法を提供する。この方法は、コンテンツアイテムをナビゲート及び閲覧する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合、ユーザがより速くかつより効率的にコンテンツアイテムをナビゲート及び閲覧することが可能になることにより、電力が節約され、バッテリ充電の間隔が長くなる。
【0270】
コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、
図8Aの第1の集約コンテンツアイテムのメディアアイテム826Z)を再生し(902)(例えば、表示生成構成要素を介して、第1の集約コンテンツアイテムの視覚コンテンツを表示し)(例えば、第1のビデオ、及び/又は複数のコンテンツアイテムから自動的に生成された第1のコンテンツアイテム)(いくつかの実施形態では、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生し)、第1の集約コンテンツアイテムは、コンピュータシステム(例えば、600)のユーザによって撮影された写真及び/又はビデオ(例えば、コンピュータシステムのカメラ又はユーザに関連付けられた他のデバイスの1つ以上のカメラを使用して、ユーザによって撮影された、かつ/又は専用デジタルカメラからアップロードされたスキャンされた物理的写真)を含むメディアライブラリから(例えば、自動的に、かつ/又はユーザ入力なしに)選択された第1の複数のコンテンツアイテム(例えば、628A、862B、862C、862Z)の順序付けられたシーケンスを含み、第1の複数のコンテンツアイテムは、選択基準の第1のセットに基づいて選択される(例えば、第1の集約コンテンツアイテムは、複数の写真及び/若しくはビデオの順序付けられたシーケンス、並びに/又は写真及び/若しくはビデオの自動的に生成された集合(例えば、1つ以上の共有特性に基づいてコンテンツアイテムのセットから自動的に集約及び/若しくは選択された写真及び/若しくはビデオの集合)を示す)。いくつかの実施形態では、第1の複数のコンテンツアイテムを構成する複数の写真及び/又はビデオは、コンピュータシステムに関連付けられた(例えば、コンピュータシステムに記憶された、コンピュータシステムのユーザに関連付けられた、かつ/又はコンピュータシステムに関連付けられた(例えば、サインインした)ユーザアカウントに関連付けられた)写真及び/又はビデオのセットから選択される。
【0271】
第1の集約コンテンツアイテムの視覚コンテンツを再生している間に(904)、コンピュータシステムは、オーディオコンテンツ(例えば、
図8A、オーディオトラック3)(例えば、第1の複数のコンテンツアイテムとは別個のオーディオコンテンツ)を再生する(906)(例えば、第1の集約コンテンツアイテムの視覚コンテンツが表示生成構成要素を介して表示されている間に、オーディオトラックを出力する、かつ/又はその出力を引き起こす(例えば、1つ以上のスピーカ、1つ以上のヘッドホン、及び/又は1つ以上のイヤホンを介して))(例えば、第1の集約コンテンツアイテムに対応する、かつ/又はその一部であるオーディオコンテンツ(例えば、集約コンテンツアイテムに組み込まれた1つ以上のビデオからのオーディオ)及び/又は第1の集約コンテンツアイテムとは別個のオーディオコンテンツ(例えば、第1の集約コンテンツアイテム上に重ね合わされ、かつ/又は第1の集約コンテンツアイテムの視覚コンテンツが再生及び/若しくは表示されている間に再生されるオーディオトラック))。
【0272】
第1の集約コンテンツアイテムの視覚コンテンツの少なくとも一部分を再生した後に(908)、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出する(910)(例えば、第1の集約コンテンツアイテムの再生が完了したことを検出する、第1の集約コンテンツアイテムの再生が閾値再生時間を超えたことを検出する、かつ/又は第1の集約コンテンツアイテムに閾値持続時間未満が残っていることを検出する)。
【0273】
第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(912)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出したことに応じて)、1つ以上の再生条件のうちの第1のセットの再生条件が満たされたとの判定に従って(914)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出してから閾値持続時間が経過したとの判定に従って、第1の集約コンテンツアイテムの視覚コンテンツの再生が完了してから閾値持続時間が経過したとの判定に従って、かつ/又は第2の集約コンテンツアイテムの視覚コンテンツの再生を開始する要求に対応するユーザ入力が受信されたとの判定に従って)コンピュータシステムは、第1の集約コンテンツアイテムとは異なる第2の集約コンテンツアイテムの視覚コンテンツ(例えば、
図8C、第2の集約コンテンツアイテムのメディアアイテム806)(例えば、第2のビデオ、第1のビデオ、及び/又は複数のコンテンツアイテムから自動的に生成された第2のコンテンツアイテム)を再生し(916)(例えば、自動的に、かつ/又はユーザ入力なしに)(例えば、かつ第1の集約コンテンツアイテムの視覚コンテンツの再生を中止する)、第2の集約コンテンツアイテムは、第1の複数のコンテンツアイテムとは異なる第2の複数のコンテンツアイテムの順序付けられたシーケンスを含み、更に、第2の複数のコンテンツアイテムは、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択され、第2の複数のコンテンツアイテムは、(例えば、選択基準の第1のセットとは異なる)選択基準の第2のセットに基づいて選択される(例えば、第2の集約コンテンツアイテムは、複数の写真及び/若しくはビデオの順序付けられたシーケンス並びに/又は写真及び/若しくはビデオの自動的に生成された集合(例えば、1つ以上の共有された特性に基づいてコンテンツアイテムのセットから自動的に集約及び/若しくは選択された写真及び/若しくはビデオの集合)を示す)。いくつかの実施形態では、第2の複数のコンテンツアイテムを構成する複数の写真及び/又はビデオは、コンピュータシステムに関連付けられた(例えば、コンピュータシステムに記憶された、コンピュータシステムのユーザに関連付けられた、かつ/又はコンピュータシステムに関連付けられた(例えば、サインインした)ユーザアカウントに関連付けられた)写真及び/又はビデオのセットから選択される(例えば、第1の集約コンテンツアイテムの第1の複数のコンテンツアイテムが選択されたのと同じ写真及び/又はビデオのセットから選択される)。再生条件が満たされたとの判定に従って、第2の集約コンテンツアイテムの視覚コンテンツを自動的に再生することにより、ユーザが追加の入力を必要とせずに追加の集約コンテンツアイテムを閲覧することを可能にする。
【0274】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たす(例えば、終了した)ことを検出した後に、1つ以上の再生条件のうちの第1のセットの再生条件が満たされたとの判定に従って、かつ/又は第2の集約コンテンツアイテムの視覚コンテンツを再生している間に、コンピュータシステムは、(例えば、オーディオコンテンツとは異なる)第2のオーディオコンテンツを(例えば、自動的に、かつ/又はユーザ入力なしに)再生する(例えば、かつ第1の集約コンテンツアイテムの視覚コンテンツの視覚再生中に再生されていたオーディオコンテンツの再生を中止する)(例えば、第2の集約コンテンツアイテムの視覚コンテンツが表示生成構成要素を介して表示されている間に、オーディオトラックを出力する、かつ/又はその出力を引き起こす(例えば、1つ以上のスピーカ、1つ以上のヘッドホン、及び/又は1つ以上のイヤホンを介して))(例えば、第2の集約コンテンツアイテムに対応する、かつ/又はその一部であるオーディオコンテンツ(例えば、集約コンテンツアイテムに組み込まれた1つ以上のビデオからのオーディオ)及び/又は第2の集約コンテンツアイテムとは別個のオーディオコンテンツ(例えば、第2の集約コンテンツアイテム上に重ね合わされた、かつ及び/又は第2の集約コンテンツアイテムの視覚コンテンツが再生及び/若しくは表示されている間に再生されるオーディオトラック))。
【0275】
いくつかの実施形態では、コンピュータシステムは、1つ以上の入力デバイスを介して、カメラを使用して画像データをキャプチャする要求に対応する画像キャプチャ入力(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出し、画像キャプチャ入力を検出したことに応じて、コンピュータシステムは、新しいコンテンツアイテム(例えば、新しい写真及び/又は新しいビデオ)(例えば、画像キャプチャ入力を検出したことに応じて、カメラを使用してキャプチャされた新しい写真及び/又は新しいビデオ)をメディアライブラリ(例えば、メディアライブラリユーザインタフェース604)に追加する。画像キャプチャ入力を検出したことに応じて、メディアライブラリに新しいコンテンツアイテムを自動的に追加することにより、ユーザが追加の入力を必要とせずにキャプチャされた画像を保存することを可能にする。
【0276】
いくつかの実施形態では、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に(例えば、
図8C)(いくつかの実施形態では、かつ第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に)、コンピュータシステムは、表示生成構成要素を介して、所定の持続時間(例えば、3秒、5秒、10秒、又は20秒に達するまでの進行を示す(例えば、カウントダウン又はカウントアップする)タイマー(例えば、802A)を表示する。いくつかの実施形態では、第2の集約コンテンツアイテムの視覚コンテンツは、タイマーが所定の持続時間をカウントダウンした後に(例えば、タイマーが所定の持続時間をカウントダウンしたとの判定に従って)(例えば、タイマーが所定の持続時間をカウントダウンした直後に)自動的に再生を開始する。第2の集約コンテンツアイテムの視覚コンテンツを再生する前に所定の持続時間をカウントダウンするタイマーを表示することにより、デバイスの現在の状態に関する(例えば、第2の集約コンテンツアイテムの視覚コンテンツが所定の持続時間の後に再生を開始するという)フィードバックをユーザに提供する。
【0277】
いくつかの実施形態では、タイマー(例えば、802A)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1の入力(例えば、808A、808B、808C、808D、808E)(例えば、タップ入力及び/又は非タップ入力を検出し、第1の入力を検出したことに応じて、コンピュータシステムは、第2の集約コンテンツアイテムの自動再生をキャンセルする(例えば、
図8F~
図8L)(例えば、1つ以上の再生条件のうちの第1のセットが満たされなかったと判定する)(かつ任意選択的に、タイマーの表示を中止する)。第1の入力を検出したことに応じて、第2の集約コンテンツアイテムの自動再生をキャンセルすることにより、デバイスの現在の状態に関する(例えば、デバイスが第1の入力を検出したという)フィードバックをユーザに提供する。
【0278】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)(いくつかの実施形態では、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に)、コンピュータシステムは、表示生成構成要素を介して、第2の集約コンテンツアイテムに対応する(例えば、一意に対応する)第1のユーザインタフェースオブジェクト(例えば、804A)を表示する(いくつかの実施形態では、オーディオコンテンツを再生し続けている間に)。第1のユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のユーザインタフェースオブジェクトの選択に対応する第2の入力(例えば、808A)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第2の入力を検出したことに応じて、コンピュータシステムは、第2の集約コンテンツアイテムの視覚コンテンツを再生する(例えば、
図8F)(例えば、1つ以上の再生条件のうちの第1のセットが満たされるのを待つことなく、かつ/又は表示されたカウントダウンタイマーが満了するのを待つことなく)。第2の集約コンテンツアイテムの視覚コンテンツを再生するために選択可能な第1のユーザインタフェースオブジェクトを表示することにより、ユーザが再生される次の集約コンテンツアイテムを迅速に選択することを可能にし、それによって、次の集約コンテンツアイテムを選択するために必要とされる入力の数を低減する。
【0279】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)、コンピュータシステムは、表示生成構成要素を介して、第2の集約コンテンツアイテムに対応する(例えば、一意に対応する)第1のユーザインタフェースオブジェクト(例えば、804A)を表示する。いくつかの実施形態では、コンピュータシステムは、オーディオコンテンツを再生し続けている間に、第1のユーザインタフェースオブジェクトを表示する。第1のユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のユーザインタフェースオブジェクトの選択に対応しない(例えば、第1のユーザインタフェースオブジェクトに対応しない表示されたユーザインタフェース上の位置での)(例えば、任意のユーザインタフェースオブジェクトの選択に対応しない)第3の入力(例えば、808B、808C、808D、808E)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第3の入力を検出したことに応じて、コンピュータシステムは、第2の集約コンテンツアイテムの視覚コンテンツの自動再生をキャンセルする(例えば、自動的に再生することを取り止める)(例えば、
図8G~
図8L)。いくつかの実施形態では、第3の入力を検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトの表示を中止する。第3の入力を検出したことに応じて、第2の集約コンテンツアイテムの自動再生をキャンセルすることにより、ユーザが第2の集約コンテンツアイテムの自動再生を容易にキャンセルすることを可能にし、それによって、第2の集約コンテンツアイテムの自動再生をキャンセルするために必要とされる入力の数を低減する。
【0280】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出したことに応じて)、コンピュータシステムは、表示生成構成要素を介して、リプレイユーザインタフェースオブジェクト(例えば、802B)を表示する。いくつかの実施形態では、コンピュータシステムは、オーディオコンテンツを再生し続けている間に、リプレイユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、コンピュータシステムは、リプレイユーザインタフェースオブジェクトと同時に、第2の集約コンテンツアイテムに対応する(かつ第2の集約コンテンツアイテムの視覚コンテンツの再生を開始するために選択可能な)第1のユーザインタフェースオブジェクトを表示する。リプレイユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、リプレイユーザインタフェースオブジェクトの選択に対応する第4の入力(例えば、808B)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第4の入力を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを第1の集約コンテンツアイテムの先頭から再生する(例えば、
図8G)(例えば、第1の集約コンテンツアイテムをリプレイする)。いくつかの実施形態では、集約コンテンツアイテムのコンテンツアイテムの順序は、最初の再生とリプレイの両方の間で維持される。いくつかの実施形態では、第1の集約コンテンツアイテムのコンテンツアイテム以外の追加のコンテンツアイテムは、リプレイ中に再生されない。第4の入力を検出したことに応じて、第1の集約コンテンツアイテムの視覚コンテンツを再生することにより、ユーザが第1の集約コンテンツアイテムを迅速にリプレイすることを可能にし、それによって、第1の集約コンテンツアイテムをリプレイするために必要とされる入力の数を低減する。
【0281】
いくつかの実施形態では、第2の集約コンテンツアイテム(例えば、
図8Eのパームスプリングス2017年)は、選択基準に基づいて複数の集約コンテンツアイテムから選択される。いくつかの実施形態では、コンピュータシステムは、第2の集約コンテンツアイテムに含まれるコンテンツアイテムを自動的に選択する。選択基準に基づいて第2の集約コンテンツアイテムを自動的に選択することにより、ユーザへの提案の品質を改善し、それによって、ユーザが選択する手段を提供する。そうでなければ、所望のコンテンツを更に見つけるために、追加の入力が必要とされる。
【0282】
いくつかの実施形態では、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に(例えば、第2の集約コンテンツアイテムの視覚コンテンツを再生する直前に)、コンピュータシステムは、オーディオコンテンツ(例えば、
図8Eのトラック3)の再生を徐々に中止(例えば、フェード)する。いくつかの実施形態では、コンピュータシステムは、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に、オーディオコンテンツの再生を中止する。第2の集約コンテンツアイテムの視覚コンテンツを再生する前に、オーディオコンテンツの再生を徐々に中止することにより、デバイスの現在の状態に関する(例えば、デバイスが新しい集約コンテンツアイテムの再生を直ちに開始するという)フィードバックをユーザに提供する。オーディオコンテンツの再生を徐々に中止することにより、オーディオコンテンツをより静かに再生することによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0283】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出したことに応じて)(いくつかの実施形態では、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に)、コンピュータシステムは、表示生成構成要素を介して、第2の集約コンテンツアイテムに対応する(例えば、一意に対応する)第1のユーザインタフェースオブジェクト(例えば、804A)を表示する。いくつかの実施形態では、コンピュータシステムは、オーディオコンテンツを再生し続けている間に、第1のユーザインタフェースオブジェクトを表示する。第1のユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第5の入力(例えば、808D)(例えば、1つ以上のスワイプ入力及び/又は1つ以上の非スワイプ入力)を検出する。第5の入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテム及び第2の集約コンテンツアイテムとは異なる第3の集約コンテンツアイテムに対応する(例えば、一意に対応する)ユーザインタフェースオブジェクト(例えば、804D、804E)を表示し、第3の集約コンテンツアイテムは、第1の複数のコンテンツアイテム及び第2の複数のコンテンツアイテムとは異なる第3の複数のコンテンツアイテムの順序付けられたシーケンスを含み、更に、第3の複数のコンテンツアイテムは、デバイスのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択され、第3の複数のコンテンツアイテムは、(例えば、選択基準の第1のセット及び/又は第2の選択基準セットとは異なる)選択基準の第3のセットに基づいて選択される。いくつかの実施形態では、第3の集約コンテンツアイテムは、複数の写真及び/若しくはビデオの順序付けられたシーケンス、並びに/又は写真及び/若しくはビデオの自動的に生成された集合(例えば、1つ以上の共有特性に基づいてコンテンツアイテムのセットから自動的に集約及び/若しくは選択された写真及び/若しくはビデオの集合)を示す。いくつかの実施形態では、第3の複数のコンテンツアイテムを構成する複数の写真及び/又はビデオは、コンピュータシステムに関連付けられた(例えば、コンピュータシステムに記憶された、コンピュータシステムのユーザに関連付けられた、かつ/又はコンピュータシステムに関連付けられた(例えば、サインインした)ユーザアカウントに関連付けられた)写真及び/又はビデオのセットから選択される(例えば、第1の集約コンテンツアイテムの第1の複数のコンテンツアイテムが選択されたのと同じ写真及び/又はビデオのセットから選択される)。いくつかの実施形態では、第2のユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第2のユーザインタフェースオブジェクトの選択に対応するユーザ入力を検出し、第2のユーザインタフェースオブジェクトの選択に対応するユーザ入力を検出したことに応じて、コンピュータシステムは、第3の集約コンテンツアイテムの視覚コンテンツを再生する。第5の入力を検出したことに応じて、第3の集約コンテンツアイテムに対応する第2のユーザインタフェースオブジェクトを表示することにより、ユーザが再生される次のコンテンツアイテムを迅速に選択することを可能にし、それによって、次のコンテンツアイテムを選択するために必要とされる入力の数を低減する。
【0284】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)(かつ任意選択的に、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に)、コンピュータシステムは、表示生成構成要素を介して(かつ任意選択的に、オーディオコンテンツを再生し続けている間に)、第2の集約コンテンツアイテムに対応する(例えば、一意に対応する)第1のユーザインタフェースオブジェクト(例えば、804A)と、第1の集約コンテンツアイテム及び第2の集約コンテンツアイテムとは異なる第3の集約コンテンツアイテムに対応する(例えば、一意に対応する)第2のユーザインタフェースオブジェクト(例えば、804B~804E)とを同時に表示し、第3の集約コンテンツアイテムは、第1の複数のコンテンツアイテム及び第2の複数のコンテンツアイテムとは異なる第3の複数のコンテンツアイテムの順序付けられたシーケンスを含み、更に、第3の複数のコンテンツアイテムは、デバイスのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリから選択され、第3の複数のコンテンツアイテムは、(例えば、選択基準の第1のセット及び/又は選択基準の第2のセットとは異なる)選択基準の第3のセットに基づいて選択される。第2の集約コンテンツアイテムに対応する第1のユーザインタフェースオブジェクト及び第3の集約コンテンツアイテムに対応する第2のユーザインタフェースオブジェクトを表示することにより、ユーザが再生される次のコンテンツアイテムを迅速に選択することを可能にし、それによって、次のコンテンツアイテムを選択するために必要とされる入力の数を低減する。
【0285】
いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、804A)及び第2のユーザインタフェースオブジェクト(例えば、804B~804E)を同時に表示している間に、コンピュータシステムは、オーディオコンテンツ(例えば、
図8I、オーディオトラック3)を再生し続ける。第1のユーザインタフェースオブジェクト及び第2のユーザインタフェースオブジェクトを表示している間に、オーディオコンテンツを再生し続けることにより、デバイスの現在の状態に関する(例えば、再生される次のコンテンツアイテムの選択がデバイスによってまだ検出されていないという)フィードバックをユーザに提供する。
【0286】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)(いくつかの実施形態では、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に)、コンピュータシステムは、表示生成構成要素を介して、第1の時間に、第2の集約コンテンツアイテムに対応する(例えば、一意に対応する)第1のユーザインタフェースオブジェクト(例えば、804A)を表示し(いくつかの実施形態では、オーディオコンテンツを再生し続けている間に)、第1のユーザインタフェースオブジェクトを表示することは、第2の集約コンテンツアイテム内の第2の複数のコンテンツアイテムのうちの第1のコンテンツアイテム(例えば、
図8Eの水の中のユーザの画像)と、第2の集約コンテンツアイテムに対応するタイトル情報(例えば、
図8Eの「パームスプリングス2017年」)(例えば、テキスト情報(例えば、第2の集約コンテンツアイテムに対して生成された名前、位置情報、及び/又は時間情報))とを同時に表示することを含む。いくつかの実施形態では、第2の集約コンテンツアイテムの視覚コンテンツを再生することは、表示生成構成要素を介して、第1の時間の後の第2の時間に、第1のコンテンツアイテム(例えば、806)とタイトル情報(例えば、627)とを同時に表示することを含み(いくつかの実施形態では、もはや第1のユーザインタフェースオブジェクトを表示していない間に)、更に、第1の時間に、タイトル情報は、第1のユーザインタフェースオブジェクト内の第1のコンテンツアイテムに対する第1の位置に表示され、第2の時間に、タイトル情報は、第1のコンテンツアイテムに対する第2の位置に表示され、第2の位置は、第1の位置とは異なる。いくつかの実施形態では、第3の時間(例えば、第1の時間と第2の時間との間の第3の時間及び/又は第2の時間である第3の時間)に、コンピュータシステムは、第1のコンテンツアイテムに対する第1の位置でのタイトル情報の表示を中止することを開始し(例えば、第1のコンテンツアイテムに対する第1の位置でのタイトル情報を徐々にフェードアウトすることを開始し)、第1のコンテンツアイテムに対する第2の位置でのタイトル情報の表示を開始する(例えば、第1のコンテンツアイテムに対する第2の位置でのタイトル情報を徐々にフェードインすることを開始する)。いくつかの実施形態では、コンピュータシステムは、第1のコンテンツアイテムに対する第1の位置でのタイトル情報の表示を徐々にフェードアウトし、第1のコンテンツアイテムに対する第2の位置でのタイトル情報の表示を徐々にフェードインする(いくつかの実施形態では、第1の位置でのタイトル情報の徐々にフェードアウトする表示の少なくとも一部分は、第2の位置でのタイトル情報の徐々にフェードインする表示の少なくとも一部分と同時に生じる)。第1の時間に第1のコンテンツアイテムに対して第1の位置にタイトル情報を表示し、第2の時間に第1のコンテンツアイテムに対して第2の位置にタイトル情報を表示することにより、デバイスの現在の状態に関する(例えば、デバイスが第2の集約コンテンツアイテムの再生を開始したという)フィードバックをユーザに提供する。
【0287】
いくつかの実施形態では、第2の時間に、コンピュータシステムは、表示生成構成要素を介して、タイトル情報(例えば、627)を第1の表示領域に表示し(例えば、
図8C)(例えば、第1のコンテンツアイテムとタイトル情報とを同時に表示し、タイトル情報は、第1の表示領域に表示される)、第2の時間の後の第3の時間に、コンピュータシステムは、表示生成構成要素を介して、第1の表示領域とは異なる第2の表示領域にタイトル情報(例えば、627)を表示する(例えば、
図8D)(例えば、第1のコンテンツアイテムを表示することなく、第2の表示領域にタイトル情報を表示する)。いくつかの実施形態では、第2の時間に、タイトル情報は、視覚パラメータ(例えば、フォント、色、及び/又はフォントサイズ)の第1のセットを用いて表示され、第3の時間に、タイトル情報は、第1のセットとは異なる視覚パラメータの第3のセットを用いて表示される。第2の集約コンテンツアイテムに対応するタイトル情報を表示することにより、デバイスの現在の状態に関する(例えば、デバイスが第2の集約コンテンツアイテムに対応するタイトル情報を識別したという)フィードバックをユーザに提供する。
【0288】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)、コンピュータシステムは、表示生成構成要素を介して(かつ任意選択的に、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に、かつ/又はオーディオコンテンツを再生し続けている間に)、第2の集約コンテンツアイテムに対応する(例えば、一意に対応する)第1のユーザインタフェースオブジェクト(例えば、804A)と、第1の集約コンテンツアイテムを共有する(例えば、1つ以上の通信媒体(例えば、テキストメッセージ、電子メール、近距離無線通信及び/若しくはファイル転送、共有メディアアルバムへのアップロード、並びに/又はサードパーティプラットフォームへのアップロード)を介して第1の集約コンテンツアイテムを共有する)プロセスを開始するために選択可能な共有ユーザインタフェースオブジェクト(例えば、802C)とを同時に表示する。いくつかの実施形態では、第1のユーザインタフェースオブジェクト及び共有ユーザインタフェースオブジェクトを同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、共有ユーザインタフェースオブジェクトの選択に対応する入力を検出し、入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、共有ユーザインタフェースを表示し、共有ユーザインタフェースを表示することは、第1の通信媒体に対応する第1の共有オブジェクトと、第2の通信媒体に対応する第2の共有オブジェクトとを同時に表示することを含む。第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能な共有ユーザインタフェースオブジェクトを表示することにより、ユーザが第1の集約コンテンツアイテムを迅速に共有することを可能にし、それによって、第1の集約コンテンツアイテムを共有するために必要とされる入力の数を低減する。
【0289】
いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、804A)及び共有ユーザインタフェースオブジェクト(例えば、802C)を同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、共有ユーザインタフェースオブジェクトの選択に対応する第6の入力(例えば、808E)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第6の入力を検出したことに応じて、第1の集約コンテンツアイテムに適用されるオーディオコンテンツがコンピュータシステムのユーザ(例えば、コンピュータシステムにログインしたユーザアカウント)によって共有されることが許可されていない(例えば、コンピュータシステムのユーザが第1の集約コンテンツアイテムに適用されるオーディオコンテンツを共有することを許可されていない)との判定に従って、コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムに適用されるオーディオコンテンツがユーザによって共有されることが許可されていないというインジケーション(例えば、
図8Kの818)を表示する。いくつかの実施形態では、第6の入力を検出したことに応じて、かつ第1の集約コンテンツアイテムに適用されるオーディオコンテンツがコンピュータシステムのユーザによって共有されることが許可されているとの判定に従って、コンピュータシステムは、1つ以上の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセス及び/又は更なるプロセスを開始するために選択可能な1つ以上の選択可能なオブジェクト(例えば、第1の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能な第1の選択可能なオブジェクト、及び第2の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能な第2の選択可能なオブジェクト)を含む共有ユーザインタフェースを表示する。第1の集約コンテンツアイテムに適用されるオーディオコンテンツがユーザによって共有されることを許可されていないというインジケーションを表示することにより、デバイスの現在の状態に関する(例えば、第1の集約コンテンツアイテムに適用されるオーディオコンテンツがユーザによって共有されることを許可されていないとデバイスが判定したという)フィードバックをユーザに提供する。
【0290】
いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、804A)及び共有ユーザインタフェースオブジェクト(例えば、802C)を同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、共有ユーザインタフェースオブジェクトの選択に対応する第7の入力(例えば、808E)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第7の入力を検出したことに応じて、第1の集約コンテンツアイテムに適用されるオーディオコンテンツがコンピュータシステムのユーザ(例えば、コンピュータシステムにログインしたユーザアカウント)によって共有されることが許可されていない(例えば、コンピュータシステムのユーザが第1の集約コンテンツアイテムに適用されるオーディオコンテンツを共有することを許可されていない)との判定に従って、コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムの再生持続時間を短縮する(例えば、第1の集約コンテンツアイテムの再生持続時間を閾値再生持続時間未満に短縮する)(例えば、第1の集約コンテンツアイテムに含まれるコンテンツアイテムの数を(例えば、コンテンツアイテムの閾値数未満に)減少させる)プロセスを開始するために選択可能な再生持続時間オプション(例えば、820A、802B)を表示する。いくつかの実施形態では、再生持続時間オプションを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、再生持続時間オプションの選択に対応する入力を検出し、入力を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの再生持続時間を減少させる(例えば、第1の集約コンテンツアイテムに含まれるコンテンツアイテムの数を減少させる)ように、第1の集約コンテンツアイテムを修正する。いくつかの実施形態では、第7の入力を検出したことに応じて、かつ第1の集約コンテンツアイテムに適用されるオーディオコンテンツがコンピュータシステムのユーザによって共有されることが許可されているとの判定に従って、コンピュータシステムは、1つ以上の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセス及び/又は更なるプロセスを開始するために選択可能な1つ以上の選択可能なオブジェクト(例えば、第1の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能な第1の選択可能なオブジェクト、及び第2の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能な第2の選択可能なオブジェクト)を含む共有ユーザインタフェースを表示する。第1の集約コンテンツアイテムに適用されるオーディオコンテンツがコンピュータシステムのユーザによって共有されることが許可されていないとの判定に従って、再生持続時間オプションを表示することにより、デバイスの現在の状態に関する(例えば、第1の集約コンテンツアイテムに適用されるオーディオコンテンツがユーザによって共有されることが許可されていないとデバイスが判定したという)フィードバックをユーザに提供する。
【0291】
いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、804A)及び共有ユーザインタフェースオブジェクト(例えば、802C)を同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、共有ユーザインタフェースオブジェクトの選択に対応する第8の入力(例えば、808E)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第8の入力を検出したことに応じて、第1の集約コンテンツアイテムに適用されるオーディオコンテンツがコンピュータシステムのユーザ(例えば、コンピュータシステムにログインしたユーザアカウント)によって共有されることが許可されていない(例えば、コンピュータシステムのユーザが第1の集約コンテンツアイテムに適用されるオーディオコンテンツを共有することを許可されていない)との判定に従って、コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムに適用される異なるオーディオコンテンツを選択するプロセスを開始するために選択可能なオーディオコンテンツオプション(例えば、820B)を表示する。いくつかの実施形態では、第8の入力を検出したことに応じて、かつ第1の集約コンテンツアイテムに適用されるオーディオコンテンツがコンピュータシステムのユーザによって共有されることが許可されているとの判定に従って、コンピュータシステムは、1つ以上の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセス及び/又は更なるプロセスを開始するために選択可能な1つ以上の選択可能なオブジェクト(例えば、第1の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能な第1の選択可能なオブジェクト、及び第2の通信媒体を介して第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能な第2の選択可能なオブジェクト)を含む共有ユーザインタフェースを表示する。いくつかの実施形態では、オーディオコンテンツオプションを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、オーディオコンテンツオプションの選択に対応する入力を検出し、入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第1のオーディオコンテンツに対応する第1のオーディオコンテンツオプションと、(例えば、第1のオーディオコンテンツとは異なる)第2のオーディオコンテンツに対応する第2のオーディオコンテンツオプションとを同時に表示する。いくつかの実施形態では、第1のオーディオコンテンツオプション及び第2のオーディオコンテンツオプションを同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、選択入力を検出し、選択入力を検出したことに応じて、選択入力が第1のオーディオコンテンツオプションの選択に対応するとの判定に従って、コンピュータシステムは、(例えば、第2のオーディオコンテンツを適用することなく)第1のオーディオコンテンツを第1の集約コンテンツアイテムに適用し、選択入力が第2のオーディオコンテンツオプションの選択に対応するとの判定に従って、コンピュータシステムは、(例えば、第1のオーディオコンテンツを適用することなく)第2のオーディオコンテンツを第1の集約コンテンツアイテムに適用する。いくつかの実施形態では、第1のオーディオコンテンツオプション及び第2のオーディオコンテンツオプションは、ユーザが第1のオーディオコンテンツ及び第2のオーディオコンテンツを共有することを許可されているとの判定に基づいて、表示のために選択される。第1の集約コンテンツアイテムに適用されるオーディオコンテンツがコンピュータシステムのユーザによって共有されることが許可されていないとの判定に従って、オーディオコンテンツオプションを表示することにより、デバイスの現在の状態に関する(例えば、第1の集約コンテンツアイテムに適用されるオーディオコンテンツがユーザによって共有されることが許可されていないとデバイスが判定したという)フィードバックをユーザに提供する。
【0292】
いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、804A)及び共有ユーザインタフェースオブジェクト(例えば、802C)を同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、共有ユーザインタフェースオブジェクトの選択に対応する第9の入力(例えば、808E)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第9の入力を検出したことに応じて、かつ第1の集約コンテンツアイテム内の第1の複数のコンテンツアイテムがコンピュータシステムにローカルに保存されていない第1のコンテンツアイテムを含むとの判定に従って、コンピュータシステムは、表示生成構成要素を介して、第1のコンテンツアイテムをメディアライブラリに保存するプロセスを開始するために選択可能な同期オプション(例えば、824A)を表示する。いくつかの実施形態では、同期オプションを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、同期オプションの選択に対応する入力を検出し、入力を検出したことに応じて、コンピュータシステムは、第1のコンテンツアイテムをコンピュータシステムに保存する。いくつかの実施形態では、第1の集約コンテンツアイテム内の第1の複数のコンテンツアイテムがコンピュータシステムにローカルに保存されていない1つ以上のコンテンツアイテムを含むとの判定に従って、コンピュータシステムは、表示生成構成要素を介して、1つ以上のコンテンツアイテムをコンピュータシステムに保存するプロセスを開始するために選択可能な同期オプションを表示し、同期オプションを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、同期オプションの選択に対応する入力を検出し、入力を検出したことに応じて、コンピュータシステムは、1つ以上のコンテンツアイテムをコンピュータシステムに保存する。第1の集約コンテンツアイテム内の第1の複数のコンテンツアイテムがコンピュータシステムにローカルに保存されていない第1のコンテンツアイテムを含むとの判定に従って、同期オプションを表示することにより、デバイスの現在の状態に関する(例えば、第1の複数のコンテンツアイテムがコンピュータシステムにローカルに保存されていない第1のコンテンツアイテムを含むとデバイスが判定したという)フィードバックをユーザに提供する。
【0293】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)(かつ任意選択的に、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に)、コンピュータシステムは、表示生成構成要素を介して、第2の集約コンテンツアイテムの視覚コンテンツのアニメーション化されたプレビュー(例えば、移動プレビュー及び/又はプレビュービデオ)を表示するプレビューオブジェクト(例えば、1276A)を表示する。いくつかの実施形態では、コンピュータシステムは、オーディオコンテンツを再生し続けている間に、第2の集約コンテンツアイテムの視覚コンテンツのアニメーション化されたプレビューを表示するプレビューオブジェクトを表示する。いくつかの実施形態では、プレビューオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、プレビューオブジェクトの選択に対応する選択入力を検出し、選択入力を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを再生する。第2の集約コンテンツアイテムの視覚コンテンツのアニメーション化されたプレビューを表示するプレビューオブジェクトを表示することにより、ユーザが再生される次の集約コンテンツアイテムを迅速にプレビュー及び選択することを可能にし、それによって、次の集約コンテンツアイテムを閲覧及び選択するために必要とされる入力の数を低減する。
【0294】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)(いくつかの実施形態では、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に)、コンピュータシステムは、表示生成構成要素を介して、地理的位置に対応し、かつ地理的位置に対応する1つ以上の集約コンテンツアイテムオプションを表示するために選択可能な、場所オブジェクト(例えば、1282D、1282E)を表示する。いくつかの実施形態では、コンピュータシステムは、オーディオコンテンツを再生し続けている間に、場所オブジェクトを表示する。いくつかの実施形態では、場所オブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、場所オブジェクトの選択に対応する選択入力を検出し、選択入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、地理的位置に対応する第4の集約コンテンツアイテムを表す第1のオプションを表示する。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素を介して、場所オブジェクトと同時に、地理的位置とは異なる第2の地理的位置に対応し、かつ第2の地理的位置に対応する1つ以上の集約コンテンツアイテムオプションを表示するために選択可能な、第2の場所オブジェクトを表示し、場所オブジェクト及び第2の場所オブジェクトを同時に表示している間に、コンピュータシステムは、選択入力を検出し、選択入力を検出したことに応じて、選択入力が場所オプションの選択に対応するとの判定に従って、コンピュータシステムは、表示生成構成要素を介して、(例えば、第2のオプションを表示することなく)地理的位置に対応する第4の集約コンテンツアイテムを表す第1のオプションを表示し、選択入力が第2の場所オプションの選択に対応するとの判定に従って、表示生成構成要素を介して、(例えば、第1のオプションを表示することなく)第2の地理的位置に対応する第5の集約コンテンツアイテムを表す第2のオプションを表示する。地理的位置に対応する1つ以上の集約コンテンツアイテムオプションを表示するために選択可能な地理的位置に対応する場所オブジェクトを表示することにより、ユーザが特定の地理的位置に対応する集約コンテンツアイテムを迅速に閲覧及び選択することを可能にし、それによって、次の集約コンテンツアイテムを選択するために必要とされる入力の数を低減する。
【0295】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツの再生が1つ以上の終了基準を満たすことを検出した後に(例えば、検出したことに応じて)(いくつかの実施形態では、第2の集約コンテンツアイテムの視覚コンテンツを再生する前に)、コンピュータシステムは、表示生成構成要素を介して、第1の人物に対応し、かつ第1の人物に対応する1つ以上の集約コンテンツアイテムオプションを表示するために選択可能な、第1の人物オブジェクト(例えば、1282A、1282B、1282C)を表示する。いくつかの実施形態では、コンピュータシステムは、オーディオコンテンツを再生し続けている間に、第1の人物オブジェクトを表示する。いくつかの実施形態では、第1の人物オブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1の人物オブジェクトの選択に対応する選択入力を検出し、選択入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第1の人物に対応する第4の集約コンテンツアイテムを表す第1のオプションを表示する。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素を介して、第1の人物オブジェクトと同時に、第1の人物とは異なる第2の人物に対応し、かつ第2の人物に対応する1つ以上の集約コンテンツアイテムオプションを表示するために選択可能な、第2の人物オブジェクトを表示し、第1の人物オブジェクト及び第2の人物オブジェクトを同時に表示している間に、コンピュータシステムは、選択入力を検出し、選択入力を検出したことに応じて、選択入力が第1の人物オプションの選択に対応するとの判定に従って、コンピュータシステムは、表示生成構成要素を介して、(例えば、第2のオプションを表示することなく)第1の人物に対応する第4の集約コンテンツアイテムを表す第1のオプションを表示し、選択入力が第2の人物オプションの選択に対応するとの判定に従って、表示生成構成要素を介して、(例えば、第1のオプションを表示することなく)第2の人物に対応する第5の集約コンテンツアイテムを表す第2のオプションを表示する。第1の人物に対応する1つ以上の集約コンテンツアイテムオプションを表示するために選択可能な第1の人物に対応する人物オブジェクトを表示することにより、ユーザが特定の人物に対応する集約コンテンツアイテムを迅速に閲覧及び選択することを可能にし、それによって、次の集約コンテンツアイテムを選択するために必要とされる入力の数を低減する。
【0296】
いくつかの実施形態では、コンピュータシステムは、表示生成構成要素を介して、メディアライブラリユーザインタフェース(例えば、1208)を表示する。第1の設定(例えば、1220)が有効化されている(例えば、「ライブラリを表示する」オプション)との判定に従って、メディアライブラリユーザインタフェースは、第1の集約コンテンツアイテムを含む複数の集約コンテンツアイテム(例えば、1210A、1212A~1212E)と、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリ(例えば、1210D、604)とへのアクセスを提供する(例えば、表示する、かつ/又は、表示させる、かつ/若しくは表示するプロセスを開始するために選択可能な1つ以上のオプションを表示する)。第1の設定(例えば、1220)が無効化されているとの判定に従って、メディアライブラリユーザインタフェースは、コンピュータシステムのユーザによって撮影された写真及び/又はビデオを含むメディアライブラリへのアクセスを提供することなく、複数の集約コンテンツアイテムへのアクセスを提供する(例えば、メディアライブラリ内の写真及び/又はビデオを使用して生成された複数の集約コンテンツアイテムへのアクセスを提供するが、メディアライブラリを構成する個々の写真及び/若しくはビデオ並びに/又は個々の写真及び/若しくはビデオの完全なセットへのアクセスを提供しない)。メディアライブラリへのアクセスを除去することができる第1の設定を提供することにより、許可されていないユーザによるメディアライブラリへのアクセスを制限することによってセキュリティを強化する。改善されたセキュリティを提供することにより、(例えば、無許可アクセスを制限することによって)デバイスの操作性を向上させ、ユーザとデバイスのインタフェースをより効率的にし、加えて、制限付き動作の実行を制限することによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0297】
方法900に関して上述したプロセス(例えば
図9)の詳細はまた、上述及び/又は後述する方法にも類似の方式で適用可能であることに留意されたい。例えば、方法700及び1100は、方法900を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、各方法700、900、1100における集約コンテンツアイテムは、同じ集約コンテンツアイテムであってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
【0298】
図10A~
図10Sは、いくつかの実施形態に係る、コンテンツアイテムの表現を閲覧するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、
図11のプロセスを含む、後述するプロセスを例示するために使用される。
【0299】
図10Aは、タッチ感知ディスプレイ602を備えるスマートフォンである電子デバイス600を示す。いくつかの実施形態では、電子デバイス600は、デバイス100、300、及び/又は500の1つ以上の特徴を含む。電子デバイス600は、
図6A~
図6AGを参照して上述した再生ユーザインタフェース625を示す。
図10Aでは、再生ユーザインタフェース625は、第1の集約コンテンツアイテムの再生を表示し、第1の集約コンテンツアイテムの第1のメディアアイテム628Aを表示し、電子デバイスは、オーディオトラック1を再生する。
図10Bでは、第1の集約メディアの再生は、
図10Aから継続し、タイトル情報627が第1の表示領域から第2の表示領域に移動する。
図10Bでは、第1の集約コンテンツアイテムを再生している間に、電子デバイス600は、ユーザ入力1000(例えば、タップ入力及び/又は非タップ入力)を検出する。
【0300】
図10Cでは、ユーザ入力1000を検出したことに応じて、電子デバイス600は、
図6Hを参照して上述した複数の選択可能なオプション632A~632Fを表示する。複数の選択可能なオプション632A~632Fを表示し、かつ第1の集約コンテンツアイテムの再生を維持している間に、電子デバイス600は、コンテンツグリッドオプション632Fの選択に対応するユーザ入力1002(例えば、タップ入力)を検出する。
【0301】
図10Dでは、ユーザ入力1002を検出したことに応じて、電子デバイス600は、第1の集約コンテンツアイテムの再生を一時停止し(例えば、視覚及び/又はオーディオ再生を一時停止し)、コンテンツグリッドユーザインタフェース1004を表示する。コンテンツグリッドユーザインタフェース1004は、閉じるオプション1006A、共有オプション1006B、及びメニューオプション1006Cを含む。閉じるオプション1006Aは、コンテンツグリッドユーザインタフェース1004の表示を中止し、再生ユーザインタフェース625に戻るために選択可能である。共有オプション1006Bは、1つ以上の通信媒体を介して第1の集約コンテンツアイテムの1つ以上のメディアアイテムを共有する、かつ/又は第1の集約コンテンツアイテムを共有するプロセスを開始するために選択可能である。メニューオプション1006Cは、次の図でより詳細に説明するように、複数のオプションを表示するために選択可能である。コンテンツグリッドユーザインタフェース1004はまた、複数のタイル1008A~1008Oを含む。タイル1008A~1008Oのうちの異なるタイルは、第1の集約コンテンツアイテムに含まれる異なるメディアアイテムを表す。更に、タイル1008A~1008Oは、対応するメディアアイテムが第1の集約コンテンツアイテムの再生中に提示されるように構成されている順序を表す順序で配置されている。
図10Dでは、コンテンツグリッドユーザインタフェース1004を表示している間に、電子デバイス600は、メニューオプション1006Cの選択に対応するユーザ入力1010を検出する。
【0302】
図10Eでは、ユーザ入力1010に応じて、電子デバイス600は、複数の選択可能なオプション1012A~1012Jを表示する。オプション1012Aは、選択されたメディアアイテムを用いて様々なアクションをとる(例えば、選択されたメディアアイテムを共有及び/又は削除する)ために、1つ以上のメディアアイテム(例えば、1つ以上のメディアアイテムを表す1つ以上のタイル1008A~1008O)を選択するプロセスを開始するために選択可能である。オプション1012Bは、第1の集約コンテンツアイテムをお気に入りアルバムに追加するために選択可能である。オプション1012Cは、第1の集約コンテンツアイテムのタイトルを変更するプロセスを開始するために選択可能である。オプション1012Dは、第1の集約コンテンツアイテムに1つ以上のメディアアイテムを追加するために選択可能である。オプション1012Eは、第1の集約コンテンツアイテムを削除するために選択可能である。オプション1012Fは、電子デバイス600に、第1の集約コンテンツアイテムに類似するより少ない集約コンテンツアイテムが生成されるように、集約コンテンツアイテムを将来生成するためのその選択基準を修正させるために選択可能である。
【0303】
オプション1012G~1012Jは、第1の集約コンテンツアイテムに対する異なる持続時間オプションに対応し、第1の集約コンテンツアイテムの持続時間を修正及び/又は指定するために選択可能である。例えば、第1の集約コンテンツアイテムは、現在、オプション1012Gに対応する持続時間(例えば、短い持続時間)を有し、指定された持続時間は、10個のメディアアイテムの持続時間である。オプション1012Hは、第1の集約コンテンツアイテム内のメディアアイテムの数を(例えば、10個のメディアアイテムから30個のメディアアイテムに)増加させることによって、第1の集約コンテンツアイテムの持続時間を増加させるために選択可能である。オプション1012Iは、第1の集約コンテンツアイテム内のメディアアイテムの数を増加させることによって、第1の集約コンテンツアイテムの持続時間を更にもっと増加させるために選択可能である。図示の実施形態では、オプション1012Iは、特定の持続時間(例えば、1分28秒)に対応し、この持続時間は、第1の集約コンテンツアイテムを共有するために許容される最大持続時間に対応する。オプション1012Jは、第1の集約コンテンツアイテムに適用されたオーディオトラックの持続時間に一致するように、第1の集約コンテンツアイテムの持続時間を増加させるために選択可能である。
図10Eでは、オーディオトラック1は、第1の集約コンテンツアイテムに適用されており、3分15秒の持続時間を有する。したがって、
図10Eにおけるオプション1012Jの選択は、(例えば、約)3分15秒の総持続時間を有するように、(例えば、1つ以上のメディアアイテムを追加及び/若しくは除去すること、並びに/又は第1の集約コンテンツアイテム内のメディアアイテムの表示持続時間を修正することによって)第1の集約コンテンツアイテムを修正させる。しかしながら、この持続時間は1分28秒よりも長いので、オプション1012Jの選択は、第1の集約コンテンツアイテムが他のユーザ及び/又はデバイスと共有されることを禁止する。
図10Jでは、電子デバイス600は、オプション1012Dの選択に対応するユーザ入力1014(例えば、タップ入力)を検出する。
【0304】
図10Fでは、オプション1012Dの選択に対応するユーザ入力1014を検出したことに応じて、電子デバイス600は、メディアアイテム追加ユーザインタフェース1015を表示する。メディアアイテム追加ユーザインタフェース1015は、メディアアイテム追加動作をキャンセルする(例えば、かつ任意選択的に、コンテンツグリッドユーザインタフェース1004に戻る)ために選択可能なキャンセルオプション1016Aと、1つ以上の選択されたコンテンツアイテムを第1の集約コンテンツアイテムに追加するために選択可能な終了オプション1016Bとを含む。
【0305】
メディアアイテム追加ユーザインタフェース1015は、第1の集約コンテンツアイテムに現在含まれていない複数のメディアアイテム(例えば、写真及び/又はビデオ)を表す複数のタイル1018A~1018Oを含む。図示の実施形態では、メディアアイテム追加ユーザインタフェース1015に表される複数のメディアアイテムは、各メディアアイテムに示されたコンテンツ、及び第1の集約コンテンツアイテムに対するメディアアイテムの関連性に基づいて、メディアアイテム追加ユーザインタフェース1015に含めるために選択される。メディアアイテム追加ユーザインタフェース1015はまた、ユーザのメディアライブラリ内の全ての写真の表現(例えば、タイル)を表示するために選択可能なオプション1016Cと、電子デバイス600に記憶された複数のメディアアイテム集合(例えば、アルバム)を表示するために選択可能なオプション1016Dとを含む。
図10Fでは、メディアアイテム追加ユーザインタフェース1015を表示している間に、電子デバイス600は、タイル1018Hの選択に対応するユーザ入力1020(例えば、タップ入力)を検出する。
【0306】
図10Gでは、ユーザ入力1020を検出したことに応じて、電子デバイス600は、タイル1018Hが現在選択されていることを示す選択インジケーション1022をタイル1018H上に表示する。
図10Hでは、タイル1018Hが選択されている間に、電子デバイス600は、終了オプション1016Bの選択に対応するユーザ入力1024を検出する。
【0307】
図10Hでは、ユーザ入力1024を検出したことに応じて、電子デバイス600は、メディアアイテム追加ユーザインタフェース1015の表示を中止し、コンテンツグリッドユーザインタフェース1004を再表示する。更に、タイル1008が選択されている間にユーザ入力1024を検出したことに応じて、コンテンツグリッドユーザインタフェース1004は、第1の集約コンテンツアイテムに追加された新しいメディアアイテムを表す新しいタイル1018Pを含む。
図10Hでは、新しいタイル1008Pは、タイル1008Pに対応するメディアアイテムがキャプチャされた日付及び/又は時間に基づいて、コンテンツグリッドユーザインタフェース1004内の位置に(したがって、第1の集約コンテンツアイテム内のメディアアイテムのシーケンス内に)追加されている。
図10Hでは、電子デバイス600は、タイル1008Kに対応するドラッグアンドドロップジェスチャであるユーザ入力1026を検出する。
【0308】
図10Iでは、ドラッグアンドドロップユーザ入力1026に応じて、電子デバイス600は、コンテンツグリッドユーザインタフェース1004内の第1の位置からコンテンツグリッドユーザインタフェース1004内の第2の位置に移動されたタイル1008Kを表示する。上述したように、コンテンツグリッドユーザインタフェース1004は、第1の集約コンテンツアイテムの再生中にメディアアイテムが提示される順序を示す順序でメディアアイテムを表すタイルを表示する。例えば、
図10Iでは、タイル1008Aは、第1の集約コンテンツアイテムの再生中に提示される第1のメディアアイテムに対応する位置に表示され、タイル1008Bは、第1の集約コンテンツアイテムの再生中に提示される第2のメディアアイテムに対応する位置に表示される、などである。したがって、タイル1008Kに対応するメディアアイテムは、
図10Hでは、メディアアイテムが第1の集約コンテンツアイテムの再生中に12番目のメディアアイテムとして提示されることを示す位置に以前に提示されていた。しかしながら、ドラッグアンドドロップユーザ入力1026の後、タイル1008Kは、ここで、
図10Iでは、メディアアイテムが第1の集約コンテンツアイテムの再生中に7番目のメディアアイテムとして提示されることを示す位置に提示される。したがって、第1の集約コンテンツアイテムにメディアアイテムを追加及び/又は削除することに加えて、コンテンツグリッドユーザインタフェース1004は、第1の集約コンテンツアイテムの再生中にメディアアイテムが提示される順序を(例えば、1つ以上のドラッグアンドドロップユーザ入力を介して)ユーザが再配置することを可能にする。
図10Iでは、電子デバイス600は、メニューオプション1006Cの選択に対応するユーザ入力1028(例えば、タップ入力)を検出する。
【0309】
図10Jでは、ユーザ入力1028に応じて、電子デバイス600は、オプション1012A~1012Jを表示する。オプション1012A~1012Jを表示している間に、電子デバイス600は、オプション1012Aの選択に対応するユーザ入力1030(例えば、タップ入力)を検出する。
図10Kでは、ユーザ入力1030に応じて、電子デバイス600は、選択ユーザインタフェース1032を表示する。選択ユーザインタフェース1032は、ユーザが1つ以上のメディアアイテムを選択することを可能にし、その結果、ユーザは、選択されたメディアアイテムを用いて1つ以上のアクションを取ることができる。選択ユーザインタフェース1032は、第1の集約コンテンツアイテム内の全てのメディアアイテムを選択するために選択可能なオプション1034Aと、選択ユーザインタフェース1032の表示を中止し、かつ任意選択的にコンテンツグリッドユーザインタフェース1004を再表示するために選択可能なオプション1034Bとを含む。選択ユーザインタフェース1032はまた、1つ以上の選択されたメディアアイテムを共有するプロセスを開始するために選択可能な共有オプション1034Cと、1つ以上の選択されたメディアアイテムを削除する(例えば、第1の集約コンテンツアイテムから1つ以上の選択されたメディアアイテムを除去する)プロセスを開始するために選択可能な削除オプション1034Dとを含む。図示の実施形態では、共有オプション1034C及び削除オプション1034Dは、任意のコンテンツアイテムが選択されていなくても表示される。いくつかの実施形態では、共有オプション1034C及び削除オプション1034Dは、最初に表示されず、かつ/又は最初に選択可能ではないが、1つ以上のメディアアイテム(例えば、1つ以上のタイル1008A~1008P)が選択されたことに応じて表示され、かつ/又は選択可能になる。選択ユーザインタフェース1032はまた、複数のタイル1008A~1008Jを含み、各タイル1008A~1008Jは、第1の集約コンテンツアイテムに含まれる個別のメディアアイテムを表す。
図10Jでは、選択ユーザインタフェース1032を表示している間に、電子デバイス600は、タイル1008Bの選択に対応するユーザ入力1036A、及びタイル1008Eの選択に対応するユーザ入力1036B(例えば、タップ入力)を検出する。
【0310】
図10Lでは、ユーザ入力1036A及び1036Bに応じて、電子デバイス600は、タイル1008B及び1008E上に選択インジケーション1038A及び1038Bそれぞれを表示し、これら2つのタイルが現在選択されていることを示す。
図10Lでは、電子デバイス600は、共有オプション1034Cの選択に対応するユーザ入力1040(例えば、タップ入力)を検出する。
【0311】
図10Mでは、ユーザ入力1040に応じて、電子デバイス600は、共有ユーザインタフェース1042を表示する。共有ユーザインタフェース1042は、共有ユーザインタフェース1042の表示を中止する(例えば、かつ共有動作をキャンセルする)ために選択可能な閉じるオプション1048を含む。共有ユーザインタフェース1042は、オプション1044A~1044Dを含む。オプション1044A~1044Dのうちの異なるオプションは、異なるユーザ又はユーザのグループに対応し、個別のオプション1044A~1044Dの選択は、選択されたメディアアイテムを、選択されたオプションに関連付けられた対応するユーザ又はユーザのグループと共有するプロセスを開始する。共有ユーザインタフェース1042はまた、オプション1046A~1046Dを含む。オプション1046A~1046Dのうちの異なるオプションは、異なる通信媒体に対応する(例えば、オプション1046Aは、近距離通信に対応し、オプション1046Bは、SMSメッセージ及び/又はインスタントメッセージングに対応し、オプション1046Cは、電子メールに対応し、オプション1046Dは、インスタントメッセージングに対応する)。個別のオプション1046A~1046Dの選択は、選択オプションに関連付けられた対応する通信媒体を介して選択されたメディアアイテムを共有するプロセスを開始する。
図10Mでは、電子デバイス600は、閉じるオプション1048の選択に対応するユーザ入力1050(例えば、タップ入力)を検出する。
【0312】
図10Nでは、ユーザ入力1050を検出したことに応じて、電子デバイス600は、共有ユーザインタフェース1042の表示を中止し、選択ユーザインタフェース1032を表示する。
図10Nでは、タイル1008B及び1008Eは、選択されたまま継続する。
図10Nでは、電子デバイス600は、削除オプション1034Dの選択に対応するユーザ入力1052(例えば、タップ入力)を検出する。
【0313】
図10Oでは、ユーザ入力1052を検出したことに応じて、電子デバイス600は、オプション1054A、1054Bを表示する。オプション1054Aは、第1の集約コンテンツアイテムから2つの選択されたメディアアイテムを除去するために選択可能である。オプション1054Bは、ユーザのメディアライブラリから2つの選択されたメディアアイテムを削除するために選択可能である。
図10Oでは、電子デバイス600は、オプション1054Aの選択に対応するユーザ入力1056(例えば、タップ入力)を検出する。
【0314】
図10Pでは、ユーザ入力1056に応じて、電子デバイスは、コンテンツグリッドユーザインタフェース1004を表示する。コンテンツグリッドユーザインタフェース1004では、ユーザ入力1056に応じて、タイル1008B及び1008Eが除去されており、これらのタイルに関連付けられたメディアアイテムが第1の集約コンテンツアイテムから除去されたことを示す。
【0315】
上記に示されるように、コンテンツグリッドユーザインタフェース1004及びコンテンツグリッドユーザインタフェース1004内に提示される種々のオプションは、ユーザが第1の集約コンテンツアイテム内のメディアアイテムを追加、除去、及び/又は再順序付けすることを可能にする。更に、第1の集約コンテンツアイテム内のメディアアイテムの追加、除去、及び/又は再順序付けはまた、第1の集約コンテンツアイテムの再生中にメディアアイテム間に提示される視覚遷移の変更を引き起こすことができる。例えば、いくつかの実施形態では、第1の集約コンテンツアイテム内の2つの隣接するメディアアイテム間の視覚遷移は、2つのメディアアイテム間の類似性のレベルに基づいて選択することができる。例えば、2つのメディアアイテムが類似していると判定された場合、第1のタイプの視覚遷移が2つのメディアアイテム間で使用されてもよく、2つのメディアアイテムが実質的に類似していないと判定された場合、第2のタイプの視覚遷移が2つのメディアアイテム間で使用されてもよい。
【0316】
図10Pでは、電子デバイス600は、タイル1008Gの選択に対応するユーザ入力1058(例えば、タップ入力)を検出する。
図10Qでは、ユーザ入力1058に応じて、電子デバイスは、コンテンツグリッドユーザインタフェース1004の表示を中止し、再生ユーザインタフェース625内に第1の集約コンテンツアイテムの再生を表示する。タイル1008Gは、マシュマロを有する野外炉の写真であるメディアアイテム628Hを表していた。コンテンツグリッドユーザインタフェース1004内のタイル1008Gを選択するユーザ入力1058に応じて、電子デバイス600は、メディアアイテム628Hから始まる第1の集約コンテンツアイテムの再生を再開する。
図10Rでは、メディアアイテム628Hの表示が次のメディアアイテム628Jの表示に遷移するにつれて、第1の集約コンテンツアイテムの再生が継続する。
図10Sでは、第1の集約コンテンツアイテムの再生は、最後のメディアアイテム628Zが表示されるまで進行しており、(上述した)次のコンテンツアイテムユーザインタフェース800が表示される。
【0317】
図11は、いくつかの実施形態に係る、コンピュータシステムを使用してコンテンツアイテムの表現を閲覧する方法を示すフロー図である。方法1100は、表示生成構成要素(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、及び/又はディスプレイ(例えば、一体化及び/又は接続された))及び1つ以上の入力デバイス(例えば、タッチ感知面(例えば、タッチ感知ディスプレイ)、マウス、キーボード、及び/又はリモートコントロール)と通信しているコンピュータシステム(例えば、100、300、500)(例えば、スマートフォン、スマートウォッチ、タブレット、デジタルメディアプレーヤ、コンピュータセットトップエンターテイメントボックス、スマートTV、及び/又は外部ディスプレイを制御するコンピュータシステム)において実行される。方法1100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
【0318】
後述するように、方法1100は、コンテンツアイテムを閲覧及び管理する直観的な方法を提供する。この方法は、コンテンツアイテムを閲覧及び管理する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合、ユーザがより速くかつより効率的にコンテンツアイテムを閲覧及び編集することが可能になることにより、電力が節約され、バッテリ充電の間隔が長くなる。
【0319】
コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、
図10A~
図10Cの628A)を再生し(1102)(例えば、表示生成構成要素を介して、第1の集約コンテンツアイテムの視覚コンテンツを表示し)(例えば、ビデオ、及び/又は複数のコンテンツアイテムから自動的に生成されたコンテンツアイテム)(いくつかの実施形態では、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツ及びオーディオコンテンツを再生し)、第1の集約コンテンツアイテムは、選択基準の第1のセットに基づいてコンテンツアイテムのセットから(例えば、自動的に、かつ/又はユーザ入力なしに)選択された第1の複数のコンテンツアイテムの順序付けられたシーケンスを含む(例えば、第1の集約コンテンツアイテムは、複数の写真及び/若しくはビデオの順序付けられたシーケンス並びに/又は写真及び/若しくはビデオの自動的に生成された集合(例えば、1つ以上の共有特性に基づいてコンテンツアイテムのセットから自動的に集約及び/若しくは選択された写真及び/若しくはビデオの集合)を示す)。いくつかの実施形態では、第1の複数のコンテンツアイテムを構成する複数の写真及び/又はビデオは、コンピュータシステムに関連付けられた(例えば、コンピュータシステムに記憶された、コンピュータシステムのユーザに関連付けられた、かつ/又はコンピュータシステムに関連付けられた(例えば、サインインした)ユーザアカウントに関連付けられた)写真及び/又はビデオのセットから選択される。
【0320】
第1の集約コンテンツアイテムの視覚コンテンツを再生している間に(1104)、コンピュータシステムは、1つ以上の入力デバイスを介して、ユーザ入力(例えば、1002)(例えば、(例えば、タッチ感知ディスプレイ及び/又はタッチ感知面を介した)ジェスチャ(例えば、タップジェスチャ、スワイプジェスチャ)及び/又は音声入力)(例えば、オプションの選択に対応するユーザ入力及び/又は第1の集約コンテンツアイテムの再生を一時停止する要求に対応するユーザ入力)を検出する(1106)。
【0321】
ユーザ入力を検出したことに応じて(1108)、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止し(1110)(例えば、第1の集約コンテンツアイテムの視覚コンテンツのビデオ再生をフリーズ及び/又は中止し)、表示生成構成要素を介して、ユーザインタフェース(例えば、1004)を表示し(1112)(例えば、第1の集約コンテンツアイテムの視覚コンテンツの表示をユーザインタフェースの表示に置き換える、かつ/又は第1の集約コンテンツアイテムの視覚コンテンツ上にユーザインタフェースを重ね合わせる)、ユーザインタフェースを表示することは、(例えば、第1の複数のコンテンツアイテム内にないコンテンツアイテムを表示することなく)第1の複数のコンテンツアイテムのうちの第1のコンテンツアイテム(例えば、1008A~1008O)の第1の表現と、第1の複数のコンテンツアイテムのうちの第2のコンテンツアイテム(例えば、1008A~1008O)の第2の表現とを含む、第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現を同時に表示することを含む。いくつかの実施形態では、ユーザ入力は、(例えば、第1の集約コンテンツアイテムの再生内に、かつ/又はその一部として)複数のコンテンツアイテムのうちの個別のコンテンツアイテムが表示されている間に検出される。いくつかの実施形態では、ユーザインタフェースは、個別のコンテンツアイテムの表現を含む。いくつかの実施形態では、個別のコンテンツアイテムが表示されている間にユーザ入力が検出されたとの判定に従って、ユーザインタフェースは、個別のコンテンツアイテムの表現を含む。第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現を同時に表示することを含む、ユーザインタフェースを表示することにより、デバイスの現在の状態に関する(例えば、デバイスによって再生されている第1の集約コンテンツアイテムが第1の複数のコンテンツアイテムを含むという)フィードバックをユーザに提供する。
【0322】
いくつかの実施形態では、第1のコンテンツアイテムは、第1の集約コンテンツアイテムの第1の再生位置(例えば、第1の再生時間)に対応する。いくつかの実施形態では、第2のコンテンツアイテムは、第1の再生位置とは異なる第1の集約コンテンツアイテムの第2の再生位置(例えば、第2の再生時間)に対応する。いくつかの実施形態では、第1のコンテンツアイテムの第1の表現(例えば、1008A~1008O)及び第2のコンテンツアイテムの第2の表現(例えば、1008A~1008O)を同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、選択入力(例えば、1058)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入)を検出する。選択入力を検出したことに応じて、選択入力が第1のコンテンツアイテムの第1の表現の選択(例えば、第1のコンテンツアイテムの第1の表現上のタップ入力、並び/又は第1のコンテンツアイテムの第1の表現が選択及び/若しくはフォーカスされている間のリモートコントロール入力)に対応するとの判定に従って、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを第1の再生位置から再生し(例えば、
図10P~
図10Q)、選択入力が第2のコンテンツアイテムの第2の表現の選択(例えば、第2のコンテンツアイテムの第2の表現上のタップ入力、並び/又は第2のコンテンツアイテムの第2の表現が選択及び/若しくはフォーカスされている間のリモートコントロール入力)に対応するとの判定に従って、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを第2の再生位置から再生する(例えば、
図10P~
図10Q)。いくつかの実施形態では、選択入力を検出したことに応じて、選択入力が第1のコンテンツアイテムの第1の表現の選択に対応するとの判定に従って、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを第1の再生位置から再生し、視覚コンテンツの第1の再生位置に対応する第3の再生位置からオーディオコンテンツを再生し、選択入力が第2のコンテンツアイテムの第2の表現の選択に対応するとの判定に従って、コンピュータシステムは、第1の集約コンテンツアイテムの視覚コンテンツを第2の再生位置から再生し、視覚コンテンツの第2の再生位置に対応する第4の再生位置からオーディオコンテンツを再生する。選択入力に基づいて第1の再生位置から又は第2の再生位置から視覚コンテンツを再生することにより、ユーザが第1の集約コンテンツアイテム内の特定の再生位置に迅速にナビゲートすることを可能にし、それによって、第1の集約コンテンツアイテム内の特定の再生位置にナビゲートするために必要とされる入力の数を低減する。
【0323】
いくつかの実施形態では、コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムに1つ以上のコンテンツアイテムを追加するプロセスを開始するために選択可能なコンテンツ追加オプション(例えば、1012D)を表示する。コンテンツ追加オプションを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、コンテンツ追加オプションの選択に対応する第2の選択入力(例えば、1014)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第2の選択入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第3のコンテンツアイテムの第3の表現(例えば、1018A~1018O)と、第4のコンテンツアイテムの第4の表現(例えば、1018A~1018O)とを同時に表示することを含む、第1の集約コンテンツアイテムに含まれない複数のコンテンツアイテムの表現(例えば、1018A~1018O)を表示する。いくつかの実施形態では、コンピュータシステムは、第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現の表示を中止する、かつ/又は第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現の表示を、第1の集約コンテンツアイテムに含まれない複数のコンテンツアイテムの表現の表示(例えば、ユーザのメディアライブラリのビュー)に置き換える。第3のコンテンツアイテムの第3の表現及び第4のコンテンツアイテムの第4の表現を同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、(例えば、第4のコンテンツアイテムを第1の集約コンテンツアイテムに追加することなく)第3のコンテンツアイテムを第1の集約コンテンツアイテムに追加する要求に対応する入力の第1のセット(例えば、1020、1024)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。入力の第1のセットを検出したことに応じて、コンピュータシステムは、(例えば、第4のコンテンツアイテムを第1の集約コンテンツアイテムに追加することなく)第3のコンテンツアイテムを含むように第1の集約コンテンツアイテムを修正した(例えば、
図10H、第1の集約コンテンツアイテムに追加されている新しいメディアアイテムを表す新しいタイル1008Pを追加する)。いくつかの実施形態では、コンピュータシステムは、第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現の表示を中止する、かつ/又は第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現の表示を、第1の集約コンテンツアイテムに含まれない複数のコンテンツアイテムの表現の表示(例えば、ユーザのメディアライブラリのビュー)に置き換える。入力の第1のセットに応じて、第3のコンテンツアイテムを含むように第1の集約コンテンツアイテムを修正することにより、ユーザが第1の集約コンテンツアイテムにコンテンツアイテムを迅速に追加することを可能にし、それによって、第1の集約コンテンツアイテムにコンテンツアイテムを追加するために必要とされる入力の数を低減する。
【0324】
いくつかの実施形態では、第3のコンテンツアイテムの第3の表現(例えば、1018A~1018O)を表示することは、(例えば、第3のコンテンツアイテムに関連付けられたメタデータ(例えば、位置データ及び/又は時間データ)に基づいて(例えば、第3のコンテンツアイテムに関連付けられた位置データは、第1の集約コンテンツアイテムの位置データに対応し、及び/又は第3のコンテンツアイテムに関連付けられた時間データは、第1の集約コンテンツアイテムの時間データに対応する))第3のコンテンツアイテムが第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たすとの判定に従って、第3のコンテンツアイテムの表現を第1の方式で表示すること(例えば、第3のコンテンツアイテムの表現を強調表示すること(例えば、第3のコンテンツアイテムを色の第1のセット及び/又は第1の輝度レベルで表示すること))と、(例えば、第3のコンテンツアイテムに関連付けられたメタデータ(例えば、位置データ及び/又は時間データ)に基づいて(例えば、第3のコンテンツアイテムに関連付けられた位置データは、第1の集約コンテンツアイテムの位置データに対応せず、及び/又は第3のコンテンツアイテムに関連付けられた時間データは、第1の集約コンテンツアイテムの時間データに対応しない))第3のコンテンツアイテムが第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たさないとの判定に従って、第1の方式とは異なる第2の方式で第3のコンテンツアイテムの表現を表示すること(例えば、第3のコンテンツアイテムの表現を視覚的に目立たなくすること(例えば、第3のコンテンツアイテムを色の第2のセット及び/又は(例えば、第1の輝度レベルより暗い)第2の輝度レベルで表示すること))と、を含む。いくつかの実施形態では、第4のコンテンツアイテムの第4の表現(例えば、1018A~1018O)を表示することは、(例えば、第4のコンテンツアイテムに関連付けられたメタデータ(例えば、位置データ及び/又は時間データ)に基づいて(例えば、第4のコンテンツアイテムに関連付けられた位置データは、第1の集約コンテンツアイテムの位置データに対応し、及び/又は第4のコンテンツアイテムに関連付けられた時間データは、第1の集約コンテンツアイテムの時間データに対応する)第4のコンテンツアイテムが第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たすとの判定に従って、第4のコンテンツアイテムの表現を第1の方式で表示することと、(例えば、第4のコンテンツアイテムに関連付けられたメタデータ(例えば、位置データ及び/又は時間データ)に基づいて(例えば、第4のコンテンツアイテムに関連付けられた位置データは、第1の集約コンテンツアイテムの位置データに対応せず、及び/又は第4のコンテンツアイテムに関連付けられた時間データは、第1の集約コンテンツアイテムの時間データに対応しない))第4のコンテンツアイテムが第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たさないとの判定に従って、第4のコンテンツアイテムの表現を第2の方式で表示することと、を含む。第4のコンテンツアイテムが1つ以上の関連性基準を満たすとの判定に従って、第4のコンテンツアイテムを第1の方式で表示することにより、デバイスの現在の状態に関する(例えば、第4のコンテンツアイテムが第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たすとデバイスが判定したという)フィードバックをユーザに提供する。
【0325】
いくつかの実施形態では、コンピュータシステムは、表示生成構成要素を介して、第1の集約コンテンツアイテムに関連する追加のコンテンツを表示するプロセスを開始するために選択可能な関連コンテンツオプション(例えば、1012D)を表示する(例えば、写真追加オプション1012Dの選択は、第1の集約コンテンツアイテムに関連すると判定された追加の写真を(例えば、
図10Fで)表示する)(例えば、第1の集約コンテンツアイテムに現在含まれておらず、かつ第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たす、1つ以上の写真及び/又はビデオ)。関連コンテンツオプション(例えば、1012D)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、関連コンテンツオプションの選択に対応する第3の選択入力(例えば、1014)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第3の選択入力を検出したことに応じて、(例えば、第5のコンテンツアイテムに関連付けられたメタデータ(例えば、位置データ及び/又は時間データ)に基づいて(例えば、第5のコンテンツアイテムに関連付けられた位置データは、第1の集約コンテンツアイテムの位置データに対応し、及び/又は第5のコンテンツアイテムに関連付けられた時間データは、第1の集約コンテンツアイテムの時間データに対応する))メディアライブラリ(例えば、コンピュータシステムのユーザによって撮影された写真及び/又はビデオ(例えば、コンピュータシステムのカメラ又はユーザに関連付けられた他のデバイスの1つ以上のカメラを使用して、ユーザによって撮影された、かつ/又は専用デジタルカメラからアップロードされたスキャンされた物理的写真)のメディアライブラリ)の第5のコンテンツアイテムが第1の集約コンテンツアイテムに含まれておらず、かつ第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たすとの判定に従って、コンピュータシステムは、表示生成構成要素を介して、第5のコンテンツアイテムの表現(例えば、1018A~1018O)を表示し、(例えば、第5のコンテンツアイテムに関連付けられたメタデータ(例えば、位置データ及び/又は時間データ)に基づいて(例えば、第5のコンテンツアイテムに関連付けられた位置データは、第1の集約コンテンツアイテムの位置データに対応せず、及び/又は第5のコンテンツアイテムに関連付けられた時間データは、第1の集約コンテンツアイテムの時間データに対応しない))メディアライブラリの第5のコンテンツアイテムが第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たさないとの判定に従って、コンピュータシステムは、第5のコンテンツアイテムの表現を表示することを取り止める。いくつかの実施形態では、第3の選択入力を検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムに含まれておらず、かつ第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たす、1つ以上のコンテンツアイテムの表現(例えば、複数のコンテンツアイテムの表現)を表示し、第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たさない1つ以上のコンテンツアイテムの表現を表示することを取り止める(複数のコンテンツアイテムの表現を表示することを取り止める)。第5のコンテンツアイテムが第1の集約コンテンツアイテムに含まれておらず、かつ第1の集約コンテンツアイテムに関する1つ以上の関連性基準を満たすとの判定に従って、第5のコンテンツアイテムの表現を表示することにより、第1の集約コンテンツアイテムに含まれておらず、かつ第1の集約コンテンツアイテムに関する関連性基準を満たすコンテンツアイテムをユーザが迅速に閲覧することを可能にし、それによって、そのようなコンテンツアイテムを閲覧するために必要とされる入力の数を低減する。
【0326】
いくつかの実施形態では、第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現(例えば、1008A~1008P)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のコンテンツアイテムを含む第1の複数のコンテンツアイテムのうちの1つ以上のコンテンツアイテムの選択に対応する第4の選択入力(例えば、1036A、1036B)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第4の選択入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、1つ以上の通信媒体(例えば、テキストメッセージ、電子メール、近距離無線通信及び/若しくはファイル転送、共有メディアアルバムへのアップロード、並びに/又はサードパーティプラットフォームへのアップロード)を介して選択された1つ以上のコンテンツアイテムを(例えば、1つ以上の外部コンピュータシステム及び/又は1人以上のユーザに)共有するプロセスを開始するために選択可能な共有オプション(例えば、1034C)を表示する。いくつかの実施形態では、共有オプションを表示している間に(例えば、かつ1つ以上のコンテンツアイテムが選択されている間に)、コンピュータシステムは、1つ以上の入力デバイスを介して、共有オプションの選択に対応する選択入力を検出し、選択入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、共有ユーザインタフェースを表示し、共有ユーザインタフェースを表示することは、第1の通信媒体(例えば、テキストメッセージ、電子メール、近距離無線通信及び/若しくはファイル転送、共有メディアアルバムへのアップロード、並びに/又はサードパーティプラットフォームへのアップロード)を介して選択された1つ以上のコンテンツアイテムを共有するプロセスを開始するために選択可能な第1のオプションと、第1の通信媒体とは異なる第2の通信媒体を介して選択された1つ以上のコンテンツアイテムを共有するプロセスを開始するために選択可能な第2のオプションとを同時に表示することを含む。1つ以上の通信媒体を介して選択された1つ以上のコンテンツアイテムを共有するプロセスを開始するために選択可能な共有オプションを表示することにより、ユーザがコンテンツアイテムを迅速に共有することを可能にし、それによって、コンテンツアイテムを共有するために必要とされる入力の数を低減する。
【0327】
いくつかの実施形態では、第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現(例えば、1008A~1008P)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のコンテンツアイテムを含む第1の複数のコンテンツアイテムのうちの1つ以上のコンテンツアイテムの選択に対応する第5の選択入力(例えば、1036A、1036B)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第5の選択入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、(例えば、第1の集約コンテンツアイテムが再生されたときに、除去されたコンテンツアイテムがもはや表示されないように)選択された1つ以上のコンテンツアイテムを第1の集約コンテンツアイテムから除去するプロセスを開始するために選択可能な除去オプション(例えば、1034D)を表示する。いくつかの実施形態では、除去オプションを表示した後に(例えば、除去オプションを表示している間に)、コンピュータシステムは、1つ以上の入力デバイスを介して、選択された1つ以上のコンテンツアイテムを第1の集約コンテンツアイテムから除去する要求に対応する1つ以上の入力を検出し、1つ以上の入力を検出したことに応じて、コンピュータシステムは、選択された1つ以上のコンテンツアイテムを除去するように第1の集約コンテンツアイテムを修正する。選択された1つ以上のコンテンツアイテムを第1の集約コンテンツアイテムから除去するプロセスを開始するために選択可能な除去オプションを表示することにより、ユーザが第1の集約コンテンツアイテムからアイテムを迅速に除去することを可能にし、それによって、第1の集約コンテンツアイテムからコンテンツアイテムを除去するために必要とされる入力の数を低減する。
【0328】
いくつかの実施形態では、ユーザインタフェースを表示する前に、第1のコンテンツアイテムは、第1の複数のコンテンツアイテムの順序付けられたシーケンス内の第1の連続位置に配置されている。いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生することは、順序付けられたシーケンスに従って第1の複数のコンテンツアイテムのコンテンツアイテムを順次表示することを含む。いくつかの実施形態では、ユーザインタフェースを表示することは、第1の連続位置に対応する第1の表示位置に第1のコンテンツアイテムの第1の表現を表示することを含む(例えば、メディアアイテム628Aを表すタイル1008Aは、第1の位置に表示され、メディアアイテムを表すタイル1008Kは、11番目の位置に表示される)。第1の複数のコンテンツアイテム内のコンテンツアイテムの複数の表現を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のコンテンツアイテムの第1の表現(例えば、1008K)に対応するジェスチャ(例えば、1026)(例えば、ホールドアンドドラッグジェスチャ及び/又は異なるジェスチャ)を検出する。ジェスチャを検出したことに応じて、コンピュータシステムは、第1のコンテンツアイテムの第1の表現を第1の表示位置から第1の表示位置とは異なる第2の表示位置に移動させ(例えば、
図10H~
図10I、タイル1008Kは、ユーザ入力1026に基づいて1つの位置から別の位置に移動する)、第2の表示位置は、第1の複数のコンテンツアイテムの順序付けられたシーケンス内の第2の連続位置に対応する(例えば、ジェスチャに従って第1のコンテンツアイテムの表現を移動させる)。コンピュータシステムは、第1のコンテンツアイテムを第1の連続位置から第2の連続位置に移動させることを含む、第1の複数のコンテンツアイテムの順序付けられたシーケンスを再順序付けする。コンピュータシステムは、第1の複数のコンテンツアイテムの順序付けられたシーケンスの再順序付けに基づいて、第1の集約コンテンツアイテムを修正する(例えば、(例えば、順序付けられたシーケンス内の第1の連続位置から第2の連続位置への第1のコンテンツアイテムの移動に基づいて)第1の集約コンテンツアイテムの視覚コンテンツの再生中に第1の複数のコンテンツアイテムのコンテンツアイテムが表示されるシーケンスを変更する)。第1のコンテンツアイテムの表現を第1の表示位置から第2の表示位置に移動させるジェスチャに基づいて、第1の集約コンテンツアイテムを修正することにより、ユーザが第1の集約コンテンツアイテム内のコンテンツアイテムを迅速に再順序付けすることを可能にし、それによって、第1の集約コンテンツアイテム内のコンテンツアイテムを再順序付けするために必要とされる入力の数を低減する。
【0329】
いくつかの実施形態では、ユーザインタフェース(例えば、1004)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、ユーザ入力のセット(例えば、1010)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。ユーザ入力のセットを検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、コンテンツアイテムの第1の数(例えば、10個のコンテンツアイテム、15個のコンテンツアイテム、及び/又は20個のコンテンツアイテム)に対応する第1のコンテンツ長オプション(例えば、1012G)であって、第1のコンテンツ長オプションを表示することが、コンテンツアイテムの第1の数を表示することを含む(いくつかの実施形態では、コンテンツアイテムの第1の数は、第1のコンテンツ長オプションが選択された場合に第1の集約コンテンツアイテムに含まれるコンテンツアイテムの数を示す)、第1のコンテンツ長オプションと、コンテンツアイテムの第1の数とは異なるコンテンツアイテムの第2の数(例えば、25個のコンテンツアイテム、30個のコンテンツアイテム、及び/又は35個のコンテンツアイテム)に対応する第2のコンテンツ長オプション(例えば、1012H)であって、第2のコンテンツ長オプションを表示することが、コンテンツアイテムの第2の数を表示することを含む(いくつかの実施形態では、コンテンツアイテムの第2の数は、第2のコンテンツ長オプションが選択された場合に第1の集約コンテンツアイテムに含まれるコンテンツアイテムの数を示す)、第2のコンテンツ長オプションとを同時に表示する。いくつかの実施形態では、第1のコンテンツ長オプション及び第2のコンテンツ長オプションを同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、選択入力を検出し、選択入力を検出したことに応じて、選択入力が第1のコンテンツ長オプションの選択に対応するとの判定に従って、コンピュータシステムは、第1の数のコンテンツアイテムを含むように第1の集約コンテンツアイテムを修正し(例えば、第1の集約コンテンツアイテムが(例えば、正確に)第1の数のコンテンツアイテムを含むように、第1の集約コンテンツアイテムにコンテンツアイテムを追加及び/又は第1の集約コンテンツアイテムからコンテンツアイテムを除去する)、選択入力が第2のコンテンツ長オプションの選択に対応するとの判定に従って、コンピュータシステムは、第2の数のコンテンツアイテムを含むように第1の集約コンテンツアイテムを修正する(例えば、第1の集約コンテンツアイテムが(例えば、正確に)第2の数のコンテンツアイテムを含むように、第1の集約コンテンツアイテムにコンテンツアイテムを追加及び/又は第1の集約コンテンツアイテムからコンテンツアイテムを除去する)。第1のコンテンツ長オプション及び第2のコンテンツ長オプションを表示することにより、ユーザが第1の集約コンテンツアイテムの長さを迅速に修正することを可能にし、それによって、第1の集約コンテンツアイテムの長さを修正するために必要とされる入力の数を低減する。
【0330】
いくつかの実施形態では、ユーザインタフェース(例えば、1004)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、ユーザ入力の第2のセット(例えば、1010)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。ユーザ入力の第2のセットを検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、コンテンツアイテムの第1の数(例えば、第1の再生持続時間)に対応する第3のコンテンツ長オプション(例えば、1012G)と、コンテンツアイテムの第1の数とは異なるコンテンツアイテムの第2の数(例えば、第1の再生持続時間とは異なる第2の再生持続時間)に対応する第4のコンテンツ長オプション(例えば、1012H)とを同時に表示する。第3のコンテンツ長オプション(例えば、1012G)及び第4のコンテンツ長オプション(例えば、1012H)を同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第6の選択入力(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。第6の選択入力を検出したことに応じて、第6の選択入力が第3のコンテンツ長オプションの選択に対応するとの判定に従って、コンピュータシステムは、第1の数のコンテンツアイテムの表現を表示する(例えば、正確に第1の数のコンテンツアイテムを表示する)ようにユーザインタフェース(例えば、1004)を修正し、第6の選択入力が第4のコンテンツ長オプションの選択に対応するとの判定に従って、コンピュータシステムは、第2の数のコンテンツアイテムの表現を表示する(例えば、正確に第2の数のコンテンツアイテムを表示する)ようにユーザインタフェース(例えば、1004)を修正する。第6の選択入力に応じて、第1の数のコンテンツアイテム又は第2の数のコンテンツアイテムの表現を表示するようにユーザインタフェースを修正することにより、デバイスの現在の状態に関する(例えば、デバイスが、第6の選択入力に応じて、第1の数のコンテンツアイテム又は第2の数のコンテンツアイテムを含むように第1の集約コンテンツアイテムを修正したという)フィードバックをユーザに提供する。
【0331】
いくつかの実施形態では、ユーザインタフェース(例えば、1004)を表示した後に(例えば、ユーザインタフェースを表示している間に)、コンピュータシステムは、1つ以上の入力デバイスを介して、第1の集約コンテンツアイテムに1つ以上の追加のコンテンツアイテムの第1のセットを追加する、かつ/又は第1の集約コンテンツアイテムから1つ以上の除去されたコンテンツアイテムの第1のセットを除去する要求に対応する入力の第3のセット(例えば、1014、1020、1024、1036A、1036B、1052、1056)(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。入力の第3のセットを検出したことに応じて、コンピュータシステムは、1つ以上の追加のコンテンツアイテムを含むように第1の集約コンテンツアイテムを修正する、かつ/又は1つ以上の除去されたコンテンツアイテムを除外するように第1の集約コンテンツアイテムを修正する(例えば、
図10H、
図10P)。1つ以上の追加のコンテンツアイテムを含むように第1の集約コンテンツアイテムを修正した後に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1の集約コンテンツアイテムの持続時間を修正する要求に対応する入力の第4のセット(例えば、1つ以上のタップ入力及び/又は1つ以上の非タップ入力)を検出する。入力の第4のセットを検出したことに応じて、コンピュータシステムは、第1の集約コンテンツアイテムの持続時間の変更に基づいて、第1の集約コンテンツアイテムに1つ以上の追加のコンテンツアイテムの第2のセットを追加すること、及び/又は第1の集約コンテンツアイテムの持続時間の変更に基づいて、第1の集約コンテンツアイテムから1つ以上の除去されたコンテンツアイテムの第2のセットを除去することを含む、第1の集約コンテンツアイテムの持続時間を変更する。第1の集約コンテンツアイテムの持続時間を修正する要求に対応するユーザ入力に応じて、自動的に第1の集約コンテンツアイテムにコンテンツを追加又は第1の集約コンテンツアイテムからコンテンツを除去することにより、更なるユーザ入力なしに、ユーザが第1の集約コンテンツアイテムの持続時間を迅速かつ効果的に修正することを可能にする。
【0332】
いくつかの実施形態では、入力の第4のセットを検出したことに応じて、入力の第4のセットが第1の集約コンテンツアイテムの持続時間を減少させる要求を含むとの判定に従って、コンピュータシステムは、1つ以上の追加のコンテンツアイテムの第1のセットのいずれも除去することなく、除去されたコンテンツアイテムの第2のセットを除去することによって、第1の集約コンテンツアイテムの持続時間を低減する(例えば、ユーザによって手動で追加されたタイル1008Pを除去することなく、除去されたコンテンツアイテムの第2のセットを除去する)。第1の集約コンテンツアイテムの持続時間を修正する要求に対応するユーザ入力に応じて、自動的に第1の集約コンテンツアイテムからコンテンツを除去することにより、更なるユーザ入力なしに、ユーザが第1の集約コンテンツアイテムの持続時間を迅速かつ効果的に修正することを可能にする。
【0333】
いくつかの実施形態では、入力の第4のセットを検出したことに応じて、入力の第4のセットが第1の集約コンテンツアイテムの持続時間を増加させる要求を含むとの判定に従って、コンピュータシステムは、1つ以上の除去されたコンテンツアイテムの第1のセットのいずれも追加することなく、追加のコンテンツアイテムの第2のセットを追加することによって、第1の集約コンテンツアイテムの持続時間を増加させる(例えば、ユーザによって手動で除去されたタイル1008B及び1008Eに対応するメディアアイテムを追加することなく、追加のコンテンツアイテムの第2のセットを追加する)。第1の集約コンテンツアイテムの持続時間を修正する要求に対応するユーザ入力に応じて、自動的に第1の集約コンテンツアイテムにコンテンツを追加又は第1の集約コンテンツアイテムからコンテンツを除去することにより、更なるユーザ入力なしに、ユーザが第1の集約コンテンツアイテムの持続時間を迅速かつ効果的に修正することを可能にする。
【0334】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツを再生することは、表示生成構成要素を介して、第1のコンテンツアイテムを表示することと、第1のコンテンツアイテムを表示した後に(例えば、第1のコンテンツアイテムを表示した直後に、かつ/又は第1のコンテンツアイテムを表示している間に)、表示生成構成要素を介して、第1のコンテンツアイテムから第2のコンテンツアイテム(例えば、第1の複数のコンテンツアイテムの順序付けられたシーケンス内の後続のコンテンツアイテム及び/又は次のコンテンツアイテム)への遷移であって、第2のコンテンツアイテムが第1のコンテンツアイテムに関する1つ以上の類似性基準(例えば、コンテンツの類似性、位置の類似性、並びに/又はキャプチャの日付及び/若しくは時間の類似性)を満たすとの判定に従って、第1のコンテンツアイテムから第2のコンテンツアイテムへの遷移が、第1の視覚遷移タイプであり(例えば、タイル1008C、1008D、1008E、及び1008Pによって表されるメディアアイテム間の遷移は、これらのメディアアイテム間の類似性に基づく第1の視覚遷移タイプである)(例えば、クロスフェード、黒色へのフェード、露出ブリード、パン、スケール、及び/又は回転)、第2のコンテンツアイテムが第1のコンテンツアイテムに関する1つ以上の類似性基準を満たさないとの判定に従って、第1のコンテンツアイテムから第2のコンテンツアイテムへの遷移が、第1の視覚遷移タイプとは異なる第2の視覚遷移タイプである(例えば、
図10Kのタイル1008P及び1008Kによって表されるメディアアイテム間の遷移は、これらのメディアアイテム間の類似性の欠如に基づく第2の視覚遷移タイプである)(例えば、クロスフェード、黒色へのフェード、露出ブリード、パン、スケール、及び/又は回転)、第1のコンテンツアイテムから第2のコンテンツアイテムへの遷移を表示することと、を含む。コンテンツアイテム間の類似性基準に基づいて遷移タイプを自動的に選択することにより、ユーザに提案される視覚遷移の品質を改善し、ユーザが更なるユーザ入力なしに遷移タイプを適用することを可能にする。
【0335】
いくつかの実施形態では、1つ以上の類似性基準は、時間ベースの類似性基準(例えば、コンテンツアイテムがキャプチャされた日付及び/又は時間の類似性)、位置ベースの類似性基準(例えば、コンテンツアイテムがキャプチャされた地理的位置の類似性)、及び/又はコンテンツベースの類似性基準(例えば、コンテンツアイテムに示されるコンテンツの類似性)のうちの1つ以上を含む。時間ベースの類似性基準、位置ベースの類似性基準、及び/又はコンテンツベースの類似性基準に基づいて遷移タイプを自動的に選択することにより、ユーザに提案される視覚遷移の品質を改善し、ユーザが更なるユーザ入力なしに遷移タイプを適用することを可能にする。
【0336】
いくつかの実施形態では、第1のコンテンツアイテムから後続のコンテンツアイテムへの遷移は、第1の視覚遷移タイプであり、第1の集約コンテンツアイテムの視覚コンテンツを再生することは、第1のコンテンツアイテムから第2のコンテンツアイテムへの遷移を表示した後に(例えば、第1のコンテンツアイテムから第2のコンテンツアイテムへの遷移を表示した直後に、かつ/又は第1のコンテンツアイテムから第2のコンテンツアイテムへの遷移を表示している間に)、表示生成構成要素を介して、第2のコンテンツアイテムを表示することと、第2のコンテンツアイテムを表示した後に(例えば、第2のコンテンツアイテムを表示した直後に、かつ/又は第2のコンテンツアイテムを表示している間に)、表示生成構成要素を介して、第2のコンテンツアイテムから第1及び第2のコンテンツアイテムとは異なる第3のコンテンツアイテム(例えば、第1の複数のコンテンツアイテムの順序付けられたシーケンス内の後続のコンテンツアイテム及び/又は次のコンテンツアイテム)への遷移であって、第3のコンテンツアイテムが第2のコンテンツアイテムに関する1つ以上の類似性基準を満たすとの判定に従って、第2のコンテンツアイテムから第3のコンテンツアイテムへの遷移が、第1の視覚遷移タイプ(例えば、クロスフェード、黒色へのフェード、露出ブリード、パン、スケール、及び/又は回転)である、遷移を表示することと、を更に含む(例えば、第1、第2、及び第3のコンテンツアイテム間の類似性に基づいて、第1のコンテンツアイテムと第2のコンテンツアイテムとの間及び第2のコンテンツアイテムと第3のコンテンツアイテムとの間で同じ遷移タイプを維持する)。コンテンツアイテム間の類似性基準に基づいて遷移タイプを自動的に選択することにより、ユーザに提案される視覚遷移の品質を改善し、ユーザが更なるユーザ入力なしに遷移タイプを適用することを可能にする。
【0337】
いくつかの実施形態では、第2のコンテンツアイテムから第3のコンテンツアイテムへの遷移を表示することは、第3のコンテンツアイテムが第2のコンテンツアイテムに関する1つ以上の類似性基準を満たさないとの判定に従って、第1のコンテンツアイテムから第2のコンテンツアイテムへの遷移が、第1の視覚遷移タイプとは異なる第3の視覚遷移タイプ(例えば、クロスフェード、黒色へのフェード、露出ブリード、パン、スケール、及び/又は回転)であることを更に含む。コンテンツアイテム間の類似性基準に基づいて遷移タイプを自動的に選択することにより、ユーザに提案される視覚遷移の品質を改善し、ユーザが更なるユーザ入力なしに遷移タイプを適用することを可能にする。
【0338】
いくつかの実施形態では、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、
図10A~
図10C、メディアアイテム628A)を再生している間に、コンピュータシステムは、第1の複数のコンテンツアイテムとは別個のオーディオコンテンツ(例えば、
図10A~
図10Cのトラック1)(例えば、第1の集約コンテンツアイテム上に重ね合わされ、かつ/又は第1の集約コンテンツアイテムの視覚コンテンツが再生及び/若しくは表示されている間に再生されるオーディオトラック)を再生する(例えば、第1の集約コンテンツアイテムの視覚コンテンツが表示生成構成要素を介して表示されている間に、オーディオトラックを出力する、かつ/又はその出力を引き起こす(例えば、1つ以上のスピーカ、1つ以上のヘッドホン、及び/又は1つ以上のイヤホンを介して))。いくつかの実施形態では、コンピュータシステムはまた、第1の集約コンテンツアイテムに対応する、かつ/又はその一部であるオーディオコンテンツ(例えば、集約コンテンツアイテムに組み込まれた1つ以上のビデオからのオーディオ)を再生する。第1の集約コンテンツアイテムの視覚コンテンツを再生している間にオーディオコンテンツを再生することにより、デバイスの現在の状態に関する(例えば、デバイスが第1の集約コンテンツアイテムの視覚コンテンツを現在再生しているという)フィードバックをユーザに提供する。
【0339】
いくつかの実施形態では、ユーザインタフェース(例えば、
図12Dの1222)を表示することは、表示生成構成要素を介して、第1の集約コンテンツアイテムの一時停止された視覚コンテンツ(例えば、
図12Dの1224A)と、第1の集約コンテンツアイテムの視覚コンテンツ(例えば、その複数のフレーム(例えば、画像))を通してナビゲートするためのビデオナビゲーションユーザインタフェース要素(例えば、1228)(例えば、スクラババー)とを同時に表示することを含み、第1のコンテンツアイテムの第1の表現(例えば、1230A~1230I)及び第2のコンテンツアイテムの第2の表現(例えば、1230A~1230I)は、ビデオナビゲーションユーザインタフェース要素の一部として同時に表示される。いくつかの実施形態では、ビデオナビゲーションユーザインタフェース要素は、第1の集約コンテンツアイテム内の第1の複数のコンテンツアイテムの表現(例えば、第1の複数のコンテンツアイテムの各コンテンツアイテムの表現(例えば、第1の複数のコンテンツアイテムの各コンテンツアイテムの個別の表現))を含む。いくつかの実施形態では、ユーザ入力は、第1の集約コンテンツアイテムの視覚コンテンツの再生を一時停止する要求に対応し、ビデオナビゲーションユーザインタフェース要素は、ユーザ入力を検出したことに応じて表示される。いくつかの実施形態では、ユーザ入力は、リモートコントロールを介して検出されたユーザ入力である。第1の集約コンテンツアイテムの視覚コンテンツを通してナビゲートするためのナビゲーションユーザインタフェース要素を表示することにより、ユーザが第1の集約コンテンツアイテムの視覚コンテンツを通して迅速にナビゲートすることを可能にし、それによって、第1の集約コンテンツアイテムを通してナビゲートするために必要とされる入力の数を低減する。
【0340】
いくつかの実施形態では、第1のコンテンツアイテムの第1の表現(例えば、1230A~1230I)及び第2のコンテンツアイテムの第2の表現(例えば、1230A~1230I)を同時に表示することを含む、ビデオナビゲーションユーザインタフェース要素(例えば、1228)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、ナビゲーション入力の第1のセット(例えば、1234、1238)(例えば、1つ以上のスワイプジェスチャ入力及び/又は1つ以上の方向入力)を検出する。ナビゲーション入力の第1のセットを検出したことに応じて、第1の時間に(例えば、ナビゲーション入力の第1のセットの開始時に)、コンピュータシステムは、表示生成構成要素を介して、第1の方式(例えば、視覚的に強調及び/又は強調表示された(例えば、ビデオナビゲーションユーザインタフェース要素内のコンテンツアイテムの1つ以上の他の表現に対して(例えば、ビデオナビゲーションユーザインタフェース要素内のコンテンツアイテムの全ての他の表現に対して)増加した輝度レベル及び/又は増加した彩度を有する))(例えば、第1のコンテンツアイテムの第1の表現が現在選択及び/又はフォーカスされていることを示す第1の方式)での第1のコンテンツアイテムの第1の表現(例えば、
図12Eのタイル1230B)と、第1の方式とは異なる第2の方式(例えば、第1の方式に対して視覚的に目立たなくされた(例えば、第1の方式に対して低減された輝度レベル及び/又は低減された彩度を有する))(例えば、第2のコンテンツアイテムの第2の表現が現在選択及び/又はフォーカスされていないことを示す第2の方式)での第2のコンテンツアイテムの第2の表現(例えば、
図12Eのタイル1230A)とを同時に表示する。第1の時間の後の第2の時間に(例えば、ナビゲーション入力の第1のセットの中間及び/又は終了時に)、コンピュータシステムは、表示生成構成要素を介して、第2の方式での第1のコンテンツアイテムの第1の表現(例えば、
図12Hのタイル1230B)と、第1の方式での第2のコンテンツアイテムの第2の表現(例えば、
図12Hのタイル1230A)とを同時に表示する(例えば、ナビゲーション入力の第1のセットを検出したことに応じて、コンピュータシステムは、ナビゲーション入力の第1のセットに従って(例えば、ナビゲーション入力の第1のセットの並進速さ及び/又は方向に従って)順次強調表示された画像サムネイルを示す)。どのコンテンツアイテムが現在選択及び/又はフォーカスされているかに基づいて、第1の方式でコンテンツアイテムの異なる表現を表示することにより、デバイスの現在の状態に関するフィードバックをユーザに提供する(例えば、どのコンテンツアイテムが現在選択及び/又はフォーカスされているかについてユーザに通知する)。
【0341】
いくつかの実施形態では、1つ以上のナビゲーション入力(例えば、1234、1238)を検出する前に、コンピュータシステムは、表示生成構成要素を介して、第1の方式での第1のコンテンツアイテムの第1の表現(例えば、
図12Dのタイル1230B)と、第1の方式での第2のコンテンツアイテムの第のコンテンツアイテムの第2の表現(例えば、
図12Dのタイル1230A)とを同時に表示する。いくつかの実施形態では、1つ以上のナビゲーション入力を検出する前に、ビデオナビゲーションユーザインタフェース要素(例えば、ビデオスクラバ)は、第1の方式で表示されるコンテンツアイテムの全ての表現(例えば、第1の方式で示される(例えば、強調表示される、視覚的に強調される、かつ/又は特定の輝度レベル及び/若しくは彩度での)全ての画像サムネイル)とともに表示され、1つ以上のナビゲーション入力を検出した後に、コンテンツアイテムの単一の表現が、任意の所与の時間に第1の方式で表示され、コンテンツアイテムの他の全ての表現が第2の方式で(例えば、視覚的に目立たなくされ、かつ/又は第2の輝度レベル及び/若しくは彩度で)表示される。1つ以上のナビゲーション入力を検出する前に、第1の方式でコンテンツアイテムの全ての表現を表示することにより、デバイスの現在の状態に関する(例えば、デバイスがビデオナビゲーションユーザインタフェース要素を表示した後に任意のナビゲーション入力を検出していないという)フィードバックをユーザに提供する。
【0342】
いくつかの実施形態では、第1の集約コンテンツアイテムの一時停止された視覚コンテンツ(例えば、
図12Dの1224A)及びビデオナビゲーションユーザインタフェース要素(例えば、
図12Dの1228)を同時に表示した後に、1つ以上のフェード基準が満たされたとの判定に従って(例えば、特定のタイプの1つ以上の入力が閾値持続時間にわたって検出されなかったとの判定に従って)、コンピュータシステムは、ビデオナビゲーションユーザインタフェース要素の表示を中止する。いくつかの実施形態では、コンピュータシステムは、第1の集約コンテンツアイテムの一時停止された視覚コンテンツの表示を維持している間に、ビデオナビゲーションユーザインタフェース要素の表示を中止する。いくつかの実施形態では、ビデオナビゲーションユーザインタフェース要素の表示を中止した後に、コンピュータシステムは、1つ以上の入力デバイスを介して、1つ以上のユーザ入力を検出し、1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、ビデオナビゲーションユーザインタフェース要素を再表示する。1つ以上のフェード基準が満たされたとの判定に従って、ビデオナビゲーションユーザインタフェース要素の表示を中止することにより、デバイスの現在の状態に関する(例えば、1つ以上のフェード基準が満たされたとデバイスが判定したという)フィードバックをユーザに提供する。
【0343】
いくつかの実施形態では、第1の集約コンテンツアイテムの一時停止された視覚コンテンツ(例えば、
図12Dの1224A)及びビデオナビゲーションユーザインタフェース要素(例えば、1228)を同時に表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、1つ以上のナビゲーション入力の第2のセット(例えば、1234、1238)(例えば、1つ以上のスワイプジェスチャ入力及び/又は1つ以上の方向入力)を検出する。1つ以上のナビゲーション入力の第2のセットを検出したことに応じて、1つ以上のナビゲーション入力の第2のセットの第1の部分(例えば、1234)を検出したことに応じて、コンピュータシステムは、(例えば、第1のコンテンツアイテムの表現がビデオナビゲーションユーザインタフェース要素において選択及び/又はフォーカスされている第1の時間に)第1の集約コンテンツアイテムの一時停止された視覚コンテンツの表示を第1のコンテンツアイテムの表示に置き換え(例えば、
図12E、メディアアイテム1224Aの表示をメディアアイテム1224Bに置き換える)、1つ以上のナビゲーション入力の第2のセットの第2の部分(例えば、1238)を検出したことに応じて、コンピュータシステムは、(例えば、第2のコンテンツアイテムの第2の表現がビデオナビゲーションユーザインタフェース要素において選択及び/又はフォーカスされている第2の時間に)第1のコンテンツアイテム(例えば、
図12Gのメディアアイテム1224B)の表示を第2のコンテンツアイテム(例えば、
図12Hのメディアアイテム1224A)の表示に置き換える。第1のコンテンツアイテムの表現が選択されたときに第1のコンテンツアイテムを表示し、第2のコンテンツアイテムの表現が選択されたときに第2のコンテンツアイテムを表示することにより、デバイスの現在の状態に関するフィードバックをユーザに提供する(例えば、どのコンテンツアイテムが現在選択及び/又はフォーカスされているかに関するフィードバックをユーザに提供する)。
【0344】
方法1100に関して上述したプロセス(例えば、
図11)の詳細はまた、上述した方法にも類似の方式で適用可能であることに留意されたい。例えば、方法700及び900は、方法1100を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、各方法700、900、1100における集約コンテンツアイテムは、同じ集約コンテンツアイテムであってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
【0345】
図12A~
図12Wは、いくつかの実施形態に係る、コンテンツアイテムを閲覧及び編集するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、
図7、
図9、及び
図11のプロセスを含む、後述するプロセスを例示するために使用される。
【0346】
図12Aは、メディア閲覧ユーザインタフェース1208をディスプレイ802上に表示する電子デバイス1200(例えば、デバイス100、300、500)(例えば、スマートテレビ(例えば、専用メディア再生機能を有するコンピュータシステム)(例えば、デバイス100、300、又は500の1つ以上の特徴を有するデバイス))、デジタルメディアプレーヤに接続されたテレビ(例えば、専用メディア再生機能を有するコンピュータシステム(例えば、デバイス100、300、又は500の1つ以上の特徴を有するデバイス)))を示す。いくつかの実施形態では、ディスプレイ1202は、電子デバイス1200の一体化部品である。いくつかの実施形態では、電子デバイス1200は、ディスプレイ1202と(例えば、無線、有線)通信している別個のデジタルメディアプレーヤである。
【0347】
図12Aはまた、リモートコントロール1204で検出されたユーザの入力に基づいて、データを(例えば、RF通信を介して、Bluetoothを介して、赤外線を介して)電子デバイス1200に送信するように構成されたリモートコントロール1204を示す。リモートコントロール1204は、タップ、押圧、及びスワイプジェスチャを検出するためのタッチ感知面を含む選択領域1206A、戻るボタン1206B、テレビボタン1206C、再生/一時停止ボタン1206D、音量制御ボタン1206E、消音ボタン1206F、及び電源ボタン1206Gを含む。
【0348】
メディア閲覧ユーザインタフェース1208は、選択可能なオプション1210A、1210B、1210C、1210Dを含む。オプション1210Aは、1つ以上の集約コンテンツアイテムの表現を表示するために選択可能である。オプション1210Bは、1つ以上の共有メディアアイテム(例えば、ユーザと共有されたメディアアイテム、及び/又はユーザによって共有されたメディアアイテム)の表現を表示するために選択可能である。オプション1210Cは、メディアアイテムの1つ以上の集合(例えば、アルバム)の表現を表示するために選択可能である。オプション1210Dは、メディアライブラリ内のメディアアイテムの表現を表示するために選択可能である。いくつかの実施形態では、設定(例えば、
図12Bに示される設定1220)は、オプション1210Dを有効にする(例えば、電子デバイス1200のユーザがメディアライブラリを閲覧することを可能にする)ために有効にすることができ、オプション1210Dを無効にする(例えば、電子デバイス1200のユーザがメディアライブラリを閲覧することを禁止する)ために無効にすることができる。
【0349】
メディア閲覧ユーザインタフェース1208は、タイル1212A~1212Eも含む。各タイル1212A~1212Eは、個別の集約コンテンツアイテムを表す。例えば、タイル1212Aは、第1の集約コンテンツアイテムを表し、タイル1212Bは、第2の集約コンテンツアイテムを表す、などである。いくつかの実施形態では、各タイル1212A~1212Eは、(例えば、フォーカス選択が個別のタイル121A~1212E上にあるときに)その対応する集約コンテンツアイテムのプレビュー(例えば、アニメーション化されたプレビュー及び/又は移動プレビュー)を表示する。
図12Aでは、選択フォーカスがタイル1212A上にある状態で電子デバイス1200がメディア閲覧ユーザインタフェース1208を表示している間に、リモートコントロール1204は、タイル1212Aの選択に対応するボタン押圧入力1216を介して選択領域1206Aのアクティブ化を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、タイル1212Aの選択に対応する入力1216のインジケーションを受信する。
【0350】
図12Cでは、入力1216を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202に、第1の集約コンテンツアイテムの再生を表示する再生ユーザインタフェース1222を表示させる。
図12Cでは、第1の集約コンテンツアイテムの再生を表示することは、第1の集約コンテンツアイテムの第1のメディアアイテム1224Aを表示することを含む。電子デバイス1200はまた、ディスプレイ1202に、第1の集約コンテンツアイテムの視覚再生と共にオーディオトラック(例えば、オーディオトラック1)を再生させる。
図12Cでは、電子デバイス1200が第1の集約コンテンツアイテムを再生している間に、リモートコントロール1204は、ボタン押圧入力1226を介して再生/一時停止ボタン1206Dのアクティブ化を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1226のインジケーションを受信する。
【0351】
図12Dでは、入力1226を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、第1の集約コンテンツアイテムの再生(例えば、視覚及び/又はオーディオ再生)を一時停止する。更に、電子デバイス1200は、ディスプレイ1202に、一時停止されたメディアアイテム1224A上に重ね合わせて、タイトル情報1227、スクラバ1228、及びオプション1232A~1232Eを表示させる。タイトル情報1227は、第1の集約コンテンツアイテムに対応するタイトル情報(例えば、ヨセミテ2020年10月)を含む。スクラバ1228は、ユーザが第1の集約コンテンツアイテムが一時停止されている間にメディアアイテムを通してナビゲートすることができるように、各メディアアイテムが第1の集約コンテンツアイテム内で提示される順序で配置された、第1の集約コンテンツアイテムに含まれる各メディアアイテムの表現1230A~1230Iを含む。
図12Dでは、各表現1230A~1230Iは、同じサイズ及び輝度で表示される。後の図で実証されるように、ユーザが(例えば、リモートコントロール1204上のユーザ入力を介して)スクラバ1228を通してナビゲートし始める場合、現在選択されているメディアアイテム表現は、他の選択されていないメディアアイテム表現よりも大きいサイズ及び輝度で表示されることになる。
【0352】
オプション1232Aは、複数の持続時間オプションを表示するために選択可能である。オプション1232Bは、複数のオーディオトラックオプションを表示するために選択可能である。オプション1232Cは、複数のメニューオプションを表示するために選択可能である。オプション1232Dは、複数の集約コンテンツアイテムオプションを表示するために選択可能である。オプション1232Eは、ユーザが特定の人物及び/又は場所に関する集約コンテンツアイテムを閲覧することを可能にする、1つ以上の人物オプション及び/又は1つ以上の場所オプションを表示するために選択可能である。
図12Dでは、リモートコントロール1204は、選択領域1206Aを介して右スワイプジェスチャ1234を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1234のインジケーションを受信する。
【0353】
図12Eでは、入力1234を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202に、スクラバ1228内のメディアアイテム表現1230B上にフォーカス選択を表示させる。
図12Eでは、メディアアイテム表現1230Bは、スクラバ1228内の他のメディアアイテム表現(又はスクラバ1228内の全ての他のメディアアイテム)に対して、より大きいサイズ及びより高い輝度で表示される。更に、メディアアイテム表現1230Bの選択を引き起こす入力1234に応じて、再生ユーザインタフェース1222は、メディアアイテム表現1230Bに対応するメディアアイテム1224Bを一時停止状態で表示する。
【0354】
図12Fでは、ユーザ入力が閾値期間にわたって(例えば、リモートコントロール1204を介して)受信されなかったとの判定に従って、電子デバイス1200は、ディスプレイ1202に、メディアアイテム1224Bを一時停止状態で表示し続ける再生ユーザインタフェース1222の表示を維持している間に、タイトル情報1227、スクラバ1228、及びオプション1232A~1232Eの表示を中止させる。
図12Fでは、リモートコントロール1204は、選択領域1206Aを介してボタン押圧入力1236を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1236のインジケーションを受信する。
【0355】
図12Gでは、入力1236を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイスは、ディスプレイ1202に、タイトル情報1227、スクラバ1228、及びオプション1232A~1232Eを再生ユーザインタフェース1222上に重ね合わせて再表示させる。
図12Gでは、リモートコントロール1204は、選択領域1206Aを介して左スワイプ入力1238を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1238のインジケーションを受信する。
【0356】
図12Hでは、入力1238を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイスは、ディスプレイ1202に、スクラバ1228内のメディアアイテム表現1230A上にフォーカス選択を表示させる。
図12Hでは、メディアアイテム表現1230Aは、スクラバ1228内の他のメディアアイテム表現に対して、より大きいサイズ及びより高い輝度で表示される。更に、メディアアイテム表現1230Aの選択を引き起こす入力1236に応じて、再生ユーザインタフェース1222は、メディアアイテム表現1230Aに対応するメディアアイテム1224Aを一時停止状態で表示する。
図12Hでは、リモートコントロール1204は、選択領域1206Aを介してスワイプアップ入力1240を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1240のインジケーションを受信する。
【0357】
図12Iでは、入力1240を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイスは、ディスプレイ1202に、オプション1232A上にフォーカス選択を表示させる。
図12Iでは、リモートコントロール1204は、選択領域1206Aを介してボタン押圧入力1242を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1242のインジケーションを受信する。
【0358】
図12Jでは、入力1242を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイスは、ディスプレイ1202にオプション1224A~1224Eを表示させる。オプション1224A~1224Eのうちの異なるオプションは、第1の集約コンテンツアイテムの異なる再生持続時間に対応する。オプション1224Aは、第1の集約コンテンツアイテム内のメディアアイテムの数を(例えば、38個のメディアアイテムから24個のメディアアイテムに)減少させることによって、第1の集約コンテンツアイテムの持続時間を短縮するために選択可能である。オプション1244Cは、第1の集約コンテンツアイテム内のメディアアイテムの数を増加させることによって、第1の集約コンテンツアイテムの持続時間を増加させるために選択可能である。図示の実施形態では、オプション1244Cは、特定の持続時間(例えば、1分28秒)に対応する。オプション1244Dは、第1の集約コンテンツアイテムに適用されたオーディオトラックの持続時間に一致するように、第1の集約コンテンツアイテムの持続時間を増加させるために選択可能である。
図12Jでは、オーディオトラック1は、第1の集約コンテンツアイテムに適用されており、3分15秒の持続時間を有する。したがって、
図12Jにおけるオプション1244Dの選択は、(例えば、約)3分15秒の総持続時間を有するように、(例えば、1つ以上のメディアアイテムを追加及び/若しくは除去すること、並びに/又は第1の集約コンテンツアイテム内のメディアアイテムの表示持続時間を修正することによって)第1の集約コンテンツアイテムを修正させる。
図12Jでは、リモートコントロール1204は、選択領域1206Aを介して右スワイプ入力1246を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1246のインジケーションを受信する。
【0359】
図12Kでは、入力1246を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイスは、ディスプレイ1202に、オプション1232B上にフォーカス選択を表示させる。
図12Kでは、リモートコントロール1204は、選択領域1206Aを介してボタン押圧入力1248を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1248のインジケーションを受信する。
【0360】
図12Lでは、入力1248を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202にオプション1250A~1250Eを表示させる。オプション1250A~1250Eのうちの異なるオプションは、異なるオーディオトラックに対応し、選択されたオーディオトラックを第1の集約コンテンツアイテムの再生に適用するために選択可能である。
図12Lでは、オプション1250Aが選択され、オーディオトラック1が第1の集約コンテンツアイテムに適用される。
図12Lでは、リモートコントロール1204は、選択領域1206Aを介して右スワイプ入力1252を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1248のインジケーションを受信する。
【0361】
図12Mでは、入力1252を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202に、オプション1232C上にフォーカス選択を表示させる。
図12Mでは、リモートコントロール1204は、選択領域1206Aを介してボタン押圧入力1254を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1254のインジケーションを受信する。
【0362】
図12Nでは、入力1254を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202にオプション1256A~1256Bを表示させる。オプション1256Aは、第1の集約コンテンツアイテムをお気に入りアルバムに追加するために選択可能である。オプション1256Bは、第1の集約コンテンツアイテムを削除するために選択可能である。
図12Nでは、リモートコントロール1204は、選択領域1206Aを介してスワイプダウン入力1258を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1258のインジケーションを受信する。
【0363】
図12Oでは、入力1258を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202に、オプション1232D上にフォーカス選択を表示させる。
図12Oでは、入力1258は、スクラバ1228を過ぎてオプション1232Dへの下方へのナビゲーションを引き起こす。したがって、
図12Oでは、スクラバ1228は、もはや表示されず、フォーカス選択は、オプション1232D上にある。電子デバイス1200はまた、ディスプレイ1202に、他の集約コンテンツアイテムを表す複数のタイル1260A~1260Dを表示させる。各タイル1260A~1260Dは、選択された集約コンテンツアイテムの再生を開始するために選択可能である。
図12Oでは、リモートコントロール1204は、選択領域1206Aを介して右スワイプ入力1262を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1262のインジケーションを受信する。
【0364】
図12Pでは、入力1262を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202に、オプション1232E上にフォーカス選択を表示させる。電子デバイス1200はまた、ディスプレイ1202にオプション1264A~1264Eを表示させる。オプション1264A~1264Cのうちの異なるオプションは、異なる人物又は人物のグループに関連付けられ(例えば、対応し)、選択された人物又は人物のグループに対応する集約コンテンツアイテムの再生を引き起こすために選択可能である。オプション1264D~1264Eのうちの異なるオプションは、異なる地理的位置に関連付けられ(例えば、対応し)、選択された地理的位置に対応する集約コンテンツアイテムの再生を引き起こすために選択可能である。
図12Pでは、リモートコントロール1204は、選択領域1206Aを介してスワイプアップ入力1266を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1266のインジケーションを受信する。
【0365】
図12Qでは、入力1266を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202に、メディアアイテム表現1230A上にフォーカス選択がある状態でスクラバ1228を再表示させる。
図12Qでは、リモートコントロール1204は、選択領域1206Aを介してボタン押圧入力1268を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1268のインジケーションを受信する。
【0366】
図12Rでは、入力1268を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、選択されたメディアアイテムに対応する再生位置から(例えば、選択されたメディアアイテム表現1230Aに対応するメディアアイテム1224Aに対応する再生位置から)、第1の集約コンテンツアイテムの(例えば、視覚及びオーディオ再生を含む)再生を開始する。電子デバイス1200はまた、タイトル情報1227、スクラバ1228、及びオプション1232A~1232Eの表示を中止する。
図12Sでは、第1の集約コンテンツアイテムの再生(例えば、視覚及び/又はオーディオ再生)が継続し、メディアアイテム1224Aは、後続のメディアアイテム1224Bによって置き換えられている。
【0367】
図12Tでは、第1の集約コンテンツアイテムの再生は、最後のメディアアイテム1224Zが表示されるまで継続している。
図12Tでは、第1の集約コンテンツアイテムの再生が1つ以上の終了基準を満たした(例えば、第1の集約コンテンツアイテムの最後のメディアアイテムが閾値持続時間にわたって表示された、かつ/又は第1の集約コンテンツアイテムの再生において閾値持続時間未満が残っている)との判定に応じて、電子デバイス1200は、ディスプレイ1202に、次のコンテンツアイテムユーザインタフェース1270を表示させる。次のコンテンツアイテムユーザインタフェース1270は、第1の集約コンテンツアイテムの最後のメディアアイテム1224Zを表示し続ける再生ユーザインタフェース1222上に重ね合わされる。いくつかの実施形態では、再生ユーザインタフェース1222は、次のコンテンツアイテムユーザインタフェース1270がその上に重ね合わされている間、視覚的に目立たなくされる(例えば、暗くされる、かつ/又はぼかされる)。次のコンテンツアイテムユーザインタフェース1270は、他の集約コンテンツアイテムを表すタイル1276A~1276Dを含み、各タイル1276A~1276Dは、対応する集約コンテンツアイテムの再生を開始するために選択可能である。タイル1276Aは、更なるユーザ入力なしに自動的に再生を開始する「次の」又は後続の集約コンテンツアイテムに対応する。
【0368】
次のコンテンツアイテムユーザインタフェース1270は、カウントダウンタイマー1274を含み、カウントダウンタイマー1274は、更なるユーザ入力なしに、次の集約コンテンツアイテム(例えば、「パームスプリングス2017年」)がカウントダウンタイマー1274の終了時に再生を開始することをユーザに示す。
図12Tでは、リモートコントロール1204は、選択領域1206Aを介してスワイプダウン入力1278を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1278のインジケーションを受信する。
【0369】
図12Uでは、入力1278を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202に、タイル1276A上にフォーカス選択を表示させる。フォーカス選択が第2の集約コンテンツアイテムを表すタイル1276A上に配置されたことに応じて、電子デバイス1200は、
図12U~
図12Vに見られるように、タイルディスプレイ1202に、タイル1276A内の第2の集約コンテンツアイテムのプレビュー(例えば、アニメーション化されたプレビュー及び/又は移動プレビュー)を表示させる。
図12Vでは、リモートコントロール1204は、選択領域1206Aを介して斜めスワイプ入力1280を検出し、入力のインジケーションを電子デバイス1200に送信する。電子デバイス1200は、リモートコントロール1204から、入力1280のインジケーションを受信する。
【0370】
図12Wでは、入力1280を検出したこと(例えば、そのインジケーションを受信したこと)に応じて、電子デバイス1200は、ディスプレイ1202に、オプション1272B上にフォーカス選択を表示させる。入力1280に応じて、電子デバイス1200はまた、ディスプレイ1202に、
図12Pを参照して上述したオプション1264A~1264Eと同一のオプション1282A~1282Eを表示させる。オプション1282A~1282Cのうちの異なるオプションは、異なる人物又は人物のグループに関連付けられ(例えば、対応し)、選択された人物又は人物のグループに対応する集約コンテンツアイテムの再生を引き起こすために選択可能である。オプション1282D~1282Eのうちの異なるオプションは、異なる地理的位置に関連付けられ(例えば、対応し)、選択された地理的位置に対応する集約コンテンツアイテムの再生を引き起こすために選択可能である。
【0371】
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本技術の原理、及びそれらの実際の用途を最も良く説明するために、実施形態が選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。
【0372】
添付図面を参照して、本開示及び実施例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び実施例の範囲内に含まれるものとして理解されたい。
【0373】
上述したように、本技術の一態様は、ユーザにとって関心がある場合があるメディアコンテンツ又は任意の他のコンテンツの提示を改善するために、種々のソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの場合には、この収集されたデータが、特定の人を一意に識別する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを意図している。そのような個人情報データとしては、人口統計データ、位置ベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康若しくはフィットネスのレベルに関するデータ若しくは記録(例えば、バイタルサイン測定値、投薬情報、運動情報)、生年月日、又は任意の他の識別情報若しくは個人情報を挙げることができる。
【0374】
本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、よりユーザの興味を引く対象のコンテンツを提示するために、個人情報データを使用することができる。したがって、そのような個人情報データの使用は、ユーザによる提示されるコンテンツの計算された制御を可能にする。更に、ユーザに利益をもたらす個人情報データに関する他の使用も本開示によって意図されている。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスについての洞察を提供するために使用することができ、又は、ウェルネスの目標を追求する技術を使用している個人への、積極的なフィードバックとして使用することもできる。
【0375】
本開示は、そのような個人情報データの収集、分析、開示、送信、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変更されるにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。その上、そのようなエンティティは、そのような個人情報データへのアクセスを保護及び安全化し、個人情報データへのアクセス権を有する他者が、それらのプライバシーポリシー及び手順を忠実に守ることを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更に、そのようなエンティティは、広く受け入れられているプライバシーポリシー及び慣行に対する自身の遵守を証明するために、サードパーティによる評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はそれへのアクセスは、医療保険の相互運用性と説明責任に関する法律(HIPAA)などの、連邦法及び/又は州法に準拠し得る。その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国において、異なる個人データのタイプに関して異なるプライバシー慣行が保たれるべきである。
【0376】
前述のことがらにも関わらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素が提供され得ることを意図している。例えば、メディアコンテンツ提示サービスの場合では、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成することができる。「オプトイン」及び「オプトアウト」のオプションを提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを意図している。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。
【0377】
更には、本開示の意図は、個人情報データを、非意図的若しくは許可のないアクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなると削除することにより、リスクを最小化することができる。加えて、特定の健康関連アプリケーションを含む、適用可能な場合、ユーザのプライバシーを保護するために、データの匿名化を使用することができる。匿名化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルではなく都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって集約すること)、及び/又は他の方法によって、容易にすることができる。
【0378】
それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものであるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することも可能であることを想到する。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部が欠如することにより、動作不可能にされるものではない。例えば、コンテンツは、ユーザに関連付けられたデバイスにより要求されたコンテンツ、コンテンツ提示サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて嗜好を推測することにより、選択してユーザに提示することができる。