IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ マハナ セラピューティクス、インコーポレイテッドの特許一覧

特許7465353平均ユーザ対話データに基づいてアプリケーション・ユーザの心理状態をリモートでモニタするための方法及びシステム
<>
  • 特許-平均ユーザ対話データに基づいてアプリケーション・ユーザの心理状態をリモートでモニタするための方法及びシステム 図1
  • 特許-平均ユーザ対話データに基づいてアプリケーション・ユーザの心理状態をリモートでモニタするための方法及びシステム 図2
  • 特許-平均ユーザ対話データに基づいてアプリケーション・ユーザの心理状態をリモートでモニタするための方法及びシステム 図3
  • 特許-平均ユーザ対話データに基づいてアプリケーション・ユーザの心理状態をリモートでモニタするための方法及びシステム 図4
  • 特許-平均ユーザ対話データに基づいてアプリケーション・ユーザの心理状態をリモートでモニタするための方法及びシステム 図5
  • 特許-平均ユーザ対話データに基づいてアプリケーション・ユーザの心理状態をリモートでモニタするための方法及びシステム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-02
(45)【発行日】2024-04-10
(54)【発明の名称】平均ユーザ対話データに基づいてアプリケーション・ユーザの心理状態をリモートでモニタするための方法及びシステム
(51)【国際特許分類】
   G16H 20/70 20180101AFI20240403BHJP
   G06F 3/01 20060101ALI20240403BHJP
   A61B 5/00 20060101ALI20240403BHJP
【FI】
G16H20/70
G06F3/01 510
A61B5/00 102B
【請求項の数】 20
(21)【出願番号】P 2022536939
(86)(22)【出願日】2020-12-15
(65)【公表番号】
(43)【公表日】2023-02-27
(86)【国際出願番号】 US2020065123
(87)【国際公開番号】W WO2021126851
(87)【国際公開日】2021-06-24
【審査請求日】2022-08-15
(31)【優先権主張番号】16/717,287
(32)【優先日】2019-12-17
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】521563828
【氏名又は名称】マハナ セラピューティクス、インコーポレイテッド
(74)【代理人】
【識別番号】110000855
【氏名又は名称】弁理士法人浅村特許事務所
(72)【発明者】
【氏名】レヴィー、サイモン
【審査官】甲斐 哲雄
(56)【参考文献】
【文献】米国特許出願公開第2019/0341152(US,A1)
【文献】特表2017-521756(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G16H 10/00-80/00
G06F 3/01
A61B 5/00
(57)【特許請求の範囲】
【請求項1】
1人又は複数のユーザにアプリケーションを提供するステップと、
前記アプリケーションのユーザ・インターフェースを通じて前記アプリケーションの前記1人又は複数のユーザに情報を提供するステップと、
前記ユーザ・インターフェースを通じて提供された前記情報との前記1人又は複数のユーザの対話をモニタして、前記1人又は複数のユーザに関するユーザ対話データを生成するステップと、
前記1人又は複数のユーザに関する前記ユーザ対話データを処理して、平均ユーザ対話データを生成するステップと、
現ユーザの対話データと前記平均ユーザ対話データとの間における1つ又は複数の最大許容偏差を表す1つ又は複数のしきい値ユーザ対話差異を定義し、前記1つ又は複数のしきい値ユーザ対話差異を表すしきい値ユーザ対話差異データを生成するステップと、
前記アプリケーションの前記ユーザ・インターフェースを通じて前記アプリケーションの現ユーザに情報を提供するステップと、
前記ユーザ・インターフェースを通じて提供された前記情報との前記現ユーザの対話をモニタして、前記現ユーザに関する現ユーザ対話データを生成するステップと、
前記現ユーザ対話データ及び前記平均ユーザ対話データを分析して、現ユーザ対話差異データを生成するステップと、
前記現ユーザ対話差異データを前記しきい値ユーザ対話差異データと比較するステップと、
前記現ユーザ対話データと前記平均ユーザ対話データとの間における差が、前記しきい値ユーザ対話差異データによって表されている前記しきい値ユーザ対話差異のうちの1つ又は複数よりも大きい場合に、1つ又は複数のアクションを取るステップと
を含むコンピューティング・システム実施方法。
【請求項2】
前記アプリケーションが治療アプリケーションである、請求項1に記載のコンピューティング・システム実施方法。
【請求項3】
前記アプリケーションの前記ユーザ・インターフェースを通じて提供される前記情報が、
テキスト情報、
オーディオ情報、
グラフィカル情報。
画像情報、及び
ビデオ情報のうちの1つ又は複数を含む、請求項1に記載のコンピューティング・システム実施方法。
【請求項4】
前記1人又は複数のユーザ及び前記現ユーザの前記対話をモニタするステップが、前記ユーザ・インターフェースを通じて提供された前記情報とユーザが対話するスピードをモニタするステップを含む、請求項1に記載のコンピューティング・システム実施方法。
【請求項5】
前記ユーザ・インターフェースを通じて提供された前記情報とユーザが対話する前記スピードが、
前記ユーザ・インターフェースを通じて提供された前記情報をユーザがスクロールするスピード、
前記ユーザ・インターフェースを通じて提供された前記情報をユーザがクリックするスピード、及び
前記ユーザ・インターフェースを通じてユーザがテキストを入力するスピードのうちの1つ又は複数をモニタすることによって測定される、請求項4に記載のコンピューティング・システム実施方法。
【請求項6】
前記1人又は複数のユーザ及び前記現ユーザの前記対話をモニタするステップが、前記ユーザ・インターフェースを通じて提供された前記情報についてのユーザの理解をモニタするステップを含む、請求項1に記載のコンピューティング・システム実施方法。
【請求項7】
前記ユーザ・インターフェースを通じて提供された前記情報についてのユーザの理解が、
前記提供された情報に関連した質問を前記ユーザに提示するステップ、及び
前記提供された情報のうちで前記ユーザが対話したパーセンテージを特定するステップのうちの1つ又は複数によって測定される、請求項6に記載のコンピューティング・システム実施方法。
【請求項8】
記1つ又は複数のアクションを取るステップが、
前記現ユーザに提供される前記情報の提示を調整するステップ、
前記現ユーザに提供される前記情報のコンテンツを調整するステップ、
前記現ユーザに情報を要求するステップ、
前記現ユーザに直接連絡を取るステップ、
前記現ユーザの代わりに第三者に連絡を取るステップ、
第三者による点検のために前記現ユーザのファイルに注釈を付加するステップ、及び
第三者による注意を引くために前記現ユーザのファイルにフラグを立てるステップのうちの1つ又は複数を含む、請求項1に記載のコンピューティング・システム実施方法。
【請求項9】
前記第三者が、前記現ユーザに関連付けられている医療専門家である、請求項8に記載のコンピューティング・システム実施方法。
【請求項10】
前記第三者が、
前記現ユーザに関連付けられている緊急連絡先、及び
前記現ユーザの親類のうちの1つ又は複数である、請求項8に記載のコンピューティング・システム実施方法。
【請求項11】
1人又は複数のユーザに治療アプリケーションを提供するステップと、
平均ユーザ対話データを入手するステップと、
現患者ユーザの対話データと前記平均ユーザ対話データとの間における1つ又は複数の最大許容偏差を表す1つ又は複数のしきい値患者ユーザ対話差異を定義するステップと、
前記1つ又は複数のしきい値患者ユーザ対話差異を表すしきい値患者ユーザ対話差異データを生成するステップと、
前記治療アプリケーションのユーザ・インターフェースを通じて前記治療アプリケーションの現患者ユーザに情報を提供するステップと、
前記ユーザ・インターフェースを通じて提供された前記情報との前記現患者ユーザの対話をモニタして、前記現患者ユーザに関する現患者ユーザ対話データを生成するステップと、
前記現患者ユーザ対話データ及び前記平均ユーザ対話データを分析して、現患者ユーザ対話差異データを生成するステップと、
前記現患者ユーザ対話差異データを前記しきい値患者ユーザ対話差異データと比較するステップと、
前記現患者ユーザ対話データと前記平均ユーザ対話データとの間における差が、前記しきい値患者ユーザ対話差異データによって表されている前記しきい値患者ユーザ対話差異のうちの1つ又は複数よりも大きい場合に、1つ又は複数のアクションを取るステップと
を含むコンピューティング・システム実施方法。
【請求項12】
前記治療アプリケーションの前記ユーザ・インターフェースを通じて提供される前記情報が、
テキスト情報、
オーディオ情報、
グラフィカル情報、
画像情報、及び
ビデオ情報のうちの1つ又は複数を含む、請求項11に記載のコンピューティング・システム実施方法。
【請求項13】
前記患者ユーザの前記対話をモニタするステップが、前記ユーザ・インターフェースを通じて提供された前記情報と前記現患者ユーザが対話するスピードをモニタするステップを含む、請求項11に記載のコンピューティング・システム実施方法。
【請求項14】
前記ユーザ・インターフェースを通じて提供された前記情報と前記現患者ユーザが対話する前記スピードが、
前記ユーザ・インターフェースを通じて提供された前記情報を前記現患者ユーザがスクロールするスピード、
前記ユーザ・インターフェースを通じて提供された前記情報を前記現患者ユーザがクリックするスピード、及び
前記ユーザ・インターフェースを通じて前記現患者ユーザがテキストを入力するスピードのうちの1つ又は複数をモニタすることによって測定される、請求項13に記載のコンピューティング・システム実施方法。
【請求項15】
前記患者ユーザの前記対話をモニタするステップが、前記ユーザ・インターフェースを通じて提供された前記情報についての前記現患者ユーザの理解をモニタするステップを含む、請求項11に記載のコンピューティング・システム実施方法。
【請求項16】
前記ユーザ・インターフェースを通じて提供された前記情報についての前記現患者ユーザの理解が、
前記提供された情報に関連した質問を前記現患者ユーザに提示するステップ、及び
前記提供された情報のうちで前記現患者ユーザが対話したパーセンテージを特定するステップのうちの1つ又は複数によって測定される、請求項15に記載のコンピューティング・システム実施方法。
【請求項17】
記1つ又は複数のアクションを取るステップが、
前記患者ユーザに提供される前記情報の提示を調整するステップ、
前記患者ユーザに提供される前記情報のコンテンツを調整するステップ、
前記患者ユーザに情報を要求するステップ、
前記患者ユーザに直接連絡を取るステップ、
前記患者ユーザの代わりに第三者に連絡を取るステップ、
第三者による点検のために前記患者ユーザのファイルに注釈を付加するステップ、及び
第三者による注意を引くために前記患者ユーザのファイルにフラグを立てるステップのうちの1つ又は複数を含む、請求項11に記載のコンピューティング・システム実施方法。
【請求項18】
前記第三者が、前記患者ユーザに関連付けられている医療専門家である、請求項17に記載のコンピューティング・システム実施方法。
【請求項19】
前記第三者が、
前記患者ユーザに関連付けられている緊急連絡先、及び
前記患者ユーザの親類のうちの1つ又は複数である、請求項18に記載のコンピューティング・システム実施方法。
【請求項20】
平均ユーザ対話データを入手するステップと、
現ユーザの対話データと前記平均ユーザ対話データとの間における1つ又は複数の最大許容偏差を表す1つ又は複数のしきい値ユーザ対話差異を定義し、前記1つ又は複数のしきい値ユーザ対話差異を表すしきい値ユーザ対話差異データを生成するステップと、
アプリケーションへのアクセスを現ユーザに提供するステップと、
前記アプリケーションのユーザ・インターフェースを通じて前記アプリケーションの前記現ユーザに情報を提供するステップと、
前記ユーザ・インターフェースを通じて提供された前記情報との前記現ユーザの対話をモニタして、前記現ユーザに関する現ユーザ対話データを生成するステップと、
前記現ユーザ対話データ及び前記平均ユーザ対話データを分析して、現ユーザ対話差異データを生成するステップと、
前記現ユーザ対話差異データを前記しきい値ユーザ対話差異データと比較するステップと、
前記現ユーザ対話データと前記平均ユーザ対話データとの間における差が、前記しきい値ユーザ対話差異データによって表されている前記しきい値ユーザ対話差異のうちの1つ又は複数よりも大きい場合に、1つ又は複数のアクションを取るステップと
を含むコンピューティング・システム実施方法。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願
本出願は、米国特許出願第______号(弁理士整理番号MAH002)に関連しており、これは、Simon Levyという名前を発明者として挙げており、2019年12月17日に本出願と同時に出願されたものであり、「METHOD AND SYSTEM FOR REMOTELY MONITORING THE PSYCHOLOGICAL STATE OF AN APPLICATION USER BASED ON HISTORICAL USER INTERACTION DATA」と題されており、また、あたかも本明細書に完全に記載されているかのように、その全体が参照によって本明細書に組み込まれている。本出願はまた、米国特許出願第______号(弁理士整理番号MAH003)に関連しており、これは、Simon Levyという名前を発明者として挙げており、2019年12月17日に本出願と同時に出願されたものであり、「METHOD AND SYSTEM FOR REMOTELY MONITORING THE PSYCHOLOGICAL STATE OF AN APPLICATION USER USING MACHINE LEARNING-BASED MODELS」と題されており、また、あたかも本明細書に完全に記載されているかのように、その全体が参照によって本明細書に組み込まれている。
【背景技術】
【0002】
近年においては、世界中の数十億人の人々の日常生活においてデジタル・アプリケーションがますます大きな役割を果たすようになっている。現在では、膨大な数のアプリケーションが、さまざまなテクノロジーを介してユーザにとって容易に利用可能である。これらのアプリケーションは、タイプ及び目的において大きな範囲にわたり、生産性ツール、教材、及びエンターテイメント・オプションなどの情報及びサービスをユーザに提供する。テクノロジーが進歩するにつれて、これらのアプリケーションは、ユーザに提供することが可能であるコンテンツ及び体験の点でますます洗練されるようになっている。たとえば、ほとんどの現代のアプリケーションは、情報及びその他のタイプの静的なコンテンツをユーザに提供することに加えて、さまざまなインタラクティブな機能をユーザに提供することも可能であり、それによってユーザは、ユーザの入力、ユーザの対話、及びユーザの行動に基づいて特定の及び/又はカスタマイズされたコンテンツを選択することが可能になる。このようにして、アプリケーションがユーザに提供する利点は、特定の個々人のニーズ又は要望に合うようにカスタマイズされることが可能である。
【0003】
ユーザの日常生活においてこれらのデジタル・アプリケーションの使用が増加したことに起因して、多くのこのようなアプリケーションは今や、従来の人から人への、すなわち直接の対話を補完するか又はそうした対話に取って代わるために使用されている。さらに、この傾向は、来たる数年間は引き続き増大するであろうということが、ますます明らかになっている。しかしながら、これらのタイプのインタラクティブなアプリケーションは、多くの有益な機能をユーザに提供することが可能であるが、現在では、これらのアプリケーションはそれでもなお、さまざまな制限を提示しており、それらの制限は、このインタラクティブなテクノロジーがその最大限の可能性を実現するためには、対処される必要がある。
【0004】
具体的な例として、毎日、数百万人の人々が、さまざまな病状と診断されており、それらの病状は、タイプ及び重症度において大きな範囲にわたる。ある病状と診断された患者は、自分の診断の結果として多くの苦難を体験する場合が多い。患者が直面する苦難は、診断に伴う場合がある痛み、不快感、又は可動性の喪失など、身体的な影響に加えて、失業、医療費、及び治療費から生じる金銭上の困難をさらに含む場合が多い。さらになお、患者の診断は、患者の社会的交流及び全体的な感情的幸福に悪影響を及ぼす場合が多い。その結果、多くの患者は、自分の診断の結果として著しい心理的苦痛を体験し、多くの場合、この苦痛を軽減するための適切なサポート又は治療を受けない。
【0005】
しばしば、患者が1つ又は複数の病状と診断された場合には、その患者は、さらなるケア及び治療のために追加の健康専門家に紹介されることがある。たとえば、患者は、心理学者、精神科医、カウンセラー、又はその他のメンタル・ヘルス専門家に紹介される場合がある。患者は、その患者が体験している場合がある何らかの心理的苦痛に伴う支援を行うための1つ又は複数のサポート・グループへ導かれる場合もある。これらの従来の対面オプションは、患者にとって大いに有益である可能性があるが、多くの場合、十分な心理的サポートを提供しない。たとえば、患者が1人で自宅にいる場合、又はその他の形で自分のメンタル・ヘルス専門家若しくはサポート・グループと直接関わっていない場合には、患者は、恐怖、不安、パニック、及びうつ状態など、著しい度合いの1つ又は複数の否定的な感情状態を体験する可能性がある。加えて、これらの否定的な感情状態は、未確認のまま治療されずに放置されると、患者の診断に関連付けられている身体的な症状を悪化させる場合が多く、ひいては、より大きな心理的苦痛につながることがある。
【0006】
さらに、一部の患者は、たとえば不安又は苦痛を自分が感じているということを認識することが可能であり、追加の助けを能動的に求めることが可能であるが、多くの患者は、これらの精神状態を、それらを完全に認識することなく経験する場合があり、ひいては、自分が追加の助けを必要としているということに気づかない可能性がある。さらになお、多くの患者は、自分の病状に関して困惑又は恥ずかしさを感じる場合があり、それによって患者は、自分が必要とする助けを能動的に得ようとする気がなくなる場合がある。その結果として、従来の心理的なサポート及び治療のメカニズムに関連付けられている短所は、患者の全体的な健康、安全、及び幸福に著しい深刻な影響を及ぼすことがある。
【0007】
メンタル・ヘルス専門家が診療所又はサポート・グループの環境の外側で患者の心理状態をモニタすることを可能にするための現在のメカニズムは限られているので、従来の心理的なサポート及び治療のオプションに関連付けられている短所は、技術的な問題を提示しており、その問題は、技術的な解決策を必要としている。デジタル・アプリケーションが人間の対話に取って代わり始めているので、この問題は、さらにいっそう顕著になっている。これは、人々が自分たちの日常生活のさまざまな側面においてサポート及び支援を自分たちに提供するためにアプリケーションにますます依存しているからであり、従来の解決策がこれらの問題に対処し損ねると、多数の人々にとって重大な結果につながる可能性がある。
【発明の概要】
【発明が解決しようとする課題】
【0008】
そのため、必要とされているものは、適切なケア、サポート、及び治療を患者が受けることを確実にするために患者の心理状態における変化又は異常をより正確にリモートで識別してモニタするための方法及びシステムである。
【課題を解決するための手段】
【0009】
本開示の実施例は、現ユーザ対話データを入手するために、1つ又は複数のアプリケーションのアプリケーション・インターフェースを通じて提示されたさまざまな素材との現ユーザの対話をモニタすることによって、1つ又は複数のアプリケーションの現ユーザの心理状態における変化又は異常を正確にリモートで識別してモニタするという技術的な問題に対する効果的で効率のよい技術的な解決策を提供する。一実施例においては、現ユーザ対話データは次いで、現ユーザの精神状態を特定するために、及び/又は現ユーザの精神状態における何らかの異常を検知するために、平均的なユーザに関連付けられている平均ユーザ対話データに比較される。一実施例においては、現ユーザの対話データは、現ユーザの精神状態を特定するために、及び/又は現ユーザの精神状態における何らかの異常を検知するために、現ユーザに関連付けられている履歴ユーザ対話データと比較される。一実施例においては、現ユーザの対話データは、現ユーザの精神状態を特定するために、及び/又は現ユーザの精神状態における何らかの異常を検知するために、1つ又は複数の機械学習ベースの精神状態予測モデルを使用して処理される。
【0010】
本開示のいくつかの実施例は、1つ又は複数の病状と診断された患者の心理状態における変化又は異常を正確にリモートで識別してモニタするという技術的な問題に対する効果的で効率のよい技術的な解決策を提供する。開示されている実施例においては、1つ又は複数の病状と診断された患者が、デジタル治療アプリケーションへのアクセスを処方され、このデジタル治療アプリケーションは、導かれるケアを患者に対してさまざまな方法で提供するように設計されている。
【0011】
一実施例においては、患者がデジタル治療アプリケーションへのアクセスを処方されると、その患者は、アプリケーションにアクセスすること、及びアプリケーションによって提供されるツールを利用することが自由にできる。患者がアプリケーションにアクセスすると、患者はアプリケーションのユーザになり、アプリケーションのユーザ・インターフェースを通じてデジタル・コンテンツを提供される。ユーザに提供されるコンテンツは、ユーザの病状のうちの1つ又は複数に関連している情報、並びにユーザの現在の及び潜在的な投薬及び/又は治療に関連している情報を含むことが可能である。ユーザに提供されるコンテンツはさらに、コンテンツに関連した質問又は演習など、インタラクティブなコンテンツを含むことが可能であり、それらは、アプリケーション・インターフェースを通じてさまざまなマルチメディア素材と対話するようユーザに促すように設計されている。
【0012】
一実施例においては、アプリケーション・インターフェースを通じて提示されたさまざまな素材とのユーザの対話は、ユーザ対話データを入手するためにモニタされる。ユーザ対話データは、提示された素材とのユーザの対話のスピード、並びに提示された素材についてのユーザの理解などのデータを含むことが可能である。さまざまな実施例においては、提示された素材とのユーザの対話のスピードは、さまざまな方法で特定されることが可能であり、それらの方法は、ユーザがテキストデータをスクロールする速度、素材の中でユーザを進めていくボタンをユーザがクリックする速度、又はアプリケーションによって提供された質問若しくは演習に応答してユーザがテキスト文字列をタイプする速度をモニタすることなどであるが、これらに限定されない。さまざまな実施例においては、その他のユーザ・データ(ユーザ・オーディオ・データ、ユーザ・ビデオ・データ、及び/又は、アイ・スキャン・レート・データなどのユーザ・バイオメトリック・データなどであるが、これらに限定されない)が、ユーザの対話のスピードをモニタするために使用されることが可能である。提示された素材についてのユーザの理解も、さまざまな方法で特定されることが可能であり、それらの方法は、ユーザがアプリケーションに関わり合っている間にコンテンツに関する質問をユーザに断続的に提示することなどであるが、これらに限定されない。
【0013】
いくつかの実施例においては、デジタル治療アプリケーションは、複数のアプリケーション・ユーザから対話データを入手し、このデータを処理して、それらの複数のユーザに関連付けられている対話データに基づく平均対話スピード及び平均理解レベルを算出する。いくつかのの実施例においては、この情報は、人口のうちの所与の人口統計学的セクタに関する平均読み取りスピードなど、より一般的な形態で第三者から入手されることが可能である。そしてある特定のユーザが、インタラクティブなコンテンツを提示されることが可能であり、そのユーザの対話スピード及び理解レベルがモニタされ、平均に比較されて、その特定のユーザの対話スピード及び/又は理解レベルが、算出された平均の事前に定義されたしきい値内にあるかどうかを特定することが可能である。ユーザの対話スピード及び/又は理解レベルが、事前に定義されたしきい値の外側にあると特定されると、以降でさらに詳しく論じられるように、この特定に基づいて、アプリケーション・ユーザのありそうな精神状態に関して予測が行われることが可能であり、そして追加のアクションが取られることが可能である。
【0014】
いくつかの実施例においては、あるユーザがデジタル治療アプリケーションへのアクセスを処方されると、その特定のユーザに関するユーザ・プロフィールが生成される。ユーザがアプリケーション・コンテンツと対話するにつれて、それぞれの対話セッションに関するユーザの対話スピード及び理解レベルがモニタされ、結果として生じる対話データが、ユーザのプロフィールに関連付けられているデータベースに格納されることが可能である。次いでユーザの対話データが分析されて、ユーザの基準対話スピード及び理解レベルが特定される。ユーザの基準は、時間とともに周期的に又は継続的に更新されることが可能である。ユーザがアプリケーションにアクセスしてアプリケーションと対話するたびに、現在の対話セッションに関する結果として生じる対話データが、ユーザの基準に比較されて、ユーザの対話スピード及び/又は理解レベルが、ユーザの基準の事前に定義されたしきい値内にあるかどうかを特定することが可能である。ユーザの対話スピード及び/又は理解レベルが、事前に定義されたしきい値の外側にあると特定されると、以降でさらに詳しく論じられるように、この特定に基づいて、アプリケーション・ユーザのありそうな精神状態に関して予測が行われることが可能であり、そして追加のアクションが取られることが可能である。
【0015】
いくつかの実施例においては、複数のユーザが、デジタル治療アプリケーションのユーザ・インターフェースを通じて情報及びインタラクティブなコンテンツを提供される。それぞれのユーザの対話がモニタされて、対話スピード及び理解レベルなど、ユーザ対話データが収集される。加えて、ユーザたちのそれぞれに関して精神状態データが収集され、その精神状態データは、ユーザ対話データに相関付けられる。相関付けられた精神状態及びユーザ対話データは、次いでトレーニング・データとして利用されて、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデルが生成される。
【0016】
1つ又は複数の機械学習モデルが生成されると、現ユーザが、アプリケーションのユーザ・インターフェースを通じて情報及びインタラクティブなコンテンツを提供されることが可能である。現ユーザの対話がモニタされて、ユーザ対話データが収集され、ユーザ対話データは次いで、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデルに提供され、その結果、現ユーザに関するユーザ精神状態予測データが生成される。
【0017】
さまざまな実施例においては、ユーザのありそうな精神状態を識別すると、又はユーザの精神状態における変化若しくは異常を識別すると、ユーザの特定の精神状態又は既知の病状に応じて、そしてまた変化又は異常の重症度の特定に応じて、ユーザを支援するためにデジタル治療アプリケーションによって追加のアクションが取られることが可能である。たとえば、普段は落ち着いているユーザが、現在は軽度の不安な精神状態にあるという特定が行われた場合には、ユーザ・インターフェースを通じてユーザに提供されている情報のコンテンツ及び/又は提示を調整することなど、軽微なアクションが取られることが可能である。その一方で、普段は軽度の不安を抱えているユーザが、現在は重度の不安、恐怖、又はうつ状態にある場合には、アプリケーションの通知システムを通じて、ユーザに関連付けられている1人若しくは複数の医療専門家に通知すること、又はユーザに関連付けられている1人若しくは複数の医療専門家からの何らかのその他の形態の個人的な介入など、より思い切ったアクションが取られることが可能である。
【0018】
以降でさらに詳しく論じられているこれら及びその他の開示されている特徴の結果として、開示されている実施例は、1つ又は複数の病状と診断されたユーザを含むアプリケーション・ユーザの心理状態における変化又は異常をリモートで識別してモニタするという技術的な問題に対する効果的で効率のよい技術的な解決策を提供する。
【図面の簡単な説明】
【0019】
図1】第1の実施例による、平均ユーザ対話データ及び現ユーザ対話データの分析に基づいてアプリケーション・ユーザの心理状態における異常をリモートで識別してモニタするためのプロセスのフロー・チャートである。
図2】第1の実施例による、平均ユーザ対話データ及び現ユーザ対話データの分析に基づいてアプリケーション・ユーザの心理状態における異常をリモートで識別してモニタするためのプロダクション環境のブロック図である。
図3】第2の実施例による、履歴ユーザ対話データ及び現ユーザ対話データに基づいてアプリケーション・ユーザの心理状態における変化又は異常をリモートで識別してモニタするためのプロセスのフロー・チャートである。
図4】第2の実施例による、履歴ユーザ対話データ及び現ユーザ対話データに基づいてアプリケーション・ユーザの心理状態における変化又は異常をリモートで識別してモニタするためのプロダクション環境のブロック図である。
図5】第3の実施例による、機械学習ベースの分析及び処理に基づいてアプリケーション・ユーザの心理状態をリモートで識別又は予測するためのプロセスのフロー・チャートである。
図6】第3の実施例による、機械学習ベースの分析及び処理に基づいてアプリケーション・ユーザの心理状態をリモートで識別又は予測するためのプロダクション環境のブロック図である。
【発明を実施するための形態】
【0020】
同様の要素どうしを示すために、図及び詳細な記述の全体を通じて共通の参照番号が使用されている。上記の図は説明例にすぎないということ、並びにその他のアーキテクチャー、オペレーションのモード、オペレーションの順序、及び要素/機能が、特許請求の範囲において記載されている本発明の特徴及び機能から逸脱することなく提供され実施されることが可能であるということを当業者なら容易に認識するであろう。
【0021】
ここで、添付の図を参照しながら実施例が論じられ、それらの図は、1つ又は複数の例示的な実施例を示している。実施例は、多くの異なる形態で実施されることが可能であり、本明細書において記載されている、図において示されている、又は以降で記述されている実施例に限定されると解釈されるべきではない。むしろ、これらの例示的な実施例は、特許請求の範囲において記載されている本発明の原理を当業者に伝える完全な開示を可能にするために提供されている。
【0022】
本開示の実施例は、アプリケーション・ユーザの心理状態における変化又は異常をリモートで識別してモニタするという技術的な問題に対する効果的で効率のよい技術的な解決策を提供する。開示されている実施例においては、ユーザが、さまざまな方法で情報及び支援をユーザに提供するように設計されている1つ又は複数のアプリケーションへのアクセスを許可される。1つ又は複数のアプリケーションを通じて、ユーザは、インタラクティブなコンテンツを提供されることが可能であり、これは、提供されたコンテンツとのユーザの対話の諸側面に関連したデータの収集を可能にする。そして収集された対話データが分析されて、ユーザの心理状態における変化又は異常が識別されモニタされる。ユーザの心理状態における変化又は異常が識別されると、ユーザを支援するための1つ又は複数のアクションが取られる。
【0023】
図1は、第1の実施例による、平均ユーザ対話データ及び現ユーザ対話データの分析に基づいてアプリケーション・ユーザの心理状態における異常をリモートで識別してモニタするためのプロセス100のフロー・チャートである。
【0024】
プロセス100は、開始102において始まり、プロセス・フローは104へ進む。104において、アプリケーションの1人又は複数のユーザが、ユーザ・インターフェースを提供され、このユーザ・インターフェースは、その1人又は複数のユーザがアプリケーションからの出力を受け取ること、並びにアプリケーションへの入力を提供することを可能にする。
【0025】
さまざまな実施例においては、アプリケーションは、ユーザ・インターフェースを通じてユーザにコンテンツ/情報を提供することが可能である任意のタイプのアプリケーションであることが可能であり、デスクトップ・コンピューティング・システム・アプリケーション、モバイル・コンピューティング・システム・アプリケーション、仮想現実コンピューティング・システム・アプリケーション、モノのインターネット(IoT)デバイスによって提供されるアプリケーション、又はそれらの任意の組合せを含むが、それらに限定されない。さまざまな実施例においては、ユーザ・インターフェースは、グラフィカル・ユーザ・インターフェース、オーディオベースのユーザ・インターフェース、タッチベースのユーザ・インターフェース、又は当業者に現在知られている任意のその他のタイプのユーザ・インターフェース、又は出願の時点よりも後に開発される可能性がある任意のその他のタイプのユーザ・インターフェースの任意の組合せを含むことが可能である。
【0026】
一実施例においては、1人又は複数のユーザに提供されるアプリケーションは、デジタル治療アプリケーションであり、このデジタル治療アプリケーションは、1つ又は複数の病状と診断された患者を支援するように設計されている。具体的な説明例として、ある患者を1つ又は複数の病状と診断すると、医療ケア専門家は、デジタル治療アプリケーションへのアクセスをその患者に処方することが可能である。デジタル治療アプリケーションは、上で論じられているように、ユーザにユーザ・インターフェースを提供することが可能である任意のタイプのコンピューティング・システムを通じて患者によってアクセスされることが可能である。デジタル治療アプリケーションにアクセスすると、患者は次いでアプリケーションのユーザになり、ユーザ・インターフェースを提供され、このユーザ・インターフェースは、ユーザがデジタル治療アプリケーションと対話することを可能にする。
【0027】
一実施例においては、104においてアプリケーションの1人又は複数のユーザがユーザ・インターフェースを提供されると、プロセス・フローは106へ進む。106において、1人又は複数のユーザは、ユーザ・インターフェースを通じて情報を提供される。
【0028】
さまざまな実施例においては、ユーザ・インターフェースを通じて1人又は複数のユーザに提供される情報は、テキスト情報、オーディオ情報、グラフィカル情報、画像情報、ビデオ情報、及び/又はそれらの任意の組合せを含むが、それらに限定されない。一実施例においては、情報は、提供された情報と1人又は複数のユーザが対話することを可能にするような方法で1人又は複数のユーザに提供される。たとえば、ユーザは、電子デバイスのスクリーン上にさまざまなグラフィカル・ユーザ要素とともに情報を提示されることが可能であり、それらのグラフィカル・ユーザ要素は、ユーザが情報をスクロールすること、情報に関連付けられているボタンをクリックすること、及び/又は情報に応答してテキスト文字列を入力することを可能にする。タッチ・スクリーンを含むデバイス上でユーザに情報が提示される場合には、対話は、タッチベースの対話及び/又はジェスチャー認識を含むことが可能である。テキスト入力及びタッチ又はクリックベースの入力に加えて、さまざまな実施例においては、ユーザは、オーディオ入力、ビデオ入力、加速度計入力、音声認識、顔認識を通じて、又はさまざまな生理学的センサを通じてなど、より進んだ入力メカニズムを通じて情報と対話することが可能であり得る。生理学的センサの例は、心拍数モニタ、血圧モニタ、アイ・トラッキング・モニタ、又は筋活動モニタを含むことが可能であるが、それらに限定されない。
【0029】
1つの具体的な説明例として、一実施例においては、デジタル治療アプリケーションの1人又は複数のユーザがユーザ・インターフェースを提供されると、ユーザは、コンテンツベースの情報を提供されることが可能であり、それらの情報は、病歴、現在の若しくは潜在的な医療ケア提供者、病状、投薬、栄養補助食品に関連した情報、食事及び/若しくは運動に関するアドバイス若しくは提案、又はその1人若しくは複数のユーザに関連があるとみなされることが可能である任意のその他のタイプの情報などであるが、それらに限定されない。
【0030】
一実施例においては、コンテンツベースの情報は、もっぱらテキスト・フォーマットで提供されることが可能であるが、さまざまなその他の実施例においては、ユーザは、テキストに伴う画像、たとえば、ユーザの病状に関連した1つ又は複数の見てわかる症状を示す画像を提示されることも可能である。ユーザはさらに、チャート、グラフ、デジタル・シミュレーション、又はその他の視覚化ツール等のようなグラフィカル・コンテンツを提示されることが可能である。1つの説明例として、ユーザは、そのユーザの症状を、同じ又は同様の状態と診断されたその他の患者の症状と比較するチャート又はグラフを提示されることが可能である。ユーザはさらに、自分の病状に関連したオーディオ及び/又はビデオ情報を提示されることが可能である。追加の説明例として、ユーザは、理学療法の運動の初めから終わりまでユーザを導く1つ若しくは複数の教則ビデオ、又はユーザの病状の背後にある歴史及び/若しくは科学に関してユーザに知らせる教育ビデオを提供されることが可能である。さまざまな実施例においては、ユーザは、上記のタイプのコンテンツベースの情報の任意の組合せ、又は特定のユーザに関連がある可能性がある任意のその他の追加のタイプのコンテンツを提示されることが可能である。
【0031】
上で論じられているコンテンツベースの情報のタイプに加えて、1人又は複数のユーザに提供されることが可能である別のタイプの情報は、美的感覚ベースの情報である。このタイプの情報は、ユーザによってすぐには認識されない場合があるが、それでもなお、ユーザがコンテンツベースの情報の提示を取り入れてそれに反応する方法において重要な役割を果たす。この美的感覚ベースの情報は、アプリケーションによってユーザに提供される全体的なユーザ体験を生み出すために使用され、それゆえに、本明細書においてはユーザ体験情報又はユーザ体験データと呼ばれる場合もある。ユーザ体験データの例は、コンテンツベースの情報をユーザに提示するために使用される色及びフォント、グラフィカル・ユーザ・インターフェース要素のさまざまな形状、ユーザに提示されるコンテンツベースの情報のレイアウト若しくは順序付け、並びに/又はコンテンツベースの情報の提示若しくはそれとの対話に伴うことが可能であるサウンド・エフェクト、音楽、若しくはその他のオーディオ要素を含むが、それらに限定されない。
【0032】
一実施例においては、1人又は複数のユーザが106においてユーザ・インターフェースを通じて情報を提供されると、プロセス・フローは108へ進む。108において、ユーザ・インターフェースを通じて提示された情報との1人又は複数のユーザの対話がモニタされ、収集ユーザ対話データが生成される。
【0033】
ユーザ・インターフェースを通じて提示された情報との1人又は複数のユーザの対話は、ユーザ・インターフェースを通じて受け取られたユーザ入力データの収集を通じてモニタされることが可能である。収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、ユーザ入力データが1人又は複数のユーザから収集されると、それらの1人又は複数のユーザのそれぞれからのユーザ入力データが処理され集約されて、収集ユーザ対話データが生成される。
【0034】
1つの説明例として、一実施例においては、デジタル治療アプリケーションは、さらなるデータ分析及び処理を可能にするために特定のタイプのユーザ対話データをモニタするように構成されることが可能である。一実施例においては、デジタル治療アプリケーションは、提供された情報と1人又は複数のユーザが対話するスピードをモニタするように構成されることが可能である。一実施例においては、提供された情報とユーザが対話するスピードは、クリックストリームデータを収集することによって測定されることが可能であり、クリックストリームデータは、ユーザに提示された情報コンテンツのさまざまな部分に関わり合うことにどれぐらい長い時間をユーザが費やしているかなどのデータを含むことが可能である。
【0035】
たとえば、デジタル治療アプリケーションのユーザが自分の病状のうちの1つ又は複数に関連した長々とした記事を提示される状況について考えていただきたい。この例においては、ユーザは、その記事の全体を読むためには、おそらくコンテンツを完全にスクロールする必要があるであろう。ユーザがテキストの一番上からテキストの一番下までスクロールするのにかかる時間は、ユーザ入力データから特定されることが可能であり、次いでこの入力データが使用されて、ユーザがその記事を読んだ、又はその記事と対話したスピードを表すユーザ対話データを生成することが可能である。
【0036】
さらなる例として、デジタル治療アプリケーションのユーザは、一連のスクリーンを提示されることが可能であり、その場合、それぞれのスクリーンは、ユーザの病状に関連した1つ又は複数のタイプの情報を含むことが可能である。たとえば、第1のスクリーンは、テキスト及び画像を含むことが可能であり、第2のスクリーンは、1つ又は複数のグラフィカル視覚化を含むことが可能であり、第3のスクリーンは、オーディオ/ビデオの提示を、テキスト情報とともに含むことが可能である。それぞれのスクリーンは、ナビゲーション・ボタンなどのユーザ・インターフェース要素を有することが可能であり、これは、ユーザが別々のスクリーンの間において行ったり来たりすることを可能にする。ユーザが1つのスクリーンから次のスクリーンへ、又は提示の始まりから終わりへクリック又はタッチするのにかかる時間は、ユーザ入力データから特定されることが可能であり、次いでこの入力データが使用されて、ユーザがその提示を読んだ、又はその提示と対話したスピードを表すユーザ対話データを生成することも可能である。
【0037】
加えて、ユーザは、テキスト応答を必要とするさまざまな質問又は演習を提示されることが可能であり、タイピング事象及び削除事象の頻度が使用されて、ユーザが演習素材と対話したスピードを表すユーザ対話データを生成することが可能である。
【0038】
別の実施例においては、デジタル治療アプリケーションは、情報との1人又は複数のユーザの対話をモニタして、その情報に関するその1人又は複数のユーザの理解のレベルを特定するように構成されることが可能である。一実施例においては、ユーザが、提示されている情報に関わり合っているかどうか、及びその情報を理解しているかどうかを特定するように設計されているさまざまなプロンプト又は質問をユーザに周期的に提示することによって、ユーザと、そのユーザに提供された情報とに関連付けられている理解のレベルが測定されることが可能である。次いで、たとえば、ユーザが正しく答えた質問のパーセンテージに基づいて、理解レベルが計算されることが可能である。
【0039】
さらに、一実施例においては、ユーザの理解のレベルは、ユーザが読んだ又は対話した提供された情報のパーセンテージに基づいて特定されることが可能である。たとえば、ユーザが記事を読み始めているが、ユーザ入力データが、ユーザが記事の終わりまで一度もスクロールしていないということを示している場合には、ユーザは、提供された情報についての不十分な理解しか有していないということが特定されることが可能である。同様に、情報の複数のスクリーン、たとえば10個のスクリーンをユーザが提示されているケースにおいて、ユーザが10個のスクリーンのうちの2個へ進んでいるだけである場合には、ユーザは、提供された情報についての不十分な理解しか有していないということが特定されることが可能である。
【0040】
前述の例は、例示の目的のみのために与えられており、本明細書において開示されている、及び以降で特許請求されている本発明の範囲を限定することを意図されているものではないということにここで留意されたい。
【0041】
一実施例においては、108において、ユーザ・インターフェースを通じて提示された情報との1人又は複数のユーザの対話がモニタされ、関連付けられている収集ユーザ対話データが生成されると、プロセス・フローは110へ進む。一実施例においては、110において、収集ユーザ対話データが分析され、平均ユーザ対話データが生成される。
【0042】
上で論じられているように、さまざまな実施例においては、収集ユーザ対話データは、ユーザ・インターフェースを通じて提供された情報との1人又は複数のユーザの対話のモニタリングを通じて入手された関連付けられているクリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に基づいて生成されたデータを含むことが可能であるが、それらに限定されない。
【0043】
一実施例においては、110において、収集ユーザ対話データが分析されて、個々のタイプのユーザ対話データに関する1人又は複数のユーザにわたる平均が特定される。たとえば、ユーザ対話データのタイプは、ユーザがアプリケーションにアクセスしている回数、ユーザがアプリケーションに関わり合うことに費やしている時間の長さ、どれぐらい長くユーザがアプリケーションにアクセスしているか、ユーザがアプリケーションを使用している間に最も関わり合っている情報のタイプ、進んだ入力メカニズムをユーザが利用しているか否か、ユーザによって最も好まれている入力メカニズムのタイプ、アプリケーションを通じて提示された情報にユーザが関わり合っているスピード、及びアプリケーションを通じて提示された情報についてユーザが有している理解のレベルを含むことが可能であるが、それらに限定されない。
【0044】
デジタル治療アプリケーションが、ユーザ・インターフェースを通じて提示された情報に1人又は複数のユーザが関わり合っているスピード、さらには、ユーザ・インターフェースを通じて提示された情報について1人又は複数のユーザが有している理解のレベルをモニタするように構成されている上述の説明例について考えていただきたい。この具体的な説明例においては、110において、収集ユーザ対話データは、提示された情報と1人又は複数のユーザのそれぞれが対話するスピードを示すデータ、並びに提示された情報に関して1人又は複数のユーザのそれぞれが有している理解のレベルを示すデータを含むことになる。1人又は複数のユーザのそれぞれは、収集ユーザ対話データの部分を形成する複数の関連付けられているデータ・ポイントを有することが可能である。たとえば、あるユーザが、特定の日に受信された特定の一片の情報に関連付けられている特定の対話スピード及び/又は理解レベルを有する場合がある。同じユーザが、異なる日に受信された同じ一片の情報に関連付けられている異なる対話スピード及び/又は理解レベルを有する場合がある、といった具合である。さらに、デジタル治療アプリケーションが、ユーザ特徴に基づいて収集ユーザ・データをグループ化することが望ましいと考えられる場合があり、それらのユーザ特徴は、年齢、性別、人種、又は病状のタイプなどであるが、それらに限定されない。それゆえに、デジタル治療アプリケーションは、収集ユーザ対話データを分析する際にさまざまなファクタを考慮して平均ユーザ対話データを生成するように構成されることが可能である。
【0045】
1つの簡略化された説明例として、デジタル治療アプリケーションは、収集ユーザ対話データを分析して、乳がんと診断された55~65歳のすべての女性ユーザの間における特定の情報の記事との対話の平均スピードを計算するように構成されることが可能である。このアプリケーションはさらに、アルツハイマー病と診断された65~75歳のすべての男性ユーザの間におけるビデオ・コンテンツについての理解の平均レベルを計算するように構成されることが可能である。アプリケーションのユーザどうしの間における平均を特定するために膨大な数の構成オプションが利用可能となり、具体的な構成はアプリケーション管理者の目的に依存することになるということが、上記の説明例から容易に明らかになるはずである。したがって、前述の例は、例示の目的のみのために与えられており、本明細書において開示されている本発明の範囲を限定することを意図されているものではないということにここで再び留意されたい。
【0046】
一実施例においては、110において収集ユーザ対話データが分析され、平均ユーザ対話データが生成されると、プロセス・フローは112へ進む。一実施例においては、112において、1つ又は複数のしきい値ユーザ対話差異が定義され利用されて、しきい値ユーザ対話差異データが生成される。
【0047】
一実施例においては、1つ又は複数のしきい値ユーザ対話差異が定義され、それによって、平均ユーザ対話データから逸れたユーザ対話データを有するユーザが識別されることが可能である。一実施例においては、しきい値ユーザ対話差異は、特定のユーザの対話データと平均ユーザ対話データとの間における最大許容偏差を表す。さまざまな実施例においては、しきい値ユーザ対話差異は、さまざまな方法で定義されることが可能であり、それらの方法は、アプリケーション構成オプションを通じて、又は所定の標準の使用などであるが、それらに限定されない。
【0048】
デジタル治療アプリケーションの例を続けると、一実施例においては、平均ユーザ対話データの生成後に、アルツハイマー病と診断された65~75歳の男性ユーザどうしの間におけるビデオ・コンテンツの理解の平均レベルが50%であるということが特定される場合があり、この場合、50%は、この特定のグループにおける患者たちによって正しく回答されたビデオ・コンテンツに関連した理解度質問のパーセンテージを表している。10%の変動が比較的一般的であると専門家又はその他のヘルス・ケア専門家によって判断される場合があり、したがって、ビデオ・コンテンツに関する40%の理解レベルを示したユーザ対話データを有するこのグループにおける患者たちが懸念を引き起こすことはないであろう。しかしながら、しきい値ユーザ対話差異が20%の変動で定義された場合には、ビデオ・コンテンツに関する29%の理解レベルを示したユーザ対話データを有するこのグループにおける患者たちは、懸念を引き起こすことになり、以降でさらに詳しく論じられるように、さらなるアクションが適切であるとみなされる可能性がある。
【0049】
既に上述されているように、さまざまな実施例においては、ユーザ及びユーザ対話データのタイプのさまざまなグループ化に応じて、110における平均ユーザ対話データの生成中に多数の個々の可能な平均が生成されることが可能であり、したがって、平均ユーザ対話データを形成する個々の平均のそれぞれに関連付けられている別々のしきい値ユーザ対話差異が潜在的にあり得るということが前述の論考からわかる。一実施例においては、しきい値ユーザ対話差異のこの収集物が集約されて、しきい値ユーザ対話差異データが生成される。
【0050】
一実施例においては、112において1つ又は複数のしきい値ユーザ対話差異が定義され利用されて、しきい値ユーザ対話差異データが生成されると、プロセス・フローは114へ進む。一実施例においては、114において、アプリケーションの現ユーザが、アプリケーションのユーザ・インターフェースを通じて情報を提供される。
【0051】
1人又は複数のユーザがアプリケーション・ユーザ・インターフェースを通じて情報を提供される上述のオペレーション106とは対照的に、114においては、単一の特定のユーザが、アプリケーションを使用する単一の現在のセッション中に、アプリケーションのユーザ・インターフェースを通じて情報を提供される。そのため、単一の特定のユーザが、以降では現ユーザと呼ばれる場合がある。
【0052】
1人又は複数のユーザに提供される情報に関して、上で詳細に記述されているように、さまざまな実施例においては、ユーザ・インターフェースを通じて現ユーザに提供される情報は、テキスト情報、オーディオ情報、グラフィカル情報、画像情報、ビデオ情報、ユーザ体験情報、及び/又はそれらの任意の組合せを含むが、それらに限定されない。一実施例においては、情報は、提供された情報と現ユーザが対話することを可能にするような方法で現ユーザに提供される。
【0053】
一実施例においては、114において情報が現ユーザに提供されると、プロセス・フローは116へ進む。ユーザ・インターフェースを通じて提供された情報との1人又は複数のユーザの対話がモニタされて、収集ユーザ対話データが生成される上述のオペレーション108とは対照的に、116においては、ユーザ・インターフェースを通じて提供された情報との現ユーザの対話がモニタされて、現ユーザ対話データが生成される。
【0054】
1人又は複数のユーザの対話をモニタして、収集ユーザ対話データを生成することに関して、上で詳細に記述されているように、さまざまな実施例においては、ユーザ・インターフェースを通じて提示された情報との現ユーザの対話は、ユーザ・インターフェースを通じて受け取られたユーザ入力データの収集を通じてモニタされることが可能である。収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、ユーザ入力データが現ユーザから収集されると、そのユーザ入力データが処理され集約されて、現ユーザ対話データが生成される。
【0055】
1人又は複数のユーザの対話をモニタして、収集ユーザ対話データを生成することに関して、やはり上で詳細に記述されているように、さまざまな実施例においては、アプリケーションは、特定のタイプの現ユーザ対話データをモニタするように構成されることが可能であり、それらの現ユーザ対話データは、提供された情報と現ユーザが対話するスピード、及び/又は提供された情報に関する現ユーザの理解のレベルなどであるが、それらに限定されない。一実施例においては、提供された情報と現ユーザが対話するスピードは、クリックストリームデータを収集することによって測定されることが可能であり、クリックストリームデータは、ユーザ・インターフェースを通じて現ユーザに提示された情報コンテンツのさまざまな部分に関わり合うことにどれぐらい長い時間を現ユーザが費やしているかなどのデータを含むことが可能である。一実施例においては、現ユーザが、提示されている情報に関わり合っているかどうか、及びその情報を理解しているかどうかを特定するように設計されているさまざまなプロンプト又は質問を現ユーザに周期的に提示することによって、現ユーザと、提供された情報とに関連付けられている理解のレベルが測定されることが可能である。次いで、たとえば、現ユーザが正しく答えた質問のパーセンテージに基づいて、理解レベルが計算されることが可能である。さらに、一実施例においては、現ユーザの理解のレベルは、現ユーザが読んだ又は対話した提供された情報のパーセンテージに基づいて特定されることが可能である。
【0056】
一実施例においては、116において、ユーザ・インターフェースを通じて提供された情報との現ユーザの対話がモニタされて、現ユーザ対話データが生成されると、プロセス・フローは118へ進む。一実施例においては、118において、現ユーザ対話データが、平均ユーザ対話データとともに分析されて、現ユーザ対話差異データが生成され、現ユーザ対話差異データは、現ユーザ対話データと平均ユーザ対話データとの間における何らかの差異を表す。
【0057】
一実施例においては、現ユーザ対話データが分析されて、アプリケーションがモニタするように構成されているユーザ対話データのタイプに最も関連があるデータが抽出される。たとえば、アプリケーションがユーザの対話スピード及びユーザの理解レベルをモニタするように構成されている場合には、現ユーザの対話スピード及び現ユーザの理解レベルに関連したデータが、現ユーザ対話データから抽出される。
【0058】
一実施例においては、関連があるユーザ対話データが現ユーザ対話データから抽出されると、平均ユーザ対話データが分析されて、平均ユーザ対話データのうちで、関連があるユーザ対話データに対応するデータが特定される。次いで現ユーザ対話データが、平均ユーザ対話データのうちの対応するデータに比較されて、現ユーザ対話データと、平均ユーザ対話データのうちの対応するデータとの間に何らかの差異があるかどうかが特定され、現ユーザ対話差異データが生成され、現ユーザ対話差異データは、現ユーザ対話データと、平均ユーザ対話データのうちの対応するデータとの間における何らかのそのような差異を表す。
【0059】
上述されているデジタル治療アプリケーションの説明例へ戻ると、現ユーザが、乳がんと診断された60歳の女性であり、関連があるユーザ対話データが、対話のスピードに関連付けられているデータである場合には、平均ユーザ対話データが分析されて、乳がんと診断された55~65歳の女性の対話の平均スピードを提供するデータが抽出されることになる。たとえば、現ユーザの対話スピードが150ワード/分であると測定され、対応する平均対話スピードが200ワード/分である場合には、現ユーザの対話スピードと、対応する平均対話スピードとの間における差異は50ワード/分となり、この値は、現ユーザ対話差異データによって表されることになる。さまざまな実施例においては、現ユーザ対話差異データは、複数のタイプのユーザ対話データに関連した差異データを含む。たとえば、現ユーザ対話差異データは、現ユーザの対話のスピードに関連した差異データ、並びに現ユーザの理解レベルに関連した差異データを含むことが可能であるが、それらに限定されない。
【0060】
既に上で数回述べられているように、前述の例は、例示の目的のみのために与えられており、本明細書において開示されている、及び以降で特許請求されている本発明の範囲を限定することを意図されているものではない。一例として、ユーザの対話スピードは、利用可能な任意の測定手段を使用して測定されることが可能であり、本明細書においては、1分あたりのワード数を必要とする測定に限定されると解釈されるべきではない。
【0061】
一実施例においては、118において現ユーザ対話データが平均ユーザ対話データとともに分析されて、現ユーザ対話差異データが生成されると、プロセス・フローは120へ進む。120において、1つ又は複数のタイプのユーザ対話データに関する現ユーザ対話差異データが、同じ1つ又は複数のタイプのユーザ対話データに対応するしきい値ユーザ対話差異データと比較されて、現ユーザ対話差異のうちの1つ又は複数が、対応するしきい値ユーザ対話差異よりも大きいかどうかが特定される。
【0062】
たとえば、一実施例においては、ユーザの対話スピードに関連付けられている現ユーザ対話差異が、ユーザの対話スピードに関連付けられているしきい値ユーザ対話差異に比較されることが可能であり、ユーザの理解レベルに関連付けられている現ユーザ対話差異が、ユーザの理解レベルに関連付けられているしきい値ユーザ対話差異に比較されることが可能である。この例においては、比較は、ユーザ対話差異のうちのいずれも、それらの対応するしきい値ユーザ対話差異よりも大きくないということ、ユーザ対話差異のうちの一方が、それらの対応するしきい値ユーザ対話差異よりも大きいということ、又はユーザ対話差異のうちの両方が、それらの対応するしきい値ユーザ対話差異よりも大きいということをもたらす場合がある。
【0063】
一実施例においては、120において現ユーザ対話差異データがしきい値ユーザ対話差異データと比較されると、プロセス・フローは122へ進む。122において、現ユーザ対話差異のうちの1つ又は複数が、対応するしきい値ユーザ対話差異よりも大きい場合には、これはユーザの心理状態における異常を示しているということが特定されることが可能であり、このデータを利用して、現ユーザの精神状態に関する1つ又は複数の予測に到達することが可能である。現ユーザの精神状態を識別すると、及び/又はユーザの精神状態における異常を識別すると、1つ又は複数のアクションが取られることが可能である。
【0064】
一実施例においては、取られることになるアクションは、何らかの異常の重症度に基づいて特定されることが可能である。たとえば、異常が軽微である場合には、現ユーザに提示される情報コンテンツ・データ及び/又はユーザ体験データに対して微調整を行うためのアクションが取られることが可能である。その一方で、異常が深刻である場合には、現ユーザに提示される情報コンテンツ・データ及び/又はユーザ体験データに対して大幅な調整を行うためのアクションが取られることが可能である。一実施例においては、情報コンテンツ・データに対する調整は、より穏やかな言葉を使用するテキスト・コンテンツを提供すること、より静かで、よりリラックスさせる音声、サウンド、若しくは音楽を含むオーディオ・コンテンツを提供すること、又はあまりリアルでない若しくはあまり生々しくない画像/ビデオ・コンテンツを提供することなどの調整を含むことが可能であるが、それらに限定されない。ユーザ体験データに対する調整は、現ユーザに提示される情報コンテンツ・データの色、フォント、形状、提示、及び/又はレイアウトを変更することなどの調整を含むことが可能であるが、それらに限定されない。
【0065】
たとえば、一実施例においては、上で論じられているように、アプリケーションはデジタル治療アプリケーションであり、現ユーザは、ある病状と診断された患者である。多くの患者は、自分の病状に関連した多大な不安を体験する。現ユーザの心理状態において異常が検知された場合には、これは、現ユーザが、通常よりも高いレベルの不安を体験していて、そのため、支援から、又は現ユーザの不安レベルを低減するように設計されている調整から恩恵を受ける可能性があるということを示している場合がある。
【0066】
1つの具体的な説明例として、現ユーザが、対応する平均的なユーザよりもわずかに不安であるという特定が行われた場合には、ユーザ・インターフェースを通じて現ユーザに提供されている情報のコンテンツ及び/又は提示を調整することなど、現ユーザの不安レベルを低減するための軽微なアクションが取られることが可能である。1つの簡略化された説明例として、青及び紫などの寒色が、落ち着かせる効果を生み出すことが知られており、より丸くて、より柔らかい形状も、落ち着かせる効果に関連付けられている。それゆえに、この状況においては、コンテンツが青/紫の配色でユーザに提示されるようにユーザ体験コンテンツ・データが修正されることが可能であり、より丸くて、より柔らかい形状を含むようにグラフィカル・ユーザ要素が変更されることが可能である。別の具体的な説明例として、現ユーザが、対応する平均的なユーザよりも著しく不安であるという特定が行われた場合には、アプリケーションの通知システムを通じて、ユーザに関連付けられている1人若しくは複数の医療専門家に通知すること、又は現ユーザに関連付けられている1人若しくは複数の医療専門家からの何らかのその他の形態の個人的な介入など、より思い切ったアクションが取られることが可能である。
【0067】
さまざまな実施例においては、いくつかの追加のタイプのアクションが、ある病状と診断されたユーザを扱う際には特に、適切である場合があり、それらのアクションは、ユーザに入力及び/又は応答データを求めること、ユーザに注意喚起すること、ユーザのメンタル・ヘルス専門家又は医療専門家のうちの1人又は複数に注意喚起すること、ユーザの電子ファイルに対してメモすること、データを付加すること、又は強調表示を行うこと、専門家の紹介を行うこと、サポート連絡先をユーザに推奨すること、追加の診療予約、治療、アクション、又は投薬を処方すること、緊急時対応又は介入の専門家を呼ぶこと、緊急連絡先、親類、又は介護者に通知すること等などであるが、それらに限定されない。
【0068】
一実施例においては、122において現ユーザ対話データに基づいて1つ又は複数のアクションが取られると、プロセス・フローは、終了124へ進み、平均ユーザ対話データ及び現ユーザ対話データの分析に基づいてアプリケーション・ユーザの心理状態における異常をリモートで識別してモニタするためのプロセス100は終了されて、新たなデータ及び/又は命令が待たれる。
【0069】
図2は、第1の実施例による、平均ユーザ対話データ及び現ユーザ対話データの分析に基づいてアプリケーション・ユーザの心理状態における異常をリモートで識別してモニタするためのプロダクション環境200のブロック図である。
【0070】
一実施例においては、プロダクション環境200は、ユーザ・コンピューティング環境202、現ユーザ・コンピューティング環境206、及びサービス・プロバイダ・コンピューティング環境210を含む。ユーザ・コンピューティング環境202及び現ユーザ・コンピューティング環境206はさらに、それぞれユーザ・コンピューティング・システム204及び現ユーザ・コンピューティング・システム208を含む。コンピューティング環境202、206、及び210は、1つ又は複数の通信ネットワーク216を用いて互いに通信可能に結合されている。
【0071】
一実施例においては、サービス・プロバイダ・コンピューティング環境210は、プロセッサ212、物理メモリ214、及びアプリケーション環境218を含む。プロセッサ212及び物理メモリ214は、アプリケーション環境218に関連付けられているデータ及びデータ処理モジュールのオペレーション及び対話を調整する。一実施例においては、アプリケーション環境218は、ユーザ・インターフェース220を含み、ユーザ・インターフェース220は、1つ又は複数の通信ネットワーク216を通じてユーザ・コンピューティング・システム204及びユーザ・コンピューティング・システム208に提供される。
【0072】
一実施例においては、アプリケーション環境218はさらに、ユーザ対話データ生成モジュール226、収集ユーザ対話データ分析モジュール232、しきい値ユーザ対話定義モジュール236、現ユーザ対話データ分析モジュール242、差異コンパレータ・モジュール246、アクション特定モジュール248、及びアクション実行モジュール250を含み、それらのそれぞれについては、以降でさらに詳しく論じられることになる。
【0073】
加えて、一実施例においては、アプリケーション環境218は、情報コンテンツ・データ222、ユーザ体験データ224、収集ユーザ対話データ230、平均ユーザ対話データ234、しきい値ユーザ対話差異データ238、現ユーザ対話データ240、及び現ユーザ対話差異データ244を含み、それらのそれぞれについては、以降でさらに詳しく論じられることになる。いくつかの実施例においては、収集ユーザ対話データ230、平均ユーザ対話データ234、及び現ユーザ対話データ240は、ユーザ・データベース228に格納されることが可能であり、ユーザ・データベース228は、アプリケーション環境218の1人又は複数のユーザに関連付けられているデータを含む。
【0074】
一実施例においては、アプリケーション環境218の1人又は複数のユーザに関連付けられているユーザ・コンピューティング環境202のユーザ・コンピューティング・システム204は、ユーザ・インターフェース220を備えており、ユーザ・インターフェース220は、その1人又は複数のユーザが、1つ又は複数の通信ネットワーク216を通じて、アプリケーション環境218からの出力を受け取ること、並びにアプリケーション環境218への入力を提供することを可能にする。
【0075】
上で論じられているように、さまざまな実施例においては、アプリケーション環境218は、ユーザ・インターフェース及びコンテンツ/情報をユーザに提供することが可能である任意のタイプのアプリケーション環境であることが可能であり、デスクトップ・コンピューティング・システム・アプリケーション、モバイル・コンピューティング・システム・アプリケーション、仮想現実コンピューティング・システム・アプリケーション、モノのインターネット(IoT)デバイスによって提供されるアプリケーション、又はそれらの任意の組合せを含むが、それらに限定されない。さらに、さまざまな実施例においては、ユーザ・インターフェース220は、グラフィカル・ユーザ・インターフェース、オーディオベースのユーザ・インターフェース、タッチベースのユーザ・インターフェース、又は当業者に現在知られている任意のその他のタイプのユーザ・インターフェース、又は出願の時点よりも後に開発される可能性がある任意のその他のタイプのユーザ・インターフェースの任意の組合せを含むことが可能である。
【0076】
一実施例においては、アプリケーション環境218の1人又は複数のユーザに関連付けられているユーザ・コンピューティング環境202のユーザ・コンピューティング・システム204は、ユーザ・インターフェース220を通じて情報コンテンツ・データ222及びユーザ体験データ224を提供される。
【0077】
さまざまな実施例においては、ユーザ・インターフェース220を通じて1人又は複数のユーザに提供される情報コンテンツ・データ222は、テキスト情報、オーディオ情報、グラフィカル情報、画像情報、ビデオ情報、及び/又はそれらの任意の組合せを含むが、それらに限定されない。一実施例においては、情報コンテンツ・データ222は、情報コンテンツ・データ222と1人又は複数のユーザが対話することを可能にするような方法で1人又は複数のユーザに提供される。
【0078】
さまざまな実施例においては、ユーザ体験データ224は、情報コンテンツ・データ222をユーザに提示するために使用される色及びフォント、グラフィカル・ユーザ・インターフェース要素のさまざまな形状、情報コンテンツ・データ222のレイアウト若しくは順序付け、並びに/又は情報コンテンツ・データ222の提示若しくはそれとの対話に伴うことが可能であるサウンド・エフェクト、音楽、若しくはその他のオーディオ要素を含むが、それらに限定されない。
【0079】
一実施例においては、1人又は複数のユーザが、ユーザ・インターフェース220を通じて情報コンテンツ・データ222及びユーザ体験データ224を提供されると、情報コンテンツ・データ222との1人又は複数のユーザの対話が、ユーザ・インターフェース220を通じて受け取られるユーザ入力データの収集を通じてユーザ対話データ生成モジュール226によってモニタされる。ユーザ対話データ生成モジュール226によって収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、ユーザ入力データがユーザ対話データ生成モジュール226によって収集されると、1人又は複数のユーザのそれぞれからのユーザ入力データが、ユーザ対話データ生成モジュール226によって処理され集約されて、収集ユーザ対話データ230が生成される。
【0080】
さまざまな実施例においては、ユーザ対話データが含むことが可能であるデータは、ユーザがアプリケーション環境218にアクセスしている回数、ユーザがアプリケーション環境218に関わり合うことに費やしている時間の長さ、どれぐらい長くユーザがアプリケーション環境218にアクセスしているか、ユーザがアプリケーション環境218を使用している間に最も関わり合っている情報コンテンツ・データ222のタイプ、ユーザ・インターフェース220によって提供されることが可能である進んだ入力メカニズムをユーザが利用しているか否か、ユーザによって最も好まれている入力メカニズムのタイプ、ユーザ・インターフェース220を通じて提示された情報コンテンツ・データ222とユーザが対話しているスピード、及びユーザ・インターフェース220を通じて提示された情報コンテンツ・データ222についてユーザが有している理解のレベルなどであるが、それらに限定されない。
【0081】
一実施例においては、収集ユーザ対話データ230がユーザ対話データ生成モジュール226によって生成されると、収集ユーザ対話データ230が収集ユーザ対話データ分析モジュール232によって分析されて、平均ユーザ対話データ234が生成される。
【0082】
一実施例においては、収集ユーザ対話データ分析モジュール232は、収集ユーザ対話データ230を分析して、収集ユーザ対話データ230を形成する個々のタイプのユーザ対話データに関する1人若しくは複数のユーザ又はユーザの1つ若しくは複数のグループにわたる平均を特定する。上述されているように、個々のタイプのユーザ対話データの例は、ユーザの対話スピード及びユーザの理解レベルなどのユーザ対話データを含むことが可能である。さらに、1人又は複数のユーザのそれぞれは、それぞれのタイプのユーザ対話データに関連付けられている複数のデータ・ポイントを有することが可能である。加えて、アプリケーション環境218は、ユーザ特徴に基づいて収集ユーザ対話データ230をグループ化するように構成されることが可能であり、それらのユーザ特徴は、年齢、性別、及び人種などであるが、それらに限定されない。そのため、収集ユーザ対話データ230は、任意の数のグループへと分割されることが可能であり、それらのグループのそれぞれが個々に、全体として、又は任意の所望の組合せで考慮されて、平均ユーザ対話データ234が生成されることが可能である。
【0083】
一実施例においては、収集ユーザ対話データ230が収集ユーザ対話データ分析モジュール232によって分析され、平均ユーザ対話データ234が生成されると、平均ユーザ対話データ234が、しきい値ユーザ対話定義モジュール236によって利用されて、1つ又は複数のしきい値ユーザ対話差異が定義され、それによって、平均ユーザ対話データ234から逸れたユーザ対話データを有するユーザが識別されることが可能である。一実施例においては、しきい値ユーザ対話差異は、特定のユーザの対話データと平均ユーザ対話データとの間における最大許容偏差を表す。さまざまな実施例においては、しきい値ユーザ対話差異は、さまざまな方法で定義されることが可能であり、それらの方法は、アプリケーション構成オプションを通じて、又は所定の標準の使用などであるが、それらに限定されない。
【0084】
既に上述されているように、さまざまな実施例においては、ユーザ及びユーザ対話データのタイプのさまざまなグループ化に応じて、平均ユーザ対話データ234の生成中に多数の個々の可能な平均が生成されることが可能であり、したがって、平均ユーザ対話データ234を構成する平均のうちのそれぞれに関連付けられている別々のしきい値ユーザ対話差異が潜在的にあり得るということがわかる。一実施例においては、しきい値ユーザ対話差異のこの収集物が、しきい値ユーザ対話定義モジュール236によって集約されて、しきい値ユーザ対話差異データ238が生成される。
【0085】
一実施例においては、しきい値ユーザ対話差異データ238が、しきい値ユーザ対話定義モジュール236によって生成されると、アプリケーション環境218の現ユーザに関連付けられているユーザ・コンピューティング環境206の現ユーザ・コンピューティング・システム208は、ユーザ・インターフェース220を通じて情報コンテンツ・データ222及びユーザ体験データ224を提供される。
【0086】
一実施例においては、現ユーザが、ユーザ・インターフェース220を通じて情報コンテンツ・データ222及びユーザ体験データ224を提供されると、情報コンテンツ・データ222との現ユーザの対話は、ユーザ・インターフェース220を通じて受け取られたユーザ入力データの収集を通じてユーザ対話データ生成モジュール226によってモニタされる。ユーザ対話データ生成モジュール226によって収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、現ユーザ入力データがユーザ対話データ生成モジュール226によって収集されると、その現ユーザ入力データが、ユーザ対話データ生成モジュール226によって処理され集約されて、現ユーザ対話データ240が生成される。
【0087】
一実施例においては、現ユーザ対話データ240がユーザ対話データ生成モジュール226によって生成されると、現ユーザ対話データ240が平均ユーザ対話データ234とともに分析されて、現ユーザ対話差異データ244が生成され、現ユーザ対話差異データ244は、現ユーザ対話データ240と平均ユーザ対話データ234との間における何らかの差異を表す。
【0088】
一実施例においては、現ユーザ対話データ240が分析されて、アプリケーション環境218がモニタするように構成されているユーザ対話データのタイプに最も関連があるデータが抽出される。たとえば、アプリケーション環境218がユーザの対話スピード及びユーザの理解レベルをモニタするように構成されている場合には、現ユーザの対話スピード及び現ユーザの理解レベルに関連したデータが、現ユーザ対話データ240から抽出される。
【0089】
一実施例においては、関連があるユーザ対話データが現ユーザ対話データ240から抽出されると、平均ユーザ対話データ234が分析されて、平均ユーザ対話データ234のうちで、関連があるユーザ対話データに対応するデータが特定される。次いで現ユーザ対話データ240が、平均ユーザ対話データ234のうちの対応するデータに比較されて、現ユーザ対話データ240と、平均ユーザ対話データ234のうちの対応するデータとの間に何らかの差異があるかどうかが特定される。現ユーザ対話データ分析モジュール242が、次いで現ユーザ対話差異データ244を生成し、現ユーザ対話差異データ244は、現ユーザ対話データ240と、平均ユーザ対話データ234のうちの対応するデータとの間における何らかのそのような差異を表す。
【0090】
一実施例においては、現ユーザ対話データ240が平均ユーザ対話データ234とともに分析されて、現ユーザ対話差異データ244が生成されると、差異コンパレータ・モジュール246が、1つ又は複数のタイプのユーザ対話データに関する現ユーザ対話差異データ244を、同じ1つ又は複数のタイプのユーザ対話データに対応するしきい値ユーザ対話差異データ238と比較して、現ユーザ対話差異データ244における現ユーザ対話差異のうちの1つ又は複数が、しきい値ユーザ対話差異データ238における対応するしきい値ユーザ対話差異よりも大きいかどうかが特定される。
【0091】
たとえば、一実施例においては、ユーザの対話スピードに関連付けられている現ユーザ対話差異が、ユーザの対話スピードに関連付けられているしきい値対話差異に比較されることが可能であり、ユーザの理解レベルに関連付けられている現ユーザ対話差異が、ユーザの理解レベルに関連付けられているしきい値対話差異に比較されることが可能である。この例においては、比較は、ユーザ対話差異のうちのいずれも、それらの対応するしきい値対話差異よりも大きくないということ、ユーザ対話差異のうちの一方が、それらの対応するしきい値対話差異よりも大きいということ、又はユーザ対話差異のうちの両方が、それらの対応するしきい値対話差異よりも大きいということをもたらす場合がある。
【0092】
一実施例においては、現ユーザ対話差異データ244がしきい値対話差異データ238と比較されると、現ユーザ対話差異のうちの1つ又は複数が、対応するしきい値対話差異よりも大きいと差異コンパレータ・モジュール246によって判明した場合には、これはユーザの心理状態における異常を示しているということが特定されることが可能であり、アクション特定モジュール248によって特定される1つ又は複数のアクションが取られることが可能である。
【0093】
一実施例においては、取られることになるアクションは、アクション特定モジュール248によって異常の重症度に基づいて特定されることが可能である。たとえば、異常が軽微である場合には、アクション特定モジュール248は、現ユーザに提示される情報コンテンツ・データ222及び/又はユーザ体験データ224に対して微調整を行うためのアクションが取られるべきであると特定することが可能である。その一方で、異常が深刻である場合には、アクション特定モジュール248は、現ユーザに提示される情報コンテンツ・データ222及び/又はユーザ体験データ224に対して大幅な調整を行うためのアクションが取られるべきであると特定することが可能である。その他の実施例においては、アクション特定モジュール248は、より思い切ったアクションが取られるべきであると特定することが可能である。たとえば、現ユーザが重度の不安な精神状態にあると特定された場合には、アクション特定モジュール248は、緊急時通報及び個人的な介入などのアクションが適切であると特定することが可能である。
【0094】
さまざまな実施例においては、取られることになるアクションをアクション特定モジュール248が特定すると、制御は、特定されたアクションの実行のためにアクション実行モジュール250へ進む。アクションの実行は、たとえば、現ユーザの心理状態にとってさらに適切である異なる情報コンテンツ・データ222若しくはユーザ体験データ224を選択して提供すること、ユーザに承認された何らかの連絡手段を通じてユーザに連絡を取ること、及び/又はユーザの代わりにユーザの信頼できる第三者に連絡を取ることを含むことが可能である。
【0095】
図3は、第2の実施例による、履歴ユーザ対話データ及び現ユーザ対話データに基づいてアプリケーション・ユーザの心理状態における変化又は異常をリモートで識別してモニタするためのプロセス300のフロー・チャートである。
【0096】
プロセス300は、開始302において始まり、プロセス・フローは304へ進む。304において、アプリケーションのユーザが、ユーザ・インターフェースを提供され、このユーザ・インターフェースは、そのユーザがアプリケーションからの出力を受け取ること、並びにアプリケーションへの入力を提供することを可能にする。
【0097】
さまざまな実施例においては、アプリケーションは、ユーザ・インターフェースを通じてユーザにコンテンツ/情報を提供することが可能である任意のタイプのアプリケーションであることが可能であり、デスクトップ・コンピューティング・システム・アプリケーション、モバイル・コンピューティング・システム・アプリケーション、仮想現実コンピューティング・システム・アプリケーション、モノのインターネット(IoT)デバイスによって提供されるアプリケーション、又はそれらの任意の組合せを含むが、それらに限定されない。さまざまな実施例においては、ユーザ・インターフェースは、グラフィカル・ユーザ・インターフェース、オーディオベースのユーザ・インターフェース、タッチベースのユーザ・インターフェース、又は当業者に現在知られている任意のその他のタイプのユーザ・インターフェース、又は出願の時点よりも後に開発される可能性がある任意のその他のタイプのユーザ・インターフェースの任意の組合せを含むことが可能である。
【0098】
一実施例においては、ユーザに提供されるアプリケーションは、デジタル治療アプリケーションであり、このデジタル治療アプリケーションは、1つ又は複数の病状と診断された患者を支援するように設計されている。具体的な説明例として、ある患者を1つ又は複数の病状と診断すると、医療ケア専門家は、デジタル治療アプリケーションへのアクセスをその患者に処方することが可能である。デジタル治療アプリケーションは、上で論じられているように、ユーザにユーザ・インターフェースを提供することが可能である任意のタイプのコンピューティング・システムを通じて患者によってアクセスされることが可能である。デジタル治療アプリケーションにアクセスすると、患者は次いでアプリケーションのユーザになり、ユーザ・インターフェースを提供され、このユーザ・インターフェースは、ユーザがデジタル治療アプリケーションと対話することを可能にする。
【0099】
一実施例においては、304においてユーザがアプリケーションへのユーザ・インターフェースを提供されると、プロセス・フローは306へ進む。一実施例においては、306において、ユーザ・プロフィール・データが入手及び/又は生成され、ユーザに関してユーザ・プロフィールが作成される。
【0100】
いくつかの実施例においては、ユーザ・プロフィールが含むことが可能であるデータは、ユーザの名前、年齢、生年月日、性別、人種、及び/又は職業などであるが、それらに限定されない。ユーザ・プロフィールはさらに、アプリケーションとのユーザの個々のセッションに関連したデータ、又はアプリケーションとのユーザの経時的な対話に関連したデータを含むことが可能である。デジタル治療アプリケーションの例において、いくつかの実施例においては、ユーザ・プロフィールは、ユーザの病歴、病状、投薬、及び/又は医療ケア提供者など、アプリケーションの使用分野に固有の情報を含むことが可能である。
【0101】
いくつかの実施例においては、ユーザ・プロフィールは、ユーザにとってアクセス可能にされることが可能であり、ユーザは、プロフィールの1つ又は複数の部分を見ること及び修正することに対する許可を与えられることが可能である。その他の実施例においては、ユーザ・プロフィールは、ユーザにとってアクセス可能にされず、代わりに、もっぱらアプリケーション及び/又はアプリケーション管理者による使用のために保持される。その他の実施例においては、ユーザ・プロフィールは、ユーザにとってアクセス可能にされず、代わりに、1人又は複数の医療専門家などの第三者によってのみアクセス可能である。いくつかの実施例においては、ユーザ・プロフィールのいくつかの部分が、ユーザ又は第三者にとってアクセス可能にされることが可能であり、その一方でユーザ・プロフィールのその他の部分は、ユーザ又は第三者によってアクセス不能であることが可能である。
【0102】
一実施例においては、306においてユーザに関してユーザ・プロフィールが作成されると、プロセス・フローは308へ進む。308において、ユーザは、ユーザ・インターフェースを通じて情報を提供される。
【0103】
さまざまな実施例においては、ユーザ・インターフェースを通じてユーザに提供される情報は、テキスト情報、オーディオ情報、グラフィカル情報、画像情報、ビデオ情報、及び/又はそれらの任意の組合せを含むが、それらに限定されない。一実施例においては、情報は、提供された情報とユーザが対話することを可能にするような方法でユーザに提供される。たとえば、ユーザは、電子デバイスのスクリーン上にさまざまなグラフィカル・ユーザ要素とともに情報を提示されることが可能であり、それらのグラフィカル・ユーザ要素は、ユーザが情報をスクロールすること、情報に関連付けられているボタンをクリックすること、及び/又は情報に応答してテキスト文字列を入力することを可能にする。タッチ・スクリーンを含むデバイス上でユーザに情報が提示される場合には、対話は、タッチベースの対話及び/又はジェスチャー認識を含むことが可能である。テキスト入力及びタッチ又はクリックベースの入力に加えて、さまざまな実施例においては、ユーザは、オーディオ入力、ビデオ入力、加速度計入力、音声認識、顔認識を通じて、又はさまざまな生理学的センサを通じてなど、より進んだ入力メカニズムを通じて情報と対話することが可能であり得る。生理学的センサの例は、心拍数モニタ、血圧モニタ、アイ・トラッキング・モニタ、又は筋活動モニタを含むことが可能であるが、それらに限定されない。
【0104】
1つの具体的な説明例として、一実施例においては、デジタル治療アプリケーションのユーザがユーザ・インターフェースを提供されると、ユーザは、コンテンツベースの情報を提供されることが可能であり、それらの情報は、病歴、現在の若しくは潜在的な医療ケア提供者、病状、投薬、栄養補助食品に関連した情報、食事及び/若しくは運動に関するアドバイス若しくは提案、又はそのユーザに関連があるとみなされることが可能である任意のその他のタイプの情報などであるが、それらに限定されない。
【0105】
一実施例においては、コンテンツベースの情報は、もっぱらテキスト・フォーマットで提供されることが可能であるが、さまざまなその他の実施例においては、ユーザは、テキストに伴う画像、たとえば、ユーザの病状に関連した1つ又は複数の見てわかる症状を示す画像を提示されることも可能である。ユーザはさらに、チャート、グラフ、デジタル・シミュレーション、又はその他の視覚化ツール等のようなグラフィカル・コンテンツを提示されることが可能である。1つの説明例として、ユーザは、そのユーザの症状を、同じ又は同様の状態と診断されたその他の患者の症状と比較するチャート又はグラフを提示されることが可能である。ユーザはさらに、自分の病状に関連したオーディオ及び/又はビデオ情報を提示されることが可能である。追加の説明例として、ユーザは、理学療法の運動の初めから終わりまでユーザを導く1つ若しくは複数の教則ビデオ、又はユーザの病状の背後にある歴史及び/若しくは科学に関してユーザに知らせる教育ビデオを提供されることが可能である。さまざまな実施例においては、ユーザは、上記のタイプのコンテンツベースの情報の任意の組合せ、又はユーザに関連がある可能性がある任意のその他の追加のタイプのコンテンツを提示されることが可能である。
【0106】
上で論じられているコンテンツベースの情報のタイプに加えて、ユーザに提供されることが可能である別のタイプの情報は、美的感覚ベースの情報である。このタイプの情報は、ユーザによってすぐには認識されない場合があるが、それでもなお、ユーザがコンテンツベースの情報の提示を取り入れてそれに反応する方法において重要な役割を果たす。この美的感覚ベースの情報は、アプリケーションによってユーザに提供される全体的なユーザ体験を生み出すために使用され、それゆえに、本明細書においてはユーザ体験情報又はユーザ体験データと呼ばれる場合もある。ユーザ体験データの例は、コンテンツベースの情報をユーザに提示するために使用される色及びフォント、グラフィカル・ユーザ・インターフェース要素のさまざまな形状、ユーザに提示されるコンテンツベースの情報のレイアウト若しくは順序付け、並びに/又はコンテンツベースの情報の提示若しくはそれとの対話に伴うことが可能であるサウンド・エフェクト、音楽、若しくはその他のオーディオ要素を含むが、それらに限定されない。
【0107】
一実施例においては、ユーザが308においてユーザ・インターフェースを通じて情報を提供されると、プロセス・フローは310へ進む。310において、ユーザ・インターフェースを通じて提示された情報とのユーザの対話が、時間とともにモニタされ、履歴ユーザ対話データが生成される。
【0108】
ユーザ・インターフェースを通じて提示された情報とのユーザの対話は、ユーザ・インターフェースを通じて受け取られたユーザ入力データの収集を通じてモニタされることが可能である。収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。
【0109】
一実施例においては、ユーザ入力データは、セッションごとに、時間とともに収集されモニタされる。たとえば、ユーザは1日に数回、1日に1回、1週間に1回など、アプリケーションとの間でアクセス及び対話を行う場合があり、アクセス及び対話のそれぞれの事例が、アプリケーション・セッションを構成することになる。一実施例においては、ユーザがアプリケーション・セッションに関わるたびに、ユーザ入力データが収集され、ユーザ・プロフィールの部分として格納されることが可能である。さらに、一実施例においては、ユーザ入力データがアプリケーション・セッションの間にユーザから収集されるたびに、以前のセッションのうちのそれぞれからのユーザ入力データが処理され集約されて、履歴ユーザ対話データが生成される。
【0110】
1つの説明例として、一実施例においては、デジタル治療アプリケーションは、さらなるデータ分析及び処理を可能にするために特定のタイプのユーザ対話データをモニタするように構成されることが可能である。一実施例においては、デジタル治療アプリケーションは、提供された情報とユーザが対話するスピードをモニタするように構成されることが可能である。一実施例においては、提供された情報とユーザが対話するスピードは、クリックストリームデータを収集することによって測定されることが可能であり、クリックストリームデータは、ユーザに提示された情報コンテンツのさまざまな部分に関わり合うことにどれぐらい長い時間をユーザが費やしているかなどのデータを含むことが可能である。
【0111】
たとえば、デジタル治療アプリケーションのユーザが自分の病状のうちの1つ又は複数に関連した長々とした記事を提示される状況について考えていただきたい。この例においては、ユーザは、その記事の全体を読むためには、おそらくコンテンツを完全にスクロールする必要があるであろう。ユーザがテキストの一番上からテキストの一番下までスクロールするのにかかる時間は、ユーザ入力データから特定されることが可能であり、次いでこの入力データが使用されて、ユーザがその記事を読んだ、又はその記事と対話したスピードを表すユーザ対話データを生成することが可能である。次いで、このセッションの間のこのユーザに関する対話のスピードを表すユーザ対話データが、ユーザ・プロフィールの部分として格納されること、及び/又はユーザの履歴ユーザ対話データの部分として含まれることが可能である。
【0112】
さらなる例として、デジタル治療アプリケーションのユーザは、一連のスクリーンを提示されることが可能であり、その場合、それぞれのスクリーンは、ユーザの病状に関連した1つ又は複数のタイプの情報を含むことが可能である。たとえば、第1のスクリーンは、テキスト及び画像を含むことが可能であり、第2のスクリーンは、1つ又は複数のグラフィカル視覚化を含むことが可能であり、第3のスクリーンは、オーディオ/ビデオの提示を、テキスト情報とともに含むことが可能である。それぞれのスクリーンは、ナビゲーション・ボタンなどのユーザ・インターフェース要素を有することが可能であり、これは、ユーザが別々のスクリーンの間において行ったり来たりすることを可能にする。ユーザが1つのスクリーンから次のスクリーンへ、又は提示の始まりから終わりへクリック又はタッチするのにかかる時間は、ユーザ入力データから特定されることが可能であり、次いでこの入力データが使用されて、ユーザがその提示を読んだ、又はその提示と対話したスピードを表すユーザ対話データを生成することも可能である。加えて、ユーザは、テキスト応答を必要とするさまざまな質問又は演習を提示されることが可能であり、タイピング事象及び削除事象の頻度が使用されて、ユーザが演習素材と対話したスピードを表すユーザ対話データを生成することが可能である。
【0113】
やはり、このセッションの間のこのユーザに関する対話のスピードを表すユーザ対話データが、ユーザ・プロフィールの部分として格納されること、及び/又はユーザの履歴ユーザ対話データの部分として含まれることが可能である。
【0114】
別の実施例においては、デジタル治療アプリケーションは、情報とのユーザの対話をモニタして、その情報に関するそのユーザの理解のレベルを特定するように構成されることが可能である。一実施例においては、ユーザが、提示されている情報に関わり合っているかどうか、及びその情報を理解しているかどうかを特定するように設計されているさまざまなプロンプト又は質問をユーザに周期的に提示することによって、ユーザと、そのユーザに提供された情報とに関連付けられている理解のレベルが測定されることが可能である。次いで、たとえば、ユーザが正しく答えた質問のパーセンテージに基づいて、理解レベルが計算されることが可能である。
【0115】
さらに、一実施例においては、ユーザの理解のレベルは、ユーザが読んだ又は対話した提供された情報のパーセンテージに基づいて特定されることが可能である。たとえば、ユーザが記事を読み始めているが、ユーザ入力データが、ユーザが記事の終わりまで一度もスクロールしていないということを示している場合には、ユーザは、提供された情報についての不十分な理解しか有していないということが特定されることが可能である。同様に、情報の複数のスクリーン、たとえば10個のスクリーンをユーザが提示されているケースにおいて、ユーザが10個のスクリーンのうちの2個へ進んでいるだけである場合には、ユーザは、提供された情報についての不十分な理解しか有していないということが特定されることが可能である。次いで、このセッションの間のこのユーザに関する理解レベルを表すユーザ対話データが、ユーザ・プロフィールの部分として格納されること、及び/又はユーザの履歴ユーザ対話データの部分として含まれることが可能である。
【0116】
前述の例は、例示の目的のみのために与えられており、本明細書において開示されている、及び以降で特許請求されている本発明の範囲を限定することを意図されているものではないということにここで留意されたい。
【0117】
一実施例においては、310において、ユーザ・インターフェースを通じて提示された情報とのユーザの対話が、時間とともにモニタされ、関連付けられている履歴ユーザ対話データが生成されると、プロセス・フローは312へ進む。一実施例においては、312において、履歴ユーザ対話データが分析され、基準ユーザ対話データが生成される。
【0118】
上で論じられているように、さまざまな実施例においては、履歴ユーザ対話データは、ユーザ・インターフェースを通じて提供された情報とのユーザの経時的な対話のモニタリングを通じて入手された関連付けられているクリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に基づいて生成されたデータを含むことが可能であるが、それらに限定されない。
【0119】
一実施例においては、312において、履歴ユーザ対話データが分析されて、個々のタイプのユーザ対話データに関するユーザのアプリケーション・セッションのうちの1つ又は複数にわたる1つ又は複数のユーザ基準が特定される。たとえば、ユーザ対話データのタイプは、ユーザがアプリケーションにアクセスしている回数、ユーザがアプリケーションに関わり合うことに費やしている時間の長さ、どれぐらい長くユーザがアプリケーションにアクセスしているか、ユーザがアプリケーションを使用している間に最も関わり合っている情報のタイプ、進んだ入力メカニズムをユーザが利用しているか否か、ユーザによって最も好まれている入力メカニズムのタイプ、アプリケーションを通じて提示された情報にユーザが関わり合っているスピード、及びアプリケーションを通じて提示された情報についてユーザが有している理解のレベルを含むことが可能であるが、それらに限定されない。
【0120】
デジタル治療アプリケーションが、ユーザ・インターフェースを通じて提示された情報にユーザが関わり合っているスピード、さらには、ユーザ・インターフェースを通じて提示された情報についてユーザが有している理解のレベルをモニタするように構成されている上述の説明例について考えていただきたい。この具体的な説明例においては、312において、履歴ユーザ対話データは、ユーザのアプリケーション・セッションのそれぞれの間に提示された情報とユーザが対話したスピードを示すデータ、並びにユーザのアプリケーション・セッションのそれぞれの間に提示された情報に関してユーザが有していた理解のレベルを示すデータを含むことになる。それゆえに、ユーザは、履歴ユーザ対話データの部分を形成する複数の関連付けられているデータ・ポイントを有することが可能である。たとえば、ユーザは、特定の日に受信された特定の一片の情報に関連付けられている特定の対話スピード及び/又は理解レベルを有する場合がある。同じユーザが、異なる日に受信された同じ一片の情報に関連付けられている異なる対話スピード及び/又は理解レベルを有する場合がある、といった具合である。さらに、デジタル治療アプリケーションが、たとえば時間セグメントに基づいて、履歴ユーザ・データをグループ化することが望ましいと考えられる場合がある。したがって、履歴ユーザ・データは、過去1週間、過去1カ月間、過去1年間等など、さまざまな期間に関して分析されることが可能である。それゆえに、デジタル治療アプリケーションは、履歴ユーザ対話データを分析する際にさまざまなファクタを考慮して基準ユーザ対話データを生成するように構成されることが可能である。
【0121】
1つの簡略化された説明例として、デジタル治療アプリケーションは、ユーザの履歴ユーザ対話データを分析して、過去1カ月間にわたる情報コンテンツの特定のセットとのユーザの対話の基準スピードを計算するように構成されることが可能である。このアプリケーションはさらに、過去1年間にわたる情報コンテンツの異なるセットについてのユーザの理解の基準レベルを計算するように構成されることが可能である。この分析はさらに、ユーザの基準を計算する際に、事前に定義されたしきい値の範囲外にあるデータ・ポイントを無視するように構成されることが可能である。次いで、計算された基準のそれぞれが集約されて、この特定のユーザに関する基準ユーザ対話データが生成される。
【0122】
一実施例においては、312において履歴ユーザ対話データが分析され、基準ユーザ対話データが生成されると、プロセス・フローは314へ進む。一実施例においては、314において、ユーザ対話データにおける1つ又は複数のしきい値変化が定義され、しきい値ユーザ対話差異データが生成される。
【0123】
一実施例においては、ユーザ対話データにおける1つ又は複数のしきい値変化が定義され、それによって、ユーザの現ユーザ対話データがユーザの基準ユーザ対話データから逸れた場合には、適切なアクションが取られることが可能である。一実施例においては、ユーザ対話データにおけるしきい値変化は、ユーザの現在の対話データとユーザの基準対話データとの間における最大許容偏差を表す。さまざまな実施例においては、ユーザ対話データにおけるしきい値変化は、さまざまな方法で定義されることが可能であり、それらの方法は、アプリケーション構成オプションを通じて、又は所定の標準の使用などであるが、それらに限定されない。
【0124】
たとえば、一実施例においては、あるユーザに関する基準ユーザ対話データの生成後に、特定のタイプの情報コンテンツについてのユーザの理解の基準レベルが50%であるということが特定される場合があり、この場合、50%は、そのユーザによって以前に正しく回答されたコンテンツに関連した理解度質問のパーセンテージを表している。10%の変動が比較的一般的であると使用分野における専門家又はその他のエキスパートによって判断される場合があり、したがって、このユーザに関する現ユーザ対話データが、このタイプの情報コンテンツに関する40%の理解レベルを示した場合には、これは、懸念を引き起こすことはないであろう。しかしながら、この特定のタイプのコンテンツに関するユーザ対話データにおけるしきい値変化が20%の変動で定義された場合には、このユーザに関する現ユーザ対話データが、このタイプの情報コンテンツに関する29%の理解レベルを示したならば、これは、懸念を引き起こすことになり、以降でさらに詳しく論じられるように、さらなるアクションが適切であるとみなされる可能性がある。
【0125】
既に上述されているように、さまざまな実施例においては、312における基準ユーザ対話データの生成中に複数のユーザ基準が生成されることが可能であり、したがって、基準ユーザ対話データを形成する個々の基準のそれぞれに関連付けられているユーザ対話データにおける別々のしきい値変化が潜在的にあり得るということが前述の論考からわかる。一実施例においては、ユーザ対話データにおけるしきい変化のこの収集物が集約されて、しきい値ユーザ対話差異データが生成される。
【0126】
一実施例においては、314においてユーザ対話データにおける1つ又は複数のしきい値変化が定義され、しきい値ユーザ対話差異データが生成されると、プロセス・フローは316へ進む。一実施例においては、316において、アプリケーションのユーザは、アプリケーションのユーザ・インターフェースを通じて現在の情報を提供される。
【0127】
ユーザが時間とともにアプリケーション・ユーザ・インターフェースを通じて情報を提供される上述のオペレーション308とは対照的に、316においては、ユーザは、アプリケーションを使用する単一の現在のセッション中にアプリケーションのユーザ・インターフェースを通じて情報を提供される。そのため、この単一の現在のセッション中にユーザに提供される情報は、以降では現在の情報と呼ばれる場合がある。
【0128】
ユーザ・インターフェースを通じてユーザに提供される情報に関して、上で詳細に記述されているように、さまざまな実施例においては、ユーザ・インターフェースを通じてユーザに提供される現在の情報は、テキスト情報、オーディオ情報、グラフィカル情報、画像情報、ビデオ情報、ユーザ体験情報、及び/又はそれらの任意の組合せを含むが、それらに限定されない。一実施例においては、現在の情報は、提供された情報とユーザが対話することを可能にするような方法でユーザに提供される。
【0129】
一実施例においては、316において現在の情報がユーザに提供されると、プロセス・フローは318へ進む。ユーザ・インターフェースを通じて提供された情報とのユーザの対話が時間とともにモニタされて、履歴ユーザ対話データが生成される上述のオペレーション310とは対照的に、318においては、ユーザ・インターフェースを通じて提供された現在の情報とのユーザの対話がモニタされて、現ユーザ対話データが生成される。
【0130】
時間とともにユーザの対話をモニタして、履歴ユーザ対話データを生成することに関して、上で詳細に記述されているように、さまざまな実施例においては、ユーザ・インターフェースを通じて提示された現在の情報とのユーザの対話は、ユーザ・インターフェースを通じて受け取られたユーザ入力データの収集を通じてモニタされることが可能である。収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、ユーザ入力データがユーザから収集されると、そのユーザ入力データが処理され集約されて、現ユーザ対話データが生成される。
【0131】
時間とともにユーザの対話をモニタして、履歴ユーザ対話データを生成することに関して、やはり上で詳細に記述されているように、さまざまな実施例においては、アプリケーションは、特定のタイプのユーザ対話データをモニタするように構成されることが可能であり、それらのユーザ対話データは、提供された現在の情報とユーザが対話するスピード、及び/又は提供された現在の情報に関するユーザの理解のレベルなどであるが、それらに限定されない。一実施例においては、提供された現在の情報とユーザが対話するスピードは、クリックストリームデータを収集することによって測定されることが可能であり、クリックストリームデータは、ユーザ・インターフェースを通じてユーザに提示された現在の情報コンテンツのさまざまな部分に関わり合うことにどれぐらい長い時間をユーザが費やしているかなどのデータを含むことが可能である。一実施例においては、ユーザが、提示されている現在の情報に関わり合っているかどうか、及びその情報を理解しているかどうかを特定するように設計されているさまざまなプロンプト又は質問をユーザに周期的に提示することによって、ユーザと、提供された現在の情報とに関連付けられている理解のレベルが測定されることが可能である。次いで、たとえば、ユーザが正しく答えた質問のパーセンテージに基づいて、理解レベルが計算されることが可能である。さらに、一実施例においては、ユーザの理解のレベルは、ユーザが読んだ又は対話した現在提供された情報のパーセンテージに基づいて特定されることが可能である。
【0132】
一実施例においては、318において、ユーザ・インターフェースを通じて提供された現在の情報とのユーザの対話がモニタされて、現ユーザ対話データが生成されると、プロセス・フローは320へ進む。一実施例においては、320において、現ユーザ対話データが、基準ユーザ対話データとともに分析されて、現ユーザ対話差異データが生成され、現ユーザ対話差異データは、現ユーザ対話データと基準ユーザ対話データとの間における何らかの差異を表す。
【0133】
一実施例においては、現ユーザ対話データが分析されて、アプリケーションがモニタするように構成されているユーザ対話データのタイプに最も関連があるデータが抽出される。たとえば、アプリケーションがユーザの対話スピード及びユーザの理解レベルをモニタするように構成されている場合には、現在の情報とのユーザの対話のスピード及び現在の情報についてのユーザの理解のレベルに関連したデータが、現ユーザ対話データから抽出される。
【0134】
一実施例においては、関連があるユーザ対話データが現ユーザ対話データから抽出されると、基準ユーザ対話データが分析されて、基準ユーザ対話データのうちで、関連があるユーザ対話データに対応するデータが特定される。次いで現ユーザ対話データが、基準ユーザ対話データのうちの対応するデータに比較されて、現ユーザ対話データと、基準ユーザ対話データのうちの対応するデータとの間に何らかの差異があるかどうかが特定され、現ユーザ対話差異データが生成され、現ユーザ対話差異データは、現ユーザ対話データと、基準ユーザ対話データのうちの対応するデータとの間における何らかのそのような差異を表す。
【0135】
上述されているデジタル治療アプリケーションの説明例へ戻ると、関連があるユーザ対話データが、対話のスピードに関連付けられているデータである場合には、ユーザの基準ユーザ対話データが分析されて、ユーザの基準対話スピードを提供するデータが抽出されることになる。たとえば、現在の情報に関するユーザの対話スピードが150ワード/分であると測定され、ユーザの基準対話スピードが200ワード/分である場合には、現在の情報に関するユーザの対話スピードと、ユーザの基準対話スピードとの間における差異は50ワード/分となり、この値は、現ユーザ対話差異データによって表されることになる。さまざまな実施例においては、現ユーザ対話差異データは、複数のタイプのユーザ対話データに関連した差異データを含む。たとえば、現ユーザ対話差異データは、ユーザの対話のスピードに関連した差異データ、並びにユーザの理解レベルに関連した差異データを含むことが可能であるが、それらに限定されない。
【0136】
既に上で数回述べられているように、前述の例は、例示の目的のみのために与えられており、本明細書において開示されている、及び以降で特許請求されている本発明の範囲を限定することを意図されているものではない。一例として、ユーザの対話スピードは、利用可能な任意の測定手段を使用して測定されることが可能であり、本明細書においては、1分あたりのワード数を必要とする測定に限定されると解釈されるべきではない。
【0137】
一実施例においては、320において現ユーザ対話データが基準ユーザ対話データとともに分析されて、現ユーザ対話差異データが生成されると、プロセス・フローは322へ進む。322において、1つ又は複数のタイプのユーザ対話データに関する現ユーザ対話差異データが、同じ1つ又は複数のタイプのユーザ対話データに対応するしきい値ユーザ対話差異データと比較されて、現ユーザ対話差異のうちの1つ又は複数が、対応するしきい値ユーザ対話差異よりも大きいかどうかが特定される。
【0138】
たとえば、一実施例においては、ユーザの対話スピードに関連付けられている現ユーザ対話差異が、ユーザの対話スピードに関連付けられているしきい値ユーザ対話差異に比較されることが可能であり、ユーザの理解レベルに関連付けられている現ユーザ対話差異が、ユーザの理解レベルに関連付けられているしきい値ユーザ対話差異に比較されることが可能である。この例においては、比較は、ユーザ対話差異のうちのいずれも、それらの対応するしきい値ユーザ対話差異よりも大きくないということ、ユーザ対話差異のうちの一方が、それらの対応するしきい値ユーザ対話差異よりも大きいということ、又はユーザ対話差異のうちの両方が、それらの対応するしきい値ユーザ対話差異よりも大きいということをもたらす場合がある。
【0139】
一実施例においては、322において現ユーザ対話差異データがしきい値ユーザ対話差異データと比較されると、プロセス・フローは324へ進む。324において、現ユーザ対話差異のうちの1つ又は複数が、対応するしきい値ユーザ対話差異よりも大きい場合には、これはユーザの心理状態における変化又は異常を示しているということが特定されることが可能であり、このデータを利用して、現ユーザの精神状態に関する1つ又は複数の予測に到達することが可能である。現ユーザの精神状態を識別すると、及び/又は現ユーザの精神状態における変化若しくは異常を識別すると、1つ又は複数のアクションが取られることが可能である。
【0140】
一実施例においては、取られることになるアクションは、異常の重症度に基づいて特定されることが可能である。たとえば、異常が軽微である場合には、ユーザに提示される情報コンテンツ・データ及び/又はユーザ体験データに対して微調整を行うためのアクションが取られることが可能である。その一方で、異常が深刻である場合には、ユーザに提示される情報コンテンツ・データ及び/又はユーザ体験データに対して思い切った調整を行うためのアクションが取られることが可能である。一実施例においては、情報コンテンツ・データに対する調整は、より穏やかな言葉を使用するテキスト・コンテンツを提供すること、より静かで、よりリラックスさせる音声、サウンド、若しくは音楽を含むオーディオ・コンテンツを提供すること、又はあまりリアルでない若しくはあまり生々しくない画像/ビデオ・コンテンツを提供することなどの調整を含むことが可能であるが、それらに限定されない。ユーザ体験データに対する調整は、ユーザに提示される情報コンテンツ・データの色、フォント、形状、提示、及び/又はレイアウトを変更することなどの調整を含むことが可能であるが、それらに限定されない。
【0141】
たとえば、一実施例においては、上で論じられているように、アプリケーションはデジタル治療アプリケーションであり、ユーザは、ある病状と診断された患者である。多くの患者は、自分の病状に関連した多大な不安を体験する。ユーザの心理状態において異常が検知された場合には、これは、ユーザが、通常よりも高いレベルの不安を体験していて、そのため、支援から、又はユーザの不安レベルを低減するように設計されている調整から恩恵を受ける可能性があるということを示している場合がある。
【0142】
1つの具体的な説明例として、ユーザが通常よりもわずかに不安であるという特定が行われた場合には、ユーザ・インターフェースを通じてユーザに提供されている情報のコンテンツ及び/又は提示を調整することなど、ユーザの不安レベルを低減するための軽微なアクションが取られることが可能である。1つの簡略化された説明例として、青及び紫などの寒色が、落ち着かせる効果を生み出すことが知られており、より丸くて、より柔らかい形状も、落ち着かせる効果に関連付けられている。それゆえに、この状況においては、コンテンツが青/紫の配色でユーザに提示されるようにユーザ体験コンテンツ・データが修正されることが可能であり、より丸くて、より柔らかい形状を含むようにグラフィカル・ユーザ要素が変更されることが可能である。別の具体的な説明例として、ユーザが通常よりも著しく不安であるという特定が行われた場合には、アプリケーションの通知システムを通じて、ユーザに関連付けられている1人若しくは複数の医療専門家に通知すること、又はユーザに関連付けられている1人若しくは複数の医療専門家からの何らかのその他の形態の個人的な介入など、より思い切ったアクションが取られることが可能である。
【0143】
さまざまな実施例においては、いくつかの追加のタイプのアクションが、ある病状と診断されたユーザを扱う際には特に、適切である場合があり、それらのアクションは、ユーザに入力及び/又は応答データを求めること、ユーザに注意喚起すること、ユーザのメンタル・ヘルス専門家又は医療専門家のうちの1人又は複数に注意喚起すること、ユーザの電子ファイルに対してメモすること、データを付加すること、又は強調表示を行うこと、専門家の紹介を行うこと、サポート連絡先をユーザに推奨すること、追加の診療予約、治療、アクション、又は投薬を処方すること、緊急時対応又は介入の専門家を呼ぶこと、緊急連絡先、親類、又は介護者に通知すること等などであるが、それらに限定されない。
【0144】
一実施例においては、324においてユーザ対話データに基づいて1つ又は複数のアクションが取られると、プロセス・フローは、終了326へ進み、履歴ユーザ対話データ及び現ユーザ対話データに基づいてアプリケーション・ユーザの心理状態における変化又は異常をリモートで識別してモニタするためのプロセス300は終了されて、新たなデータ及び/又は命令が待たれる。
【0145】
図4は、第2の実施例による、履歴ユーザ対話データ及び現ユーザ対話データに基づいてアプリケーション・ユーザの心理状態における変化又は異常をリモートで識別してモニタするためのプロダクション環境400のブロック図である。
【0146】
一実施例においては、プロダクション環境400は、ユーザ・コンピューティング環境402、及びサービス・プロバイダ・コンピューティング環境410を含む。ユーザ・コンピューティング環境402はさらに、ユーザ・コンピューティング・システム404を含む。コンピューティング環境402及び410は、1つ又は複数の通信ネットワーク416を用いて互いに通信可能に結合されている。
【0147】
一実施例においては、サービス・プロバイダ・コンピューティング環境410は、プロセッサ412、物理メモリ414、及びアプリケーション環境418を含む。プロセッサ412及び物理メモリ414は、アプリケーション環境418に関連付けられているデータ及びデータ処理モジュールのオペレーション及び対話を調整する。一実施例においては、アプリケーション環境418は、ユーザ・インターフェース420を含み、ユーザ・インターフェース420は、1つ又は複数の通信ネットワーク416を通じてユーザ・コンピューティング・システム404に提供される。
【0148】
一実施例においては、アプリケーション環境418はさらに、ユーザ対話データ生成モジュール426、履歴ユーザ対話データ分析モジュール432、しきい値ユーザ対話定義モジュール436、現ユーザ対話データ分析モジュール442、差異コンパレータ・モジュール446、アクション特定モジュール448、及びアクション実行モジュール450を含み、それらのそれぞれについては、以降でさらに詳しく論じられることになる。
【0149】
加えて、一実施例においては、アプリケーション環境418は、情報コンテンツ・データ422、ユーザ体験データ424、ユーザ・プロフィール・データ429、履歴ユーザ対話データ430、基準ユーザ対話データ434、しきい値ユーザ対話差異データ438、現ユーザ対話データ440、及び現ユーザ対話差異データ444を含み、それらのそれぞれについては、以降でさらに詳しく論じられることになる。いくつかの実施例においては、ユーザ・プロフィール・データ429、履歴ユーザ対話データ430、基準ユーザ対話データ434、及び現ユーザ対話データ440は、ユーザ・データベース428に格納されることが可能であり、ユーザ・データベース428は、アプリケーション環境418の1人又は複数のユーザに関連付けられているデータを含む。
【0150】
一実施例においては、アプリケーション環境418の単一のユーザに関連付けられているユーザ・コンピューティング環境402のユーザ・コンピューティング・システム404は、ユーザ・インターフェース420を備えており、ユーザ・インターフェース420は、そのユーザが、1つ又は複数の通信ネットワーク416を通じて、アプリケーション環境418からの出力を受け取ること、並びにアプリケーション環境418への入力を提供することを可能にする。
【0151】
上で論じられているように、さまざまな実施例においては、アプリケーション環境418は、ユーザ・インターフェース及びコンテンツ/情報をユーザに提供することが可能である任意のタイプのアプリケーション環境であることが可能であり、デスクトップ・コンピューティング・システム・アプリケーション、モバイル・コンピューティング・システム・アプリケーション、仮想現実コンピューティング・システム・アプリケーション、モノのインターネット(IoT)デバイスによって提供されるアプリケーション、又はそれらの任意の組合せを含むが、それらに限定されない。さらに、さまざまな実施例においては、ユーザ・インターフェース420は、グラフィカル・ユーザ・インターフェース、オーディオベースのユーザ・インターフェース、タッチベースのユーザ・インターフェース、又は当業者に現在知られている任意のその他のタイプのユーザ・インターフェース、又は出願の時点よりも後に開発される可能性がある任意のその他のタイプのユーザ・インターフェースの任意の組合せを含むことが可能である。
【0152】
一実施例においては、ユーザがユーザ・インターフェース420を提供されると、ユーザ・プロフィール・データ429が入手及び/又は生成され、ユーザに関してユーザ・プロフィールが作成される。いくつかの実施例においては、ユーザ・プロフィールが含むことが可能であるデータは、ユーザの名前、年齢、生年月日、性別、人種、及び/又は職業などであるが、それらに限定されない。ユーザ・プロフィールはさらに、アプリケーション環境418とのユーザの個々のセッションに関連したデータ、又はアプリケーション環境418とのユーザの経時的な対話に関連したデータを含むことが可能である。
【0153】
一実施例においては、ユーザ・プロフィール・データ429を使用してユーザに関するプロフィールが作成されると、アプリケーション環境418の単一のユーザに関連付けられているユーザ・コンピューティング環境402のユーザ・コンピューティング・システム404は、ユーザ・インターフェース420を通じて情報コンテンツ・データ422及びユーザ体験データ424を提供される。
【0154】
さまざまな実施例においては、ユーザ・インターフェース420を通じてユーザに提供される情報コンテンツ・データ422は、テキスト情報、オーディオ情報、グラフィカル情報、画像情報、ビデオ情報、及び/又はそれらの任意の組合せを含むが、それらに限定されない。一実施例においては、情報コンテンツ・データ422は、情報コンテンツ・データ422とユーザが対話することを可能にするような方法でユーザに提供される。
【0155】
さまざまな実施例においては、ユーザ体験データ424は、情報コンテンツ・データ422をユーザに提示するために使用される色及びフォント、グラフィカル・ユーザ・インターフェース要素のさまざまな形状、情報コンテンツ・データ422のレイアウト若しくは順序付け、並びに/又は情報コンテンツ・データ422の提示若しくはそれとの対話に伴うことが可能であるサウンド・エフェクト、音楽、若しくはその他のオーディオ要素を含むが、それらに限定されない。
【0156】
一実施例においては、ユーザが、ユーザ・インターフェース420を通じて情報コンテンツ・データ422及びユーザ体験データ424を提供されると、情報コンテンツ・データ422とのユーザの対話は、ユーザ・インターフェース420を通じて受け取られたユーザ入力データの収集を通じてユーザ対話データ生成モジュール426によって時間とともにモニタされる。ユーザ対話データ生成モジュール426によって収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、ユーザ入力データがユーザ対話データ生成モジュール426によって収集されると、ユーザの以前のアプリケーション・セッションのうちのそれぞれからのユーザ入力データが、ユーザ対話データ生成モジュール426によって処理され集約されて、履歴ユーザ対話データ430が生成される。
【0157】
さまざまな実施例においては、ユーザ対話データが含むことが可能であるデータは、ユーザがアプリケーション環境418にアクセスしている回数、ユーザがアプリケーション環境418に関わり合うことに費やしている時間の長さ、どれぐらい長くユーザがアプリケーション環境418にアクセスしているか、ユーザがアプリケーション環境418を使用している間に最も関わり合っている情報コンテンツ・データ422のタイプ、ユーザ・インターフェース420によって提供されることが可能である進んだ入力メカニズムをユーザが利用しているか否か、ユーザによって最も好まれている入力メカニズムのタイプ、ユーザ・インターフェース420を通じて提示された情報コンテンツ・データ422とユーザが対話しているスピード、及びユーザ・インターフェース420を通じて提示された情報コンテンツ・データ422についてユーザが有している理解のレベルなどであるが、それらに限定されない。
【0158】
一実施例においては、履歴ユーザ対話データ430がユーザ対話データ生成モジュール426によって生成されると、履歴ユーザ対話データ430が履歴ユーザ対話データ分析モジュール432によって分析されて、基準ユーザ対話データ434が生成される。
【0159】
一実施例においては、履歴ユーザ対話データ分析モジュール432は、履歴ユーザ対話データ430を分析して、履歴ユーザ対話データ430を形成する個々のタイプのユーザ対話データに関する、ユーザのアプリケーション・セッションのうちの1つ又は複数にわたる1つ又は複数のユーザ基準を特定する。上述されているように、個々のタイプのユーザ対話データの例は、ユーザの対話スピード及びユーザの理解レベルなどのユーザ対話データを含むことが可能である。さらに、ユーザは、それぞれのタイプのユーザ対話データに関連付けられている複数のデータ・ポイントを有することが可能である。加えて、アプリケーション環境418は、ファクタに基づいて履歴ユーザ対話データ430をグループ化するように構成されることが可能であり、それらのファクタは、ユーザ対話データに関連付けられている期間などであるが、それらに限定されない。そのため、履歴ユーザ対話データ430は、任意の数のセグメントへと分割されることが可能であり、それらのセグメントのそれぞれが個々に、全体として、又は任意の所望の組合せで考慮されて、基準ユーザ対話データ434が生成されることが可能である。
【0160】
一実施例においては、履歴ユーザ対話データ430が履歴ユーザ対話データ分析モジュール432によって分析され、基準ユーザ対話データ434が生成されると、基準ユーザ対話データ434が、しきい値ユーザ対話定義モジュール436によって利用されて、ユーザ対話データにおける1つ又は複数のしきい値変化が定義され、それによって、ユーザの現ユーザ対話データ440がユーザの基準ユーザ対話データ434から逸れた場合には、適切なアクションが取られることが可能である。一実施例においては、ユーザ対話データにおけるしきい値変化は、ユーザの現ユーザ対話データ440とユーザの基準ユーザ対話データ434との間における最大許容偏差を表す。さまざまな実施例においては、ユーザ対話データにおけるしきい値変化は、さまざまな方法で定義されることが可能であり、それらの方法は、アプリケーション構成オプションを通じて、又は所定の標準の使用などであるが、それらに限定されない。
【0161】
既に上述されているように、さまざまな実施例においては、基準ユーザ対話データ434の生成中に複数のユーザ基準が生成されることが可能であり、したがって、基準ユーザ対話データ434を形成する個々の基準のそれぞれに関連付けられているユーザ対話データにおける別々のしきい値変化が潜在的にあり得るということがわかる。一実施例においては、ユーザ対話データにおけるしきい変化のこの収集物が、しきい値ユーザ対話定義モジュール436によって集約されて、しきい値ユーザ対話差異データ438が生成される。
【0162】
一実施例においては、しきい値ユーザ対話差異データ438が、しきい値ユーザ対話定義モジュール436によって生成されると、アプリケーション環境418の単一のユーザに関連付けられているユーザ・コンピューティング環境402のユーザ・コンピューティング・システム404は、ユーザ・インターフェース420を通じて現在の情報コンテンツ・データ422及び現ユーザ体験データ424を提供される。
【0163】
一実施例においては、ユーザが、ユーザ・インターフェース420を通じて現在の情報コンテンツ・データ422及び現ユーザ体験データ424を提供されると、現在の情報コンテンツ・データ422とのユーザの対話は、ユーザ・インターフェース420を通じて受け取られたユーザ入力データの収集を通じてユーザ対話データ生成モジュール426によってモニタされる。ユーザ対話データ生成モジュール426によって収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、現ユーザ入力データがユーザ対話データ生成モジュール426によって収集されると、その現ユーザ入力データが、ユーザ対話データ生成モジュール426によって処理され集約されて、現ユーザ対話データ440が生成される。
【0164】
一実施例においては、現ユーザ対話データ440がユーザ対話データ生成モジュール426によって生成されると、現ユーザ対話データ440が基準ユーザ対話データ434とともに分析されて、現ユーザ対話差異データ444が生成され、現ユーザ対話差異データ444は、現ユーザ対話データ440と基準ユーザ対話データ434との間における何らかの差異を表す。
【0165】
一実施例においては、現ユーザ対話データ440が分析されて、アプリケーション環境418がモニタするように構成されているユーザ対話データのタイプに最も関連があるデータが抽出される。たとえば、アプリケーション環境418がユーザの対話スピード及びユーザの理解レベルをモニタするように構成されている場合には、現在の情報コンテンツ・データ422とのユーザの対話のスピード、及び現在の情報コンテンツ・データ422についてのユーザの理解のレベルに関連したデータが、現ユーザ対話データ440から抽出される。
【0166】
一実施例においては、関連があるユーザ対話データが現ユーザ対話データ440から抽出されると、基準ユーザ対話データ434が分析されて、基準ユーザ対話データ434のうちで、関連があるユーザ対話データに対応するデータが特定される。次いで現ユーザ対話データ440が、基準ユーザ対話データ434のうちの対応するデータに比較されて、現ユーザ対話データ440と、基準ユーザ対話データ434のうちの対応するデータとの間に何らかの差異があるかどうかが特定される。現ユーザ対話データ分析モジュール442が、次いで現ユーザ対話差異データ444を生成し、現ユーザ対話差異データ444は、現ユーザ対話データ440と、基準ユーザ対話データ434のうちの対応するデータとの間における何らかのそのような差異を表す。
【0167】
一実施例においては、現ユーザ対話データ440が基準ユーザ対話データ434とともに分析されて、現ユーザ対話差異データ444が生成されると、差異コンパレータ・モジュール446が、1つ又は複数のタイプのユーザ対話データに関する現ユーザ対話差異データ444を、同じ1つ又は複数のタイプのユーザ対話データに対応するしきい値ユーザ対話差異データ438と比較して、現ユーザ対話差異データ444における現ユーザ対話差異のうちの1つ又は複数が、しきい値ユーザ対話差異データ438における対応するしきい値ユーザ対話差異よりも大きいかどうかが特定される。
【0168】
たとえば、一実施例においては、ユーザの対話スピードに関連付けられている現ユーザ対話差異が、ユーザの対話スピードに関連付けられているしきい値対話差異に比較されることが可能であり、ユーザの理解レベルに関連付けられている現ユーザ対話差異が、ユーザの理解レベルに関連付けられているしきい値対話差異に比較されることが可能である。この例においては、比較は、ユーザ対話差異のうちのいずれも、それらの対応するしきい値対話差異よりも大きくないということ、ユーザ対話差異のうちの一方が、それらの対応するしきい値対話差異よりも大きいということ、又はユーザ対話差異のうちの両方が、それらの対応するしきい値対話差異よりも大きいということをもたらす場合がある。
【0169】
一実施例においては、現ユーザ対話差異データ444がしきい値ユーザ対話差異データ438と比較されると、現ユーザ対話差異のうちの1つ又は複数が、対応するしきい値対話差異よりも大きいと差異コンパレータ・モジュール446によって判明した場合には、これは、ユーザの心理状態における異常として識別されることが可能であり、アクション特定モジュール448によって特定される1つ又は複数のアクションが取られることが可能である。
【0170】
一実施例においては、取られることになるアクションは、アクション特定モジュール448によって異常の重症度に基づいて特定されることが可能である。たとえば、異常が軽微である場合には、アクション特定モジュール448は、ユーザ・インターフェース420を通じてユーザに提示される情報コンテンツ・データ422及び/又はユーザ体験データ424に対して微調整を行うためのアクションが取られるべきであると特定することが可能である。その一方で、異常が深刻である場合には、アクション特定モジュール448は、ユーザ・インターフェース420を通じて現ユーザに提示される情報コンテンツ・データ422及び/又はユーザ体験データ424に対して大幅な調整を行うためのアクションが取られるべきであると特定することが可能である。その他の実施例においては、アクション特定モジュール448は、より思い切ったアクションが取られるべきであると特定することが可能である。たとえば、ユーザが重度の不安な精神状態にあると特定された場合には、アクション特定モジュール448は、緊急時通報及び個人的な介入などのアクションが適切であると特定することが可能である。
【0171】
さまざまな実施例においては、取られることになるアクションをアクション特定モジュール448が特定すると、制御は、特定されたアクションの実行のためにアクション実行モジュール450へ進む。アクションの実行は、たとえば、現ユーザの心理状態にとってさらに適切である異なる情報コンテンツ・データ422若しくはユーザ体験データ424を選択して提供すること、ユーザに承認された何らかの連絡手段を通じてユーザに連絡を取ること、及び/又はユーザの代わりにユーザの信頼できる第三者に連絡を取ることを含むことが可能である。
【0172】
図5は、第3の実施例による、機械学習ベースの分析及び処理に基づいてアプリケーション・ユーザの心理状態をリモートで識別又は予測するためのプロセス500のフロー・チャートである。
【0173】
プロセス500は、開始502において始まり、プロセス・フローは504へ進む。504において、アプリケーションの1人又は複数のユーザが、ユーザ・インターフェースを提供され、このユーザ・インターフェースは、その1人又は複数のユーザがアプリケーションからの出力を受け取ること、並びにアプリケーションへの入力を提供することを可能にする。
【0174】
さまざまな実施例においては、アプリケーションは、ユーザ・インターフェースを通じてユーザにコンテンツ/情報を提供することが可能である任意のタイプのアプリケーションであることが可能であり、デスクトップ・コンピューティング・システム・アプリケーション、モバイル・コンピューティング・システム・アプリケーション、仮想現実コンピューティング・システム・アプリケーション、モノのインターネット(IoT)デバイスによって提供されるアプリケーション、又はそれらの任意の組合せを含むが、それらに限定されない。さまざまな実施例においては、ユーザ・インターフェースは、グラフィカル・ユーザ・インターフェース、オーディオベースのユーザ・インターフェース、タッチベースのユーザ・インターフェース、又は当業者に現在知られている任意のその他のタイプのユーザ・インターフェース、又は出願の時点よりも後に開発される可能性がある任意のその他のタイプのユーザ・インターフェースの任意の組合せを含むことが可能である。
【0175】
一実施例においては、1人又は複数のユーザに提供されるアプリケーションは、デジタル治療アプリケーションであり、このデジタル治療アプリケーションは、1つ又は複数の病状と診断された患者を支援するように設計されている。具体的な説明例として、ある患者を1つ又は複数の病状と診断すると、医療ケア専門家は、デジタル治療アプリケーションへのアクセスをその患者に処方することが可能である。デジタル治療アプリケーションは、上で論じられているように、ユーザにユーザ・インターフェースを提供することが可能である任意のタイプのコンピューティング・システムを通じて患者によってアクセスされることが可能である。デジタル治療アプリケーションにアクセスすると、患者は次いでアプリケーションのユーザになり、ユーザ・インターフェースを提供され、このユーザ・インターフェースは、ユーザがデジタル治療アプリケーションと対話することを可能にする。
【0176】
一実施例においては、504においてアプリケーションの1人又は複数のユーザがユーザ・インターフェースを提供されると、プロセス・フローは506へ進む。506において、1人又は複数のユーザは、ユーザ・インターフェースを通じて情報を提供される。
【0177】
さまざまな実施例においては、ユーザ・インターフェースを通じて1人又は複数のユーザに提供される情報は、テキスト情報、オーディオ情報、グラフィカル情報、画像情報、ビデオ情報、及び/又はそれらの任意の組合せを含むが、それらに限定されない。一実施例においては、情報は、提供された情報と1人又は複数のユーザが対話することを可能にするような方法で1人又は複数のユーザに提供される。たとえば、ユーザは、電子デバイスのスクリーン上にさまざまなグラフィカル・ユーザ要素とともに情報を提示されることが可能であり、それらのグラフィカル・ユーザ要素は、ユーザが情報をスクロールすること、情報に関連付けられているボタンをクリックすること、及び/又は情報に応答してテキスト文字列を入力することを可能にする。タッチ・スクリーンを含むデバイス上でユーザに情報が提示される場合には、対話は、タッチベースの対話及び/又はジェスチャー認識を含むことが可能である。テキスト入力及びタッチ又はクリックベースの入力に加えて、さまざまな実施例においては、ユーザは、オーディオ入力、ビデオ入力、加速度計入力、音声認識、顔認識を通じて、又はさまざまな生理学的センサを通じてなど、より進んだ入力メカニズムを通じて情報と対話することが可能であり得る。生理学的センサの例は、心拍数モニタ、血圧モニタ、アイ・トラッキング・モニタ、又は筋活動モニタを含むことが可能であるが、それらに限定されない。
【0178】
1つの具体的な説明例として、一実施例においては、デジタル治療アプリケーションの1人又は複数のユーザがユーザ・インターフェースを提供されると、ユーザは、コンテンツベースの情報を提供されることが可能であり、それらの情報は、病歴、現在の若しくは潜在的な医療ケア提供者、病状、投薬、栄養補助食品に関連した情報、食事及び/若しくは運動に関するアドバイス若しくは提案、又はその1人若しくは複数のユーザに関連があるとみなされることが可能である任意のその他のタイプの情報などであるが、それらに限定されない。
【0179】
一実施例においては、コンテンツベースの情報は、もっぱらテキスト・フォーマットで提供されることが可能であるが、さまざまなその他の実施例においては、ユーザは、テキストに伴う画像、たとえば、ユーザの病状に関連した1つ又は複数の見てわかる症状を示す画像を提示されることも可能である。ユーザはさらに、チャート、グラフ、デジタル・シミュレーション、又はその他の視覚化ツール等のようなグラフィカル・コンテンツを提示されることが可能である。1つの説明例として、ユーザは、そのユーザの症状を、同じ又は同様の状態と診断されたその他の患者の症状と比較するチャート又はグラフを提示されることが可能である。ユーザはさらに、自分の病状に関連したオーディオ及び/又はビデオ情報を提示されることが可能である。追加の説明例として、ユーザは、理学療法の運動の初めから終わりまでユーザを導く1つ若しくは複数の教則ビデオ、又はユーザの病状の背後にある歴史及び/若しくは科学に関してユーザに知らせる教育ビデオを提供されることが可能である。さまざまな実施例においては、ユーザは、上記のタイプのコンテンツベースの情報の任意の組合せ、又は特定のユーザに関連がある可能性がある任意のその他の追加のタイプのコンテンツを提示されることが可能である。
【0180】
上で論じられているコンテンツベースの情報のタイプに加えて、1人又は複数のユーザに提供されることが可能である別のタイプの情報は、美的感覚ベースの情報である。このタイプの情報は、ユーザによってすぐには認識されない場合があるが、それでもなお、ユーザがコンテンツベースの情報の提示を取り入れてそれに反応する方法において重要な役割を果たす。この美的感覚ベースの情報は、アプリケーションによってユーザに提供される全体的なユーザ体験を生み出すために使用され、それゆえに、本明細書においてはユーザ体験情報又はユーザ体験データと呼ばれる場合もある。ユーザ体験データの例は、コンテンツベースの情報をユーザに提示するために使用される色及びフォント、グラフィカル・ユーザ・インターフェース要素のさまざまな形状、ユーザに提示されるコンテンツベースの情報のレイアウト若しくは順序付け、並びに/又はコンテンツベースの情報の提示若しくはそれとの対話に伴うことが可能であるサウンド・エフェクト、音楽、若しくはその他のオーディオ要素を含むが、それらに限定されない。
【0181】
一実施例においては、1人又は複数のユーザが506においてユーザ・インターフェースを通じて情報を提供されると、プロセス・フローは508へ進む。508において、ユーザ・インターフェースを通じて提示された情報との1人又は複数のユーザの対話がモニタされ、ユーザ対話データが生成される。
【0182】
ユーザ・インターフェースを通じて提示された情報との1人又は複数のユーザの対話は、ユーザ・インターフェースを通じて受け取られたユーザ入力データの収集を通じてモニタされることが可能である。収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、ユーザ入力データが1人又は複数のユーザから収集されると、それらの1人又は複数のユーザのそれぞれからのユーザ入力データが処理され集約されて、ユーザ対話データが生成される。
【0183】
1つの説明例として、一実施例においては、デジタル治療アプリケーションは、さらなるデータ分析及び処理を可能にするために特定のタイプのユーザ対話データをモニタするように構成されることが可能である。一実施例においては、デジタル治療アプリケーションは、提供された情報と1人又は複数のユーザが対話するスピードをモニタするように構成されることが可能である。一実施例においては、提供された情報とユーザが対話するスピードは、クリックストリームデータを収集することによって測定されることが可能であり、クリックストリームデータは、ユーザに提示された情報コンテンツのさまざまな部分に関わり合うことにどれぐらい長い時間をユーザが費やしているかなどのデータを含むことが可能である。
【0184】
たとえば、デジタル治療アプリケーションのユーザが自分の病状のうちの1つ又は複数に関連した長々とした記事を提示される状況について考えていただきたい。この例においては、ユーザは、その記事の全体を読むためには、おそらくコンテンツを完全にスクロールする必要があるであろう。ユーザがテキストの一番上からテキストの一番下までスクロールするのにかかる時間は、ユーザ入力データから特定されることが可能であり、次いでこの入力データが使用されて、ユーザがその記事を読んだ、又はその記事と対話したスピードを表すユーザ対話データを生成することが可能である。
【0185】
さらなる例として、デジタル治療アプリケーションのユーザは、一連のスクリーンを提示されることが可能であり、その場合、それぞれのスクリーンは、ユーザの病状に関連した1つ又は複数のタイプの情報を含むことが可能である。たとえば、第1のスクリーンは、テキスト及び画像を含むことが可能であり、第2のスクリーンは、1つ又は複数のグラフィカル視覚化を含むことが可能であり、第3のスクリーンは、オーディオ/ビデオの提示を、テキスト情報とともに含むことが可能である。それぞれのスクリーンは、ナビゲーション・ボタンなどのユーザ・インターフェース要素を有することが可能であり、これは、ユーザが別々のスクリーンの間において行ったり来たりすることを可能にする。ユーザが1つのスクリーンから次のスクリーンへ、又は提示の始まりから終わりへクリック又はタッチするのにかかる時間は、ユーザ入力データから特定されることが可能であり、次いでこの入力データが使用されて、ユーザがその提示を読んだ、又はその提示と対話したスピードを表すユーザ対話データを生成することも可能である。
【0186】
加えて、ユーザは、テキスト応答を必要とするさまざまな質問又は演習を提示されることが可能であり、タイピング事象及び削除事象の頻度が使用されて、ユーザが演習素材と対話したスピードを表すユーザ対話データを生成することが可能である。
【0187】
別の実施例においては、デジタル治療アプリケーションは、情報との1人又は複数のユーザの対話をモニタして、その情報に関するその1人又は複数のユーザの理解のレベルを特定するように構成されることが可能である。一実施例においては、ユーザが、提示されている情報に関わり合っているかどうか、及びその情報を理解しているかどうかを特定するように設計されているさまざまなプロンプト又は質問をユーザに周期的に提示することによって、ユーザと、そのユーザに提供された情報とに関連付けられている理解のレベルが測定されることが可能である。次いで、たとえば、ユーザが正しく答えた質問のパーセンテージに基づいて、理解レベルが計算されることが可能である。
【0188】
さらに、一実施例においては、ユーザの理解のレベルは、ユーザが読んだ又は対話した提供された情報のパーセンテージに基づいて特定されることが可能である。たとえば、ユーザが記事を読み始めているが、ユーザ入力データが、ユーザが記事の終わりまで一度もスクロールしていないということを示している場合には、ユーザは、提供された情報についての不十分な理解しか有していないということが特定されることが可能である。同様に、情報の複数のスクリーン、たとえば10個のスクリーンをユーザが提示されているケースにおいて、ユーザが10個のスクリーンのうちの2個へ進んでいるだけである場合には、ユーザは、提供された情報についての不十分な理解しか有していないということが特定されることが可能である。
【0189】
前述の例は、例示の目的のみのために与えられており、本明細書において開示されている、及び以降で特許請求されている本発明の範囲を限定することを意図されているものではないということにここで留意されたい。
【0190】
一実施例においては、508において、ユーザ・インターフェースを通じて提示された情報との1人又は複数のユーザの対話がモニタされ、関連付けられているユーザ対話データが生成されると、プロセス・フローは510へ進む。一実施例においては、510において、1人又は複数のユーザのそれぞれに関してユーザ精神状態データが入手され、1人又は複数のユーザのそれぞれに関するユーザ対話データが、1人又は複数のユーザのそれぞれに対応する精神状態データに相関付けられる。
【0191】
一実施例においては、508におけるユーザ対話データの生成の前に、後に、又はその最中に1人又は複数のユーザのそれぞれにインタビューすることによって、510においてユーザ精神状態データが1人又は複数のユーザから入手される。いくつかの実施例においては、508においてユーザ対話データが生成される前又は後に、ユーザに関連付けられている医療専門家などの第三者と相談することによって、510においてユーザ精神状態データが入手される。いくつかの実施例においては、508においてユーザ対話データが生成される前又は後に発生する1つ又は複数の事象を示すユーザに関連付けられている1つ又は複数のファイルにおけるデータから、510においてユーザ精神状態データが入手される。そのような事象は、ユーザの健康についての診断における変化、投薬における変化、又は508においてユーザ対話データが生成された時点での若しくはその付近でのユーザの精神状態を示す任意のその他の事象を含むことが可能であるが、それらに限定されない。
【0192】
ユーザ対話データが生成された時点での又はその付近でのそれぞれのユーザの精神状態を示すユーザ精神状態データが1人又は複数のユーザに関して入手されると、それぞれのユーザに関するユーザ精神状態データは、そのユーザに関して508において生成されたユーザ対話データに相関付けられる。次いで、1人又は複数のユーザのそれぞれに関する相関付けられたユーザ精神状態データ及びユーザ対話データが集約されて、相関付けられたユーザ対話/精神状態データが生成される。
【0193】
一実施例においては、相関付けられたユーザ対話/精神状態データが510において生成されると、プロセス・フローは512へ進む。一実施例においては、512において、相関付けられたユーザ対話/精神状態データがトレーニング・データとして使用されて、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデルが作成される。
【0194】
さまざまな実施例においては、主として、使用される機械学習ベースのモデルに応じて、ユーザ対話及び/又は精神状態データが、機械学習の技術分野において知られているさまざまな方法を使用して処理されて、要素が識別され、ユーザ対話及び/又は精神状態データがベクトル化される。具体的な説明例として、機械学習ベースのモデルが教師ありモデルであるケースにおいては、ユーザ対話データが分析され処理されて、ユーザの精神状態を示していると判明した個々の要素が識別されることが可能である。そしてこれらの個々の要素が使用されて、多次元空間におけるユーザ対話データ・ベクトルが作成され、それらのユーザ対話データ・ベクトルは次いで、1つ又は複数の機械学習モデルをトレーニングするための入力データとして使用される。次いで、ユーザに関連付けられているユーザ対話データ・ベクトルに相関するそのユーザに関する精神状態データが、結果として生じるベクトルのためのラベルとして使用される。さまざまな実施例においては、このプロセスは、1人又は複数のユーザのそれぞれから受け取られたユーザ対話/精神状態データに関して繰り返され、それによって、ユーザ対話データ・ベクトルと精神状態データとの複数の、しばしば数百万の相関付けられたペアが使用されて、1つ又は複数の機械学習ベースのモデルがトレーニングされる。その結果として、このプロセスは、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデルの作成をもたらす。
【0195】
当技術分野において知られている多くの異なるタイプの機械学習ベースのモデルがあるということを当業者なら容易に認識するであろう。したがって、上で論じられている教師あり機械学習ベースのモデルの特定の説明例は、本明細書において記載されている実施例を限定するものと解釈されるべきではないということに留意されたい。
【0196】
たとえば、さまざまな実施例においては、1つ又は複数の機械学習ベースのモデルは、教師あり機械学習ベースのモデル、半教師あり機械学習ベースのモデル、教師なし機械学習ベースのモデル、分類機械学習ベースのモデル、ロジスティック回帰機械学習ベースのモデル、ニューラル・ネットワーク機械学習ベースのモデル、深層学習機械学習ベースのモデル、及び/又は本明細書において論じられている、出願の時点で知られている、若しくは出願の時点よりも後に開発される/利用可能にされる任意のその他の機械学習ベースのモデルのうちの1つ又は複数であることが可能である。
【0197】
一実施例においては、512において、相関付けられたユーザ対話/精神状態データがトレーニング・データとして使用されて、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデルが作成されると、プロセス・フローは514へ進む。一実施例においては、514において、アプリケーションの現ユーザが、アプリケーションのユーザ・インターフェースを通じて情報を提供される。
【0198】
1人又は複数のユーザがアプリケーション・ユーザ・インターフェースを通じて情報を提供される上述のオペレーション506とは対照的に、514においては、単一の特定のユーザが、アプリケーションを使用する単一の現在のセッション中に、アプリケーションのユーザ・インターフェースを通じて情報を提供される。そのため、単一の特定のユーザが、以降では現ユーザと呼ばれる場合がある。
【0199】
1人又は複数のユーザに提供される情報に関して、上で詳細に記述されているように、さまざまな実施例においては、ユーザ・インターフェースを通じて現ユーザに提供される情報は、テキスト情報、オーディオ情報、グラフィカル情報、画像情報、ビデオ情報、ユーザ体験情報、及び/又はそれらの任意の組合せを含むが、それらに限定されない。一実施例においては、情報は、提供された情報と現ユーザが対話することを可能にするような方法で現ユーザに提供される。
【0200】
一実施例においては、514において情報が現ユーザに提供されると、プロセス・フローは516へ進む。ユーザ・インターフェースを通じて提供された情報との1人又は複数のユーザの対話がモニタされて、ユーザ対話データが生成される上述のオペレーション508とは対照的に、516においては、ユーザ・インターフェースを通じて提供された情報との現ユーザの対話がモニタされて、現ユーザ対話データが生成される。
【0201】
1人又は複数のユーザの対話をモニタして、ユーザ対話データを生成することに関して、上で詳細に記述されているように、さまざまな実施例においては、ユーザ・インターフェースを通じて提示された情報との現ユーザの対話は、ユーザ・インターフェースを通じて受け取られたユーザ入力データの収集を通じてモニタされることが可能である。収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、ユーザ入力データが現ユーザから収集されると、そのユーザ入力データが処理され集約されて、現ユーザ対話データが生成される。
【0202】
1人又は複数のユーザの対話をモニタして、収集ユーザ対話データを生成することに関して、やはり上で詳細に記述されているように、さまざまな実施例においては、アプリケーションは、特定のタイプの現ユーザ対話データをモニタするように構成されることが可能であり、それらの現ユーザ対話データは、提供された情報と現ユーザが対話するスピード、及び/又は提供された情報に関する現ユーザの理解のレベルなどであるが、それらに限定されない。一実施例においては、提供された情報と現ユーザが対話するスピードは、クリックストリームデータを収集することによって測定されることが可能であり、クリックストリームデータは、ユーザ・インターフェースを通じて現ユーザに提示された情報コンテンツのさまざまな部分に関わり合うことにどれぐらい長い時間を現ユーザが費やしているかなどのデータを含むことが可能である。一実施例においては、現ユーザが、提示されている情報に関わり合っているかどうか、及びその情報を理解しているかどうかを特定するように設計されているさまざまなプロンプト又は質問を現ユーザに周期的に提示することによって、現ユーザと、提供された情報とに関連付けられている理解のレベルが測定されることが可能である。次いで、たとえば、現ユーザが正しく答えた質問のパーセンテージに基づいて、理解レベルが計算されることが可能である。さらに、一実施例においては、現ユーザの理解のレベルは、現ユーザが読んだ又は対話した提供された情報のパーセンテージに基づいて特定されることが可能である。
【0203】
一実施例においては、516において、ユーザ・インターフェースを通じて提供された情報との現ユーザの対話がモニタされて、現ユーザ対話データが生成されると、プロセス・フローは518へ進む。一実施例においては、518において、現ユーザ対話データが、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデルに提供されて、現ユーザ精神状態予測データが生成される。
【0204】
一実施例においては、516において生成された現ユーザ対話データがベクトル化されて、1つ又は複数のユーザ対話データ・ベクトルが生成される。次いで、現ユーザに関連付けられている1つ又は複数のユーザ対話データ・ベクトルが、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデルへの入力データとして提供される。次いで現ユーザ対話ベクトル・データが処理されて、1つ又は複数の現ユーザ対話データ・ベクトルと、1つ又は複数の以前にラベル付けされたユーザ対話データ・ベクトルとの間における距離がわかり、この場合、以前にラベル付けされたユーザ対話データ・ベクトルは、既知の関連付けられているユーザ精神状態データを有するベクトルである。一実施例においては、現ユーザ対話ベクトル・データと、以前にラベル付けされたユーザ対話ベクトル・データとの間における計算された距離に基づいて、1つ又は複数の確率スコアが特定される。1つ又は複数の現ユーザ対話データ・ベクトルが、以前にラベル付けされたユーザ対話ベクトル・データに関連付けられているユーザ精神状態に相関していると特定されると、現ユーザ精神状態予測データが生成される。一実施例においては、現ユーザ精神状態予測データは、1つ又は複数の確率スコアを含み、これらの確率スコアは、現ユーザが1つ又は複数の特定の精神状態にある確率を示す。
【0205】
一実施例においては、518において現ユーザ精神状態予測データが生成されると、プロセス・フローは520へ進む。520においては、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデルから受信された現ユーザ精神状態予測データに少なくとも部分的に基づいて、1つ又は複数のアクションが取られる。
【0206】
一実施例においては、取られることになる1つ又は複数のアクションは、現ユーザ精神状態予測データに基づいて特定されることが可能である。たとえば、現ユーザが軽度に不安であるということを現ユーザ精神状態予測データが示している場合には、現ユーザに提示される情報コンテンツ・データ及び/又はユーザ体験データに対して微調整を行うためのアクションが取られることが可能である。その一方で、現ユーザが重度に不安であるということを現ユーザ精神状態予測データが示している場合には、現ユーザに提示される情報コンテンツ・データ及び/又はユーザ体験データに対して大幅な調整を行うためのアクションが取られることが可能である。一実施例においては、情報コンテンツ・データに対する調整は、より穏やかな言葉を使用するテキスト・コンテンツを提供すること、より静かで、よりリラックスさせる音声、サウンド、若しくは音楽を含むオーディオ・コンテンツを提供すること、又はあまりリアルでない若しくはあまり生々しくない画像/ビデオ・コンテンツを提供することなどの調整を含むことが可能であるが、それらに限定されない。ユーザ体験データに対する調整は、現ユーザに提示される情報コンテンツ・データの色、フォント、形状、提示、及び/又はレイアウトを変更することなどの調整を含むことが可能であるが、それらに限定されない。
【0207】
たとえば、一実施例においては、上で論じられているように、アプリケーションはデジタル治療アプリケーションであり、現ユーザは、ある病状と診断された患者である。多くの患者は、自分の病状に関連した多大な不安を体験する。ユーザが不安に苛まれている可能性がある、又はその他の形で心理的苦痛のさなかにある可能性があるということを予測精神状態データが示している場合には、現ユーザが、支援から、又は現ユーザの不安レベルを低減するように設計されている調整から恩恵を受けるであろうという決定が行われることが可能である。
【0208】
1つの具体的な説明例として、現ユーザが軽度に不安であるという特定が行われた場合には、ユーザ・インターフェースを通じて現ユーザに提供されている情報のコンテンツ及び/又は提示を調整することなど、現ユーザの不安レベルを低減するための軽微なアクションが取られることが可能である。1つの簡略化された説明例として、青及び紫などの寒色が、落ち着かせる効果を生み出すことが知られており、より丸くて、より柔らかい形状も、落ち着かせる効果に関連付けられている。それゆえに、この状況においては、コンテンツが青/紫の配色でユーザに提示されるようにユーザ体験コンテンツ・データが修正されることが可能であり、より丸くて、より柔らかい形状を含むようにグラフィカル・ユーザ要素が変更されることが可能である。別の具体的な説明例として、現ユーザが極めて不安であるという特定が行われた場合には、アプリケーションの通知システムを通じて、ユーザに関連付けられている1人若しくは複数の医療専門家に通知すること、又は現ユーザに関連付けられている1人若しくは複数の医療専門家からの何らかのその他の形態の個人的な介入など、より思い切ったアクションが取られることが可能である。
【0209】
さまざまな実施例においては、いくつかの追加のタイプのアクションが、1つ又は複数の病状と診断されたユーザを扱う際には特に、適切である場合があり、それらのアクションは、ユーザに入力及び/又は応答データを求めること、ユーザに注意喚起すること、ユーザのメンタル・ヘルス専門家又は医療専門家のうちの1人又は複数に注意喚起すること、ユーザの電子ファイルに対してメモすること、データを付加すること、又は強調表示を行うこと、専門家の紹介を行うこと、サポート連絡先をユーザに推奨すること、追加の診療予約、治療、アクション、又は投薬を処方すること、緊急時対応又は介入の専門家を呼ぶこと、緊急連絡先、親類、又は介護者に通知すること等などであるが、それらに限定されない。
【0210】
一実施例においては、520において現ユーザ精神状態予測データに少なくとも部分的に基づいて1つ又は複数のアクションが取られると、プロセス・フローは、終了522へ進み、機械学習ベースの分析及び処理に基づいてアプリケーション・ユーザの心理状態をリモートで識別又は予測するためのプロセス500は終了されて、新たなデータ及び/又は命令が待たれる。
【0211】
図6は、第3の実施例による、機械学習ベースの分析及び処理に基づいてアプリケーション・ユーザの心理状態をリモートで識別又は予測するためのプロダクション環境600のブロック図である。
【0212】
一実施例においては、プロダクション環境600は、ユーザ・コンピューティング環境602、現ユーザ・コンピューティング環境606、及びサービス・プロバイダ・コンピューティング環境610を含む。ユーザ・コンピューティング環境602及び現ユーザ・コンピューティング環境606はさらに、それぞれユーザ・コンピューティング・システム604及び現ユーザ・コンピューティング・システム608を含む。コンピューティング環境602、606、及び610は、1つ又は複数の通信ネットワーク616を用いて互いに通信可能に結合されている。
【0213】
一実施例においては、サービス・プロバイダ・コンピューティング環境610は、プロセッサ612、物理メモリ614、及びアプリケーション環境618を含む。プロセッサ612及び物理メモリ614は、アプリケーション環境618に関連付けられているデータ及びデータ処理モジュールのオペレーション及び対話を調整する。一実施例においては、アプリケーション環境618は、ユーザ・インターフェース620を含み、ユーザ・インターフェース620は、1つ又は複数の通信ネットワーク616を通じてユーザ・コンピューティング・システム604及び現ユーザ・コンピューティング・システム608に提供される。
【0214】
一実施例においては、アプリケーション環境618はさらに、ユーザ対話データ生成モジュール626、ユーザ精神状態取得モジュール628、ユーザ・データ相関付けモジュール636、機械学習トレーニング・モジュール640、アクション特定モジュール648、及びアクション実行モジュール650を含み、それらのそれぞれについては、以降でさらに詳しく論じられることになる。
【0215】
加えて、一実施例においては、アプリケーション環境618は、情報コンテンツ・データ622、ユーザ体験データ624、ユーザ対話データ632、ユーザ精神状態データ634、相関付けられたユーザ対話/精神状態データ638、現ユーザ対話データ644、トレーニングされた機械学習ベースの精神状態予測モデル642、及び現ユーザ精神状態予測データ646を含み、それらのそれぞれについては、以降でさらに詳しく論じられることになる。いくつかの実施例においては、ユーザ対話データ632、ユーザ精神状態データ634、相関付けられたユーザ対話/精神状態データ638、及び現ユーザ対話データ644は、ユーザ・データベース630に格納されることが可能であり、ユーザ・データベース630は、アプリケーション環境618の1人又は複数のユーザに関連付けられているデータを含む。
【0216】
一実施例においては、アプリケーション環境618の1人又は複数のユーザに関連付けられているユーザ・コンピューティング環境602のユーザ・コンピューティング・システム604は、ユーザ・インターフェース620を備えており、ユーザ・インターフェース620は、その1人又は複数のユーザが、1つ又は複数の通信ネットワーク616を通じて、アプリケーション環境618からの出力を受け取ること、並びにアプリケーション環境618への入力を提供することを可能にする。
【0217】
上で論じられているように、さまざまな実施例においては、アプリケーション環境618は、ユーザ・インターフェース及びコンテンツ/情報をユーザに提供することが可能である任意のタイプのアプリケーション環境であることが可能であり、デスクトップ・コンピューティング・システム・アプリケーション、モバイル・コンピューティング・システム・アプリケーション、仮想現実コンピューティング・システム・アプリケーション、モノのインターネット(IoT)デバイスによって提供されるアプリケーション、又はそれらの任意の組合せを含むが、それらに限定されない。さらに、さまざまな実施例においては、ユーザ・インターフェース620は、グラフィカル・ユーザ・インターフェース、オーディオベースのユーザ・インターフェース、タッチベースのユーザ・インターフェース、又は当業者に現在知られている任意のその他のタイプのユーザ・インターフェース、又は出願の時点よりも後に開発される可能性がある任意のその他のタイプのユーザ・インターフェースの任意の組合せを含むことが可能である。
【0218】
一実施例においては、アプリケーション環境618の1人又は複数のユーザに関連付けられているユーザ・コンピューティング環境602のユーザ・コンピューティング・システム604は、ユーザ・インターフェース620を通じて情報コンテンツ・データ622及びユーザ体験データ624を提供される。
【0219】
さまざまな実施例においては、ユーザ・インターフェース620を通じて1人又は複数のユーザに提供される情報コンテンツ・データ622は、テキスト情報、オーディオ情報、グラフィカル情報、画像情報、ビデオ情報、及び/又はそれらの任意の組合せを含むが、それらに限定されない。一実施例においては、情報コンテンツ・データ622は、情報コンテンツ・データ622と1人又は複数のユーザが対話することを可能にするような方法で1人又は複数のユーザに提供される。
【0220】
さまざまな実施例においては、ユーザ体験データ624は、情報コンテンツ・データ622をユーザに提示するために使用される色及びフォント、グラフィカル・ユーザ・インターフェース要素のさまざまな形状、情報コンテンツ・データ622のレイアウト若しくは順序付け、並びに/又は情報コンテンツ・データ622の提示若しくはそれとの対話に伴うことが可能であるサウンド・エフェクト、音楽、若しくはその他のオーディオ要素を含むが、それらに限定されない。
【0221】
一実施例においては、1人又は複数のユーザが、ユーザ・インターフェース620を通じて情報コンテンツ・データ622及びユーザ体験データ624を提供されると、情報コンテンツ・データ622との1人又は複数のユーザの対話が、ユーザ・インターフェース620を通じて受け取られるユーザ入力データの収集を通じてユーザ対話データ生成モジュール626によってモニタされる。ユーザ対話データ生成モジュール626によって収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、ユーザ入力データがユーザ対話データ生成モジュール626によって収集されると、1人又は複数のユーザのそれぞれからのユーザ入力データが、ユーザ対話データ生成モジュール626によって処理され集約されて、ユーザ対話データ632が生成される。
【0222】
さまざまな実施例においては、ユーザ対話データが含むことが可能であるデータは、ユーザがアプリケーション環境618にアクセスしている回数、ユーザがアプリケーション環境618に関わり合うことに費やしている時間の長さ、どれぐらい長くユーザがアプリケーション環境618にアクセスしているか、ユーザがアプリケーション環境618を使用している間に最も関わり合っている情報コンテンツ・データ622のタイプ、ユーザ・インターフェース620によって提供されることが可能である進んだ入力メカニズムをユーザが利用しているか否か、ユーザによって最も好まれている入力メカニズムのタイプ、ユーザ・インターフェース620を通じて提示された情報コンテンツ・データ622とユーザが対話しているスピード、及びユーザ・インターフェース620を通じて提示された情報コンテンツ・データ622についてユーザが有している理解のレベルなどであるが、それらに限定されない。
【0223】
一実施例においては、ユーザ対話データ生成モジュール626によってユーザ対話データ632が生成されると、ユーザ精神状態取得モジュール628によって1人又は複数のユーザのそれぞれに関してユーザ精神状態データ634が入手され、1人又は複数のユーザのそれぞれに関するユーザ対話データ632が、1人又は複数のユーザのそれぞれに対応するユーザ精神状態データ634に相関付けられる。一実施例においては、ユーザ対話データ生成モジュール626によるユーザ対話データ632の生成の前に、後に、又はその最中にユーザ精神状態取得モジュール628によって1人又は複数のユーザからユーザ精神状態データ634が入手される。さまざまな実施例においては、ユーザ精神状態取得モジュール628は、さまざまなメカニズムを通じてユーザ精神状態データ634を取得し、それらのメカニズムは、ユーザにインタビューすること、ユーザに関連付けられている医療専門家などの第三者と相談すること、及び/又はユーザに関連付けられている1つ若しくは複数のファイルを入手して分析することなどであるが、それらに限定されない。
【0224】
ユーザ精神状態取得モジュール628によって1人又は複数のユーザに関してユーザ精神状態データ634が入手されると、それぞれのユーザに関するユーザ精神状態データ634は、ユーザ・データ相関付けモジュール636によって、関連付けられているユーザ対話データ632に相関付けられる。次いで、1人又は複数のユーザのそれぞれに関する相関付けられたユーザ精神状態データ634及びユーザ対話データ632が、ユーザ・データ相関付けモジュール636によって集約されて、相関付けられたユーザ対話/精神状態データ638が生成される。
【0225】
一実施例においては、相関付けられたユーザ対話/精神状態データ638がユーザ・データ相関付けモジュール636によって生成されると、相関付けられたユーザ対話/精神状態データ638が機械学習トレーニング・モジュール640によってトレーニング・データとして使用されて、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデル642が作成される。
【0226】
さまざまな実施例においては、主として、使用される機械学習ベースのモデルに応じて、相関付けられたユーザ対話/精神状態データ638が、機械学習の技術分野において知られているさまざまな方法を使用して、機械学習トレーニング・モジュール640によって処理されて、要素が識別され、相関付けられたユーザ対話/精神状態データ638がベクトル化される。具体的な説明例として、機械学習ベースのモデルが教師ありモデルであるケースにおいては、ユーザ対話データ632が分析され処理されて、ユーザの精神状態を示していると判明した個々の要素が識別されることが可能である。そしてこれらの個々の要素が使用されて、多次元空間におけるユーザ対話データ・ベクトルが作成され、それらのユーザ対話データ・ベクトルは次いで、1つ又は複数の機械学習モデルをトレーニングするための入力データとして使用される。次いで、そのユーザに関連付けられているユーザ対話データ・ベクトルに相関するユーザ精神状態データ634が、結果として生じるベクトルのためのラベルとして使用される。さまざまな実施例においては、このプロセスは、1人又は複数のユーザのそれぞれから受け取られたユーザ対話データ632及びユーザ精神状態データ634に関して機械学習トレーニング・モジュール640によって繰り返され、それによって、ユーザ対話データ・ベクトルと精神状態データとの複数の、しばしば数百万の相関付けられたペアが使用されて、1つ又は複数の機械学習ベースのモデルがトレーニングされる。その結果として、このプロセスは、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデル642の作成をもたらす。
【0227】
一実施例においては、相関付けられたユーザ対話/精神状態データ638が、機械学習トレーニング・モジュール640によってトレーニング・データとして使用されて、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデル642が作成されると、アプリケーション環境618の現ユーザに関連付けられているユーザ・コンピューティング環境606の現ユーザ・コンピューティング・システム608が、ユーザ・インターフェース620を通じて情報コンテンツ・データ622及びユーザ体験データ624を提供される。
【0228】
一実施例においては、現ユーザが、ユーザ・インターフェース620を通じて情報コンテンツ・データ622及びユーザ体験データ624を提供されると、情報コンテンツ・データ622との現ユーザの対話が、ユーザ・インターフェース620を通じて受け取られるユーザ入力データの収集を通じてユーザ対話データ生成モジュール626によってモニタされる。ユーザ対話データ生成モジュール626によって収集されるユーザ入力データは、クリックストリーム入力、テキスト入力、タッチ入力、ジェスチャー入力、オーディオ入力、画像入力、ビデオ入力、加速度計入力、及び/又は生理学的入力に関連付けられているデータを含むことが可能であるが、それらに限定されない。一実施例においては、現ユーザ入力データがユーザ対話データ生成モジュール626によって収集されると、その現ユーザ入力データが、ユーザ対話データ生成モジュール626によって処理され集約されて、現ユーザ対話データ644が生成される。
【0229】
一実施例においては、ユーザ対話データ生成モジュール626によって現ユーザ対話データ644が生成されると、現ユーザ対話データ644が、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデル642に提供されて、現ユーザ精神状態予測データ646が生成される。
【0230】
一実施例においては、現ユーザ対話データ644がベクトル化されて、1つ又は複数のユーザ対話データ・ベクトルが生成される。次いで、現ユーザに関連付けられている1つ又は複数のユーザ対話データ・ベクトルが、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデル642への入力データとして提供され、その結果、現ユーザ精神状態予測データ646が生成される。一実施例においては、現ユーザ精神状態予測データ646は、1つ又は複数の確率スコアを含み、これらの確率スコアは、現ユーザが1つ又は複数の特定の精神状態にある確率を示す。
【0231】
一実施例においては、1つ又は複数のトレーニングされた機械学習ベースの精神状態予測モデル642によって現ユーザ精神状態予測データ646が生成されると、現ユーザ精神状態予測データ646に少なくとも部分的に基づいて、1つ又は複数のアクションが取られる。
【0232】
一実施例においては、取られることになる1つ又は複数のアクションは、アクション特定モジュール648によって現ユーザ精神状態予測データ646に基づいて特定されることが可能である。たとえば、現ユーザが軽度に不安であるということを現ユーザ精神状態予測データ646が示している場合には、アクション特定モジュール648は、ユーザ・インターフェース620を通じて現ユーザに提示されることになる情報コンテンツ・データ622及び/又はユーザ体験データ624に対して微調整を行うためのアクションが取られるべきであると特定することが可能である。その一方で、現ユーザが重度に不安であるということを現ユーザ精神状態予測データ646が示している場合には、アクション特定モジュール648は、ユーザ・インターフェース620を通じて現ユーザに提示されることになる情報コンテンツ・データ622及び/又はユーザ体験データ624に対して大幅な調整を行うためのアクションが取られるべきであると特定することが可能である。その他の実施例においては、アクション特定モジュール648は、より思い切ったアクションが取られるべきであると特定することが可能である。たとえば、現ユーザが重度に不安であるということを現ユーザ精神状態予測データ646が示している場合には、アクション特定モジュール648は、緊急時通報及び個人的な介入などのアクションが適切であると特定することが可能である。
【0233】
さまざまな実施例においては、取られることになるアクションをアクション特定モジュール648が特定すると、制御は、特定されたアクションの実行のためにアクション実行モジュール650へ進む。アクションの実行は、たとえば、現ユーザの心理状態にとってさらに適切である異なる情報コンテンツ・データ622若しくはユーザ体験データ624を選択して提供すること、ユーザに承認された何らかの連絡手段を通じてユーザに連絡を取ること、及び/又はユーザの代わりにユーザの信頼できる第三者に連絡を取ることを含むことが可能である。
【0234】
上で開示されている実施例は、アプリケーション・ユーザの心理状態における変化又は異常をリモートで識別してモニタするという技術的な問題に対する効果的で効率のよい技術的な解決策を提供する。開示されている実施例の1つの具体的で実用的な用途は、1つ又は複数の病状と診断された患者の心理状態における変化又は異常をリモートで識別してモニタするという用途である。開示されている実施例においては、1つ又は複数の病状と診断された患者が、デジタル治療アプリケーションへのアクセスを処方され、このデジタル治療アプリケーションは、導かれるケアを患者に対してさまざまな方法で提供するように設計されている。デジタル治療アプリケーションを通じて、患者は、患者の病状のうちの1つ又は複数、並びに現在の及び潜在的な投薬及び/又は治療に関連している情報などの情報を提供されることが可能である。加えて、本明細書において開示されているデジタル治療アプリケーションはさらに、インタラクティブなコンテンツを患者に提供し、これは、提供されたコンテンツとの患者の対話の諸側面に関連したデータの収集を可能にする。そして収集された対話データが分析されて、患者の心理状態における変化又は異常が識別されモニタされる。患者の心理状態における変化又は異常が識別されると、患者を支援するための1つ又は複数のアクションが取られる。
【0235】
その結果として、本明細書において開示されている実施例は、抽象的なアイディアではなく、さまざまな実用的な用途によく適している。さらに、本明細書において開示されている実施例のうちの多くは、数十億のデータ・ポイント及びデータ・ポイントどうしの組合せの処理及び分析を必要とし、それゆえに、本明細書において開示されている技術的な解決策は、頭の中だけでのステップ又はペン及び紙のみによって実施されることは可能ではなく、また抽象的なアイディアではなく、実際に、アプリケーション・ユーザの心理状態をリモートでモニタすることに関連付けられている長年にわたる技術的な問題に対する技術的な解決策を提供することを対象としている。
【0236】
加えて、アプリケーション・ユーザの心理状態をリモートでモニタするための開示されている方法及びシステムは、大量のユーザ入力及び対話データの集約及び詳細な分析を含む特定のプロセスを必要とし、したがって、心理的なモニタリングの領域におけるその他の形態の革新を包含し、具体化し、又は排除しない。さらに、アプリケーション・ユーザの心理状態をリモートでモニタするためのシステム及び方法の開示されている実施例は、少なくともいくつかの理由から抽象的なアイディアではない。
【0237】
第1に、リモートでアプリケーション・ユーザの心理状態を効果的に効率よくモニタすることは、それ自体が単なるアイディアではないので、抽象的なアイディアではない。たとえば、そのプロセスは、頭の中だけで、又はペン及び紙を使用して実行されることは可能ではない。なぜなら、ユーザの入力、ユーザの対話、及びユーザの心理状態のすべての可能な組合せを人間の心が識別、処理、及び分析することは、人間の心を支援するためにペン及び紙を用いてさえ、並びに無限の時間を用いてさえ、可能ではないからである。
【0238】
第2に、リモートでアプリケーション・ユーザの心理状態を効果的に効率よくモニタすることは、基本的な経済慣行ではない(たとえば、単に契約関係を生み出すこと、ヘッジすること、決済リスクを軽減することなどではない)。
【0239】
第3に、リモートでアプリケーション・ユーザの心理状態を効果的に効率よくモニタすることは、単に人間の活動をまとめる(たとえば、ビンゴのゲームを管理する)方法ではない。むしろ、開示されている実施例においては、リモートでアプリケーション・ユーザの心理状態を効果的に効率よくモニタするための方法及びシステムは、医療及びメンタル・ヘルス・ケアの分野を著しく改善するツールを提供する。開示されている実施例を通じて、患者は、ユニークなパーソナライズされたリモート支援、治療、及びケアを提供される。したがって、本明細書において開示されている方法及びシステムは、抽象的なアイディアではなく、そしてまた、本明細書において開示されているアイディアをそれらのアイディアの実用的な用途へと統合するのに役立つ。
【0240】
第4に、本明細書において開示されている実施例を実施するために数学が使用されることが可能であるが、本明細書において開示され特許請求されているシステム及び方法は、抽象的なアイディアではない。なぜなら、開示されているシステム及び方法は、単に数学的な関係/式ではないからである。
【0241】
本明細書において使用されている言葉は、主として読みやすさ、明確さ、及び教示上の目的のために選択されており、本発明の主題の線引き又は画定を行うために選択されてはいない場合があるということに留意されたい。したがって、本発明の開示は、本発明の範囲を例示するものであり、本発明の範囲を限定するものではないということが意図されており、本発明の範囲は、以降の特許請求の範囲において示されている。
【0242】
本発明は、特定の可能な実施例に関して特に詳細に記述されてきた。本発明は、その他の実施例において実践されることが可能であるということを当業者なら理解するであろう。たとえば、コンポーネントに関して使用される命名法、コンポーネントの名称及び用語の大文字化、属性、データ構造、又は任意のその他のプログラミング若しくは構造上の側面は、重要ではなく、必須ではなく、又は限定的ではなく、本発明又はその特徴を実施するメカニズムは、さまざまな異なる名前、フォーマット、又はプロトコルを有することが可能である。さらに、本発明のシステム又は機能性は、記述されているようにソフトウェアとハードウェアとのさまざまな組合せを介して、又は完全にハードウェア要素で実装されることが可能である。また、本明細書において記述されているさまざまなコンポーネントの間における機能性についての特定の区分は、例示的なものにすぎず、必須又は重要ではない。その結果として、単一のコンポーネントによって実行される機能は、その他の実施例においては、複数のコンポーネントによって実行されることが可能であり、複数のコンポーネントによって実行される機能は、その他の実施例においては、単一のコンポーネントによって実行されることが可能である。
【0243】
上の記述のいくつかの部分は、情報/データ上でのオペレーションのアルゴリズム及びシンボル表示、又はオペレーションのアルゴリズムのような表示という点から本発明の特徴を提示している。これらのアルゴリズム的な又はアルゴリズムのような記述及び表示は、当業者たちによって、それらの当業者たちの作業の実体を他の当業者たちに最も効果的に効率よく伝えるために使用される手段である。これらのオペレーションは、機能的に又は論理的に記述されているが、コンピュータ・プログラム又はコンピューティング・システムによって実施されるものと理解される。さらに、一般性を失うことなく、ステップ若しくはモジュールとして、又は機能名によってオペレーションのこれらのアレンジに言及することが時として好都合であることもわかっている。
【0244】
加えて、図において示されている、又は本明細書において論じられているオペレーションは、記述及び理解を容易にするために特定の命名法を使用して識別されているが、当技術分野においては、同等のオペレーションを識別するために、その他の命名法がしばしば使用される。
【0245】
そのため、多くの変形形態が、本明細書によって明示的に提供されているか、又は本明細書によって暗示されているか否かにかかわらず、当業者によって本開示を考慮して実施されることが可能である。
図1
図2
図3
図4
図5
図6