IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ライカ バイオシステムズ イメージング インコーポレイテッドの特許一覧

特許7119224デジタルパソロジーのためのアイトラッキング画像ビューア
<>
  • 特許-デジタルパソロジーのためのアイトラッキング画像ビューア 図1
  • 特許-デジタルパソロジーのためのアイトラッキング画像ビューア 図2
  • 特許-デジタルパソロジーのためのアイトラッキング画像ビューア 図3A
  • 特許-デジタルパソロジーのためのアイトラッキング画像ビューア 図3B
  • 特許-デジタルパソロジーのためのアイトラッキング画像ビューア 図4A
  • 特許-デジタルパソロジーのためのアイトラッキング画像ビューア 図4B
  • 特許-デジタルパソロジーのためのアイトラッキング画像ビューア 図4C
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-08-05
(45)【発行日】2022-08-16
(54)【発明の名称】デジタルパソロジーのためのアイトラッキング画像ビューア
(51)【国際特許分類】
   G06F 3/0485 20220101AFI20220808BHJP
   G06F 3/0346 20130101ALI20220808BHJP
   G06F 3/01 20060101ALI20220808BHJP
   G09G 5/00 20060101ALI20220808BHJP
   G09G 5/36 20060101ALI20220808BHJP
   G09G 5/38 20060101ALI20220808BHJP
【FI】
G06F3/0485
G06F3/0346 423
G06F3/01 510
G09G5/00 550C
G09G5/36 520P
G09G5/38 A
G09G5/36 530Y
【請求項の数】 20
(21)【出願番号】P 2021517949
(86)(22)【出願日】2019-12-19
(65)【公表番号】
(43)【公表日】2022-02-18
(86)【国際出願番号】 US2019067665
(87)【国際公開番号】W WO2020132358
(87)【国際公開日】2020-06-25
【審査請求日】2021-05-28
(31)【優先権主張番号】62/782,191
(32)【優先日】2018-12-19
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】503293765
【氏名又は名称】ライカ バイオシステムズ イメージング インコーポレイテッド
【氏名又は名称原語表記】Leica Biosystems Imaging, Inc.
【住所又は居所原語表記】1360 Park Center Dr., Vista, CA 92081, United States of America
(74)【代理人】
【識別番号】100114890
【弁理士】
【氏名又は名称】アインゼル・フェリックス=ラインハルト
(74)【代理人】
【識別番号】100098501
【弁理士】
【氏名又は名称】森田 拓
(74)【代理人】
【識別番号】100116403
【弁理士】
【氏名又は名称】前川 純一
(74)【代理人】
【識別番号】100134315
【弁理士】
【氏名又は名称】永島 秀郎
(74)【代理人】
【識別番号】100135633
【弁理士】
【氏名又は名称】二宮 浩康
(74)【代理人】
【識別番号】100162880
【弁理士】
【氏名又は名称】上島 類
(72)【発明者】
【氏名】アレン オルソン
(72)【発明者】
【氏名】キラン サリグラマ
【審査官】菅原 浩二
(56)【参考文献】
【文献】特開平07-265289(JP,A)
【文献】特開2006-023953(JP,A)
【文献】米国特許出願公開第2002/0105482(US,A1)
【文献】特開平08-022385(JP,A)
【文献】特開2000-089884(JP,A)
【文献】特開2015-106327(JP,A)
【文献】特開2012-155016(JP,A)
【文献】特開2007-029248(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/0485
G06F 3/0346
G06F 3/01
G09G 5/00
G09G 5/36
G09G 5/38
(57)【特許請求の範囲】
【請求項1】
ディスプレイ上のユーザ注視ポジションをセンシングするように構成されたアイトラッキングデバイスと、少なくとも1つのハードウェアプロセッサと、を有するシステムであって、
少なくとも1つの前記ハードウェアプロセッサは、以下のように構成されている、すなわち、
前記アイトラッキングデバイスからの出力に基づき、ディスプレイ上の前記ユーザ注視ポジションを検出し、前記ディスプレイは、マクロビュー内の画像の少なくとも一部分と、前記画像のサムネイル画像とを表示し、
検出された前記ユーザ注視ポジションが前記サムネイル画像内にあるのかまたは前記マクロビュー内にあるのかを判定し、
前記ユーザ注視ポジションが前記マクロビュー内にあることの検出に応答して、前記マクロビュー内の前記画像のビューを自動的にパンして、前記マクロビュー内の検出された前記ポジションに対応する前記画像上のポジションを、前記マクロビューの中央部に向かって移動させ、
前記ユーザ注視ポジションが前記サムネイル画像内にあることの検出に応答して、前記サムネイル画像内の検出された前記ポジションに対応する前記画像上のポジションを特定し、前記画像上の特定された前記ポジションが前記マクロビューの前記中央部内にあるように、前記マクロビューを更新する、
システム。
【請求項2】
前記マクロビュー内の前記ユーザ注視ポジションが閾値よりも大きく変更されたことの検出に応答して、自動的なパニングが実施される、
請求項1記載のシステム。
【請求項3】
前記画像は、有線または無線のネットワークを介して、デジタルパソロジーのスライドサーバまたはスキャニング装置から取得される、
請求項1記載のシステム。
【請求項4】
少なくとも1つの前記ハードウェアプロセッサは、前記マクロビュー内の検出された前記ポジションに対応する前記画像上の前記ポジションが、前記マクロビューの前記中央部内に入るまで、前記ビューを自動的にパンするように構成されている、
請求項1記載のシステム。
【請求項5】
なくとも1つの前記ハードウェアプロセッサ、検出された前記ユーザ注視ポジションが前記マクロビューの前記中央部内に入るまで、前記ビューを自動的にパンするように構成されている、
請求項1記載のシステム
【請求項6】
なくとも1つの前記ハードウェアプロセッサはさらに
前記アイトラッキングデバイスからの出力に基づきユーザ頭部の向きを検出し、
前記ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた開始ジェスチャを検出する
ように構成されており、自動的なパニング、予め定められた前記開始ジェスチャの検出に応答して実施される、
請求項1記載のシステム
【請求項7】
なくとも1つの前記ハードウェアプロセッサはさらに
前記ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた停止ジェスチャを検出し、
予め定められた前記停止ジェスチャの検出に応答して、前記マクロビュー内の前記画像の前記ビューのパニングを自動的に停止させる
ように構成されている、
請求項6記載のシステム
【請求項8】
前記マクロビューの更新は、前記画像の前記ビューを自動的にパンして、前記画像上の特定された前記ポジションを前記マクロビューの前記中央部に向かって移動させることを有する、
請求項記載のシステム
【請求項9】
なくとも1つの前記ハードウェアプロセッサはさらに、前記ユーザ注視ポジションにおける変化の距離を計算するように構成されており、自動的なパニングの速度は、計算された前記距離に基づく、
請求項1記載のシステム
【請求項10】
少なくとも1つのハードウェアプロセッサを用いたアイトラッキング方法であって、前記方法は、以下のことを有する、すなわち、
アイトラッキングデバイスからの出力に基づき、ディスプレイ上のユーザ注視ポジションを検出し、前記ディスプレイは、マクロビュー内の画像の少なくとも一部分と、前記画像のサムネイル画像と、を表示し、
検出された前記ユーザ注視ポジションが前記サムネイル画像内にあるのかまたは前記マクロビュー内にあるのかを判定し、
前記ユーザ注視ポジションが前記マクロビュー内にあることの検出に応答して、前記マクロビュー内の前記画像のビューを自動的にパンして、前記マクロビュー内の検出された前記ポジションに対応する前記画像上のポジションを、前記マクロビューの中央部に向かって移動させ、
前記ユーザ注視ポジションが前記サムネイル画像内にあることの検出に応答して、前記サムネイル画像内の検出された前記ポジションに対応する前記画像上のポジションを特定し、前記画像上の特定された前記ポジションが前記マクロビューの前記中央部内にあるように、前記マクロビューを更新する、
ことを有する方法。
【請求項11】
前記マクロビュー内の前記ユーザ注視ポジションが閾値よりも大きく変更されたことの検出に応答して、自動的なパニングを実施する、
請求項10記載の方法。
【請求項12】
前記方法はさらに、前記ディスプレイのための前記画像を、有線または無線のネットワークを介して、デジタルパソロジーのスライドサーバまたはスキャニング装置から取得することを有する、
請求項10記載の方法。
【請求項13】
前記方法は、検出された前記ユーザ注視ポジションが前記マクロビューの前記中央部内に入るまで、前記ビューを自動的にパンすることを有する、
請求項10記載の方法。
【請求項14】
前記方法はさらに、
前記アイトラッキングデバイスからの出力に基づき、ユーザ頭部の向きを検出し、
前記ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた開始ジェスチャを検出する
ことを有し、自動的なパニングを、予め定められた前記開始ジェスチャの検出に応答して実施する、
請求項10記載の方法。
【請求項15】
前記方法はさらに、前記ユーザ注視ポジションにおける変化の距離を計算することを有し、自動的なパニングの速度は、計算された前記距離に基づく、
請求項10記載の方法。
【請求項16】
内部に記憶された命令を有する非一時的コンピュータ可読媒体であって、
前記命令は、プロセッサにより実行されると、以下のことを前記プロセッサに実施させる、すなわち、
アイトラッキングデバイスからの出力に基づき、ディスプレイ上のユーザ注視ポジションを検出し、前記ディスプレイは、マクロビュー内の画像の少なくとも一部分と、前記画像のサムネイル画像と、を表示し、
検出された前記ユーザ注視ポジションが前記サムネイル画像内にあるのかまたは前記マクロビュー内にあるのかを判定し、
前記ユーザ注視ポジションが前記マクロビュー内にあることの検出に応答して、前記マクロビュー内の前記画像のビューを自動的にパンして、前記マクロビュー内の検出された前記ポジションに対応する前記画像上のポジションを、前記マクロビューの中央部に向かって移動させ、
前記ユーザ注視ポジションが前記サムネイル画像内にあることの検出に応答して、前記サムネイル画像内の検出された前記ポジションに対応する前記画像上のポジションを特定し、前記画像上の特定された前記ポジションが前記マクロビューの前記中央部内にあるように、前記マクロビューを更新する、
非一時的コンピュータ可読媒体。
【請求項17】
前記マクロビュー内の前記ユーザ注視ポジションが閾値よりも大きく変更されたことの検出に応答して、自動的なパニングが実施される、
請求項16記載の非一時的コンピュータ可読媒体。
【請求項18】
前記命令によって前記プロセッサは、検出された前記ユーザ注視ポジションが前記マクロビューの前記中央部内に入るまで、前記ビューを自動的にパンする、
請求項16記載の非一時的コンピュータ可読媒体。
【請求項19】
前記命令によって前記プロセッサはさらに、
前記アイトラッキングデバイスからの出力に基づきユーザ頭部の向きを検出し、
前記ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた開始ジェスチャを検出し、
自動的なパニングは、予め定められた前記開始ジェスチャの検出に応答して実施される、
請求項16記載の非一時的コンピュータ可読媒体。
【請求項20】
前記命令によって前記プロセッサはさらに、前記ユーザ注視ポジションにおける変化の距離を計算し、自動的なパニングの速度は、計算された前記距離に基づく、
請求項16記載の非一時的コンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本願は、2018年12月19日提出の米国特許仮出願第62/782,191号に対し優先権を主張するものであり、この文献をここで参照したことによりその内容全体が本願に取り込まれるものとする。
【0002】
発明の分野
本明細書で説明する実施形態は、全般的にデジタルパソロジーに向けられたものであり、より具体的には、デジタルパソロジーのスライド画像の閲覧中にアイトラッキングを使用することに関する。
【背景技術】
【0003】
デジタルパソロジーにおいては、顕微鏡スライドが著しく高い解像度でスキャンされ、それによって著しく高い解像度のデジタルスライド画像が得られる。デジタルスライド画像は一般に、病理学者によりコンピュータディスプレイ上で閲覧される。一般に病理学者は、キーボード、マウス、トラックボール、タッチパッド、または他のタッチセンサ、または他の手動操作型入力デバイスを使用して、ディスプレイ上のデジタルスライド画像の領域から領域へと進んでいく。これに加え、デジタルスライド画像におけるピクセル数はディスプレイにおけるピクセルよりも一般にかなり多いので(例えば画像はギガピクセルであるのに対しディスプレイはメガピクセル)、一度にデジタルスライド画像の1つの領域だけしか高解像度(例えばネイティブ解像度)で閲覧できない。したがって病理学者は、高倍率でデジタルスライド画像内の着目対象領域を閲覧するためには、手動操作型入力デバイスも使用して、表示されているデジタルスライドをズームイン、ズームアウトおよびパンしなければならない。
【0004】
手動操作型入力デバイスの一例としてマウスを用いると、目下の倍率からズームイン(倍率増加)またはズームアウト(倍率減少)するために、病理学者は、デジタルスライド画像の1つの領域上でマウスクリックを行うことができ、次いで(例えばマウス上のスクロールホイールを介して)マウススクロールを用いることができる。デジタルスライド画像の新たな領域へとパンする目的で、デジタルスライド画像の他の領域におけるデジタルスライド画像のビューを中央部に置くために、(例えばマウスを移動させながらマウスボタンを押し続けることによって)マウスドラッグを行うことができる。病理学者に対し他のマウス操作を用いることが要求される場合もあり、例えばデジタルスライド画像のビューをデジタルスライドの画像の1つの領域から新たな領域に移動させるために、デジタルスライド画像のサムネイル上でマウスクリックを行うこと、(例えばズームインまたはズームアウト、プリセット倍率の選択などの目的で)デジタルスライド画像のビューの倍率変更用の入力(例えばボタン、スライダなど)を操作するために、マウスクリックまたはマウスドラッグを行うこと、および/またはこれらに類することが要求される場合もある。いくつかのケースでは病理学者は、これらと同じまたは同様の操作を行うために、キーボードショートカットを用いることもできる。
【0005】
使用される特定の手動操作型入力デバイスが何であろうと、デジタルスライド画像を閲覧するために必要とされる手作業の量はかなり多い。結果として病理学者は、このような手法でデジタルスライド画像を調査するのに著しく多くの時間を費やしている。かかる手動操作型入力デバイスの使用は、長たらしく面倒であり時間を浪費し、反復動作による痛みや損傷を引き起こすおそれがある。
【発明の概要】
【発明が解決しようとする課題】
【0006】
よって、デジタルスライド画像を調査する目的でアイトラッキングデバイスを使用するための、システム、方法および非一時的コンピュータ可読媒体が開示される。アイトラッキングデバイスを、コンピュータディスプレイ上に取り付けることができ、またはコンピュータディスプレイ内に組み込むことができ、あるいはユーザが着用した装備(例えば通常のメガネ、スマートグラス、バーチャルリアリティ(VR)ヘッドセットなど)上に取り付けることができ、またはその中に組み込むことができ、コンピュータディスプレイ上でのユーザ注視ポジションをリアルタイムに検出するように構成することができる。有利には、アイトラッキングデバイスの出力に基づき機能を実行することができ、これによって、目下のところ手動操作型入力デバイスによって実施されている、1つまたは複数の、場合によってはすべての、閲覧関連機能が置き換えられ、このようにすることで(例えばデジタルパソロジーにおいて)デジタルスライド画像調査中の手動操作型入力デバイスの必要性が少なくなり、またはそれらが不要となる。
【課題を解決するための手段】
【0007】
1つの実施形態において、以下のことを有する方法が開示される。すなわち、少なくとも1つのハードウェアプロセッサを用いて、アイトラッキングデバイスからの出力に基づき、グラフィカルユーザインタフェース上のユーザ注視ポジションを繰り返し検出し、グラフィカルユーザインタフェースは、マクロビュー内にデジタルスライド画像の少なくとも一部分を有し、グラフィカルユーザインタフェース上の第1のポジションから第2のポジションへのユーザ注視の変化を検出した後、第2のポジションに基づきマクロビュー内のデジタルスライド画像のビューを自動的にパンして、グラフィカルユーザインタフェース上の第2のポジションに対応するデジタルスライド画像上のポジションを、マクロビューの中央部に向かって移動させる。自動的なパニングを、第1のポジションと第2のポジションとの間の距離が閾値よりも大きいことの検出に応答して実施することができる。閾値をゼロよりも大きいものとすることができる。この方法はさらに、少なくとも1つのハードウェアプロセッサを用いて、グラフィカルユーザインタフェース上の第2のポジションに対応するデジタルスライド画像上のポジションが、マクロビューの中央部内に入るまで、ビューを自動的にパンすることを有することができる。この方法はさらに、少なくとも1つのハードウェアプロセッサを用いて、検出されたユーザ注視ポジションがマクロビューの中央部内に入るまで、ビューを自動的にパンすることを有することができる。この方法はさらに、少なくとも1つのハードウェアプロセッサを用いて、アイトラッキングデバイスからの出力に基づきユーザ頭部の向きを検出し、ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた開始ジェスチャを検出することを有することができ、この場合、自動的なパニングは、予め定められた開始ジェスチャの検出に応答して実施される。この方法はさらに、少なくとも1つのハードウェアプロセッサを用いて、ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた停止ジェスチャを検出し、予め定められた停止ジェスチャの検出に応答して、マクロビュー内のデジタルスライド画像のビューのパニングを自動的に停止させることを有することができる。グラフィカルユーザインタフェースは、デジタルスライド画像のサムネイル画像を有することができ、この方法はさらに、少なくとも1つのハードウェアプロセッサを用いて、検出されたユーザ注視ポジションがサムネイル画像内にあるか否かを判定し、ユーザ注視ポジションがサムネイル画像内にあることの検出に応答して、サムネイル画像内のポジションに対応するデジタルスライド画像上のポジションを特定し、デジタルスライド画像上の特定されたポジションが、マクロビューの中央部内にあるように、マクロビューを更新することを有することができる。マクロビューの更新は、デジタルスライド画像のビューを自動的にパンして、デジタルスライド画像上の特定されたポジションをマクロビューの中央部に向かって移動させることを有することができる。この方法はさらに、少なくとも1つのハードウェアプロセッサを用いて、第1のポジションと第2のポジションとの間の距離を計算することを有することができ、この場合、自動的なパニングの速度は計算された距離に基づく。
【0008】
1つの実施形態において、以下のことを有する方法が開示される。すなわち、少なくとも1つのハードウェアプロセッサを用いて、アイトラッキングデバイスからの出力に基づき、グラフィカルユーザインタフェース上のユーザ注視ポジションを繰り返し検出し、この場合、グラフィカルユーザインタフェースは、マクロビュー内に1つまたは複数の入力とデジタルスライド画像の一部分とを少なくとも有し、ユーザ注視ポジションが1つまたは複数の入力のうち1つの入力内にあることを検出すると、アイトラッキングデバイスからの出力に基づき、複数の可能な向きの中からユーザ頭部の1つの向きを検出し、1つの入力と検出された向きとにメモリ内で関連付けられた機能を識別し、識別された機能に関連付けられた向きの検出に基づき、この機能を開始させることを有する。この機能は、マクロビュー内のデジタルスライド画像の倍率レベルの変更を有することができる。1つの入力は、マクロビュー内のデジタルスライド画像の倍率レベルを変更するための入力を有することができ、この場合、複数の可能な向きは、第1の向きと第2の向きとを有し、この場合、第1の向きは、倍率レベルを増加させる機能とメモリ内で関連付けられており、さらにこの場合、第2の向きは、倍率レベルを低減させる機能とメモリ内で関連付けられている。第1の向きは、第1の方向への頭部の傾きを有することができ、第2の向きは、第1の方向とは逆の第2の方向への頭部の傾きを有することができる。この方法はさらに、機能を開始させた後、ユーザ注視ポジションがもはや1つの入力内にはないことを検出したならば、この機能を停止させることを有することができる。
【0009】
1つの実施形態において、以下のことを有する方法が開示される。すなわち、少なくとも1つのハードウェアプロセッサを用いて、アイトラッキングデバイスからの出力に基づき、グラフィカルユーザインタフェース上のユーザ注視ポジションを繰り返し検出し、この場合、グラフィカルユーザインタフェースは、マクロビュー内に1つまたは複数の入力とデジタルスライド画像の一部分とを少なくとも有し、ユーザ注視ポジションが1つまたは複数の入力のうち1つの入力内にあることを検出すると、アイトラッキングデバイスからの出力に基づき、ユーザ頭部の1つの向きを検出し、ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた開始ジェスチャを検出し、予め定められた開始ジェスチャの検出に基づき、1つの入力に関連付けられた機能を開始させることを有する。この機能は、マクロビュー内のデジタルスライド画像の倍率レベルの変更を有することができる。この方法はさらに、機能を開始させた後、ユーザ注視ポジションがもはや1つの入力内にはないことを検出したならば、この機能を停止させることを有することができる。予め定められた開始ジェスチャは、ユーザ頭部の反復的な運動を有することができる。1つまたは複数の入力は、複数の入力のうち他のいずれか1つの入力とは異なる機能に各々関連付けられた複数の入力を有することができ、この場合、予め定められた開始ジェスチャは、複数の入力各々について同一である。
【0010】
1つの実施形態において、以下のことを有する方法が開示される。すなわち、少なくとも1つのハードウェアプロセッサを用いて、1つまたは複数の第1のデジタルスライド画像のために、アイトラッキングデバイスからの出力に基づき、グラフィカルユーザインタフェース上のユーザ注視ポジションと頭部の向きとを繰り返し検出し、この場合、グラフィカルユーザインタフェースは、マクロビュー内に第1のデジタルスライド画像の少なくとも一部分を有し、閲覧履歴を記憶し、この閲覧履歴は、ユーザ注視または頭部の向きが検出されたときに閲覧されている第1のデジタルスライド画像の一部分に関連して、各々検出されたユーザ注視ポジションおよび頭部の向きを有し、1つまたは複数の第1のデジタルスライド画像について記憶された閲覧履歴に基づき、ユーザにより閲覧されるべき少なくとも1つの第2のデジタルスライド画像の次の部分を予測するよう、機械学習アルゴリズムをトレーニングし、トレーニング済みの機械学習アルゴリズムを用いて、ユーザにより閲覧された少なくとも1つの第2のデジタルスライド画像の過去の部分に基づき、ユーザにより閲覧されるべき少なくとも1つの第2のデジタルスライド画像の次の部分を予測し、トレーニング済みの機械学習アルゴリズムにより予測された、閲覧されるべき少なくとも1つの第2のデジタルスライド画像の次の部分に向かって、ユーザ介入なしで自動的にパンすることを有する。
【0011】
本開示の方法のいずれも、サーバなどのようなプロセッサベースのシステムの実行可能なソフトウェアモジュールとして、かつ/または非一時的コンピュータ可読媒体に記憶された実行可能な命令として、具現化することができる。
【図面の簡単な説明】
【0012】
本発明の詳細をその構造および動作の両方について、添付の図面を精査することによりある程度は得ることができ、それらの図中、同様の部材には同様の参照符号が付されている。
【0013】
図1】本明細書で説明するプロセスのうちの1つまたは複数を実行可能な、1つの実施形態による例示的な処理システムを示す図である。
図2】デジタルスライド画像のサムネイル画像およびマクロビューとともに、1つの実施形態による例示的なディスプレイを示す図である。
図3A】アイトラッキングデバイスの出力を用いてデジタルスライド画像をパンするための、実施形態による例示的なプロセスを示す図である。
図3B】アイトラッキングデバイスの出力を用いてデジタルスライド画像をパンするための、実施形態による例示的なプロセスを示す図である。
図4A】ズーミングなどの画像閲覧機能を実施するための、実施形態による例示的なプロセスを示す図である。
図4B】ズーミングなどの画像閲覧機能を実施するための、実施形態による例示的なプロセスを示す図である。
図4C】ズーミングなどの画像閲覧機能を実施するための、実施形態による例示的なプロセスを示す図である。
【発明を実施するための形態】
【0014】
1つの実施形態によれば、デジタルスライド画像を調査する目的でアイトラッキングデバイスを使用するための、システム、方法および非一時的コンピュータ可読媒体が開示される。本明細書を読めば、どのようにして本発明を様々な択一的な実施形態および択一的な適用法で実装するのかが、当業者には明らかになるであろう。ただし、本発明の様々な実施形態を本明細書で説明するつもりではあるけれども、自明のとおりそれらの実施形態は、例示および説明のために呈示したにすぎず、限定のためではない。したがって様々な実施形態のこのような詳細な説明は、添付の特許請求の範囲に明記された本発明の範囲または外延を限定するものと解釈されるべきではない。
【0015】
1 システム概観
1.1 例示的な処理デバイス
図1は、例示的な有線または無線のシステム100を示すブロック図であって、本明細書で説明する様々な実施形態に関連して、このシステム100を使用することができる。例えばシステム100を、本明細書で説明する(例えばアプリケーションまたはアプリケーションの1つまたは複数のソフトウェアモジュールを記憶および/または実行するための)機能、プロセスまたは方法のうちの1つまたは複数として、またはそれに関連して使用することができる。システム100をサーバ、パーソナルコンピュータ、デジタルスライドスキャニング装置、または有線または無線のデータ通信が可能な他の任意のプロセッサ作動型デバイスとすることができる。当業者に自明のとおり、他のコンピュータシステムおよび/またはアーキテクチャを使用してもよい。
【0016】
システム100は好ましくは、中央処理ユニット(CPU)を有することのできるプロセッサ110など、1つまたは複数のプロセッサを含む。付加的なプロセッサを設けることができ、例えばグラフィックス処理ユニット(GPU)、入出力を管理する補助プロセッサ、浮動小数点演算を実行する補助プロセッサ、信号処理アルゴリズムの高速な実行に適したアーキテクチャを有する特定用途向けマイクロプロセッサ(例えばデジタル信号プロセッサ)、メイン処理システムに従属するスレーブプロセッサ(例えばバックエンドプロセッサ)、デュアルプロセッサシステムまたはマルチプロセッサシステムのための補助マイクロプロセッサまたは補助コントローラ、および/またはコプロセッサなどを設けることができる。かかる補助プロセッサを、別個のプロセッサとしてもよいし、またはプロセッサ110と一体化してもよい。システム100により使用可能なプロセッサの例には、限定するものではないが、Pentium(登録商標)プロセッサ、Core i7(登録商標)プロセッサ、およびXeon(登録商標)プロセッサが含まれ、これらすべてはカリフォルニア州サンタクララのIntel Corporationから入手可能である。
【0017】
プロセッサ110は好ましくは、通信バス105に接続されている。通信バス105は、記憶装置とシステム100の他の周辺コンポーネントとの間の情報転送を容易にするためのデータチャネルを含むことができる。さらに通信バス105は、プロセッサ110との通信のために使用される一連の信号を供給することができ、通信バス105にはデータバス、アドレスバスおよび/または制御バス(図示せず)が含まれる。通信バス105は、任意の標準バスアーキテクチャまたは非標準バスアーキテクチャを有することができ、例えば、インダストリスタンダードアーキテクチャ(ISA)、拡張インダストリスタンダードアーキテクチャ(EISA)、マイクロチャネルアーキテクチャ(MCA)、ペリフェラルコンポーネントインターコネクト(PCI)ローカルバス、IEEE488汎用インタフェースバス(GPIB)、IEEE696/S-100を含め電気電子学会(IEEE)により公布された標準、および/またはこれらに類するもの、に準拠したバスアーキテクチャを有することができる。
【0018】
システム100は好ましくは、メインメモリ115を含み、さらに2次メモリ120を含むこともできる。メインメモリ115は、本明細書で説明する機能および/またはモジュールの1つまたは複数など、プロセッサ110上で実行されるプログラムのための命令およびデータの記憶を提供する。自明のとおり、メモリに記憶されプロセッサ110により実行されるプログラムを、限定するものではないが、C/C++、Java、JavaScript、Perl、Visual Basic、.NET、およびこれらに類するものを含む任意の適切な言語に従って、記述および/またはコンパイルすることができる。メインメモリ115は一般に、ダイナミックランダムアクセスメモリ(DRAM)および/またはスタティックランダムアクセスメモリ(SRAM)など、半導体ベースのメモリである。他の半導体ベースのメモリタイプには例えば、シンクロナスダイナミックランダムアクセスメモリ(SDRAM)、ラムバスダイナミックランダムアクセスメモリ(RDARAM)、強誘電体ランダムアクセスメモリ(FRAM)およびこれらに類するものが含まれ、これにはリードオンリメモリ(ROM)が含まれる。
【0019】
2次メモリ120は任意選択的に、内部媒体125および/またはリムーバブル媒体130を含むことができる。リムーバブル媒体130は、任意の周知の手法でそこから読み出され、かつ/またはそこに書き込まれる。リムーバブル記憶媒体130を例えば、磁気テープドライブ、コンパクトディスク(CD)ドライブ、デジタルバーサタイルディスク(DVD)ドライブ、他の光学ドライブ、フラッシュメモリドライブ、および/またはこれらに類するものとすることができる。
【0020】
2次メモリ120は非一時的コンピュータ可読媒体であり、これはコンピュータにより実行可能なコード(例えば本開示のソフトウェアモジュール)および/またはそこに記憶された他のデータを有する。2次メモリ120に記憶されているコンピュータソフトウェアまたはデータは、プロセッサ110により実行するためにメインメモリに読み込まれる。
【0021】
択一的な実施形態によれば、2次メモリ120は、コンピュータプログラムまたは他のデータまたは命令をシステム100にロードできるようにするための他の同様の手段を含むことができる。かかる手段は例えば通信インタフェース140を含むことができ、これによってソフトウェアおよびデータを外部記憶媒体145からシステム100に転送することができる。外部記憶媒体145の例は、外部ハードディスクドライブ、外部光学ドライブ、外部磁気光学ドライブ、および/またはこれらに類するものを含むことができる。2次メモリ120の他の例は、プログラマブルリードオンリメモリ(PROM)、消去可能なプログラマブルリードオンリメモリ(EPROM)、電気的に消去可能なリードオンリメモリ(EEPROM)、およびフラッシュメモリ(EEPROMに類似したブロック指向型メモリ)といった半導体ベースのメモリを含むことができる。
【0022】
上述のように、システム100は通信インタフェース140を含むことができる。通信インタフェース140によって、システム100と外部デバイス(例えばプリンタ)、ネットワーク、または他の情報ソースとの間で、ソフトウェアおよびデータを転送することができるようになる。例えばコンピュータソフトウェアまたは実行可能なコードを、通信インタフェース140を介してネットワークサーバからシステム100に転送することができる。通信インタフェース140の例には、組み込み型ネットワークアダプタ、ネットワークインタフェースカード(NIC)、パーソナルコンピュータメモリカード国際協会(PCMCIA)ネットワークカード、カードバスネットワークアダプタ、ワイヤレスネットワークアダプタ、汎用シリアルバス(USB)ネットワークアダプタ、モデム、ワイヤレスデータカード、通信ポート、赤外線インタフェース、IEEE1394ファイアーワイヤ、およびシステム100とネットワークまたは他のコンピューティングデバイスとのインタフェースを可能にする他の任意のデバイスが含まれる。通信インタフェース140は好ましくは、業界公布のプロトコル標準を実装し、例えばEthernet IEEE802標準、ファイバチャネル、デジタル加入者線(DSL)、非同期デジタル加入者線(ADSL)、フレームリレー、非同期転送モード(ATM)、デジタル総合サービス網(ISDN)、パーソナル通信サービス(PCS)、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、シリアル回線インターネットプロトコル/ポイントトゥーポイントプロトコル(SLIP/PPP)などを実装するが、カスタマイズされた、または非標準のインタフェースプロトコルも同様に実装することができる。
【0023】
通信インタフェース140を介して転送されるソフトウェアおよびデータは概して、電気通信信号155の形態にある。これらの信号155を、通信チャネル150を介して通信インタフェース140に供給することができる。1つの実施形態によれば、通信チャネル150を有線または無線のネットワークとすることができ、あるいは他の様々な通信リンクとすることができる。通信チャネル150は信号155を搬送し、この通信チャネル150を様々な有線または無線の通信手段を用いて実装することができ、いくつかの例を挙げるとこれには、ワイヤまたはケーブル、光ファイバ、慣用の電話回線、携帯電話回線、ワイヤレスデータ通信回線、無線周波数(「RF」)リンク、あるいは赤外線リンクが含まれる。
【0024】
コンピュータにより実行可能なコード(例えば本開示のソフトウェアモジュールなどのコンピュータプログラム)は、メインメモリ115および/または2次メモリ120に記憶されている。コンピュータプログラムを、通信インタフェース140を介して受信し、メインメモリ115および/または2次メモリ120に記憶することもできる。かかるコンピュータプログラムは実行時、本明細書の他の箇所で説明する本開示の実施形態の様々な機能をシステム100が実施できるようにする。
【0025】
本明細書において、用語「コンピュータ可読媒体」は、コンピュータにより実行可能なコードおよび/または他のデータを、システム100にまたはシステム100内で、供給するために使用される任意の非一時的コンピュータ可読記憶媒体のことを指すために用いられる。かかる媒体の例には、メインメモリ115、(内部メモリ125、リムーバブル媒体130および外部記憶媒体145を含む)2次メモリ120、ならびに(ネットワーク情報サーバまたは他のネットワークデバイスを含む)通信インタフェース140と通信可能に結合された任意の周辺デバイスが含まれる。これらの非一時的コンピュータ可読媒体は、実行可能コード、プログラミング命令、ソフトウェアおよび/または他のデータをシステム100に供給するための手段である。
【0026】
ソフトウェアを用いて実装される1つの実施形態によれば、ソフトウェアをコンピュータ可読媒体に記憶させ、リムーバブル媒体130、I/Oインタフェース135または通信インタフェース140を経由して、システム100にロードすることができる。かかる実施形態によれば、ソフトウェアは、電気通信信号155の形態でシステム100にロードされる。ソフトウェアは、プロセッサ110により実行されると好ましくはプロセッサ110に指示して、本明細書の他の箇所で説明するプロセスおよび機能のうちの1つまたは複数を実施させる。
【0027】
1つの実施形態によれば、I/Oインタフェース135は、システム100の1つまたは複数のコンポーネントと1つまたは複数の入力デバイスおよび/または出力デバイスとの間のインタフェースを提供する。例示的な入力デバイスには、限定するものではないが、アイトラッキングデバイス、センサ、キーボード、タッチスクリーン、または他の接触感応型デバイス、バイオメトリックセンシングデバイス、コンピュータマウス、トラックボール、ペンベースのポインティングデバイス、および/またはこれらに類するものが含まれる。出力デバイスの例には、限定するものではないが、他の処理デバイス、ブラウン管(CRT)、プラズマディスプレイ、発光ダイオード(LED)ディスプレイ、液晶ディスプレイ(LCD)、プリンタ、真空蛍光ディスプレイ(VFD)、表面伝導型電子放出ディスプレイ(SED)、電界放出ディスプレイ(FED)、ウェアラブルデバイス(例えばスマートグラス、VRヘッドセットなど)、および/またはこれらに類するものが含まれる。いくつかのケースによれば、入力デバイスおよび出力デバイスを、(例えばスマートフォン、タブレットまたは他のモバイルデバイスにおける)タッチパネルディスプレイのケースなどのように、結合することができる。
【0028】
図示の実施形態によれば、I/Oインタフェース135は、少なくとも1つのディスプレイ180およびアイトラッキングデバイス190とのインタフェースを行って、プロセッサ110がディスプレイ180上にデータをレンダリングできるように、また、アイトラッキングデバイス190によりセンシングされたデータを受信できるようにする。アイトラッキングデバイス190によりセンシングされたデータは、システム100のユーザの目が目下向けられているディスプレイ180上の注視ポジションを表すことができ、プロセッサ110によりこのデータを繰り返し(例えば規則的なインターバルで、かつ/または注視ポジションが変化するたびに)受信することができる。1つの実施形態によれば、ディスプレイ180およびアイトラッキングデバイス190を、コンピュータモニタ、スマートグラス、VRヘッドセットおよび/またはこれらに類するのものなど、単一のデバイスに組み込むことができる。
【0029】
システム100は、音声ネットワークおよび/またはデータネットワークを介したワイヤレス通信を容易にする任意選択的なワイヤレス通信コンポーネントを含むこともできる。ワイヤレス通信コンポーネントは、アンテナシステム170、無線システム165およびベースバンドシステム160を有する。システム100において、無線システム165の管理のもとでアンテナシステム170によって、大気を介して無線周波数(RF)信号が送信され受信される。
【0030】
1つの実施形態によれば、アンテナシステム170は、1つまたは複数のアンテナおよび1つまたは複数のマルチプレクサ(図示せず)を有することができ、これによりスイッチング機能が実施されて、アンテナシステム170に送信信号経路と受信信号経路とが提供される。受信経路において、受信されたRF信号をマルチプレクサからローノイズアンプ(図示せず)に供給することができ、このローノイズアンプは、受信したRF信号を増幅し、増幅した信号を無線システム165に送信する。
【0031】
1つの択一的な実施形態によれば、無線システム165は、様々な周波数を介して通信するように構成された1つまたは複数の無線機を有することができる。1つの実施形態によれば、無線システム165は、復調器(図示せず)と変調器(図示せず)とを結合して1つの集積回路(IC)を成すようにすることができる。これらの復調器および変調器を別個のコンポーネントとすることもできる。到来経路において、復調器はRF搬送波信号を取り除いてベースバンド受信オーディオ信号を残し、この信号が無線システム165からベースバンドシステム160に送信される。
【0032】
受信信号がオーディオ情報を含むならば、ベースバンドシステム160はこの信号を復号し、それをアナログ信号に変換する。次いでこの信号が増幅されてスピーカに送信される。ベースバンドシステム160は、マイクロフォンからアナログオーディオ信号も受信する。これらのアナログオーディオ信号はデジタル信号に変換され、ベースバンドシステム160によって符号化される。ベースバンドシステム160は、送信のためにこれらのデジタル信号をやはり符号化してベースバンド送信オーディオ信号を生成し、この信号は無線システム165の変調器部分にルーティングされる。変調器は、ベースバンド送信オーディオ信号をRF搬送波信号と混合してRF送信信号を生成し、この信号はアンテナシステム170にルーティングされ、電力増幅器(図示せず)を通過させることができる。電力増幅器はRF送信信号を増幅し、これをアンテナシステム170に転送し、そこにおいて信号は送信用アンテナポートにスイッチングされる。
【0033】
ベースバンドシステム160は、プロセッサ110とも通信可能に結合されている。プロセッサ110は、データ記憶領域115および120へのアクセスを有する。プロセッサ110は好ましくは、メインメモリ115または2次メモリ120に記憶させることのできる命令(すなわち本開示のアプリケーションまたはソフトウェアモジュールなどのコンピュータプログラム)を実行するように構成されている。コンピュータプログラムを、ベースバンドプロセッサ160から受信して、メインメモリ115または2次メモリ120に記憶させることもでき、あるいは受信に応答して実行することもできる。かかるコンピュータプログラムは実行時、本開示の実施形態の様々な機能をシステム100が実施できるようにする。
【0034】
1.2 アイトラッキングデバイス
上述のように1つの実施形態によれば、システム100はアイトラッキングデバイス190を有する。アイトラッキングデバイス190をディスプレイ180上に取り付けることができ、またはディスプレイ180内に組み込むことができる。1つの実施形態によれば、アイトラッキングデバイス190およびディスプレイ180を、コンピュータモニタ、スマートグラス、VRヘッドセットおよび/またはこれらに類するのものなど、単一のデバイスに組み込むことができる。択一的に、アイトラッキングデバイス190をディスプレイ180とは分離することができる。いずれのケースであっても、ディスプレイ180に対するユーザ注視を検出するために、アイトラッキングデバイス190を取り付けるまたはさもなければポジショニングするのが望ましい。
【0035】
1つの実施形態によれば、アイトラッキングデバイス190を、ユーザ注視を追跡するために特化されたものとすることができる。択一的に、アイトラッキングデバイス190は、(例えばディスプレイ180上に取り付けられたまたはディスプレイ180内に組み込まれた)カメラを有することができ、このカメラは、(例えばソーシャルメディア、ウェブカム、ビデオ会議などのために)システム100のユーザの写真またはビデオをキャプチャするなど、もっと普通の撮像のためにも用いられるものである。
【0036】
アイトラッキングデバイス190は、任意のコンシューマグレードの大量生産された既製のアイトラッカを有することができる。1つの非限定的な例は、スウェーデンに本社があるTobii Group(商標)から販売されているTobii Eye Tracker 4C(商標)または他の製品である。かかるアイトラッカは、ゲームアプリケーションのために最も人気があり、この場合、アイトラッキングデバイスは、目下のユーザ注視ロケーションをディスプレイに表示する。これによってユーザは、ディスプレイ上のある1つの物体に注目して、その物体に対するアクションを実施するために(例えばその物体を選択または撃つために)ボタンまたはキーを押すことができるようになる。かかるアイトラッカを、手によるインタラクションを伴わずにゲーム内を進んでいくために(例えば種々の方向に移動するために)使用することもできる。
【0037】
かかるアイトラッキングデバイスのために、ソフトウェアデベロップメントキット(SDK)を入手することもできる。これらのSDKによって開発者は、ディスプレイ上のユーザ注視ポイント、ディスプレイとユーザの目各々との間の距離およびユーザ頭部のポジションまたは向きを動的に検出するために、アイトラッキングデバイスの出力を利用するソフトウェアを開発できるようになる。ユーザにより実施される注視の「ジェスチャ」を識別し、識別されたそれらのジェスチャに応答するために、ソフトウェアによってかかる情報を解釈することができる。これらのことに加え、いくつかのオペレーティングシステム(例えばWindows(商標)10)は、組み込み型のアイトラッキングソフトウェアを有しており、このソフトウェアは、物理的なマウスまたはキーボードを操作する必要なくマウスおよびキーボードの機能を使用できるよう、障害のあるユーザを支援する。ただし、デジタルパソロジーにおいてデジタルスライド画像を閲覧するために、同様の機能はこれまで提供されていなかった。
【0038】
2 プロセス概観
次に、デジタルスライド画像を調査するためにアイトラッキングデバイス190を使用するためのプロセスの実施形態について、詳しく説明する。自明のとおり、ここで説明するプロセスを、1つまたは複数のハードウェアプロセッサ(例えばプロセッサ110)によって実行される1つまたは複数のソフトウェアモジュールにおいて、具現化することができる。ここで説明するプロセスを、ソースコード、オブジェクトコードおよび/または機械コードで表現された命令として、実装することができる。これらの命令を、ハードウェアプロセッサ110によってそのまま実行することができ、または択一的に、オブジェクトコードとハードウェアプロセッサ110との間で動作する仮想マシンによって、実行することができる。
【0039】
択一的に、ここで説明するプロセスを、1つのハードウェアコンポーネント(例えば汎用プロセッサ、集積回路(IC)、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、または他のプログラマブルロジックデバイス、ディスクレートゲートロジックまたはディスクレートトランジスタロジックなど)、複数のハードウェアコンポーネントの組み合わせ、あるいはハードウェアコンポーネントとソフトウェアコンポーネントとの組み合わせとして、実装することができる。ハードウェアとソフトウェアとの可換性を明確に示すために、様々な例示的なコンポーネント、ブロック、モジュール、回路およびステップについて、本明細書では概してそれらの機能の見地から説明する。かかる機能がハードウェアとして実装されるのかソフトウェアとして実装されるのかは、特定の用途およびシステム全体に課される設計制約に依存する。当業者であれば、ここで説明する機能を特定の用途ごとに様々な手法で実装することができるけれども、そのような実装の判断を、本発明の範囲からの逸脱をもたらすものとして解釈すべきではない。これらのことに加え、1つのコンポーネント、ブロック、モジュール、回路またはステップの中での複数の機能のグループ分けは、説明しやすくするためである。本発明の範囲から逸脱することなく、特定の機能またはステップを、1つのコンポーネント、ブロック、モジュール、回路またはステップから他のものへと移すことができる。
【0040】
図2の例示的なディスプレイ180を参照しながら、複数のプロセスについて説明する。図2には、デジタルスライド画像のサムネイル画像210およびデジタルスライド画像のマクロビュー220とともに、1つの実施形態による例示的なディスプレイ180が示されている。デジタルスライド画像全体の小さい低解像度バージョンであるサムネイル画像210は、マクロビュー220内においていっそう高い倍率で目下閲覧されている着目対象領域をハイライトするフレーム215を有する。図示されている実施形態の場合、サムネイル画像210は、マクロビュー220上に重ねられている。ただし択一的な実施形態によれば、サムネイル画像210を、マクロビュー220の側方にポジショニングすることができ、またはまったく省くことができる。
【0041】
ディスプレイ180におけるグラフィカルユーザインタフェースは、図2に示されているもの以外にも付加的な領域およびコンポーネントを有することができる。例えばディスプレイ180は、着目対象領域および/または着目対象領域周囲の領域を中間の倍率で示す中間ビューを有することもでき、この倍率はサムネイル画像210の倍率よりも高いけれども、マクロビュー220の倍率よりは低い。これに加えてグラフィカルユーザインタフェースは、(例えば物体を識別および/または計数するなどといったデジタルスライド画像の内容の解析のための)画像処理ツールおよび/またはこれに類するものを使用して、ビューを管理するための入力(例えばズームインまたはズームアウト、左右上下へのパニングおよび/または対角線に沿ったパニング、ユーザの好みに合わせたビューのカスタマイズなど)を有することができる。
【0042】
2.1 パニング
図3Aおよび図3Bには、アイトラッキングデバイス190の出力を用いてデジタルスライド画像をパンするための、複数の実施形態による例示的な処理が示されている。プロセス300Aおよび300B各々がステップの特定の配置および順序で示されているけれども、各プロセス300Aおよび300Bを、これよりも少ない、これよりも多い、または異なるステップで、ならびにステップの異なる配置および/または順序で、実装してもよい。これに加え、プロセス300Aおよび300Bの双方を、ユーザにより双方ともに使用可能な一対の択一的な機能として、同じシステム100において実装してもよい。択一的に、プロセス300Aおよび300Bのうちの一方だけを、任意の特定のシステム100において実装してもよい。いずれのケースにせよ、プロセス300Aおよび300Bを1つまたは複数のプロセッサ110によって実行することができる。
【0043】
プロセス300Aによれば、ディスプレイ180上におけるユーザ注視ポジションが、ステップ305Aにおいてアイトラッキングデバイス190を用いて繰り返し検出される。特にプロセッサ110は、定期的なタイムインターバルで(例えばmsのオーダで)、かつ/またはアイトラッキングデバイス190がユーザ注視の変化を検出するたびに、アイトラッキングデバイス190の出力を繰り返し受信することができる。プロセッサ110がこの出力をアイトラッキングデバイス190から受信するたびに、プロセッサ110は、受信した出力に基づきディスプレイ180に関してユーザ注視ポジションを特定することができる。
【0044】
ステップ310において、プロセッサ110は、ステップ305Aにおいて検出されたユーザ注視ポジションを、ディスプレイ180上に目下表示されているグラフィカルユーザインタフェース内のポジションと相関させる。サムネイル画像210を使用する実施形態の場合、プロセッサ110はステップ310において、目下のグラフィカルユーザインタフェース内のユーザ注視ポジションが、サムネイル画像210内にあるのかまたはマクロビュー220内にあるのか、を判定する。ユーザ注視ポジションがマクロビュー220内にあるならば(すなわちステップ310における「マクロビュー」)、プロセス300Aはステップ315に進む。そうではなく、ユーザ注視ポジションがサムネイル画像210内にあるならば(すなわちステップ310における「サムネイル」)、プロセス300Aはステップ330に進む。グラフィカルユーザインタフェースが2つ以上のサムネイル画像210およびマクロビュー220を有する実施形態の場合、ユーザ注視ポジションが、サムネイル画像210およびマクロビュー220の双方の外側にある可能性もある。このケースでは(すなわちステップ310における「どちらでもない」)、プロセス300Aはステップ305Aに戻る。
【0045】
ステップ315において、プロセッサ110は、ステップ305Aにおいて検出された目下のユーザ注視ポジションが以前のユーザ注視ポジションから変化したか否か、を判定する。例えばプロセッサ110は、1つまたは複数の過去のユーザ注視ポジションをメモリ(例えばメインメモリ115または2次メモリ120)に記憶させて、目下のユーザ注視ポジションを最新の過去のユーザ注視ポジションと比較して、目下のポジションが最新の過去のポジションとは異なるか否か、を特定することができる。これに加えプロセッサ110は、目下のポジションと過去のポジションとの間の距離を計算し、この距離が閾値よりも大きいか否かを判定することができる。閾値をゼロでない距離値とすることができ、または1つの実装形態によれば単にゼロとすることができる。閾値がゼロであるならば、プロセッサ110は単に、目下のポジションが過去のポジションとは異なっているか否かを判定するだけでよい。いずれのケースにせよ、ポジションの変化が閾値を超えたならば(すなわちステップ315における「イエス」)、プロセス300Aはステップ320に進む。そうではなく、ポジションの変化が閾値を超えていなければ(すなわちステップ315における「ノー」)、プロセス300Aはステップ305Aに戻る。換言すれば、ユーザ注視が予め定められた閾値よりも大きい距離値だけ動くまでは、パニングが発生しないことになり、ユーザ注視が予め定められた閾値よりも大きい距離だけ動くときはいつでも、パニングが発生することになる。予め定められた閾値がゼロである場合には、ユーザ注視が動くたびにパニングが発生することになる。
【0046】
ステップ315の択一的な実施形態によれば、プロセッサ110は、目下のユーザ注視ポジションがマクロビュー220内の領域225の外側にあるか否か、を判定することができる。領域225は、マクロビュー220の中央部の周囲においてマクロビュー220の領域全体よりも狭い領域を取り囲んでいる。自明のとおり、領域225のポジションは、マクロビュー220内でパニングが発生したとしても領域225のポジションが決して変化しないよう、ディスプレイ180に対して固定されている。ここでは長方形として示されているけれども、領域225をそうではなく正方形、(例えば半径で定義される)円形、または他の形状とすることができる。ステップ305Aにおいて検出されたユーザ注視ポジションが領域225内にあるならば、(例えばステップ315における「ノー」と同様に)プロセス300Aはステップ305Aに戻ることができる。そうではなく、ステップ305Aにおいて検出されたユーザ注視ポジションが領域225の外側にあるならば、(例えばステップ315における「イエス」と同様に)プロセス300Aはステップ320に進むことができる。換言すれば、ユーザ注視が領域225内に留まっているかぎりは、パニングが発生することはなく、ユーザ注視が領域225の外側に移動するたびに、パニングが発生することになる。
【0047】
ステップ320において、プロセッサ110は、ディスプレイ180上の目下のユーザ注視ポジションを、マクロビュー220に目下表示されているデジタルスライド画像の一部分におけるポジションと相関させる。例えばプロセッサ110は、ディスプレイ180上の目下のユーザ注視ポジションを、グラフィカルユーザインタフェース内のマクロビュー220上のポジションと相関させることができ、次いでマクロビュー220上のこのポジションを、下に位置するデジタルスライド画像上のポジションと相関させることができる。
【0048】
ステップ325において、プロセッサ110は、下に位置するデジタルスライド画像をパンして、マクロビュー220内において、ステップ320において特定されたデジタルスライド画像上のポジションをセンタリングする。換言すれば、ステップ320において特定されマクロビュー220内でセンタリングされたポジションを有するデジタルスライド画像の着目対象領域から成るように、マクロビュー220が更新される。マクロビュー220の更新において、プロセッサ110は、デジタルスライド画像を自動的かつ仮想的に「スライドさせて」、マクロビュー220内の新たなポジションにセンタリングし直すことができる。かくしてユーザは、ステップ320において特定されたデジタルスライド画像上のポジションが、マクロビュー220の中央部に移動させられると、パンされたデジタルスライド画像を閲覧することができる。1つの実施形態によれば、パニングの速度を、新たなポジションと、以前にマクロビュー220内でセンタリングされていたデジタルスライド画像上のかつてのポジションと、の間の距離(すなわちパンに必要とされる距離)の関数とすることができる。例えば、ステップ325においてパニングを実施するたびに、プロセッサ110はこのパニング距離を計算することができ、マクロビュー220内のデジタルスライド画像を、いっそう長い距離についてはいっそう速い速度で、いっそう短い距離についてはいっそう遅い速度で、パンすることができる。マクロビュー220が新たなポジションにセンタリングされなおされたならば、プロセス300Aはステップ305Aに戻る。
【0049】
ステップ330において、プロセッサ110は、ディスプレイ180上の目下のユーザ注視ポジションを、サムネイル画像210上のポジションと相関させる。これに加えプロセッサ110は、サムネイル画像210上のポジションを、マクロビュー220において閲覧されている下に位置するデジタルスライド画像上のポジションと相関させる。
【0050】
ステップ335において、プロセッサ110は、下に位置するデジタルスライド画像をパンして、マクロビュー220内において、ステップ330において特定されたデジタルスライド画像上のポジションをセンタリングする。換言すれば、ユーザは、着目対象領域を選択するためにサムネイル画像210上のポジションを注視することができ、プロセッサ110は、ユーザがいっそう高い倍率で着目対象領域を閲覧することができるよう、その着目対象領域上にマクロビュー220を自動的にセンタリングすることができる。ステップ335を、上述のステップ325と同じものまたは類似したものとすることができる。マクロビュー220が新たなポジションにセンタリングされなおされたならば、プロセス300Aはステップ305Aに戻る。自明のとおり、このようにして新たな着目対象領域が選択されるたびに、プロセッサ110は、サムネイル画像210内の新たな着目対象領域をハイライトするために、フレーム215を更新する。
【0051】
プロセス300Bによれば、ディスプレイ180上におけるユーザ注視ポジションが、ステップ305Bにおいてアイトラッキングデバイス190を用いて繰り返し検出される。ステップ305Bを、上述のステップ305Aと同じものまたは類似したものとすることができる。ユーザ注視に加え、ステップ305Bにおいて、ユーザ頭部の向きも検出することができる。例えばユーザ頭部の向きを、ディスプレイ180上のユーザ注視ポジションによって、または他の手段(例えばユーザ頭部における物体認識)によって、特定されたユーザ注視方向に基づき、特定することができる。どのように検出されたかにかかわらず、プロセッサ110は、ユーザ頭部の目下の向きを、かつての1つまたは複数のユーザ頭部の向きと比較して、頭部に基づくジェスチャ(例えば上に傾ける運動、下に傾ける運動、点頭、頭部を振るなど)を識別することができる。
【0052】
ステップ350において、プロセッサ110は、予め定められた開始ジェスチャが検出されたか否か、を判定する。予め定められた開始ジェスチャは、デジタルスライド画像を横断するパンを開始させるために予め定義された頭部ジェスチャを有することができる。一例として開始ジェスチャを、点頭(例えば頭部を下げる運動、頭部を上げる運動、あるいは少なくとも予め定義された回数または予め定義された期間にわたり頭部を上げ下げする運動)とすることができる。ただし他の開始ジェスチャも同様に考えられる(例えば左右に頭部を振る)。使用される特定の開始ジェスチャにかかわらず、開始ジェスチャが検出されたならば(すなわちステップ350における「イエス」)、プロセス300Bはステップ355に進み、このステップにおいて、目下のユーザ注視ポジションに向かう方向でパニングを開始させる指示として、開始ジェスチャの検出が用いられる。そうではなく、特定の開始ジェスチャが検出されなければ(すなわちステップ350における「ノー」)、プロセス300Bはステップ350Bに戻る。
【0053】
ステップ355において、プロセッサ110は、マクロビュー220の中央部からディスプレイ180上の目下のユーザ注視ポジションに至る方向を特定する。次いでステップ360において、プロセッサ110は、ステップ355において特定された方向に従い、マクロビュー220内のデジタルスライド画像のパニングを開始させる。例えば、目下のユーザ注視ポジションがマクロビュー220の中央部右側に向かっていると特定されたならば、プロセッサ110は、目下のユーザ注視ポジションをマクロビュー220の中央部に向かって移動させるために、マクロビュー220内のデジタルスライド画像を反対方向へ(すなわち左側へ)ずらし始める。
【0054】
ステップ365において、プロセッサ110は、予め定められた停止ジェスチャが検出されたか否か、を判定する。予め定められた停止ジェスチャは、デジタルスライド画像を横断するパンを停止させるために予め定義された頭部ジェスチャを有することができる。1つの実施形態によれば、停止ジェスチャを、ステップ350において検出された開始ジェスチャ(例えば点頭)と同じものとすることができる。択一的に、停止ジェスチャを、開始ジェスチャとは異なるものとすることができる。停止ジェスチャが検出されたならば(すなわちステップ365における「イエス」)、プロセス300Bはステップ370に進む。そうではなく、特定の開始ジェスチャが検出されなければ(すなわちステップ365における「ノー」)、プロセス300Bはステップ355に戻る。
【0055】
1つの実施形態によれば、プロセッサ110は、ステップ305Bの場合と同じ手法で、ステップ355~365を通して、ディスプレイ180上の目下のユーザ注視ポジションの監視を続けることができる。これに加えプロセッサ110は、目下のユーザ注視ポジションが変化すると、ステップ355および360においてパニングの方向を継続的に更新することができる。したがってユーザは、任意の方向にパンすることができ、自身の注視ポジションを変化させることによって、パニングの方向をリアルタイムに変化させることができる。例えば、当初のユーザ注視ポジションがマクロビュー220の中央部右側に向かっていると特定されたならば、プロセッサ110は、ユーザ注視ポジションの目下の位置をマクロビュー220の中央部に向かって移動させるために、マクロビュー220内のデジタルスライド画像を反対方向へ(すなわち左側へ)ずらし始めることができる。続いてユーザが、今度はユーザ注視ポジションがマクロビュー220の中央部を通る対角軸線に沿って上方でマクロビュー220の中央部の右側になるように、自身の注視をマクロビュー220内で上に向かって移動させたならば、プロセッサ110は注視ポジションにおけるこの変化を検出し、これに応答して、目下のユーザ注視ポジションがマクロビュー220の中央部に向かって移動するように、対角軸線に沿って反対方向においてマクロビュー220内でデジタルスライド画像をずらし始めることができる。自明のとおり、ステップ365において停止ジェスチャが検出されるまで、パニングを継続的に続けることでき、任意の回数の方向変化を有することができる。
【0056】
ステップ365における停止ジェスチャの検出に応答して、プロセッサ110はステップ370において、マクロビュー220内のパニングプロセスを停止させる。換言すれば、デジタルスライド画像はマクロビュー220内のスクロールを停止させ、マクロビュー220は静止状態に戻る。その後、プロセス300Bはステップ305Bに戻る。有利にはプロセス300Bは、(例えばユーザが一時的に自身の注視を領域225の外側のポジションに、そのポジションにパンする意図なくずらしたときなどに)プロセス300Aであれば発生する可能性のある不所望なパニングを、排除または低減することができる。
【0057】
2.2 ズーミングおよびその他の機能
図4A図4Cには、ズーミングなどの画像閲覧機能を実施するための、複数の実施形態による例示的なプロセスが示されている。プロセス400および450各々がステップの特定の配置および順序で示されているけれども、各プロセス400および450を、これよりも少ない、これよりも多い、または異なるステップで、ならびにステップの異なる配置および/または順序で、実装してもよい。プロセス400および450を、1つまたは複数のプロセッサ110によって実行することができる。
【0058】
プロセス400によれば、ディスプレイ180上におけるユーザ注視ポジションが、ステップ405においてアイトラッキングデバイス190を用いて繰り返し検出される。ステップ405を、それぞれ図3Aおよび図3Bを参照しながら説明したステップ305Aおよび305Bと同じものまたは類似したものとすることができる。
【0059】
ステップ410において、プロセッサ110は、ステップ405において検出された目下のユーザ注視ポジションが、ディスプレイ180上に目下表示されているグラフィカルユーザインタフェース内の1つの入力のポジションと一致しているか否か、を判定する。例えばプロセッサ110は、ディスプレイ180上のユーザ注視ポジションをグラフィカルユーザインタフェース上のポジションと相関させることができ、次いで、グラフィカルユーザインタフェース上のそのポジションが、グラフィカルユーザインタフェース内における入力(例えばアイコン、ボタンなど)の境界内にあるか否か、を判定することができる。目下のユーザ注視ポジションが入力と一致しているならば(すなわちステップ410における「イエス」)、プロセス400はステップ420に進む。そうではなく、目下のユーザ注視ポジションが入力と一致していないならば(すなわちステップ410における「ノー」)、プロセス400はステップ430に進む。
【0060】
ステップ420において、プロセッサ110は、目下のユーザ注視ポジションと一致している入力を識別し、その特定の入力のためのプロセス450(例えば実施形態に依存して、または入力に依存して、プロセス450Aまたは450Bのいずれか)を開始させる。例えば入力は、マクロビュー220の倍率を変更するためのズームボタンを有することができる。択一的に入力は、別のバイナリ機能(例えばマクロビュー220の輝度の変更)または非バイナリ機能を実施するための入力を有することができる。
【0061】
ステップ430において、プロセッサ110は、ステップ420において特定の入力のために以前に開始させられていた何らかのプロセス450を停止させる。目下いかなるプロセス450も入力のために実行されていなければ、ステップ430は省かれる。いずれのケースでも、プロセス400はステップ405に戻る。
【0062】
プロセス450Aによれば、プロセッサ110はステップ455Aにおいて、アイトラッキングデバイス190を用いて検出されたユーザ注視に基づき、目下のユーザ頭部の向きを検出する。例えば、ユーザ頭部の向きは、上への傾き、下への傾き、横への傾き、および/またはこれらに類することを有することができる。
【0063】
ステップ460において、プロセッサ110は、目下のユーザ頭部の向きが第1の向きとマッチしているか否か、を判定する。例えば、第1の向きを下への傾きとすることができる。目下の向きが第1の向きとマッチしているならば(すなわちステップ460における「イエス」)、プロセス450Aはステップ465に進む。ステップ465において、プロセッサ110は、第1の向きに関連付けられた第1の機能を開始させる。例えば、入力と第1の向きと第1の機能との間の関係を、システム100内のメモリに(例えばメインメモリ115または2次メモリ120内のテーブルに)記憶させることができる。他方、目下の向きが第1の向きとマッチしていないならば(すなわちステップ460における「ノー」)、プロセス450Aはステップ470に進む。
【0064】
ステップ470において、プロセッサ110は、目下のユーザ頭部の向きが第2の向きとマッチしているか否か、を判定する。例えば、第2の向きを上への傾きとすることができる。目下の向きが第2の向きとマッチしているならば(すなわちステップ470における「イエス」)、プロセス450Aはステップ475に進む。ステップ475において、プロセッサ110は、第2の向きに関連付けられた第2の機能を開始させる。例えば、入力と第2の向きと第2の機能との間の関係を、システム100内のメモリに(例えばメインメモリ115または2次メモリ120内のテーブルに)記憶させることができる。他方、目下の向きが第2の向きとマッチしていないならば(すなわちステップ470における「ノー」)、プロセス450Aはステップ480に進む。
【0065】
ステップ480Aにおいて、プロセッサ110は、ステップ465またはステップ475において開始させられていた何らかの機能を停止させ、ステップ455Aに戻る。自明のとおり、さらなる向きを任意の所定の入力のために定義することができ、さらなる機能をそれらの向きおよびその入力に関連付けることができる。例えば、ステップ460および465またはステップ470および475を、第3の機能に関連付けられた第3の向き(例えば左への傾き)のために、第4の機能に関連付けられた第4の向き(例えば右への傾き)のために、といったように複製することができる。
【0066】
プロセス450Aの具体的な例として、第1の向きは、ユーザ頭部の下への傾きを有することができ、第1の機能は、ズームアウト(すなわちマクロビュー220の倍率の低減)を有することができ、第2の向きは、ユーザ頭部の上への傾きを有することができ、第2の機能は、ズームイン(すなわちマクロビュー220の倍率の増加)を有することができる。したがってユーザは、グラフィカルユーザインタフェース内のズーム入力を注視し、そのズーム入力を注視している間に、自身の頭部を下に傾けてマクロビュー220の倍率を低減させるか、または自身の頭部を上に傾けてマクロビュー220の倍率を増加させることができる。自明のとおり、択一的な実施形態において、第1の機能がズームインを有することができ、第2の機能がズームアウトを有することができる。いずれのケースでも、ユーザは、単に自身の頭部の傾きをなくすか、またはズーム入力の外側を注視することによって、ズーム機能を停止させることができる。
【0067】
1つの実施形態によれば、プロセッサ110は、機能が実施される際の速度を、ユーザ頭部の向きの角度の度合いに基づき決定することができる。上述のズームの例を用いると、いっそう大きく下に傾けることによって、それよりも小さく下に傾けたときよりも結果としてプロセッサ110が速くズームアウトを行うようにすることができ、いっそう大きく上に傾けることによって、それよりも小さく上に傾けたときよりも結果としてプロセッサ110が速くズームインを行うようにすることができる。
【0068】
1つの実施形態によれば、少なくとも1つの入力を、ただ1つの可能な機能だけに関連付けることができる。例えばグラフィカルユーザインタフェースは、マクロビュー220内におけるズームインおよびズームアウトのための別個の入力、マクロビュー220内における左、右、上または下へのパニングのための別個の入力、および/またはこれらに類するものを有することができる。このケースではプロセス450Bを、プロセス450Aの代わりに入力のために用いることができる。
【0069】
プロセス450Bによれば、プロセッサ110はステップ455Bにおいて、アイトラッキングデバイス190を用いて検出されたユーザ注視に基づき、目下のユーザ頭部の向きを検出する。ステップ455Bを、ステップ455Aと同じものまたは類似したものとすることができる。これに加えプロセッサ110は、目下のユーザ頭部の向きを、かつての1つまたは複数のユーザ頭部の向きと比較して、頭部に基づくジェスチャ(例えば上に傾ける、下に傾ける、点頭、頭部を振るなど)を識別することができる。
【0070】
ステップ490において、プロセッサ110は、プロセス400のステップ410において識別された入力をユーザ注視が注視している間に、予め定められたジェスチャが検出されたか否か、を判定する。予め定められたジェスチャは、この入力のために、または一般的にはすべての入力のために、予め定められた頭部ジェスチャを有することができる。一例としてジェスチャを、点頭(例えば頭部を下げる運動、頭部を上げる運動、あるいは少なくとも予め定義された回数または予め定義された期間にわたり頭部を上げ下げする運動)とすることができる。ただし他のジェスチャも同様に考えられる(例えば頭部を振る)。用いられる特定のジェスチャにかかわらず、ジェスチャが検出されたならば(すなわちステップ490における「イエス」)、プロセス450Bはステップ495に進む。ステップ495において、プロセッサ110は、入力に関連付けられた機能を開始させる。他方、特定のジェスチャが検出されなければ(すなわちステップ490における「ノー」)、プロセス450Bはステップ480Bに進む。
【0071】
ステップ480Bにおいて、プロセッサ110は、ステップ495において開始させられていた何らかの機能を停止させ、ステップ455Bに戻る。ステップ480Bを、ステップ480Aと同じものまたは類似したものとすることができる。
【0072】
プロセス450Bの1つの具体的な例として、入力を、ズームイン、ズームアウト、またはプリセット倍率レベルの選択の機能に関連付けられたボタンとすることができ、ジェスチャを点頭とすることができる。したがってユーザは、グラフィカルユーザインタフェース内のボタンを注視し、そのボタンを注視している間に、自身の頭部を縦に振って、そのボタンに関連付けられた機能を実施することができる。機能がズームインであるならば、プロセッサ110は、ユーザが点頭を続けているかぎり、マクロビュー220の倍率を増加させることができ、ユーザが点頭を止めるとただちにズームインを停止させることができる。機能がズームアウトであるならば、プロセッサ110は、ユーザが点頭を続けているかぎり、マクロビュー220の倍率を低減させることができ、ユーザが点頭を止めるとただちにズームアウトを停止させることができる。機能がプリセット倍率レベルの選択であるならば、プロセッサ110は、点頭が検出されるとただちに、マクロビュー220の倍率をプリセット倍率レベルに変化させることができる一方、さらに点頭としても付加的な作用をもたらすことはできない。
【0073】
2.3 ジェスチャ
本明細書で説明する複数のプロセスは、アイトラッキングデバイス190により検出されるようなユーザの目の注視に基づくジェスチャ検出を利用する。複数のジェスチャを、アイトラッキングデバイス190から得られる複数の出力の独立した組み合わせとして定義することができる。アイトラッキングデバイス190を、3つの軸に沿った頭部の向きの変化(例えば上および下への傾き、左および右への傾き、ならびに左回転および右回転)を検出および出力するように構成することができる。注目すべきことに、人間は、これら3つの角度とは無関係に、1つのデジタルスライド画像中の同じポイントに目を向けることができる。したがってアイトラッキングデバイス190を、ユーザ注視ポジションとは無関係に頭部の向きの変化を検出および出力できるものとすることができる。1つの実施形態によれば、各ジェスチャは、2つ以上の単純で自然な運動から成るシーケンス(例えば上への傾き、下への傾き、左への傾き、右への傾き、左回転、右回転など)を有し、これは他のジェスチャを定義するシーケンスと紛らわしいほどには似ていない。換言すれば、容易に見分けられる複数の基本運動から選択された、基本運動から成る複数のユニークなシーケンスを定義することができ、この場合、ユニークなシーケンス各々によって1つの異なるジェスチャが表現される。
【0074】
2.4 他の入力デバイス
自明のとおり、本明細書で説明したアイトラッキング機能を、他の入力手段を排除して使用してもよいし、他の入力手段と併せて使用してもよい。アイトラッキング機能を他の入力手段と併せて使用する1つの実施形態の場合、アイトラッキング機能によって、マウスおよびキーボードなど手動操作型入力デバイスを介した慣用の入力に対する代替が提供される。例えば、アイトラッキングデバイス190およびそれに関連付けられた機能を使用することに加えて、ユーザは、ズームインおよびズームアウトのためにキーボードショートカットおよび/またはマウスホイールを使用することもできる。
【0075】
かくしてユーザは、キーボードショットカットを押すかまたはマウスホイールをスクロールしている間、ディスプレイ180上の特定のポイントを注視して、その特定のポイントへのズームインまたはそこからのズームアウトを行うことができる。このケースではプロセッサ110は、アイトラッキングデバイス190からの出力に基づき、注視ポイントのロケーションを検出することができ、かつキーボードまたはマウスからの出力に基づき、デジタルスライド画像の倍率をどのくらい増加または低減させるのかを検出することができる。このような手法で、ユーザは、手動操作型入力デバイスのいくつかの機能(例えばズーミングのための中央ポイントへと進む、この中央ポイントを選択する)を置き換えるために、アイトラッキングデバイス190を使用するが、ただし手動操作型入力デバイスの機能(例えばズーミング)のすべてを置き換えるわけではない。
【0076】
したがって個々のユーザ各々は、本開示の実施形態により実装されるアイトラッキング機能をどのくらい使用するのかまたはどのくらい使用しないのか、を決定することができる。これによってユーザは、アイトラッキング機能の自身の使用法を自身の固有の要求および快適さのレベルに合わせて適合させることができるようになる。
【0077】
2.5 解析
1つの実施形態によれば、プロセッサ110および/または外部システム(例えばリモートサーバ)は、各ユーザ(例えば病理学者)が各デジタルスライド画像をどのようにして調査するのかに関する統計を、収集および記憶することができる。例えば各システム100は、アイトラッキングデバイス190から取得された注視データを収集および記憶することができ、集約のためにこの注視データを1つまたは複数のネットワークを介してリモートサーバに周期的に送信することができる。次いでリモートサーバは、このリモートサーバの少なくとも1つのプロセッサを使用して、複数のシステム100から収集されて集約された注視データを解析することができる。
【0078】
注視データは、各病理学者によって閲覧されたデジタルスライド画像の領域、領域ごとの滞在時間(すなわち各病理学者がどのくらいの期間にわたりその領域を閲覧したのか)、各病理学者が領域を閲覧した順序、および/またはこれらに類するものを有することができる。1つの実施形態によれば、集約された注視データを使用して、病理学者がデジタルスライド画像をどのように閲覧するのかまたはどのように「解析する」のかを理解するように、1つまたは複数の機械学習アルゴリズムをトレーニングすることができる。次いでトレーニング済みのそれらの機械学習アルゴリズムを、予測的閲覧など他の用途のために用いることができる。予測的閲覧は、閲覧されているデジタルスライド画像の目下の領域、および/または病理学者により閲覧されたデジタルスライド画像の過去の領域に基づき、その病理学者が次に閲覧したいデジタルスライド画像の領域を予測すること、を有することができる。その後、画像閲覧アプリケーションはこの情報を使用して、予測された次の閲覧領域を自動的に取り出し、かつ/またはメモリにロードすることができ(例えばより高速な取り出しのために、予測された次の領域に関する画像データを2次メモリ120からメインメモリ115にロードする)、デジタルスライド画像のビュー(例えばマクロビュー220)を予測された次の閲覧領域に自動的にパンすることができ、かつ/またはこれらに類することを行うことができる。
【0079】
本開示の実施形態により実現可能な予測的閲覧のための機械学習アルゴリズムを、デジタルスライド画像を閲覧するためのジェスチャの使用に取って代わるものとすることができる。機械学習アルゴリズムを、デジタルスライド画像の閲覧中にユーザの意図を予測できるように、個々のユーザの閲覧習慣に基づきトレーニングすることができる。例えばトレーニングデータセットは、ユーザのアイトラッキングデータの履歴を有することができ、これにはユーザ注視ポジションおよび/または頭部の向きが、これらのポジションおよび/または頭部の向きで閲覧されていたピクセルデータとともに含まれる。この場合であれば機械学習アルゴリズムを、ユーザの閲覧習慣をモデリングし、デジタルスライド画像において次にどこにパンおよびズームするのかを予測するように、このデータセットに基づきトレーニングすることができる。かくしてトレーニング済みの機械学習アルゴリズムは、プロセス300、400および450のために必要とされることに取って代わるよう、ディスプレイを駆動してユーザの閲覧経験を管理することができる。例えば、ユーザにより閲覧されたデジタルスライド画像の過去の部分に基づき、トレーニング済みの機械学習アルゴリズムは、閲覧されるべきデジタルスライド画像の次の部分をリアルタイムに予測することができ、プロセッサ110は、(例えば何らかの意識的なジェスチャを伴わずに)上述の次の部分に自動的にパンすることができる。択一的にプロセッサ110は、閲覧されるべきデジタルスライド画像の次の部分を提案することができ、ユーザはその提案を承諾することができ、このケースであるならばプロセッサ110は上述の次の部分にパンすることになり、または提案を拒否することができ、このケースであるならばプロセッサ110は上述の次の部分にパンすることにはならない。
【0080】
本開示の実施形態のこれまでの説明は、いかなる当業者であっても本発明を実施または使用できるようにするためになされたものである。これらの実施形態に対する様々な変形は、当業者にはたやすく理解されるであろうし、本明細書で説明した一般的な原理を、本発明の着想または範囲から逸脱することなく他の実施形態に適用することができる。よって、本明細書で呈示した説明および図面は、現時点で好ましいとされた本発明の実施形態を表しており、したがって本発明により広範に目論まれている保護対象を代表するものである、という点を理解されたい。さらに自明のとおり、本発明の範囲は、当業者に明らかになり得る他の実施形態を完全に包含しており、したがって本発明の範囲は限定されていない。
【0081】
「A、BまたはCのうちの少なくとも1つ」、「A、BまたはCのうちの1つまたは複数」、「A、BおよびCのうちの少なくとも1つ」、「A、BおよびCのうちの1つまたは複数」、ならびに「A、B、Cまたはそれらの任意の組み合わせ」といった本明細書で説明した組み合わせは、A、Bおよび/またはCの任意の組み合わせを含むものであり、かつ複数のA、複数のBまたは複数のCを含むことができる。特に、「A、BまたはCのうちの少なくとも1つ」、「A、BまたはCのうちの1つまたは複数」、「A、BおよびCのうちの少なくとも1つ」、「A、BおよびCのうちの1つまたは複数」、ならびに「A、B、Cまたはそれらの任意の組み合わせ」といった組み合わせを、Aのみ、Bのみ、Cのみ、AおよびB、AおよびC、BおよびC、またはAおよびBおよびCとすることができ、任意のかかる組み合わせは、その構成要素A、Bおよび/またはCのうちの1つまたは複数の要素を含むことができる。例えばAおよびBの組み合わせは、1つのAおよび複数のB、複数のAおよび1つのB、または複数のAおよび複数のBを有することができる。
図1
図2
図3A
図3B
図4A
図4B
図4C