IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ コニカミノルタ株式会社の特許一覧

特許7163630医療指示出力プログラム、医療指示出力方法、医療指示出力装置及び医療指示出力システム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-10-24
(45)【発行日】2022-11-01
(54)【発明の名称】医療指示出力プログラム、医療指示出力方法、医療指示出力装置及び医療指示出力システム
(51)【国際特許分類】
   G10L 15/00 20130101AFI20221025BHJP
   G06Q 50/22 20180101ALI20221025BHJP
【FI】
G10L15/00 200L
G06Q50/22
G10L15/00 200B
【請求項の数】 18
(21)【出願番号】P 2018118370
(22)【出願日】2018-06-22
(65)【公開番号】P2019219591
(43)【公開日】2019-12-26
【審査請求日】2021-03-26
(73)【特許権者】
【識別番号】000001270
【氏名又は名称】コニカミノルタ株式会社
(74)【代理人】
【識別番号】110001254
【氏名又は名称】特許業務法人光陽国際特許事務所
(72)【発明者】
【氏名】赤木 英一
【審査官】泉 卓也
(56)【参考文献】
【文献】特開2006-252286(JP,A)
【文献】特開2017-138981(JP,A)
【文献】特開2018-028562(JP,A)
【文献】特開2007-293600(JP,A)
【文献】特開2012-045419(JP,A)
【文献】特開2004-313563(JP,A)
【文献】特開平10-234696(JP,A)
【文献】国際公開第2016/105972(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G10L 15/00-15/34
G06F 3/00-3/16
A61B 5/00-5/398
(57)【特許請求の範囲】
【請求項1】
発話者の発話内容を含む時系列音声データを取得する音声データ取得工程と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得工程と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け工程と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出工程と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出工程と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力工程と、
をコンピューターに実行させ
前記重要度が高い時間領域は、前記発話者が発話している時間領域である ことを特徴とする医療指示出力プログラム。
【請求項2】
前記発話者は、予め指定された人物である、ことを特徴とする請求項に記載の医療指示出力プログラム。
【請求項3】
前記重要度が高い時間領域における前記時系列音声データは、前記発話者が、予め指定された重要語句を発した際の前記時系列音声データである、ことを特徴とする請求項1または2に記載の医療指示出力プログラム。
【請求項4】
発話者の発話内容を含む時系列音声データを取得する音声データ取得工程と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得工程と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け工程と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出工程と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出工程と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力工程と、
をコンピューターに実行させ、
前記重要度が高い時間領域は、前記医用画像に画像操作が施された時間領域であることを特徴とする医療指示出力プログラム。
【請求項5】
前記画像操作は、前記医用画像へのアノテーション付加である、ことを特徴とする請求項に記載の医療指示出力プログラム。
【請求項6】
前記音声・画像・動画紐付け工程は、前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける、ことを特徴とする請求項に記載の医療指示出力プログラム。
【請求項7】
前記音声・画像・動画紐付け工程は、
前記医用画像に前記アノテーション付加が施された時点における、前記医用画像に施された全ての前記画像操作情報を含む前記操作情報合成画像データもしくは前記操作情報合成動画データと、
前記医用画像に前記アノテーション付加が施された時点より前の前記時系列音声データと、
を時系列的に紐付ける、ことを特徴とする請求項に記載の医療指示出力プログラム。
【請求項8】
前記音声・画像・動画紐付け工程は、
ユーザーの抽出操作が行われた時点における、前記医用画像に施された全ての前記画像操作情報を含む前記操作情報合成画像データもしくは前記操作情報合成動画データと、
前記ユーザーの前記抽出操作が行われた時点より前の前記時系列音声データと、
を時系列的に紐付ける、ことを特徴とする請求項に記載の医療指示出力プログラム。
【請求項9】
前記抽出データ出力工程は、前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、をともに出力する、ことを特徴とする請求項1からのいずれか一項に記載の医療指示出力プログラム。
【請求項10】
前記抽出データ出力工程は、前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、のどちらか一方が選択されると、前記一方と他方との両方を選択する、ことを特徴とする請求項に記載の医療指示出力プログラム。
【請求項11】
前記抽出データ出力工程は、前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を表示媒体に表示する、ことを特徴とする請求項1から10のいずれか一項に記載の医療指示出力プログラム。
【請求項12】
前記発話内容をテキスト化するテキスト作成工程と、
前記テキストを前記表示媒体に表示するテキスト表示工程と、
を備える、ことを特徴とする請求項11に記載の医療指示出力プログラム。
【請求項13】
発話者の発話内容を含む時系列音声データを取得する音声データ取得段階と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得段階と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け段階と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出段階と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出段階と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力段階と、
を有し、
前記重要度が高い時間領域は、前記発話者が発話している時間領域である ことを特徴とする医療指示出力方法。
【請求項14】
発話者の発話内容を含む時系列音声データを取得する音声データ取得段階と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得段階と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け段階と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出段階と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出段階と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力段階と、
を有し、
前記重要度が高い時間領域は、前記医用画像に画像操作が施された時間領域であることを特徴とする医療指示出力方法。
【請求項15】
発話者の発話内容を含む時系列音声データを取得する音声データ取得部と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得部と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け部と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出部と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出部と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力部と、
を有し、
前記重要度が高い時間領域は、前記発話者が発話している時間領域である ことを特徴とする医療指示出力装置。
【請求項16】
発話者の発話内容を含む時系列音声データを取得する音声データ取得部と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得部と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け部と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出部と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出部と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力部と、
を有し、
前記重要度が高い時間領域は、前記医用画像に画像操作が施された時間領域であることを特徴とする医療指示出力装置
【請求項17】
発話者の発話内容を含む時系列音声データを取得する音声データ取得手段と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得手段と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け手段と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出手段と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出手段と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力手段と、を有し、
前記重要度が高い時間領域は、前記発話者が発話している時間領域である ことを特徴とする医療指示出力システム。
【請求項18】
発話者の発話内容を含む時系列音声データを取得する音声データ取得手段と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得手段と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け手段と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出手段と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出手段と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力手段と、を有し、
前記重要度が高い時間領域は、前記医用画像に画像操作が施された時間領域であることを特徴とする医療指示出力システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、医療指示出力プログラム、医療指示出力方法、医療指示出力装置及び医療指示出力システムに関する。
【背景技術】
【0002】
一般的な医療診断として、病院内においてX線撮影などによって撮影された医用画像を見ながら、特定の病気や疾患などの専門医が患者を診察する形態が採られている。また、診察時に、専門医は診察後の治療や処置に関する指示を出す。この時に専門医が出す指示に関しては、専門医自らがカルテや指示書を作成してコメントを残す場合や、指示を聞いた看護師らがコメントとして記録する場合などがある。
【0003】
ここで、急患が発生した場合を考える。病院内で急患が発生し、その患者が例えば脳梗塞の疑いがある場合、即座に専門的な診断が必要である。しかし、夜間などは適切な診断ができる医師が帰宅しており、病院内にいないことが往々にしてある。そのような場合、帰宅している専門医(適切な診断が可能な医師)に医用画像を送信し、診断を依頼することがある。その際に、病院から離れた場所にいる専門医は、スマートフォンやタブレットなどを用いて、インターネット回線や電話回線を通して診断することになる。診断結果は病院内にいる医師などにすぐに伝える必要がある場合が多く、診断しながらレポートを書いている時間もないため、電話等を用い、口頭により指示の伝達を行うことになる。
【0004】
しかし、口頭での指示による伝達は、聞き間違いや理解の違いにより、正確性に欠けるリスクがある。そのようなことを防ぐため、例えば、特許文献1に開示されている技術を用いて、口頭で指示した内容を文字として残す方法が考えられる。しかし、前述のような方法を用いたとしても、専門医が発した言葉が全て記録されるのみであり、具体的に患者に対してどのような指示を行えば良いか容易に判断がつかない場合が考えられる。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2018-73067号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
上記のような状況に鑑みて、本発明の目的は、専門医などによる医療指示に関する伝達事項をミスなく確実に伝達することである。
【課題を解決するための手段】
【0007】
上記目的を達成するため、請求項1に記載の医療指示出力プログラムの発明は、
発話者の発話内容を含む時系列音声データを取得する音声データ取得工程と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得工程と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け工程と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出工程と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出工程と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力工程と、
をコンピューターに実行させ
前記重要度が高い時間領域は、前記発話者が発話している時間領域であることを特徴としている。
【0009】
請求項に記載の発明は、請求項に記載の医療指示出力プログラムにおいて、
前記発話者は、予め指定された人物である、ことを特徴としている。
【0010】
請求項に記載の発明は、請求項1または2に記載の医療指示出力プログラムにおいて、
前記重要度が高い時間領域における前記時系列音声データは、前記発話者が、予め指定された重要語句を発した際の前記時系列音声データである、ことを特徴としている。
【0011】
請求項に記載の発明は、医療指示プログラムであって、
発話者の発話内容を含む時系列音声データを取得する音声データ取得工程と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得工程と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け工程と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出工程と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出工程と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力工程と、
をコンピューターに実行させ、
前記重要度が高い時間領域は、前記医用画像に画像操作が施された時間領域である、ことを特徴としている。
【0012】
請求項に記載の発明は、請求項に記載の医療指示出力プログラムにおいて、
前記画像操作は、前記医用画像へのアノテーション付加である、ことを特徴としている。
【0014】
請求項に記載の発明は、請求項に記載の医療指示出力プログラムにおいて、
前記音声・画像・動画紐付け工程は、前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける、ことを特徴としている。
【0015】
請求項に記載の発明は、請求項に記載の医療指示出力プログラムにおいて、
前記音声・画像・動画紐付け工程は、
前記医用画像に前記アノテーション付加が施された時点における、前記医用画像に施された全ての前記画像操作情報を含む前記操作情報合成画像データもしくは前記操作情報合成動画データと、
前記医用画像に前記アノテーション付加が施された時点より前の前記時系列音声データと、
を時系列的に紐付ける、ことを特徴としている。
【0016】
請求項に記載の発明は、請求項に記載の医療指示出力プログラムにおいて、
前記音声・画像・動画紐付け工程は、
ユーザーの抽出操作が行われた時点における、前記医用画像に施された全ての前記画像操作情報を含む前記操作情報合成画像データもしくは前記操作情報合成動画データと、
前記ユーザーの前記抽出操作が行われた時点より前の前記時系列音声データと、
を時系列的に紐付ける、ことを特徴としている。
【0017】
請求項に記載の発明は、請求項1からのいずれか一項に記載の医療指示出力プログラムにおいて、
前記抽出データ出力工程は、前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、をともに出力する、ことを特徴としている。
【0018】
請求項10に記載の発明は、請求項に記載の医療指示出力プログラムにおいて、
前記抽出データ出力工程は、前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、のどちらか一方が選択されると、前記一方と他方との両方を選択する、ことを特徴としている。
【0019】
請求項11に記載の発明は、請求項1から10のいずれか一項に記載の医療指示出力プログラムにおいて、
前記抽出データ出力工程は、前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を表示媒体に表示する、ことを特徴としている。
【0020】
請求項12に記載の発明は、請求項1から11のいずれか一項に記載の医療指示出力プログラムにおいて、
前記発話内容をテキスト化するテキスト作成工程と、
前記テキストを前記表示媒体に表示するテキスト表示工程と、
を備える、ことを特徴としている。
【0021】
請求項13に記載の医療指示出力方法の発明は、
発話者の発話内容を含む時系列音声データを取得する音声データ取得部と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得部と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け部と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出部と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出部と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力部と、
を有し、
前記重要度が高い時間領域は、前記発話者が発話している時間領域であることを特徴としている。
請求項14に記載の医療指示出力方法の発明は、
発話者の発話内容を含む時系列音声データを取得する音声データ取得部と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得部と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け部と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出部と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出部と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力部と、
を有し、
前記重要度が高い時間領域は、前記医用画像に画像操作が施された時間領域であることを特徴としている。
【0022】
請求項15に記載の医療指示出力装置の発明は、
発話者の発話内容を含む時系列音声データを取得する音声データ取得部と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得部と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け部と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出部と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出部と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力部と、
を有し、
前記重要度が高い時間領域は、前記発話者が発話している時間領域であることを特徴としている。
請求項16に記載の医療指示出力装置の発明は、
発話者の発話内容を含む時系列音声データを取得する音声データ取得部と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得部と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け部と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出部と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出部と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力部と、
を有し、
前記重要度が高い時間領域は、前記医用画像に画像操作が施された時間領域であることを特徴としている。
【0023】
請求項17に記載の医療指示出力システムの発明は、
発話者の発話内容を含む時系列音声データを取得する音声データ取得手段と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得手段と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け手段と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出手段と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出手段と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力手段と、を有し、
前記重要度が高い時間領域は、前記発話者が発話している時間領域であることを特徴としている。
請求項18に記載の医療指示出力システムの発明は、
発話者の発話内容を含む時系列音声データを取得する音声データ取得手段と、
医用画像と、前記医用画像に施された画像操作情報と、を含む操作情報合成画像データもしくは操作情報合成動画データを取得する画像・動画データ取得手段と、
前記時系列音声データと、前記操作情報合成画像データもしくは前記操作情報合成動画データと、を時系列的に紐付ける音声・画像・動画紐付け手段と、
前記時系列音声データから、重要度が高い時間領域における前記時系列音声データを抽出する音声データ抽出手段と、
前記操作情報合成画像データもしくは前記操作情報合成動画データから、前記重要度が高い時間領域における操作情報合成画像データもしくは前記操作情報合成動画データを抽出する画像・動画データ抽出手段と、
前記重要度が高い時間領域における前記時系列音声データと、前記重要度が高い時間領域における前記操作情報合成画像データもしくは前記操作情報合成動画データと、の少なくともどちらか一方を出力する抽出データ出力手段と、を有し、
前記重要度が高い時間領域は、前記医用画像に画像操作が施された時間領域であることを特徴としている。
【発明の効果】
【0024】
本発明によれば、専門医などによる医療指示に関する伝達事項をミスなく確実に伝達することができる。
【図面の簡単な説明】
【0025】
図1A】本発明の実施形態の医療指示出力装置
図1B】本発明の実施形態の医療指示出力システムを示すブロック図
図2A】モバイル端末におけるビューア処理の動作フロー
図2B】モバイル端末における音声処理の動作フロー
図2C】サーバーの動作フロー
図2D】リスト画面及びビューア画面
図3】院内端末の動作フロー
図4】ユーザーの操作フロー
図5A】テキスト表示バージョンの画面表示例
図5B】音声再生バージョンの画面表示例
図6】指示情報表示におけるメッセージの確認マーク例
【発明を実施するための形態】
【0026】
以下、本発明の実施形態を図面に基づいて説明する。ただし、本発明の範囲は図示例に限定されない。
【0027】
図1Aは、本発明の実施形態の医療指示出力装置であり、図1Bは、本発明の実施形態の医療指示出力システムを示すブロック図である。
【0028】
図1Aに関して、モバイル端末1は、急患が出た場合に備えて各疾病の専門医が携帯している端末であり、院内端末3は、急患の患者情報を保存・閲覧するために病院内に備わっている端末である。モバイル端末1と院内端末3は、例えば図1Aに示されるようにタッチパネル型の携帯端末であり、それぞれ表示・操作部1a、3aを有する。表示・操作部1a、3aを構成する表示デバイスの例としては、LCD(Liquid Crystal Display)、CRT(Cathode-Ray Tube)ディスプレイ、有機EL(Electronic Luminescence)ディスプレイ、無機ELディスプレイ及びプラズマディスプレイ等が挙げられる。
なお、モバイル端末1と院内端末3は前述のような構成に限定されず、患者情報を表示可能な端末であれば良い。
【0029】
サーバー5は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備えて構成されている。
また、サーバー5は、プログラムや各種データの記憶機能を有するため、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等も備えて構成されている。
【0030】
続いて、図1Bについて説明する。
【0031】
モバイル端末1は、音声入力部11、音声情報転送部12、画像操作記憶部13、指示・画像操作関係制御部14、指示情報表示制御部15、画像表示制御部16などにより構成される。
【0032】
音声入力部11は、発話者が発した言葉(発話内容)を含め、検出可能な全ての音声データを取得し、記憶する役割を担う。音声の検出精度は、発話内容が漏れなく検出できる程度が望ましいが、特に限定されない。
【0033】
音声情報転送部12は、音声入力部11によって取得された音声データを、サーバー5内の音声認識部52に転送する。
【0034】
画像操作記憶部13は、医用画像56に対して画像操作が施された際に、なされた画像操作の内容を画像操作情報(図1Bでは画像操作情報55と示す)として記憶する役割を担う。画像操作の例としては、アノテーションaの付加、医用画像56の拡大・縮小、階調処理、パン、計測(病変部位の長さ等を計測する処理)、文字入力によるコメント付与など、種々の操作が挙げられる。
なお、画像操作情報55を取得する役割を担う図示しない画像操作入力部や、文字を入力するための図示しない文字入力部などが、画像操作記憶部13とは別に備わっていてもよく、画像操作記憶部13が前述した画像操作情報55の取得などの機能を有していても良い。
また、画像操作記憶部13は、得られた画像操作情報55を、後述するサーバー5の画像操作情報取得部57に転送する。
なお、本実施形態では、医用画像56は静止画(例えば、X線画像など)であることを想定しているが、動画(例えば、動態解析に関係するCTやMRIの動画など)であってもよい。
【0035】
指示・画像操作関係制御部14は、サーバー5内の指示・画像操作関係紐付け部60によって紐付けられた指示情報(音声)51と画像操作情報55、もしくは、指示情報(テキスト)53と画像操作情報55に関して、それらの紐付けられた情報を、指示情報表示制御部15と画像表示制御部16に転送する役割を担う。
なお、紐付けられた情報は、表示・操作部1aに表示される際、別々ではなく同時に表示されるよう、指示・画像操作関係制御部14が制御する。ただし、指示情報(音声)51と画像操作情報55、もしくは、指示情報(テキスト)53と画像操作情報55は、それぞれ必ずしも両方とも表示される必要はなく、指示情報51,53のみ、画像操作情報55のみが表示されても良い。
これら指示情報表示制御部15、画像表示制御部16、指示情報(音声)51、指示情報(テキスト)53、画像操作情報55、指示・画像操作関係紐付け部60の詳細については後述する。
【0036】
指示情報表示制御部15は、後述するサーバー5の指示情報取得部54によって取得された指示情報(テキスト)53を表示・操作部1aに表示させる。
また、指示情報表示制御部15は、指示・画像操作関係制御部14からの制御に基づいて、指示情報(音声)51もしくは指示情報(テキスト)53を、表示・操作部1aに表示させる。
なお、指示情報表示制御部15の役割は、指示・画像操作関係制御部14が担ってもよく、その場合は、指示情報表示制御部15は省略されてもよい。
【0037】
画像表示制御部16は、後述するサーバー5の画像処理部59によって得られた医用画像56と画像操作情報55を表示・操作部1aに表示させる。
また、画像表示制御部16は、指示・画像操作関係制御部14からの制御に基づいて、画像操作情報55を表示・操作部1aに表示させる。
なお、画像表示制御部16の役割は、指示・画像操作関係制御部14が担ってもよく、その場合は、画像表示制御部16は省略されてもよい。
【0038】
院内端末3は、音声入力部31、音声情報転送部32、指示・画像操作関係制御部34、指示情報表示制御部35、画像表示制御部36などにより構成される。
【0039】
音声入力部31は、モバイル端末1の音声入力部11と同様の役割を担う。
【0040】
音声情報転送部32は、モバイル端末1の音声情報転送部12と同様の役割を担う。
【0041】
指示・画像操作関係制御部34は、モバイル端末1の指示・画像操作関係制御部14と同様の役割を担う。
【0042】
指示情報表示制御部35は、モバイル端末1の指示情報表示制御部15と同様の役割を担う。
【0043】
画像表示制御部36は、モバイル端末1の画像表示制御部16と同様の役割を担う。
【0044】
サーバー5は、音声認識部52、指示情報取得部54、画像操作情報取得部57、医用画像取得部58、画像処理部59、指示・画像操作関係紐付け部60などにより構成される。
【0045】
音声認識部52は、モバイル端末1内の音声入力部11と、院内端末3内の音声入力部31によって取得された音声データ中の発話内容をテキスト化する。音声データ中の発話内容を、図1Bでは指示情報(音声)51と示す。音声認識部52は、指示情報(音声)51が得られると同時にリアルタイムにテキスト化することができる。テキスト化する方法は特に限定されず、公知の音声テキスト化方法を用いることができる。
また、音声認識部52は、音声入力された端末ごとに異なる人物により発せられた情報であると認識するよう構成されることができる。すなわち、モバイル端末1内の音声入力部11によって得られた指示情報(音声)51はモバイル端末1を使用する使用者により発せられた情報であり、院内端末3内の音声入力部31によって得られた指示情報(音声)51は院内端末3を使用する使用者により発せられた情報であると、区別して認識することができる。
なお、区別する方法は前述に限定されず、例えば、得られた音声の種々の特徴によって判断しても良い。
音声認識部52は、音声データをテキスト化した後、指示情報(テキスト)53として出力し、指示情報取得部54に転送する。
【0046】
指示情報取得部54は、音声認識部52によって転送された指示情報(テキスト)53を、モバイル端末1内の指示情報表示制御部15と院内端末3内の指示情報表示制御部35に転送する。
【0047】
画像操作情報取得部57は、前述した画像操作記憶部13によって転送された画像操作情報55を、画像処理部59に転送する。
【0048】
医用画像取得部58は、入力手段7(例えば医用画像56を生成する各種モダリティーや医用画像56を格納する他の装置など)により得られた医用画像56を、画像処理部59に転送する。
【0049】
画像処理部59は、医用画像取得部58により転送された医用画像56と、画像操作情報取得部57により転送された画像操作情報55を照合し、画像操作情報55が反映された医用画像56を生成する。
また、画像処理部59は、生成した医用画像56を、モバイル端末1内の画像表示制御部16と院内端末3内の画像表示制御部36に転送する。
なお、画像処理部59はサーバー5に配置される場合だけでなく、モバイル端末1あるいは院内端末3に配置される場合もある。この場合は、あらかじめモバイル端末1あるいは院内端末3に医用画像56を転送しておき、画像操作情報55が生成されると、それぞれの端末にリアルタイムに転送し、画像処理部59で画像操作情報55が反映された医用画像56を都度生成し表示してもよい。この場合はモバイル端末1および院内端末3の画像処理の負荷は高くなるが、都度画像を転送する必要がなくなるためネットワーク帯域が狭い環境でもリアルタイムに表示が可能となる。
【0050】
指示・画像操作関係紐付け部60は、指示情報(音声)51と画像操作情報55、もしくは、指示情報(テキスト)53と画像操作情報55を時系列的に紐付けて記憶する役割を担う。
ここで「時系列的に紐付ける」とは、時間軸を一致させて記憶するということを意味する。
【0051】
以下、各動作フローや操作フローに沿って、本発明の実施形態を説明していく。
なお、本実施形態では、専門医が外出(帰宅を含む)している最中に急患が出た場合を想定している。帰宅中の専門医はモバイル端末1を携帯しており、病院内には患者情報を保存している院内端末3があり、専門医ではない医師もしくは看護師などが院内端末3を使用する。
また、サーバー5は病院内、あるいはクラウド上などに設置され、帰宅中の専門医が携帯するモバイル端末1と、病院内の医師もしくは看護師が使用する院内端末3は、サーバー5を介して通信される。
【0052】
また、本実施形態では、前述のように、本発明に係るプログラム、システム、方法を用いた専用端末を使用しているが、本発明はこれに限定されない、例えば、端末は任意のものでよく、本発明に係るプログラム、システム、方法を実行するアプリをダウンロードして使用する形態を採ってもよい。
【0053】
図2A図2Dは、モバイル端末1とサーバー5間の動作フローや画面例を示す。図2Aはモバイル端末1におけるビューア処理の動作フローの例、図2Bはモバイル端末1における音声処理の動作フローの例、図2Cはサーバー5の動作フローの例、図2Dはリスト画面Liとビューア画面Vの例である。
【0054】
ビューア処理の動作フローを図2Aに沿って説明する。ここでの動作は、モバイル端末1において、医用画像56に施された画像操作情報55を取得する方法に該当する。
【0055】
まず、ステップS2101でビューア処理を開始する。専門医が、モバイル端末1に備わっている図示しない開始を押すなどして開始する。
【0056】
次に、ステップS2102で診断する患者を選択する。例えば図2D上側に示したようなリスト画面Liにおける診断する患者の行Laをタッチする、押すあるいはダブルクリックするなどして、患者を選択することができる。
【0057】
ステップS2102で患者が選択されると、ステップS2103としてビューア画面Vが開く。ビューア画面Vは、例えば図2D下側のように表示され、患者の検査画像(医用画像56)と種々のボタン群B3~B12等が表示されている。
【0058】
次に、ステップS2104として、ビューア表示・操作準備を行う。図示しないビューア表示・操作ボタンを押すなどし、画像操作に必要なボタン群を表示させるなど、準備状態を整える。
なお、ビューア画面Vを開いた状態で準備が整っている場合は、本ステップは省略しても良い。
【0059】
次に、ステップS2105として、ユーザーが選択した画像操作の種類を判断する。本実施形態では、画像操作として、アノテーションaを付加する場合と、スナップショットする場合を想定する。まず、ユーザーがアノテーションaの付加を選択する場合、ユーザーによりアノテーションボタンB9(図5A参照)を押すなどの操作がなされる。これにより、ステップS2106へ進む。
【0060】
ステップS2106では、医用画像56に対して、専門医が画像操作としてアノテーションaの付加を行う。
また、アノテーションaが付加されると同時に、付加されたアノテーションaの情報(画像操作情報55)が画像操作記憶部13に保存され、グループIDが付与される。これがステップS2108である。ステップS2106でアノテーションaが付加されると同時に、自動的にステップS2108へ進むという構成となっている。
【0061】
ステップS2106でアノテーションaが付加、すなわちステップS2108で画像操作情報55が保存された際、その時のアノテーションaの付加が、前回のアノテーションaの付加時点から一定時間経過していない(ステップS2109においてNoである)場合は、ステップS2106で付与されたグループIDが格納される。これがステップS2110である。
なお、初めてのアノテーションaの付加である場合も、ステップS2109においてNoであると判断される。
次いで、自動的にステップS2112へ進み、ステップS2106で保存された画像操作情報55とグループIDがサーバー5へ送信される。
なお、本実施形態では、ステップS2109で判断する経過時間を10秒とする。ただし、ここでの経過時間はどの程度の時間に設定してもよく、モバイル端末1を携帯する専門医を含めたユーザーが予め設定するような構成にしてもよい。
【0062】
ステップS2112で画像操作情報55とグループIDがサーバー5へ送信された後、ステップS2113で終了ボタンB12等が押された(Yes)場合、ステップS2114へ進みビューア処理を終了する。ステップS2113で終了ボタンB12が押されていない(No)場合、ステップS2104へ戻り、前述の順番で処理を進める。
以上より、最初のアノテーションaの付加から10秒以内に2回目のアノテーションaの付加がなされた場合、それら2つのアノテーションaは同一グループIDが付与されることになり、3回目以降も同様である。
また、アノテーションaの付加以外の画像操作、例えば、拡大や縮小なども画像操作としてグループIDが付与され、保存される。
【0063】
また、ステップS2106でアノテーションaが付加、すなわちステップS2108で画像操作情報55が保存された際、その時のアノテーションaの付加が、前回のアノテーションaの付加時点から10秒以上経過した(ステップS2109においてYesである)場合は、グループIDが更新される。これがステップS2111である。
【0064】
ステップS2111でグループIDが更新された後、ステップS2112へ進み、画像操作情報55とグループIDがサーバー5へ送信される。その後、前述と同様に、ステップS2112以降へ進む。
【0065】
また、ステップS2105(画像操作の種類の判断)において、ユーザーがスナップショットを選択したと判断した場合について説明する。ユーザーがスナップショットボタンB11を押すなどの操作を行うと、スナップショットボタンB11押下前の画像操作情報55が保存され、その画像操作情報55に対してグループIDが更新して付与される(ステップS2111)。すなわち、スナップショットは、ユーザーの任意のタイミングでグループIDを更新できる機能である。
なお、前回のグループIDが付与された時点からスナップショットボタンB11押下までの全ての画像操作情報55を同一グループID付与により保存してもよく、スナップショットボタンB11押下前の一定時間における画像操作情報55を同一グループID付与により保存してもよい。
【0066】
なお、グループIDの付与や、画像操作情報55のサーバー5への送信は、画像操作記憶部13により行われる。
【0067】
以上がビューア処理の動作フローである。続いて、音声処理の動作フローを図2Bに沿って説明する。音声処理は、モバイル端末1と院内端末3の両方で行われる。
【0068】
まず、ステップS2201として、音声処理を開始する。本発明は、開始から終了までにおける発話者の発話内容や発話以外の雑音等を含む全ての時系列音声データを取得することができる。
ここで「時系列音声データ」とは、時間の流れに沿って蓄積された音声のデータを意味する。以後、この時系列音声データを単に音声データと呼ぶ。ただし、本実施形態では、全ての音声データを取得する工程の詳細は省略し、音声処理フローでは、音声データにおける発話者の発話内容のみを取得している。
なお、全ての音声データは図示しない全音声データ取得部等により取得されることができる。したがって、本実施形態では、発話者が発話を開始したことを検知し、その発話開始時点から音声処理を開始する。
【0069】
次に、ステップS2202として、音声入力を行う。音声入力部11(音声入力部31)により、発話者の発話内容が入力される。
【0070】
次に、ステップS2203として、音声情報符号化を行う。ステップS2202で入力された発話内容はITU-T(International Telecommunication Union Telecommunication Standardization Sector)により策定されたG.711などの方式により符号化されることでデータサイズが圧縮され通信に適したサイズとなる。音声入力部11(音声入力部31)や音声情報転送部12(音声情報転送部32)などが符号化を行う。
【0071】
次に、ステップS2204として、音声データにグループIDが付与される。グループIDの付与は、音声入力部11(音声入力部31)や音声情報転送部12(音声情報転送部32)などによって行われる。音声データに付与されるグループIDは、ビューア処理において画像情報に付与されるグループIDと対応している。したがって、音声処理において最初に取得された音声データに付与されるグループIDと、ビューア処理において最初になされた画像操作に付与されるグループIDは同一となる(対応していることになる)。
【0072】
次に、ステップS2205として、ステップS2204においてグループIDが付与された音声データに対して、人物情報を付与する。
ここで「人物情報を付与する」とは、取得した音声データが、誰によって発話されたものであるかという情報を付与することである。人物情報を付与する方法は、例えば、音声データを取得した端末ごとに人物を判断する方法がある。すなわち、モバイル端末1内の音声入力部11によって取得された音声データは、モバイル端末1を使用している専門医が発話した内容であると判断し、院内端末3内の音声入力部31によって取得された音声データは、院内端末3を使用している院内の医師や看護師等が発話した内容であると判断する。ただし、人物の判断方法は上記に限定されず、例えば、人物が発する声の特徴(声の大きさ、波形の振幅や波長など)を検出し、それにより判断してもよい。
【0073】
次に、ステップS2206として、ステップS2205において人物情報が付与された音声データをサーバー5へ送信する。サーバー5への送信は、音声情報転送部12(音声情報転送部32)により行われる。
【0074】
ステップS2206において音声データをサーバー5へ送信後、終了ボタンB12が押されたかどうかを判断する。これがステップS2207である。
なお、終了ボタンB12の押下以外にも、いかなる方法を以って終了判断を行ってもよい。終了ボタンB12が押下されたと判断された場合(ステップS2207においてYesである場合)、音声処理を終了する。これがステップS2208である。終了ボタンB12が押下されていないと判断された場合(ステップS2207においてNoである場合)、ステップS2202へ戻り、前術の順番で処理を行う。
【0075】
なお、一般的に音声データの区切り(終了)を判断するのは難しい。例えば、ある発話がなされた後、一旦発話しない時間があり、その後発話が再開された場合、発話再開前後の発話内容を同一のグループとするのか、それとも一旦発話しない時間があったために音声の区切りと判断し、違うグループとするのか、明確な判断基準を設けることは難しい場合がある。そこで、音声データのグループID更新は音声データの区切り等を基準とせず、ビューア処理におけるグループID更新にともなって、音声データのグループIDも更新されるよう構成されていることが望ましい。ただし、音声データに関する特徴などを用いて、ビューア処理とは独立して音声データの区切りを決めることもできる。その場合、例えば、音声データの特徴として、音声の大きさや波形の変化などを用いてよい。
【0076】
以上が音声処理の動作フローである。続いて、サーバー5の動作フローを図2Cに沿って説明する。
【0077】
まず、ステップS2301として、サーバー5の動作を開始する。ここでは、ステップS2206において音声データが送信されたことを起点として、サーバー5の動作が開始される。すなわち、ステップS2302として、モバイル端末1及び院内端末3の、音声情報転送部12及び音声情報転送部32から転送された音声データを、指示情報(音声)51として、サーバー5内の音声認識部52が取得する。
【0078】
次に、ステップS2303として、音声データのテキスト化を行うかどうか判断する。この判断は、音声認識部52により行われる。テキスト化を行わないと判断された場合(ステップS2303においてNoである場合)、ステップS2304へ進む。テキスト化を行うと判断された場合(ステップS2303においてYesである場合)、ステップS2307へ進む。
なお、テキスト化を行うかどうかの判断基準は、いかなるものでもよい。例えば、テキスト化を行うかどうかの判断はシステム導入時にあらかじめ決められ、常にそれに従ってもよいし、あるいは音声データが一定基準より鮮明に取得できた場合はテキスト化し、一定基準より不鮮明であった場合はテキスト化しない、といった判断基準などが挙げられる。
【0079】
ステップS2303からステップS2307へ進んだ場合、ステップS2307として音声データのテキスト化を行う。音声認識部52により、音声データである指示情報(音声)51が、指示情報(テキスト)53へと変換される。テキスト化の方法は特に限定されず、公知の音声テキスト化方法を用いることができる。
【0080】
ステップS2307において作成された指示情報(テキスト)53は、指示情報取得部54に保存される。ここがステップS2308である。
【0081】
ステップS2303においてNoである場合と、ステップS2308の後は、ステップS2304へ進む。
なお、指示情報(音声)51と指示情報(テキスト)53は、指示・画像操作関係紐付け部60に保存される。
【0082】
続いて、ステップS2305として、ビューア処理においてモバイル端末1から転送された画像操作情報55を取得する。画像操作情報55の取得は、画像操作情報取得部57により行われる。
【0083】
画像操作情報取得部57により画像操作情報55が取得された後、画像操作情報55は、画像処理部59と指示・画像操作関係紐付け部60に転送される。ここで、指示情報(音声)51と、指示情報(テキスト)53と、画像操作情報55の紐付け作業が行われる。これがステップS2306である。また本ステップでは、医用画像56と画像操作情報55の合成作業も行われる。
【0084】
指示情報(音声)51と、指示情報(テキスト)53と、画像操作情報55の紐付け作業は、指示・画像操作関係紐付け部60において行われる。指示情報(音声)51と画像操作情報55には、それぞれ対応するグループIDが付与されている。指示情報(テキスト)53は、指示情報(音声)51に由来するため、指示情報(テキスト)53に付与されているグループIDも画像操作情報55と対応している。
ここで「紐付け作業」とは、例えば、対応するグループIDが付与されている指示情報(音声)51と画像操作情報55、あるいは指示情報(テキスト)53と画像操作情報55を単一のセットとして関連付けて保存することをいう。
【0085】
医用画像56と画像操作情報55の合成作業は、以下のように行われる。まず、入力手段7により医用画像56が入力され、それを医用画像取得部58が取得し、画像処理部59に転送する。続いて、画像処理部59に転送された医用画像56と画像操作情報55が合成され、画像操作が施された状態の医用画像56を合成する。そして、画像処理部59は、合成された医用画像56を、モバイル端末1内の画像表示制御部16と院内端末3内の画像表示制御部36に転送する。
【0086】
ここで、本実施形態では、指示情報(音声)51と画像操作情報55、あるいは指示情報(テキスト)53と画像操作情報55を紐付けているが、医用画像56と画像操作情報55を合成しているため、結果的に、合成された医用画像56と音声データが紐付いていることになる。
【0087】
また、本実施形態では、音声データにおける発話者の発話内容のみを取得しているが、雑音等を含む全ての音声データを取得した場合、その全ての音声データと合成された医用画像56が紐付けられる構成をとることができる。
【0088】
また、本実施形態では、モバイル端末1内において画像操作情報55のみを取得しているが、医用画像56と画像操作情報55が初めから合成されている状態の画像データとして取得されてもよい。
【0089】
また、本実施形態では、画像操作情報55を静止画状態で取得しているが、動画状態で取得してもよい。すなわち、本実施形態では、アノテーションaが付加された結果の静止画として画像操作情報55を取得しているが、アノテーションaの付加作業が行われている間の動画を取得してもよい。
【0090】
また、本実施形態では、医用画像56は静止画であるが、動画であってもよい。動画の場合であっても、本実施形態と同様に医用動画像と画像操作情報55を別々に取得した後に合成する方法でもよく、医用動画像と画像操作情報55を初めから合成した状態で取得してもよい。
【0091】
また、本実施形態では、音声データの保存や画像操作情報55の保存はモバイル端末1及び院内端末3で行い、指示情報(音声)51と画像操作情報55の紐付け作業はサーバー5内で行う構成となっているが、本発明はこのような構成に限定されない。例えば、指示情報(音声)51と画像操作情報55の紐付け作業までを全て端末内で行い、後に指示確認のために用いる最終データの保存のみをサーバー5内で行う構成となることも可能である。
また、本実施形態では、サーバー5を介してモバイル端末1と院内端末3が接続されているが、サーバー5を介さずに端末同士がインターネット回線等を通じて直接接続されるような構成でもよい。
【0092】
以上がサーバー5の動作フローである。
【0093】
また、以上説明したビューア処理、音声処理、サーバー処理により、専門医と院内の医師などが画像を見ながら話した内容が保存される。これにより、専門医が指示した医療処置に関する内容等を保存することができる。
【0094】
続いて、ビューア処理、音声処理、サーバー処理によって得られた情報を用いて、端末で医療指示を確認する方法に関して、図3の指示確認フローに沿って説明する。
なお、モバイル端末1と院内端末3のどちらを用いても指示確認を行うことができる。本実施形態では、院内端末3を用いて指示確認する場合を例に説明する。
【0095】
まず、ステップS3101として、指示確認フローを開始する。図示しない開始ボタン等を操作することで、指示確認を開始する。
【0096】
次に、ステップS3102として、指示確認を行いたい患者を選択する。リスト画面Lの例としては、図2D上側に示されるようなものが挙げられる。リスト画面Liにおける診断する患者の行Laをタッチする、押すあるいはダブルクリックするなどして選択する。患者を選択すると、図2D下側のようなビューア画面Vが開く(ステップS3103)。
【0097】
続いて、指示情報の出力方法として、ユーザーが指示情報(テキスト)53を含めることを選択しているかどうか判断する。ここがステップS3104である。ユーザーが指示情報(テキスト)53の表示を含ませることを選択したと判断した場合(ステップS3104においてYesの場合)は、ステップS3105へ進み、指示情報(テキスト)53の表示を含ませないことを選択したと判断した場合(ステップS3104においてNoの場合)は、ステップS3106へ進む。
【0098】
ステップS3105へ進んだ場合、テキスト表示バーションが選択され、指示情報(テキスト)53と画像処理部59によって合成された医用画像56が表示される。この時、指示・画像操作関係紐付け部60により紐付けられた指示情報(テキスト)53と画像操作情報55が連動して表示されるよう、指示・画像操作関係制御部34が制御する。指示・画像操作関係制御部34の制御に基づき、指示情報表示制御部35が指示情報(テキスト)53を院内端末3の表示・操作部3aに表示し、画像表示制御部36が合成された医用画像56を院内端末3の表示・操作部3aに表示する。
【0099】
ステップS3106へ進んだ場合、音声再生バーションが選択され、指示情報(音声)51と画像処理部59によって合成された画像が表示される。この時、指示・画像操作関係紐付け部60により紐付けられた指示情報(音声)51と画像操作情報55が連動して表示されるよう、指示・画像操作関係制御部34が制御する。指示・画像操作関係制御部34の制御に基づき、指示情報表示制御部35が指示情報(音声)51を院内端末3の表示・操作部3aに表示し、画像表示制御部36が合成された医用画像56を院内端末3の表示・操作部3aに表示する。
【0100】
ここで、指示情報(テキスト)53と画像操作情報55、指示情報(音声)51と画像操作情報55が、それぞれ両方とも表示された方が、より正確に専門医の指示を確認することができる。しかし、本発明では、指示情報(テキスト)53と画像操作情報55、指示情報(音声)51と画像操作情報55が、それぞれ両方とも表示されなくてもよく、一方のみを表示してもよい。
【0101】
なお、テキスト表示バーションと音声再生バージョンの具体的な表示方法は、後述する実施例で説明する。
【実施例1】
【0102】
本実施例では、本発明を用いた製品例を実際に使用する際のフローに沿って、使用方法例を説明する。まず、モバイル端末1と院内端末3を用いて、音声入力や画像操作を行う際の操作フローを説明し、ついで、指示確認の方法例を説明する。音声入力や画像操作のフローは1つの例を説明し、指示確認については2つの実施例(実施例1、実施例2)を説明する。
【0103】
[音声入力・画像操作フロー]
本実施例では、モバイル端末1を帰宅中の専門医が使用し、院内端末3を病院内の当直医が使用している状況を想定する。
【0104】
図4に、ユーザー(専門医と当直医)操作フローの時間経過を示す。左の表はユーザー(専門医)がモバイル端末1を使用する際の操作を表し、右の表はユーザー(専門医と当直医)の音声指示を表す。
【0105】
まず、10:00:00(10時00分00秒を表す)に、専門医が開始操作及び診断する患者の医用画像選択を行う。
なお、本実施例では、医用画像56はCT画像などの静止画とする。この時同時に、当直医も操作を開始し、専門医が選択した患者と同じ患者を選択する。もしくは、当直医は10:00:00以前に開始操作を行っており、専門医が使用するモバイル端末1と画面共有し、モバイル端末1の画面が当直医に共有されている状態となっていることも可能である。本実施例では、画面共有している状態を想定する。
【0106】
続いて、10:00:10に、専門医は医用画像56の注目する部分を拡大し、適切に観察できるように階調の調整を行う。
また、この時点において、医用画像56の拡大処理等を行ってもよい。
【0107】
続いて、10:00:15に、専門医は円アノテーションボタンB9をクリックする。特定の画像操作、ここではアノテーションaの付加操作を行った場合に、1回目の操作であるためグループID=1が付与される。この時点でそれまでに階調処理や拡大表示等の画像操作を行った場合は、その画像操作に対しても同じグループID=1が付与される。ここでモバイル端末1は画像操作の情報をサーバー5へ転送し、その情報は院内端末3に転送され、当直医が院内端末3に表示された画像操作内容を確認する。
また、10:00:15以前に階調処理等を行っていた場合、それらの画像操作についても同じグループIDが付与される。例えば、10:00:12に階調処理と拡大処理が行われた場合、その画像操作(階調処理と拡大処理)と、10:00:15に行われた円アノテーションボタンB9のクリックの全ての画像操作にグループID=1が付与される。これはすなわち、全ての画像操作が行われた状態の医用画像56が保存されるということになる。
【0108】
続いて、10:00:20に、専門医は、医用画像56の所望の部分(病変部位Le1)を囲むように円形のアノテーションaを描写する。この操作は、10:00:15にグループID=1が付与された前回の画像操作から10秒経過する前であるため、グループIDを更新せずに、グループID=1を付与する。ここでも前回グループID=1が付与されたときと同様に画像操作情報55はサーバー5、院内端末3へと転送され、当直医が表示された画像操作内容を確認する。以降グループIDの付与のたびに同様の処理がおこわなれるが以降説明は省略する。
【0109】
続いて、10:00:21に、専門医が発話を開始したことに基づいて音声認識が開始される。専門医の発話内容はモバイル端末1が取得し、サーバー5へ転送し、当直医の発話内容は院内端末3が取得し、サーバー5へ転送する。
【0110】
続いて、10:00:22に、専門医が矢印アノテーションボタンB9をクリックする。10:00:20の画像操作から10秒以下であるため、グループIDを更新せずに、グループID=1を付与する。
【0111】
続いて、10:00:25に、専門医が病変部位Le1を矢印のアノテーションaで指し示す。10:00:22の矢印アノテーションボタンB9のクリックから10秒経過する前であるため、グループIDを更新せずに、グループID=1を付与する。
【0112】
そして、10:00:25の矢印操作から10秒経過した10:00:35になると、ここまでの画像操作のグループを1つと判断し、グループID(=1)を保存する。すなわち、次に画像操作が行われた際には、グループIDを更新する。
【0113】
また、10:00:35に画像操作のグループが1つと判断されたと同時に、音声データも1つと判断して保存する。
なお、音声の区切りの判断基準を定めることは難しい場合もあるため、画像操作のグループIDが更新された時を基準とし、音声のグループIDも同時に更新される構成となっていることが望ましい。ただし、音声データの特徴等を用いることにより、画像操作とは独立して音声データのグループIDを更新することも可能である。
さらに、この時点で、画像操作情報55と音声データを、グループID(=1)によって紐付ける。すなわち、グループID=1が付与された全ての画像操作情報55と、グループID=1が付与された音声データが紐付けられる。
【0114】
また、本実施例では、アノテーションaの付加を起点としているが、例えば、ユーザーの抽出操作を起点として、その抽出操作が行われた時点より前の、同一グループIDが付与された全ての画像操作情報55と、それらの画像操作が行われた時間に取得された音声データを紐付けること構成となっていてもよい。
なお、前述したユーザーの抽出操作は特に限定なくいかなる操作でもよく、例えば、スナップショットボタンB11の押下などが挙げられる。
【0115】
なお、本実施例では、発話されたと同時に音声認識を開始しているが、開始のタイミングは特に限定されない。例えば、アノテーションaの付加等の画像操作が行われたタイミングで同時に音声認識が開始されてもよい。
【0116】
また、本実施例では、画像操作情報55と音声データとの間で、連動してグループIDを更新しているが、前述したように、独立してグループIDを更新してもよい。その場合、例えば、同一グループIDが付与されている音声データと画像操作情報55であっても、時間が大きくずれている場合も考えらえる。そのような場合であっても、グループIDを一致させることによって、音声データと画像操作情報55を紐付けることができる。すなわち、グループIDは、音声データと画像操作情報55の間に関連性を持たせるために付与されるである。「時間」以外の関連性は、例えば、アノテーションaの種類と発せられた特定語句の組み合わせなどが挙げられ、事前にユーザーが決めておくこともできる。
【0117】
続いて、10:00:40に、当直医が発話を開始したことに基づいて音声認識が開始される。当直医の発話内容は院内端末3が取得し、サーバー5へ転送する。
また、この発話内容には、グループID=2が付与される。
【0118】
続いて、10:00:45に、専門医が円アノテーションボタンB9をクリックする。前回の画像操作は10:00:25であり、10秒以上経過しているため、新たにグループID=2を付与し、保存する。
【0119】
続いて、10:00:47に、専門医は、医用画像56の所望の部分(病変部位Le2)を囲むように円形のアノテーションaを描写する。この操作にも、グループID=2が付与される。
【0120】
10:00:47以降の操作は図4に示されていないが、10:00:00~10:00:35までの流れと同様に、グループIDによる画像操作情報55と音声データの紐付けが行われる。
本実施例では、アノテーションaの付加を行った場合にグループIDの更新判定が行われているが、システムが自動で判定する方法以外に、ユーザーが一連の関連する説明が完了し、次の関連する説明に移行する手前のタイミングで明示的にスナップショットボタンB11を押下しグループIDを更新する方法もある。
【0121】
以上のように、音声入力や画像操作の保存、音声データと画像操作情報55の紐付けが行われる。
【0122】
[指示確認操作フロー]
続いて、指示確認操作のフローを説明する。指示確認のための表示方法として、実施例1と実施例2の、2つの例を説明する。
【0123】
[実施例1]
実施例1では、テキスト表示バージョンを説明する。テキスト表示バージョンは、音声データをテキスト化して得られた指示情報(テキスト)53と、医用画像56と画像操作情報55を合成して得られた合成画像(本発明に係る操作情報合成画像データもしくは操作情報合成動画データに該当する)を表示し、指示情報(テキスト)53と画像操作情報55を連動して強調表示する。
【0124】
図5Aに、テキスト表示バージョンの画面表示例を示す。指示情報(テキスト)53と合成画像が表示されているのは、院内端末3の表示・操作部3aである。
【0125】
図5Aに示される例では、ビューア画面V上部に患者情報や各種ボタン群(画面切り替えボタンB3、アノテーションボタンB9やスナップショットボタンB11を含む各種操作ボタンB4~B11、終了ボタンB12)、サムネイル等が表示され、画面右半分にある画像表示エリアVaにおいてアノテーションaが付加された医用画像56が表示され、中央左寄りに音声データタイムラインTvが縦のラインとして表示され、音声データタイムラインTvの左側にある指示情報表示エリアVbにおいて指示情報(テキスト)53が表示され、画面下部に画像データタイムラインTiが表示されている。
下記で詳述するが、本発明に係る「重要度が高い時間領域における時系列音声データ」は、図5AにおけるB1やB2(図5BにおけるB1やB2)に該当し、本発明に係る「重要度が高い時間領域における操作情報合成データもしくは操作情報合成動画データ」は、図5AにおけるC1やC2(図5BにおけるC1やC2)に該当する。
【0126】
なお、本発明に係る「重要度が高い時間領域における時系列音声データ」は、図5AにおけるB1やB2に限らず、時系列音声データ中のいかなる領域であってもよい。さらに、ユーザーが、重要度が高い時間領域を後から指定することや、修正することが可能であってもよい。
また、本発明に係る「重要度が高い時間領域における操作情報合成データもしくは操作情報合成動画データ」に関しても時系列音声データの場合と同様である。
【0127】
実施例1では、画像操作としてアノテーションaの付加が2回(別のグループIDが付与されている)行われた場合を想定しており、指示確認の際には、最終的な状態の画像、すなわちアノテーションaが2つ付加された状態の画像が表示されている。
【0128】
医用画像56には、アノテーションaが2つ付加されており、それぞれにA1、A2という番号が付与されている。これらA1、A2は、本発明に係る「重要度が高い時間領域における画像データ」に該当する。
また、画像データタイムラインTiには、C1、C2という番号が付与されている。C1、C2はそれぞれA1、A2に対応している。画像データタイムラインTiは、画像操作が行われた際の時間的縮尺を表しており(左から右に、開始から終了までの時間を表す)、時系列的にはC1→C2の順、すなわちA1→A2という順にアノテーションaの付加が行われたことを意味する。
【0129】
音声データタイムラインTvには、B1、B2という番号が付与されている。B1、B2も前述と同様にA1、A2に対応している。
また、指示情報(テキスト)53に関しては、テキストが長く、全ての指示情報(テキスト)53を同一画面内に表示できない場合は、一部の指示情報(テキスト)53を表示し、表示している部分の前後の指示情報(テキスト)53は上下にスクロールして表示できるようにしている。
【0130】
ここで、例えば、画像データタイムラインTiにおける重要度が高い時間領域であるC1の部分をタッチした場合、C1が明るく強調表示されるとともに、C2が暗く目立たないように表示される。A1とA2、B1とB2に関しても同様に表示される。さらに、指示情報表示エリアVbにおけるB1に該当する部分のテキストも明るく強調表示される。これにより、番号A1のアノテーションaを付加した時、専門医の指示内容をすぐに把握することができるため、専門医がどのような医療処置に関する指示を出したかを正確に把握しやすくなる。
【0131】
また、前述ではC1をタッチしているが、A1、B1をタッチしても同様の表示状態になる。すなわち、音声データ、画像データのどちらをタッチした場合でも、両者が連動して強調表示される。
【0132】
また、本実施例では、音声データタイムラインTvと画像データタイムラインTiが両方とも画面に表示されているが、どちらか一方のみが表示されてもよく、両方とも表示されていても、ユーザーの操作によってどちらか一方のみ非表示にしてもよい。
さらに、本実施例では、音声データと画像データが表示画面(表示・操作部1a,3a)に表示される形態で出力されているが、必ずしも表示される形態でなくてもよい。例えば、実施例2で後述するように、音声が再生される形態で出力される方法などが挙げられる。
【0133】
また、本実施例では、医用画像56と、医用画像56に付加されたアノテーションaが合成された状態(最終状態)で表示されているが、付加されたアノテーションaを非表示にしてもよい。その場合、例えば、B1もしくはC1がタッチされた際に、非表示だったA1に対応するアノテーションaが表示されるようにしてもよい。
【0134】
また、例えば、画像データタイムラインTiもしくは音声データタイムラインTv中の任意の領域をタッチした場合、音声データタイムラインTvも連動し、それによってタッチした時間における指示情報(テキスト)53が表示され、さらにタッチした時間における画像操作情報55を反映した画像が表示されるようにしてもよい。
【0135】
また、本実施例では、音声データにおける重要度が高い時間領域をB1とB2、すなわち、発話者が発話している時間としているが、重要度が高い時間領域はこれに限定されない。例えば、発話者が発話している時間全てではなく、発話者が予め指定された重要語句を発した時間や、特定の発話者(専門医など)が発話した時間を、重要度が高い時間と設定してもよい。
予め指定された重要語句を抽出する方法としては、音声データをテキスト化した後に、テキストから重要語句を自動抽出する方法などが考えられるが、特に方法は限定されない。
また、重要語句は医療指示に関する語句であることが望ましく、例えば、肺、脳、MRI、などが挙げられる。さらに、重要語句は専門医ごとに異なる語句を指定することができる。
【0136】
また、図6に示されるように、指示情報(テキスト)53を確認した場合に、確認した箇所をチェックできるようにしてもよい。例えば、当直医が指示確認を行っている際、指示情報(テキスト)53が長い場合などは一度確認した内容を再度見返すことは二度手間になる。そこで、図6のように、一度見た指示情報(テキスト)53にチェックマークCを付すことで、効率よく指示確認を行うことができる。
【0137】
[実施例2]
実施例2では、音声再生バージョンを説明する。音声再生バージョンは、音声データをテキスト化して得られた指示情報(テキスト)53は表示せず、音声データと、医用画像56と画像操作情報55を合成して得られた合成画像を表示し、音声データと画像操作情報55を連動して強調表示する。
【0138】
図5Bに、音声再生バージョンの画面表示例を示す。音声データと合成画像が表示されているのは、院内端末3の表示画面である。
【0139】
図5Bに示される例では、図5Aと同様に、ビューア画面V上部に患者情報や各種ボタン群(画面切り替えボタンB3、アノテーションボタンB9やスナップショットボタンB11を含む各種操作ボタンB4~B11、終了ボタンB12)、サムネイル等が表示され、画面の大部分を占める画像表示エリアVaにアノテーションaが付加された医用画像56が表示され、画面左側に音声データタイムラインTvが縦のラインとして表示され、画面下部に画像データタイムラインTiが表示されている。さらに、画面下部に再生ボタンB17を含む各種音声ボタンB13~19が表示され、音声データを再生することができる。
【0140】
実施例2でも実施例1と同様に、画像操作としてアノテーションaの付加が2回(別のグループIDが付与されている)行われた場合を想定しているが、図5Bでは付加されたアノテーションaは非表示にしている。
【0141】
図5BにおけるB1やB2、C1やC2は、実施例1(図5A)と同様の意味を持つ。したがって、連動して強調表示されるという動作に関しては、実施例1と同じである。
【0142】
実施例2における実施例1との違いとしては、指示情報(テキスト)53が表示されない代わりに、音声が再生される点である。例えば、画像データタイムラインTiにおけるC1の部分をタッチすると、音声データタイムラインTvも連動してB1の部分が選択され、再生ボタンB17を押すとB1の領域における音声データが再生される。同時に、C1における画像データも反映され、C1に対応するアノテーションaが医用画像56上に表示される。それにより、実施例1と同様に、専門医の医療指示を正確に把握しやすくなる。
【0143】
また、本実施例2でも実施例1と同様に、音声データタイムラインTvと画像データタイムラインTiが両方とも画面に表示されているが、どちらか一方のみが表示されてもよく、両方とも表示されていても、ユーザーの操作によってどちらか一方のみ非表示にしてもよい。
【0144】
その他の点に関しても、実施例2は実施例1と同じ態様であってよい。
【0145】
また、上記の説明では、本発明に係るプログラムのコンピューター読み取り可能な媒体としてHDDを使用した例を開示したが、この例に限定されない。その他のコンピューター読み取り可能な媒体として、半導体の不揮発性メモリ、CD-ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを、通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。
【符号の説明】
【0146】
1:モバイル端末
1a:表示・操作部
11:音声入力部
12:音声情報転送部
13:画像操作記憶部
14:指示・画像操作関係制御部
15:指示情報表示制御部
16:画像表示制御部
3:院内端末
3a:表示・操作部
31:音声入力部
32:音声情報転送部
34:指示・画像操作関係制御部
35:指示情報表示制御部
36:画像表示制御部
5:サーバー
51:指示情報(音声)
52:音声認識部
53:指示情報(テキスト)
54:指示情報取得部
55:画像操作情報
56:医用画像
57:画像操作情報取得部
58:医用画像取得部
59:画像処理部
60:指示・画像操作関係紐付け部
図1A
図1B
図2A
図2B
図2C
図2D
図3
図4
図5A
図5B
図6