IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社プレシジョンの特許一覧

<>
  • 特開-プログラム、情報処理装置及び方法 図1
  • 特開-プログラム、情報処理装置及び方法 図2
  • 特開-プログラム、情報処理装置及び方法 図3
  • 特開-プログラム、情報処理装置及び方法 図4
  • 特開-プログラム、情報処理装置及び方法 図5
  • 特開-プログラム、情報処理装置及び方法 図6
  • 特開-プログラム、情報処理装置及び方法 図7
  • 特開-プログラム、情報処理装置及び方法 図8
  • 特開-プログラム、情報処理装置及び方法 図9
  • 特開-プログラム、情報処理装置及び方法 図10
  • 特開-プログラム、情報処理装置及び方法 図11
  • 特開-プログラム、情報処理装置及び方法 図12
  • 特開-プログラム、情報処理装置及び方法 図13
  • 特開-プログラム、情報処理装置及び方法 図14
  • 特開-プログラム、情報処理装置及び方法 図15
  • 特開-プログラム、情報処理装置及び方法 図16
  • 特開-プログラム、情報処理装置及び方法 図17
  • 特開-プログラム、情報処理装置及び方法 図18
  • 特開-プログラム、情報処理装置及び方法 図19
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025146835
(43)【公開日】2025-10-03
(54)【発明の名称】プログラム、情報処理装置及び方法
(51)【国際特許分類】
   G16H 10/60 20180101AFI20250926BHJP
【FI】
G16H10/60
【審査請求】有
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2025090547
(22)【出願日】2025-05-30
(62)【分割の表示】P 2025005264の分割
【原出願日】2025-01-15
(31)【優先権主張番号】P 2024046886
(32)【優先日】2024-03-22
(33)【優先権主張国・地域又は機関】JP
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.CHATGPT
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和6年度、国立研究開発法人国立国際医療研究センター、戦略的イノベーション創造プログラム(SIP)「統合型ヘルスケアシステムの構築」委託研究、産業技術力強化法第17条第1項の適用を受ける特許出願
(71)【出願人】
【識別番号】517019991
【氏名又は名称】株式会社プレシジョン
(74)【代理人】
【識別番号】110002815
【氏名又は名称】IPTech弁理士法人
(72)【発明者】
【氏名】佐藤 寿彦
【テーマコード(参考)】
5L099
【Fターム(参考)】
5L099AA01
5L099AA23
(57)【要約】
【課題】音声データに基づいて入力された電子カルテの記録の省力化を図る。同時に、日本中の医療機関にマスカスタマイズして届ける。
【解決手段】プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プログラムは、プロセッサに、ユーザから、発話データの入力を受け付けさせ、受け付けた発話データを音声認識して音声認識データを取得させ、取得した音声認識データを機械学習モデルに入力し、この機械学習モデルに、入力した音声認識データに対応する漢字変換済音声認識データを出力させ、漢字変換済音声認識データをユーザに提示させる。
を実行させる、プログラム。
【選択図】図1
【特許請求の範囲】
【請求項1】
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、
前記プログラムは、前記プロセッサに、
ユーザから、発話データの入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記発話データを音声認識して得た、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを前記ユーザに提示する第2ステップと、
前記第1ステップで受け付けている前記発話データの前記ユーザによる入力の終了を判断する第3ステップと、
前記第3ステップにより入力の終了が判定されるまでに前記第1ステップにおいて受け付けた前記発話データを解析するとともに、(i)前記ユーザの環境情報、(ii)前記音声認識データの取得前の文書、及び(iii)前記ユーザの顧客に関する情報の少なくとも1つ、並びに(iv)前記音声認識データを解析することにより、前記音声認識データに対して仮名漢字変換または誤字の修正のいずれか一方を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行させる、プログラム。
【請求項2】
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、
前記プログラムは、前記プロセッサに、
ユーザから、前記ユーザの顧客に関する情報の入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記ユーザの顧客に関する情報を音声認識して得た、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを前記ユーザに提示する第2ステップと、
前記第1ステップで受け付けている前記ユーザの顧客に関する情報の前記ユーザによる入力の終了を、前記ユーザの顧客に関する情報に含まれる句読点、改行コード、前記ユーザの顧客に関する情報の文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第6ステップと、
前記第6ステップにより入力の終了が判定されるまでに前記第1ステップにおいて受け付けた前記ユーザの顧客に関する情報を解析するとともに、(I)前記ユーザの環境情報及び(II)前記音声認識データの取得前の文書の少なくとも一方、並びに(III)前記音声認識データを解析することにより、前記音声認識データに対して仮名漢字変換または誤字の修正のいずれか一方を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行させる、プログラム。
【請求項3】
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、
前記プログラムは、前記プロセッサに、
ユーザから、前記ユーザの顧客に関する発話データの入力を受け付ける第7ステップと、
前記第7ステップで受け付けた前記発話データを音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第8ステップと、
前記第8ステップにおいて取得された前記音声認識データを前記ユーザに提示する第9ステップと、
前記第7ステップで受け付けている前記発話データの前記ユーザによる入力の終了を、前記音声認識データに含まれる句読点、改行コード、前記音声認識データの文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第10ステップと、
前記第10ステップにより入力の終了が判定されるまでに前記第8ステップにおいて取得した前記音声認識データを解析するとともに、前記ユーザの環境情報及び前記音声認識データの取得前の文書の少なくとも一方を解析することにより、前記音声認識データに対して仮名漢字変換または誤字の修正のいずれか一方を行った変換済音声認識データを取得する第11ステップと、
前記第11ステップで取得した前記変換済音声認識データを前記ユーザに提示する第12ステップとを実行させる、プログラム。
【請求項4】
前記ユーザは医療従事者であり、前記顧客は前記ユーザが診療を担当している患者である、請求項2または3に記載のプログラム。
【請求項5】
前記ユーザは医療従事者であり、前記ユーザの環境情報は前記ユーザが所属する診療科に関する情報である。請求項1~3のいずれかに記載のプログラム。
【請求項6】
前記ユーザの顧客に関する情報は、前記顧客が前回受診した際のカルテ情報及び/または診療サマリーである、請求項4に記載のプログラム。
【請求項7】
プロセッサとメモリとを備えた情報処理装置であって、
前記プロセッサは、
ユーザから、発話データの入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記発話データを音声認識して得た、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを前記ユーザに提示する第2ステップと、
前記第1ステップで受け付けている前記発話データの前記ユーザによる入力の終了を判断する第3ステップと、
前記第3ステップにより入力の終了が判定されるまでに前記第1ステップにおいて受け付けた前記発話データを解析するとともに、(i)前記ユーザの環境情報、(ii)前記音声認識データの取得前の文書、及び(iii)前記ユーザの顧客に関する情報の少なくとも1つ、並びに(iv)前記音声認識データを解析することにより、前記音声認識データに対して仮名漢字変換または誤字の修正のいずれか一方を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行する、情報処理装置。
【請求項8】
プロセッサとメモリとを備えた情報処理装置であって、
前記プロセッサは、
ユーザから、前記ユーザの顧客に関する情報の入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記ユーザの顧客に関する情報を音声認識して得た、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを前記ユーザに提示する第2ステップと、
前記第1ステップで受け付けている前記ユーザの顧客に関する情報の前記ユーザによる入力の終了を、前記ユーザの顧客に関する情報に含まれる句読点、改行コード、前記ユーザの顧客に関する情報の文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第6ステップと、
前記第6ステップにより入力の終了が判定されるまでに前記第1ステップにおいて受け付けた前記ユーザの顧客に関する情報を解析するとともに、(I)前記ユーザの環境情報及び(II)前記音声認識データの取得前の文書の少なくとも一方、並びに(III)前記音声認識データを解析することにより、前記音声認識データに対して仮名漢字変換または誤字の修正のいずれか一方を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行する、情報処理装置。
【請求項9】
プロセッサとメモリとを備えた情報処理装置であって、
前記プロセッサは、
ユーザから、前記ユーザの顧客に関する発話データの入力を受け付ける第7ステップと、
前記第7ステップで受け付けた前記発話データを音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第8ステップと、
前記第8ステップにおいて取得された前記音声認識データを前記ユーザに提示する第9ステップと、
前記第7ステップで受け付けている前記発話データの前記ユーザによる入力の終了を、前記音声認識データに含まれる句読点、改行コード、前記音声認識データの文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第10ステップと、
前記第10ステップにより入力の終了が判定されるまでに前記第8ステップにおいて取得した前記音声認識データを解析するとともに、前記ユーザの環境情報及び前記音声認識データの取得前の文書の少なくとも一方を解析することにより、前記音声認識データに対して仮名漢字変換または誤字の修正のいずれか一方を行った変換済音声認識データを取得する第11ステップと、
前記第11ステップで取得した前記変換済音声認識データを前記ユーザに提示する第12ステップとを実行する、情報処理装置。
【請求項10】
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、
前記プロセッサは、
ユーザから、発話データの入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記発話データを音声認識して得た、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを前記ユーザに提示する第2ステップと、
前記第1ステップで受け付けている前記発話データの前記ユーザによる入力の終了を判断する第3ステップと、
前記第3ステップにより入力の終了が判定されるまでに前記第1ステップにおいて受け付けた前記発話データを解析するとともに、(i)前記ユーザの環境情報、(ii)前記音声認識データの取得前の文書、及び(iii)前記ユーザの顧客に関する情報の少なくとも1つ、並びに(iv)前記音声認識データを解析することにより、前記音声認識データに対して仮名漢字変換または誤字の修正のいずれか一方を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行する、方法。
【請求項11】
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、
前記プロセッサは、
ユーザから、前記ユーザの顧客に関する情報の入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記ユーザの顧客に関する情報を音声認識して得た、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを前記ユーザに提示する第2ステップと、
前記第1ステップで受け付けている前記ユーザの顧客に関する情報の前記ユーザによる入力の終了を、前記ユーザの顧客に関する情報に含まれる句読点、改行コード、前記ユーザの顧客に関する情報の文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第6ステップと、
前記第6ステップにより入力の終了が判定されるまでに前記第1ステップにおいて受け付けた前記ユーザの顧客に関する情報を解析するとともに、(I)前記ユーザの環境情報及び(II)前記音声認識データの取得前の文書の少なくとも一方、並びに(III)前記音声認識データを解析することにより、前記音声認識データに対して仮名漢字変換または誤字の修正のいずれか一方を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行する、方法。
【請求項12】
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、
前記プロセッサは、
ユーザから、前記ユーザの顧客に関する発話データの入力を受け付ける第7ステップと、
前記第7ステップで受け付けた前記発話データを音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第8ステップと、
前記第8ステップにおいて取得された前記音声認識データを前記ユーザに提示する第9ステップと、
前記第7ステップで受け付けている前記発話データの前記ユーザによる入力の終了を、前記音声認識データに含まれる句読点、改行コード、前記音声認識データの文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第10ステップと、
前記第10ステップにより入力の終了が判定されるまでに前記第8ステップにおいて取得した前記音声認識データを解析するとともに、前記ユーザの環境情報及び前記音声認識データの取得前の文書の少なくとも一方を解析することにより、前記音声認識データに対して仮名漢字変換または誤字の修正のいずれか一方を行った変換済音声認識データを取得する第11ステップと、
前記第11ステップで取得した前記変換済音声認識データを前記ユーザに提示する第12ステップとを実行する、方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、プログラム、情報処理装置及び方法に関する。
【背景技術】
【0002】
医師が患者に対する問診内容及び問診結果を音声またはキーボード入力して電子的に記録し、さらに患者に行う医療行為の履歴を電子的に記録する電子カルテは公知である。電子カルテの記録内容は、電子カルテテンプレートに沿って作成されることがある。
【0003】
上述した技術に関連する技術として、特許文献1に開示された技術がある。
【0004】
特許文献1には、医療支援装置に関する技術が開示されている。医療支援装置において、入力項目表示手段は入力項目を表示器に表示する。入力項目選択手段は複数の前記入力項目から一の前記入力項目を選択する。音声認識手段は、選択された辞書を用いて、入力された音声の音声認識を行い、音声に対する語句候補を抽出する。語句候補表示手段は抽出された語句候補を表示器に表示する。選択操作受付手段は語句候補から一の語句候補の選択操作を受付ける。記憶制御手段は、選択操作された一の語句候補を、選択した一の前記入力項目に対する回答として記憶手段に記憶させる。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2013-156844号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
特許文献1に記載された技術では、医療分野の専門辞書を用いて音声認識処理を行っているが、医療分野のテンプレート入力では同音異表記が多く、現時点においても音声認識処理の精度には一定の限界があり、音声認識処理を行った結果としての電子カルテテンプレートへの入力内容に対してその後医師等が修正入力を行う必要が生じることがある。
【0007】
そこで、本開示は、上記課題を解決すべくなされたものであって、その目的は、音声データに基づいて入力された電子カルテテンプレートへの記録の省力化を図る技術を提供することである。
【課題を解決するための手段】
【0008】
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムである。メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プログラムは、プロセッサに、ユーザから、発話データの入力を受け付ける第13ステップと、第13ステップで受け付けた発話データを音声認識して音声認識データを取得する第14ステップと、第14ステップで取得した音声認識データを機械学習モデルに入力し、この機械学習モデルに、入力した音声認識データに対応する漢字変換済音声認識データを出力させる第15ステップと、第15ステップの出力である漢字変換済音声認識データをユーザに提示する第16ステップとを実行させる。
【発明の効果】
【0009】
本開示によれば、音声データに基づいて入力された電子カルテテンプレートへの記録の省力化を図ることができる。
【図面の簡単な説明】
【0010】
図1】一実施形態に係るシステムの全体の構成を示す図である。
図2】一実施形態に係る端末装置の機能的な構成を示す図である。
図3】一実施形態に係るサーバの機能的な構成を示す図である。
図4】一実施形態に係る電子カルテデータベースのデータ構造を示す図である。
図5】一実施形態に係るシステムにおける処理流れの一例を示すフローチャートである。
図6】一実施形態に係るシステムにおける処理流れの他の例を示すフローチャートである。
図7】一実施形態に係る端末装置で表示される画面の一例を表す模式図である。
図8】一実施形態に係るシステムにおける処理流れの一例を示す図である。
図9】一実施形態に係るシステムにおける処理流れの他の例を示す図である。
図10】一実施形態に係るシステムにおける処理流れのまた他の例を示す図である。
図11】一実施形態に係る端末装置で表示される画面の他の例を表す模式図である。
図12】一実施形態に係る端末装置で表示される画面のまた別の一例を表す模式図である。
図13】一実施形態に係る端末装置で表示される画面のまた別の一例を表す模式図である。
図14】一実施形態に係る端末装置で表示される画面のまた別の一例を表す模式図である。
図15】一実施形態に係る端末装置で表示される画面のまた別の一例を表す模式図である。
図16】一実施形態に係る端末装置で表示される画面のまた別の一例を表す模式図である。
図17】一実施形態に係るシステムにより紹介状を生成する手順を説明する図である。
図18】一実施形態に係るシステムにより紹介状を生成する手順を説明する図である。
図19】変形例に係るシステムにおける処理流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0011】
以下、本開示の実施形態について図面を参照して説明する。実施形態を説明する全図において、共通の構成要素には同一の符号を付し、繰り返しの説明を省略する。なお、以下の実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。また、各図は模式図であり、必ずしも厳密に図示されたものではない。
【0012】
また、以下の説明において、「プロセッサ」は、1以上のプロセッサである。少なくとも1つのプロセッサは、典型的には、CPU(Central Processing Unit)のようなマイクロプロセッサであるが、GPU(Graphics Processing Unit)のような他種のプロセッサでもよい。少なくとも1つのプロセッサは、シングルコアでもよいしマルチコアでもよい。
【0013】
また、少なくとも1つのプロセッサは、処理の一部又は全部を行うハードウェア回路(例えばFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit))といった広義のプロセッサでもよい。
【0014】
また、以下の説明において、「xxxテーブル」といった表現により、入力に対して出力が得られる情報を説明することがあるが、この情報は、どのような構造のデータでもよいし、入力に対する出力を発生するニューラルネットワークのような学習モデルでもよい。従って、「xxxテーブル」を「xxx情報」と言うことができる。
【0015】
また、以下の説明において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部又は一部が1つのテーブルであってもよい。
【0016】
また、以下の説明において、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサによって実行されることで、定められた処理を、適宜に記憶部及び/又はインターフェース部等を用いながら行うため、処理の主語が、プロセッサ(或いは、そのプロセッサを有するコントローラのようなデバイス)とされてもよい。
【0017】
プログラムは、計算機のような装置にインストールされてもよいし、例えば、プログラム配布サーバ又は計算機が読み取り可能な(例えば非一時的な)記録媒体にあってもよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
【0018】
本明細書中に記載されている構成要素により実現される機能は、当該記載された機能を実現するようにプログラムされた、汎用プロセッサ、特定用途プロセッサ、集積回路、ASICs、CPU、従来型の回路、および/又はそれらの組合せを含む、circuitry又はprocessing circuitryにおいて実装されてもよい。プロセッサは、トランジスタやその他の回路を含み、circuitry又はprocessing circuitryとみなされる。プロセッサは、メモリに格納されたプログラムを実行する、programmed processorであってもよい。
【0019】
本明細書において、circuitry、ユニット、手段は、記載された機能を実現するようにプログラムされたハードウェア、又は実行するハードウェアである。当該ハードウェアは、本明細書に開示されているあらゆるハードウェア、又は、当該記載された機能を実現するようにプログラムされた、又は、実行するものとして知られているあらゆるハードウェアであってもよい。
【0020】
当該ハードウェアがcircuitryのタイプであるとみなされるプロセッサである場合、当該circuitry、手段、又はユニットは、ハードウェアと、当該ハードウェア及び又はプロセッサを構成する為に用いられるソフトウェアの組合せである。
【0021】
また、以下の説明において、種々の対象の識別情報として、識別番号が使用されるが、識別番号以外の種類の識別情報(例えば、英字や符号を含んだ識別子)が採用されてもよい。
【0022】
また、以下の説明において、同種の要素を区別しないで説明する場合には、参照符号(又は、参照符号のうちの共通符号)を使用し、同種の要素を区別して説明する場合は、要素の識別番号(又は参照符号)を使用することがある。
【0023】
また、以下の説明において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
【0024】
<0 システムの概要>
本開示に係るシステムは、電子カルテテンプレートに基づく電子カルテの記録内容の記録を音声認識により行うシステムである。本明細書において、電子カルテの記録内容は電子カルテテンプレートに基づいて生成される。
【0025】
電子カルテテンプレートは、入力項目とこの入力項目に関連付けられた入力内容とを有する構造化データである。ここに、構造化データとは、ストレージに配置される前に事前定義され、ある定められた構造となるように整形されたデータである。これに対して、非構造化データとは、平文のまま保存され、使用時まで処理されないデータである。電子カルテは、この電子カルテテンプレートに基づいてその入力項目が規定される。なお、本システムは、電子カルテのテンプレートの入力項目をウェブフォーム等で別の形に作り直した電子カルテテンプレート入力補助システムでテンプレートの入力項目の入力を支援するシステムを含む。
【0026】
入力項目は電子カルテの各項目に対応する項目であり、医療従事者がどの項目であるかを特定するために、医療指定語を用いた比較的短い内容である。入力内容はこの入力内容に関連付けられた入力項目に対して医師または医療従事者が入力する内容である。入力内容は選択肢形式であったり自由回答形式であったり、その設問形式は多様である。入力内容は、選択肢形式であればいずれかの選択肢(選択肢が単一の場合もある)を選択したものであり、自由回答形式であれば自由文が入力される。なお、選択肢形式の入力内容であると、選択肢に医療指定語が含まれる。電子カルテテンプレートデータは、電子カルテテンプレートに基づいて医師または医療従事者が入力した内容であり、電子カルテテンプレートの入力内容の具体的な内容である。
【0027】
医療現場では、医師及び医療従事者は、電子カルテテンプレートに基づいて、電子カルテに大量のデータ入力をする必要がある。そして、電子カルテテンプレートは構造化データであり、一部は選択肢形式であり、一部は自由回答形式である。
【0028】
電子カルテテンプレートの入力項目及び入力内容は医療従事者が入力/修正/追記し、また、医療従事者が閲覧することを前提に作成されている。このことは、入力項目及び入力内容は医学的知識を前提とし、また、医学的に正確なものである必要がある。しかしながら、医師を含む医療従事者が電子カルテに記録すべき記録内容は膨大な量になり、その手間は半端なものではない。一例では、ある医療施設の入退院支援センターでは、大体6ページにわたる入力内容があり、その内容を電子カルテの縦に長くなったプロフィール欄またはアセスメントシートのどこの項目に入力するのかを探し、そこに入力することは、1患者当たり20分程度かかっており、看護師・医療事務の残業の理由となっている。
【0029】
このような観点から、電子カルテの記録内容を音声認識により行うことが考えられる。とはいえ、現時点においても音声認識処理の精度は十分とは言えない。特に、電子カルテに記録すべき内容には患者の氏名、医療指定語等、一般的な音声認識エンジンでは正確な仮名漢字変換を行える可能性が低い内容を含んでいる。
【0030】
そこで、本開示に係るシステムでは、電子カルテテンプレートに基づく電子カルテの記録内容の記録を行うに当たって、音声認識処理を機械学習モデルに行わせる。好ましくは、プロンプトとして症例情報、診療メモ等の医療情報を機械学習モデルに入力し、機械学習モデルからの出力を用いて電子カルテの記録内容を特定している。このような構成を採用することにより、音声認識技術を用いて効率的にかつ正確な電子カルテの記録内容を記録することができる。
【0031】
ここに、症例情報とは、特定の患者(単一人には限らない)についての少なくとも現在の症状を含む情報であり、好ましくは、患者の年齢、性別、医療従事者が聞き取った主訴、現在の病歴(現病歴)及び既往歴・家族歴、初診時所見及び患者に対する検査数値、患者アウトカム、画像検査所見、音声情報を含む。症例情報は医療従事者が対面で問診したもの、患者が問診票に入力したもの、音声で吹き込んだものを含む。
【0032】
症例情報をシステムに入力するためには、電子的なデータ(例えばテキストデータ)に変換する必要がある。例えば、医療従事者が対面で問診した場合、医療従事者が問診した内容を電子カルテの自由記入欄に手入力したものが、電子化した症例情報に含まれる。また、医療従事者の問診に先立って患者が問診票に入力した内容についても電子化が必要である。近年、タブレット端末等を用いて、電子問診票と呼ばれる、問診項目に対応する問診回答を電子的に入力できるシステムがあり、電子問診票の問診回答であれば既に電子化されている。
【0033】
本開示に係るシステムでは、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルを用いている。この機械学習モデルは、ChatGPTに代表される汎用的な大規模言語モデルであってもよいし、本開示に係るシステムのためにチューニングされた機械学習モデルであってもよい。
【0034】
機械学習モデルに医療情報を入力する際に、医療情報をプロンプトとして入力することが好ましい。当然、医療情報以外のテキストを医療情報に付加したものを機械学習モデルに入力してもよい。プロンプトの詳細については後述する。
【0035】
なお、音声認識の精度は人間の作業者と同様に100%にはならない。入力が正しくされたのかを確認する方法より簡易であることもユーザの使いやすさに大きな影響を与える。
【0036】
また、本開示に係るシステムは、医療従事者の指示により、上述した作業により記録内容が確定した電子カルテデータ(含む電子カルテテンプレートの構造化データ)、好ましくは特定の患者についての電子カルテデータに基づいて、文書データを生成する。ここにいう文書データは、一例として、診療サマリー、紹介状、製薬企業へのレポート等、電子カルテデータの一部を利用して生成する文書のデータである。
【0037】
本開示に係るシステムでは、これら文書データについての文書テンプレートを機械学習モデルにより生成している。機械学習モデルは、電子カルテテンプレートの入力項目に含まれる医療指定語を入力として、この医療指定語を衝突困難な文字列として含む文書テンプレートを出力する。この機械学習モデルは、ChatGPTに代表される汎用的な大規模言語モデルであってもよいし、本開示に係るシステムのためにチューニングされた機械学習モデルであってもよい。
【0038】
<一実施形態>
<1 システム全体の構成図>
図1は、本実施形態の電子カルテシステム1の全体の構成を示す図である。図1に示すように、電子カルテシステム1は、複数の端末装置(図1では、端末装置10A及び端末装置10Bを示している。以下、総称して「端末装置10」ということもある)と、サーバ20とを含む。端末装置10とサーバ20とは、ネットワーク80を介して相互に通信可能に接続されている。ネットワーク80は、有線または無線ネットワークにより構成される。本実施形態では、サーバ20はWebサーバ(クラウドサーバを含む)としての機能を有するサーバであり、端末装置10との間でWebページにより情報のやり取りを行う。また、端末装置10にはWebページを閲覧するためのWebページブラウザがインストールされているが、サーバ20のサービスを提供するための専用アプリケーションがインストールされ、専用アプリケーションにより閲覧可能に構成してもよい。
【0039】
端末装置10は、据え置き型のPC(Personal Computer)、ラップトップPC等により実現される。この他、端末装置10は、例えば移動体通信システムに対応したタブレットや、スマートフォン等の携帯端末であるとしてもよい。
【0040】
端末装置10は、医療従事者または電子カルテシステム1の管理者が操作する装置である。ここに、医療従事者とは、医師、看護師、医療知識を有する検査技師等を含む概念である。なお、以下の説明において、医療従事者とシステム1の管理者とを区別して説明する時以外は、医療従事者にはシステム1の管理者が含まれるものとする。
【0041】
医療従事者は、端末装置10を使用して、電子カルテテンプレートに基づく電子カルテの記録内容の記録を行う。この際、医療従事者は、発話データを端末装置10に入力し、入力/修正/追記を指示する。端末装置10は、発話データをサーバ20に送出し、このサーバ20による音声認識処理及び仮名漢字変換処理(自然言語処理)をリクエストし、サーバ20から漢字変換済音声認識データを取得する。次いで、医療従事者は、端末装置10により、この漢字変換済音声認識データに基づいて記録内容の入力/修正/追記を行う。そして、医療従事者は、端末装置10により、入力/修正/追記を行った入力内容を電子カルテの記録内容として記録する指示を行う。
【0042】
端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、4G、5G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局81、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ82等の通信機器と通信することにより、ネットワーク80に接続される。図1に示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。
【0043】
通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、キーボードや、タッチパネル、タッチパッド、マウス等のポインティングデバイス等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
【0044】
サーバ20は、本実施形態の電子カルテシステム1の管理者により管理され、端末装置10の利用者である医療従事者により適宜格納内容が修正/追加/削除がされる。サーバ20は電子カルテ装置であり、医療施設において医療従事者が端末装置10を介して電子カルテの入力項目及び入力内容を閲覧し、入力内容の修正/追記を行う。また、端末装置10を介して医療従事者が行った電子カルテテンプレートの編集操作を受け入れ、この編集操作に基づいて電子カルテテンプレートの修正/追加/削除がされる。
【0045】
サーバ20は、ネットワーク80に接続されたコンピュータである。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
【0046】
通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
【0047】
<1.1 端末装置10の機能的な構成>
図2は、本実施形態のシステム1を構成する端末装置10の機能的な構成を示すブロック図である。図2に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、入力装置13(キーボード131及びマウス132を含む)と、音声処理部17(マイク171及びスピーカ172を含む)と、出力装置14としてのディスプレイ141と、記憶部180と、制御部190とを含む。端末装置10は、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路等)も有している。図2に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
【0048】
アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
【0049】
アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
【0050】
第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理等を行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理等を行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路等を含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。
【0051】
入力装置13は、ユーザの入力操作を受け付けるための機構を有する。具体的には、入力装置13は、キーボード131と、マウス132とを含む。なお、入力装置13は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する、タッチスクリーンとして構成してもよい。
【0052】
キーボード131は、端末装置10のユーザの入力操作を受け付ける。キーボード131は、文字入力を行う装置であり、入力された文字情報を入力信号として制御部190へ出力する。
【0053】
マウス132は、端末装置10のユーザの入力操作を受け付ける。マウス132は、ディスプレイ141に表示されている表示物を選択等するためのポインティングデバイスであり、画面上で選択された位置情報と、ボタン押下されていることを示す情報とを入力信号として制御部190へ出力する。
【0054】
音声処理部17は、音声信号の変復調を行う。音声処理部17は、マイク171から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部17は、音声信号をスピーカ172へ与える。音声処理部17は、例えば音声処理用のプロセッサによって実現される。マイク171は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部17へ与える。スピーカ172は、音声処理部17から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
【0055】
ディスプレイ141は、制御部190の制御に応じて、画像、動画、テキスト等のデータを表示する。ディスプレイ141は、例えばLCD(Liquid Crystal Display)、または有機EL(Electro-Luminescence)ディスプレイによって実現される。
【0056】
記憶部180は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータ及びプログラムを記憶する。ある局面において、記憶部180は、ユーザ情報182を記憶する。
【0057】
ユーザ情報182は、端末装置10を使用して、システム1の機能である、音声認識処理により電子カルテの入力内容を確定する作業を行うユーザの情報であり、好ましくは、本実施形態のシステム1を利用する医療従事者の情報である。
【0058】
制御部190は、記憶部180に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部190は、例えば予め端末装置10にインストールされているアプリケーションである。制御部190は、記憶部180に格納されているアプリケーションプログラム181に従って動作することにより、入力操作受付部191と、送受信部192と、データ処理部193と、提示制御部194としての機能を発揮する。
【0059】
入力操作受付部191は、キーボード131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。
【0060】
送受信部192は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。
【0061】
データ処理部193は、端末装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。
【0062】
提示制御部194は、ユーザに対し情報を提示する処理を行う。提示制御部194は、表示画像をディスプレイ141に表示させる処理、音声をスピーカ172に出力させる処理等を行う。
【0063】
<1.2 サーバ20の機能的な構成>
図3は、サーバ20の機能的な構成の例を示す図である。図3に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
【0064】
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
【0065】
記憶部202は、例えば、電子カルテDB2022と、電子カルテデータ2023と、電子カルテテンプレート2024と、文書テンプレート2025と、発話データ2026と、音声認識データ2027と、漢字変換済音声認識データ2028と、教師データ2029と、機械学習モデル2040と、医療指定語データ2041等とを有する。
【0066】
電子カルテDB2022は、サーバ20を利用する医療施設を受診したことがある患者についての電子カルテデータを管理するためのデータベースである。電子カルテDB2022は、複数の医療施設における電子カルテデータを管理してもよい。詳細は後述する。
【0067】
電子カルテデータ2023は、電子カルテDB2022に取り込まれることで、電子カルテの記録内容の一部を為す。電子カルテデータ2023は、入力項目とこの入力項目に関連付けられた入力内容とを有する。電子カルテデータ2023のデータ形式には特段の限定はないが、本実施例の電子カルテデータ2023は、XAML(Extensible Application Markup Language)で記述されたデータをJSON(JavaScript Object Notation)(JavaScriptは登録商標)形式に変換したものである。電子カルテデータ2023は、その入力項目に数字列等の識別子が付与されていることが好ましく、この識別子も電子カルテデータ2023を構成する。電子カルテデータ2023は、患者の症例情報を含む医療情報の少なくとも一部を為す。
【0068】
電子カルテテンプレート2024は、電子カルテデータ2023を生成する際のテンプレートである。電子カルテテンプレート2024は、入力項目とこの入力項目に関連付けられた入力内容を規定する構造化データである。電子カルテテンプレート2024のデータ形式にも特段の限定はないが、本実施例の電子カルテテンプレート2024は、電子カルテデータ2023と同様に、XAMLで記述されたデータをJSON形式に変換したものである。電子カルテデータ2023と同様に、電子カルテテンプレート2024は、その入力項目に数字列等の識別子が付与されていることが好ましく、この識別子も電子カルテテンプレート2024を構成する。
【0069】
個々の電子カルテテンプレート2024には、それぞれの電子カルテテンプレート2024を識別するための識別子が関連付けられている。一例として、電子カルテテンプレート2024の識別子は所定桁の数字列である。
【0070】
また、本実施形態では、電子カルテテンプレート2024において、入力項目に対して複数の問診設問の回答候補(入力内容の候補)が関連付けられていてもよいものとする。つまり、入力内容は複数の回答候補から選択された一の回答候補でありうる。
【0071】
文書テンプレート2025は、本実施形態のサーバ20が生成する文書データのテンプレートである。本実施形態において、文書データは、一例として、診療サマリー、紹介状、製薬企業へのレポートであり、文書テンプレート2025も、これら文書データの種類毎に設けられている。
【0072】
発話データ2026は、端末装置10に対して医療従事者が入力した発話を音声処理部17のマイク171を介して収録したデータであり、端末装置10の制御部190の送受信部192を介してサーバ20に送出される。好ましくは、医療従事者は、発話データ2026中に、後述する医療指定語データ2041に含まれる医療指定語を含める。言い換えれば、医療従事者は、端末装置10のマイク171に、医療指定語を含めた音声を入力する。
【0073】
音声認識データ2027は、後述する制御部203の音声認識モジュール2033が発話データ2026に基づいて音声認識を行った結果得られた音声認識データである。本実施形態の音声認識データ2027は、ひらがな、カタカナ、英数字及び句読点が混じったデータであり、好ましくは、これらひらがな、カタカナ、英数字及び句読点の間に空白データ等が区切り(デリミタ)として挿入されおり、ひらがな等の文字が読みやすくなっている。
【0074】
漢字変換済音声認識データ2028は、後述する生成モデル入出力モジュール2035が音声認識データ2027を機械学習モデル2040に入力した結果としてこの機械学習モデル2040が出力した、漢字変換済の音声認識データである。漢字変換済音声認識データ2028を得る手法については後に詳述する。
【0075】
教師データ2029は、機械学習モデル2040に対して学習をさせる際の学習データとなる教師データである。本実施形態のサーバ20は、2種類の機械学習モデル2040を有し、これに伴い、それぞれの機械学習モデル2040を学習させるための教師データ2029を有する。
【0076】
一方の教師データ2029は、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データ2027と、この音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データ2028とを有する。好ましくは、教師データ2029は、電子カルテデータ2023の少なくとも一部を有する。
【0077】
他方の教師データ2029は、医療指定語データ2041と、この医療指定語データ2041に含まれる医療指定語を衝突困難な文字列として含む文書テンプレート2025とを有する。
【0078】
機械学習モデル2040の一形態は、例えばChatGPTに代表されるように、自然言語またはベクトルが入力されると、この自然言語に対する自然言語をまたはベクトルを出力する大規模言語モデルである。特に、本実施形態の機械学習モデル2040では、それぞれの教師データ2029を用いた機械学習が行われている。そして、学習済みの一方の機械学習モデル2040にひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データ2027を入力し、入力された音声認識データ2027に対して仮名漢字変換を行った漢字変換済音声認識データ2028を出力するチューニングがされている。また、学習済みの他方の機械学習モデル2040に、医療指定語データ2041に含まれる医療指定語を入力し、この医療指定語を衝突困難な文字列として含む文書テンプレート2025を出力するチューニングがされている。
【0079】
なお、一般的に大規模言語モデルは生成AIとも呼称されるが、人の文章作成という生成過程を機械学習にさせるモデルとして作成されている。大規模言語モデルはまずは大量の事前学習用のデータで学習され、次にインストラクション、現場のフィードバックをもとにしたアライメントをおこない学習を終えてモデルを作る。これらは生成AIの生成される文章の質を高め、また、プロンプトといわれる利用時の指示をより正確に生成過程に適用できるように作成するものである。一度出来上がったモデルは、固定化される。そのモデルに、利用時にプロンプトにて指示を与え、生成過程を制御する。なお、プロンプトに入れるテキストを、外部検索エンジンを用いて入手し、利用することをRAG(検索拡張生成)という。
【0080】
本実施形態に係る機械学習モデル2040は、例えば、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数、及びパラメータの組合せにより定義される。本実施形態に係る予測モデルは、上記の要請を満たす如何なるパラメータ付き合成関数であってもよいが、多層のネットワークモデル(以下、多層化ネットワークと呼ぶ)であるとする。多層化ネットワークを用いる予測モデルは、入力層と、出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層あるいは隠れ層とを有する。予測モデルは、人工知能ソフトウェアの一部であるプログラムモジュールとしての使用が想定される。
【0081】
本実施形態に係る多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)が用いられ得る。DNNとしては、例えば、画像を対象とする畳み込みニューラルネットワーク(Convolution Neural Network:CNN)を用いてもよい。
【0082】
また、上記はあくまで予測モデルの例示であり、予測モデルとしては、他の構成を備えてもよい。例えば、予測モデルは、主訴情報および環境情報を変数とし、各変数に過去の実績から導出された係数が付された関数により記述されるルールベースのモデルであってもよい。
【0083】
医療指定語データ2041は、制御部203の電子カルテデータ生成モジュール2037が、漢字変換済音声認識データ2028に基づいて電子カルテの入力内容の修正/追記を行う際に、修正/追記を行うべき入力内容に係る入力項目を特定するために用いる医療指定語データである。ここにいう医療指定語は、電子カルテに限らず、一般的に医療従事者がカルテに記載する際に使用する用語であり、いわゆる医学用語を少なくとも含み、さらに、入力項目に用いられている専門的な用語を含む。好ましくは、医療指定語データ2041は、これら医療指定語等の同義語辞書を有し、修正時更新時に項目の紐づけを同定、維持するのに用いる。なお、医学用語とは、「既往歴」、「現病歴」、「薬剤歴」、「社会歴」、「病名」、「薬剤名」等、医療機関で医学に関する言葉を正確に記述するために用いられる用語である。また「現病歴」は「現症」「HPI」等の同義語が存在し、テンプレートの紐づけ時に、同義語を用いて紐づけを誘導または確定してもよい
制御部203は、プロセッサ29が記憶部202に記憶されるアプリケーションプログラム2021を読み込み、アプリケーションプログラム2021に含まれる命令を実行することにより実現される。制御部203は、アプリケーションプログラム2021に従って動作することにより、受信制御モジュール2031、送信制御モジュール2032、音声認識モジュール2033、プロンプト生成モジュール2034、生成モデル入出力モジュール2035、提示制御部2036及び電子カルテデータ生成モジュール2037として示す機能を発揮する。
【0084】
受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
【0085】
送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
【0086】
音声認識モジュール2033は、医療従事者がマイク171を介して入力した発話データ2026に基づいて、出力結果としての音声認識データ2027を取得する。本実施形態の音声認識モジュール2033は、音声認識データ2027の説明でも述べたように、音声認識データ2027として、ひらがな、カタカナ、英数字及び句読点が混じったデータであり、好ましくは、これらひらがな、カタカナ、英数字及び句読点の間に空白データが区切り(デリミタ)として挿入されている音声認識データ2027を出力する。
【0087】
プロンプト生成モジュール2034は、記憶部202の機械学習モデル2040に各種入力を行う際に、機械学習モデル2040に入力するテキストデータであるプロンプトを生成し、生成したプロンプトを一時的に記憶部202に格納する。
【0088】
プロンプト生成モジュール2034が生成するプロンプトに特段の制限はないが、一例として、本実施形態のプロンプト生成モジュール2034は、医療従事者が音声入力を行う内容に係る医療情報が挙げられる。例えば、音声入力が特定の患者に対する電子カルテテンプレートデータの入力のためであれば、過去に蓄積されたこの特定の患者に対する電子カルテテンプレートデータの少なくとも一部である。また、プロンプト生成モジュール2034が生成するプロンプトは、端末装置10を利用する医療従事者が所属する診療科についてのテキストであってもよい。プロンプトに含まれる電子カルテテンプレートデータには、患者を特定するための情報(ID)、これまでの電子カルテデータ2023、患者が入院した際の診療サマリー等が含まれうる。これらは特定の患者の病歴と総称することができる。また、プロンプト生成モジュール2034が生成するプロンプトには、機械学習モデル2040からの出力を適切なものにするものも含まれる。このようなプロンプトの具体例については画面例等を用いて後に詳述する。
【0089】
生成モデル入出力モジュール2035は、音声認識モジュール2033が音声認識処理を行った結果得られた音声認識データ2027、及び、プロンプト生成モジュール2034が生成したプロンプト等を機械学習モデル2040に入力し、この機械学習モデル2040から、機械学習モデル2040に入力した音声認識データ2027に対応する漢字変換済音声認識データ2028を出力させる。
【0090】
あるいは、また、生成モデル入出力モジュール2035は、医療指定語データ2041に含まれる医療指定語、及び、プロンプト生成モジュール2034が生成したプロンプト等を機械学習モデル2040に入力し、この機械学習モデル2040から、機械学習モデル2040に入力した医療指定語を衝突困難な文字列として含む文書テンプレート2025を出力させる。
【0091】
この際、生成モデル入出力モジュール2035は、機械学習モデル2040から出力された文書テンプレート2025に、特定の患者に係る電子カルテテンプレート2024の構造化データに含まれる医療指定語をキーとして構造化データを挿入して文書データを生成する。生成した文書データは一時的に記憶部202に格納される。
【0092】
提示制御部2036は、音声認識モジュール2033、プロンプト生成モジュール2034、生成モデル入出力モジュール2035、及び後述する電子カルテデータ生成モジュール2037の出力結果を、送信制御モジュール2032と協働して医療従事者が操作する端末装置10に送信してこの端末装置10のディスプレイ141に表示させる。
【0093】
この際、提示制御部2036は、電子カルテデータ生成モジュール2037が特定した、電子カルテテンプレート2024に記録すべき記録内容と、この記録内容以外の電子カルテテンプレート2024との提示態様を変更させて提示する。
【0094】
また、あるいは、提示制御部2036は、機械学習モデル2040の出力結果である文書テンプレート2025に対して、生成モデル入出力モジュール2035が文書テンプレート2025に挿入した構造化データと、文書テンプレート2025に挿入した構造化データ以外の文書データとの提示態様を変更させて提示する。
【0095】
また、提示制御部2036は、生成モデル入出力モジュール2035が文書テンプレート2025に挿入した構造化データの入力項目とこの入力項目に対応する入力内容とを対にして提示する。この際、提示制御部2036は、対にして提示した、文書テンプレート2025に挿入した構造化データの入力項目とこの入力項目に対応する入力内容のうち、生成モデル入出力モジュール2035が生成する文書データに挿入すべき入力項目とこの入力項目に対応する入力内容の選択入力を受け入れる。生成モデル入出力モジュール2035は、選択入力を受け入れた入力項目とこの入力項目に対応する入力内容を文書データに挿入する。
【0096】
電子カルテデータ生成モジュール2037は、漢字変換済音声認識データ2028中に含まれる医療指定語に基づいて、電子カルテテンプレート2024に記録すべき記録内容を特定する。そして、電子カルテデータ生成モジュール2037は、特定した記録内容に基づいて電子カルテテンプレート2024を追記、更新する。
【0097】
<2 データ構造>
図4は、サーバ20が記憶するデータベースのデータ構造を示す図である。なお、図4は一例であり、記載されていないデータを除外するものではない。
【0098】
図4に示すデータベースは、リレーショナルデータベースを指し、行と列によって構造的に規定された表形式のテーブルと呼ばれるデータ集合を、互いに関連づけて管理するためのものである。データベースでは、表をテーブル、表の列をカラム、表の行をレコードと呼ぶ。リレーショナルデータベースでは、テーブル同士の関係を設定し、関連づけることができる。
【0099】
通常、各テーブルにはレコードを一意に特定するための主キーとなるカラムが設定されるが、カラムへの主キーの設定は必須ではない。サーバ20の制御部203は、各種プログラムに従ってプロセッサ29に、記憶部202に記憶された特定のテーブルにレコードを追加、削除、更新を実行させることができる。
【0100】
図4は、電子カルテDB2022のデータ構造を示す図である。図4に示すように、電子カルテDB2022のレコードの各々は、例えば、項目「電子カルテID」と、項目「患者ID」と、項目「診療科ID」と、項目「電子カルテデータ」を含む。電子カルテDB2022の各項目は、図略の電子カルテテンプレートデータ記録モジュールが電子カルテデータ2023を生成した際にこの電子カルテテンプレートデータ記録モジュールにより入力される。電子カルテDB2022が記憶する情報は、適宜変更・更新することが可能である。
【0101】
項目「電子カルテID」は、本実施形態のシステム1(特にサーバ20)により管理される電子カルテを特定するためのIDである。項目「患者ID」は、項目「電子カルテID」により特定される電子カルテにより管理される医療情報に係る患者を特定するためのIDである。項目「診療科ID」は、項目「電子カルテID」により特定される電子カルテにより管理される医療情報に係る診療科を特定するためのIDである。項目「電子カルテデータ」は、項目「電子カルテID」により特定される電子カルテに係る電子カルテデータ2023のファイル名に関する情報である。
【0102】
<3 動作例>
以下、端末装置10及びサーバ20の動作の一例について説明する。
【0103】
図5は、端末装置10の動作の一例を表すフローチャートである。図5は、端末装置10の操作者が音声入力により電子カルテテンプレート2024の入力/修正/追記を行う際の動作の例を示すフローチャートである。
【0104】
ステップS500において、電子カルテテンプレート2024の入力等を行う医療従事者は、自身が操作する端末装置10のスピーカ172に、好ましくは医療指定語を含む音声入力を行い、端末装置10のデータ処理部193は、入力された音声をデジタルデータである発話データに変換して、この発話データを送受信部192を介してサーバ20に送出する。次いで、サーバ20の制御部203は、端末装置10から送出された発話データを受信制御モジュール2031を介して受け取り、記憶部202に格納する。具体的には、例えば、制御部203は、受信制御モジュール2031及び音声認識モジュール2033により、端末装置10から送出された発話データを受け取り、発話データ2026として記憶部202に格納する。
【0105】
次いで、ステップS501において、制御部203は、ステップS500で受け入れた発話データ2026を用いてリアルタイムで音声認識を行い、その音声認識結果を端末装置10のディスプレイ141にリアルタイム表示させる。具体的には、例えば、制御部203は、音声認識モジュール2033により、ステップS500で受け入れた発話データ2026を用いてリアルタイムで音声認識を行い、提示制御部2036により、その音声認識結果を端末装置10のディスプレイ141に表示させる。既に述べたように、ステップS501における音声認識結果は、ひらがな、カタカナ、英数字及び句読点が混じったデータであり、好ましくは、これらひらがな、カタカナ、英数字及び句読点の間に空白データが区切り(デリミタ)として挿入されている。リアルタイムで入力が漢字変換等への変換の質が悪くても、ユーザは入力されていることが分かり、安心ができる。なお、ステップS501における音声認識結果は、ひらがな、カタカナ、英数字及び句読点が混じったデータには、漢字が含むこともある。この変換で大事なことは、時間と質の二つの軸に対して、時間を優先した変換を行うシステムという事である。
【0106】
次いで、ステップS502において、制御部203は、端末装置10を操作する医療従事者からの音声認識終了指示入力、あるいは、端末装置10を用いた音声入力の一定時間の中断を契機に、音声認識処理を終了し、音声認識処理の結果である音声認識データ2027を一度確定する。具体的には、例えば、制御部203は、端末装置10を操作する医療従事者からの音声認識終了指示入力、あるいは、端末装置10を用いた音声入力の一定時間の中断を契機に、音声認識モジュール2033による音声認識処理を終了し、音声認識処理の結果である音声認識データ2027を一度確定する。そして、音声認識モジュール2033は、確定した音声認識データ2027を記憶部202に格納する。
【0107】
次いで、ステップS503において、制御部203は、後述するステップS504において機械学習モデル2040に入力するプロンプトを、発話データ2026に係る患者の病歴、前回受診した際のカルテ情報、前回入院した際の診療サマリー、及び紹介状のテキストに基づいて生成する。具体的には、例えば、制御部203は、プロンプト生成モジュール2034により、後述するステップS504において機械学習モデル2040に入力するプロンプトを、発話データ2026に係る患者の病歴、前回受診した際のカルテ情報、前回入院した際の診療サマリー、及び紹介状のテキストに基づいて生成する。この際、プロンプト生成モジュール2034は、患者を特定するための情報(ID)を用いて電子カルテテンプレート2024を検索し、発話データ2026に係る患者の病歴、前回受診した際のカルテ情報、前回入院した際の診療サマリー、及び紹介状のテキストを入手する。
【0108】
そして、ステップS504において、制御部203は、ステップS503で生成したプロンプト、及び、ステップS502で確定した音声認識データ2027を機械学習モデル2040に入力し、この機械学習モデル2040から出力される、音声認識データ2027を仮名漢字変換し、あるいは/また誤字を修正した漢字変換済音声認識データ2028を取得する。具体的には、例えば、制御部203は、生成モデル入出力モジュール2035により、ステップS503で生成したプロンプト、及び、ステップS502で確定した音声認識データ2027を機械学習モデル2040に入力し、この機械学習モデル2040から出力される、音声認識データ2027を仮名漢字変換し、あるいは/また誤字を修正した漢字変換済音声認識データ2028を取得する。そして、生成モデル入出力モジュール2035は、取得した漢字変換済音声認識データ2028を記憶部202に格納する。
【0109】
生成AIは、一般的に出力速度がやや遅い反面、質の高い応答及び文章を生成できるという特徴を持つ。また、生成AIは、プロンプト(指示文)の内容を調整することで出力結果を制御できる。これらのことから、生成AIは、出力結果としてのテキストの前後の文脈、ユーザの利用環境、特定のキーワード(例:医療指定語や固有名詞)等をプロンプトで予め指示することにより、指示内容を反映した高精度な変換結果又は補完結果を出力することが可能となる。
【0110】
本開示に係るシステムでは、前述のような生成AIの特性を活用する。但し、変換自体は必ずしも生成AIを活用する必要はなく、例えば一般的なプログラムを活用してもよい。一般的なプログラムの一例としては、一般的なルールベースのアルゴリズム、当該アルゴリズムと既存の統計的言語モデルとを組み合わせたハイブリッド型のプログラム等が挙げられる。また、ユーザの要件(性格、属性等)、ユーザの利用環境等に合わせて、複数種類の一般的なプログラムを選択して組み合わせでもよい。これらのうちの何れを活用したとしても、本開示に係るシステムが重視するのは、「時間と質」という二軸のうち、「質」を最優先とする変換である。
【0111】
具体的には、本開示に係るシステムは、以下の(ア)~(カ)のような情報を総合的に取り込み、生成または変換の質を評価する。
【0112】
(ア)ユーザの環境情報
ユーザの環境情報は、ユーザが利用しているデバイスの作動状況、ネットワークの通信状況、ネットワークへのアクセス状況等、ユーザの利用環境に関する情報である。具体的には、例えば、医療現場であれば電子カルテシステムの利用環境に関する情報、ユーザが所属する診療科に関する情報、飲食店であればPOSレジ、オーダー管理システム等の利用環境に関する情報、IT企業をはじめとする各種企業であれば顧客管理(CRM)、在庫管理システム等の利用環境に関する情報が挙げられる。
【0113】
(イ)ユーザの意図に関する情報
ユーザが行おうとしている作業又はタスク(例:カルテへの情報入力、顧客データへのコメント追加、レポート作成等)を通じて、作業等の最終目的及び完了要件を把握する。つまり、ユーザが行おうとしている作業等から把握される当該作業等の最終目的及び完了要件が、ユーザの意図に関する情報の一例となる。そして、本開示に係るシステムは、把握結果に応じた出力を行う。
【0114】
(ウ)ユーザの顧客に関する情報
例えば、医療現場であれば患者、飲食店であれば来店客、各種企業であれば取引先に関する各種の情報が、ユーザの顧客に関する情報に相当する。本開示に係るシステムは、ユーザの顧客に関する情報の中でも、特に、名前、ID情報、嗜好及びアレルギーに関する情報、購買履歴等を活用して、正確な漢字変換及び英数字変換を行う。また、本開示に係るシステムは、特に固有名詞の自動変換において、患者の名前や企業名を誤変換しないよう参照辞書を活用する。
【0115】
(エ)ユーザの嗜好性に関する情報
ユーザの嗜好性に関する情報は、例えば、ユーザの文体及び表記揺れの傾向、ユーザにとっての略語の使用可否等の情報である。本開示に係るシステムは、このようなユーザの嗜好性に関する情報を通じて、例えば医療指定語・医療略語を正しく展開するか、或いは企業名・製品名を原語表記のまま残すか等の設定をプロンプトによって指示する。
【0116】
(オ)ユーザの癖に関する情報
ユーザ特有のフレーズ又は表記ルール、若しくはユーザが普段使い慣れた用語等が入力される場合、例えば、医療従事者がカルテに記入する際、患者氏名に「(サトウ太郎)」のように読み仮名を後ろに付記する癖がある場合、本開示に係るシステムは、そうした癖に基づく表記を自動補完する。
【0117】
(カ)ユーザの次のプロセスに関する情報
本開示に係るシステムは、生成結果又は変換結果の活用内容(テンプレートへの転記、レポート生成、帳票出力、他システムとの連携等)を入力することにより、テンプレート書式に合わせたレイアウト調整、又は既存システムにインポート可能な形式への自動変換等を行う。
【0118】
以上の(ア)~(カ)のような多面的な情報を入力情報とすることで、本開示に係るシステムは、単に単語及び文節を変換するだけでなく、ユーザの様々な実態に適合した質の高い結果を生成することができる。具体的には、本開示に係るシステムは、音声認識の際に顧客の名前を正確な漢字へ変換したり、アルファベットを英数字に置き換えたりする等、ユーザが出力後に手動で修正する手間を最小化する。さらに、本開示に係るシステムは、医療分野における指定語、及び業務フローに関するキーワードもプロンプトを通じて明確に指示することができ、生成AIへの指示の際に不要・不適切な文言が混入することを防止することができる。
【0119】
本開示に係るシステムの最終的な目的は、「ユーザの使用環境」・「ユーザの意図」・「ユーザの顧客」・「ユーザの嗜好性」・「ユーザの癖」・「ユーザの次のプロセス」等、多角的な視点から導き出される情報を活用して、時間効率よりも質を優先した変換を行うことである。これにより、生成又は変換される文章の正確性・妥当性が高まり、ユーザが実際に運用する際の修正負荷を軽減することができる。
【0120】
一方、ステップS550において、制御部203は、記憶部202に格納されている電子カルテテンプレート2024を呼び出す。具体的には、例えば、制御部203は、生成モデル入出力モジュール2035により、記憶部202に格納されている電子カルテテンプレート2024を呼び出す。
【0121】
次いで、ステップS551において、制御部203は、ステップS550で呼び出した電子カルテテンプレート2024から、この電子カルテテンプレート2024に紐付いている医療指定語が入ったテキストを入手する。具体的には、例えば、制御部203は、プロンプト生成モジュール2034により、ステップS550で呼び出した電子カルテテンプレート2024から、この電子カルテテンプレート2024に紐付いている医療指定語が入ったテキストを入手する。
【0122】
次いで、ステップS552において、制御部203は、ステップS503で入手した、発話データ2026に係る患者の病歴、前回受診した際のカルテ情報、前回入院した際の診療サマリー、紹介状のテキスト、及び、ステップS504で取得した漢字変換済音声認識データ2028を入手する。具体的には、例えば、制御部203は、プロンプト生成モジュール2034により、ステップS503で入手した、発話データ2026に係る患者の病歴、前回受診した際のカルテ情報、前回入院した際の診療サマリー、紹介状のテキスト、及び、ステップS504で取得した漢字変換済音声認識データ2028を入手する。
【0123】
次いで、ステップS553において、制御部203は、ステップS551またはステップS552で入手したテキストをプロンプトとして機械学習モデル2040に入力し、この機械学習モデル2040から出力される文書を取得する。具体的には、例えば、制御部203は、プロンプト生成モジュール2034により、ステップS551またはステップS552で入手したテキストをプロンプトとして機械学習モデル2040に入力し、この機械学習モデル2040から出力される文書を取得する。ここで用いる機械学習モデル2040は、ステップS551またはステップS552で入手したテキストを入力とし、入力されたテキストに基づいて電子カルテテンプレート2024に記述可能な文書を出力する機械学習モデル2040である。好ましくは、この機械学習モデル2040の出力には、医療指定語が含まれる。
【0124】
次いで、ステップS554において、制御部203は、ステップS553で機械学習モデル2040から出力された文書に含まれる医療指定語をキーとして、機械学習モデル2040からの出力された文書と電子カルテテンプレート2024とを紐付ける。具体的には、例えば、制御部203は、電子カルテデータ生成モジュール2037により、ステップS553で機械学習モデル2040から出力された文書に含まれる医療指定語をキーとして、機械学習モデル2040からの出力された文書と電子カルテテンプレート2024とを紐付ける。この作業は、発話データ2026、音声認識データ2027及び漢字変換済音声認識データ2028に基づいた、医療指定語をキーとする電子カルテテンプレート2024に記録すべき記録内容を特定する作業に相当する。
【0125】
そして、ステップS555において、制御部203は、ステップS554で特定した記録内容に基づいて電子カルテテンプレート2024の入力/修正/上書き作業を行う。具体的には、例えば、制御部203は、電子カルテデータ生成モジュール2037により、ステップS554で特定した記録内容に基づいて電子カルテテンプレート2024の入力/修正/上書き作業を行う。
【0126】
なお、図5のフローチャートにおけるステップS500~S504の各処理は、医療従事者が音声入力により電子カルテテンプレート2024の入力/修正/追記を行う場合以外にも適用可能である。具体的には、例えば、飲食店の店主又は従業員(ユーザ)が端末装置10を操作する場合、或いはIT企業をはじめとする各種企業の担当者(ユーザ)が端末装置10を操作する場合等にも適用可能である。
【0127】
即ち、ステップS500において、飲食店の店主又は従業員、若しくは各種企業の担当者等の操作者は、自身が操作する端末装置10のスピーカ172に音声入力を行う。この処理以降、S502までの各種処理は、前述の医療従事者が操作者の場合と同様である。
【0128】
次いで、ステップS503において、制御部203は、ステップS504において機械学習モデル2040に入力するプロンプトを、ユーザの顧客の発話データ2026、並びに、ユーザの環境情報、ユーザの顧客に関する情報、及び音声認識データの取得前の文書のうちの少なくとも1つに基づいて生成する。ここで、「顧客」には、例えば、医療現場における患者、飲食店における来店客、および各種企業における取引先等が含まれる。また、ユーザの顧客に関する情報は、例えば、音声認識データ2027の取得前の文書を含む。
【0129】
前述したそれぞれの業界/業種で扱う、ユーザの顧客に関する情報は、例えば以下の通りである。
【0130】
(1)医療現場(顧客:患者)
例えば、来院履歴、治療履歴、前回受診時のカルテ(音声認識データ2027の取得前の文書)の記載内容、前回入院時の診療サマリー(音声認識データ2027の取得前の文書)の記載内容、及び紹介状の記載内容等が挙げられる。特に、患者の名前を正確に漢字変換すること、及び入院履歴と照合するための識別情報(患者ID)を、英数字で扱うことが重要である。ここで、「前回」とは、具体的には、患者の発話データ2026に基づいた音声認識データを取得する前の回の受診/入院を指す。
【0131】
(2)飲食店(顧客:来店客)
例えば、来店履歴、注文履歴、アレルギー又は嗜好に関する情報、レビューコメント、来店客による回答済のアンケート用紙(音声認識データ2027の取得前の文書)の記載内容、及び他店舗からの紹介文の記載内容等が挙げられる。特に、来店客の名前(発音が同じでも異なる漢字表記の可能性あり)を音声認識で、間違いなく、正確に変換することが求められる。ここで、来店客による回答済のアンケート用紙は、具体的には、来店客の発話データ2026に基づく音声認識データを取得する前に得られたものである。
【0132】
(3)各種企業(顧客:取引先)
商談履歴に関する情報、製品/サービスの導入履歴に関する情報、サポート履歴に関する情報、製品に関する問い合わせログ、取引先による回答済のアンケート用紙(音声認識データ2027の取得前の文書)の記載内容、他社からの紹介文のテキスト等が挙げられる。特に、法人名、担当者名が英数字表記又はカタカナ・ローマ字表記になる場合があるため、音声認識の段階で文字種変換又はスペル修正を行う必要がある。ここで、取引先による回答済のアンケート用紙は、具体的には、取引先の発話データ2026に基づく音声認識データを取得する前に得られたものである。
【0133】
具体的には、例えば、プロンプト生成モジュール2034は、ステップS504において機械学習モデル2040に入力するプロンプトを、ユーザの顧客の発話データ2026、並びに、顧客の利用履歴、顧客とのやり取りの要約、前回利用時の各種レポートの記載内容、及び紹介文のテキストの少なくとも1つに基づいて生成する。この際、プロンプト生成モジュール2034は、例えば、顧客を特定するための情報(顧客ID)を用いて、顧客に関する各種情報を取得する。また例えば、プロンプト生成モジュール2034は、プロンプトを生成する際にユーザの環境情報を加味してもよい。更には、発話データ2026、顧客の利用履歴、顧客とのやり取りの要約、前回利用時の各種レポートの記載内容、紹介文のテキスト、及びユーザの環境情報は、プロンプトに組み込まれる態様で機械学習モデル2040に入力されなくてもよく、例えば機械学習モデル2040の説明変数として入力されてもよい。
【0134】
プロンプト生成モジュール2034は、例えば、医療現場であれば、電子カルテテンプレート2024を検索することにより、患者のプロフィール及び来歴、前回受診時のカルテ情報、前回受診時の診療サマリーに関する情報、及び紹介状のテキスト等を入手する。また例えば、飲食店であれば、プロンプト生成モジュール2034は、不図示の顧客データベースを検索することにより、注文履歴、レビュー履歴、及び他店舗からの紹介文のテキスト等を取得する。更には、各種企業であれば、プロンプト生成モジュール2034は、不図示のカスタマー情報データベースを検索することにより、プロフィールの取引先の名称、担当者の名前及び所属部署、商談履歴、問い合わせログ、及び他社からの紹介文のテキスト等を取得する。
【0135】
さらに、音声認識の過程では、顧客(患者、来店客、又は取引先等)の固有名詞の正確な認識・変換が特に重要である。例えば、患者の名前が「佐藤」と発話された場合に、「サトウ」、「sato」等の候補となるテキストが生成された場合、プロンプト生成モジュール2034は、漢字への正しい変換「佐藤」を推定し、必要に応じて患者ID「ID-12345」等の英数字との関連付けを行う。一方で、企業名がローマ字表記又はカタカナで発話される場合等、発話認識システムは当該名前・組織名を正確に変換する必要がある。誤変換や表記ゆれが起こらないように、機械学習モデル2040が参照する辞書情報、テンプレート情報を活用することが推奨される。
【0136】
このように、発話データ2026、及びユーザの顧客に関する情報(患者情報を含む)等を基にプロンプトを生成することで、機械学習モデル2040から出力される対話及び提案内容(即ち、漢字変換済音声認識データ2028)を、当該顧客の状況・属性に合わせて最適化することが可能となる。また、顧客名、顧客ID等の固有情報を正確にテキスト化・管理することにより、修正が少なく、且つ、履歴の照合精度及び追加情報の取得精度を高め、照合誤り及び取得誤りを低減できるという利点がある。
【0137】
次に、ステップS504において、制御部203は、ステップS503で生成したプロンプト、及び、ステップS502で確定した音声認識データ2027を機械学習モデル2040に入力することなく、漢字変換済音声認識データ2028を取得してもよい。
【0138】
具体的には、例えば、生成モデル入出力モジュール2035は、発話データ2026、音声認識データ2027、顧客の利用履歴(ユーザの顧客に関する情報)、顧客とのやり取りの要約(ユーザの顧客に関する情報)、前回利用時の各種レポートの記載内容(音声認識データ2027の取得前の文書)、紹介文のテキスト、又はユーザの環境情報等のうちの少なくとも2つ以上の組み合わせをルールベースのアルゴリズムで解析することにより、漢字変換済音声認識データ2028を取得してもよい。また例えば、生成モデル入出力モジュール2035は、機械学習モデル2040及びルールベースのアルゴリズムの両方を併用して漢字変換済音声認識データ2028を取得してもよい。
【0139】
漢字変換済音声認識データ2028の取得に用いられるルールベースのアルゴリズムとしては、例えば以下の(a)又は(b)のような公知のアルゴリズムが挙げられる。
【0140】
(a)音素の連続データを生成するアルゴリズム
先ず、音声信号を短時間ごとのフレームに分割し、各フレームの音声の特徴量を計算する。音声の特徴量は、例えば、周波数スペクトル、フォルマント周波数、ゼロ交差率等である。次に、算出した音声の特徴量を分析し、特徴量に基づく閾値又はルールを適用して音素の候補を推定する。次に、推定された音素の連続データを生成する。なお、上記の音声信号のフレーム分割および音声の特徴量の抽出には、一般的な信号処理技術(例: フィルタリング、フーリエ変換)を利用する事例が多い。
【0141】
(b)音素列を単語又は文章に変換するアルゴリズム
先ず、音素列を事前定義された単語辞書と比較し、一致する単語候補を抽出する。次に、文法ルール又は構文解析を適用し、候補となる単語列をスコアリングする。文法ルール及び構文解析の例としては、主語-動詞-目的語の文構造、音素接続規則等が挙げられる。次に、スコアリング結果に基づき、最も確からしい単語列または文章を確定する。ここで、文法ルールの適用には、状態遷移モデル(例: 有限状態機械)、又は正規表現を使用することが多い。また、辞書検索及びスコアリングでは、接続確率又は信頼度に基づいたヒューリスティック手法を導入することが多い。
【0142】
このように、ルールベースのアルゴリズムを利用した音声認識処理は、音声の特徴量と文法ルールとを組み合わせて実行される処理であり、機械学習モデル2040を用いない場合の音声認識の実現方法として有用である。
【0143】
以上のことを纏めると、制御部203は、(i)発話データ2026、(ii)ユーザの環境情報、(iii)音声認識データの取得前の文書、(iv)ユーザの顧客に関する情報、又は(v)音声認識データ2027のうちの少なくとも2つ以上の組み合わせを解析することにより、漢字変換済音声認識データ2028を取得すればよい。
【0144】
図6は、サーバ20の動作の一例を表すフローチャートである。図6は、端末装置10の操作者が、サーバ20に格納されている電子カルテテンプレート2024を用いて文書データを生成する際の動作の例を示すフローチャートである。
【0145】
ステップS600において、制御部203は、記憶部202に格納されている電子カルテテンプレート2024を呼び出す。具体的には、例えば、制御部203は、生成モデル入出力モジュール2035により、記憶部202に格納されている電子カルテテンプレート2024を呼び出す。
【0146】
次に、ステップS601において、制御部203は、ステップS600で呼び出した電子カルテテンプレート2024から、過去にこの電子カルテテンプレート2024に入力されたデータを入手する。具体的には、例えば、制御部203は、生成モデル入出力モジュール2035により、ステップS600で呼び出した電子カルテテンプレート2024から、過去にこの電子カルテテンプレート2024に入力されたデータを入手する。
【0147】
一方、ステップS602において、制御部203は、ステップS600で呼び出した電子カルテテンプレート2024から、この電子カルテテンプレート2024に紐付いた医療指定語を含むプロンプトを生成する。具体的には、例えば、制御部203は、プロンプト生成モジュール2034により、ステップS600で呼び出した電子カルテテンプレート2024から、この電子カルテテンプレート2024に紐付いた医療指定語を含むプロンプトを生成する。
【0148】
次に、ステップS603において、制御部203は、ステップS602で生成したプロンプトを機械学習モデル2040に入力し、この機械学習モデル2040から、入力したプロンプトに基づく、フォーム入力機能を持った差し込み文書テンプレート2025の出力を受け入れる。具体的には、例えば、制御部203は、生成モデル入出力モジュール2035により、ステップS602で生成したプロンプトを機械学習モデル2040に入力し、この機械学習モデル2040から、入力したプロンプトに基づく、フォーム入力機能を持った差し込み文書テンプレート2025の出力を受け入れる。ステップS603において機械学習モデル2040が出力する文書テンプレート2025は、上述したように、ステップS602において生成したプロンプトに含まれている医療指定語を衝突困難な文字列として含む文書テンプレート2025である。また、フォーム入力機能を持った差し込み文書テンプレート2025とは、差し込みフィールドと、差し込みフォーム(セレクトボックス、チェックボックス、フリーテキスト欄、プルダウン等で、容易に選択をできるフォーム機能を持ったUI)が差し込まれた文書テンプレート2025である。
【0149】
ステップS604において、制御部203は、ステップS603において生成した差し込み文書テンプレート2025を選択する。具体的には、例えば、制御部203は、提示制御部2036により、ステップS603において生成した差し込み文書テンプレート2025を選択する。
【0150】
なお、差し込み文書の選択に際して、カーソルの部位の周辺に薄い文字等入力候補であることを意味する特殊な表示で表示し、差し込み文書テンプレート候補を表示することも可能である。テンプレートが妥当でない場合は文字を書き始めると消える、もしくは、別のテンプレートに変える指示を出す。その直前のカルテ内容から、テンプレート候補が選択され、上記の入力候補であることを意味する特殊なUI表示されること等もある。
【0151】
次いで、ステップS605において、制御部203は、ステップS604において選択した差し込み文書テンプレート2025に基づいて、文書データを作成する。具体的には、例えば、制御部203は、生成モデル入出力モジュール2035により、ステップS604において選択した差し込み文書テンプレート2025に基づいて、文書データを作成する。
【0152】
次いで、ステップS606において、制御部203は、ステップS605において作成した文書データにおいて、差し込まれた部分をハイライト表示させる。具体的には、例えば、制御部203は、提示制御部2036により、ステップS605において作成した文書データを端末装置10のディスプレイ141に表示させ、この際、差し込まれた部分をそれ以外の部分と識別可能な状態にハイライト表示させる。
【0153】
次いで、ステップS607において、制御部203は、ステップS605において生成した文書データに対して、フォームを入力させる。具体的には、例えば、制御部203は、端末装置10を介して医療従事者がフォームに入力した内容を提示制御部2036により取得し、入力内容を端末装置10のディスプレイ141に表示させる。
【0154】
次いで、ステップS608において、制御部203は、ステップS607においてフォームに入力された内容を確定させる。具体的には、例えば、制御部203は、端末装置10を操作する医療従事者から、端末装置10のディスプレイ141に表示されたフォーム入力内容の確定指示入力を提示制御部2036を介して受け入れ、フォーム入力内容を確定させる。
【0155】
そして、ステップS609において、制御部203は、ステップS608で確定した文書データを機械学習モデル2040に入力し、この機械学習モデル2040から、文章の流暢さを改善した文書データを出力させる。具体的には、例えば、制御部203は、生成モデル入出力モジュール2035により、ステップS608で確定した文書データを機械学習モデル2040に入力し、この機械学習モデル2040から、文章の流暢さを改善した文書データを出力させる。ここにおける機械学習モデル2040は特段の学習を行っていない一般的な大規模言語モデルであってよい。
【0156】
<4 画面例>
以下、端末装置10に出力される画面の一例を、図7図18を参照して説明する。
【0157】
図7は、端末装置10の操作者が行った音声入力に対する音声認識処理の途中経過及び結果が端末装置10のディスプレイ141に表示される画面の一例を示す図である。
【0158】
端末装置10のディスプレイ141の画面700には、端末装置10の操作者が行った音声入力を音声認識処理した途中経過及び結果が表示される領域701が設けられ、この領域701内に、音声認識モジュール2033及び機械学習モデル2040による音声認識処理結果702が表示される。図中の上に示す例では、音声認識モジュール2033は、既に述べたように、音声認識処理結果である音声認識データ2027として、ひらがな、カタカナ、英数字及び句読点が混じったデータであり、好ましくは、これらひらがな、カタカナ、英数字及び句読点の間に空白データが区切り(デリミタ)として挿入されている音声認識データ2027を出力する。従って、図中上の音声認識処理結果702は、ひらがな、カタカナ、英数字及び句読点が混じったデータであり、さらには、これらひらがな、カタカナ、英数字及び句読点の間に空白データが区切り(デリミタ)として挿入されているデータである。音声認識処理結果702はリアルタイムに行われ、ディスプレイ141にもリアルタイムに表示される。
【0159】
プロンプト生成モジュール2034は、電子カルテテンプレート2024から、音声入力に係る患者のデータを取得し、このデータを用いてプロンプトを生成する。一例として、プロンプト生成モジュール2034は、過去のカルテデータから、図中領域703に表示されるようなデータを取得し、生成モデル入出力モジュール2035は、このデータをプロンプトとして機械学習モデル2040に入力する。
【0160】
図中下の音声認識処理結果702は、機械学習モデル2040からの出力である漢字変換済音声認識データ2028である。この漢字変換済音声認識データ2028では、正確な仮名漢字変換が行われていることが理解できる。
【0161】
図8は、電子カルテテンプレート2024に保存されている過去の紹介状自然文を起点として、文書データである他院への紹介状を生成する手順を説明するための図である。
【0162】
まず、プロンプト生成モジュール2034は、電子カルテテンプレート2024を検索し、電子カルテテンプレート2024に含まれる医療情報から、文書データ作成に適した医療情報を取得する。図示例では、前の医療現場の紹介状(自然文)である。
【0163】
次いで、プロンプト生成モジュール2034は、機械学習モデル2040が、医学指定語等の項目名と値が、助詞、記号等で区切られる形に変換された文書テンプレート2025を生成するプロンプトを設計し、次いで、生成モデル入出力モジュール2035は、プロンプト生成モジュール2034が設計し、出力したプロンプトを機械学習モデル2040に入力し、この機械学習モデル2040から、医学指定語等の項目名と値が、助詞、記号等で区切られる形に変換された文書テンプレート2025を出力させる。
【0164】
文書テンプレート2025は、自然文を医学指定語と助詞等の記号を認知しテーブル情報に構造化したものである。あるいは、機械学習モデル2040からの出力が自然文であった場合、提示制御部2036は、自然文を医学指定語と助詞等の記号を認知しテーブル情報に構造化したものに変換する
端末装置10を操作する医療従事者が紹介状を生成する際、端末装置10のディスプレイ141には図8に示すようなテーブル構造化された文書テンプレート2025が表示されるので、医療従事者は、紹介状に出力すべき項目の選択入力を行う。
【0165】
一方、プロンプト生成モジュール2034は、医療指定語を含み、所望の文書テンプレート2025を機械学習モデル2040に出力させるためのプロンプトを生成する。このプロンプトは、医療指定語を衝突困難な記号として含むものである。生成モデル入出力モジュール2035は、プロンプト生成モジュール2034が生成したプロンプトを機械学習モデル2040に入力し、この機械学習モデル2040から、医療指定語を衝突困難な記号として含む差し込み文書テンプレート2025を出力させる。
【0166】
その後、生成モデル入出力モジュール2035は、医療指定語をキーとして電子カルテテンプレート2024の入力内容を差し込むことで、文書データである紹介状を生成する。
【0167】
図9は、差し込み文書テンプレート2025における差し込みテンプレートフィールド機能に対応するテキスト表現と差し込みフォーム機能に対応するテキスト表現の一例を示す図である。
【0168】
図10は、音声認識モジュール2033から出力される音声認識データ2027を生成モデル入出力モジュール2035が機械学習モデル2040に入力して漢字変換済音声認識データ2028を得る際の、プロンプト生成モジュール2034が生成するプロンプトの一例を示す図である。
【0169】
図11は、端末装置10のディスプレイ141に表示される画面の一例を示す図である。図中、電子カルテテンプレート2024に反映する、つまり入力等を行う内容(図中左側)と音声認識処理結果(図中右側)とが表示されている。音声認識処理結果の画面には、音声入力に基づく漢字変換候補を表示するための画面が重畳表示されている。
【0170】
図12は、端末装置10の操作者が、電子カルテテンプレート2024の入力作業をする際に、端末装置10のディスプレイ141に表示される画面の一例を示す図である。
【0171】
端末装置10のディスプレイ141の画面1200の左側には、サーバ20の記憶部202に格納されている電子カルテテンプレート2024の入力項目及び操作者からの発話データ2026に基づく音声認識処理の結果、特定された入力内容を示す画面1201が表示され、また、ディスプレイ141の画面1200の右側上部には、音声入力のガイダンス画面1202が表示され、画面1200の右側下部には、発話データ2026に基づく音声入力結果を表示する画面1203が表示されている。さらに、画面1200の下部には、発話データ2026の録音開始及び発話データ2026の保存を指示するためのボタン1205、1206が表示されている。
【0172】
端末装置10の操作者は、入力装置13によりこれらボタン1205、1206をクリックする等の操作入力をすることで、発話データ2026の録音開始指示または発話データ2026の保存指示をする。
【0173】
図13は、図12に示す画面1201の詳細を示す図である。画面1300(1201)は、既に説明したように、電子カルテテンプレート2024の入力項目及び操作者からの発話データ2026に基づく音声認識処理の結果、特定された入力内容を示す画面である。
【0174】
端末装置10のディスプレイ141に表示されている画面1300には、電子カルテテンプレート2024の入力項目1301及びこの入力項目1301に関連付けられた入力内容1302が表示されている。入力項目1301には、この入力項目1301を識別するための数字列1303も表示されている。音声認識モジュール2033の音声認識処理に伴い、入力内容1302には音声入力結果が順次入力される。また、電子カルテテンプレート2024の入力内容1302には既に入力された事項があり、音声入力は既入力事項に対する追記/修正のために行われている。図13に示すように、既入力事項は「修正なし」として特定の色で表示され、音声入力により追記/修正がされたものについては、既入力事項とは異なる色で表示されている。
【0175】
図14は、図12に示す画面1202の詳細を示す図である。画面1400(1202)は、既に説明したように、音声入力のガイダンス画面である。
【0176】
端末装置10のディスプレイ141の画面1400には、電子カルテテンプレート2024の入力項目であり医療指定語を含む入力項目1401と、この入力項目1401に対して入力すべき入力内容の例示1402が表示されている。また、電子カルテテンプレート2024に既入力事項がある場合は、例示1402の箇所に既入力事項が表示されている。
【0177】
図15は、図12に示す画面1200を用いて端末装置10の操作者が音声入力を行っている際に、画面1200にポップアップ表示される漢字変換候補例を表示する画面を示す図である。
【0178】
端末装置10のディスプレイ141の画面1500には、発話データ2026に基づいて音声認識モジュール2033が漢字変換を行った際の平仮名表記1501及び変換候補例1502が表示されている。端末装置10の操作者は、入力装置13を用いて変換候補例1502のいずれかを選択することで、漢字変換を確定させる。
【0179】
図16は、電子カルテテンプレートのインポートにあたって他の医療機関から提供された電子カルテテンプレートデータの一例を示す図である。電子カルテテンプレートデータの構成は図13に示すものと同様であるので詳細な説明は割愛する。電子カルテテンプレートデータであるので、プロフィール情報まで含まれている。
【0180】
図17は、電子カルテテンプレートデータに基づいてサーバ20が生成する紹介状文章の生成手順を説明するための図である。
【0181】
図17の上段には、特定の患者についての電子カルテテンプレートデータ(入力内容)の一覧が表示されている。サーバ20の操作者は、これら入力内容の一覧から、紹介状文章の生成のために必要な入力内容及び不要な入力内容を選定する(スクリプトに必要/不要)。
【0182】
入力内容の選定が終わると、サーバ20は、大規模言語モデル(機械学習モデル2040)の文章生成タスクに投入すべきスクリプトを生成する。生成されたスクリプトは図17の中段に表示されている。この際、既に説明したように、文章生成タスクによる文章生成の際に、正確な文章生成がされているかを確認するために、一部の数値(図示例では採血結果を示す検査結果の数値)をダミーに置き換えている。
【0183】
スクリプトを大規模言語モデルの文章生成タスクに投入した結果を図17の下段に示す。
【0184】
図18は、図17に示す紹介状文章の生成手順において、音声認識モジュール2033及び機械学習モデル2040による文字列置換を行った例を示す図である。
【0185】
<5 一実施形態の効果>
以上詳細に説明したように、本実施形態のシステム1によれば、入力された電子カルテといった医療行為の記録内容を簡易な手順により追記/修正することができる。この点について以下、詳細に説明する。
【0186】
医療業界はミスが許されない業界である。そして、医療業界では、テンプレートによる構造化データのニーズがとても高い。構造化データは、医療エラーを減らすことができる。電子カルテのテンプレートにより、業務フローを統一することが可能である。
【0187】
しかしながら、構造化データを電子カルテに入力することはとても手間のかかることである。例えば、ある医療施設の入退院支援センターでは、大体6ページにわたる入力内容があり、その内容をどこの項目に入力するのかを指示し、そこに入力することは、1患者当たり20分程度かかっていた。本実施形態に係るシステム1によれば、この業務を5分程度に減らすことができた。
【0188】
今まで、音声認識を用いて、構造化データを入れることが現場で利用されていなかった理由は、3つの理由である。一つは音声認識の精度が十分ではない事、二つめは音声認識よりも入力が簡単な方法があったからで、三つ目は間違いを修正することが困難であること、である。
【0189】
本実施形態に係るシステム1では、この一つ目の問題である音声認識の精度の問題は、利用シーンを制限し、同時にテンプレートの入力項目名と、この入力項目に係る入力内容の候補を表示し、入力される音声のパターンを絞ることで解消した。本開示に係るシステム1では、音声認識に伴うWER(Word Error Rate)が6%から2%程度に下がる。
【0190】
二つ目の問題は、音声認識よりも、簡単な入力である、選択肢問題による入力を音声認識の前に行い、その結果を表示することで、その入力では不十分な部分を、音声認識で修正または追記することで解消した。
【0191】
三つ目の間違いを修正することが困難である問題は、入力後に、他の候補を表示し、他の候補を選択できるようにすることと、どのような音声をもとにこの入力がされたのかを確認することを容易にすることで解消している。
【0192】
特に、本実施形態のシステム1では、選択肢形式の入力内容には医療指定語が大抵の場合含まれるので、この医療指定語をキーとして音声認識処理を行い、少なくとも選択肢形式の入力内容の特定を行っているので、音声認識の精度をより向上させることができる。
【0193】
<6 変形例>
なお、上記した実施形態は本開示を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施形態の構成の一部について、他の構成に追加、削除、置換することが可能である。
【0194】
一例として、上述した一実施形態のシステム1では、機械学習モデル2040がサーバ20内にあったが、例えば図1に示す外部サーバ40内にあってもよい。
【0195】
また、上述した一実施形態のシステム1では、電子カルテテンプレート2024への入力/追記/上書き作業等のために、音声認識処理及び機械学習モデルを用いて発話データの正確な仮名漢字変換を行っていたが、音声認識処理及び機械学習モデルを用いて発話データの正確な仮名漢字変換を行う対象は電子カルテテンプレート2024の内容に限定されず、さらには、音声認識処理を経ることなく、ユーザが端末装置10の入力装置13等を用いて入力したテキストデータに対して機械学習モデルを用いて正確な仮名漢字変換を行ってもよい。
【0196】
また、上述した一実施形態のシステム1では、端末装置10を操作するユーザが発話データの入出力のタイミングを自ら入力指示していたが、サーバ20等が、ユーザが入力したテキストデータに含まれる句読点、改行コード、テキストデータの文字数、及び、ユーザによる入力作業の所定時間の中断の少なくとも1つに基づいて自律的に判断してもよい。
【0197】
テキスト入力を起点とする電子カルテテンプレート2024の入力内容特定動作のフローチャートを図19に示す。キーボードからテキストを入力した際に、「入力がきちんとされていることを示すテキスト」をリアルタイムの表示を行う。その後、テキスト入力の終了を、句読点の入力、改行の入力、数秒間入力がないことの入力等の何らかのシグナルをもとに判断し、生成AIに「キーボードからの入力されたテキスト」をプロンプトに入力し、誤字脱字修正や漢字変換を行う。また、その際に電子カルテの情報、周辺情報をプロンプトに追記することで、精度を上げることである。
【0198】
図19のフローチャートに示す動作は、図5のフローチャートに示す動作と略同一である部分があるので、略同一である部分についての説明は省略する。
【0199】
ステップS1900において、端末装置10のユーザは、キーボード131の操作により、入力装置13を介してテキストデータを入力する。以降のステップS1901~S1955の動作は、図5のステップS501~S555と同様である。
【0200】
なお、ステップS1903において、制御部203は、機械学習モデル2040に入力するプロンプトを、入力装置13から入力されたテキストデータに基づいて生成する。具体的には、例えば、制御部203は、プロンプト生成モジュール2034により、前述のテキストデータに対して誤字脱字修正、又は医療用語を含む適切な漢字変換等を施す。これにより、制御部203は、前述のテキストデータを高精度に修正して、機械学習モデル2040に入力するプロンプトを生成する。また、制御部203は、プロンプト生成モジュール2034により、必要に応じて、電子カルテテンプレート2024に含まれる患者情報、病名リスト、医療用語が記載された辞書のデータ、医療用語リスト等をプロンプトの内容に反映させる。これにより、更に正確な変換結果が得られる。
【0201】
そして、ステップS1904において、制御部203は、機械学習モデル2040から取得した漢字変換済音声認識データ2028を、サーバ20が備える不図示の表示装置に表示させる。これにより、ユーザは、表示装置を通じて変換結果(漢字変換済音声認識データ2028)を確認することができるだけでなく、必要に応じて変換結果を手動で編集等することもできる。一方、制御部203は、変換結果に問題がない旨の情報を受け付けることで変換結果を確定し、確定した変換結果を電子カルテテンプレート2024に反映させる。
【0202】
以上により、キーボード131からの単純なテキスト入力であっても、句読点、改行、入力の途切れ等をトリガとして、生成AI(機械学習モデル2040)による誤字脱字の補正及び漢字変換が自動的に実行される。また、電子カルテに既に蓄積された患者情報及び病名リスト(以上、電子カルテの情報)、並びに、医療用語が記載された辞書のデータ、及び医療用語リスト(以上、周辺情報)等をプロンプトに反映させることで、より文脈に即した高精度な変換を実現することができる。これにより、医療現場での入力ミス及び表記揺れが抑制され、カルテの信頼性及び作成効率が向上する。
【0203】
また、機械学習モデル2040に入力する情報として、端末装置10を所有する医療従事者が所属する診療科を含めてもよい。また、診療科に関する情報も用いて機械学習モデル2040の学習を行ってもよい。
【0204】
さらに、上述した一実施形態のプロンプト生成モジュール2034が生成するプロンプトの内容を、プロンプトとしてではなく、生成モデル入出力モジュール2035が機械学習モデル2040に入力してもよい。機械学習モデル2040が例えば大規模言語モデルであれば、プロンプトによらずとも所望の結果に近い出力を得ることができる。但し、所望の結果が出力されなかった場合、同様の入力を機械学習モデル2040に繰り返し行い、漸次所望の結果に近い出力を得ることが好ましい。
【0205】
さらに、音声認識モジュール2033による音声認識処理に先立って、端末装置10を操作する医療従事者が電子カルテテンプレート2024を開いて、発話データ2026に係る患者の医療情報を閲覧している場合、プロンプト生成モジュール2034は、各々の端末装置10においてどの患者の電子カルテテンプレート2024が閲覧されているかを監視し、音声認識モジュール2033による音声認識処理が開始したら、この患者を特定するための情報を用いて電子カルテテンプレート2024を検索し、患者の医療情報を予め入手しておくこともできる。この患者の医療情報は、機械学習モデル2040による音声認識処理に利用される。
【0206】
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROM等が用いられる。
【0207】
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
【0208】
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
【0209】
<7 付記>
以上の各実施形態で説明した事項を以下に付記する。
【0210】
(付記1)
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プログラムは、プロセッサに、ユーザから、情報の入力を受け付ける第1ステップと、第1ステップにおいて入力されている情報をユーザに提示する第2ステップと、第1ステップで受け付けている情報のユーザによる入力の終了を判断する第3ステップと、第3ステップにより入力の終了が判定されるまでに第1ステップにおいて受け付けた情報を機械学習モデルに入力するとともに、環境情報及び情報を機械学習モデルに入力し、機械学習モデルに、入力した情報に対応する漢字変換済音声認識データを出力させる第4ステップと、第4ステップの出力である漢字変換済音声認識データをユーザに提示する第5ステップとを実行させる、プログラム。
【0211】
(付記2)
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プログラムは、プロセッサに、ユーザから、ユーザの顧客に関する情報の入力を受け付ける第1ステップと、第1ステップにおいて入力されている情報をユーザに提示する第2ステップと、第1ステップで受け付けている情報のユーザによる入力の終了を、情報に含まれる句読点、改行コード、情報の文字数、及び、ユーザによる入力の所定時間の中断の少なくとも1つに基づいて判断する第6ステップと、第6ステップにより入力の終了が判定されるまでに第1ステップにおいて受け付けた情報を機械学習モデルに入力するとともに、環境情報及び顧客に関する情報をプロンプトとして機械学習モデルに入力し、機械学習モデルに、入力した情報に対応する漢字変換済音声認識データを出力させる第4ステップと、第4ステップの出力である漢字変換済音声認識データをユーザに提示する第5ステップとを実行させる、プログラム。
【0212】
(付記3)
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プログラムは、プロセッサに、ユーザから、ユーザの顧客に関する発話データの入力を受け付ける第7ステップと、第7ステップで受け付けた発話データを音声認識して音声認識データを取得する第8ステップと、第8ステップにおいて取得された音声認識データをユーザに提示する第9ステップと、第7ステップで受け付けている発話データのユーザによる入力の終了を、音声認識データに含まれる句読点、改行コード、情報の文字数、及び、ユーザによる入力の所定時間の中断の少なくとも1つに基づいて判断する第10ステップと、第10ステップにより入力の終了が判定されるまでに第8ステップにおいて取得した音声認識データを機械学習モデルに入力するとともに、環境情報及び顧客に関する情報をプロンプトとして機械学習モデルに入力し、機械学習モデルに、入力した情報に対応する漢字変換済音声認識データを出力させる第11ステップと、第11ステップの出力である漢字変換済音声認識データをユーザに提示する第12ステップとを実行させる、プログラム。
【0213】
(付記4)
ユーザは医療従事者であり、顧客はユーザが診療を担当している患者である、付記2または3に記載のプログラム。
【0214】
(付記5)
ユーザは医療従事者であり、環境情報はユーザが所属する診療科に関する情報である。付記1~3のいずれかに記載のプログラム。
【0215】
(付記6)
ユーザの顧客に関する情報は、顧客が直近に受診した際のカルテ情報及び/または診療サマリーである、付記4に記載のプログラム。
【0216】
(付記7)
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プログラムは、プロセッサに、ユーザから、発話データの入力を受け付ける第13ステップと、第13ステップで受け付けた発話データを音声認識して音声認識データを取得する第14ステップと、第14ステップで取得した音声認識データを機械学習モデルに入力し、この機械学習モデルに、入力した音声認識データに対応する漢字変換済音声認識データを出力させる第15ステップと、第15ステップの出力である漢字変換済音声認識データをユーザに提示する第16ステップとを実行させる、プログラム。
【0217】
(付記8)
メモリには電子カルテテンプレートの構造化データが格納されており、構造化データは、電子カルテテンプレートの入力項目と入力内容とが関連付けられたデータであり、入力内容には患者を特定するための情報が紐付けられており、第15ステップにおいて、患者を特定するための情報を用いて電子カルテテンプレートを検索して、入力内容である、直近で患者が受診または入院した際の入力内容を取得し、音声認識データを機械学習モデルに入力するとともに、直近で患者が受診または入院した際の入力内容をプロンプトとして機械学習モデルに入力する付記7に記載のプログラム。
【0218】
(付記9)
メモリには電子カルテテンプレートの構造化データが格納されており、構造化データは、電子カルテテンプレートの入力項目と入力内容とが関連付けられたデータであり、入力内容には患者を特定するための情報が紐付けられており、プログラムは、プロセッサに、さらに、第13ステップに先立って、発話データに係る患者に紐付けられた電子カルテテンプレートの構造化データの閲覧を受け入れる第24ステップを実行させ、第13ステップにおいて、電子カルテテンプレートの構造化データの閲覧を受け入れている患者を特定するための情報を用いて電子カルテテンプレートを検索して、入力内容である、直近で患者が受診または入院した際の入力内容を取得し、第15ステップにおいて、音声認識データを機械学習モデルに入力するとともに、直近で患者が受診または入院した際の入力内容をプロンプトとして機械学習モデルに入力する付記7に記載のプログラム。
【0219】
(付記10)
メモリには電子カルテテンプレートの構造化データが格納されており、構造化データは、電子カルテテンプレートの入力項目と入力内容とが関連付けられたデータであり、入力項目には医療指定語が含まれ、発話データには、医療指定語が含まれ、プログラムは、プロセッサに、さらに、発話データ中に含まれる医療指定語に基づいて、電子カルテテンプレートに記録すべき記録内容を特定する第17ステップを実行させる、付記7記載のプログラム。
【0220】
(付記11)
発話データは、特定の患者に対するものであり、第15ステップにおいて、音声認識データを機械学習モデルに入力するとともに、特定の患者の電子カルテテンプレートをプロンプトとして機械学習モデルに入力する、付記10に記載のプログラム。
【0221】
(付記12)
発話データは、特定の患者に対するものであり、メモリには、特定の患者の病歴が格納されており、第15ステップにおいて、音声認識データを機械学習モデルに入力するとともに、特定の患者の病歴をプロンプトとして機械学習モデルに入力する、付記7に記載のプログラム。
【0222】
(付記13)
プログラムは、プロセッサに、さらに、第17ステップにおいて特定した記録内容を含む電子カルテテンプレートをユーザに提示する第18ステップを実行し、さらに、第18ステップにおいて、特定した記録内容と、記録内容以外の電子カルテテンプレートとの提示態様を変更させて提示する付記10に記載のプログラム。
【0223】
(付記14)
電子カルテテンプレートの構造化データにおいて、入力内容は、選択肢を選択する選択式入力内容を含み、第17ステップにおいて、電子カルテテンプレートの入力内容のうち少なくとも選択式入力内容に基づいて、電子カルテテンプレートに記録すべき記録内容を特定する付記10に記載のプログラム。
【0224】
(付記15)
第14ステップにおいて、音声認識データは、それぞれのひらがな、カタカナ、英数字及び句読点の間に空白データが挿入されている付記7に記載のプログラム。
【0225】
(付記16)
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、メモリには電子カルテテンプレートの構造化データが格納されており、構造化データは、電子カルテテンプレートの入力項目と入力内容とが関連付けられたデータであり、入力項目には医療指定語が含まれ、さらに、メモリには、医療指定語を入力として、この医療指定語を衝突困難な文字列として含む文書テンプレートを出力する機械学習モデルが格納されており、プログラムは、プロセッサに、メモリから電子カルテテンプレートの構造化データを取得する第19ステップと、第19ステップで取得した電子カルテテンプレートの構造化データに含まれる医療指定語を機械学習モデルに入力し、この医療指定語を衝突困難な文字列として含む文書テンプレートを出力させる第20ステップと、電子カルテテンプレートの構造化データのうち、特定の患者に係る電子カルテテンプレートの構造化データを取得する第21ステップと、第20ステップで出力させた文書テンプレートに、特定の患者に係る電子カルテテンプレートの構造化データに含まれる医療指定語をキーとして構造化データを挿入して文書データを生成する第22ステップとを実行させる、プログラム。
【0226】
(付記17)
プログラムは、プロセッサに、さらに、第22ステップにおいて生成した文書データをユーザに提示する第23ステップ
を実行させる、付記16に記載のプログラム。
【0227】
(付記18)
第23ステップにおいて、文書テンプレートに挿入した構造化データと、文書テンプレートに挿入した構造化データ以外の文書データとの提示態様を変更させて提示する付記17に記載のプログラム。
【0228】
(付記19)
第23ステップにおいて、文書テンプレートに挿入した構造化データの入力項目とこの入力項目に対応する入力内容とを対にして提示する付記18に記載のプログラム。
【0229】
(付記20)
第23ステップにおいて、対にして提示した、文書テンプレートに挿入した構造化データの入力項目とこの入力項目に対応する入力内容のうち、文書データに挿入すべき入力項目とこの入力項目に対応する入力内容の選択入力を受け入れ、プログラムは、プロセッサに、さらに、選択入力を受け入れた入力項目とこの入力項目に対応する入力内容を文書データに挿入する第24ステップを実行させる、付記19に記載のプログラム。
【0230】
(付記21)
文書テンプレートは、診療サマリー、紹介状、製薬企業へのレポートのテンプレートの少なくとも1つを含む、付記16記載のプログラム。
【0231】
(付記22)
プロセッサとメモリとを備えた情報処理装置であって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プロセッサは、ユーザから、情報の入力を受け付ける第1ステップと、第1ステップにおいて入力されている情報をユーザに提示する第2ステップと、第1ステップで受け付けている情報のユーザによる入力の終了を判断する第3ステップと、第3ステップにより入力の終了が判定されるまでに第1ステップにおいて受け付けた情報を機械学習モデルに入力するとともに、環境情報及び情報を機械学習モデルに入力し、機械学習モデルに、入力した情報に対応する漢字変換済音声認識データを出力させる第4ステップと、第4ステップの出力である漢字変換済音声認識データをユーザに提示する第5ステップとを実行する、情報処理装置。
【0232】
(付記23)
プロセッサとメモリとを備えた情報処理装置であって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プロセッサは、ユーザから、ユーザの顧客に関する情報の入力を受け付ける第1ステップと、第1ステップにおいて入力されている情報をユーザに提示する第2ステップと、第1ステップで受け付けている情報のユーザによる入力の終了を、情報に含まれる句読点、改行コード、情報の文字数、及び、ユーザによる入力の所定時間の中断の少なくとも1つに基づいて判断する第6ステップと、第6ステップにより入力の終了が判定されるまでに第1ステップにおいて受け付けた情報を機械学習モデルに入力するとともに、環境情報及び顧客に関する情報をプロンプトとして機械学習モデルに入力し、機械学習モデルに、入力した情報に対応する漢字変換済音声認識データを出力させる第4ステップと、第4ステップの出力である漢字変換済音声認識データをユーザに提示する第5ステップとを実行する、情報処理装置。
【0233】
(付記24)
プロセッサとメモリとを備えた情報処理装置であって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プロセッサは、ユーザから、ユーザの顧客に関する発話データの入力を受け付ける第7ステップと、第7ステップで受け付けた発話データを音声認識して音声認識データを取得する第8ステップと、第8ステップにおいて取得された音声認識データをユーザに提示する第9ステップと、第7ステップで受け付けている発話データのユーザによる入力の終了を、音声認識データに含まれる句読点、改行コード、情報の文字数、及び、ユーザによる入力の所定時間の中断の少なくとも1つに基づいて判断する第10ステップと、第10ステップにより入力の終了が判定されるまでに第8ステップにおいて取得した音声認識データを機械学習モデルに入力するとともに、環境情報及び顧客に関する情報をプロンプトとして機械学習モデルに入力し、機械学習モデルに、入力した情報に対応する漢字変換済音声認識データを出力させる第11ステップと、第11ステップの出力である漢字変換済音声認識データをユーザに提示する第12ステップとを実行する、情報処理装置。
【0234】
(付記25)
プロセッサとメモリとを備えた情報処理装置であって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プロセッサは、ユーザから、発話データの入力を受け付ける第13ステップと、第13ステップで受け付けた発話データを音声認識して音声認識データを取得する第14ステップと、第14ステップで取得した音声認識データを機械学習モデルに入力し、この機械学習モデルに、入力した音声認識データに対応する漢字変換済音声認識データを出力させる第15ステップと、第15ステップの出力である漢字変換済音声認識データをユーザに提示する第16ステップとを実行する、情報処理装置。
【0235】
(付記26)
プロセッサとメモリとを備えた情報処理装置であって、メモリには電子カルテテンプレートの構造化データが格納されており、構造化データは、電子カルテテンプレートの入力項目と入力内容とが関連付けられたデータであり、入力項目には医療指定語が含まれ、さらに、メモリには、医療指定語を入力として、この医療指定語を衝突困難な文字列として含む文書テンプレートを出力する機械学習モデルが格納されており、プロセッサは、メモリから電子カルテテンプレートの構造化データを取得する第19ステップと、第19ステップで取得した電子カルテテンプレートの構造化データに含まれる医療指定語を機械学習モデルに入力し、この医療指定語を衝突困難な文字列として含む文書テンプレートを出力させる第20ステップと、電子カルテテンプレートの構造化データのうち、特定の患者に係る電子カルテテンプレートの構造化データを取得する第21ステップと、第20ステップで出力させた文書テンプレートに、特定の患者に係る電子カルテテンプレートの構造化データに含まれる医療指定語をキーとして構造化データを挿入して文書データを生成する第22ステップとを実行する、情報処理装置。
【0236】
(付記27)
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プロセッサは、ユーザから、情報の入力を受け付ける第1ステップと、第1ステップにおいて入力されている情報をユーザに提示する第2ステップと、第1ステップで受け付けている情報のユーザによる入力の終了を判断する第3ステップと、第3ステップにより入力の終了が判定されるまでに第1ステップにおいて受け付けた情報を機械学習モデルに入力するとともに、環境情報及び情報を機械学習モデルに入力し、機械学習モデルに、入力した情報に対応する漢字変換済音声認識データを出力させる第4ステップと、第4ステップの出力である漢字変換済音声認識データをユーザに提示する第5ステップとを実行する、方法。
【0237】
(付記28)
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プロセッサは、ユーザから、ユーザの顧客に関する情報の入力を受け付ける第1ステップと、第1ステップにおいて入力されている情報をユーザに提示する第2ステップと、第1ステップで受け付けている情報のユーザによる入力の終了を、情報に含まれる句読点、改行コード、情報の文字数、及び、ユーザによる入力の所定時間の中断の少なくとも1つに基づいて判断する第6ステップと、第6ステップにより入力の終了が判定されるまでに第1ステップにおいて受け付けた情報を機械学習モデルに入力するとともに、環境情報及び顧客に関する情報をプロンプトとして機械学習モデルに入力し、機械学習モデルに、入力した情報に対応する漢字変換済音声認識データを出力させる第4ステップと、第4ステップの出力である漢字変換済音声認識データをユーザに提示する第5ステップとを実行する、方法。
【0238】
(付記29)
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プロセッサは、ユーザから、ユーザの顧客に関する発話データの入力を受け付ける第7ステップと、第7ステップで受け付けた発話データを音声認識して音声認識データを取得する第8ステップと、第8ステップにおいて取得された音声認識データをユーザに提示する第9ステップと、第7ステップで受け付けている発話データのユーザによる入力の終了を、音声認識データに含まれる句読点、改行コード、情報の文字数、及び、ユーザによる入力の所定時間の中断の少なくとも1つに基づいて判断する第10ステップと、第10ステップにより入力の終了が判定されるまでに第8ステップにおいて取得した音声認識データを機械学習モデルに入力するとともに、環境情報及び顧客に関する情報をプロンプトとして機械学習モデルに入力し、機械学習モデルに、入力した情報に対応する漢字変換済音声認識データを出力させる第11ステップと、第11ステップの出力である漢字変換済音声認識データをユーザに提示する第12ステップとを実行する、方法。
【0239】
(付記30)
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、メモリには、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを入力として、音声認識データに対して仮名漢字変換を行った漢字変換済音声認識データを出力する機械学習モデルが格納されており、プロセッサは、ユーザから、発話データの入力を受け付ける第13ステップと、第13ステップで受け付けた発話データを音声認識して音声認識データを取得する第14ステップと、第14ステップで取得した音声認識データを機械学習モデルに入力し、この機械学習モデルに、入力した音声認識データに対応する漢字変換済音声認識データを出力させる第15ステップと、第15ステップの出力である漢字変換済音声認識データをユーザに提示する第16ステップと
を実行する、方法。
【0240】
(付記31)
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、メモリには電子カルテテンプレートの構造化データが格納されており、構造化データは、電子カルテテンプレートの入力項目と入力内容とが関連付けられたデータであり、入力項目には医療指定語が含まれ、さらに、メモリには、医療指定語を入力として、この医療指定語を衝突困難な文字列として含む文書テンプレートを出力する機械学習モデルが格納されており、プロセッサは、メモリから電子カルテテンプレートの構造化データを取得する第19ステップと、第19ステップで取得した電子カルテテンプレートの構造化データに含まれる医療指定語を機械学習モデルに入力し、この医療指定語を衝突困難な文字列として含む文書テンプレートを出力させる第20ステップと、電子カルテテンプレートの構造化データのうち、特定の患者に係る電子カルテテンプレートの構造化データを取得する第21ステップと、第20ステップで出力させた文書テンプレートに、特定の患者に係る電子カルテテンプレートの構造化データに含まれる医療指定語をキーとして構造化データを挿入して文書データを生成する第22ステップと
を実行する、方法。
【符号の説明】
【0241】
1…電子カルテシステム、10…端末装置、20…サーバ、25…メモリ、26…ストレージ、29…プロセッサ、201…通信部、202…記憶部、203…制御部、2021…アプリケーションプログラム、2023…電子カルテデータ、2024…電子カルテテンプレート、2025…文書テンプレート、2026…発話データ、2027…音声認識データ、2028…漢字変換済音声認識データ、2029…教師データ、2031…受信制御モジュール、2032…送信制御モジュール、2033…音声認識モジュール、2034…プロンプト生成モジュール、2035…生成モデル入出力モジュール、2036…提示制御部、2037…電子カルテデータ生成モジュール、2040…機械学習モデル、2041…医療指定語データ、2022…電子カルテDB
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
【手続補正書】
【提出日】2025-06-17
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、
前記プログラムは、前記プロセッサに、
ユーザから、発話データの入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記発話データを音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第2ステップと、
前記第1ステップで受け付けている前記発話データの前記ユーザによる入力の終了を判断する第3ステップと
記音声認識データの取得前の文書、及び前記音声認識データを解析することにより、前記音声認識データに対してテキスト補正処理を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行させる、プログラム。
【請求項2】
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、
前記プログラムは、前記プロセッサに、
ユーザから、前記ユーザの顧客に関する情報の入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記ユーザの顧客に関する情報を音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第2ステップと、
前記第1ステップで受け付けている前記ユーザの顧客に関する情報の前記ユーザによる入力の終了を、前記ユーザの顧客に関する情報に含まれる句読点、改行コード、前記ユーザの顧客に関する情報の文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第6ステップと
記音声認識データの取得前の文書、及び前記音声認識データを解析することにより、前記音声認識データに対してテキスト補正処理を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行させる、プログラム。
【請求項3】
プロセッサとメモリとを備えるコンピュータを動作させるためのプログラムであって、
前記プログラムは、前記プロセッサに、
ユーザから、前記ユーザの顧客に関する発話データの入力を受け付ける第7ステップと、
前記第7ステップで受け付けた前記発話データを音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第8ステップと
記第7ステップで受け付けている前記発話データの前記ユーザによる入力の終了を、前記音声認識データに含まれる句読点、改行コード、前記音声認識データの文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第ステップと、
前記第ステップにより入力の終了が判定されるまでに前記第8ステップにおいて取得した前記音声認識データ及び前記音声認識データの取得前の文書を解析することにより、前記音声認識データに対してテキスト補正処理を行った変換済音声認識データを取得する第10ステップと、
前記第10ステップで取得した前記変換済音声認識データを前記ユーザに提示する第11ステップとを実行させる、プログラム。
【請求項4】
前記ユーザは医療従事者であり、前記顧客は前記ユーザが診療を担当している患者である、請求項2または3に記載のプログラム。
【請求項5】
前記ユーザは医療従事者であり、前記顧客は前記ユーザが診療を担当している患者であり、
前記ユーザの顧客に関する情報は、前記患者が前回受診した際のカルテ情報及び/または診療サマリーである、請求項に記載のプログラム。
【請求項6】
プロセッサとメモリとを備えた情報処理装置であって、
前記プロセッサは、
ユーザから、発話データの入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記発話データを音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第2ステップと、
前記第1ステップで受け付けている前記発話データの前記ユーザによる入力の終了を判断する第3ステップと
記音声認識データの取得前の文書、及び前記音声認識データを解析することにより、前記音声認識データに対してテキスト補正処理を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行する、情報処理装置。
【請求項7】
プロセッサとメモリとを備えた情報処理装置であって、
前記プロセッサは、
ユーザから、前記ユーザの顧客に関する情報の入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記ユーザの顧客に関する情報を音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第2ステップと、
前記第1ステップで受け付けている前記ユーザの顧客に関する情報の前記ユーザによる入力の終了を、前記ユーザの顧客に関する情報に含まれる句読点、改行コード、前記ユーザの顧客に関する情報の文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第6ステップと
記音声認識データの取得前の文書、及び前記音声認識データを解析することにより、前記音声認識データに対してテキスト補正処理を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行する、情報処理装置。
【請求項8】
プロセッサとメモリとを備えた情報処理装置であって、
前記プロセッサは、
ユーザから、前記ユーザの顧客に関する発話データの入力を受け付ける第7ステップと、
前記第7ステップで受け付けた前記発話データを音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第8ステップと
記第7ステップで受け付けている前記発話データの前記ユーザによる入力の終了を、前記音声認識データに含まれる句読点、改行コード、前記音声認識データの文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第ステップと、
前記第ステップにより入力の終了が判定されるまでに前記第8ステップにおいて取得した前記音声認識データ及び前記音声認識データの取得前の文書を解析することにより、前記音声認識データに対してテキスト補正処理を行った変換済音声認識データを取得する第10ステップと、
前記第10ステップで取得した前記変換済音声認識データを前記ユーザに提示する第11ステップとを実行する、情報処理装置。
【請求項9】
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、
前記プロセッサは、
ユーザから、発話データの入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記発話データを音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第2ステップと、
前記第1ステップで受け付けている前記発話データの前記ユーザによる入力の終了を判断する第3ステップと
記音声認識データの取得前の文書、及び前記音声認識データを解析することにより、前記音声認識データに対してテキスト補正処理を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行する、方法。
【請求項10】
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、
前記プロセッサは、
ユーザから、前記ユーザの顧客に関する情報の入力を受け付ける第1ステップと、
前記第1ステップにおいて入力されている前記ユーザの顧客に関する情報を音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第2ステップと、
前記第1ステップで受け付けている前記ユーザの顧客に関する情報の前記ユーザによる入力の終了を、前記ユーザの顧客に関する情報に含まれる句読点、改行コード、前記ユーザの顧客に関する情報の文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第6ステップと
記音声認識データの取得前の文書、及び前記音声認識データを解析することにより、前記音声認識データに対してテキスト補正処理を行った変換済音声認識データを取得する第4ステップと、
前記第4ステップで取得した前記変換済音声認識データを前記ユーザに提示する第5ステップとを実行する、方法。
【請求項11】
プロセッサとメモリとを備えたコンピュータにより実行される方法であって、
前記プロセッサは、
ユーザから、前記ユーザの顧客に関する発話データの入力を受け付ける第7ステップと、
前記第7ステップで受け付けた前記発話データを音声認識して、ひらがな、カタカナ、英数字及び句読点の少なくとも1つを含む音声認識データを取得する第8ステップと
記第7ステップで受け付けている前記発話データの前記ユーザによる入力の終了を、前記音声認識データに含まれる句読点、改行コード、前記音声認識データの文字数、及び、前記ユーザによる前記入力の所定時間の中断の少なくとも1つに基づいて判断する第ステップと、
前記第ステップにより入力の終了が判定されるまでに前記第8ステップにおいて取得した前記音声認識データ及び前記音声認識データの取得前の文書を解析することにより、前記音声認識データに対してテキスト補正処理を行った変換済音声認識データを取得する第10ステップと、
前記第10ステップで取得した前記変換済音声認識データを前記ユーザに提示する第11ステップとを実行する、方法。