IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 辻 早紀の特許一覧

特開2024-60181語彙評価装置、語彙評価方法、および語彙評価プログラム
<>
  • 特開-語彙評価装置、語彙評価方法、および語彙評価プログラム 図1
  • 特開-語彙評価装置、語彙評価方法、および語彙評価プログラム 図2
  • 特開-語彙評価装置、語彙評価方法、および語彙評価プログラム 図3
  • 特開-語彙評価装置、語彙評価方法、および語彙評価プログラム 図4
  • 特開-語彙評価装置、語彙評価方法、および語彙評価プログラム 図5
  • 特開-語彙評価装置、語彙評価方法、および語彙評価プログラム 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024060181
(43)【公開日】2024-05-02
(54)【発明の名称】語彙評価装置、語彙評価方法、および語彙評価プログラム
(51)【国際特許分類】
   G09B 19/00 20060101AFI20240424BHJP
   G10L 15/10 20060101ALI20240424BHJP
   G10L 15/00 20130101ALI20240424BHJP
   G10L 17/00 20130101ALI20240424BHJP
【FI】
G09B19/00 H
G10L15/10 500Z
G10L15/00 200Z
G10L17/00 200C
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022167363
(22)【出願日】2022-10-19
(71)【出願人】
【識別番号】520360165
【氏名又は名称】辻 早紀
(74)【代理人】
【識別番号】100103872
【弁理士】
【氏名又は名称】粕川 敏夫
(74)【代理人】
【識別番号】100149456
【弁理士】
【氏名又は名称】清水 喜幹
(74)【代理人】
【識別番号】100194238
【弁理士】
【氏名又は名称】狩生 咲
(74)【代理人】
【識別番号】100205648
【弁理士】
【氏名又は名称】森田 真一
(72)【発明者】
【氏名】辻 早紀
(57)【要約】
【課題】対象者の語彙力を正確に評価する。
【解決手段】通信可能に接続された端末2を介して、対象者の発話に含まれる単語を収集する単語収集手段11と、端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得手段13と、対象者における単語の習得状況を、環境ごとに分析する分析手段14と、を有する、語彙評価装置1。単語収集手段は、発話内容を収音した音源を取得する音声受信手段111を有し、語彙評価装置は、音源を音声認識し、音源に含まれる単語を抽出する音声認識手段122をさらに有してもよい。
【選択図】図2

【特許請求の範囲】
【請求項1】
通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集手段と、
前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得手段と、
前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析手段と、
を有する、
語彙評価装置。
【請求項2】
前記単語収集手段は、前記端末により収音された、前記発話を含む音源を取得する音声受信手段を有し、
前記語彙評価装置は、前記音源を音声認識し、前記音源に含まれる前記単語を抽出する音声認識手段をさらに有する、
請求項1記載の語彙評価装置。
【請求項3】
前記対象者の声を識別するための情報をあらかじめ記憶する記憶手段と、
前記記憶手段を参照し、前記音声受信手段により取得された音源から、前記対象者による発話を識別する声紋識別手段と、
をさらに有する、
請求項2記載の語彙評価装置。
【請求項4】
前記単語収集手段は、前記端末を介して入力される前記単語を受信する入力情報受信手段を有する、
請求項1記載の語彙評価装置。
【請求項5】
前記環境取得手段は、前記端末の識別情報を取得し、
前記分析手段は、同一の前記端末で収集された前記単語を、同一の前記環境で発話されたものとして、前記端末の識別情報ごとに、前記単語の習得状況を分析する、
請求項1記載の語彙評価装置。
【請求項6】
前記環境取得手段は、前記端末の位置情報を取得し、
前記分析手段は、前記位置情報に基づいて、同一の場所で収集された前記単語を、同一の前記環境で発話されたものとして、前記位置情報ごとに、前記単語の習得状況を分析する、
請求項1記載の語彙評価装置。
【請求項7】
前記単語収集手段は、1の前記対象者の発話に含まれる前記単語を複数の前記端末を介して収集するものであり、
少なくとも、前記端末の識別情報と前記端末の所持者とを対応付けて記憶する記憶手段をさらに有し、
前記環境取得手段は、前記端末の識別情報および位置情報を取得し、
前記分析手段は、
前記単語を取得した前記端末の前記所持者が前記対象者でない場合には、当該端末を介して取得された前記単語については前記端末の識別情報ごとに前記習得状況を分析し、
前記単語を取得した前記端末の前記所持者が前記対象者である場合には、当該端末を介して取得された前記単語については前記端末の位置情報ごとに前記習得状況を分析する、
請求項1記載の語彙評価装置。
【請求項8】
前記分析手段により分析される、前記単語の前記環境ごとの前記習得状況を、前記端末に表示させる表示制御手段をさらに有する、
請求項1乃至7のいずれかに記載の語彙評価装置。
【請求項9】
通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集ステップと、
前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得ステップと、
前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析ステップと、
を含む、
語彙評価方法。
【請求項10】
通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集命令と、
前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得命令と、
前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析命令と、
をコンピュータに実行させる、
語彙評価プログラム。


【発明の詳細な説明】
【技術分野】
【0001】
本発明は、対象者の語彙力を評価する技術に関する。
【背景技術】
【0002】
子供の言語発達を評価する技術が種々提案されている。例えば、特許文献1には、学習者の聴取環境に少なくとも1個のマイクロホンを配備することにより、発話を収音し、語彙及び言語の学習を支援する方法が記載されている。特許文献2には、画像データに基づいて検出した顔の表情を判定する技術が記載されている。特許文献3には、複数のユーザごとに発話種別ごとの発話内容の数を集計することにより、各ユーザの育成レベルを決定する育成支援装置が開示されている。特許文献4には、成長発達をサポートするサポート表をデジタル化する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特表第2008-513840号公報
【特許文献2】特開第2018-067017号公報
【特許文献3】特開第2012-242732号公報
【特許文献4】実案第3217617号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
人と人との会話においては、会話相手との関係性や場所といった、会話環境の影響を受け、使用する語彙や語用も変化する。例えば家族等の親しい間柄との会話で使用する語彙と、教師や医療従事者等の他人との会話で使用する語彙とには、差異がある場合がある。また、言語発達の訓練等により新たな単語の教示を受けた場合、その場限りでオウム返しに当該単語を使用する一方、その他の環境では使用しないといったケースも考えられる。このように、対象者が単語を習得しているかを正確に評価するには会話環境の参照が不可欠であるところ、従来技術においては、子細な評価を行うことができなかった。
【0005】
そこで本発明は、対象者の語彙力をより正確に評価することを目的の一つとする。
【課題を解決するための手段】
【0006】
上記目的を達成するため、本発明の一の観点に係る語彙評価装置は、通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集手段と、前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得手段と、前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析手段と、を有する。
【0007】
前記単語収集手段は、前記端末により収音された、前記発話を含む音源を取得する音声受信手段を有し、前記語彙評価装置は、前記音源を音声認識し、前記音源に含まれる前記単語を抽出する音声認識手段をさらに有するものとしてもよい。
【0008】
前記対象者の声を識別するための情報をあらかじめ記憶する記憶手段と、前記記憶手段を参照し、前記音声受信手段により取得された音源から、前記対象者による発話を識別する声紋識別手段と、をさらに有するものとしてもよい。
【0009】
前記単語収集手段は、前記端末を介して入力される前記単語を受信する入力情報受信手段を有するものとしてもよい。
【0010】
前記環境取得手段は、前記端末の識別情報を取得し、前記分析手段は、同一の前記端末で収集された前記単語を、同一の前記環境で発話されたものとして、前記端末の識別情報ごとに、前記単語の習得状況を分析するものとしてもよい。
【0011】
前記環境取得手段は、前記端末の位置情報を取得し、前記分析手段は、前記位置情報に基づいて、同一の場所で収集された前記単語を、同一の前記環境で発話されたものとして、前記位置情報ごとに、前記単語の習得状況を分析するものとしてもよい。
【0012】
前記単語収集手段は、1の前記対象者の発話に含まれる前記単語を複数の前記端末を介して収集するものであり、少なくとも、前記端末の識別情報と前記端末の所持者とを対応付けて記憶する記憶手段をさらに有し、前記環境取得手段は、前記端末の識別情報および位置情報を取得し、前記分析手段は、前記単語を取得した前記端末の前記所持者が前記対象者でない場合には、当該端末を介して取得された前記単語については前記端末の識別情報ごとに前記習得状況を分析し、前記単語を取得した前記端末の前記所持者が前記対象者である場合には、当該端末を介して取得された前記単語については前記端末の位置情報ごとに前記習得状況を分析するものとしてもよい。
【0013】
前記分析手段により分析される、前記単語の前記環境ごとの前記習得状況を、前記端末に表示させる表示制御手段をさらに有するものとしてもよい。
【0014】
上記目的を達成するため、本発明の別の観点に係る語彙評価方法は、通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集ステップと、前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得ステップと、前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析ステップと、を含む。
【0015】
上記目的を達成するため、本発明の一の観点に係る語彙評価プログラムは、通信可能に接続された端末を介して、対象者の発話に含まれる単語を収集する単語収集命令と、前記端末からの情報に基づいて、当該発話がなされた環境を取得する環境取得命令と、前記対象者における前記単語の習得状況を、前記環境ごとに分析する分析命令と、をコンピュータに実行させる。
【0016】
なお、コンピュータプログラムは、インターネット等のネットワークを介したダウンロードによって提供したり、コンピュータ読み取り可能な各種の記録媒体に記録して提供したりすることができる。
【発明の効果】
【0017】
本発明によれば、対象者の語彙力をより正確に評価することができる。
【図面の簡単な説明】
【0018】
図1】本発明の実施形態に係る語彙評価装置が活用される環境の概要を示す概念図である。
図2】本発明の実施形態に係る語彙評価装置の実施形態を示す機能ブロック図である。
図3】本発明の実施形態に係る語彙評価装置により端末に表示される画面例を示す図であって、(a)第1例、(b)第2例、(c)第3例、(d)第4例である。
図4】本発明の実施形態に係る語彙評価装置により端末に表示される画面の別の例を示す図であって、(a)第5例、(b)第6例、(c)第7例である。
図5】本発明の実施形態に係る語彙評価装置の処理フローの第1例を示すシーケンス図である。
図6】本発明の実施形態に係る語彙評価装置の処理フローの第2例を示すシーケンス図である。
【発明を実施するための形態】
【0019】
本発明に係る語彙評価装置の実施形態について、図を参照して説明する。
【0020】
●語彙評価装置の概要
図1に示す語彙評価装置1は、対象者における言語の習得状況を評価する装置である。対象者は、例えば子供であり、特に言語発達障害を有する子供が想定されるが、発達障害の有無や程度は問わない。また、対象者は、認知症患者又は高齢者であってもよい。この場合、語彙評価装置1は、喪失する語彙を評価してもよい。なお、対象者は上述の特性又は疾病に限られず、あらゆる年齢のあらゆる人に適用可能である。
【0021】
語彙評価装置1は、複数の端末2と相互に通信することで、対象者を取り巻く複数の協力者又は協力施設を互いに連携させる。協力者は、例えば医療従事者又は言語聴覚士101や保護者102、学校の教師、療育施設の従事者等である。また、協力施設は、療育施設103や学校104、障害者が働く作業所等が想定できる。また、語彙評価装置1は、大学又は研究機関110からのデータを取得し、語彙の評価に随時反映できるようになっている。
【0022】
図2に示すように、例えば、語彙評価装置1は、1もしくは複数の端末2がネットワークNWにより接続されることにより、語彙評価システム100を構成している。なお、語彙評価システム100は、音声を収集する場合には、後述する通り語彙の評価に限らず音声に含まれる情報を評価することもできるため、語彙および音声評価システムとも呼称できる。
【0023】
端末2は、例えば協力者が所持することを想定しているが、対象者自身が携帯してもよい。端末2は、例えばスマートホン、タブレット端末の他、パーソナルコンピュータであってもよい。端末2には、例えば語彙評価システム100を実現するアプリケーションソフトがインストールされ、ユーザがアプリケーションソフトを立ち上げることにより、語彙評価システム100に関する各機能を実行する。また、端末2は、アプリケーションソフトに代えて、インターネットブラウザを介して語彙評価システム100に関する機能の一部又は全部を実現してもよい。
【0024】
端末2は、固有の識別情報を有する。端末2は、各協力者にハードウェア的にあらかじめ紐づけられている構成であってもよいし、所定のIDとパスワード等により協力者がログインすることで、協力者の情報と端末2の識別情報が紐づけられる構成でもよい。端末2の個数は、任意である。
【0025】
また、語彙評価システム100には収音装置3が含まれていてもよい。収音装置3は、例えば協力施設を始めとする、対象者が利用する施設に配設されている。収音装置3は、語彙評価装置1との連携を目的に設置された装置の他、あらかじめ設置された適宜の装置が収音装置3の機能を果たしてもよい。収音装置3は、例えばマイクロホンである。また、収音装置3は、動画も撮影できるビデオカメラであってもよい。なお、収音装置3は、固定的に設置されている態様に限らず、対象者の発話を収音する任意の態様であってよい。収音装置3の個数は1個でも複数でもよく、収音装置3を含まない構成であってもよい。
【0026】
本実施形態では、前提として、語彙評価装置1を具備するクライアント端末が複数存在してもよく、それらが離れた場所又は近い場所に存在して、それぞれのクライアント端末同士が通信をしてもよい。また、語彙評価装置1を具備するサーバ端末が存在し複数人又は1人のユーザがサーバ端末にアクセスすることによって語彙評価装置1を使用してもよい。
【0027】
また、語彙評価装置1は、1個又は複数のハードウェア構成に分散されて構成されていてもよく、機能の一部又は全部がクラウドコンピュータ上に構成されていてもよい。語彙評価装置1の具体的な構成については、後述する。
【0028】
複数の端末2は、それぞれが1個の語彙評価装置1と接続されている。
端末2は、例えば、収音部21、入力部22、表示部23および位置情報取得部24を備える。
【0029】
収音部21は、例えばマイクロホンにより実現され、人の声を音声データとして収音する。音声データは、適宜の通信処理部により語彙評価装置1に送信される。なお、端末2が声紋識別機能を有し、当該機能を使用して、あらかじめ対象者の音声のみを格納したり、クラウド上などの後処理で声紋認証による個体識別を行い、語彙評価装置1に送信する構成であってもよい。この構成によれば、対象者以外の人の発話を除外できるので、プライバシーを担保できる。また、端末2が音声認識機能を有し、音声データを文字起こししてテキストデータとしたデータを語彙評価装置1に送信する構成であってもよい。
【0030】
入力部22は、ユーザからの入力を受け付ける機能部であり、例えばタッチパネルディスプレイやキーボードによる入力を受け付ける。ユーザは、例えば端末2の所持者である。端末2の所持者は、対象者との会話を収音する際に、入力部22を介して収音開始の命令を入力してもよい。
【0031】
また、入力部22は、ユーザにより入力される、対象者が使用した単語の入力を受け付ける。ユーザは、対象者の発話を聞いて使用された単語を把握し、端末2に入力する。この場合、入力部22は、ユーザからの自由入力を受け付けてもよいし、表示部23に表示される単語から選択入力を受け付ける構成でもよい。入力部22は、単語の入力と合わせて、当該単語が使用された時刻情報や位置情報、環境情報等の入力を受け付けてもよい。
【0032】
表示部23は、主として、対象者の言語の習得状況を表示する機能部である。言語の習得状況は、語彙評価装置1から適宜の通信処理部を介して受信される。複数の端末2の各表示部23には、同一の対象者の習得状況が表示可能であり、すなわち対象者の習得状況を協力者間で共有することができる。
表示部23は、例えば液晶ディスプレイ等により実現される。表示部23に表示される画面の例は後述する。
【0033】
位置情報取得部24は、対象者が発話した位置情報を取得する機能部である。位置情報取得部24は、例えば収音部21により収音を行った際の端末2の位置情報を取得する。位置情報取得部24は、GNSS(Global Navigation Satellite System、全地球測位システム)の受信機により場所の特定を行ってもよいし、別途の通信処理部により取得される緯度経度の情報や、端末2が有するIPアドレスなど、その他の手段で特定してもよい。また、位置情報取得部24は、端末2の入力部22に単語が入力された際の端末2の位置情報を取得してもよい。さらに、位置情報取得部24は、位置に関する情報がユーザにより入力部22を介して入力された場合に、当該情報を取得してもよい。
【0034】
●語彙評価装置1の機能構成
語彙評価装置1は、メモリなどの記憶媒体、プロセッサ、通信モジュール、及び入力/出力インターフェース等で構成され、プロセッサが記憶媒体に記録されたコンピュータプログラムを実行することで、図2に示した機能ブロックを実現するようになっている。記憶媒体は、コンピュータ読み取り可能記録媒体であって、RAM(random access memory)、ROM(read only memory)、ディスクドライブ、SSD(solid state drive)、フラッシュメモリ(flash memory)のような記憶装置等を含んでよい。ここで、ROMやディスクドライブ、SSD、フラッシュメモリのような非一時的な記憶装置は、メモリとは区分される別の格納装置として語彙評価装置1に含まれてもよい。
【0035】
語彙評価装置1は、上記したハードウェア構成により、主として、単語収集部11、音声処理部12、環境取得部13、分析部14、表示制御部15および記憶部50を具備する。なお、語彙評価装置1の構成の一部又は全部が、端末2のハードウェア構成により実現されていてもよい。
【0036】
語彙評価装置1は、所定のアプリケーションに組み込まれるコンピュータプログラムであってもよいし、所定のアプリケーションに適用可能なAPI(application programming interface)として提供されてもよい。
【0037】
記憶部50は、対象者の単語の習得状況の分析に必要な情報を記憶する機能部である。記憶部50は、例えば分析する言語および音声のデータベースを記憶する。当該データベースは、単語の品詞およびカテゴリを合わせて記憶している。また、データベースは、単語ごとに、難易度を記憶していてもよい。さらに、データベースは、各単語を習得する標準的な年齢又は目標年齢を記憶していてもよい。また記憶部50は、当該単語と結びつきの強い単語、いわゆる連結語句(コロケーション)の情報を記憶していてもよい。さらに、データベースは、収集した対象者の会話における文法の正確性を評価するために必要な情報を記憶していてもよい。このデータベースは、例えば大学又は研究機関110からの情報に応じて適宜アップデートが可能に構成されている。また、記憶部50は、発話量、発音、周波数、音量および抑揚の評価に必要な情報を記憶している。この情報は例えば、各項目の標準的な数値等、対象者から収集したデータと比較するための情報である。
【0038】
なお、上述したデータベースは、記憶部50に記憶される構成に代えて、適宜の外部装置に記憶されていて、語彙評価装置1が当該外部装置にアクセスすることで情報を取得する構成になっていてもよい。外部装置は、例えば大学又は研究機関110が管理するサーバであってもよい。
【0039】
また、記憶部50は、対象者の声を識別するための情報をあらかじめ記憶していてもよい。この情報は、例えば声紋の情報である。後述する声紋識別部121は、この情報を参照し、収音された音源の中から対象者の声を抽出する。
【0040】
さらに、記憶部50は、端末2の識別情報と端末2の所持者とを対応付けて記憶していてもよい。また、収音装置3が所定の場所に固定されている場合に、記憶部50は、収音装置3の識別情報と、収音装置3の位置情報とを対応付けて記憶していてもよい。
【0041】
記憶部50は、単語収集部11、音声処理部12又は環境取得部13で取得した情報を記録してもよい。また、記憶部50は、分析部14により分析した結果を、履歴として記録してよい。分析結果には、例えば、発話量、発音、周波数、音量、抑揚等が含まれる。
【0042】
単語収集部11は、端末2を介して、対象者の発話に含まれる単語を収集する機能部である。
単語収集部11は、音声受信部111と、入力情報受信部112とを有する。
【0043】
音声受信部111は、対象者の発話を含む音源を取得する。音声受信部111は、端末2により対象者の発話のみが抽出されている場合には、対象者の発話のみを受信してよい。また、端末2により音源がテキストデータに変換されたデータを受信してもよい。
【0044】
入力情報受信部112は、端末2の入力部22を介して入力される情報を受信する。入力情報受信部112は、例えばユーザが入力した、対象者の使用単語、および使用時刻等を受信する。
【0045】
音声処理部12は、音声受信部111により取得される音源を処理し、対象者が使用した単語を抽出する機能部である。音声処理部12は、例えば、声紋識別部121と、音声認識部122と、を備える。
【0046】
声紋識別部121は、記憶部50を参照し、音声受信部111により取得された音源から、対象者による発話を識別する。この構成によれば、対象者が発話した内容のみを確実に分析できる。
【0047】
音声認識部122は、音声受信部111により取得した音源を音声認識し、当該音源に含まれる単語を抽出する。音声認識部122により抽出された単語は、分析部14により習得状況の分析に使用される。
【0048】
環境取得部13は、端末2からの情報に基づいて、当該発話がなされた環境を取得する機能部である。例えば、環境取得部13は、発話を収音した端末2の識別情報を取得する。端末2は、例えば対象者と共にいる人物が保持している。したがって、発話を収音した端末2の識別情報を取得することで、対象者が誰と一緒にいるときに行った発話であるかを知る情報となり得る。対象者の1例に想定されている子供は、一人で行動せず、限られた大人と一緒に行動する可能性が高い。そのため、限られた特定の大人にあらかじめ端末2を所持してもらい、識別情報が明らかな端末2に収音を行わせることで、限られた大人のうち誰と一緒にいるときの会話であるかを簡便に判別できる。
【0049】
環境取得部13は、端末2の位置情報を取得してもよい。発話を収音した端末2の位置情報を取得することで、対象者が発話した場所を判別できる。また、環境取得部13は、収音装置3の識別情報又は位置情報を取得してもよい。
【0050】
分析部14は、対象者における単語の習得状況又は音声に含まれる情報を分析する機能部である。
分析部14は、例えば単語ごとの習得状況を判定する。分析部14は、例えば、単語を使用した回数が多いほど、当該単語の習得レベルが高いと判定する。また、分析部14は、単語の連結語句の使用状況や、当該単語の前後の発話内容を解析し、文法の正確性を判定することで、当該単語を使いこなせているかを単語の習得レベルの判定に参酌してもよい。分析部14は、各単語の習得の有無を判定してもよい。分析部14は、習得レベルが所定以上の単語を習得済と判定してもよい。
【0051】
分析部14は、対象者における単語の習得状況を、当該単語が収集された環境ごとに分析する。
分析部14は、同一の端末2で収集された単語を同一の環境で発話されたものとして、端末2の識別情報ごとに単語の習得状況を分析する。同一の端末2で収集された発話は、同一の協力者と一緒にいるか、当該協力者との会話でなされた発話であると推定できる。すなわち、単語を収集した端末2の識別情報は、発話が生じた環境を特定する情報の1例である。
【0052】
対象者が使用する語彙は、誰と一緒にいるか、又は誰と話しているかに応じて異なる可能性がある。すなわち例えば、親との会話ではリラックスしているために多様な単語を使用する一方で、教師との会話では緊張のために限定した単語しか使用しない場合がある。また、言語聴覚士との会話では、その日に教わった単語を使用する一方、当該単語の習得が十分でないために、親との会話では使用しない場合も考えられる。上記は一例であり、発話の様子は対象者の特性等により千差万別である。その点、端末2の識別情報ごとに習得状況を分析することで、単語の習得状況をより正確に評価することができる。
【0053】
なお、分析部14は、同じ対象者に対して複数の端末2で収音された音源を比較し、同一の会話を収音した音源であるかを判定してもよい。分析部14は、同一の会話が別の端末2を介して重複して収音された場合には、一方の端末2からの音源の分析を行わないものとしてもよい。この構成によれば、重複した評価を防止し、より正確な評価ができる。また、分析部14は、同一の会話が複数の端末2で収音された場合には、いずれか一方の端末2のみで収音された場合とは区別して分析してもよい。
【0054】
分析部14は、端末2の位置情報に基づいて、同一の場所で収集された単語を同一の環境で発話されたものとして、位置情報ごとに単語の習得状況を分析してもよい。すなわち、端末2の位置情報は、発話が生じた環境を特定する情報の別の例である。対象者の発話状況は、場所に応じても変化するためである。例えば、自宅と学校では発話に使用する単語に差異がある可能性がある。したがって、位置情報ごとに習得状況を分析することによっても、単語の習得状況をより正確に評価することができる。
【0055】
分析部14は、端末2の識別情報と位置情報の双方に基づいて環境を区別し、当該環境ごとに単語の習得状況を分析してもよい。この構成によれば、対象者が誰とどこにいた場合の発話であるか、綿密な分析が可能である。
【0056】
分析部14は、単語を取得した端末2の所持者に応じて、習得状況の分析態様を異ならせてもよい。例えば、分析部14は、単語を取得した端末2の所持者が対象者である場合と、対象者でない場合とで、分析態様を異ならせてもよい。より具体的には、分析部14は、単語を取得した端末2の所持者が対象者でない場合には、当該端末2を介して取得された単語について端末2の識別情報ごとに習得状況を分析し、当該単語を取得した端末2の所持者が対象者である場合には、当該端末2を介して取得された単語については端末2の位置情報ごとに習得状況を分析する。
【0057】
対象者は、発話する上で、会話相手が誰であるかに大きな影響を受ける。したがって、会話相手が端末2の識別情報により特定できる場合には、端末2の識別情報ごとに分析を行うことで、会話相手ごとの分析を適切に行うことができる。また、対象者自身の端末2で発話が収集された場合には、会話相手の特定が困難であるから、会話相手に基づく分析に代えて、位置情報に基づく分析を行うことで、対象者の環境を考慮した分析が可能である。対象者が高齢者等の成人である場合には、自身の端末2での収集と、協力者の端末2による収集との両方が行われる可能性が高いところ、両者の情報を組み合わせて分析できる構成は一層利便性が高い。
【0058】
分析部14は、上述の通り取得した複数の環境における単語の習得状況に基づいて、当該単語の習得状況を分析する。すなわち例えば、分析部14は、当該単語の習得レベルを環境ごとに算出し、複数の環境で習得レベルが所定以上である場合に、当該単語の総合的な習得レベルを所定値とする。また、よりシンプルな例では、分析部14は、当該単語が複数の環境で使用されていた場合に、当該単語を習得している旨判定する。また、分析部14は、対象者と紐づけられた全ての端末2で当該単語が収集された場合に、当該単語を習得している旨判定してもよい。分析部14は、対象者と紐づけられた全ての端末2で該単語の習得レベルが所定以上である場合に、当該単語を習得している旨判定してもよい。
【0059】
対象者が単語を複数の環境で使用していることは、対象者がその単語を確実に習得し、使いこなせているといえる。上述のような分析部14の構成によれば、単語の習得状況をより正確に評価することができる。
【0060】
分析部14は、習得している旨判定される単語、すなわち習得単語の数を算出する。また、分析部14は、対象者の単語ごとの使用頻度を抽出してもよい。
【0061】
また、分析部14は、対象者の総合的な習得状況を判定してもよい。例えば、分析部14は、習得レベルが所定以上の単語の個数に応じて、習得状況を判定する。また、分析部14は、言語のデータベースに格納されている各単語の難易度を参照し、習得レベルが所定以上又は習得済と判定された単語の難易度に応じて、習得状況を判定してもよい。また、分析部14は、単語の習得状況を品詞ごとに判定してもよい。また、分析部14は、単語とカテゴリが対応付けられる適宜のデータベースを参照して習得単語が属するカテゴリを抽出し、習得単語数をカテゴリごとに集計してもよい。カテゴリは、例えば「食べ物」や「乗り物」といった、単語が指し示すものの種類等により分類される。
【0062】
分析部14は、発話内容の文法の正確性を分析してもよい。文法の正確性は、「て」「に」「を」「は」等の助詞の正確性であってもよいし、接続詞の正確性等を分析してもよい。分析部14は、全体の発話量に対する正確な文法の発話割合を算出してもよい。文法のうち誤りの多い事項については、後述する表示制御部15により端末2に表示させてもよい。なお、文法が評価できるのは3語文以上の発話が前提であるから、分析部14により何語文の発話であるか判定してもよい。この場合、分析部14は、発話された単語間の空白時間を計測し、所定の空白時間以内に次の単語が発話されている場合には、1個の文章として発話されていると判定してよい。また、分析部14は、収集された発話が3語文以上である場合に、文法評価を行うものとしてもよい。また、分析部14は、会話の速度自体を言語の習熟度の1つとして分析に用いてもよい。
【0063】
さらに、分析部14は、対象者の発話の法則性を分析してもよい。分析部14は、当該対象者において関連性を持って発話される単語をデータベース化し、当該発話者独自の単語間の関連性やコロケーションの情報を分析する。この場合、分析部14は、例えば人工知能により行われるディープラーニングの手法、例えばマルコフ連鎖を用いた学習を行ってよい。例えば対象者に自閉傾向がある場合に、正確性の低い文法や、一見して内容的にまとまりのない発話をする場合がある。しかしながら、発話の法則性を分析することで、対象者なりの法則性を見出せる可能性がある。この構成によれば、自閉の特性をより詳細に分類できる。また、語用障害のスクリーニングや、障害の程度の評価又は分類が可能になり得る。ひいては、特性ごとにより適切な支援を行うことが可能である。また、発話の規則性を分析することで、当該対象者が捉えている物事の因果関係や各単語の外縁等、対象者の思考を理解する一助となり得る。その結果、対象者に則した支援が可能になる。
【0064】
このような分析によれば、分析する言語聴覚士の力量のばらつきの影響を受けず、客観的な評価が可能である。また、人手を介さずに語彙力を把握できるので、発達検査のスクリーニングにも活用できる。
【0065】
分析部14は、音声に含まれる情報を分析してもよい。音声に含まれる情報は、例えば発話の明瞭度である。具体的には、分析部14は例えば対象者の発話音声の周波数特性を分析してもよい。この構成によれば、例えば所定の子音が強い、又は別の子音に聞こえる発音をする、といった傾向を把握できる。
分析部14は、対象者の発話音声の周波数特性と、あらかじめ定めた発話音声の周波数特性とを比較し、対象者の周波数特性の特徴を抽出する。あらかじめ定めた発話音声は、例えば多数の人の発話音声の平均であってもよいし、所定のモデルケースであってもよい。分析部14は、対象者の発話音声の周波数特性に応じて、対象者の得意な周波数帯域や不得意な周波数帯域を推定してもよい。また、分析部14は、対象者の周波数特性が所定の様子である場合に、難聴の可能性があるものと推定し、端末2に表示させてもよい。分析部14は、例えば、ある閾値以上の割合で発話される周波数帯域、又は別の閾値以下の割合でしか発話されない周波数帯域がある場合に、対象者に難聴の可能性があると推定してもよい。この構成によれば、言語聴覚士が難聴の可能性を考慮することなく訓練を行う場合であっても、難聴のスクリーニングが可能になる。
発話内容の文法の正確性、発話の法則性、発音の明瞭度といった、分析部14が行う各分析は、前述した習得状況の分析と同様に、環境ごとに行われてもよい。また、期間、時間帯又は場所など、任意の単位で分析が行われてもよい。
【0066】
表示制御部15は、分析部14により分析される対象者の習得状況を、端末2に表示させる機能部である。表示制御部15は、例えば、対象者に紐づけられている端末2に対して、当該対象者の習得状況を表示させる。例えば、対象者とあらかじめ紐づけられたアカウントにログインすると、ログインされた端末2に習得状況が表示されてもよい。この構成によれば、同一の対象者を支援する協力者同士で、対象者の習得状況を簡便かつほぼリアルタイムに共有することができる。
表示制御部15により表示される具体的な態様は、後述する。
【0067】
●画面例
図3および図4を用いて、端末2に表示される画面の例について説明する。
図3(a)~(d)に示す画面G1~G4は、スマートホンやタブレット端末等、協力者が所有する端末2に表示される画面の例である。端末2は、例えば所定のログイン処理を介して協力者と紐づけられ、対象者からの検出結果を記憶部50から取得し、画面上に表示する。
【0068】
図3(a)に示す画面G1は、端末2のユーザである協力者が、対象者が使用した単語を登録する登録画面の一例を示す図である。画面G1は、例えば、ユーザが端末2上でログインをし、必要に応じて対象者を選択することで表示される。また、別途のメニュー画面を介して、単語登録ボタン等を選択することで表示されてもよい。
【0069】
画面G1には、主として、検索欄G11および品詞選択欄G12が表示されている。検索欄G11は、ユーザが登録しようとする単語を入力する欄である。例えば、検索欄G11に単語を入力して検索を実行すると、記憶部50に格納されたデータベースを参照し、同一又は類似の単語が検索結果として画面上に表示される。ユーザが、当該検索結果から1個の単語を選択することで、当該単語の使用実績が対象者に紐づけられて登録される。
【0070】
図3(b)に示す画面G2は、検出結果を月次表示する画面の例である。画面G2では、対象者の単語習得状況を示すグラフG21、および習得済みの単語リストG22等が表示されている。グラフG21では、対象者が習得済と判定された所定の品詞(図3(b)においては形容詞)の個数や、当該対象者の年齢での標準的な習得単語数、又は目標単語数と、この単語数に対する習得済単語数の割合、すなわち習得率が表示されるとともに、この割合を視覚的に表す円環が表示されている。円環は全周が100%を示し、円環に重畳して描かれる太い部分円環により習得率を示している。
【0071】
図3(c)に示す画面G3は、習得された単語数を月ごとに計数して示した棒グラフが表示されている。この表示によれば、対象者が多くの単語を習得した時期が協力者にとって明確である。
【0072】
図3(d)に示す画面G4には、習得された単語数が折れ線グラフで表示されている。例えば、習得された単語を品詞ごとに計数し、グラフ化してもよい。
【0073】
画面G1乃至G4によれば、対象者の語彙習得の様子を協力者間で共有することができる。すなわち、同じ対象者を支援する者同士で対象者の様子を正確に共有することができ、対象者への支援や養育を効果的なものとすることができる。例えば、協力者は、対象者が理解に窮している場合には、対象者が習得している語彙に言い換えて、すなわち翻訳して伝えることで、対象者に必要な情報を適切に伝えることができる。
【0074】
図4(a)~(c)に示す画面G5は、端末2に表示される画面の別の例であって、1個の単語に対して複数環境での習得状況を評価し、当該習得状況を表示する画面の1例である。画面G5は「ありがとう」との単語の習得状況を示している。また、この実施形態では、3個の環境において評価する例を示している。例えば、3個の端末2により対象者の発話を収集し、収集した端末2の識別情報ごとに分析し、評価することを想定している。画面G5には、対象の単語および習得状況を示す円環を含むグラフG51が表示されている。
【0075】
図4(a)は、3個の端末2のうち1個の端末2でのみ、「ありがとう」の使用又は習得が判定できた場合の画面である。すなわち、3分の1の環境でのみ使用又は習得が確認できているため、グラフG51の円環上には太い部分円環が全周の3分の1(120度)だけ重畳して表示されている。図4(b)は、3個の端末2のうち2個の端末2で使用又は習得が判定できた場合の画面であり、太い部分円環は全周の3分の2(240度)だけ重畳して表示されている。図4(c)は、3個の端末2のすべてで使用又は習得が判定できた場合の画面であり、グラフG51には太い円環が表示されている。
【0076】
●処理フロー(手動入力)
本実施形態に係る語彙評価装置1の処理方法の1例について、図5のシーケンス図を用いて説明する。ここでは、対象者が使用した単語を、協力者が手動入力する場合の処理フローを説明する。なお、以下の説明において、便宜上、端末2aは入力を受け付ける端末、端末2bは語彙評価装置1からの分析結果を表示する端末であるものとして説明するが、端末2aと端末2bは逆であってもよく、1個の端末2a又は2bが両方の処理を行ってもよい。また、下記の処理を行う前に、端末2上において各ユーザを認証するログイン処理が適宜行われてよい。
【0077】
端末2aは、語彙評価装置1に対して端末2aの識別情報を送信する(ステップS11)。また、端末2aは、使用された単語を登録する対象者の情報を送信する(ステップS12)。なお、端末2aにログインしたアカウントに紐づけられている対象者が1人である場合、ステップS12は省略できる。次いで、入力部22は、単語の入力を受け付け、端末2aから語彙評価装置1に送信される(ステップS13)。なお、ステップS11~S13は、順不同である。
【0078】
次いで、語彙評価装置1は、分析部14により対象者における単語の習得状況を分析する(ステップS14)。
【0079】
次いで、語彙評価装置1は、ステップS11~S13において受信した情報、および分析結果を記憶部50に記録する(ステップS15)。
【0080】
語彙評価装置1は、端末2a、又は入力を受け付けた端末2aとは異なる端末2bに分析結果の表示情報を送信し(ステップS16)、端末2a又は端末2bは、これを表示する(ステップS17、ステップS18)。なお、端末2aおよび端末2bへの表示処理ステップS16は、例えば各端末2a、2bからの表示命令(図示を省略)に応じて行われる。
【0081】
●処理フロー(収音)
図6は、対象者が使用した単語を、収音した音源から抽出して分析する流れの1例を示す図である。なお、図5と同様の処理については、同じ符号を付し、説明を省略する。
【0082】
図6の処理フローにおいては、ステップS11およびステップS12に次いで、端末2の収音部21は、発話を収音する(ステップS23)。ステップS11、S12、S23は、順不同である。収音された音声は、語彙評価装置1に送信される。
【0083】
次いで、語彙評価装置1の声紋識別部121は、音源から対象者の発話を抽出する(ステップS24)。次いで、語彙評価装置1の音声認識部122は、対象者の発話において使用されている単語を抽出する(ステップS25)。次いで、図5と同様、ステップS14~S18の処理が実行される。
【0084】
<本実施形態の効果>
本発明によれば、対象者の語彙力及び音声に含まれる情報を正確に評価することができる。より具体的には、対象者の単語の習得状況を、発話が行われた環境ごとに分析し、当該単語をどんな環境でも使いこなせているか否かを正確に判定することができる。さらに、この分析結果は、各環境で対象者の支援を行っている協力者に簡便かつほぼリアルタイムに共有される。この構成により、各協力者は別の環境における対象者の様子を把握することで、適切な支援を行うことができる。ひいては、対象者は快適かつ実効性の高い支援を受けることができる。
【0085】
<本実施形態についての補足>
以上、実施形態に基づいて本発明を説明したが、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
【0086】
語彙評価システム100は、上述の他、対象者の声量を抽出し、対象者の体調や体力を推定してもよい。分析部14は、対象者の発話音量が次第に小さくなっている場合に、対象者の腹圧の低下、ひいては体力の衰えを検知してもよい。また、分析部14は、一時的な体調不良を検知するものとしてもよい。
【0087】
語彙評価システム100は、上述の他、対象者の心理状態を検知することも可能である。この場合、語彙評価装置1が有する分析部14は、収集した音声の抑揚を検出し、抑揚の大きさが所定以下である場合に、対象者に抑うつ傾向があるものと推定してもよい。抑うつ傾向がある場合、無機質な話し方になった結果、言葉の抑揚が小さくなる傾向にあるためである。抑揚の幅は、例えば音声を所定の長さごとに周波数解析し、特定の大きさを有する周波数帯域幅が閾値以下である場合に、抑うつ傾向があると推定する。この閾値は、当該対象者の発話を連続的に収音して別の時点での帯域幅を算出し、この帯域幅に基づいて決定されてよい。また、分析部14は、抑揚の大きさに基づいて認知症の進行状況を検知してもよい。
【0088】
また、分析部14は、単語が表す概念のポジティブ性をあらかじめ記憶したデータベースを参照し、対象者の発話がポジティブ、明朗又は前向きな印象を与えるものであるか、ネガティブで暗い、後ろ向きな印象を与えるものであるかを分析してもよい。ポジティブ性は、ポジティブかネガティブかそれ以外かの3択の他、数値化されて記憶されていてもよい。分析部14は、ポジティブな単語とネガティブな単語の比率を算出し、発話全体のポジティブ性の指数を算出してよい。ポジティブな単語、又はポジティブ性の高い単語が多く含まれる発話をしている人は、前向きな心理状態であることが推定できる。この構成によれば、心理状態に則した適切な支援を行うこともできる。
【0089】
なお、分析部14は、所定の対象者に代えて、収音された複数人の発話内容を分析し、会話全体のポジティブ性を推定してもよい。会話全体にポジティブな単語が多用されているほど、会話がポジティブな雰囲気で進行しているものと推定できる。例えば、グループワークの実施時に、当該グループの発話内容を分析し、グループワークの雰囲気を数値化できる。なおこのとき、分析部14は、発話内容に代えて、音量のみを分析に用いてもよいし、所定の周波数の音声のみを分析してもよい。このような構成によれば、会話のプライバシーが保たれる。
【0090】
分析部14は、複数人の発話内容を分析する場合に、会話に参加している人の識別情報と、単語又は発話全体のポジティブ性とに基づいて、会話に参加している人同士の相性を推定してもよい。すなわち、ポジティブな雰囲気で会話している人は、相性が良く、仲が良いものと推定できる。このような構成によれば、人が会話を直接聞き、相性を評価しなくても、プライバシーを保ちながら相性を推定できる。この構成は、例えば通所デイサービスや特別養護老人ホーム等において、利用者の心理的な様子を把握する必要がある場合にも有用である。もちろん、保育所や幼稚園、学校、病院等においても適用可能である。
【0091】
さらに、分析部14は、対象者の一時的な心理状態に限らず、長期間にわたり収集した対象者の発話内容に基づいて、対象者の性格を推定してもよい。特に、分析部14は、対象者が比較的ポジティブな性格であるか、ネガティブな性格であるかを推定できる。また、多数の人の性格を推定することにより、相性の良い性格の相手を抽出して提示する、結婚相手や恋人、友達、チーム編成その他のマッチング装置に応用することもできる。なお、本実施形態では性格を、ポジティブかネガティブかに大別するものとしたが、各単語の表す印象を細分化することにより、より細かい性格分析が行えるようになっていてもよい。
【0092】
さらにまた、分析部14により例えば書籍に記載されている文章のポジティブ性をあらかじめ算出し、データベース化しておくこともできる。すなわち、分析部14の構成によれば、書籍のポジティブ性が数値化できる。さらに、分析部14により分析した対象者の心理状態と、書籍のポジティブ性とを参照し、対象者にお勧めの書籍を抽出することもできる。この場合、対象者の心理状態と近しいポジティブ性の書籍を抽出してもよいし、対象者の心理状態がネガティブの場合にはポジティブな内容の書籍をお勧めとして抽出し、提示するように構成されてもよい。この構成によれば、対象者は、自分の状態や性格に合わせた本を選定することができる。
【0093】
上述の構成は、歌の歌詞のポジティブ性をあらかじめ算出してデータベースに記憶しておき、対象者の心理状態に基づくお勧めの歌を抽出する構成にも適用できる。例えば音楽配信サービスと連携させることにより、対象者の心理状態に合った歌を自動で再生することもできる。また、書籍および歌に限らず、テレビ番組、映画、映像作品、ラジオ、ならびにClubhouse(登録商標)およびTwitter(登録商標)等の投稿等、言葉を用いたあらゆる対象とのマッチングが可能である。
【0094】
さらに、対象者の性格や心理状態を多数収集することにより、マーケティングデータとして用いることもできる。この場合、地域や世代、性別その他の属性と合わせて分析することで、人々の状態をマクロに観察し、分析することもできる。
【符号の説明】
【0095】
100 語彙評価システム
1 語彙評価装置
11 単語収集部
111 音声受信部
112 入力情報受信部
12 音声処理部
13 環境取得部
14 分析部
15 表示制御部
50 記憶部
2 端末
2a 端末
2b 端末
21 収音部
22 入力部
23 表示部
24 位置情報取得部
3 収音装置

図1
図2
図3
図4
図5
図6