IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電信電話株式会社の特許一覧

特許7396486語彙数推定装置、語彙数推定方法、およびプログラム
<>
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図1
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図2
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図3
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図4
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図5
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図6
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図7
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図8
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図9
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図10
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図11
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図12
  • 特許-語彙数推定装置、語彙数推定方法、およびプログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-04
(45)【発行日】2023-12-12
(54)【発明の名称】語彙数推定装置、語彙数推定方法、およびプログラム
(51)【国際特許分類】
   G06F 16/335 20190101AFI20231205BHJP
   G06F 16/90 20190101ALI20231205BHJP
【FI】
G06F16/335
G06F16/90 100
【請求項の数】 9
(21)【出願番号】P 2022531254
(86)(22)【出願日】2020-06-22
(86)【国際出願番号】 JP2020024346
(87)【国際公開番号】W WO2021260761
(87)【国際公開日】2021-12-30
【審査請求日】2022-10-28
【新規性喪失の例外の表示】特許法第30条第2項適用 ウェブサイトの掲載日 2020年3月9日 ウェブサイトのアドレス https://www.anlp.jp/proceedings/annual_meeting/2020/pdf_dir/E1-3.pdf
【新規性喪失の例外の表示】特許法第30条第2項適用 ウェブサイトの掲載日 2020年5月22日 ウェブサイトのアドレス https://confit.atlas.jp/guide/event/jsai2020/subject/2C1-GS-12-02/advanced https://confit.atlas.jp/guide/event-img/jsai2020/2C1-GS-12-02/public/pdf?type=in
【新規性喪失の例外の表示】特許法第30条第2項適用 ウェブサイトの掲載日 2020年6月4日 ウェブサイトのアドレス https://www.kecl.ntt.co.jp/openhouse/2020/research3/index.html https://www.kecl.ntt.co.jp/openhouse/2020/download/2020_booklet.pdf
【新規性喪失の例外の表示】特許法第30条第2項適用 ウェブサイトの掲載日 2020年6月3日 ウェブサイトのアドレス https://www.youtube.com/watch?v=YzBL89k3-r4 https://www.youtube.com/watch?v=8N2ECSwfEck https://www.youtube.com/watch?v=pCblf0bsQAI
(73)【特許権者】
【識別番号】000004226
【氏名又は名称】日本電信電話株式会社
(74)【代理人】
【識別番号】100121706
【弁理士】
【氏名又は名称】中尾 直樹
(74)【代理人】
【識別番号】100128705
【弁理士】
【氏名又は名称】中村 幸雄
(74)【代理人】
【識別番号】100147773
【弁理士】
【氏名又は名称】義村 宗洋
(72)【発明者】
【氏名】藤田 早苗
(72)【発明者】
【氏名】小林 哲生
【審査官】齊藤 貴孝
(56)【参考文献】
【文献】AMANO, Shigeaki, and KONDO, Tadahisa,Estimation of Mental Lexicon Size with Word Familiarity Database,In: Proceedings of the 5th International Conference on Spoken Language Processing [online],Vol. 5,1998年11月30日,p.2119-2122,[検索日 2020.11.13]、インターネット:<URL:https://www.isca-speech.org/archive/archive_papers/icslp_1998/i98_0015.pdf>
【文献】近藤公久, 天野成昭,百羅漢 ~実験参加者の言語能力差の統制のための漢字テスト,テクニカルレポート,JCSS-TR-69,日本認知学会 [オンライン],2013年04月,p.0-18,[検索日 2020.11.13]、インターネット:<URL:https://www.jcss.gr.jp/contribution/technicalreport/TR69.pdf>
(58)【調査した分野】(Int.Cl.,DB名)
G06F 16/00-16/958
G06F 40/00-40/58
(57)【特許請求の範囲】
【請求項1】
順位付けされた複数の単語から選択された複数のテスト単語を要素とするテスト単語列と、順位付けされた複数の潜在語彙数を要素とする潜在語彙数列と、から抽出した各列同一の順位の前記テスト単語と前記潜在語彙数との組と、利用者の前記テスト単語の知識に関する回答とを用い、
前記利用者が前記単語を知っていると回答する確率に基づく値と、前記利用者が前記単語を知っていると回答したときの前記利用者の語彙数に基づく値と、の関係を表すモデルを得る語彙数推定部を有し、
前記複数のテスト単語は、被験者集合に属する被験者の前記テスト単語に対する被験者内親密度に基づく順序で順位付けされており、
前記複数の潜在語彙数は、前記複数のテスト単語に対応し、前記単語に対して予め定められた親密度に基づいて推定され、前記親密度に基づく順序で順位付けされている、語彙数推定装置。
【請求項2】
請求項1の語彙推定装置であって、
前記語彙数推定部は、前記複数のテスト単語が前記親密度に基づく順序で順位付けされた親密度順単語列に含まれる前記テスト単語を、前記被験者内親密度に基づく順序で並べ替えて前記テスト単語列を得る、語彙数推定装置。
【請求項3】
請求項1または2の語彙数推定装置であって、
前記語彙数推定部は、前記モデルにおいて、前記利用者が前記単語を知っていると回答する確率に基づく値が所定値または所定値の近傍のときの前記語彙数に基づく値を、前記利用者の推定語彙数として出力する、語彙数推定装置。
【請求項4】
請求項1から3の何れかの語彙推定装置であって、
前記被験者内親密度に基づく順序が前記被験者内親密度の昇順であり、かつ、前記親密度に基づく順序が前記親密度の昇順であるか、または、
前記被験者内親密度に基づく順序が前記被験者内親密度の降順であり、かつ、前記親密度に基づく順序が前記親密度の降順である、語彙数推定装置。
【請求項5】
請求項1から4の何れかの語彙数推定装置であって、
前記被験者内親密度は、前記被験者のうち各前記テスト単語を知っていると回答した人数または割合に基づく値ある、語彙数推定装置。
【請求項6】
請求項1から5の何れかの語彙数推定装置であって、
各順位の前記テスト単語の知識に関する回答は、各順位の前記テスト単語を知っている、または、知らないとの回答である、語彙数推定装置。
【請求項7】
請求項1から6の何れかであって、
前記利用者は前記被験者集合に属する、語彙数推定装置。
【請求項8】
語彙数推定装置によって実行される語彙数推定方法であって、
順位付けされた複数の単語から選択された複数のテスト単語を要素とするテスト単語列と、順位付けされた複数の潜在語彙数を要素とする潜在語彙数列と、から抽出した各順位の前記テスト単語と前記潜在語彙数との組と、利用者の前記テスト単語の知識に関する回答とを用い、
前記利用者が前記単語を知っていると回答する確率に基づく値と、前記利用者が前記単語を知っていると回答したときの前記利用者の語彙数に基づく値と、の関係を表すモデルを得る語彙数推定ステップを有し、
前記複数のテスト単語は、被験者集合に属する被験者の前記テスト単語に対する被験者内親密度に基づく順序で順位付けされており、
前記複数の潜在語彙数は、前記複数のテスト単語に対応し、前記単語に対して予め定められた親密度に基づいて推定され、前記親密度に基づく順序で順位付けされている、語彙数推定方法。
【請求項9】
請求項1から7の何れかの語彙数推定装置としてコンピュータを機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、語彙数を推定する技術に関する。
【背景技術】
【0002】
ある人が知っている単語の総数をその人の語彙数という。語彙数推定テストは、その語彙数を短時間に精度よく推定するテストである(例えば、非特許文献1等参照)。以下にその推定手順の概要を示す。
(1)単語親密度DB(データベース)の単語リストからテスト単語を親密度順にほぼ一定間隔で選択する。テスト単語の親密度は、必ずしも一定間隔である必要はなく、ほぼ一定間隔であればよい。すなわち、テスト単語の親密度の数値に粗密があってもよい。なお親密度(単語親密度)とは単語のなじみ深さを数値化したものである。親密度が高い単語ほどなじみのある語であることを示す。
(2)テスト単語を利用者に提示し、その単語を知っているか否かを回答させる。
(3)このようなテスト単語に対する回答に当てはまるロジスティック曲線を生成する。ただし、このロジスティック曲線は、単語親密度DB中において各テスト単語よりも親密度が高い単語の総数を独立変数xとし、利用者が各単語を知っていると回答する確率を従属変数yとするものである。
(4)そのロジスティック曲線において、y=0.5に対応するxの値を求め、推定語彙数とする。なお、推定語彙数とは、利用者の語彙数と推定される値を意味する。
【0003】
この方法では、単語親密度DBを用いることで、選択されたテスト単語を知っているか否かをテストするだけで、利用者の語彙数を精度よく推定できる。
【先行技術文献】
【非特許文献】
【0004】
【文献】小林哲生,天野成昭,正高信男,“モバイル社会の現状と行方”,2007,NTT出版,p127-128.
【発明の概要】
【発明が解決しようとする課題】
【0005】
従来法では、ある親密度の単語を知っている者は、それより親密度の高い単語をすべて知っていると仮定して語彙数を推定している。
【0006】
しかしながら、従来法では予め定められた親密度を用いるため、利用者の語彙力と親密度の値が対応しない場合がある。つまり、利用者がある親密度の単語を知っていた場合であっても、それよりも親密度の高い単語を知らないこともある。逆に利用者がある親密度の単語を知らなくても、それよりも親密度の低い単語を知っている場合もある。このような場合、従来法では語彙数の推定精度が低下してしまう。
【0007】
例えば、大人にとっては親密度の高い単語でも、学習段階にある子どもにとっては、知っているかどうかバラつく単語もある。そのため、従来法において、大人を被験者として得られた親密度を用いて子供の語彙力を推定した場合、語彙数の推定精度が低下してしまう場合がある。
【0008】
本発明はこのような点に鑑みてなされたものであり、利用者の語彙数を高精度に推定することを目的とする。
【課題を解決するための手段】
【0009】
本発明の装置は、順位付けされた複数の単語から選択された複数のテスト単語を要素とするテスト単語列と、順位付けされた複数の潜在語彙数を要素とする潜在語彙数列と、から抽出した各順位の前記テスト単語と前記潜在語彙数との組と、利用者の前記テスト単語の知識に関する回答とを用い、前記利用者が前記単語を知っていると回答する確率に基づく値と、前記利用者が前記単語を知っていると回答したときの前記利用者の語彙数に基づく値と、の関係を表すモデルを得る。前記複数のテスト単語は、被験者集合に属する被験者の前記テスト単語に対する被験者内親密度に基づく順序で順位付けされており、前記複数の潜在語彙数は、前記複数のテスト単語に対応し、前記単語に対して予め定められた親密度に基づいて推定され、前記親密度に基づく順序で順位付けされている。
【発明の効果】
【0010】
本発明では、被験者集合に属する被験者の単語に対する被験者内親密度に基づく順序で単語を順位付けするため、生成したモデルで利用者の語彙数を高精度に推定できる。
【図面の簡単な説明】
【0011】
図1図1は実施形態の語彙数推定装置の機能構成を例示したブロック図である。
図2図2Aは各単語の親密度とその親密度の単語数との関係を例示したヒストグラムである。図2Bは各単語の親密度とその単語を知っている者の推定語彙数との関係を例示したヒストグラムである。
図3図3Aは利用者が単語を知っていると回答する確率と従来法で推定した語彙数との関係を表すロジスティック回帰のモデルを例示したグラフである。図3Bは利用者が単語を知っていると回答する確率と実施形態の方法で推定した語彙数との関係を表すロジスティック回帰のモデルを例示したグラフである。
図4図4Aは利用者が単語を知っていると回答する確率と従来法で推定した語彙数との関係を表すロジスティック回帰のモデルを例示したグラフである。図4Bは利用者が単語を知っていると回答する確率と実施形態の方法で推定した語彙数との関係を表すロジスティック回帰のモデルを例示したグラフである。
図5図5は提示部から提示される画面を例示した図である。
図6図6は提示部から提示される画面を例示した図である。
図7図7は提示部から提示される画面を例示した図である。
図8図8は提示部から提示される画面を例示した図である。
図9図9Aは単語を品詞ごとに分けることなくテストを行った場合における、利用者が単語を知っていると回答する確率と従来法で推定した語彙数との関係を表すロジスティック回帰のモデルを例示したグラフである。図9Bは品詞ごとテストを行った場合における、利用者が単語を知っていると回答する確率と従来法で推定した語彙数との関係を表すロジスティック回帰のモデルを例示したグラフである。
図10図10Aおよび図10Bは品詞ごとテストを行った場合における、利用者が単語を知っていると回答する確率と従来法で推定した語彙数との関係を表すロジスティック回帰のモデルを例示したグラフである。
図11図11Aおよび図11Bは、各学年での語彙の獲得割合を推定する語彙獲得曲線を例示した図である。
図12図12Aおよび図12Bは、各学年での語彙の獲得割合を推定する語彙獲得曲線を例示した図である。
図13図13は、実施形態の語彙数推定装置のハードウェア構成を例示したブロック図である。
【発明を実施するための形態】
【0012】
以下、図面を参照して本発明の実施形態を説明する。
[第1実施形態]
まず、本発明の第1実施形態を説明する。
図1に例示するように、本実施形態の語彙数推定装置1は、記憶部11、問題生成部12、提示部13、回答受付部14、および語彙数推定部15を有する。
【0013】
<記憶部11>
記憶部11には予め親密度データベース(DB)が格納されている。単語親密度DBは、M個の単語(複数の単語)と当該単語それぞれに対して予め定められた親密度(単語親密度)との組を格納したデータベースである。これにより、単語親密度DBのM個の単語は親密度に基づく順序(例えば、親密度順)で順位付けされている。Mは単語親密度DBに含まれる単語数を表す2以上の整数である。Mの値に限定はないが、例えば、Mは70000以上が望ましい。日本人の成人の語彙数が約4万から5万程度と言われているため、7万語程度あれば個人差を含めてほとんどの人の語彙をカバーできるからである。ただし、推定される語彙数は、基準となる単語親密度DBに含まれる語数が上限となる。そのため、外れ値となるような語彙数の多い人の語彙推定も行う場合には、Mの値をより大きくすることが望ましい。また、親密度(単語親密度)とは、単語のなじみ深さを数値化したものである(例えば、非特許文献1等参照)。親密度が高い単語ほどなじみのある語である。本実施形態では、親密度を表す数値が大きいほど親密度が高いことを表す。しかしこれは本発明を限定するものではない。記憶部11は、問題生成部12および語彙数推定部15からの読み出し要請を入力として、当該要請に応じた単語と、その単語の親密度を出力する。
【0014】
<問題生成部12>
入力:利用者またはシステムからの問題生成要請
出力:語彙数推定テストに使用するN個のテスト単語
問題生成部12は、利用者またはシステムからの問題生成要請を受け付けると、記憶部11の単語親密度DBに含まれる順序付けされた複数の単語から語彙数推定テストに使用する複数のテスト単語w(1),…,w(N)を選択して出力する。ただし、例えば、問題生成部12は、記憶部11の単語親密度DBに含まれる全単語を対象として、親密度順にほぼ一定間隔で単語をN個選択し、選択したN個の単語をテスト単語w(1),…,w(N)として出力する。テスト単語w(1),…,w(N)の親密度は、必ずしも一定間隔である必要はなく、ほぼ一定間隔であればよい。すなわち、一連のテスト単語w(1),…,w(N)の親密度の数値に粗密があってもよい。問題生成部12から出力されるテスト単語w(1),…,w(N)の順序に限定はないが、問題生成部12は、例えば親密度の高い順にテスト単語w(1),…,w(N)を出力する。テスト単語の数Nは、問題生成要請によって指定されてもよいし、予め定められていてもよい。Nの値に限定はないが、例えば50≦N≦100程度が望ましい。十分な推定を行うためにはN≧25であることが望ましい。Nが大きい方が精度の高い推定が可能であるが、利用者(被験者)の負荷が高くなる(ステップS12)。利用者の負荷を減らし、精度を高くするために、例えば50語ずつのテストを複数回(例えば、3回)実施し、それぞれのテストごとに語彙数を推定したり、複数回分の回答をまとめて推定しなおしてもよい。この場合、1度のテスト単語を少なくできるため、利用者の負担が少なく、それぞれのテストごとに結果が見られようにすれば利用者の回答モチベーション維持につながる。また、複数回分の語を合わせて最終的な語彙数推定を実施すれば、推定精度を向上できる。
【0015】
<提示部13>
入力:N個のテスト単語
出力:指示文およびN個のテスト単語
提示部13には、問題生成部12から出力されたN個のテスト単語w(1),…,w(N)が入力される。提示部13は、事前に設定された表示形式に従い、テスト単語w(1),…,w(N)を利用者100(被験者)に提示する。例えば、提示部13は、事前に設定された表示形式に従い、利用者100のテスト単語の知識に関する回答の入力を促す予め定められた指示文、およびN個のテスト単語w(1),…,w(N)を、語彙数推定テスト用のフォーマットで利用者100に提示する。この提示形式に限定はなく、これらの情報がテキストや画像などの視覚情報として提示されてもよいし、音声などの聴覚情報として提示されてもよいし、点字などの触覚情報として提示されてもよい。例えば、提示部13がPC(personal computer)、タブレット、スマートフォンなどの端末装置の表示画面であり、指示文およびテスト単語を電子的に表示してもよい。または、提示部13が印刷装置であり、指示文およびテスト単語を紙などに印刷して出力してもよい。あるいは提示部13が端末装置のスピーカーであり、指示文およびテスト単語を音声出力してもよい。または、提示部13が点字ディスプレイであり、指示文およびテスト単語の点字を提示してもよい。利用者100のテスト単語の知識に関する回答は、テスト単語を「知っている」または「知らない」の何れかを表すもの(各順位のテスト単語を知っている、または、知らないとの回答)であってもよいし、「知っている」および「知らない」を含む3以上の選択肢の何れかを表すものであってもよい。「知っている」および「知らない」以外の選択肢の例は「(知っているかどうか)自信がない」「単語としては知っているが、意味は知らない」などである。ただし、利用者100に「知っている」および「知らない」を含む3以上の選択肢から回答させても、「知っている」または「知らない」の何れかを回答させる場合に比べて語彙数推定精度が向上しない場合もある。例えば、利用者100に「知っている」「知らない」「自信がない」の3個の選択肢から回答を選ばせた場合、「自信がない」が選択されるか否かは利用者100の性格に依存する。このような場合には、選択肢を増やしても語彙数推定精度は向上しない。したがって、通常、利用者100にテスト単語を「知っている」または「知らない」の何れかから回答させる方が好ましい。以下では、利用者100にテスト単語を「知っている」または「知らない」の何れかから回答させる例を説明する。また、例えば、テスト単語は親密度が高い順に提示されるが、提示順はこれに限るものではなく、ランダムな順序でテスト単語が提示されてもよい(ステップS13)。なお、語彙数推定装置1の利用者100の集合を被験者集合と呼ぶことにする。被験者集合は、特定の属性(例えば、世代、性別、職業など)の利用者100の集合であってもよいし、任意の属性の利用者100の集合(構成メンバーの属性を制約しない集合)であってもよい。
【0016】
<回答受付部14>
入力:利用者のテスト単語の知識に関する回答
出力:利用者のテスト単語の知識に関する回答
指示文およびテスト単語が提示された利用者100は、利用者100のテスト単語の知識に関する回答を回答受付部14に入力する。例えば、回答受付部14は、PC、タブレット、スマートフォンなどの端末装置のタッチパネルであり、利用者100は当該タッチパネルに回答を入力する。回答受付部14が端末装置のマイクロホンであってもよく、この場合、利用者100は当該マイクロホンに回答を音声入力する。回答受付部14は、入力されたテスト単語の知識に関する回答(例えば、テスト単語を知っているとの回答、またはテスト単語を知らないとの回答)を受け付け、電子的なデータとして当該回答を出力する。回答受付部14は、テスト単語ごとに回答を出力してもよいし、1テスト分の回答をまとめて出力してもよいし、複数テスト分の回答をまとめて出力してもよい(ステップS14)。
【0017】
<語彙数推定部15>
入力:利用者のテスト単語の知識に関する回答
出力:利用者の推定語彙数
回答受付部14から出力された利用者100のテスト単語の知識に関する回答は、語彙数推定部15に入力される。語彙数推定部15は、各テスト単語w(n)(ただしn=1,…,Nである)について利用者100が「知っている」と回答した場合に、当該テスト単語w(n)を知っている人数をカウントアップする。語彙数推定部15は、当該テスト単語w(n)を知っている人数を記憶部11の単語親密度DBの当該テスト単語に対応付けて格納する。同様な処理を被験者集合に属する複数人の利用者100(被験者)の回答について行っていく。これにより、単語親密度DBの各テスト単語には、当該テスト単語w(n)を知っている人数が対応付けられていく。ここで、各テスト単語w(n)を知っていると回答した人数または割合に基づく、被験者集合に属する被験者の当該テスト単語w(n)に対する「なじみ深さ」を表す数値を被験者内親密度a(n)と呼ぶことにする。テスト単語w(n)の被験者内親密度a(n)は、当該テスト単語w(n)を知っていると回答した人数または割合に基づく値(例えば、関数値)である。例えば、テスト単語w(n)の被験者内親密度a(n)は、当該テスト単語w(n)を知っていると回答した人数そのものであってもよいし、当該テスト単語w(n)を知っていると回答した人数の非単調減少関数値(例えば、単調増加関数値)であってもよいし、回答を行った利用者100の総数に対する当該テスト単語w(n)を知っていると回答した人数の割合であってもよいし、被験者集合の全メンバーに対する当該テスト単語を知っていると回答した人数の割合であってもよいし、これら何れかの割合の非単調減少関数値(例えば、単調増加関数値)であってもよい。なお、各被験者内親密度a(n)の初期値は、例えば、テスト単語w(n)の親密度そのものであってもよいし、その他の固定値であってもよい(ステップS151)。
【0018】
語彙数推定部15には、さらに問題生成部12から出力されたテスト単語w(1),…,w(N)が入力される。語彙数推定部15は、記憶部11に格納された単語親密度DBを用い、各テスト単語w(n)の潜在語彙数x(n)を得る。前述のように、単語親密度DBには各単語の親密度が格納されている。語彙数推定部15は、この単語親密度DBの単語に対して予め定められた親密度に基づいて、各テスト単語w(n)に対応する潜在語彙数x(n)を得る。なお、テスト単語に対応する「潜在語彙数」は、被験者が当該テスト単語を知っている場合に当該被験者が知っているだろうと仮定できるすべての単語(当該テスト単語以外の単語を含む)の数(語彙数)である。例えば語彙数推定部15は、単語親密度DB中において各テスト単語w(n)よりも親密度が高い単語の総数を、各当該テスト単語を知っている者の潜在語彙数x(n)として得る。これは或るテスト単語を知っている者はそのテスト単語よりも親密度が高い単語を全て知っているとの仮定に基づく。すなわち、単語親密度DBにおける各親密度の単語の数をカウントすると、図2Aに例示するような、単語親密度DBの各単語の親密度とその親密度の単語数との関係を表すヒストグラムが得られる。図2Aの例では、親密度が1から7までの数値で表され、数値が大きいほど親密度が高いことを表す。このヒストグラムの単語数を親密度が高い順に累積加算していくと、図2Bに例示するような、単語の親密度とその単語を知っている者の推定語彙数との関係を例示したヒストグラムが得られる。或るテスト単語を知っている者はそのテスト単語よりも親密度が高い単語を全て知っていると仮定しているため、親密度が高い順に単語数を累積加算した値が各親密度の単語を知っている者の推定語彙数となる。以上のように語彙数推定部15は、単語親密度DB中の各テスト単語w(n)と各当該テスト単語w(n)の潜在語彙数x(n)との組を得、これによって複数のテスト単語w(1),…,w(N)が順位付け(順序付け)された親密度順単語列Wと、複数の潜在語彙数x(1),…,x(N)が順位付けされた潜在語彙数列Xとが対応付けられたテーブル[W,X]を得る。親密度順単語列Wは、複数のテスト単語w(1),…,w(N)を要素とする列であり、潜在語彙数列Xは、複数の潜在語彙数x(1),…,x(N)を要素とする列である。テーブル[W,X]では、すべてのn=1,…,Nについて、テスト単語w(n)が潜在語彙数x(n)にそれぞれ対応する。親密度順単語列では、複数のテスト単語w(1),…,w(N)が当該テスト単語w(1),…,w(N)の親密度に基づく順序(テスト単語の親密度の高さに基づく順序)で順位付けされている。潜在語彙数列では、複数の潜在語彙数x(1),…,x(N)がこれらに対応する複数のテスト単語w(1),…,w(N)の親密度に基づく順序で順位付けされている。親密度に基づく順序は、親密度の昇順であってもよいし、親密度の降順であってもよい。親密度に基づく順序が昇順であり、n,n∈{1,…,N}かつn<nであるならば、テスト単語w(n)の親密度はテスト単語w(n)の親密度以上である。一方、親密度に基づく順序が降順であり、n,n∈{1,…,N}かつn<nであるならば、テスト単語w(n)の親密度はテスト単語w(n)の親密度以上である。以下に、親密度の降順に配列されたテスト単語w(1),…,w(N)を要素とする親密度順単語列Wと、潜在語彙数x(1),…,x(N)を要素とする潜在語彙数列Xとが対応付けられたテーブル[W,X]を例示する(ステップS152)。
w(n) x(n)
銀行 722
経済 1564
大部分 2353
渋滞 2669
担当 2968
交通機関 3700
豊富 4507
遺伝子 4950
構成 5405
大衆 6401
愛称 6947
通過 8061
及ぶ 8695
配当 9326
領域 9982
着手 10640
率いる 11295
調節 11927
食い違う 12670
妨げる 13364
焼却 14120
遠征 14811
境界 15621
噴出 16387
取り込む 17127
総称 17888
和らげる 18604
拠点 19264
目分量 20008
成就 20764
こぞって 21532
境目 22232
他方 22930
権限 23587
制定 24286
無益 25028
比喩 25716
唐突 26339
撤廃 27597
弦 28882
入り交じる 29512
首長 30158
石庭 33144
介在 37357
始祖 46942
蜂起 53594
策定 55901
奏功 58358
親疎 69475
改鋳 71224
【0019】
次に語彙数推定部15は、記憶部11の単語親密度DBに格納された各テスト単語w(n)(ただし、n=1,…,N)を知っている人数を参照し、被験者内親密度a(1),…,a(N)に基づく順序(被験者内親密度の高さに基づく順序)でテスト単語w(1),…,w(N)を並べ替えたものを、テスト単語w’(1),…,w’(N)とする。すなわち、テスト単語w’(1),…,w’(N)は、被験者集合に属する被験者のテスト単語w’(1),…,w’(N)に対応する被験者内親密度a’(1),…,a’(N)に基づく順序で順位付けされている。ただし、a’(n)はテスト単語w’(n)の被験者内親密度である。なお、前述した親密度に基づく順序が親密度の昇順である場合、被験者内親密度に基づく順序も被験者内親密度の昇順である。親密度に基づく順序が親密度の降順である場合、被験者内親密度に基づく順序も被験者内親密度の降順である。すなわち、w’(1),…,w’(N)はw(1),…,w(N)の順序を並べ替えたものであり、{w’(1),…,w’(N)}={w(1),…,w(N)}である。被験者内親密度に基づく順序が昇順であり、n,n∈{1,…,N}かつn<nであるならば、テスト単語w’(n)の被験者内親密度a(n)は、テスト単語w’(n)の被験者内親密度a(n)以上である。例えば、N=5であり、被験者内親密度に基づく順序が昇順であり、a(2)<a(1)<a(3)<a(5)<a(4)の場合、語彙数推定部15は、w(1),w(2),w(3),w(4),w(5)をw’(1)=w(2),w’(2)=w(1),w’(3)=w(3),w’(4)=w(5),w’(5)=w(4)に並べ替える。一方、被験者内親密度に基づく順序が降順であり、n,n∈{1,…,N}かつn<nであるならば、テスト単語w’(n)の被験者内親密度a(n)は、テスト単語w’(n)の被験者内親密度a(n)以上である。例えば、N=5であり、被験者内親密度に基づく順序が降順であり、a(2)>a(1)>a(3)>a(5)>a(4)の場合、語彙数推定部15は、w(1),w(2),w(3),w(4),w(5)をw’(1)=w(2),w’(2)=w(1),w’(3)=w(3),w’(4)=w(5),w’(5)=w(4)に並べ替える。なお、いずれの場合も、潜在語彙数x(1),…,x(N)の並べ替えは行わない。これにより、語彙数推定部15は、テスト単語w’(1),…,w’(N)を要素とする列であるテスト単語列W’と、潜在語彙数x(1),…,x(N)を要素とする列である潜在語彙数列Xと、が対応付けられたテーブル[W’,X]を得る。以下に、ステップS152で例示したテーブル[W,X]の親密度順単語列Wを、被験者内親密度a(1),…,a(N)の降順に並べ替えて得られるテーブル[W’,X]を例示する(ステップS153)。
w’(n) x(n)
銀行 722
担当 1564
調節 2353
通過 2669
取り込む 2968
構成 3700
遺伝子 4507
交通機関 4950
率いる 5405
食い違う 6401
経済 6947
渋滞 8061
入り交じる 8695
境界 9326
豊富 9982
境目 10640
目分量 11295
権限 11927
噴出 12670
制定 13364
領域 14120
愛称 14811
拠点 15621
石庭 16387
和らげる 17127
他方 17888
首長 18604
配当 19264
無益 20008
及ぶ 20764
大部分 21532
焼却 22232
唐突 22930
着手 23587
妨げる 24286
遠征 25028
弦 25716
大衆 26339
撤廃 27597
総称 28882
成就 29512
こぞって 30158
始祖 33144
策定 37357
比喩 46942
奏功 53594
介在 55901
親疎 58358
蜂起 69475
改鋳 71224
【0020】
語彙数推定部15は、テスト単語列W’のテスト単語w’(1),…,w’(N)と潜在語彙数列Xの潜在語彙数x(1),…,x(N)とから抽出した各順位(同順位、各列同一の順位)n=1,…,Nのテスト単語w’(n)と潜在語彙数x(n)との組(w’(n),x(n))と、利用者100のテスト単語の知識に関する回答とを用い、利用者100が単語を知っていると回答する確率に基づく値(例えば、関数値)と、利用者100が当該単語を知っていると回答したときの利用者100の語彙数に基づく値(例えば、関数値)と、の関係を表すモデルφを得る。利用者100が単語を知っていると回答する確率に基づく値は、当該確率そのものであってもよいし、当該確率の補正値であってもよいし、当該確率の単調非減少関数値であってもよいし、当該確率のその他の関数値であってもよい。利用者100が前記単語を知っていると回答したときの利用者100の語彙数に基づく値は、当該語彙数そのものであってもよいし、当該語彙数の補正値であってもよいし、当該語彙数のその他の関数値であってもよい。モデルφが、さらに利用者100が単語を知っていると回答する確率に基づく値と、利用者100が当該単語を知らないと回答したとき(または、知っていると回答しなかったとき)の利用者100の語彙数に基づく値と、の関係を表してもよい。モデルφに限定はないが、モデルφの一例はロジスティック回帰のモデルである。説明の簡略化のため、以下では、利用者100が単語を知っていると回答する確率に基づく値が当該確率そのものであり、利用者100が前記単語を知っていると回答したときの利用者100の語彙数に基づく値が当該語彙数そのものであり、語彙数を独立変数xとし、利用者100が各単語を知っていると回答する確率を従属変数yとしたロジスティック曲線y=f(x,Ψ)がモデルφである場合を例示する。ただし、Ψはモデルパラメータである。この例の場合、語彙数推定部15は、利用者100が知っていると回答したテスト単語w’(n)について、利用者100が当該テスト単語w’(n)を知っていると回答する確率yが1(すなわち100%)であり、当該テスト単語w’(n)に対応する潜在語彙数xがx(n)である点(x,y)=(x(n),1)を設定する。また語彙数推定部15は、利用者100が知らないと回答した(または、知っていると回答しない)テスト単語w’(n)について、利用者100が当該テスト単語w’(n)を知っていると回答する確率yが0(すなわち0%)であり、そのときの当該テスト単語w’(n)に対応する潜在語彙数xがx(n)である点(x,y)=(x(n),0)を設定する。語彙数推定部15は、n=1,…,Nの各点(x,y)=(x(n),1)または(x(n),0)に対してロジスティック曲線への当てはめを行い、誤差を最小化するロジスティック曲線y=f(x,Ψ)をモデルφとして得る。すなわち、語彙数推定部15は、n=1,…,Nの各点(x,y)=(x(n),1)または(x(n),0)に対して誤差を最小化するロジスティック曲線y=f(x,Ψ)をモデルφとして得る。図3Bおよび図4Bにロジスティック曲線y=f(x,Ψ)のモデルφを例示する。図3Bおよび図4Bでは、横軸が潜在語彙数(x)を表し、縦軸が単語を知っていると回答する確率(y)を表す。丸印は利用者100が知っていると回答したテスト単語w’(n)に対する点(x,y)=(x(n),1)、および利用者100が知らないと回答した(または、知っていると回答しない)テスト単語w’(n)に対する点(x,y)=(x(n),0)を表す。図3Bおよび図4Bでは、複数の利用者100の複数のモデルφを点線のロジスティック曲線で表している(ステップS154)。
【0021】
語彙数推定部15は、モデルφにおいて、利用者100が単語を知っていると回答する確率に基づく値が所定値または所定値の近傍のときの潜在語彙数に基づく値を、利用者100の推定語彙数として出力する。例えば、語彙数推定部15は、モデルφにおいて、利用者100が単語を知っていると回答する確率が所定値または所定値の近傍(例えば、0.5または0.8等の所定値やその近傍)の潜在語彙数を、利用者100の推定語彙数として出力する。例えば、図3Bおよび図4Bの例では、或るモデルφについて、利用者100が単語を知っていると回答する確率yが0.5となる潜在語彙数を推定語彙数とする。具体的には、図3Bではx=12376、図4Bではx=11703をそれぞれ推定語彙数とする(ステップS155)。
【0022】
<本実施形態の特徴>
本実施形態では、語彙数推定部15が、親密度に基づく順序で順位付けされた複数のテスト単語w(1),…,w(N)を、被験者内親密度a(1),…,a(N)に基づく順序で並べ替えてテスト単語列w’(1),…,w’(N)を要素とするテスト単語列W’を得、単語に対して予め定められた親密度に基づいて推定され、親密度に基づく順序で順位付けされている潜在語彙数x(1),…,x(N)を要素とする潜在語彙数列Xを得、これらを対応付けたテーブル[W’,X]から抽出した各順位n=1,…,Nのテスト単語w’(n)と潜在語彙数x(n)との組(w’(n),x(n))と、利用者のテスト単語の知識に関する回答とを用い、利用者が単語を知っている確率に基づく値と利用者の語彙数に基づく値との関係を表すモデルφを得る。ここで、被験者内親密度a(1),…,a(N)に基づく順序でテスト単語w(1),…,w(N)を並べ替え、被験者内親密度a’(1),…,a’(N)に基づく順序で順位付けされたテスト単語列w’(1),…,w’(N)に潜在語彙数x(1),…,x(N)のそれぞれを対応付けることで、モデルφの精度が向上する。これによって語彙数の推定精度が向上する。
【0023】
すなわち従来法のように、単語に対して予め定められた親密度に基づいて、利用者100が各単語を知っていると回答したときの語彙数を推定する場合、予め定められた親密度が利用者100の属する被験者集合に不適切な場合がある。このような場合には、利用者100の語彙力を精度良く推定することはできない。例えば、大人であればほぼ誰でも知っていると考えられるような親密度の高い単語(例えば、親密度6以上の単語)「銀行」「経済」「大部分」でも、小学6年生を対象とした調査では、対象語を「知っている」と回答した子どもの割合は、「銀行」で99.3%,「経済」で73.8%,「大部分」で48.6%と大きく差がある。つまり、従来法では、近い親密度の単語でもどの単語をテスト単語として利用するかによって推定結果に大きな差がでる。
【0024】
また、単語の親密度はその調査時期によって異なるため、従来法では、親密度の調査時期から語彙数推定時期までの期間が長いほど、語彙数推定の精度が低下すると予想される。例えば、アナフィラキシーやレギンス,マニフェストといった語は親密度が20年前に比べて大きく上がったが、プリンスメロンや生テープ,ミリバールなどの語は親密度が大きく下がっている(例えば、参考文献1等参照)。そのため、こうした単語をテスト単語として従来法で語彙数を推定すると、推定誤差が大きくなると思われる。
参考文献1:藤田早苗,小林哲生,“単語親密度の再調査と過去のデータとの比較”,言語処理学会 第26回年次大会 発表論文集,2020年3月.
【0025】
これに対して、本実施形態では、被験者集合に属する被験者のテスト単語に対する被験者内親密度に基づいて各テスト単語に推定語彙数を対応付けるため、利用者のテスト単語の知識に関する回答から推定語彙数を精度良く求めることができる。
【0026】
図3および図4に従来法と本実施形態の方法で得られたモデルの比較を例示する。図3Aおよび図4Aは従来法によって求めたモデルを例示したものであり、図3Bおよび図4Bは、それぞれ図3Aおよび図4Aと同じ単語親密度DBおよび回答を用い、本実施形態で求めたモデルを例示する。図3Aおよび図4Aでも、横軸が潜在語彙数(x)を表し、縦軸が単語を知っていると回答する確率(y)を表す。図3Aおよび図4Aの丸印は利用者が知っていると回答したテスト単語w(n)に対する点(x,y)=(x(n),1)、および利用者が知らないと回答したテスト単語w(n)に対する点(x,y)=(x(n),0)を表す。図中のAICは赤池情報量規準を表し、値が小さいほどモデルの当てはまりがよいことを示す。図3AではAIC=55.3であるのに対し、図3BではAIC=16.4となっており、図4AではAIC=58.9であるのに対し、図4BではAIC=31.2となっている。何れの場合も本実施形態の方が従来法よりもAICが小さく、よりモデルの当てはまりがよいことが分かる。その他、小学6年生413人を対象とした調査でも、352人(85.2%)で本実施形態の方が従来法よりもAICが小さくなった。このように、本実施形態では利用者の語彙数を当てはまりの良いモデルで推定できる。
【0027】
<第1実施形態の変形例>
第1実施形態で例示したように、提示部13でN個のテスト単語すべてを提示し、N個のテスト単語すべてについて、回答受付部14で利用者のテスト単語の知識に関する回答を受け付けるのが実装上容易である。しかし、提示部13でテスト単語を順番に提示し、テスト単語が提示されるたびに回答受付部14で利用者のテスト単語の知識に関する回答を受け付けてもよい。この際、利用者が提示されたテスト単語を知らないとP回(Pは1以上の整数であり、好ましくは2以上の整数である。Pは事前に設定される)回答した時点で問題の提示を停止してもよい。この場合、利用者が回答を行っていないテスト単語については、当該利用者がそのテスト単語を知らないと回答したものとみなして各処理が実行される。あるいは、利用者が提示されたテスト単語を知らないと回答した場合、当該テスト単語と同程度の親密度の(あるいは、少し親密度の高い)別のテスト単語を提示し、回答受付部14で利用者のテスト単語の知識に関する回答を受け付けてもよい。知らないと回答したテスト単語の親密度近辺で詳細にテストすることで、利用者の語彙数推定精度を高めることができる。
【0028】
第1実施形態では、単語親密度DB中において各テスト単語w(n)よりも親密度が高い単語の総数を、各当該テスト単語を知っている場合の潜在語彙数x(n)とする例を示したが、これは本発明を限定するものではない。例えば、単語親密度DB中において各テスト単語w(n)よりも親密度が高い単語の総数に基づく値(例えば、非単調非減少関数値などの関数値)を、各当該テスト単語を知っている場合の潜在語彙数x(n)としてもよい。
【0029】
各利用者100についてステップS12,S13,S14,S151,S152,S153,S154,S155の処理を実行するのではなく、所定の人数の利用者100(被験者)についてステップS12,S13,S14,S151の処理が実行されるまで、ステップS152,S153,S154,S155の処理が実行されなくてもよい。また、所定の人数の利用者100(被験者)についてステップS12,S13,S14,S151の処理が実行された後、ステップS151でのテスト単語w(n)を知っている人数のカウントアップを停止してもよい。
【0030】
同じテスト単語w(1),…,w(N)に対し、所定の人数の利用者100についてステップS12,S13,S14,S151が実行され、さらにステップS152,S153でテーブル[W’,X]が得られた後、テーブル[W’,X]を記憶部11に格納しておいてもよい。これにより、同じテスト単語w(1),…,w(N)が用いられるのであれば、語彙数推定部15は、それ以降の語彙数推定においてテーブル[W’,X]を毎回計算する必要はない。この場合、語彙数推定部15は、記憶部11に格納されたテーブル[W’,X]から各順位n=1,…,Nのテスト単語w’(n)と潜在語彙数x(n)との組(w’(n),x(n))を抽出し、これらと回答受付部14で受け付けた利用者100のテスト単語の知識に関する回答とを用い、前述のモデルφを得ればよい。
【0031】
[第2実施形態]
次に本発明の第2実施形態を説明する。第2実施形態は第1実施形態および第1実施形態の変形例に対する変形例であり、特定分野の文章に特徴的な単語以外からテスト単語を選択する点でこれらと相違する。以下では第1実施形態および第1実施形態の変形例との相違点を中心に説明し、既に説明した事項については同じ参照番号を流用して説明を簡略化する。
【0032】
教育課程にいる子供の場合、教科書で出てきたり、重要項目として習ったりする単語に対する親密度は、大人の当該単語に対する親密度よりもむしろ高くなる場合も予想される。そのため、例えば教科書で出てくる単語や習いたての単語をテスト単語とし、教育課程にいる子供を対象として語彙数推定を行った場合、推定語彙数が大きくなり過ぎてしまう可能性がある。例えば、「比喩」という単語は、中学1年生で学習する。そのため、同程度の親密度の他の語に比べ、知っている人の割合が中学1年生で急激に跳ね上がる。こうした単語をテスト単語として中学1年生の利用者100の語彙数推定で利用すると、その推定語彙数が大きくなり過ぎてしまう可能性がある。横波、荘園、有機物など理科や社会などのある単元で重要語として出てくる単語も同様である。
【0033】
そのため、教育課程にいる子供の利用者100の語彙数推定を行う場合、教科書の文章(教科書分野の文章)の単語をテスト単語として利用しないことが望ましい。ただし、教科書の文章に含まれるすべての単語をテスト単語として利用しないことにしてしまうと、教科書の文章に含まれる一般的な単語もテスト単語として利用できなくなってしまう。そのため、教科書の文章に特徴的な単語のみをテスト単語として利用しないことが望ましい。教科書の文章に特徴的な単語とは、例えば、ある単元で繰り返し出てくる単語、重要単語として出てくる単語、ある教科でのみ出てくる単語などである。こうした教科書で特徴的に出てくる語かどうかの判断は、例えば、公知の教科書コーパス語彙表で教科書に特徴的な単語(例えば、特徴度が有意に高い単語)かどうかで判断できる。
教科書コーパス語彙表:
https://pj.ninjal.ac.jp/corpus_center/bccwj/freq-list.html
例えば、「弦」は教科書コーパス語彙表で、特徴度_小中高_全教科390.83, 特徴度_小_全教科11.28のようになっており、「弦」は教科書で特徴的に出てくる単語である。一方、「取り込む」は、特徴度_小_全教科0.01と、ほぼ特徴度が0に近く、教科書と一般文書における使用にほぼ差がない。そのため、例えば、教科書コーパス語彙表で特徴度の絶対値が閾値以下の単語をテスト単語とすることが望ましい。より好ましくは、教科書コーパス語彙表で特徴度が0に近い単語をテスト単語とすることが望ましい。利用者100の属性に応じ、テスト単語の候補から除外するか否かの判断に、小学校教科書の特徴度を用いてもよいし、特定の教科の教科書の特徴度を用いてもよいし、特定の学年の教科書の特徴度を用いてもよい。また、例えば小学生の利用者100の語彙数を推定する場合、小学校で習わない漢字を含む単語をテスト単語の候補から除外してもよい。同様に、大人の利用者100の語彙数推定を行う場合、ある専門分野の文章に特徴的な単語をテスト単語の候補から除外してもよい。このように、本実施形態では、特定分野の文章に特徴的な単語以外からテスト単語が選択される。以下に詳細に説明する。
【0034】
図1に例示するように、本実施形態の語彙数推定装置2は、記憶部21、問題生成部22、提示部13、回答受付部14、および語彙数推定部15を有する。第1実施形態との相違点は記憶部21および問題生成部22のみである。以下では、記憶部21および問題生成部22のみについて説明を行う。
【0035】
<記憶部21>
第1実施形態の記憶部11との相違点は、記憶部21が単語親密度DBに加え、特定分野の文章に特徴的な単語を格納した特定分野単語DBを格納する点である。特定分野の例は、教科書分野や専門分野である。教科書分野は、すべての教科書分野であってもよいし、特定の学年の教科書分野であってもよいし、特定の教科の教科書分野であってもよい。専門分野は、すべての専門分野であってもよいし、特定の専門分野であってもよい。特定分野単語DBは、例えば、教科書コーパス語彙表に特徴的によく出てくる語として記載された単語を記録した教科書DBや、専門書や専門のコーパスに特徴的によく出てくる語として記載された単語を記録した専門語DBなどである(ステップS21)。その他は第1実施形態と同一である。
【0036】
<問題生成部22>
問題生成部22は、利用者またはシステムからの問題生成要請を入力として受け付けると、記憶部21の単語親密度DBに含まれる複数の単語から語彙数推定テストに使用する複数のテスト単語w(1),…,w(N)を選択して出力する。問題生成部22が問題生成部12と相違する点は、記憶部11に代えて記憶部21からテスト単語を選択する点と、特定分野の文章に特徴的な単語以外からテスト単語を選択する点である。具体的には、問題生成部22は、例えば、記憶部21に格納された単語親密度DBおよび特定分野単語DBを参照し、単語親密度DBに記録されており、かつ、特定分野単語DBには記録されていない単語をN個選択し(例えば、親密度順にほぼ一定間隔で単語をN個選択し)、選択したN個の単語をテスト単語w(1),…,w(N)として出力する。その他は第1実施形態と同一である(ステップS22)。
【0037】
[第2実施形態の変形例]
第2実施形態では、問題生成部22が記憶部21に格納された単語親密度DBおよび特定分野単語DBを参照し、単語親密度DBに記録されており、かつ、特定分野単語DBには記録されていない単語をN個選択する例を示した。しかしながら、テストに利用可能、あるいは利用したい語彙リスト(すなわち、特定分野の文章に特徴的な単語以外の単語を要素とする語彙リスト)を予め用意しておき、その中から前述した親密度等の条件を満たすテスト単語を選択してもよい。また、語彙数推定以外の目的でも利用可能な語彙リストを予め用意しておき、その中からテスト単語を選択してもよい。
【0038】
記憶部21が時事性の高い単語を格納した時事単語DBを格納してもよい。この場合、問題生成部22は、記憶部21に格納された単語親密度DBおよび時事単語DBを参照し、単語親密度DBに記録されており、かつ、時事単語DBには記録されていない単語をN個選択し、選択したN個の単語をテスト単語としてもよい。時事性の高い単語とは、特定の時期の文章に特徴的な単語、すなわち、特定の時期に注目された単語である。言い換えると、時事性の高い単語とは、特定の時期の文章での出現頻度が他の時期の文章での出現頻度に比べて高い単語を意味する。以下に時事性の高い単語を例示する。
・特定の時期の文章での出現頻度の最高値が他の時期の文章での出現頻度の最高値よりも大きい単語
・特定の時期の文章での出現頻度の平均値が他の時期の文章での出現頻度の平均値よりも大きい単語
・特定の時期の文章での出現頻度の最高値から他の時期の文章での出現頻度の最高値を減じた値が正の閾値よりも大きい単語
・特定の時期の文章での出現頻度の平均値から他の時期の文章での出現頻度の平均値を減じた値が正の閾値よりも大きい単語
・他の時期の文章での出現頻度の最高値に対する特定の時期の文章での出現頻度の最高値の比率が正閾値よりも大きい単語
・他の時期の文章での出現頻度の平均値に対する特定の時期の文章での出現頻度の平均値の比率が正閾値よりも大きい単語
特定の時期の文章および他の時期の文章は、例えば、SNS、ブログ、新聞記事、雑誌のうち、少なくともいずれか1つ以上のメディア内の文章である。
例えば「コロナウイルス」「クラスター」などの時事性の高い単語は、調査時期によって親密度が大きく異なる。このような単語をテスト単語として語彙数推定を行った場合、利用者のテスト単語の知識に関する回答を受け付ける時期によっては正しく語彙数推定を行うことができない場合がある。例えば、単語親密度DBの親密度を調査した時期と、語彙数推定のために利用者のテスト単語の知識に関する回答を受け付けた時期とで、親密度が大きく異なる時事性の高い単語をテスト単語とした場合、語彙数推定を行うことができない。そのため、問題生成部は、時事性の高い単語以外からテスト単語を選択することが望ましい。
【0039】
なお、単語親密度DBに記録されており、かつ、時事単語DBには記録されていない単語をN個選択し、選択したN個の単語をテスト単語とするのではなく、テストに利用可能、あるいは利用したい語彙リスト(すなわち、時事性の高い単語以外の単語を要素とする語彙リスト)を予め用意しておき、その中から前述した親密度等の条件を満たすテスト単語を選択してもよい。この場合も、語彙数推定以外の目的でも利用可能な語彙リストを予め用意しておき、その中からテスト単語を選択してもよい。
【0040】
その他、特定分野の文章に特徴的な単語でも、時事性の高い単語でもない単語をテスト単語として選択してもよい。すなわち、問題生成部22は、特定分野の文章に特徴的な単語および/または時事性の高い単語以外からテスト単語を選択してもよい。
【0041】
[第3実施形態]
次に本発明の第3実施形態を説明する。第3実施形態は第1実施形態および第1実施形態の変形例に対するさらなる変形例であり、表記の妥当性の高さが所定の基準を満たす単語をテスト単語として選択する点でこれらと相違する。
【0042】
第3実施形態では、単語親密度DBに含まれる複数の単語のうち、表記の妥当性の高さが所定の基準を満たす単語をテスト単語として選択する。これは、通常使われない表記の単語をテスト単語として出題することによる利用者100の混乱を避けるためである。表記の妥当性の高さが所定の基準を満たす単語の例は、表記の妥当性が高い単語、すなわち、表記の妥当性の高さを表す値(指標値)が所定の閾値(第1閾値)以上または当該閾値を超える単語である。この場合、表記の妥当性の高さを表す値が所定の閾値以上または当該閾値を超える単語がテスト単語として利用される。また、表記の妥当性の高さが所定の基準を満たす単語の他の例は、複数の表記の中で表記の妥当性の高さを表す値の順位が所定順位よりも高い単語(例えば、複数の表記の中で妥当性の高さを表す値の順位が最も高い単語)である。この場合、表記の妥当性の高さを表す値の順位が所定順位よりも高い単語がテスト単語として利用される。表記の妥当性の高さを表す値としては、例えば、天野成昭,近藤公久,“日本語の語彙特性 第2巻”,三省堂,東京,1999(参考文献2)に記載されているものを用いることができる。すなわち、参考文献2では、同じエントリに対して複数の表記があり得るときの各表記の妥当性を数値で表現している。この数値を「表記の妥当性の高さを表す値」として利用できる。参考文献2では各表記の妥当性を1から5の数値で表現しており、例えば、「食い違う」の妥当性は4.70で表現され、「食違う」の妥当性は3.55で表現される。数値が大きいほど妥当性が高い。この場合、妥当性が低い「食違う」はテスト単語として利用されない。また、コーパス中で同じエントリに対して複数の表記が用いられている場合、このコーパス中での表記の出願頻度を「表記の妥当性の高さを表す値」として用いてもよい。
【0043】
単語親密度DBに含まれる複数の単語が、単語に対するなじみ深さの個人差を表す指標が閾値(第2閾値)以下または当該閾値未満の単語のみであってもよい。当該指標の値が小さいほど単語に対するなじみ深さの個人差は小さい。このような指標の一例は、複数の被験者が当該の知識に関する回答を行った際の回答(例えば、単語を知っているとの回答、単語を知らないとの回答など)の分散である。分散が高いということは、なじみがある語かどうかの評価が人によって大きく異なるということを表している。分散が高い単語を単語親密度DBから除外することで、利用者100に応じて語彙数の推定誤差がばらつくことを抑制できる。以下に詳細に説明する。
【0044】
図1に例示するように、本実施形態の語彙数推定装置3は、記憶部31、問題生成部32、提示部13、回答受付部14、および語彙数推定部15を有する。第1実施形態との相違点は記憶部31および問題生成部32のみである。以下では、記憶部31および問題生成部32のみについて説明を行う。
【0045】
<記憶部31>
記憶部31と第1実施形態の記憶部11との相違点は、記憶部31に格納された単語親密度DBが、単語に対するなじみ深さの個人差を表す指標(例えば、上述した回答の分散)が閾値以下または当該閾値未満の単語と、当該単語の親密度とを対応付けたものである点、および記憶部31が単語親密度DBに加え、単語親密度DBの各単語の表記の妥当性の高さを表す値(例えば、参考文献2に記載された各表記の妥当性を表す数値、またはコーパス中での表記の出願頻度)を記録した表記妥当性DBも格納する点である(ステップS31)。その他は第1実施形態と同一である。
【0046】
<問題生成部32>
問題生成部32は、利用者またはシステムからの問題生成要請を受け付けると、記憶部31の単語親密度DBに含まれる複数の単語から語彙数推定テストに使用する複数のテスト単語w(1),…,w(N)を選択して出力する。問題生成部32が問題生成部12と相違する点は、記憶部11に代えて記憶部31からテスト単語を選択する点と、表記の妥当性の高さが所定の基準を満たす単語をテスト単語として選択する点である。具体的には、問題生成部32は、例えば、記憶部31に格納された単語親密度DBおよび表記妥当性DBを参照し、単語親密度DBに記録されており、かつ、表記の妥当性の高さが所定の基準を満たす単語をN個選択し(例えば、親密度順にほぼ一定間隔で単語をN個選択し)、選択したN個の単語をテスト単語w(1),…,w(N)として出力する。その他は第1実施形態と同一である(ステップS32)。
【0047】
[第4実施形態]
第4実施形態は、第1~3実施形態および第1実施形態の変形例に対する変形例であり、テスト単語以外の単語についても適切な推定語彙数を推定する点でこれらと相違する。
【0048】
前述のように、第1実施形態等で説明した方法で語彙数推定を実施すれば、モデルφの精度が向上し、利用者の語彙数を高精度に推定できる。しかし、この手法では、各テスト単語w’(n)に対応する適切な潜在語彙数x(n)を得るために各テスト単語w’(n)の被験者内親密度a’(n)が必要であり、各テスト単語w’(n)の被験者内親密度a’(n)を得るために、被験者集合に属する一定数以上の利用者100(被験者)に対し、ステップS12,S13,S14,S151の処理を実行する必要がある。テスト単語を変更する場合には、変更後のテスト単語に対応する被験者内親密度が必要であり、被験者集合に属する一定数以上の利用者100について、ステップS12,S13,S14,S151の処理をやり直さなければならない。そのため、この手法ではテスト単語の変更が煩雑であるという問題がある。
【0049】
そこで本実施形態では、ステップS12,S13,S14,S151の処理をやり直すことなく、単語親密度DBのM個の単語w”(1),…,w”(M)の各単語w”(m)(ただし、m=1,…,M)について、被験者集合に属する利用者100にとって適切な潜在語彙数x”(m)を推定する。これにより、テスト単語の変更が容易になる。本実施形態では、単語wの特徴量(変数)γ,…,γから潜在語彙数x”を得る推定モデル(推定式)Ψ:x”=G(γ,…,γ,Θ)を得、この推定モデルΨの変数γ,…,γに各単語w”(m)の特徴量γ(m),…,γ(m)を適用することで、各単語w”(m)に対応する潜在語彙数x”(m)=G(γ(m),…,γ(m),Θ)を得る。ただし、Iは特徴量の個数を表す正整数であり、Θはモデルパラメータである。推定モデルに限定はなく、重回帰式や、ランダムフォレストなど、特徴量γ(m),…,γ(m)から潜在語彙数x”(m)を推定するものであれば、どのようなものでもよい。またモデルパラメータΘは、前述したテーブル[W’,X]のテスト単語列W’のテスト単語w’(1),…,w’(N)と潜在語彙数列Xの潜在語彙数x(1),…,x(N)とから抽出した各順位n=1,…,Nのテスト単語w’(n)と潜在語彙数x(n)との組(w’(n),x(n))を正解データ(訓練データ)とした機械学習によって得られる。例えば、n=1,…,Nについて、正解データの各テスト単語w’(n)の特徴量γ(n),…,γ(n)を推定モデルΨに適用して得られる潜在語彙数x”(n)=G(γ(n),…,γ(n),Θ)と、正解データの潜在語彙数x(n)との誤差(例えば、平均二乗誤差)を最小化するモデルパラメータΘが推定される。特徴量γの例は、単語w”の心像性(語のイメージし易さ)、単語親密度DBに格納されている単語w”の親密度、単語w”が具体物を表すか否かを表す値、コーパス中の単語w”の出現頻度などである。心像性の例は、日本語の語彙特性第3期「単語心像性データベース」(http://shachi.org/resources/3472?ln=jpn)に格納された7段階で評定した平均値である。あるいは、参考文献3等に開示された、単語に対する辞書の定義文を使って検索した結果が辞書の語義として適切かどうかの5段階評定値や評定平均値を当該単語の心像性として用いてもよい。この5段階評定値は当該単語がどの程度画像として表現し易いかを表す。
参考文献3:藤田早苗,平博順,永田昌明,“画像検索を用いた語義別画像付き辞書の構築”,“Enriching Dictionaries with Images from the Internet”,自然言語処理,Vol. 20, No. 2, pp. 223-250, 2013.
単語w”が具体物を表すか否かを表す値の例は、日本語語彙体系(シソーラス)で「具体」配下かどうかを表す値である。特徴量γ,…,γとして、単語w”の心像性、単語w”の親密度、単語w”が具体物を表すか否かを表す値、コーパス中の単語w”の出現頻度の全てを用いてもよいし、これらの一部のみを用いてもよいし(例えば、特徴量γ,…,γが単語w”の心像性を含むが、単語w”が具体物を表すか否かを表す値を含まない、または単語w”が具体物を表すか否かを表す値を含むが、特徴量γ,…,γが単語w”の心像性を含まないなど)、その他の値を用いてもよい。以下に詳細に説明する。
【0050】
図1に例示するように、本実施形態の語彙数推定装置4は、記憶部11、問題生成部12、提示部13、回答受付部14、および語彙数推定部45を有する。第1実施形態との相違点は語彙数推定部45のみである。以下では、語彙数推定部45のみについて説明を行う。
【0051】
<語彙数推定部45>
語彙数推定部45は、前述のステップS151,S152,S153の処理を実行してテーブル[W’,X]を得、当該テーブル[W’,X]を記憶部11に格納する。ただし、既にテーブル[W’,X]が記憶部11に格納されているのであれば、ステップS151,S152,S153の処理が省略されてもよい。語彙数推定部45は、テーブル[W’,X]のテスト単語列W’のテスト単語w’(1),…,w’(N)と潜在語彙数列Xの潜在語彙数x(1),…,x(N)とから抽出した各順位n=1,…,Nのテスト単語w’(n)と潜在語彙数x(n)との組(w’(n),x(n))を正解データとして用いた機械学習によって推定モデルΨ:x”=G(γ,…,γ,Θ)のモデルパラメータΘを得る。例えば、推定モデルΨが重回帰式である場合、推定モデルΨは以下の式(1)のように表される。
x”=G(γ,…,γ,Θ)
=θγ+…+θγ+θ (1)
ただし、Θ={θ,θ,…,θ}である。例えばI=4であり、γが単語w”の心像性であり、γが単語w”の親密度であり、γが単語w”が具体物を表すか否かを表す値であり、γがコーパス中の単語w”の出現頻度である場合、重回帰式の推定モデルΨは以下の式(2)のように表される。
x”=G(γ,…,γ,Θ)
=θγ+θγ+θγ+θγ+θ (2)
ただし、Θ={θ,θ,…,θ}である(ステップS454)。
【0052】
次に語彙数推定部45は、記憶部11の単語親密度DBの各単語w”(m)(ただし、m=1,…,M)の特徴量γ(m),…,γ(m)を得、これらとステップS454で得られたモデルパラメータΘとを推定モデルΨに代入して、各単語w”(m)に対応する潜在語彙数x”(m)=G(γ(m),…,γ(m),Θ)を得る。各潜在語彙数x”(m)は各単語w”(m)に対応付けられて記憶部11に格納される(ステップS455)。
【0053】
これ以降、語彙数推定を行う場合には、ステップS151~S153の処理を省略し、ステップS12,S13,S14,S154,S155の処理を行うことができる。ただし、ステップS12では問題生成部12が毎回同じテスト単語w(1),…,w(N)を選択する必要はない。またステップS154では、語彙数推定部15は、ステップS151で選択した各テスト単語w(n)と記憶部11で各テスト単語w(n)に対応付けられている潜在語彙数x”(n)との組(w(n),x”(n))と、利用者100のテスト単語の知識に関する回答とを用い、モデルφを得る。
【0054】
[第4実施形態の変形例]
語彙数推定装置4が、第1実施形態で説明した記憶部11および問題生成部12に代えて、第2実施形態またはその変形例で説明した記憶部21および問題生成部22を有していてもよい。この場合にはステップS12に代えてステップS22の処理が実行されるが、この場合も問題生成部22が毎回同じテスト単語w(1),…,w(N)を選択する必要はない。同様に、第3実施形態で説明した記憶部31および問題生成部32を有していてもよい。この場合にはステップS12に代えてステップS32の処理が実行されるが、この場合も問題生成部32が毎回同じテスト単語w(1),…,w(N)を選択する必要はない。
【0055】
[第5実施形態]
第5実施形態は、第1~4実施形態および第1実施形態の変形例に対する変形例である。第1~4実施形態および第1実施形態の変形例では、複数の単語と当該単語それぞれに対して予め定められた親密度との組を格納した単語親密度DBを用いて各単語の潜在語彙数を得た。しかし、このような単語親密度DBを用意できないときもある。第5実施形態では、このような単語親密度DBに代えて、少なくともコーパス中の単語の出現頻度に基づいて各単語の潜在語彙数を得る。この場合には、例えば、単語親密度DBに代えて、複数の単語と当該単語それぞれの出現頻度とを格納したDBが用いられる。さらに、コーパス中の単語の出現頻度に加え、単語の品詞に基づいて潜在語彙数を得てもよい。この場合は、例えば、単語親密度DBに代えて、複数の単語と当該単語それぞれの出現頻度および品詞とを格納したDBが用いられる。またさらに、これらの少なくとも何れかに加えて、被験者(例えば、日本人)の母国語(例えば、日本語)と異なる言語(例えば、英語)を母国語とする者(例えば、米国人)の当該言語の単語の親密度(外国語親密度)に基づいて、被験者に仮定される潜在語彙数を得てもよい。この場合には、単語親密度DBに代えて、複数の単語と当該単語それぞれの出現頻度および/または品詞と当該言語の単語の親密度とを格納したDBが用いられる。あるいは、上述のように単語の出現頻度、品詞、外国語親密度の少なくとも何れかから潜在語彙数を得ておき、単語親密度DBに代えて、複数の単語と当該単語それぞれに対して得られた潜在語彙数との組を対応付けたDBが用いられてもよい。
【0056】
上述のように、複数の単語と当該単語それぞれに対して予め定められた親密度との組を格納した単語親密度DBが得られない場合がある。例えば、第1~4実施形態および第1実施形態の変形例では、日本語の語彙数推定を行う例を示した。しかし本発明はこれに限定されず、本発明によって日本語以外の言語(例えば、英語)の語彙数推定を行ってもよい。しかし、非母国語を対象とした単語の親密度の大規模データは存在しない。例えば、利用者100が日本人である場合、日本語以外の英語などの言語は非母国語である。日本人を対象とした数万~数十万語の日本語の単語の親密度データは存在するが、日本人を対象とした英語の単語の親密度の大規模データは存在しない。例えば、「日本人英語学習者の英単語親密度」(横川、くろしお出版, 2006)では、日本人を対象として英語の単語の親密度が調査されているが、単語数は約3000語であり十分とは言えない。また、英語を母国語とする者を対象として調査された英語の親密度のデータは存在する(参考文献4:https://elexicon.wustl.edu/include/NewNews.html)。しかし、英語を母国語とする者と英語を非母国語とする日本人とでは、英語の単語の親密度は必ずしも一致しないだろう。
【0057】
あるいは、コーパス中での単語の出現頻度を用いて単語の親密度を推定することも考えられる。コーパス中での単語の出現頻度は、当該単語の親密度と相関があることが知られている。しかしながら、出願頻度が低いにもかかわらず親密度の高い単語も存在し、コーパス中での出現頻度が低い単語だからといって、必ずしも親密度が低い単語(難しい単語)であるとは限らない。
【0058】
また、各単語に難易度のレベルが付与された英語辞書も存在するが(例えば、参考文献5等参照)、難易度が数段のレベルに分けられている程度では、このレベルを親密度として語彙数推定を行うには粗すぎる。例えば、参考文献5では、日本の英語教育で利用すること目的に、英語の単語をレベル分けしているが、レベルの段数はA1,A2,B1,B2(A1<A2<B1<B2)の4段階のみである(品詞別収録語は7815語)。この場合、レベルA1の単語を1語知っている者がレベルA1の単語をすべて知っていると仮定できないだろう。なお、これらのレベルの段数においてα<βは、レベルαの単語の方がレベルβの単語よりも難易度が高いことを意味する。
参考文献5:CEFR-J Wordlist(http://www.cefr-j.org/download.html#cefrj_wordlist)
【0059】
そこで、本実施形態では、日本人向けに英語の単語がレベル分けされた語彙リスト(例えば、参考文献5のCEFR-J Wordlist ver1.6)をベースに、各レベルの中でさらに各単語を所定の順位付け基準に従って順位付けすることで各レベルをより詳細に分け、単語全体を各単語のなじみ深さ順と推定される順序に並べ替える。「所定の順位付け基準」の例は、コーパス中における各単語の出現頻度順に各単語を順位付けする基準、あるいは、英語を母国語とする者の親密度順に各単語を順位付けする基準などである。例えば、参考文献5のCEFR-J Wordlistでは、英語の単語に以下のようなレベルが付与されている。
レベルA1: a, a.m., about, above, action, activity, … , yours, yourself, zoo
(1197語、表記ゆれをまとめて1164語)
レベルA2: ability, abroad, accept, acceptable, …, yeah, youth, zone
(1442語、表記ゆれをまとめて1411語)
レベルB1,B2についても同様である。これらの各レベルの中で単語を「所定の順位付け基準」に従って順位付けして並べ替える。例えば、レベルA1ではa, about, yourself,,,,のように単語を出現頻度順に並び替える。各レベルA1,A2,B1,B2の中でそれぞれ出現頻度順に並べ替えた単語を並べ、全体として各単語のなじみ深さ順と推定される順序に並べる。このように、なじみ深さ順と推定される順序に並べられたM個の単語ω(1),…,ω(M)の各単語ω(m)に潜在語彙数x(m)を対応付ける。ただし、m,m∈{1,…,M}およびm<mに対してx(m)≦x(m)を満たす。
【0060】
このように単語を出現頻度順に順位付けて語彙数推定を行う場合、単語の出現頻度の順序と単語のなじみ深さの順序とができるだけ一致することが望ましい。しかしながら、動詞は活用するが、名詞は活用しないなど、活用するかどうかの有無によって、出現頻度の数え方が自明ではない場合がある。また、動詞より名詞の方が絶対数が多く、相対的な頻度が低くなるなど、品詞によってコーパス中の出現傾向に差がある場合もある。そのため、単語を出現頻度順に順位付けて語彙数推定を行う場合、すべての品詞の単語を同一の基準で扱うことは難しい。そこで、語彙数推定を品詞別に行うことが望ましい。すなわち、前述のようになじみ深さ順と推定される順序に並べられた同じ品詞のM個の単語ω(1),…,ω(M)の各単語ω(m)に潜在語彙数x(m)を対応付けたテーブルを用い、品詞別に語彙数推定を行ってもよい。ただし、m,m∈{1,…,M}およびm<mに対してx(m)≦x(m)を満たす。言い換えると、単語ω(1),…,ω(M)に含まれる、出現頻度がα(第1値)である「特定の品詞」の単語ω(m)を知っている者の推定語彙数z(m)は、出現頻度がα(第2値)(ただし、αはαよりも大きい、α>α)である当該「特定の品詞」の単語ω(m)を知っている者の推定語彙数z(m)よりも少ない。また、同じ単語に複数の品詞が考えられる場合、品詞によって単語のなじみ深さが異なる場合がある。例えば、同じ単語が或る品詞で使われることは少ないが別の品詞ではよく使われるなどといったこともある。こういった影響を避けるため、同じ単語に複数の品詞が考えられる場合、当該複数の品詞のうち当該単語の品詞として最もなじみ深い品詞(例えば、最も難易度のレベルの低い品詞)の単語とみなして、品詞別に語彙数推定を行う。すなわち、単語ω(m)または単語ω(m)の品詞のうち、単語ω(m)または単語ω(m)の品詞として最もなじみ深い品詞を上述の「特定の品詞」として、品詞別に語彙数推定を行う。例えば、単語「round」には、以下の副詞(adverb)、形容詞(adjective)、名詞(noun)、前置詞(preposition)の品詞が想定できる。
+-------+-------------+------+
| WORD | POS | CEFR |
+-------+-------------+------+
| round | adverb | A2 |
| round | adjective | B1 |
| round | noun | B1 |
| round | preposition | B2 |
| round | verb | B2 |
+-------+-------------+------+
ここで、副詞の「round」,形容詞の「round」,名詞の「round」,前置詞の「round」のレベルは、それぞれA2,B1,B1,B2,B2である。この場合、「round」を最もレベルの低い副詞(adverb)の単語とみなして語彙数推定を行う。
【0061】
以下、上述のようにコーパス中の単語の出現頻度および単語の品詞に基づいて単語を順位付けする効果を示す。
(1)コーパス中の単語の出現頻度順に単語を順位付けした場合(1900年以降のGoogle Booksの1 gramデータを利用)
certain,private,directly,ago,agricultural,psychological,pretty,mostly,involve,competitive,elementary,adams,majesty,tide,peaceful,vain,asleep,inform,fled,neural,quit,sincere,auf,conquered,jay,behold,administer,envy,delete,scenery,triangular,fireplace,preparatory,canterbury,pike,tout,regimen,reunion,arousal,deacon,tread,strenuous,arsenal,blaze,inquisition,inexperienced,tremble,aerosol,balkans,rubbish
CEFR-J Word List記載のレベルと品詞(複数品詞がある単語の場合、1つのみ記載)を併記すると次のようになる。
certain (A2, adjective), private (A2, adjective), directly (B1, adverb), ago (A1, adverb), agricultural (B1, adjective), psychological (B1, adjective), pretty (A2, adverb), mostly (A2, adverb), involve (B1, verb), competitive (B1, adjective), elementary (A1, adjective), adams (-, ), majesty (-, ), tide (B1, noun), peaceful (A2, adjective), vain (B1, adjective), asleep (A2, adjective), inform (B1, verb), fled (-, ), neural (-, ), quit (B2, adjective), sincere (B2, adjective), auf (-, ), conquered (-, ), jay (-, ), behold (-, ), administer (-, ), envy (B2, verb), delete (B1, verb), scenery (A2, noun), triangular (-, ), fireplace (B2, noun), preparatory (-, ), canterbury (-, ), pike (-, ), tout (-, ), regimen (-, ), reunion (A2, noun), arousal (-, ), deacon (-, ), tread (B2, verb), strenuous (-, ), arsenal (-, ), blaze (B2, verb), inquisition (-, ), inexperienced (B2, adjective), tremble (B1, verb), aerosol (-, ), balkans (-, ), rubbish (B1, noun)
例えば、上記リスト中の、adamsやcanterburyは多くの場合、Adams, Canterbury のように固有名詞として用いられることが多い。本来固有名詞として使われる語を語彙数推定に利用することは望ましくない。CEFR-J等のリストに含まれない語を用いないようにすれば、こうした語を用いないようにすることができる。また、頻度順では、peacefulよりagriculturalの方が頻度が高くなっているが、CEFR-Jでのpeaceful, agriculturalのレベルは、それぞれ、A2, B1レベルであり、CEFR-Jで定義されたレベルの方が直感に合う(つまり、peacefulの方がagriculturalよりもなじみがあり、多くの人が知っている単語)と考えられる。
【0062】
(2)CEFR-J Wordlistに出てくる単語のみを用い、各レベルの中でさらに各単語をコーパス中における各単語の出現頻度順に順位付けした例
certain, difficult, directly, ago, agricultural, psychological, pretty, mostly, involve, competitive, elementary, survive, evaluate, triumph, peaceful, vain, brave, inform, chin, enjoyment, imaginary, policeman, literal, thigh, absorb, erect, aristocracy, strangely, delete, distributor, dissatisfaction, tuition, likeness, tub, manipulate, homework, eloquence, comet, anyhow, fortnight, trainee, supervise, wetland, botany, enjoyable, razor, stimulant, dangerously, brilliantly, bully
わかりやすくするため、上述の各単語にCEFRにおけるレベルと、品詞を併記すると次のようになる。
[A2] certain (adjective), [A1] difficult (adjective), [B1] directly (adverb), ago (adverb), agricultural (adjective), psychological (adjective), pretty (adverb), mostly (adverb), involve (verb), competitive (adjective), elementary (adjective), survive (verb), [B2] evaluate (verb), triumph (noun), peaceful (adjective), vain (adjective), brave (adjective), inform (verb), chin (noun), enjoyment (noun), imaginary (adjective), policeman (noun), literal (adjective), thigh (noun), absorb (verb), erect (adjective), aristocracy (noun), strangely (adverb), delete (verb), distributor (noun), dissatisfaction (noun), tuition (noun), likeness (noun), tub (noun), manipulate (verb), homework (noun), eloquence (noun), comet (noun), anyhow (adverb), fortnight (noun), trainee (noun), supervise (verb), wetland (noun), botany (noun), enjoyable (adjective), razor (noun), stimulant (noun), dangerously (adverb), brilliantly (adverb), bully (verb)
この例の場合、副の出現頻度が他の品詞の出現頻度より相対的に低いため、副詞の単語は難しめの(なじみ深さが低い)順位に順位付けされる傾向がある。例えばB2レベルの語では、名詞である“fortnight”や“botany”より、副詞である”dangerously”, ”brilliantly”の方が順位が後ろになっているが、多くの人にとっては”dangerously”, ”brilliantly”の方が“fortnight”や“botany”よりもなじみ深いと感じられるだろう。
【0063】
(3)CEFR-J Wordlistに出てくる単語のみを用い、品詞ごとに各レベルの中でさらに各単語をコーパス中における各単語の出現頻度順に順位付けした例
動詞のみ:
[A1] get, [A2] feel, learn, teach, [B1] hurt, swim, provide, cross, avoid, train, snow, worry, hate, pursue, publish, steal, wander, pronounce, experience, [B2] soil, estimate, please, warm, involve, promote, defeat, engage, excuse, emerge, rid, derive, strengthen, persuade, assign, dig, interrupt, grab, thirst, classify, riddle, illuminate, drown, mourn, influence, experiment, row, exhibit, substitute, convert, decay
【0064】
名詞のみ:
[A1] minute, [A2] train, sheep, math, mommy, statement, [B1] male, ray, creature, shade, chin, balloon, playground, term, presence, aid, absence, infection, fifth, radiation, confusion, courage, tragedy, guilt, devotion, orbit, elbow, flock, theft, sadness, niece, sunrise, glide, chuckle, [B2] assembly, obligation, stability, dose, throat, holder, midst, query, strand, bankruptcy, correspondent, insult, interruption, hesitation, astronomy, chemotherapy
副詞のみ:
[A1] much, [B1] yet, usually, [A2] straight, [B2] far, across, forward, widely, mostly, roughly, worldwide, loudly, merely, forth, naturally, rarely, shortly, definitely, annually, extensively, aboard, evenly, anyhow, pleasantly, previously, practically, presumably, independently, promptly, morally, eagerly, eastward, admittedly, thirdly, powerfully, suitably, tremendously, overboard, stubbornly
これにより、品詞ごとに、なじみ深さの順に近い順位付けを行うことができる。
【0065】
以下、本実施形態の構成を詳細に説明する。図1に例示するように、本実施形態の語彙数推定装置5は、記憶部51、問題生成部52、提示部53、回答受付部54、および語彙数推定部55を有する。
【0066】
<記憶部51>
記憶部51と前述の記憶部11,21,31との相違点は、同じ品詞のM個の単語ω(1),…,ω(M)の各単語ω(m)(m=1,…,M)に上述した潜在語彙数x(m)を対応付けたDBが記憶部51に格納されている点のみである。何れか一つの品詞についてのDBのみが記憶部51に格納されてもよいし、複数の品詞それぞれについてDBが記憶部51に格納されてもよい。すなわち、DBの潜在語彙数x(m)は、例えば、コーパス中の単語ω(m)の出現頻度および単語の品詞に基づいて得られたものである。
【0067】
<問題生成部52>
問題生成部52は、利用者またはシステムからの問題生成要請を受け付けると、記憶部51のDBに含まれる、同じ品詞のM個の単語ω(1),…,ω(M)から語彙数推定テストに使用する複数のテスト単語w(1),…,w(N)を選択して出力する。すなわち問題生成部52は、同じ品詞のN個のテスト単語w(1),…,w(N)を選択して出力する。問題生成部52は、或る品詞のテスト単語w(1),…,w(N)のみを選択して出力してもよいし、複数の品詞のそれぞれについて、同じ品詞のN個のテスト単語w(1),…,w(N)を選択して出力してもよい。前述のように、テスト単語w(n)に複数の品詞が想定される場合、テスト単語w(n)の品詞のうち、テスト単語w(n)の品詞として最もなじみ深い、あるいは、最もよく用いられる、あるいは、学習の最も初期の段階で当該語の品詞として学習する品詞を当該テスト単語w(n)の品詞とみなす。その他は、第1,2,3実施形態の問題生成部12,22,32の何れかと同じである(ステップS52)。
【0068】
<提示部53,回答受付部54>
提示部53には、問題生成部52から出力された同じ品詞のN個のテスト単語w(1),…,w(N)が入力される。提示部13は、事前に設定された表示形式に従い、指示文および同じ品詞のテスト単語w(1),…,w(N)を利用者100に提示する。提示部53に、或る品詞のテスト単語w(1),…,w(N)のみが入力される場合、提示部13は、事前に設定された表示形式に従い、指示文および当該品詞のテスト単語w(1),…,w(N)を表示する。提示部53に、複数の品詞のそれぞれについて、同じ品詞のN個のテスト単語w(1),…,w(N)が入力される場合、提示部13は、事前に設定された表示形式に従い、指示文および同じ品詞のN個のテスト単語w(1),…,w(N)を提示する。品詞ごとに区分けされて、同じ品詞のN個のテスト単語w(1),…,w(N)が提示されてもよいし、利用者100によって選択された品詞のN個のテスト単語w(1),…,w(N)が提示されてもよい(ステップS53)。指示文およびテスト単語w(1),…,w(N)が提示された利用者100は、利用者100のテスト単語の知識に関する回答を回答受付部54に入力する。回答受付部54は、入力されたテスト単語の知識に関する回答を出力する(ステップS54)。
【0069】
以下に、提示部53からの提示内容を例示する。まず提示部53は、図5に例示するような画面510を表示する。例えば、画面510には「知っている語を選んでください。」との指示文、および品詞を選択するための各品詞(名詞、動詞、形容詞、副詞)に対応するボタン511,512,513,514が表示される。例えば、ボタン511,512,513,514には、選択されたことを表す表示部511a,512a,513a,514aが設けられている。利用者100が何れかの品詞のボタン511,512,513,514をクリックまたはタップして選択すると、選択したボタンの表示部にマークが表示される。例えば、利用者100がボタン511を選択した場合(名詞を選択した場合)、表示部511aにマークが表示される。このように品詞が選択されると、例えば提示部53は、図6の画面520を表示する。画面520には、画面510の表示内容に加え、さらに「知っている英語をタップしてください。「回答」ボタンは下部にあります」「知っている」「知らない」と回答を促す内容、および選択された品詞のN個のテスト単語w(1),…,w(N)が表示される。利用者100は、例えば知っているテスト単語をクリックまたはタップして選択して回答する。ただし、これは一例であり、テスト単語w(1),…,w(N)の全てを選択できる機能(「すべて選択」「すべての選択を解除」など)が画面に追加され、利用者100がこの機能を用いてテスト単語w(1),…,w(N)の全てを選択した後、知らない単語をタップ等して選択から外してもよい。図7に例示するように、選択されたテスト単語の部位の色が変化し、当該テスト単語が選択されたことを表示する。利用者100は、表示されたN個のテスト単語w(1),…,w(N)のうち、自らが知っているすべてのテスト単語を選択したと判断した場合、回答ボタン531をクリックまたはタップする。これにより、回答受付部14は、N個のテスト単語w(1),…,w(N)の知識に関する回答を出力する。
【0070】
<語彙数推定部55>
語彙数推定部55には、回答受付部54から出力された利用者100のテスト単語w(n)の知識に関する回答が入力される。語彙数推定部55は、前述のステップS151の処理を実行する。
【0071】
語彙数推定部55には、さらに問題生成部52から出力されたテスト単語w(1),…,w(N)が入力される。語彙数推定部55は、記憶部51に格納されたDBを用い、各テスト単語w(n)の潜在語彙数x(n)を得、前述のようにテスト単語w(1),…,w(N)が順位付けされた親密度順単語列Wと、潜在語彙数x(1),…,x(N)が順位付けされた潜在語彙数列Xとが対応付けられたテーブル[W,X]を得る(ステップS552)。
【0072】
さらに語彙数推定部55は、前述のステップS153の処理を実行し、テスト単語w’(1),…,w’(N)の列であるテスト単語列W’と、潜在語彙数x(1),…,x(N)の列である潜在語彙数列Xと、が対応付けられたテーブル[W’,X]を得る。
【0073】
語彙数推定部55は、前述のステップS154の処理を実行し、テスト単語列W’のテスト単語w’(1),…,w’(N)と潜在語彙数列Xの潜在語彙数x(1),…,x(N)とから抽出した各順位n=1,…,Nのテスト単語w’(n)と潜在語彙数x(n)との組(w’(n),x(n))と、利用者100のテスト単語の知識に関する回答とを用いてモデルφを得る。
【0074】
語彙数推定部55は、前述のステップS155の処理を実行し、モデルφにおいて、利用者100が単語を知っていると回答する確率に基づく値が所定値または所定値の近傍のときの語彙数に基づく値に基づく値を、利用者100の推定語彙数として出力する。出力された利用者100の推定語彙数は、例えば、図8のように表示される。図8の例では、画面540に「あなたの名詞の推定語彙数は1487です」「631語程度まで:小学校~中学校程度」「1404語程度まで:中学3年~高校1,2年程度」「2671語程度まで:高校3年~大学受験レベル」「4091語程度まで:大学受験~大学教養レベル」と表示される。
【0075】
図9Aは、品詞ごとに単語を分けることなく語彙数推定を行った際のロジスティック曲線y=f(x,Ψ)のモデルφを例示したものである。図9B図10Aおよび図10Bは、品詞ごとに語彙数推定を行った際のロジスティック曲線y=f(x,Ψ)のモデルφを例示したものである。横軸が語彙数(x)を表し、縦軸が単語を知っていると回答する確率(y)を表す。丸印は利用者100が知っていると回答したテスト単語w’(n)に対する点(x,y)=(x(n),1)、および利用者100が知らないと回答した(または、知っていると回答しない)テスト単語w’(n)に対する点(x,y)=(x(n),0)を表す。図9AではAIC=171.1であるのに対し、図9BではAIC=73.4であり、図10AではAIC=25.7であり、図10BではAIC=17.9である。これらより、品詞ごとに単語を分けることなく語彙数推定を行った場合に比べ、品詞ごとに語彙数推定を行った方がAICが小さく、条件が完全に一致しているわけではないもののよりモデルの当てはまりがよい傾向があることが分かる。
【0076】
[第5実施形態の変形例]
比較的出現頻度の低い単語であっても、よく使われる単語の派生形としてとらえれば難しい語とはいえない場合がある。例えば、CEFR-J Wordlistの難易度のレベルでみても、understand(verb)のレベルはA2であるのに対し、その派生語understandable(adjective),understanding(adjective),understanding(noun)のレベルはB2である。つまり、understand(verb)よりunderstandable(adjective),understanding(adjective),understanding(noun)の方が難易度の高いレベルが付与されている。
+----------------+-----------+------+
| WORD | POS | CEFR |
+----------------+-----------+------+
| understand | verb | A2 |
| understandable | adjective | B2 |
| understanding | adjective | B2 |
| understanding | noun | B2 |
+----------------+-----------+------+
また、in-,re-,un-のような接頭辞がつく単語は、接頭語を除いた単語としては比較的知られた語であることも多い。例えば、inexperiencedは出現頻度が低いため、出現頻度で順位付けを行うと順位が低くなるが(なじみが低い単語)、experienceは出現頻度が高く比較的知られた語である。CEFR-J Wordlistの難易度のレベルでみても、inexperienced(adjective)のレベルはB2だが、experience (noun)のレベルはA2であり、experienceに対して難易度の高いレベルが付されている。そのため、派生形の単語および/または接頭辞がつく単語をDBやテスト単語の候補から除外してもよい。
【0077】
日本語でカタカナ語(日本語文字の一種)となっている英語の単語(以下、「カタカナ語となっている単語」という)は、日本人によく知られている可能性が高い。例えば、button(ボタン)やrabbit(ラビット)などは日本人によく知られている単語である。このような単語では、日本人にとってのなじみ深さは、コーパス中における各単語の出現頻度や英語を母国語とする者の親密度を指標としたなじみ深さからは乖離したものとなる。そのため、カタカナ語となっている単語をテスト単語とすると、実際の語彙数より高く推定されてしまう可能性がある。そのため、カタカナ語となっている単語を、テスト単語として利用しないことが望ましい。カタカナ語となっている単語であるか否かは日英辞書から推測できる。例えば、日英辞書で単語の日本語訳がカタカナ語であるか否かを判定することで、カタカナ語となっている単語であるか否かを推測できる。カタカナ語となっている単語の全てをテスト単語の候補から除外するのではなく、カタカナ語となっている単語のうち、当該カタカナ語の日本人にとっての親密度が閾値を越える場合(当該親密度が高い場合)にのみ、当該カタカナ語となっている単語をテスト単語の候補から除外してもよい。例えば、impedance(インピーダンス)はカタカナ語となっている単語であるが、「インピーダンス」の日本人にとっての親密度は2.5と低く、誰でも知っている語でないと考えられるため、impedanceをテスト単語として選択してもよい。一方、「ラビット」や「ボタン」の日本人にとっての親密度は6以上であり、一般によく知られた語であると推測できるため、buttonやrabbitはテスト単語として選択されない。
【0078】
ローマ数字(例えば、xiv)や2~3文字以下の単語がDBやテスト単語の候補から除外されてもよい。特に、「所定の順位付け基準」がコーパス中における各単語の出現頻度順に各単語を順位付けする基準である場合、a.….b.….c.…といった記号や、英文中に出てくる英語以外の言語(フランス語)の語(例えば、la, de)などの出現頻度がカウントされてしまい、単語のなじみ深さを正しく評価できない場合があるからである。
【0079】
語彙数推定部55が、品詞ごとに推定語彙数を得た後、それらの推定語彙数を合計して得られるトータルの推定語彙数を出力してもよい。あるいは、語彙数推定部55が、或る品詞について推定語彙数を得た後、その品詞について推定語彙数から他の品詞についての推定語彙数を得て出力してもよい。
【0080】
本実施形態では、語彙数推定部55が、前述のステップS153の処理を実行してテスト単語を並べ替えてテーブル[W’,X]を得、テーブル[W’,X]から抽出した組(w’(n),x(n))と、利用者100のテスト単語の知識に関する回答とを用いてモデルφを得た。しかしながら、テスト単語の並べ替えを行うことなく、モデルφを得てもよい。すなわち、語彙数推定部55が、テーブル[W,X]のテスト単語列Wのテスト単語w(1),…,w(N)と潜在語彙数列Xの潜在語彙数x(1),…,x(N)とから抽出した各順位n=1,…,Nのテスト単語w(n)と潜在語彙数x(n)との組(w(n),x(n))と、利用者100のテスト単語の知識に関する回答とを用いてモデルφを得てもよい。この処理の具体例はw’(n)がw(n)に置換される以外、第1実施形態で説明した通りである。なお、この場合には、ステップS151,S153の処理は省略される。
【0081】
本実施形態では、日本人である利用者100の英語の単語の語彙数を推定する例を示した。しかしながら、本発明はこれに限定されず、その他の国籍の利用者100の非母国語の単語の語彙数を推定してもよい。すなわち、本実施形態の説明における、「日本人」を「任意の国民」に置換し、「日本語」を「母国語」に置換し、「英語」を「非母国語」に置換した形態で実施されてもよい。あるいは、本実施形態において、日本人である利用者100の日本語の単語の語彙数を推定してもよい。すなわち、「英語」を「日本語」に置換した形態で実施されてもよい。さらに、本実施形態において、その他の国籍の利用者100の母国語の単語の語彙数を推定してもよい。すなわち、本実施形態の説明における、「日本人」を「任意の国民」に置換し、「日本語」および「英語」を「母国語」に置換した形態で実施されてもよい。
【0082】
前述のように、第5実施形態を第2実施形態その変形例または第3実施形態に適用してもよい。すなわち、第5実施形態において、第2実施形態その変形例で説明したように、特定分野の文章に特徴的な単語以外からテスト単語を選択してもよい。また、第5実施形態において、第3実施形態で説明したように、表記の妥当性の高さが所定の基準を満たす単語をテスト単語として選択してもよい。
【0083】
第5実施形態では、複数の単語と当該単語それぞれに対して得られた潜在語彙数との組を対応付けたDBとが記憶部51に格納されていたが、これに代えて、前述のように各単語の潜在語彙数を得るための単語の出現頻度、品詞、外国語親密度の少なくとも何れを格納したDBが記憶部51に格納されていてもよい。この場合、語彙数推定部55は当該DBを用い、各テスト単語w(n)の潜在語彙数x(n)を得、前述のようにテスト単語w(1),…,w(N)が順位付けされた親密度順単語列Wと、潜在語彙数x(1),…,x(N)が順位付けされた潜在語彙数列Xとが対応付けられたテーブル[W,X]を得る(ステップS552)。
【0084】
[第6実施形態]
第6実施形態は、第1~5実施形態および第1実施形態の変形例に対する変形例であり、複数の利用者100のテスト単語の知識に関する回答から単語ごとに、各学年または各年齢での語彙の獲得割合を示す語彙獲得曲線を得る点でこれらと相違する。
【0085】
第1~5実施形態および第1実施形態の変形例では、各利用者の語彙数推定を行った。第6実施形態では、複数の利用者100のテスト単語の知識に関する回答、および利用者の学年または年齢から、各世代での語彙の獲得割合を示す語彙獲得曲線を得る。以下、詳細に説明を行う。
【0086】
図1に例示するように、本実施形態の語彙数推定装置6は、第1~5実施形態または第1実施形態の変形例の何れかの語彙数推定装置5に語彙獲得曲線算出部66、および語彙獲得曲線DBを格納する記憶部67を追加したものである。以下では、語彙獲得曲線算出部66および記憶部67のみについて説明を行う。
【0087】
<語彙獲得曲線算出部66>
入力:複数の利用者のテスト単語の知識に関する回答(複数学年分あるいは複数年齢分)
出力:単語ごとの語彙獲得曲線
語彙獲得曲線算出部66には、回答受付部14または54から出力された複数の利用者100のテスト単語の知識に関する回答が入力される。これらの回答は、複数の学年または年齢g(1),…,g(J)の利用者100に対し、前述のように提示部13または54から同一のN個のテスト単語w(1),…,w(N)を提示して得られたものである。ただし、Jは2以上の整数であり、j=1,…,Jとする。また本実施形態では、複数の利用者100のテスト単語の知識に関する回答とともに、当該利用者100の学年または年齢の情報も語彙獲得曲線算出部66に入力されるものとする。語彙獲得曲線算出部66は、当該回答と当該回答を行った利用者100の学年または年齢の情報とを用い、各テスト単語w(n)(ただし、n=1,…,N)について、各学年または年齢g(j)での各テスト単語w(n)の獲得割合r(j,n)を求める(ステップS661)。
【0088】
さらに、語彙獲得曲線算出部66は、各学年または年齢g(j)での各テスト単語w(n)の獲得割合r(j,n)を用い、各テスト単語w(n)について、各学年または年齢gに対する当該テスト単語w(n)の獲得割合r(n)を求める近似式である語彙獲得曲線r(n)=H(w(n),Θ’(n))を求め、当該語彙獲得曲線r(n)=H(w(n),Θ’(n))を特定する情報を記憶部67に出力する。語彙獲得曲線r(n)=H(w(n),Θ’(n))は、例えば、ロジスティック回帰で得られるロジスティック曲線である。語彙獲得曲線r(n)=H(w(n),Θ’(n))を特定する情報は、テスト単語w(n)とモデルパラメータΘ’(n)との組であってもよいし、語彙獲得曲線r(n)=H(w(n),Θ’(n))の波形データであってもよいし、その他の語彙獲得曲線r(n)を特定する情報であってもよいし、これらを複合したものでもよい。記憶部67は、テスト単語w(1),…,w(N)に対して得られたN個の語彙獲得曲線r(1),…,r(N)を特定する情報を語彙獲得曲線DBとして格納する。図11A図11B図12A図12Bに、テスト単語「渋滞」「総称」「成就」「奏功」の語彙獲得曲線を例示する。これらの図の横軸は学年を表し、縦軸は獲得割合を示す。なお、これらの図の横軸では、小学1年から6年を1~6学年とし、中学1年から3年を7~9学年とし、高校1年から3年を10~12学年としている。また丸印はステップS661で得られた各学年または年齢g(j)での各テスト単語w(n)の獲得割合r(j,n)を表す。これらの例では、50%の者が「総称」を獲得する学年が7.8年と推定され、50%の者が「成就」を獲得する学年が9.2年と推定され、50%の者が「奏功」を獲得する学年が29.5年と推定される(ステップS662)。語彙を獲得する学年が小数で表される値となった場合、整数値の学年として捉え、小数値は年間を10分割した場合の時期と捉えればよい。例えば、獲得する学年が7.8年であれば、中学1年の後半に獲得すると推定される。また、語彙を獲得する学年が12を超える値であってもよい。この場合、例えば高校卒業年の4月から始まる経過年数χを12に加えた値χ+12を学年と定義する。例えば、29学年は35歳となる。この場合も上述のように学年が小数で表されてもよい。
【0089】
[第6実施形態の変形例]
第6実施形態では、第1~5実施形態または第1実施形態の変形例での語彙数推定の過程で回答受付部14または54から出力された複数の利用者100のテスト単語の知識に関する回答、および当該利用者100の学年または年齢の情報が語彙獲得曲線算出部66に入力され、語彙獲得曲線算出部66が語彙数推定を行った。しかしながら、上述の語彙数推定の過程以外で得られた、複数の学年または年齢の利用者による、同一の単語の知識に関する回答(例えば、当該単語を知っているか否かの回答)および当該利用者の学年または年齢の情報が語彙獲得曲線算出部66に入力され、語彙獲得曲線算出部66がこれらを用いて語彙獲得曲線を得てもよい。
例えば、同一の単語の知識に関する回答は、語彙力推定以外の目的で行われた当該単語を知っているか否かの調査で得られたものでもよいし、「漢字テスト」や「漢字の読みテスト」の結果であってもよい。すなわち、同じ単語について複数の学年(年齢)で調査して得られた当該単語の知識に関する回答であれば、どのようなものが用いられてもよい。
【0090】
図1に例示するように、語彙数推定装置6がさらに獲得学年推定部68を有していてもよい。
<獲得学年推定部68>
入力:各学年または年齢での特定の単語(語彙)の獲得割合が要求される場合には当該単語(ケース1)、特定の学年または年齢の獲得割合が要求される場合には当該単語および当該学年または年齢(ケース2)
出力:ケース1の場合には入力された単語の語彙獲得曲線、ケース2の場合には入力された学年または年齢での入力された単語の獲得割合
【0091】
ケース1の場合、獲得学年推定部68には、対象となる単語が入力される。獲得学年推定部68は入力された単語に一致する単語w(n)の語彙獲得曲線r(n)=H(w(n),Θ’(n))を特定する情報を記憶部67の語彙獲得曲線DBから抽出し、当該語彙獲得曲線r(n)=H(w(n),Θ’(n))を出力する。
【0092】
ケース2の場合、獲得学年推定部68には、対象となる単語、および対象の学年または年齢が入力される。獲得学年推定部68は入力された単語に一致する単語w(n)の語彙獲得曲線r(n)=H(w(n),Θ’(n))を特定する情報を記憶部67の語彙獲得曲線DBから抽出する。さらに獲得学年推定部68は語彙獲得曲線r(n)=H(w(n),Θ’(n))における、対象の学年または年齢での獲得割合を得て出力する。
【0093】
なお、対象の学年または年齢は、ステップS661,S662で語彙獲得曲線を得るために語彙獲得曲線算出部66に入力された回答を行った利用者の学年または年齢以外の学年または年齢での獲得割合であってもよい。例えば、図11A図11B図12A図12Bの語彙獲得曲線を得るために、学年g(j)=9(中学3年生)に対応する獲得割合r(j,n)は用いられていないが、獲得学年推定部68は学年9での獲得割合を得ることもできる。
【0094】
さらにケース1,2で獲得学年推定部68がさらに、50%の者が対象の単語を獲得した学年または年齢を得て出力してもよい。
【0095】
[ハードウェア構成]
各実施形態における語彙数推定装置1-6は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)やRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、単独で処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
【0096】
図13は、各実施形態における語彙数推定装置1-6のハードウェア構成を例示したブロック図である。図13に例示するように、この例の語彙数推定装置1-6は、CPU(Central Processing Unit)10a、入力部10b、出力部10c、RAM(Random Access Memory)10d、ROM(Read Only Memory)10e、補助記憶装置10f及びバス10gを有している。この例のCPU10aは、制御部10aa、演算部10ab及びレジスタ10acを有し、レジスタ10acに読み込まれた各種プログラムに従って様々な演算処理を実行する。また、入力部10bは、データが入力される入力端子、キーボード、マウス、タッチパネル等である。また、出力部10cは、データが出力される出力端子、ディスプレイ、所定のプログラムを読み込んだCPU10aによって制御されるLANカード等である。また、RAM10dは、SRAM (Static Random Access Memory)、DRAM (Dynamic Random Access Memory)等であり、所定のプログラムが格納されるプログラム領域10da及び各種データが格納されるデータ領域10dbを有している。また、補助記憶装置10fは、例えば、ハードディスク、MO(Magneto-Optical disc)、半導体メモリ等であり、所定のプログラムが格納されるプログラム領域10fa及び各種データが格納されるデータ領域10fbを有している。また、バス10gは、CPU10a、入力部10b、出力部10c、RAM10d、ROM10e及び補助記憶装置10fを、情報のやり取りが可能なように接続する。CPU10aは、読み込まれたOS(Operating System)プログラムに従い、補助記憶装置10fのプログラム領域10faに格納されているプログラムをRAM10dのプログラム領域10daに書き込む。同様にCPU10aは、補助記憶装置10fのデータ領域10fbに格納されている各種データを、RAM10dのデータ領域10dbに書き込む。そして、このプログラムやデータが書き込まれたRAM10d上のアドレスがCPU10aのレジスタ10acに格納される。CPU10aの制御部10aaは、レジスタ10acに格納されたこれらのアドレスを順次読み出し、読み出したアドレスが示すRAM10d上の領域からプログラムやデータを読み出し、そのプログラムが示す演算を演算部10abに順次実行させ、その演算結果をレジスタ10acに格納していく。このような構成により、語彙数推定装置1-6の機能構成が実現される。
【0097】
上述のプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。
【0098】
このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。上述のように、このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
【0099】
各実施形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
【0100】
なお、本発明は上述の実施形態に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
【符号の説明】
【0101】
1~6 語彙数推定装
12,22,32,52 問題生成部置
13,53 提示部
14,54 回答受付部
15,45,55 語彙数推定部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13