(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6246658
(24)【登録日】2017年11月24日
(45)【発行日】2017年12月13日
(54)【発明の名称】時間表現学習方法、装置およびプログラム
(51)【国際特許分類】
G06F 17/30 20060101AFI20171204BHJP
【FI】
G06F17/30 350C
【請求項の数】8
【全頁数】10
(21)【出願番号】特願2014-101383(P2014-101383)
(22)【出願日】2014年5月15日
(65)【公開番号】特開2015-219633(P2015-219633A)
(43)【公開日】2015年12月7日
【審査請求日】2017年1月30日
(73)【特許権者】
【識別番号】000208891
【氏名又は名称】KDDI株式会社
(74)【代理人】
【識別番号】100092772
【弁理士】
【氏名又は名称】阪本 清孝
(74)【代理人】
【識別番号】100119688
【弁理士】
【氏名又は名称】田邉 壽二
(72)【発明者】
【氏名】服部 元
(72)【発明者】
【氏名】滝嶋 康弘
【審査官】
笠田 和宏
(56)【参考文献】
【文献】
特開2002−024212(JP,A)
【文献】
特開2012−230614(JP,A)
【文献】
特開2013−003992(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
IPC G06F 3/16
15/18
17/20−17/30
G06N 3/00− 3/12
7/08−99/00
(57)【特許請求の範囲】
【請求項1】
曖昧な時間表現から定量的な時間表現を予測する予測モデルを学習する時間表現学習装置において、
学習データ候補の中から、曖昧な時間表現および日時特定可能な事象表現を含む学習データを抽出する学習データ抽出手段と、
履歴情報から、前記事象表現に関連する履歴の日時を検索して、前記曖昧な時間表現に対応する実績値を算出する手段と、
前記曖昧な時間表現とその実績値との対応関係に基づいて予測モデルを構築する手段とを具備したことを特徴とする時間表現学習装置。
【請求項2】
前記事象表現に関連する日時の検索結果を評価する評価手段を具備し、
評価値が所定の基準値に満たない対応関係は予測モデルの構築に用いないことを特徴とする請求項1に記載の時間表現学習装置。
【請求項3】
前記評価手段は、前記検索結果をマッチング精度が高いほど高く評価することを特徴とする請求項2に記載の時間表現学習装置。
【請求項4】
前記評価手段は、前記検索結果が複数個得られたときに、各日時の分散が大きいほど低く評価することを特徴とする請求項2または3に記載の時間表現学習装置。
【請求項5】
音声信号を検出する手段と、
前記音声信号を文字データの時系列に変換する手段と、
前記文字データの時系列を所定の規則で分割して学習データ候補を生成する手段とを具備したことを特徴とする請求項1ないし4のいずれかに記載の時間表現学習装置。
【請求項6】
多数の曖昧な時間表現を記憶する時間表現データベースと、
多数の日時特定可能な事象表現を記憶する事象表現データベースとを具備し、
前記学習データ抽出手段は、前記時間表現データベースに記憶されている時間表現および前記事象表現データベースに記憶されている事象表現を前記学習データ候補の中から抽出することを特徴とする請求項1ないし5のいずれかに記載の時間表現学習装置。
【請求項7】
曖昧な時間表現から定量的な時間表現を予測する予測モデルを学習する時間表現学習方法において、
学習データ候補の中から、曖昧な時間表現および日時特定可能な事象表現を含む学習データを抽出し、
履歴情報から、前記事象表現に関連する履歴の日時を検索して、前記曖昧な時間表現に対応する実績値を算出し、
前記曖昧な時間表現とその実績値との対応関係に基づいて予測モデルを構築することを特徴とする時間表現学習方法。
【請求項8】
曖昧な時間表現から定量的な時間表現を予測する予測モデルを学習する時間表現学習プログラムにおいて、
記憶手段に記憶されている学習データ候補の中から、曖昧な時間表現および日時特定可能な事象表現を含む学習データを抽出する手順と、
予め記憶手段に記憶されている履歴情報から、前記事象表現に関連する履歴の日時を検索して、前記曖昧な時間表現に対応する実績値を算出する手順と、
前記曖昧な時間表現とその実績値との対応関係に基づいて予測モデルを構築する手順と、
をコンピュータに実行させることを特徴とする時間表現学習プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、「昔に」、「ちょっと前に」、「近いうちに」、「数年前に」、「以前に」などの曖昧な時間表現から、定量的あるいは具体的な時間表現を予測するための予測モデルを学習する時間表現学習方法、装置およびプログラムに係り、特に、特別な学習機会を設けることなく、各人に固有の予測モデルを学習できる時間表現学習方法、装置およびプログラムに関する。
【背景技術】
【0002】
「昔に」、「ちょっと前に」、「近いうちに」、「数年前に」、「以前」などの曖昧な時間表現は、個人ごとに各表現が表わす具体的な時間表現(3日前〜5日前、6か月前〜3年前、1日後〜1か月後など)が異なることから、情報検索や会話中の意図を共有の場面において意図伝達の障害となる。そこで、日常の発言に含まれる曖昧な時間表現を抽出して個人の時間感覚を獲得し、情報検索や会話中の意図共有を支援する装置が研究されている。
【0003】
特許文献1には、情報検索の場面において、利用者が入力した曖昧な時間表現に対し、定量的な時間表現を割り当てる機能が開示されている。ここでは、曖昧な時間表現(昨日、5時頃、など)と定量的な時間表現(●月●日、4時〜6時、など)とをマッピングするための対応表(「夜半」は0時、など)およびルール(「頃」は時間を±1する、など)を予め用意し、これらの対応表およびルールに従って時間表現が変換される。
【0004】
非特許文献1は、曖昧な時間表現を定量的な時間表現に変換する際に、「ほぼ」、「少し」などの程度を表す表現に対して、時間の単位の大きさに応じた曖昧さを表す幅を付与する方法が開示されている。例えば、「3分くらい」と「3時間くらい」とでは曖昧さの程度が違うため、その単位の大きさ(分、時間)に応じた幅が付与される。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開平10−254891
【非特許文献】
【0006】
【非特許文献1】「あいまいさを含む時間概念の表現と推論」、全国大会講演論文集 第39回平成元年後期(1), 357-358, 1989-10-16
【発明の概要】
【発明が解決しようとする課題】
【0007】
人が過去の記憶や情報を検索する際や、未来の約束をする場合に、時間情報が正確に入力できないケースがあり、曖昧な時間表現として、例えば「ちょっと前に」、「近いうちに」などを用いることがある。しかしながら、「ちょっと前に」が1時間前〜3時間前なのか、あるいは1時間前〜5時間前なのかなど、曖昧な時間表現が表わす定量的な時間表現は個人ごとに異なる。したがって、曖昧な時間表現をそのまま用いてしまうと、情報検索システムや対話相手が正しく時間情報を理解できないという問題が生じる。
【0008】
特許文献1では、あらかじめ用意した対応表およびルールを用いた変換方法で解決を試みているが、時間感覚は個人ごとに異なるため、(1) 個人ごとに管理者等が手作業で作成しなければならず、手間がかかってしまう、(2) 時間の範囲を設定する定量的な時間表現だけでは、外れた際のリスクを想定する必要があるため、時間の範囲を必要以上に広く設定する必要があり、さらには(3) 範囲内のどの時間の確率が高いかについても判断できない、といった技術課題があった。このため、例えば情報検索に利用するシーンでは、過剰な情報を検索結果として取得してしまい、かつ検索結果に対する優先度付けを行うことができないため、検索結果の可読性を高めることができなかった。
【0009】
非特許文献1では、表現に対して一定のルールに従い幅を付与することができるが、個人差を考慮した柔軟な設定に対応できない。
【0010】
本発明の目的は、上記の技術課題を解決し、特別な学習機会や専門の管理者を設けることなく、個人差を考慮した学習を簡単に行える時間表現学習方法、装置およびプログラムを提供することにある。
【課題を解決するための手段】
【0011】
上記の目的を達成するために、本発明は、曖昧な時間表現から定量的な時間表現を予測する予測モデルを学習する時間表現学習装置において、以下の構成を具備した点に特徴がある。
【0012】
(1) 学習データ候補の中から、曖昧な時間表現および日時特定可能な事象表現を含む学習データを抽出する学習データ抽出手段と、履歴情報から、前記事象表現に関連する履歴の日時を検索して、前記曖昧な時間表現に対応する実績値を算出する手段と、曖昧な時間表現とその実績値との対応関係に基づいて予測モデルを構築する手段とを具備した。
【0013】
(2) 事象表現に関連する日時の検索結果を評価する評価手段を具備し、評価値が所定の基準値に満たない対応関係は予測モデルの構築に用いないようにした。
【0014】
(3) 音声信号を検出する手段と、音声信号を文字データの時系列に変換する手段と、文字データの時系列を所定の規則で分割して学習データ候補を生成する手段とを具備した。
【発明の効果】
【0015】
本発明によれば、以下のような効果が達成される。
【0016】
(1) 曖昧な時間表現を、これを発声したユーザの履歴情報に基づいて、当該ユーザが過去に用いた曖昧な時間表現に対応した実績値すなわち対応する実際の期間を検索して対応付けて学習するので、曖昧な時間表現から定量的な時間表現を正確に予測できる予測モデルをユーザごとに構築できるようになる。
【0017】
(2) 曖昧な時間表現に対応した実績値の検索結果を、そのマッチング精度や分散に基づいて評価し、評価値の低い検索結果は予測モデルの構築に利用しないようにしたので、確度の低い検索結果や誤った検索結果に基づいて予測モデルが構築されてしまうことを防止できるようになる。
【0018】
(3) ユーザが日常的に発声する音声データを検知して学習データ候補を生成するようにしたので、特別な学習機会や専門の管理者を設けることなく、個人差を考慮した学習を簡単に行えるようになる。
【図面の簡単な説明】
【0019】
【
図1】本発明の一実施形態に係る時間表現学習装置の構成を示した機能ブロック図である。
【
図2】多数の学習データ候補の中から学習データを抽出する方法を模式的に表現した図である。
【
図3】予測モデルDBに蓄積される予測モデルの一例を示した図である。
【
図4】予測モデルの学習手順を示したフローチャートである。
【
図5】本発明を適用したスマートフォンの機能ブロック図である。
【発明を実施するための形態】
【0020】
以下、図面を参照して本発明の実施の形態について詳細に説明する。
図1は、曖昧な時間表現から定量的な時間表現を予測する予測モデルを学習する、本発明の一実施形態に係る時間表現学習装置の構成を示した機能ブロック図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。
【0021】
このような時間表現学習装置は、汎用のコンピュータやサーバ、あるいはスマートフォンやタブレット端末といったモバイル端末に、後述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。
【0022】
あるいは、アプリケーションの一部がハードウェア化またはROM化された専用機や単能機としても構成できる。また、コンピュータやサーバで構成する場合には、ネットワーク上で複数人が共有するクラウドサービスにも利用できる。
【0023】
音声信号認識部1は、マイクロフォンMCにより検知された音声信号に適宜の音声認識処理を適用して文字データに変換し、その時系列を出力する。学習データ候補生成部2は、前記文字データの時系列をその内容や無声部分の有無等に基づいて、例えばセンテンス単位で分解し、各センテンスを学習データ候補として出力する。
【0024】
学習データ抽出部5は、多数の学習データ候補の中から学習データとして好適な学習データ候補のみを抽出し、これを学習データとして出力する。本実施形態では、曖昧な時間表現のリストが時間表現データベース(DB)3に予め登録され、日時特定可能な事象表現のリストが事象表現DB4に予め登録されている。前記学習データ抽出部5は、各学習データ候補に前記曖昧な時間表現および日時特定可能な事象表現のいずれもが含まれていれば、これを学習データとして抽出する。
【0025】
図2は、多数の学習データ候補の中から学習データを抽出する方法を模式的に表現した図であり、第1の学習データ候補「最近見た、●●(芸人名)が出ていたお笑い番組、面白かったね」には、曖昧な時間表現として「最近」が含まれており、かつ日時特定可能な事象表現として「
見た、●●が出ていたお笑い番組」が含まれているので、学習データとして抽出される。
【0026】
第2の学習データ候補「昔見に行った●●のライブにもう一度行きたいね」は、曖昧な時間表現として「昔」が含まれており、かつ日時特定可能な事象表現として「
行った●●のライブ」が含まれているので、学習データとして抽出される。
【0027】
第3の学習データ候補「数年前に訪問した渋谷の●●社が急成長しているな」は、曖昧な時間表現として「数年前」が含まれており、かつ日時特定可能な事象表現として「
訪問した渋谷の●●社」が含まれているので、学習データとして抽出される。
【0028】
第4の学習データ候補「もうすぐ開催される飲み会が楽しみだな」は、曖昧な時間表現として「もうすぐ」が含まれており、かつ日時特定可能な事象表現として「開催される飲み会」が含まれているので、学習データとして抽出される。
【0029】
第5の学習データ候補「以前買った電気スタンドが壊れてしまった」は、曖昧な時間表現として「以前」が含まれており、かつ日時特定可能な事象表現として「買った電気スタンド」が含まれているので学習データとして抽出される。
【0030】
これに対して、第6の学習データ候補「最近見たあのTV番組のタイトルなんだっけ」は、曖昧な時間表現として「最近」が含まれるものの、日時特定可能な事象表現が含まれないので、学習データとして抽出されない。
【0031】
一方、第7の学習データ候補「なんか雨が降りそうだな」は、日時特定可能な事象表現として「雨が降りそうだな」を含むが、曖昧な時間表現を含まないので、学習データとして抽出されない。
【0032】
図1へ戻り、履歴情報管理部6は、発話者に固有の日時特定可能な履歴情報として、ネット購入やお財布機能を利用した購買履歴、電話での会話履歴、ユーザが登録したスケジュール履歴、GPSや無線基地局の位置情報に基づく追跡履歴、ユーザが作成した文書ファイルに関するドキュメント履歴、ブラウザを利用したWeb閲覧履歴などの履歴情報を管理する。
【0033】
日時検索部7は、前記抽出された学習データに含まれる日時特定可能な事象表現を検索キーとして、前記履歴情報管理部6の配下にある全ての履歴情報を検索し、対応する履歴情報が見つかると、その日時情報から実績値を計算し、これを前記学習データ候補に含まれる曖昧な時間表現と対応付ける。
【0034】
例えば、前記第1の学習データ候補「最近見た、●●(芸人名)が出ていたお笑い番組、面白かったね」であれば、「●●(芸人名)」、「お笑い番組」を検索キーとして全ての履歴情報を検索し、ワンセグ放送の視聴履歴に検索キーが登録されており、これが検索結果として応答されると、当該お笑い番組の視聴日時と現在時刻との時間差が、曖昧な時間表現「最近」の実績値として対応付けられる。
【0035】
同様に、前記第2の学習データ候補「昔見に行った●●のライブにもう一度行きたいね」であれば、「●●のライブ」を検索キーとして履歴情報を検索し、例えばスケジュール帳の履歴に検索キーが登録されており、これが検索結果として応答されると、当該スケジュール帳の日時と現在時刻との時間差が、曖昧な時間表現「昔」の実績値として対応付けられる。
【0036】
評価部8は、前記検索結果を評価し、所定の評価条件を満足する、曖昧な時間表現とその実績値との対応関係を抽出して予測モデルDB9へ登録する。本実施形態では、前記日時検索部7が検索結果と共にそのマッチング精度を応答するものとし、マッチング精度が所定の基準値を下回る対応関係は、予測モデルDB9への登録が見送られる。
【0037】
また、一つの日時特定可能な事象表現に対して複数の検索結果が得られ、それぞれの日時に大きなバラツキがある、換言すれば、対応付けられる実績値に大きなバラツキが生じる場合には、対応する実績値を特定できないので低評価となり、前記予測モデルDB9への登録が見送られる。
【0038】
図3は、前記予測モデルDB9に蓄積される予測モデルの例を示した図であり、本実施形態では、曖昧な時間表現ごとに、検索結果から特定された定量的な実績値が確率分布として登録されている。なお、確率分布は実際には離散値であるが、ここでは便宜上、連続値として示されている。
【0039】
同図(a)は、曖昧な時間表現「最近」についての確率分布、同図(b)は、曖昧な時間表現「昔」についての確率分布、同図(c)は、曖昧な時間表現「数年前」についての確率分布、同図(d)は、曖昧な時間表現「もうすぐ」についての確率分布、同図(e)は、曖昧な時間表現「以前」についての確率分布を示している。
【0040】
図4は、本発明による予測モデルの学習手順を示したフローチャートであり、ここでは、予め蓄積されているユーザの発話データに基づいてオフラインで学習する場合を例にして説明するが、装置がリアルタイム処理に対処できる十分な能力を備えている場合にはオンラインで学習しても良い。
【0041】
ステップS1では、マイクロフォンMCで検出された音声信号に対して、前記音声信号認識部1により周知の音声認識処理が実施されて文字データの時系列が出力される。ステップS2では、前記学習データ候補生成部2において、前記文字データの時系列が、その内容や無声箇所に基づいて複数のセンテンスに分解され、各センテンスが学習データ候補とされる。
【0042】
ステップS3では、学習データ候補の一つに注目し、ステップS4では、前記学習データ抽出部5において、注目した学習データ候補が前記曖昧な時間表現を含むか否かが判定される。曖昧な時間表現を含んでいればステップS5へ進む。
【0043】
ステップS5では、前記学習データ抽出部5において、前記学習データ候補が前記日時特定可能な事象表現を含むか否かが判定される。日時特定可能な事象表現を含めば、今回の学習データ候補が正規の学習データに採用されてステップS6へ進み、前記日時検索部7により、前記日時特定可能な事象表現を検索キーとして履歴情報DB6が検索される。
【0044】
ステップS7では、前記評価部8において全ての検索結果が評価される。本実施形態では、各検索結果のマッチング精度に基づいて、マッチング精度のより高い検索結果に対して、より高い評価値が与えられる。
【0045】
さらに、一つの日時特定可能な事象表現に対して複数の検索結果(実績値)が得られている場合には、各検索結果のばらつきが、例えば分散として計算される。その結果、例えば一の検索結果の日時が1か月前であるのに対して、他の一の検索結果が1年前であるなど、検索結果に大きなばらつきがあれば低い評価値が与えられる。これに対して、例えば一の検索結果の一次が40日前、他の一の検索結果の日時が42日前であるといったように、そのばらつきが小さければ高い評価値が与えられる。
【0046】
ステップS8では、各検索結果の評価値が所定の基準値と比較され、評価値が所定の基準値を超えた検索結果については、ステップS9において、実績値が前記曖昧な時間表現と対応付けられて予測モデルDB9に蓄積される。評価値が所定の基準値に満たなければステップS10へ進み、全ての学習データ候補に対して上記の処理が完了したか否かが判断される。完了していなければステップS3へ進み、注目する学習データ候補を切り替えて上記の各処理が繰り返される。
【0047】
本実施形態によれば、曖昧な時間表現を、これを発声したユーザの履歴情報に基づいて、当該ユーザが過去に用いた曖昧な時間表現に対応した実績値すなわち対応する実際の期間を検索して対応付けて学習するので、曖昧な時間表現から定量的な時間表現を正確に予測できる予測モデルを構築できるようになる。
【0048】
また、本実施形態によれば、曖昧な時間表現に対応した実績値の検索結果を、そのマッチング精度や分散に基づいて評価し、評価値の低い検索結果は予測モデルの構築に利用しないようにしたので、確度の低い検索結果や誤った検索結果に基づいて予測モデルが構築されてしまうことを防止できるようになる。
【0049】
さらに、本実施形態によれば、ユーザが日常的に発声する音声データを検知して学習データ候補を生成できるので、特別な学習機会や専門の管理者を設けることなく、個人差を考慮した学習を簡単に行えるようになる。
【0050】
図5は、本発明を適用したスマートフォンの主要部の構成を示した機能ブロック図であり、本発明の説明に不要な構成は図示が省略されている。また、前記と同一の符号は同一又は同等部分を表しているので、その説明は省略する。
【0051】
本実施形態では、前記時間表現学習装置に相当する機能が学習機能部Mとして実装され、さらに学習結果(予測モデルDB9)を利用して、入力された曖昧な時間表現を定量的な時間表現に変換する実用機能部Nが設けられている。
【0052】
図5において、時間表現変更部10は、スマホユーザが検索エンジンを利用して情報検索を行う際に入力した検索キーを取得し、これに曖昧な時間表現が含まれていれば、当該曖昧な時間表現に対応する定量的な時刻表現を予測モデルDB9から抽出する。
【0053】
前記時間表現変換部10はさらに、検索キーの前記曖昧な時間表現部分を前記抽出された定量的な時刻表現に書き換えて、あるいは検索キーはそのままに前記定量的な時刻表現を検索範囲とする検索オプションを追加して、これらを検索要求として出力する。Web検索機能部11は、前記検索要求をネットワーク上の検索エンジンへ送信し、受信された検索応答を表示部12へ出力する。
【0054】
本実施形態によれば、時間表現学習装置に相当する学習機能部をモバイル端末に実装することができるので、端末ユーザの発声内容から多数の学習データ候補を容易に収集できるようになる。
【0055】
また、近年のモバイル端末には、決済機能、TV視聴機能、ナビゲーション機能あるいはドキュメント作成機能等の諸機能が実装されており、これらを日時特定可能な事象表現を検索するための履歴情報として利用できるので、履歴情報を別途に用意する必要がなくなる。
【0056】
なお、上記の実施形態では、時間表現学習装置がユーザごとに設けられ、予測モデルもユーザごとに構築されるものとして説明したが、本発明はこれのみに限定されるものではなく、例えば、学習機能をクラウド上に設け、各ユーザが自身の端末から学習データや履歴情報をアップロードし、クラウド上で各ユーザからアップロードされた学習データおよび履歴情報をユーザ属性に基づいて分類し、ユーザ属性ごとに予測モデルを構築するようにしても良い。
【符号の説明】
【0057】
1…音声信号認識部,2…学習データ候補生成部,3…時間表現データベース,4…事象表現データベース,5…学習データ抽出部,6…履歴情報管理部,7…日時検索部,8…評価部,9…予測モデルデータベース,10…時間表現変換部,11…Web検索機能部,12…表示部