(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-11-17
(45)【発行日】2022-11-28
(54)【発明の名称】エージェント装置、エージェント方法、及びプログラム
(51)【国際特許分類】
G10L 15/10 20060101AFI20221118BHJP
G10L 15/00 20130101ALI20221118BHJP
G10L 13/00 20060101ALI20221118BHJP
G06F 3/16 20060101ALI20221118BHJP
G01C 21/36 20060101ALI20221118BHJP
G10L 15/28 20130101ALI20221118BHJP
【FI】
G10L15/10 500Z
G10L15/00 200Q
G10L13/00 100H
G06F3/16 630
G06F3/16 650
G01C21/36
G10L15/28 500
(21)【出願番号】P 2019219255
(22)【出願日】2019-12-04
【審査請求日】2021-11-26
(73)【特許権者】
【識別番号】000005326
【氏名又は名称】本田技研工業株式会社
(74)【代理人】
【識別番号】100165179
【氏名又は名称】田▲崎▼ 聡
(74)【代理人】
【識別番号】100126664
【氏名又は名称】鈴木 慎吾
(74)【代理人】
【識別番号】100154852
【氏名又は名称】酒井 太一
(74)【代理人】
【識別番号】100194087
【氏名又は名称】渡辺 伸一
(72)【発明者】
【氏名】石井 幸治
(72)【発明者】
【氏名】暮橋 昌宏
【審査官】堀 洋介
(56)【参考文献】
【文献】国際公開第2016/120904(WO,A1)
【文献】特開2008-268340(JP,A)
【文献】特開2018-048924(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G10L 15/00-15/34
G10L 13/00-13/10
G06F 3/16
G01C 21/36
IEEE Xplore
(57)【特許請求の範囲】
【請求項1】
利用者が発話した音声を示すデータを取得する取得部と、
前記取得部により取得された前記データに基づいて、前記利用者の発話内容を認識する音声認識部と、
前記発話内容に含まれる指示を特定する特定部と、
前記特定部により特定された指示に応答する情報を、表示部を含む情報出力装置に出力させる出力制御部と、
前記特定部により複数の前記指示が特定された場合、前記特定された複数の前記指示が同時に実行することが可能であるか否かを判定する判定部と、
前記判定部により複数の前記指示が同時に実行することが不可能であると判定された場合、前記発話内容に含まれる複数の前記指示に対して、前記表示部により表示されている内容との関連性に基づいて優先度を付加する優先度付加部と、を備え、
前記出力制御部は、前記特定部により複数の前記指示が特定された場合、前記優先度付加部に付加された前記優先度の高い前記指示から順に、前記指示に応じた情報を前記情報出力装置に出力させる、
エージェント装置。
【請求項2】
前記判定部は、同時に実行することが不可能な指示のリスト情報を参照して、前記特定された複数の前記指示が同時に実行することが可能であるか否かを判定する、
請求項1に記載のエージェント装置。
【請求項3】
前記出力制御部は、前記判定部により複数の前記指示が同時に実行することが可能であると判定された場合、複数の前記指示に応答する情報を、前記情報出力装置に出力させる、
請求項1または2に記載のエージェント装置。
【請求項4】
利用者が発話した音声を示すデータを取得する取得部と、
前記取得部により取得された前記データに基づいて、前記利用者の発話内容を認識する音声認識部と、
前記発話内容に含まれる指示を特定する特定部と、
前記特定部により特定された指示に応答する情報を、表示部を含む情報出力装置に出力させる出力制御部と、
前記発話内容に含まれる複数の前記指示に対して、前記表示部により表示されている内容との関連性に基づいて優先度を付加する優先度付加部と、を備え、
前記出力制御部は、前記特定部により複数の前記指示が特定された場合、前記優先度付加部に付加された前記優先度の高い前記指示から順に、前記指示に応じた情報を前記情報出力装置に出力させる、
エージェント装置。
【請求項5】
前記優先度付加部は、前記発話内容に含まれる複数の前記指示が、いずれも前記表示部により表示されている内容に関連しない場合、又はいずれも前記表示部により表示されている内容に関連する場合、複数の前記指示が発話された順序に基づいて、前記優先度を付加する、
請求項1から4のうちいずれか一項に記載のエージェント装置。
【請求項6】
前記優先度付加部は、前記発話内容に含まれる複数の前記指示が、いずれも前記表示部により表示されている内容に関連しない場合、又はいずれも前記表示部により表示されている内容に関連する場合、複数の前記指示を接続する接続詞に基づいて、前記優先度を付加する、
請求項1から5のうちいずれか一項に記載のエージェント装置。
【請求項7】
前記優先度付加部は、前記発話内容に含まれる複数の前記指示が、いずれも前記表示部により表示されている内容に関連しない場合、又はいずれも前記表示部により表示されている内容に関連する場合、前記発話内容に含まれる前記指示の順序を示す語句に基づいて、前記優先度を付加する、
請求項1から6のうちいずれか一項に記載のエージェント装置。
【請求項8】
前記優先度付加部は、前記発話内容に含まれる複数の前記指示が、いずれも前記表示部により表示されている内容に関連しない場合、又はいずれも前記表示部により表示されている内容に関連する場合、前記発話内容に含まれる前記指示のタイミングを示す語句に基づいて、前記優先度を付加する、
請求項1から7のうちいずれか一項に記載のエージェント装置。
【請求項9】
コンピュータが、
利用者が発話した音声を示すデータを取得し、
取得された前記データに基づいて、前記利用者の発話内容を認識し、
前記発話内容に含まれる指示を特定し、
特定された指示に応答する情報を、表示部を含む情報出力装置に出力させ、
複数の前記指示が特定された場合、前記特定された複数の前記指示が同時に実行することが可能であるか否かを判定し、
複数の前記指示が同時に実行することが不可能であると判定された場合、前記発話内容に含まれる複数の前記指示に対して、前記表示部により表示されている内容との関連性に基づいて優先度を付加し、
複数の前記指示が特定された場合、付加された前記優先度の高い前記指示から順に、前記指示に応じた情報を情報出力装置に出力する、
エージェント方法。
【請求項10】
コンピュータに、
利用者が発話した音声を示すデータを取得させ、
取得された前記データに基づいて、前記利用者の発話内容を認識させ、
前記発話内容に含まれる指示を特定させ、
特定された指示に応答する情報を、表示部を含む情報出力装置に出力させ、
複数の前記指示が特定された場合、前記特定された複数の前記指示が同時に実行することが可能であるか否かを判定させ、
複数の前記指示が同時に実行することが不可能であると判定された場合、前記発話内容に含まれる複数の前記指示に対して、前記表示部により表示されている内容との関連性に基づいて優先度を付加させ、
複数の前記指示が特定された場合、付加された前記優先度の高い前記指示から順に、前記指示に応じた情報を情報出力装置に出力させる、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、エージェント装置、エージェント方法、及びプログラムに関する。
【背景技術】
【0002】
近年、操作者が手操作により操作対象の機器に対する指示等を入力することに代えて、操作者が発話し、発話に含まれる指示等を音声認識させることにより、音声により簡便に入力操作をできるようにする技術が知られている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、操作者は、発話によって複数の指示を行う場合がある。しかしながら、従来の技術では、発話によって複数の指示が行われた場合、どの指示を優先的に実行するかを決定することが困難であった。
【0005】
本発明の態様は、このような事情を考慮してなされたものであり、発話によってされた複数の指示を適切な順序によって実行することができるエージェント装置、エージェント方法、及びプログラムを提供することを目的の一つとする。
【課題を解決するための手段】
【0006】
この発明に係るエージェント装置、エージェント方法、及びプログラムは、以下の構成を採用した。
(1)この発明の一態様のエージェント装置は、利用者が発話した音声を示すデータを取得する取得部と、前記取得部により取得された前記データに基づいて、前記利用者の発話内容を認識する音声認識部と、前記発話内容に含まれる指示を特定する特定部と、前記特定部により特定された指示に応答する情報を、表示部を含む情報出力装置に出力させる出力制御部と、前記特定部により複数の前記指示が特定された場合、前記特定された複数の前記指示が同時に実行することが可能であるか否かを判定する判定部と、前記判定部により複数の前記指示が同時に実行することが不可能であると判定された場合、前記発話内容に含まれる複数の前記指示に対して、前記表示部により表示されている内容との関連性に基づいて優先度を付加する優先度付加部と、を備え、前記出力制御部は、前記特定部により複数の前記指示が特定された場合、前記優先度付加部に付加された前記優先度の高い前記指示から順に、前記指示に応じた情報を前記情報出力装置に出力させるものである。
【0007】
(2)の態様は、上記(1)の態様に係るエージェント装置において、前記判定部は、同時に実行することが不可能な指示のリスト情報を参照して、前記特定された複数の前記指示が同時に実行することが可能であるか否かを判定するものである。
【0008】
(3)の態様は、上記(1)または(2)の態様に係るエージェント装置において、前記出力制御部は、前記判定部により複数の前記指示が同時に実行することが可能であると判定された場合、複数の前記指示に応答する情報を、前記情報出力装置に出力させるものである。
【0009】
(4)この発明の他の態様のエージェント装置は、利用者が発話した音声を示すデータを取得する取得部と、前記取得部により取得された前記データに基づいて、前記利用者の発話内容を認識する音声認識部と、前記発話内容に含まれる指示を特定する特定部と、前記特定部により特定された指示に応答する情報を、表示部を含む情報出力装置に出力させる出力制御部と、前記発話内容に含まれる複数の前記指示に対して、前記表示部により表示されている内容との関連性に基づいて優先度を付加する優先度付加部と、を備え、前記出力制御部は、前記特定部により複数の前記指示が特定された場合、前記優先度付加部に付加された前記優先度の高い前記指示から順に、前記指示に応じた情報を前記情報出力装置に出力させるものである。
【0010】
(5)の態様は、上記(1)から(4)のいずれかの態様に係るエージェント装置において、前記優先度付加部は、前記発話内容に含まれる複数の前記指示が、いずれも前記表示部により表示されている内容に関連しない場合、又はいずれも前記表示部により表示されている内容に関連する場合、複数の前記指示が発話された順序に基づいて、前記優先度を付加するものである。
【0011】
(6)の態様は、上記(1)から(5)のいずれかの態様に係るエージェント装置において、前記優先度付加部は、前記発話内容に含まれる複数の前記指示が、いずれも前記表示部により表示されている内容に関連しない場合、又はいずれも前記表示部により表示されている内容に関連する場合、複数の前記指示を接続する接続詞に基づいて、前記優先度を付加するものである。
【0012】
(7)の態様は、上記(1)から(6)のいずれかの態様に係るエージェント装置において、前記優先度付加部は、前記発話内容に含まれる複数の前記指示が、いずれも前記表示部により表示されている内容に関連しない場合、又はいずれも前記表示部により表示されている内容に関連する場合、前記発話内容に含まれる前記指示の順序を示す語句に基づいて、前記優先度を付加するものである。
【0013】
(8)の態様は、上記(1)から(7)のいずれかの態様に係るエージェント装置において、前記優先度付加部は、前記発話内容に含まれる複数の前記指示が、いずれも前記表示部により表示されている内容に関連しない場合、又はいずれも前記表示部により表示されている内容に関連する場合、前記発話内容に含まれる前記指示のタイミングを示す語句に基づいて、前記優先度を付加するものである。
【0014】
(9)この発明の他の態様のエージェント方法は、コンピュータが、利用者が発話した音声を示すデータを取得し、取得された前記データに基づいて、前記利用者の発話内容を認識し、前記発話内容に含まれる指示を特定し、特定された指示に応答する情報を、表示部を含む情報出力装置に出力させ、複数の前記指示が特定された場合、前記特定された複数の前記指示が同時に実行することが可能であるか否かを判定し、複数の前記指示が同時に実行することが不可能であると判定された場合、前記発話内容に含まれる複数の前記指示に対して、前記表示部により表示されている内容との関連性に基づいて優先度を付加し、複数の前記指示が特定された場合、付加された前記優先度の高い前記指示から順に、前記指示に応じた情報を情報出力装置に出力するものである。
【0015】
(10)この発明の他の態様のプログラムは、コンピュータに、利用者が発話した音声を示すデータを取得させ、取得された前記データに基づいて、前記利用者の発話内容を認識させ、前記発話内容に含まれる指示を特定させ、特定された指示に応答する情報を、表示部を含む情報出力装置に出力させ、複数の前記指示が特定された場合、前記特定された複数の前記指示が同時に実行することが可能であるか否かを判定させ、複数の前記指示が同時に実行することが不可能であると判定された場合、前記発話内容に含まれる複数の前記指示に対して、前記表示部により表示されている内容との関連性に基づいて優先度を付加させ、複数の前記指示が特定された場合、付加された前記優先度の高い前記指示から順に、前記指示に応じた情報を情報出力装置に出力させるものである。
【発明の効果】
【0016】
(1)~(10)の態様によれば、発話によってされた複数の指示を適切な順序によって実行することができる。
【0017】
(2)の態様によれば、より適切な順序によって指示を実行することができる。
【0018】
(5)~(8)の態様によれば、より精度良く実行する指示の順序を決定することができる。
【図面の簡単な説明】
【0019】
【
図1】実施形態に係るエージェントシステム1の構成の一例を示す図である。
【
図2】実施形態に係るエージェント装置100の構成の一例を示す図である。
【
図3】運転席から見た車室内の一例を示す図である。
【
図4】車両Mを上から見た車室内の一例を示す図である。
【
図5】リスト情報154の内容の一例を示す図である。
【
図6】実施形態に係るサーバ装置200の構成の一例を示す図である。
【
図7】回答情報232の内容の一例を示す図である。
【
図8】指示に優先度を付加する場面の一例を示す図である。
【
図9】付加された優先度に基づいて、情報出力装置に情報を出力させる場面の一例を示す図である。
【
図10】実施形態に係るエージェント装置100の一連の処理の流れを示すフローチャートである。
【
図11】実施形態に係るサーバ装置200の一例の処理の流れを示すフローチャートである。
【
図12】変形例に係るエージェント装置100Aの一例を示す図である。
【発明を実施するための形態】
【0020】
以下、図面を参照し、本発明のエージェント装置、エージェント方法、及びプログラムの実施形態について説明する。
【0021】
<実施形態>
[システム構成]
図1は、実施形態に係るエージェントシステム1の構成の一例を示す図である。実施形態に係るエージェントシステム1は、例えば、車両Mに搭載されるエージェント装置100と、車両M外に存在するサーバ装置200とを備える。車両Mは、例えば、二輪や三輪、四輪等の車両である。これらの車両の駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせであってよい。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
【0022】
エージェント装置100とサーバ装置200とは、ネットワークNWを介して通信可能に接続される。ネットワークNWは、LAN(Local Area Network)やWAN(Wide Area Network)等が含まれる。ネットワークNWには、例えば、Wi-FiやBluetooth(登録商標、以下省略)等無線通信を利用したネットワークが含まれてよい。
【0023】
エージェントシステム1は、複数のエージェント装置100および複数のサーバ装置200により構成されてもよい。以降は、エージェントシステム1が一つのエージェント装置100と、一つのサーバ装置200とを備える場合について説明する。
【0024】
エージェント装置100は、エージェント機能を用いて車両Mの乗員からの音声を取得し、取得した音声をサーバ装置200に送信する。また、エージェント装置100は、サーバ装置から得られるデータ(以下、エージェントデータ)等に基づいて、乗員と対話したり、画像や映像等の情報を提供したり、車両Mに搭載される車載機器VEや他の装置を制御したりする。
【0025】
サーバ装置200は、車両Mに搭載されたエージェント装置100と通信し、エージェント装置100から各種データを取得する。サーバ装置200は、取得したデータに基づいて車両Mの乗員に対する応答として適したエージェントデータを生成し、生成したエージェントデータをエージェント装置100に提供する。
【0026】
[エージェント装置の構成]
図2は、実施形態に係るエージェント装置100の構成の一例を示す図である。実施形態に係るエージェント装置100は、例えば、通信部102と、マイク(マイクロフォン)106と、スピーカ108と、表示部110と、制御部120と、記憶部150とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続されてよい。なお、
図2に示すエージェント装置100の構成はあくまでも一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
【0027】
通信部102は、NIC(Network Interface controller)等の通信インターフェースを含む。通信部102は、ネットワークNWを介してサーバ装置200等と通信する。
【0028】
マイク106は、車室内の音声を電気信号化し収音する音声入力装置である。マイク106は、収音した音声のデータ(以下、音声データ)を制御部120に出力する。例えば、マイク106は、乗員が車室内のシートに着座したときの前方付近に設置される。例えば、マイク106は、マットランプ、ステアリングホイール、インストルメントパネル、またはシートの付近に設置される。マイク106は、車室内に複数設置されていてもよい。
【0029】
スピーカ108は、例えば、車室内のシート付近または表示部110付近に設置される。スピーカ108は、制御部120により出力される情報に基づいて音声を出力する。
【0030】
表示部110は、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイ等の表示装置を含む。表示部110は、制御部120により出力される情報に基づいて画像を表示する。スピーカ108と、表示部110とを組み合わせたものは、「情報出力装置」の一例である。
【0031】
図3は、運転席から見た車室内の一例を示す図である。図示の例の車室内には、マイク106A~106Cと、スピーカ108A~108Cと、表示部110A~110Cとが設置される。マイク106Aは、例えば、ステアリングホイールに設けられ、主に運転者が発話した音声を収音する。マイク106Bは、例えば、助手席正面のインストルメントパネル(ダッシュボードまたはガーニッシュ)IPに設けられ、主に助手席の乗員が発話した音声を収音する。マイク106Cは、例えば、インストルメントパネルの中央(運転席と助手席との間)付近に設置される。
【0032】
スピーカ108Aは、例えば、運転席側のドアの下部に設置され、スピーカ108Bは、例えば、助手席側のドアの下部に設置され、スピーカ108Cは、例えば、表示部110Cの付近、つまり、インストルメントパネルIPの中央付近に設置される。
【0033】
表示部110Aは、例えば運転者が車外を視認する際の視線の先に虚像を表示させるHUD(Head-Up Display)装置である。HUD装置は、例えば、車両Mのフロントウインドシールド、或いはコンバイナーと呼ばれる光の透過性を有する透明な部材に光を投光することで、乗員に虚像を視認させる装置である。乗員は、主に運転者であるが、運転者以外の乗員であってもよい。
【0034】
表示部110Bは、運転席(ステアリングホイールに最も近い座席)の正面付近のインストルメントパネルIPに設けられ、乗員がステアリングホイールの間隙から、或いはステアリングホイール越しに視認可能な位置に設置される。表示部110Bは、例えば、LCDや有機EL表示装置等である。表示部110Bには、例えば、車両Mの速度、エンジン回転数、燃料残量、ラジエータ水温、走行距離、その他の情報の画像が表示される。
【0035】
表示部110Cは、インストルメントパネルIPの中央付近に設置される。表示部110Cは、例えば、表示部110Bと同様に、LCDや有機EL表示装置等である。表示部110Cは、テレビ番組や映画等のコンテンツを表示する。
【0036】
なお、車両Mには、更に、後部座席付近にマイクとスピーカが設けられてよい。
図4は、車両Mを上から見た車室内の一例を示す図である。車室内には、
図3で例示したマイクスピーカに加えて、更に、マイク106D、106Eと、スピーカ108D、108Eとが設置されてよい。
【0037】
マイク106Dは、例えば、助手席ST2の後方に設置された後部座席ST3の付近(例えば、助手席ST2の後面)に設けられ、主に、後部座席ST3に着座する乗員が発話した音声を収音する。マイク106Eは、例えば、運転席ST1の後方に設置された後部座席ST4の付近(例えば、運転席ST1の後面)に設けられ、主に、後部座席ST4に着座する乗員が発話した音声を収音する。
【0038】
スピーカ108Dは、例えば、後部座席ST3側のドアの下部に設置され、スピーカ108Eは、例えば、後部座席ST4側のドアの下部に設置される。
【0039】
なお、
図1に例示した車両Mは、
図3または
図4に例示するように、乗員である運転手が操作可能なステアリングホイールを備える車両であるものとして説明したがこれに限られない。例えば、車両Mは、ルーフがない、すなわち車室がない(またはその明確な区分けがない)車両であってもよい。
【0040】
また、
図3または
図4の例では、車両Mを運転操作する運転手が座る運転席と、その他の運転操作をしない乗員が座る助手席や後部座席とが一つの室内にあるものとして説明しているがこれに限られない。例えば、車両Mは、ステアリングホイールに代えて、ステアリングハンドルを備えた鞍乗り型自動二輪車両であってもよい。
【0041】
また、
図3または
図4の例では、車両Mが、ステアリングホイールを備える車両であるものとして説明しているがこれに限られない。例えば、車両Mは、ステアリングホイールのような運転操作機器が設けられていない自動運転車両であってもよい。自動運転車両とは、例えば、乗員の操作に依らずに車両の操舵または加減速のうち一方または双方を制御して運転制御を実行することである。
【0042】
図2の説明に戻り、制御部120は、例えば、取得部121と、音声合成部122と、通信制御部123と、特定部124と、判定部125と、優先度付加部126と、出力制御部127とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部150(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで記憶部150にインストールされてもよい。
【0043】
記憶部150は、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。記憶部150には、例えば、プロセッサによって参照されるプログラム等と、車載機器情報152と、リスト情報154とが格納される。車載機器情報152は、車両Mに搭載されている車載機器VEの一覧を示す情報である。
【0044】
図5は、リスト情報154の内容の一例を示す図である。リスト情報154は、例えば、同時に実行することが不可能な指示を示す情報である。この指示とは、例えば、乗員が発話した音声に含まれる指示であって、車載機器VEの動作に係る指示である。
図5に示すリスト情報154には、同時に実行することが不可能な指示として、「同一の制御対象に対する指示」と、「目的地を2つ指定する指示」と、「同時に制御できない車載機器VE1と、車載機器VE2とに対する指示」と、「同時に制御できない車載機器VE3と、車載機器VE4に対する指示」とが含まれる。
【0045】
図2の説明に戻り、取得部121は、マイク106から音声データや、他の情報を取得する。
【0046】
音声合成部122は、通信部102がサーバ装置200から受信したエージェントデータに音声制御内容が含まれる場合に、音声制御として発話によって音声指示された音声データに対応する、人工的な合成音声を生成する。以下、音声合成部122が生成する人工的な合成音声を、エージェント音声とも記載する。
【0047】
通信制御部123は、取得部121によって取得された音声データを通信部102によってサーバ装置200に送信させる。通信制御部123は、サーバ装置200から送信されたエージェントデータを通信部102によって受信させる。
【0048】
特定部124は、エージェントデータに含まれる車載機器VEに対する指示を特定する。特定部124は、例えば、エージェントデータに含まれる車載機器VEを特定するため、車載機器情報152に含まれる車載機器VEのそれぞれを検索キーとして、エージェントデータを検索する。特定部124は、検索の結果、エージェントデータに含まれることを特定した一つ又は複数の車載機器VEを、指示対象の車載機器VEとして特定する。エージェントデータは、例えば、「発話内容」の一例である。
【0049】
判定部125は、特定部124によって特定された指示対象の車載機器VEが複数である場合、リスト情報154に基づいて、これらの複数の指示が、同時に実行することが可能であるか否かを判定する。
【0050】
なお、判定部125は、明らかに同時に実行できない指示については、リスト情報154を用いずに複数の指示が同時に実行することが可能であるか否かを判定してもよい。明らかに同時に実行できない指示とは、例えば、同一の指示対象に対する相反する指示等である。具体的には、「オーディオの音量を上げて(指示A)、音量を下げて(指示B)」等や、「車両Mを停止させて(指示A)、車両Mの速度を上げて(指示B)」等の指示である。
【0051】
優先度付加部126は、判定部125によってエージェントデータに含まれる複数の指示を同時に実行することが不可能であると判定された場合、エージェントデータに含まれる複数の指示に対して、優先度を付加する。優先度付加部126が優先度を付加する処理の詳細については、後述する。
【0052】
出力制御部127は、エージェントデータに含まれる指示に応じて、音声合成部122によってエージェント音声が生成されると、そのエージェント音声をスピーカ108に出力させる。また、出力制御部127は、エージェントデータに含まれる指示に応じて、画像データを表示部110に表示させる。また、出力制御部127は、音声データの認識結果(フレーズ等のテキストデータ)の画像を表示部110に表示させてもよい。
【0053】
ここで、出力制御部127は、優先度付加部126によって複数の指示のそれぞれに優先度が付加されている場合、複数の指示のうち、付加された優先度の高い指示から順に、指示に応じたエージェント音声をスピーカ108に出力させたり、指示された画像データを表示部110に表示させたりする。
【0054】
[サーバ装置の構成]
図6は、実施形態に係るサーバ装置200の構成の一例を示す図である。実施形態に係るサーバ装置200は、例えば、通信部202と、制御部210と、記憶部230とを備える。
【0055】
通信部202は、NIC等の通信インターフェースを含む。通信部202は、ネットワークNWを介して各車両Mに搭載されたエージェント装置100等と通信する。
【0056】
制御部210は、例えば、取得部211と、発話区間抽出部212と、音声認識部213と、エージェントデータ生成部214と、通信制御部215とを備える。これらの構成要素は、例えば、CPUやGPU等のプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部230(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで記憶部230にインストールされてもよい。
【0057】
記憶部230は、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部230には、例えば、プロセッサによって参照されるプログラムのほかに、回答情報232等が格納される。
【0058】
図7は、回答情報232の内容の一例を示す図である。回答情報232には、例えば、意味情報に、制御部120に実行させる制御内容が対応付けられている。意味情報とは、例えば、音声認識部213により発話内容全体から認識される意味である。制御内容には、例えば、車載機器VEに対する指示(制御)に関する車載機器制御や、エージェント音声を出力する音声制御、表示部110に表示させる画像制御等が含まれる。例えば、回答情報232では、「エアコンの起動」という意味情報に対して、「エアコンを起動させる」車載機器制御と、「エアコンを起動しました」という音声制御と、車室内温度及び設定温度を表示する表示制御とが対応付けられている。
【0059】
図6に戻り、取得部211は、通信部202によってエージェント装置100から送信された、音声データを取得する。
【0060】
発話区間抽出部212は、取得部121によって取得された音声データから、乗員が発話している期間(以下、発話区間と称する)を抽出する。例えば、発話区間抽出部212は、零交差法を利用して、音声データに含まれる音声信号の振幅に基づいて発話区間を抽出してよい。また、発話区間抽出部212は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づいて、音声データから発話区間を抽出してもよいし、発話区間特有の音声信号をテンプレート化したデータベースとテンプレートマッチング処理を行うことで、音声データから発話区間を抽出してもよい。
【0061】
音声認識部213は、発話区間抽出部212によって抽出された発話区間ごとに音声データを認識し、認識した音声データをテキスト化することで、発話内容を含むテキストデータを生成する。例えば、音声認識部213は、発話区間の音声信号を、低周波数や高周波数等の複数の周波数帯に分離し、分類した各音声信号をフーリエ変換することで、スペクトログラムを生成する。音声認識部213は、生成したスペクトログラムを、再帰的ニューラルネットワークに入力することで、スペクトログラムから文字列を得る。再帰的ニューラルネットワークは、例えば、学習用の音声から生成したスペクトログラムに対して、その学習用の音声に対応した既知の文字列が教師ラベルとして対応付けられた教師データを利用することで、予め学習されていてよい。そして、音声認識部213は、再帰的ニューラルネットワークから得た文字列のデータを、テキストデータとして出力する。
【0062】
また、音声認識部213は、自然言語のテキストデータの構文解析を行って、テキストデータを形態素に分け、各形態素からテキストデータに含まれる文言の意味を認識する。
【0063】
エージェントデータ生成部214は、音声認識部213により認識された発話内容の意味に基づいて、回答情報232の意味情報を参照し、合致する意味情報に対応付けられた制御内容を取得する。なお、認識結果として、「エアコンをつけて」、「エアコンの電源を入れてください」等の意味が認識された場合、エージェントデータ生成部214は、上述の意味を標準文字情報「エアコンの起動」等に置き換える。これにより、指示の発話内容に発話の揺らぎがあった場合にも指示にあった制御内容を取得し易くすることができる。
【0064】
また、エージェントデータ生成部214は、取得した制御内容(例えば、車載機器制御、音声制御、または表示制御のうち少なくとも一つ)に対応する処理を実行させるためのエージェントデータを生成する。
【0065】
通信制御部215は、エージェントデータ生成部214により生成されたエージェントデータを、通信部202によってエージェント装置100に送信させる。これにより、エージェント装置100は、制御部120によって、エージェントデータに対応する制御が実行することができる。
【0066】
[優先度を付加する処理について]
以下、
図8と
図9とを用いて、優先度付加部126の優先度を付加する処理の詳細について説明する。
図8は、指示に優先度を付加する場面の一例を示す図である。
図9は、付加された優先度に基づいて、情報出力装置に情報を出力させる場面の一例を示す図である。
【0067】
図8において、乗員は、目的地を設定することを指示する発話SP1として、「動物園に行って」と発話している。出力制御部127は、発話SP1に応じて生成されたエージェントデータに基づいて、ナビゲーション装置に「動物園」までの移動経路を特定させ、ナビゲーション装置により特定させた移動経路を示す画像IM1を表示部110に表示させる。更に、乗員は、目的地を設定することを指示する発話SP2として、「コンビニエンスストアに行って」と発話している。
【0068】
この場合、特定部124は、発話SP1と、発話SP2とには、車載機器VEであるナビゲーション装置に対する指示であって、目的地を設定する複数の指示が含まれていると認識する。この場合、判定部125は、特定部124によって特定された車載機器VEに対する指示が複数であるため、リスト情報154に基づいてこれらの複数の指示が、同時に実行することが可能であるか否かを判定する。上述したように、リスト情報154には、同時に実行することが不可能な指示として、「同一の制御対象に対する指示」が含まれている。このため、判定部125は、特定部124によって特定された車載機器VEに対する複数の指示が、同時に実行することが不可能であると判定する。判定部125によって車載機器VEに対する複数の指示が、同時に実行することが不可能であると判定された場合、優先度付加部126は、複数の指示のそれぞれに優先度を付加する。
【0069】
[(1)表示部に表示される内容に基づく優先度の付加]
優先度付加部126は、例えば、乗員の発話(発話SP1~SP2)がされた場面において、表示部110に表示されている内容との関連性に基づいて、優先度を付加する。上述したように、発話SP1が発話された場面において、表示部110には、「動物園」までの移動経路を示す画像IM1が表示されている。このため、発話SP1が示す指示と、発話SP2が示す指示とでは、発話SP1が示す指示の方が、表示部110の内容(この場合、「動物園」までの経路)との関連性が高い。したがって、優先度付加部126は、発話SP1に含まれる指示に高い優先度を付加し、発話SP2に含まれる指示には、発話SP1に含まれる指示よりも低い優先度を付加する。
【0070】
優先度付加部126は、例えば、発話SP1に係るエージェントデータと発話SP2に係るエージェントデータとに基づいて、発話SP1に係るエージェントデータに含まれる指示と、発話SP2に係るエージェントデータに含まれる指示とをそれぞれ特定する。優先度付加部126は、出力制御部127の制御履歴を示す情報、或いは車載機器VE(この場合、ナビゲーション装置)の制御状態に係る情報を取得し、表示部110に表示されている内容を特定する。そして、優先度付加部126は、特定した各種情報に基づいて、発話SP1に係る指示と、発話SP2に係る指示とのうち、表示部110に表示されている内容との関連性の高い指示を特定し、優先度を付加する。
【0071】
出力制御部127は、優先度付加部126によって付加された優先度に基づいて、優先度の高い指示から順に、指示に応じた制御を実行する。また、出力制御部127は、優先度付加部126によって付加された優先度に基づいて、優先度の高い指示から順に、指示に応じた情報を情報出力装置に出力させる。
【0072】
図9において、出力制御部127は、ナビゲーション装置に、発話SP1に応じて生成されたエージェントデータに基づいて、「動物園」までの移動経路を特定させつつ、発話SP2に応じて生成されたエージェントデータに基づいて、「動物園」までの移動経路の途中に存在する「コンビニエンスストア」を経由地点として特定させる。そして、出力制御部127は、「動物園」までの移動経路を示しつつ、「動物園」までの移動経路の途中に存在する「コンビニエンスストア」を経由地点として示す画像IM2を表示部110に表示さる。出力制御部127は、音声合成部122により生成された「動物園」までの移動経路に関するエージェント音声SD1をスピーカ108に出力させた後、音声合成部122により生成された「コンビニエンスストア」に関するエージェント音声SD2をスピーカ108に出力させる。エージェント音声SD1は、例えば、「目的地を動物園に設定しました。経路をご案内します。」等の音声であり、エージェント音声SD2は、例えば、「動物園までの経路上のコンビニエンスストアを経由地点に追加しました。」等の音声である。
【0073】
ここで、画像IM1~IM2が示すように、車両Mの近傍には、動物園までの経路の途中に存在するコンビニエンスストアCS1と、動物園までの経路からは外れるものの、車両Mの現在位置から最も近いコンビニエンスストアCS2とが存在する。優先度付加部126による優先度の付加が行われない場合、出力制御部127は、発話SPに応じた指示を順次処理する。このため、出力制御部127は、発話SP1が示す指示に基づき、ナビゲーション装置に動物園までの移動経路を特定させた後、発話SP2が示す指示に基づき、ナビゲーション装置に動物園までの移動経路をキャンセルさせ、最寄りのコンビニエンスストアCS2までの移動経路を特定させる。この場合、車両Mは、動物園までの移動経路から外れたコンビニエンスストアCS2に立ち寄ってから動物園に向かうこととなり、動物園までの道のりが遠回りとなる。
【0074】
一方、優先度付加部126による優先度の付加が行われる場合、出力制御部127は、優先度の高い指示から順に処理する。この場合、車両Mは、動物園に向かいつつ、動物園までの経路上に存在するコンビニエンスストアCS1に立ち寄るため、動物園まで効率的に移動することができる。したがって、本実施形態のエージェント装置100によれば、発話によってされた複数の指示を車両Mの乗員にとって適切な順序によって実行することができる。
【0075】
[(2)発話の順序に基づく優先度の付加]
なお、上述では、優先度付加部126は、例えば、表示部110に表示されている内容との関連性に基づいて、優先度を付加する場合について説明したが、これに限られない。優先度付加部126は、例えば、発話SPに含まれる複数の指示が、いずれも表示部110に表示されている内容に関連にしない場合や、いずれも表示部110に表示されている内容に関連する場合には、発話SPの順序に基づいて、優先度を付加してもよい。この場合、優先度付加部126は、先に発話された発話SP1に含まれる指示に高い優先度を付加し、発話SP1よりも後に発話された発話SP2に含まれる指示には、発話SP1に含まれる指示よりも低い優先度を付加する。
【0076】
[(3)接続詞に基づく優先度の付加]
また、優先度付加部126は、例えば、発話SPに含まれる複数の指示が、いずれも表示部110に表示されている内容に関連にしない場合や、いずれも表示部110に表示されている内容に関連する場合には、指示を示す語句を接続する接続詞に基づいて、優先度を付加してもよい。例えば、「(指示A)をして“それから”(指示B)をして。」(例1)や、「(指示A)して“同じように”(指示B)をして。」(例2)等の乗員の発話SPには、「それから」や、「同じように」等の、指示の実行順序を示す接続詞が含まれる。この場合、記憶部150には、接続詞を示す情報と、接続詞の前の語句と接続詞の後の語句との順序(又は、優先度)を示す情報とが互いに対応付けられた接続詞情報(不図示)が記憶されており、優先度付加部126は、接続詞情報に基づいて、複数の指示のそれぞれに優先度を付加する。
【0077】
優先度付加部126は、(例1)や(例2)のように、指示Aの方が、指示Bよりも先に実行することを示す接続詞が含まれる場合、指示Aに高い優先度を付加し、指示Bには、指示Aよりも低い優先度を付加する。
【0078】
[(4)順序を示す語句に基づく優先度の付加]
また、優先度付加部126は、例えば、発話SPに含まれる複数の指示が、いずれも表示部110に表示されている内容に関連にしない場合や、いずれも表示部110に表示されている内容に関連する場合には、指示の順序を示す語句に基づいて、優先度を付加してもよい。例えば、「(指示A)を“した後に”(指示B)をして。」(例3)や、「(指示A)を“する前に”(指示B)をして。」(例4)等の乗員の発話SPには、「した後に」や、「する前に」等の、指示の実行順序を示す接続詞が含まれる。この場合、記憶部150には、順序を示す語句を示す情報と、順序を示す語句の前の語句と順序を示す語句の後の語句との順序を示す情報とが互いに対応付けられた順序語句情報(不図示)が記憶されており、優先度付加部126は、順序語句情報に基づいて、複数の指示のそれぞれに優先度を付加する。
【0079】
優先度付加部126は、(例3)のように、指示Aの方が、指示Bよりも先に実行することを示す語句が含まれる場合、指示Aに高い優先度を付加し、指示Bには、指示Aよりも低い優先度を付加する。また、優先度付加部126は、(例4)のように、指示Bの方が、指示Aよりも先に実行することを示す語句が含まれる場合、指示Bに高い優先度を付加し、指示Aには、指示Bよりも低い優先度を付加する。
【0080】
[(5)タイミングを示す語句に基づく優先度の付加]
また、優先度付加部126は、例えば、発話SPに含まれる複数の指示が、いずれも表示部110に表示されている内容に関連にしない場合や、いずれも表示部110に表示されている内容に関連する場合には、指示のタイミングを示す語句に基づいて、優先度を付加してもよい。例えば、「“17時”に小学校に到着して(指示A)“18時”にスイミングスクールに到着して(指示B)」(例5)等の乗員の発話SPには、指示を行うタイミングを示す語句が含まれる。この場合、優先度付加部126は、各指示のタイミングを示す語句に基づいてタイミングが早い指示の方が、優先度が高くなるように、複数の指示のそれぞれに優先度を付加する。
【0081】
優先度付加部126は、(例5)のように、指示Aの方が、指示Bよりも先に実行することを示す語句が含まれる場合、指示Aに高い優先度を付加し、指示Bには、指示Aよりも低い優先度を付加する。
【0082】
[処理フロー]
次に、実施形態に係るエージェントシステム1の処理の流れについてフローチャートを用いて説明する。なお、以下では、エージェント装置100の処理と、サーバ装置200との処理を分けて説明するものとする。また、以下に示す処理の流れは、所定のタイミングで繰り返し実行されてよい。所定のタイミングとは、例えば、音声データからエージェント装置を起動させる特定ワード(例えば、ウェイクアップワード)が抽出されたタイミングや、車両Mに搭載される各種スイッチのうち、エージェント装置100を起動させるスイッチの選択を受け付けたタイミング等である。
【0083】
図10は、実施形態に係るエージェント装置100の一連の処理の流れを示すフローチャートである。まず、取得部121は、ウェイクアップワードが認識された後に、マイク106によって乗員の音声データが収集されたか(つまり、乗員の発話があったか)否かを判定する(ステップS100)。取得部121は、乗員の音声データが収集されるまでの間、待機する。次に、通信制御部123は、サーバ装置200に対して音声データを通信部102に送信させる(ステップS102)。次に、通信制御部123は、通信部102にエージェントデータをサーバ装置200から受信させる(ステップS104)。
【0084】
特定部124は、受信したエージェントデータに含まれる車載機器VEに対する指示を特定する(ステップS106)。判定部125は、車載機器VEに対する指示が特定部124によって特定されたか否か(つまり、発話内容に車載機器VEに対する指示が含まれるか否か)を判定する(ステップS108)。判定部125は、特定部124によって車載機器VEに対する指示が特定されなかった場合、処理を終了する。
【0085】
判定部125は、車載機器VEに対する指示が含まれると判定した場合、車載機器VEに対する複数の指示がエージェントデータに含まれるか否かを判定する(ステップS110)。判定部125は、エージェントデータには車載機器VEに対する指示が含まれるが、複数の指示ではない(一つの指示である)と判定した場合、処理をステップS114に進める。判定部125は、車載機器VEに対する複数の指示がエージェントデータに含まれると判定した場合、リスト情報154に基づいてこれらの複数の指示が、同時に実行することが可能であるか否かを判定する(ステップS112)。判定部125は、車載機器VEに対する複数の指示が、同時に実行することが可能であると判定した場合、処理をステップS114に進める。
【0086】
出力制御部127は、特定部124によって特定された車載機器VEに対する一つ、又は複数の指示に応じた情報を同時に情報出力装置に出力させる(ステップS114)。
出力制御部127は、例えば、エージェントデータに含まれる指示に応じて、車載機器VEを制御する。また、出力制御部127は、例えば、エージェントデータに含まれる指示に応じて、音声合成部122によってエージェント音声が生成されると、そのエージェント音声をスピーカ108に出力させる。また、出力制御部127は、エージェントデータに含まれる指示に応じて、指示された画像データを表示部110に表示させる。
【0087】
出力制御部127が複数の指示に応じた情報を同時に情報出力装置に出力させるとは、例えば、各指示のエージェントデータに係るエージェント音声を、スピーカ108A~108Cのうち、いずれかのスピーカ108に同時に出力させたり、各指示のエージェントデータに係る画像を、表示部110A~110Cのうち、いずれかの表示部110に表示させたりすることである。なお、出力制御部127は、各指示のエージェントデータに係るエージェント音声を、優先度に関わらず、スピーカ108A~108Cのうち、いずれか(例えば、一つ)のスピーカ108に順次出力させたり、各指示のエージェントデータに係る画像を、優先度に関わらず、表示部110A~110Cのうち、いずれか(例えば、一つ)の表示部110に順次表示させたりするものであってもよい。
【0088】
優先度付加部126は、判定部125によって車載機器VEに対する複数の指示が、同時に実行することが不可能であると判定された場合、複数の指示のそれぞれに対して優先度を付加する(ステップS116)。優先度付加部126は、例えば、複数の指示のそれぞれに、表示部110に表示されている内容との関連性に基づいて優先度を付加してもよく、発話SPの順序に基づいて優先度を付加してもよく、指示を示す語句を接続する接続詞に基づいて優先度を付加してもよく、指示の順序を示す語句に基づいて優先度を付加してもよく、指示のタイミングを示す語句に基づいて優先度を付加してもよい。
【0089】
出力制御部127は、特定部124によって特定された車載機器VEに対す複数の指示に応じた情報を、優先度が高い指示に応じた情報から順に情報出力装置に出力させる(ステップS118)。
【0090】
図11は、実施形態に係るサーバ装置200の一例の処理の流れを示すフローチャートである。まず、通信部202は、エージェント装置100から音声データを取得する(ステップS200)。次に、発話区間抽出部212は、音声データに含まれる発話区間を抽出する(ステップS202)。次に、音声認識部213は、抽出された発話区間における音声データから、発話内容を認識する。具体的には、音声認識部213は、音声データをテキストデータにして、最終的にはテキストデータに含まれる文言を認識する(ステップS204)。エージェントデータ生成部214は、発話内容全体の意味に基づくエージェントデータを生成する(ステップS206)。次に、通信制御部215は、通信部202を介して、エージェントデータをエージェント装置100に送信する(ステップS208)。
【0091】
[実施形態のまとめ]
以上説明したように、本実施形態のエージェントシステム1は、利用者(この一例では、乗員)が発話した音声を示す音声データを取得する取得部121と、取得部121により取得された音声データに基づいて、乗員の発話内容を認識する音声認識部213と、発話内容に含まれる指示を特定する特定部124と、特定部124によって特定された指示に応答する情報を、表示部110を含む情報出力装置に出力させる出力制御部127と、特定部124によって複数の指示が特定された場合、特定された複数の指示が同時に実行することが可能であるか否かを判定する判定部125と、判定部125により複数の指示が同時に実行することが不可能であると判定された場合、発話内容に含まれる複数の指示に対して、表示部110により表示されている内容との関連性に基づいて優先度を付加する優先度付加部126と、を備え、出力制御部127は、特定部124により複数の指示が特定された場合、優先度付加部126に付加された優先度の高い指示から順に、指示に応じた情報を情報出力装置に出力させる。これにより、本実施形態のエージェントシステム1は、発話によってされた複数の指示を車両Mの乗員にとって適切な順序によって実行することができる。
【0092】
<変形例>
上述した実施形態では、車両Mに搭載されたエージェント装置100と、サーバ装置200とが互いに異なる装置であるものとして説明したがこれに限定されるものではない。例えば、エージェント機能に係るサーバ装置200の構成要素は、エージェント装置100の構成要素に含まれてもよい。この場合、サーバ装置200は、エージェント装置100の制御部120によって仮想的に実現される仮想マシンとして機能させてもよい。以下、サーバ装置200の構成要素を含むエージェント装置100Aを変形例として説明する。なお、変形例において、上述した実施形態と同様の構成要素については、同様の符号を付するものとし、ここでの具体的な説明は省略する。
【0093】
図12は、変形例に係るエージェント装置100Aの一例を示す図である。エージェント装置100Aは、例えば、通信部102と、マイク106と、スピーカ108と、表示部110と、制御部120aと、記憶部150aとを備える。制御部120aは、例えば、取得部121と、音声合成部122と、通信制御部123と、特定部124と、判定部125と、優先度付加部126と、出力制御部127と、発話区間抽出部212と、音声認識部213と、エージェントデータ生成部214とを備える。
【0094】
また、記憶部150aは、例えば、プロセッサによって参照されるプログラムのほかに、車載機器情報152、リスト情報154、及び回答情報232が含まれる。回答情報232は、サーバ装置200から取得した最新の情報によって更新されてもよい。
【0095】
エージェント装置100Aの処理は、例えば、
図10に示すフローチャートのステップS100の処理の後に、
図11に示すフローチャートのステップS202~ステップS206の処理を実行し、その後、
図10に示すフローチャートのステップS106以降の処理を実行する処理である。
【0096】
以上説明した変形例のエージェント装置100Aによれば、第1実施形態と同様の効果を奏する他、乗員からの音声を取得するたびに、ネットワークNWを介してサーバ装置200との通信を行う必要がないため、より迅速に発話内容を認識することができる。また、車両Mがサーバ装置200と通信できない状態であっても、エージェントデータを生成して、乗員に情報を提供することができる。
【0097】
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
【符号の説明】
【0098】
1…エージェントシステム、100、100A…エージェント装置、102、202…通信部、106、106、106A、106B、106C、106D、106E…マイク、108、108A、108B、108C、108D、108E…スピーカ、110、110A、110B、110C…表示部、120、120a、210…制御部、121…取得部、211…取得部、122…音声合成部、123…通信制御部、215…通信制御部、124…特定部、125…判定部、126…優先度付加部、127…出力制御部、150、150a、230…記憶部、152…車載機器情報、154…リスト情報、200…サーバ装置、212…発話区間抽出部、213…音声認識部、214…エージェントデータ生成部、232…回答情報、M…車両、SD1、SD2…エージェント音声、SP、SP1、SP2…発話、VE、VE1、VE2、VE3、VE4…車載機器