IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社リコーの特許一覧 ▶ 国立大学法人名古屋大学の特許一覧

特許7299587情報処理装置、発話認識システム及び発話認識プログラム
<>
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図1
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図2
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図3
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図4
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図5
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図6
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図7
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図8
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図9
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図10
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図11
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図12
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図13
  • 特許-情報処理装置、発話認識システム及び発話認識プログラム 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-06-20
(45)【発行日】2023-06-28
(54)【発明の名称】情報処理装置、発話認識システム及び発話認識プログラム
(51)【国際特許分類】
   G06T 7/20 20170101AFI20230621BHJP
   G06T 7/00 20170101ALI20230621BHJP
   G06F 3/01 20060101ALI20230621BHJP
   G10L 15/25 20130101ALI20230621BHJP
【FI】
G06T7/20 300Z
G06T7/00 350B
G06F3/01 510
G10L15/25
【請求項の数】 8
(21)【出願番号】P 2019019139
(22)【出願日】2019-02-05
(65)【公開番号】P2020126492
(43)【公開日】2020-08-20
【審査請求日】2021-08-24
(73)【特許権者】
【識別番号】000006747
【氏名又は名称】株式会社リコー
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(73)【特許権者】
【識別番号】504139662
【氏名又は名称】国立大学法人東海国立大学機構
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(72)【発明者】
【氏名】後藤 悠斗
(72)【発明者】
【氏名】能勢 将樹
(72)【発明者】
【氏名】速水 悟
(72)【発明者】
【氏名】田村 哲嗣
【審査官】笠田 和宏
(56)【参考文献】
【文献】特開平10-187186(JP,A)
【文献】特開2015-045919(JP,A)
【文献】国際公開第2013/191061(WO,A1)
【文献】Jon Barker,外1名,Energetic and Informational Masking Effects in an Audiovisual Speech Recognition System,IEEE Transactions on Audio, Speech, and Language Processing,Volume 17,Issue 3,2009年03月,pp. 446-458
【文献】高橋 昌平,外1名,複数画像特徴量を用いた読唇システム オプティカルフロー特徴・形状特徴・離散コサイン変換特徴の統合の検討,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM)[online] ,情報処理学会,2014年02月24日,Vol. 2014-CVIM-191,No. 7
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/20
G06T 7/00
G06F 3/01
G10L 15/25
(57)【特許請求の範囲】
【請求項1】
撮像装置によって撮像された動画データが入力される入力部と、
前記動画データに含まれるフレーム毎の画像から、人物の口唇を示す領域を認識し、前記人物の連続した口唇画像を示す口唇領域画像データを抽出する口唇領域抽出部と、
前記口唇領域画像データに付与された属性情報に基づき、複数の認識モデルの中から、前記人物の発話内容の認識に用いる認識モデルを選択する認識モデル選択部と、
選択された認識モデルを用いて前記人物の発話内容を認識する発話認識部と、
前記発話内容の認識結果を出力する出力部と、
前記撮像装置と前記人物との距離を異ならせて前記人物を撮像した動画データから抽出された口唇領域画像データを用いて学習させた複数の認識モデルが格納された記憶部と、
前記撮像装置と前記人物との距離に応じて、前記複数の認識モデルの中から、発話内容の認識に使用する認識モデルを選択する認識モデル選択部と、を有し、
前記認識モデル選択部は、
前記連続した口唇画像の横幅の画素数の平均値が所定値未満である場合、発話内容の認識不可とし、
前記連続した口唇画像の横幅の画素数の平均値が前記所定値以上であり、且つ、前記所定値より大きい値である第一の値未満である場合に、前記複数の認識モデルの中から、遠距離用の認識モデルを選択し、
前記連続した口唇画像の横幅の画素数の平均値が前記第一の値以上であり、且つ、前記第一の値よりも大きい値である第二の値未満である場合に、前記複数の認識モデルの中から、中距離用の認識モデルを選択し、
前記連続した口唇画像の横幅の画素数の平均値が前記第二の値以上である場合に、前記複数の認識モデルの中から、近距離用の認識モデルを選択する情報処理装置。
【請求項2】
前記連続した口唇画像の横幅の画素数の平均値を算出する口唇画素数算出部を有し、
前記平均値を前記口唇領域画像データに付与された属性情報とする、請求項1記載の情報処理装置。
【請求項3】
前記動画データが示す動画におけるフレームレートを算出するフレームレート算出部を有し、
前記フレームレートを前記属性情報とする、請求項1記載の情報処理装置。
【請求項4】
前記複数の認識モデルは、
それぞれについて、異なるフレームレートで取得された、連続する口唇画像を示す口唇領域画像データを入力として学習させたモデルである、請求項3記載の情報処理装置。
【請求項5】
前記口唇領域画像データが、選択された認識モデルの入力データとなるように、前記連続した口唇画像の解像度を異なる解像度に変換する口唇画素数変換部を有する、請求項1乃至4の何れか一項に記載の情報処理装置。
【請求項6】
一定期間の前記連続した口唇画像の横幅の画素数と縦幅の画素数とが示す画像の8ビットのRGB値を特徴量として算出する特徴量算出部を有し、
前記発話認識部は、
選択された認識モデルと、前記特徴量とを用いて前記発話内容を認識する、請求項1乃至5の何れか一項に記載の情報処理装置。
【請求項7】
撮像装置と、情報処理装置とを有する発話認識システムであって、
前記情報処理装置は、
前記撮像装置によって撮像された動画データが入力される入力部と、
前記動画データに含まれるフレーム毎の画像から、人物の口唇を示す領域を認識し、前記人物の連続した口唇画像を示す口唇領域画像データを抽出する口唇領域抽出部と、
前記口唇領域画像データに付与された属性情報に基づき、複数の認識モデルの中から、前記人物の発話内容の認識に用いる認識モデルを選択する認識モデル選択部と、
選択された認識モデルを用いて前記人物の発話内容を認識する発話認識部と、
前記発話内容の認識結果を出力する出力部と、
前記撮像装置と前記人物との距離を異ならせて前記人物を撮像した動画データから抽出された口唇領域画像データを用いて学習させた複数の認識モデルが格納された記憶部と、
前記撮像装置と前記人物との距離に応じて、前記複数の認識モデルの中から、発話内容の認識に使用する認識モデルを選択する認識モデル選択部と、を有し、
前記認識モデル選択部は、
前記連続した口唇画像の横幅の画素数の平均値が所定値未満である場合、発話内容の認識不可とし、
前記連続した口唇画像の横幅の画素数の平均値が前記所定値以上であり、且つ、前記所定値より大きい値である第一の値未満である場合に、前記複数の認識モデルの中から、遠距離用の認識モデルを選択し、
前記連続した口唇画像の横幅の画素数の平均値が前記第一の値以上であり、且つ、前記第一の値よりも大きい値である第二の値未満である場合に、前記複数の認識モデルの中から、中距離用の認識モデルを選択し、
前記連続した口唇画像の横幅の画素数の平均値が前記第二の値以上である場合に、前記複数の認識モデルの中から、近距離用の認識モデルを選択する発話認識システム。
【請求項8】
情報処理装置に、
撮像装置によって撮像された動画データを入力する処理と、
前記動画データに含まれるフレーム毎の画像から、人物の口唇を示す領域を認識し、前記人物の連続した口唇画像を示す口唇領域画像データを抽出する処理と、
前記口唇領域画像データに付与された属性情報に基づき、複数の認識モデルの中から、前記人物の発話内容の認識に用いる認識モデルを選択する処理と、
選択された認識モデルを用いて前記人物の発話内容を認識する処理と、
前記発話内容の認識結果を出力する処理と、
記憶部に格納された、前記撮像装置と前記人物との距離を異ならせて前記人物を撮像した動画データから抽出された口唇領域画像データを用いて学習させた複数の認識モデルから、前記撮像装置と前記人物との距離に応じて、発話内容の認識に使用する認識モデルを選択する処理と、を実行させ、
前記認識モデルを選択する処理は、
前記連続した口唇画像の横幅の画素数の平均値が所定値未満である場合、発話内容の認識不可とし、
前記連続した口唇画像の横幅の画素数の平均値が前記所定値以上であり、且つ、前記所定値より大きい値である第一の値未満である場合に、前記複数の認識モデルの中から、遠距離用の認識モデルを選択し、
前記連続した口唇画像の横幅の画素数の平均値が前記第一の値以上であり、且つ、前記第一の値よりも大きい値である第二の値未満である場合に、前記複数の認識モデルの中から、中距離用の認識モデルを選択し、
前記連続した口唇画像の横幅の画素数の平均値が前記第二の値以上である場合に、前記複数の認識モデルの中から、近距離用の認識モデルを選択する、発話認識プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、発話認識システム及び音声認識プログラムに関する。
【背景技術】
【0002】
近年の音声認識システムでは、音声情報を補完するために、画像情報を使って発話者の口唇の動きから発話内容を認識する機械読唇技術(リップリーディング)が既に知られている。
【0003】
また、音声認識に画像情報を用いる技術の1つとして、広角撮影装置で撮像された顔画像を平面正則画像に変換し、参加者と広角撮影装置との距離に応じて、口唇領域を抽出する際の倍率を設定する技術が知られている。
【発明の概要】
【発明が解決しようとする課題】
【0004】
会議等では、話者が着席する位置や姿勢、話者の動き等によって、撮像装置と話者との距離が変化する。そのため、音声情報の補間として入力される画像情報では、話者の口唇領域の大きさが常に一定である保証はなく、認識器へ入力される画像情報の解像度にばらつきが生じ、発話内容の認識の精度を向上させることが困難であった。
【0005】
開示の技術は、発話内容の認識精度を向上させることを目的とする。
【課題を解決するための手段】
【0006】
開示の技術は、撮像装置によって撮像された動画データが入力される入力部と、前記動画データに含まれるフレーム毎の画像から、人物の口唇を示す領域を認識し、前記人物の連続した口唇画像を示す口唇領域画像データを抽出する口唇領域抽出部と、前記口唇領域画像データに付与された属性情報に基づき、複数の認識モデルの中から、前記人物の発話内容の認識に用いる認識モデルを選択する認識モデル選択部と、選択された認識モデルを用いて前記人物の発話内容を認識する発話認識部と、前記発話内容の認識結果を出力する出力部と、前記撮像装置と前記人物との距離を異ならせて前記人物を撮像した動画データから抽出された口唇領域画像データを用いて学習させた複数の認識モデルが格納された記憶部と、前記撮像装置と前記人物との距離に応じて、前記複数の認識モデルの中から、発話内容の認識に使用する認識モデルを選択する認識モデル選択部と、を有し、前記認識モデル選択部は、前記連続した口唇画像の横幅の画素数の平均値が所定値未満である場合、発話内容の認識不可とし、前記連続した口唇画像の横幅の画素数の平均値が前記所定値以上であり、且つ、前記所定値より大きい値である第一の値未満である場合に、前記複数の認識モデルの中から、遠距離用の認識モデルを選択し、前記連続した口唇画像の横幅の画素数の平均値が前記第一の値以上であり、且つ、前記第一の値よりも大きい値である第二の値未満である場合に、前記複数の認識モデルの中から、中距離用の認識モデルを選択し、前記連続した口唇画像の横幅の画素数の平均値が前記第二の値以上である場合に、前記複数の認識モデルの中から、近距離用の認識モデルを選択する情報処理装置である。


【発明の効果】
【0007】
発話内容の認識精度を向上させることができる。
【図面の簡単な説明】
【0008】
図1】第一の実施形態の発話認識システムについて説明する図である。
図2】第一の実施形態の情報処理装置のハードウェア構成の一例を示す図である。
図3】第一の実施形態の情報処理装置の機能を説明する図である。
図4】第一の実施形態の情報処理装置の処理を説明する第一のフローチャートである。
図5】第一の実施形態の情報処理装置の処理を説明する第二のフローチャートである。
図6】第一の実施形態の口唇画像を説明する図である。
図7】第一の実施形態の認識モデルの選択について説明する図である。
図8】第一の実施形態の認識モデルについて説明する第一の図である。
図9】第一の実施形態の認識モデルについて説明する第二の図である。
図10】第二の実施形態の情報処理装置の機能を説明する図である。
図11】第二の実施形態の情報処理装置の処理を説明する第一のフローチャートである。
図12】第二の実施形態の認識モデルについて説明する第一の図である。
図13】第二の実施形態の認識モデルについて説明する第二の図である。
図14】第三の実施形態の認識モデルの選択について説明する図である。
【発明を実施するための形態】
【0009】
(第一の実施形態)
以下に図面を参照して、第一の実施形態について説明する。図1は、第一の実施形態の発話認識システムについて説明する図である。
【0010】
本実施形態の発話認識システム100は、情報処理装置200と、撮像装置300とを有する。発話認識システム100において、情報処理装置200と撮像装置300とは、有線又は無線にて接続されている。
【0011】
図1では、3名の参加者A、B、Cによる会議が開催されており、参加者A、B、Cのそれぞれの発話内容を発話認識システム100によって認識する例を示している。
【0012】
情報処理装置200は、発話内容の認識を始めとする、システムの基本制御を行う。尚、情報処理装置200は、例えば、ネットワークやインターネットに接続されており、ネットワーク上のサーバや、インターネット上のクラウドサーバへ、撮像装置300が撮像したが画像データを送信しても良い。この場合、情報処理装置200は、サーバやクラウドサーバにおいて行われた発話内容の認識結果を受信しても良い。
【0013】
本実施形態の情報処理装置200は、参加者の発話内容の認識結果を、表示装置400に表示させることで、発話内容を可視化する。また、本実施形態の情報処理装置200は、発話内容の認識結果をテキストデータとして保持し、任意のタイミングで、テキストデータを議事録として出力しても良い。任意のタイミングとは、例えば、会議が終了したとき等である。
【0014】
表示装置400は、例えば、電子黒板であっても良いし、ディスプレイであっても良い。また、図1の例では、表示装置400は発話認識システム100に含まれるものとしたが、これに限定されず、表示装置400は、発話認識システム100に含まれていなくても良い。
【0015】
本実施形態の発話認識システム100では、参加者の音声認識に、撮像装置300と参加者との距離に応じた認識モデル(認識器)を用いる。
【0016】
この認識モデルは、予め様々な距離で撮像された、解像度の異なる話者の口唇領域の画像データを用いて、距離毎に学習したものであり情報処理装置200が有していてもよい。
【0017】
本実施形態の情報処理装置200は、参加者と撮像装置300との距離に応じた認識モデルを用いることで、その距離における発話内容の認識精度を向上させることができる。
【0018】
図2は、第一の実施形態の情報処理装置のハードウェア構成の一例を示す図である。本実施形態の情報処理装置200は、それぞれバスBで相互に接続されている入力装置21、出力装置22、ドライブ装置23、補助記憶装置24、メモリ装置25、演算処理装置26及びインターフェース装置27を含む。
【0019】
入力装置21は、各種の情報の入力を行うための装置であり、例えば、キーボードやポインティングデバイス等により実現される。また、入力装置21は、撮像装置300が撮像した画像データを入力させるインターフェース等であっても良い。
【0020】
出力装置22は、各種の情報の出力を行うためものであり、例えばディスプレイ等であっても良いし、表示装置400に情報を出力するためのインターフェースであっても良い。インターフェース装置27は、LANカード等を含み、ネットワークに接続する為に用いられる。
【0021】
本実施形態の発話認識プログラムは、情報処理装置200を制御する各種プログラムの少なくとも一部である。発話認識プログラムは、例えば、記憶媒体28の配布やネットワークからのダウンロード等によって提供される。発話認識プログラムを記録した記憶媒体28は、CD-ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記憶媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記憶媒体を用いることができる。
【0022】
また、発話認識プログラムは、発話認識プログラムを記録した記憶媒体28がドライブ装置23にセットされると、記憶媒体28からドライブ装置23を介して補助記憶装置24にインストールされる。ネットワークからダウンロードされた発話認識プログラムは、インターフェース装置27を介して補助記憶装置24にインストールされる。
【0023】
補助記憶装置24は、インストールされた発話認識プログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置25は、情報処理装置200の起動時に補助記憶装置24から発話認識プログラムを読み出して格納する。そして、演算処理装置26はメモリ装置25に格納された発話認識プログラムに従って、後述するような各種処理を実現している。
【0024】
次に、図3を参照して、本実施形態の情報処理装置200の機能について説明する。図3は、第一の実施形態の情報処理装置の機能を説明する図である。
【0025】
本実施形態の情報処理装置200は、映像入力部210、人物領域認識部211、画像補正部212、顔領域認識部213、口唇領域抽出部214、口唇画素数算出部215、認識モデル選択部216、口唇画素数変換部217、口唇特徴量算出部218、発話内容認識部219、テキスト出力部220を有する。
【0026】
これらの各部は、情報処理装置200の演算処理装置26が、メモリ装置25に格納された発話認識プログラムを読み出して実行することで実現される。
【0027】
また、情報処理装置200は、記憶部230を有する。記憶部230は、例えば、情報処理装置200のメモリ装置25や補助記憶装置24等によって実現される。
【0028】
記憶部230には、認識モデル231、232、233が格納されている。認識モデル231は、撮像装置300と話者との距離が近距離とされる場合に用いられる。認識モデル232は、撮像装置300と話者との距離が中距離とされる場合に用いられる。認識モデル233は、撮像装置300と話者との距離が遠距離とされる場合に用いられる。
【0029】
本実施形態の映像入力部210は、撮像装置300によって撮像された映像データ(動画データ)を取得する。人物領域認識部211は、取得した映像データにおける連続したフレーム画像において、人物がいる領域を認識し、その領域を画像データとして抽出する。以下の説明では、人物領域認識部211によって抽出された画像データを人物領域画像データと呼び、人物領域画像データが示す画像を人物画像と呼ぶ。
【0030】
画像補正部212は、人物領域画像データが明るすぎたり、暗すぎたりした場合に、明度補正を行う。明度補正方法については既存の一般技術を用いればよい。
【0031】
また、撮像装置300が全天球カメラである場合、2つのレンズによって取得した2枚の超広角画像を結合し、1枚の画像として扱うことが一般的である。その画像がEquirectangular形式であることも一般的であり、その場合、指定された補正位置を中心に遠近補正すれば、歪みのない画像として処理することができる。
【0032】
本実施形態の画像補正部212は、人物領域認識部211によって認識された座標を中心に遠近補正をすることで、人物領域画像データが示す画像を、人物の領域を歪みのない画像として取得する。
【0033】
顔領域認識部213は画像補正部212によって歪みが補正された人物領域画像データから、人物の顔を認識し、顔領域の画像データを抽出する。以下の説明では、顔領域認識部213によって抽出された画像データを顔画像データと呼び、顔画像データが示す画像を顔画像と呼ぶ。
【0034】
顔領域認識部213による顔認識のアルゴリズムとしては、Haar-Like特徴量分類器や、HOG特徴量を用いた識別器等、既存の様々な手法があるのでそれらを使用すればよい。
【0035】
口唇領域抽出部214は、顔画像データから、口唇領域の画像データを抽出する。以下の説明では、口唇領域抽出部214によって抽出された画像データを、口唇領域画像データと呼び、口唇領域画像データが示す画像を口唇画像と呼ぶ。尚、口唇領域画像データには、複数の口唇画像を示すデータであって良い。
【0036】
口唇領域抽出部214は、例えば、顔領域認識部213による顔認識に、口唇領域のランドマーク数箇所がわかるような識別器を用いることで、その認識結果から口唇領域画像データを抽出することができる。
【0037】
本実施形態では、上述した処理をフレーム毎に連続的に実行することで、映像入力部210に入力された映像データから、口唇画像を連続した画像として取得することができる。
【0038】
口唇画素数算出部215は、連続した口唇画像のそれぞれの横幅の画素数の平均値を算出し、この平均値を、口唇領域画像データの属性情報として、口唇領域画像データに付与する。つまり、口唇画素数算出部215は、口唇領域画像データに属性情報を付与する属性付与部として機能する。
【0039】
連続した口唇画像とは、映像データ(動画データ)のフレーム毎の画像から抽出された複数の口唇画像群である。
【0040】
認識モデル選択部216は、口唇画素数算出部215によって算出された平均値に応じて、記憶部230に格納された認識モデル231、232、233の中から、発話内容の認識に使用する認識モデルを選択する。言い換えれば、認識モデル選択部216は、口唇領域画像データに付与された属性情報に基づき、認識モデルを選択する。
【0041】
連続した口唇画像の横幅の画素数の平均値は、撮像装置300と話者(参加者)との間の距離に相当する。したがって、認識モデル選択部216は、撮像装置300と話者(参加者)との間の距離に応じて、認識モデルを選択している。
【0042】
口唇画素数変換部217は、認識モデル選択部216によって選択された認識モデルに合わせるように、連続した口唇画像の画素数を変換する。
【0043】
口唇特徴量算出部218は、連続する口唇画像から、空間的な情報、及び時間的な情報を特徴量として取得する。具体的には、本実施形態の特徴量は、一定期間の連続した口唇画像の横幅の画素数と縦幅の画像数とが示す画像の8ビットのRGB値とした。
【0044】
発話内容認識部219は、口唇特徴量算出部218が取得した特徴量と、認識モデル選択部216によって選択された認識モデルとに基づき、話者の発話内容を認識する。
【0045】
テキスト出力部220は、発話内容認識部219による認識結果をテキストデータとして、表示装置400等に出力する。
【0046】
尚、図3の例では、認識モデル231、232、233は、情報処理装置200の有する記憶部230に格納されるものとしたが、これに限定されない。認識モデル231、232、233は、情報処理装置200以外の装置に格納されていても良い。
【0047】
次に、図4を参照して、第一の実施形態の情報処理装置200の処理について説明する。図4は、第一の実施形態の情報処理装置の処理を説明する第一のフローチャートである。
【0048】
本実施形態の情報処理装置200は、映像入力部210により、撮像装置300が撮像した映像データを取得する(ステップS401)。
【0049】
続いて、情報処理装置200は、ステップS403以降の処理をN回繰り返すループを開始する(ステップS402)。
【0050】
情報処理装置200は、人物領域認識部211により、映像入力部210が取得した映像データから、1フレームの画像データを取得する(ステップS403)。続いて、人物領域認識部211は、1フレームの画像データから、人物がいる領域を認識し、人物領域画像データを抽出する(ステップS404)。
【0051】
尚、本実施形態の人物領域認識部211は、人物領域画像データの矩形領域の画像データとして抽出する。また、ここでは説明の簡略化のために1人分の認識処理のみについて説明するが、複数の人物が認識される場合も想定される。その場合、この一連の認識処理、及び抽出処理は人数分逐次的、もしくは並列に処理する。
【0052】
続いて、情報処理装置200は、画像補正部212により、人物領域画像データの歪み等を補正する(ステップS405)。続いて、情報処理装置200は、顔領域認識部213により、補正された人物領域画像データから、顔領域を認識し、顔領域画像データを抽出する(ステップS406)。
【0053】
続いて、情報処理装置200は、口唇領域抽出部214により、顔領域画像データから、口唇領域を認識し、口唇領域画像データを抽出する(ステップS407)。続いて、口唇領域抽出部214は、口唇画像データをバッファに追加する(ステップS408)。
【0054】
情報処理装置200は、ステップS403からステップS409の処理をN回繰り返す(ステップS409)。
【0055】
具体的には、例えば、情報処理装置200は、ステップS403からステップS409の処理を150回程度繰り返す。この場合、例えば、フレームレートが30fpsの場合、4秒分の連続した口唇領域画像データがバッファに格納されることになる。ステップS403からステップS409の処理の詳細は後述する。尚、本実施形態の口唇領域画像データは、複数の連続した口唇画像を示す複数の画像データを含む。
【0056】
続いて、情報処理装置200は、口唇画素数算出部215により、バッファに格納された連続した口唇画像の横幅の画素数の平均値wを算出し、取得する(ステップS410)。
【0057】
続いて、情報処理装置200は、認識モデル選択部216により、平均値wに応じた認識モデルを選択する処理を行う。
【0058】
つまり、本実施形態では、連続した口唇画像の横幅の画素数の平均値wは、認識モデル選択部216が認識モデルを選択する際に参照される属性情報である。この平均値wは、連続する口唇画像を示す口唇領域画像データに付与されて保持されても良い。
【0059】
具体的には、情報処理装置200は、認識モデル選択部216により、平均値wが10ピクセル未満であるか否かを判定する(ステップS411)。
【0060】
ステップS411において、平均値wが10ピクセル未満である場合、認識モデル選択部216は、口唇画像が小さすぎるために、認識不可とし、連続した口唇画像を格納したバッファをリセット(ステップS412)して、ステップS402へ戻る。口唇画像が小さすぎる場合とは、話者が撮像装置300から遠すぎる場合である。
【0061】
ステップS411において、平均値wが10ピクセル未満である場合、認識モデル選択部216は、平均値wが10ピクセル以上25ピクセル未満であるか否かを判定する(ステップS413)。
【0062】
ステップS413において、平均値wが10ピクセル以上25ピクセル未満である場合、認識モデル選択部216は、記憶部230に格納された認識モデルのうち、認識モデル231を設定し(ステップS414)、後述するステップS418へ進む。言い換えれば、認識モデル選択部216は、バッファに格納された連続する口唇画像を示す口唇領域画像データに付与された属性情報である平均値wに応じて、認識モデル231を選択する。
【0063】
認識モデル231は、口唇領域の大きさが小さく、話者から撮像装置300までの距離が遠いものの、認識可能である場合に選択される、遠距離用の認識モデルである。
【0064】
ステップS413において、平均値wが10ピクセル以上25ピクセル未満でない場合、つまり、平均値wが25ピクセル以上である場合、認識モデル選択部216は、平均値wが25ピクセル以上40ピクセル未満であるか否かを判定する(ステップS415)。
【0065】
ステップS415において、平均値wが25ピクセル以上40ピクセル未満である場合、認識モデル選択部216は、記憶部230に格納された認識モデルのうち、認識モデル232を設定し(ステップS416)、後述するステップS418へ進む。
【0066】
認識モデル232は、口唇領域の大きさが中程度であり、話者から撮像装置300までの距離が中程度である場合に選択される、中距離用の認識モデルである。
【0067】
ステップS415において、平均値wが10ピクセル以上25ピクセル未満でない場合、つまり、平均値wが40ピクセル以上である場合、認識モデル選択部216は、認識モデル233を設定し(ステップS417)、後述するステップS418へ進む。
【0068】
認識モデル233は、口唇領域が大きく、話者から撮像装置300までの距離が近い場合に選択される、近距離用の認識モデルである。
【0069】
続いて、情報処理装置200は、口唇画素数変換部217により、選択された認識モデルに応じて、バッファに格納された連続する口唇画像をリサイズする(ステップS418)。
【0070】
本実施形態の認識モデル231、232、233は、それぞれが、遠距離画像、中距離画像、近距離画像を使って深層学習によって調整されたネットワークのパラメータである。
【0071】
遠距離用の認識モデル231へ入力される画像データが示す画像の横幅は10ピクセルである必要がある。同様に、中距離用の認識モデル232へ入力される画像データが示す画像の横幅は30ピクセル、認識モデル233へ入力される画像データが示す画像の横幅は50ピクセルである必要がある。
【0072】
本実施形態の口唇画素数変換部217は、口唇画像を示す画像データを、選択された認識モデルに入力できるように、口唇画像のリサイズを行う。具体的には、口唇画素数変換部217は、口唇画像の解像度を変換すれば良い。
【0073】
続いて、情報処理装置200は、口唇特徴量算出部218により、口唇画像の特徴量を取得する(ステップS419)。
【0074】
続いて、情報処理装置200は、発話内容認識部219により、選択された認識モデルに、リサイズされた口唇画像データと、特徴量とを入力して発話内容の認識を行う(ステップS420)。
【0075】
続いて、情報処理装置200は、テキスト出力部220により、認識結果をテキストデータとして、表示装置400等に出力し(ステップS421)、バッファをリセットする(ステップS422)。
【0076】
続いて、情報処理装置200は、処理の終了指示を受け付けたか否かを判定する(ステップS423)。ステップS423において、処理の終了指示を受け付けた場合、情報処理装置200は、処理を終了する。ステップS423において、終了指示を受け付けない場合、情報処理装置200は、ステップS402へ戻る。
【0077】
次に、図5を参照して、図4で示したループ処理について、さらに説明する。図5は、第一の実施形態の情報処理装置の処理を説明する第二のフローチャートである。
【0078】
本実施形態の情報処理装置200は、認識モデルに入力するために必要な口唇画像の枚数をカウントするためのカウンタの値を初期化する(ステップS501)。
【0079】
続いて、情報処理装置200は、映像入力部210により、撮像装置300によって撮像された映像データを取得する(ステップS502)。
【0080】
続いて、情報処理装置200は、人物領域認識部211により、1フレーム分の画像を取得し、画像内の人物を認識する(ステップS503)。
【0081】
続いて、情報処理装置200は、ステップS503において、人物が認識されたか否かを判定する(ステップS504)。ステップS504において、人物が認識されない場合、人物領域認識部211は、話者最終位置情報の参照可能か否かを判定する(ステップS505)。話者最終位置情報とは、映像データに含まれる何れかの画像において、話者が最後に認識された位置を示す情報である。
【0082】
ステップS505において、話者最終位置情報が参照できない場合、つまり、話者最終位置情報が初期値であった場合、情報処理装置200は、話者がその周辺にいないものとして、ステップS501へ戻る。
【0083】
ステップS505において、話者最終位置情報が参照できる場合、情報処理装置200は、後述するステップS507へ進む。
【0084】
ステップS504において、人物が認識された場合、人物領域認識部211は、この人物と対応する話者最終位置情報を更新する(ステップS506)。
【0085】
続いて、人物領域認識部211は、画像データから、話者最終位置情報に基づき、人物領域を特定し、人物画像を示す人物領域画像データを抽出する(ステップS507)。尚、情報処理装置200は、人物領域画像データを抽出した後に、画像補正部212により補正を行う。
【0086】
続いて、情報処理装置200は、顔領域認識部213により、人物領域画像データに対して顔認識を行い(ステップS508)、顔が認識されたか否かを判定する(ステップS509)。
【0087】
ステップS509において、顔が認識されない場合、顔最終位置情報の参照が可能か否かを判定する(ステップS510)。顔最終位置情報とは、人物画像において、話者の顔が映っている最終位置を示す情報である。ステップS510において、顔最終位置情報が参照できない場合、情報処理装置200は、ステップS501へ戻る。
【0088】
ステップS510において、顔最終位置情報の参照が可能な場合、情報処理装置200は、後述するステップS512へ進む。
【0089】
ステップS509において、顔を認識した場合、顔領域認識部213は、顔最終位置情報に基づき、人物領域画像データから、顔画像を示す顔領域画像データを抽出する(ステップS512)。
【0090】
続いて、情報処理装置200は、口唇領域抽出部214により、顔領域画像データから、口唇画像を示す口唇領域画像データを抽出する(ステップS513)。続いて、情報処理装置200は、取得済みの現在のフレーム数を数えるために、カウンタの値に1を追加し(ステップS514)、口唇領域画像データをバッファに追加する(ステップS515)。
【0091】
続いて、情報処理装置200は、取得済みのフレーム数が、認識モデルに入力するために必要なフレーム数に達したか否かを判定する(ステップS516)。言い換えれば、情報処理装置200は、カウンタの値が、認識モデルに入力するために必要なフレーム数に達したか否かを判定する。尚、図5の例では、認識モデルに入力するために必要なフレーム数を150としが、これに限定されない。
【0092】
ステップS516において、必要なフレーム数に達していない場合、情報処理装置200は、ステップS502へ戻る。
【0093】
ステップS516において、必要なフレーム数に達していた場合、情報処理装置200は、次の話者のデータ揃えるために、話者最終位置情報を初期化する(ステップS517)。続いて、情報処理装置200は、顔最終位置情報を初期化して(ステップS518)、一回の発話認識に対する処理を終了する。
【0094】
このように、本実施形態では、発話毎に、話者と撮像装置300との距離を示す口唇画像の横幅に応じて、発話認識に用いる認識モデルを選択して発話認識を行うため、読唇による発話認識の精度を向上させることができる。また、本実施形態を、音声情報を用いた発話認識と組み合わせることで、発話認識の精度を向上させることができる。
【0095】
次に、図6を参照して、本実施形態の口唇画像について、さらに説明する。図6は、第一の実施形態の口唇画像を説明する図である。
【0096】
図6に示す画像61は、全天球カメラである撮像装置300によって撮像された画像の一例を示している。この画像61は、Equirectangular形式の歪んだ画像である。
【0097】
画像61では、会議の参加者(話者)A、B、Cの3人がテーブルを囲んでおり、撮像装置300から近い位置に参加者A、中程度の位置に参加者B、遠い位置に参加者Cが着席している。
【0098】
本実施形態では、画像61に対して、人物領域認識部211による人物領域認識処理を行うことで、矩形の人物画像611、612、613を示す人物領域画像データが抽出される。
【0099】
ここで、人物画像611、612、613は歪んだ画像であるため、画像補正部212は、人物画像の中心座標を元に遠近補正を行う。この補正によって、歪みのある人物画像611、612、613は、歪のない補正済み人物画像611A、612A、613Aとなる。
【0100】
本実施形態では、この補正済み人物画像611A、612A、613Aに対して、顔領域認識部213による顔領域認識処理を行って、顔画像を示す顔領域画像データを抽出し、さらに顔領域画像データに対して、口唇領域抽出部214による口唇領域認識処理を行う。
【0101】
その結果、口唇領域抽出部214は、口唇画像621、622、623を示す口唇領域画像データが抽出される。
【0102】
次に、図7を参照して、認識モデル選択部216による認識モデルの選択について説明する。図7は、第一の実施形態の認識モデルの選択について説明する図である。
【0103】
本実施形態では、連続する口唇画像の横幅の画素数の平均値が10ピクセル未満の場合、認識不可として認識モデルの適用範囲外となる。
【0104】
また、本実施形態では、連続する口唇画像の横幅の画素数の平均値が10ピクセル以上25ピクセル未満である場合には、認識モデル選択部216は、遠距離用の認識モデル231を選択する。そして、本実施形態では、口唇画素数変換部217により、認識モデル231に入力される口唇領域画像データが示す口唇画像の横幅の画素数の平均値が10ピクセルとなるように縮小する。
【0105】
尚、人の口唇は横長なので、縦方向の画素数は5ピクセルとしても良い。縦方向の画素数が5ピクセルである場合には、認識モデル231は、10×5ピクセルの画像データを用いて学習されたものである。
【0106】
また、本実施形態では、認識モデル選択部216は、連続した口唇画像の横幅の画素数の平均値が、25ピクセル以上50ピクセル未満である場合には、中距離用の認識モデル232を選択する。そして、口唇画素数変換部217は、認識モデル232が選択されると、口唇画像を、30×15ピクセルとなるように、拡大、又は、縮小するリサイズを行う。
【0107】
また、本実施形態では、認識モデル選択部216は、連続した口唇画像の横幅の画素数の平均値が、50ピクセル以上である場合には、近距離用の認識モデル233を選択する。そして、口唇画素数変換部217は、認識モデル233が選択されると、口唇画像を、50×25ピクセルとなるように、拡大、又は、縮小するリサイズを行う。
【0108】
尚、口唇画素数変換部217によるリサイズの方法は、最近傍法、バイリニア補間法、バイキュービック補間法等、既存の手法であって良い。
【0109】
次に、図8を参照して、本実施形態の認識モデルについて説明する。図8は、第一の実施形態の認識モデルについて説明する第一の図である。
【0110】
図8において、縦軸は認識の精度を示し、横軸は入力された連続する口唇画像の横幅の画素数の平均値を示す。
【0111】
図8では、横幅の画素数の平均値を150ピクセルとした連続した口唇画像を用いて学習した認識モデルに対し、横幅の画素数の平均値が150ピクセル以下の連続した口唇画像を示す口唇領域画像データを入力した場合の認識精度を示している。
【0112】
この結果からわかるように、入力される口唇領域画像データが示す口唇画像の横幅の画素数の平均値が50ピクセル以上の場合は、口唇画像の横幅の画素数の平均値を50ピクセルとして認識した場合と、認識の精度に差がない。
【0113】
しかし、口唇画像の横幅の画素数の平均値が50ピクセル未満の口唇画像を示す口唇領域画像データを、この認識モデルに入力した場合には、画像データの特徴量が失われ、モデルとのギャップが生じ、認識の精度が下がっていることがわかる。
【0114】
そこで、口唇画像の横幅の画素数の平均値が50ピクセル未満である口唇領域画像データが入力された場合について注目する。
【0115】
図9は、第一の実施形態の認識モデルについて説明する第二の図である。図9では、横幅の画素数の平均値が50ピクセル未満の口唇画像を用いて学習した認識モデルに対して、横幅の画素数の平均値が異なる口唇画像を示す口唇領域画像データを入力した場合を示している。
【0116】
図9では、例えば、横幅の画素数の平均値が25ピクセルの口唇画像を示す口唇領域画像データを入力とする場合には、横幅の画素数の平均値が25ピクセルの口唇画像を用いて学習した認識モデルを使うと、最も認識の精度が高くなる。
【0117】
また、横幅の画素数の平均値が50ピクセル以上の口唇画像を示す口唇領域画像データを入力とする場合には、横幅の画素数の平均値が50ピクセルの口唇画像を用いて学習した認識モデルを使うと、最も認識の精度が高くなる。
【0118】
このように、本実施形態では、発話毎に、撮像装置300と話者との距離に相当する口唇画像の横幅の画素数の平均値に応じて、発話内容の認識に用いる認識モデルを選択することで、例えば、会議の場等のように、話者とカメラとの距離が変化するような状況でも、リアルタイムで行われる発話内容の認識の精度を向上させることができる。
【0119】
(第二の実施形態)
以下に図面を参照して、第二の実施形態について説明する。第二の実施形態では、口唇領域画像データを取得する際のフレームレートに応じて認識モデルを選択する点が第一の実施形態と相違する。よって、以下の第二の実施形態の説明では、第一の実施形態との相違点について説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
【0120】
図10は、第二の実施形態の情報処理装置の機能を説明する図である。
【0121】
本実施形態の情報処理装置200Aは、映像入力部210、人物領域認識部211、画像補正部212、顔領域認識部213、口唇領域抽出部214、口唇画素数算出部215、認識モデル選択部216A、口唇画素数変換部217、口唇特徴量算出部218、発話内容認識部219、テキスト出力部220に加え、フレームレート算出部221、フレーム補完部222を有する。
【0122】
また、本実施形態の情報処理装置200Aは、記憶部230Aを有する。記憶部230Aには、認識モデル241、242、243が格納されている。
【0123】
本実施形態のフレームレート算出部221は、時々刻々と変化するフレームレートの値を算出し、フレームレートを口唇領域画像データの属性情報として、付与する。つまり、フレームレート算出部221は、口唇領域画像データに属性情報を付与する属性付与部として機能する。
【0124】
フレームレートは、撮像装置300が取得する動画において、単位時間あたりに処理させるフレーム数を示し、発話認識システム100の全体の処理負荷や、情報処理装置200Aの仕様等に応じて変化している。
【0125】
認識モデル選択部216Aは、フレームレート算出部221によって算出されたフレームレートに応じた認識モデルを選択する。言い換えれば、認識モデル選択部216Aは、連続する口唇画像を示す口唇領域画像データに付与された属性情報に基づき、認識モデルを選択する。
【0126】
本実施形態のフレーム補完部222は、認識モデル選択部216によって選択された認識モデルに応じてフレームを補完する。フレーム補完部222が行う間引き方法、補完方法は、前のフレームを単純にコピーする、不要な分は除外する等の単純な方法が考えられる。また、フレーム補完部222は、前後フレーム画像のピクセル値の差分から中間値を求め、新たに尤もらしい中間フレームを生成する既存の手法等を用いても良い。
【0127】
本実施形態の記憶部230Aに格納された認識モデル241、242、243は、異なるフレームレートで取得された、連続する口唇画像を示す口唇領域画像データを入力として学習された認識モデルである。
【0128】
具体的には、認識モデル241は、高いとされるフレームレートで取得された連続する口唇画像を示す口唇領域画像データを入力として学習された認識モデルである。また、認識モデル242は、中程度とされるフレームレートで取得された連続する口唇画像を示す口唇領域画像データを入力として学習された認識モデルである。また、認識モデル243は、低いとされるフレームレートで取得された連続する口唇画像を示す口唇領域画像データを入力として学習された認識モデルである。
【0129】
次に、図11を参照して、本実施形態の情報処理装置200Aの処理について説明する。図11は、第二の実施形態の情報処理装置の処理を説明する第一のフローチャートである。
【0130】
本実施形態の情報処理装置200Aは、映像入力部210により、撮像装置300が撮像した映像データを取得する(ステップS1101)。
【0131】
続いて、情報処理装置200Aは、タイマをスタートさせる(ステップS1102)。本実施形態では、例えば、タイマで4秒間計測するその間に、後述するステップS1103からステップS1110までのループが繰り返された回数によって、フレームレートが算出される。例えば、ループが150回繰り返された場合には、フレームレートは30fpsとなり、ループが50回繰り返された場合には、フレームレートは10fpsとなる。このフレームレートの計算は、後述するステップS1112で行われる。
【0132】
図11のステップS1103からステップS1110までの処理は、図4のステップS402からステップS409までの処理と同様であるから、説明を省略する。
【0133】
ステップS1110に続いて、情報処理装置200Aは、タイマに設定された時間が経過すると、タイマを停止させる(ステップS1111)。
【0134】
続いて、情報処理装置200Aは、フレームレート算出部221により、上述したように、タイマが計測した時間内にループが繰り返された回数に基づいてフレームレートを算出し、取得する(ステップS1112)。
【0135】
フレームレート算出部221によって算出されたフレームレートは、認識モデル選択部216Aが認識モデルを選択する際に参照される属性情報であり、口唇領域画像データに付与されて保持される。
【0136】
続いて、情報処理装置200Aは、認識モデル選択部216Aにより、フレームレートが3fps未満であるか否かを判定する(ステップS1113)。
【0137】
ステップS1113において、フレームレートが3fps未満である場合、認識モデル選択部216Aは、このフレームレートでの認識が不可であるものとし、タイマとバッファをリセットし(ステップS1114)、ステップS1101へ戻る。
【0138】
ステップS1113において、フレームレートが3fps未満でない場合、つまり、フレームレートが3fps以上である場合、認識モデル選択部216Aは、フレームレートが3fps以上5fps未満であるか否かを判定する(ステップS1115)。
【0139】
ステップS1115において、フレームレートが3fps以上5fps未満である場合、認識モデル選択部216Aは、フレームレートは低いとされるものとして認識モデル243を設定し(ステップS1116)、後述するステップS1120へ進む。
【0140】
ステップS1115において、フレームレートが3fps以上5fps未満でない場合、つまり、フレームレートが5fps以上である場合、認識モデル選択部216Aは、フレームレートが5fps以上10fps未満であるか否かを判定する(ステップS1117)。
【0141】
ステップS1117において、フレームレートが5fps以上10fps未満である場合、認識モデル選択部216Aは、フレームレートを中程度として認識モデル242を設定し(ステップS1118)、後述するステップS1120へ進む。
【0142】
ステップS1117において、フレームレートが5fps以上10fps未満でない場合、つまり、フレームレートが10fps以上である場合、認識モデル選択部216Aは、フレームレートが高いものとして認識モデル241を設定し(ステップS1119)、後述するステップS1120へ進む。
【0143】
続いて、情報処理装置200Aは、口唇画素数変換部217により、選択された認識モデルに応じて、バッファに格納された連続する口唇画像をリサイズする(ステップS1120)。
【0144】
尚、本実施形態では、口唇画像をリサイズする際の解像度は、選択された認識モデルに関わらず一定であっても良いし、第一の実施形態の処理と組み合わせても良い。
【0145】
続いて、情報処理装置200Aは、フレーム補完部222により、バッファ内の連続した口唇画像を示す口唇領域画像データを、選択された認識モデル及び取得されたフレームレートに応じて補完し(ステップS1121)、ステップS1122へ進む。尚、本実施形態の補完には、画像データを間引く処理も含まれる。
【0146】
図11のステップS1122からステップS1124の処理は、図4のステップS419からイベント421までの処理と同様であるから、説明を省略する。
【0147】
情報処理装置200Aは、ステップS1124に続いて、タイマとバッファをリセットし(ステップS1125)、処理の終了指示を受け付けたか否かを判定する(ステップS1126)。
【0148】
ステップS1126において、処理の終了指示を受け付けた場合、情報処理装置200Aは、処理を終了する。ステップS1126において、終了指示を受け付けない場合、情報処理装置200Aは、ステップS1101へ戻る。
【0149】
本実施形態の情報処理装置200Aは、図11の処理を連続的に繰り返すことで、口唇画像を用いて連続的に発話内容を認識する。
【0150】
次に、図12を参照して、本実施形態の認識モデルについて説明する。図12は、第二の実施形態の認識モデルについて説明する第一の図である。
【0151】
図12において、縦軸は認識の精度を示し、横軸は入力された連続する口唇画像を取得したときのフレームレートを示す。
【0152】
図12では、フレームレートを30fpsとして取得した、連続した口唇画像を用いて学習した認識モデルに対し、フレームレートが10fps以下である場合の、連続した口唇画像を示す口唇領域画像データを入力した場合の認識精度を示している。
【0153】
図12に示す認識モデルでは、入力される口唇領域画像データのフレームレートが10fps以上である場合は、認識の精度に差がない。
【0154】
しかし、入力される口唇領域画像データのフレームレートを10fps未満とした場合には、口唇領域画像データの特徴量や時間的情報が失われ、モデルとのギャップが生じ、認識の精度が下がる。
【0155】
そこで、入力される口唇領域画像データのフレームレートを10fps未満とした場合について注目する。
【0156】
図13は、第二の実施形態の認識モデルについて説明する第二の図である。図13では、入力される口唇領域画像データのフレームレートを10fps未満として学習した認識モデルに対して、フレームレートが異なる口唇領域画像データを入力した場合を示している。
【0157】
図13では、例えば、フレームレートが5fpsである口唇領域画像データを入力とする場合には、フレームレートが5fpsである口唇領域画像データを用いて学習した認識モデルを使うと、最も認識の精度が高くなる。
【0158】
また、フレームレートが10fps以上の口唇領域画像データを入力とする場合には、フレームレートが10fpsであっても、30fpsであっても、認識の精度に差はない。また、フレームレートが10fpsである口唇領域画像データを用いて学習した認識モデルを使うと、最も認識の精度が高くなることがわかる。したがって、フレームレートが10fps以上の口唇領域画像データを入力とする場合には、フレームレートが10fpsである口唇領域画像データを用いて学習した認識モデルを使えば良い。
【0159】
また、フレームレートが1fps未満の口唇領域画像データを入力とする場合には、極めて認識精度が低いため、本実施形態では、認識不可としている。この場合には、音声情報で発話内容を認識すること等が考えられる。
【0160】
このように、本実施形態では、口唇画像を取得する際のフレームレートに応じて、発話内容の認識に用いる認識モデルを選択するため、発話認識システム100の通信の状況に応じて、発話内容の認識の精度を向上させることができる。
【0161】
(第三の実施形態)
以下に図面を参照して、第三の実施形態について説明する。第三の実施形態では、話者の顔の向きに応じて認識モデルを選択する点が第一の実施形態と相違する。以下に図14を参照して、第三の実施形態について説明する。
【0162】
図14は、第三の実施形態の認識モデルの選択について説明する図である。
【0163】
話者は、必ずしも撮像装置300の方向を向いて発話するわけではなく、表示装置400や他の話者の方向を見て発話することが多々ある。
【0164】
その場合、口唇画像は、図14に示す画像141や画像142のように、話者が撮像装置300を向いている場合の画像143と比較して、横幅が狭くなる。この場合には、撮像装置300と話者との距離が離れたことによって、横幅が狭くなるわけではない。
【0165】
したがって、本実施形態では、例えば、予め、右向き、左向きでの連続した口唇画像を用いて学習した認識モデルを用意し、顔領域認識部213による顔認識の際に、顔の向きを推定し、それぞれの向きに適した認識モデルを選択する。
【0166】
本実施形態では、このように、顔の向きに応じて認識モデルを選択することで、認識の精度の低下を抑制することができる。
【0167】
以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。
【符号の説明】
【0168】
100 発話認識システム
200、200A 情報処理装置
210 映像入力部
211 人物領域認識部
212 画像補正部
213 顔領域認識部
214 口唇領域抽出部
215 口唇画素数算出部
216、216A 認識モデル選択部
217 口唇画素数変換部
218 口唇特徴量算出部
219 発話内容認識部
220 テキスト出力部
221 フレームレート算出部
222 フレーム補完部
230、230A 記憶部
231、232、233、241、242、243 認識モデル
300 撮像装置
400 表示装置
【先行技術文献】
【特許文献】
【0169】
【文献】特開2015-019162号公報
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14