(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-20
(45)【発行日】2023-12-28
(54)【発明の名称】情報処理装置、制御方法、及び制御プログラム
(51)【国際特許分類】
H04L 67/131 20220101AFI20231221BHJP
【FI】
H04L67/131
(21)【出願番号】P 2022570931
(86)(22)【出願日】2020-12-25
(86)【国際出願番号】 JP2020048642
(87)【国際公開番号】W WO2022137486
(87)【国際公開日】2022-06-30
【審査請求日】2022-09-07
(73)【特許権者】
【識別番号】000006013
【氏名又は名称】三菱電機株式会社
(74)【代理人】
【識別番号】100116964
【氏名又は名称】山形 洋一
(74)【代理人】
【識別番号】100120477
【氏名又は名称】佐藤 賢改
(74)【代理人】
【識別番号】100135921
【氏名又は名称】篠原 昌彦
(74)【代理人】
【氏名又は名称】半田 淳一
(74)【代理人】
【識別番号】100203677
【氏名又は名称】山口 力
(72)【発明者】
【氏名】大澤 壮平
【審査官】岩田 玲彦
(56)【参考文献】
【文献】特開2018-075259(JP,A)
【文献】特開2012-257116(JP,A)
【文献】特開2018-191186(JP,A)
【文献】山本倫也・渡辺富夫,教師と生徒のInterActorを一人二役で演じるエデュテインメントシステムの開発,情報処理学会 論文誌(ジャーナル) Vol.54 No.4 [online] ,日本,情報処理学会,2013年04月15日,第54巻,P.1677-1685
(58)【調査した分野】(Int.Cl.,DB名)
H04L 67/131
(57)【特許請求の範囲】
【請求項1】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置であって、
前記発表者の目を含む映像を取得し、視線とアバタとの対応関係を示す関係情報を取得し、前記発表者の音声の信号である音声信号を取得する取得部と、
前記映像に基づいて、発表中の前記発表者の視線を解析し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する切替制御部と、
新しい発話担当アバタである第2のアバタを含む画面を生成する生成部と、
前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換する声色変換部と、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する通信制御部と、
を有する情報処理装置。
【請求項2】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置であって、
前記発表者の目を含む映像を取得し、視線とアバタとの対応関係を示す関係情報を取得し、前記発表者の音声の信号である音声信号を取得する取得部と、
前記映像に基づいて、発表中の前記発表者の視線を解析し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する切替制御部と、
新しい発話担当アバタである第2のアバタを含む画面を生成する生成部と、
前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換する声色変換部と、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する通信制御部と、
を有する情報処理装置。
【請求項3】
前記関係情報は、アバタと視線の動き方向との対応関係を示し、
前記切替制御部は、前記映像に基づいて、前記発表者の視線の動きを解析し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する、
請求項1又は2に記載の情報処理装置。
【請求項4】
前記取得部は、前記映像と前記発表者の目の位置情報とを取得し、
前記切替制御部は、前記映像と前記位置情報とに基づいて、前記発表者の視線を解析する、
請求項
1又は2に記載の情報処理装置。
【請求項5】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置であって、
声色とアバタとの対応関係を示す関係情報を取得し、前記発表者の音声の信号である音声信号を取得する取得部と、
前記音声信号に基づいて音声特徴量を抽出し、前記音声特徴量を用いて、前記発表者の音声の声色を特定し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する切替制御部と、
新しい発話担当アバタである第2のアバタを含む画面を生成する生成部と、
前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換する声色変換部と、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する通信制御部と、
を有する情報処理装置。
【請求項6】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置であって、
声色とアバタとの対応関係を示す関係情報を取得し、前記発表者の音声の信号である音声信号を取得する取得部と、
前記音声信号に基づいて音声特徴量を抽出し、前記音声特徴量を用いて、前記発表者の音声の声色を特定し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する切替制御部と、
新しい発話担当アバタである第2のアバタを含む画面を生成する生成部と、
前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換する声色変換部と、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する通信制御部と、
を有する情報処理装置。
【請求項7】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置であって、
話し方とアバタとの対応関係を示す関係情報を取得し、前記発表者の音声の信号である音声信号を取得する取得部と、
前記音声信号に基づいて、前記発表者の発話内容を検出し、前記発話内容に基づいて、話し方を特定し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する切替制御部と、
新しい発話担当アバタである第2のアバタを含む画面を生成する生成部と、
前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換する声色変換部と、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する通信制御部と、
を有する情報処理装置。
【請求項8】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置であって、
話し方とアバタとの対応関係を示す関係情報を取得し、前記発表者の音声の信号である音声信号を取得する取得部と、
前記音声信号に基づいて、前記発表者の発話内容を検出し、前記発話内容に基づいて、話し方を特定し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する切替制御部と、
新しい発話担当アバタである第2のアバタを含む画面を生成する生成部と、
前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換する声色変換部と、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する通信制御部と、
を有する情報処理装置。
【請求項9】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置であって、
シナリオとアバタとの対応関係を示す関係情報を取得し、前記発表者の音声の信号である音声信号を取得する取得部と、
前記音声信号に基づいて、前記発表者の発話内容を検出し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する切替制御部と、
新しい発話担当アバタである第2のアバタを含む画面を生成する生成部と、
前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換する声色変換部と、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する通信制御部と、
を有する情報処理装置。
【請求項10】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置であって、
シナリオとアバタとの対応関係を示す関係情報を取得し、前記発表者の音声の信号である音声信号を取得する取得部と、
前記音声信号に基づいて、前記発表者の発話内容を検出し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する切替制御部と、
新しい発話担当アバタである第2のアバタを含む画面を生成する生成部と、
前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換する声色変換部と、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する通信制御部と、
を有する情報処理装置。
【請求項11】
前記生成部は、前記第2のアバタの発話内容が表示されている画面を生成する、
請求項1から
10のいずれか1項に記載の情報処理装置。
【請求項12】
前記通信制御部は、前記表示装置に表示される前記第2のアバタの位置に音像が形成されるように、前記聴講者装置を制御する、
請求項1から
11のいずれか1項に記載の情報処理装置。
【請求項13】
前記生成部は、画面に表示されるアバタの数を変更する、
請求項1から
12のいずれか1項に記載の情報処理装置。
【請求項14】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置が、
前記発表者の目を含む映像を取得し、視線とアバタとの対応関係を示す関係情報を取得し、
前記映像に基づいて、発表中の前記発表者の視線を解析し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し、前記発表者の音声の信号である音声信号を取得し、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
制御方法。
【請求項15】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置が、
前記発表者の目を含む映像を取得し、視線とアバタとの対応関係を示す関係情報を取得し、
前記映像に基づいて、発表中の前記発表者の視線を解析し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し、前記発表者の音声の信号である音声信号を取得し、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
制御方法。
【請求項16】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置が、
声色とアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて音声特徴量を抽出し、
前記音声特徴量を用いて、前記発表者の音声の声色を特定し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成
し、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
制御方法。
【請求項17】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置が、
声色とアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて音声特徴量を抽出し、
前記音声特徴量を用いて、前記発表者の音声の声色を特定し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成
し、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
制御方法。
【請求項18】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置が、
話し方とアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて、前記発表者の発話内容を検出し、
前記発話内容に基づいて、話し方を特定し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し
、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
制御方法。
【請求項19】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置が、
話し方とアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて、前記発表者の発話内容を検出し、
前記発話内容に基づいて、話し方を特定し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し
、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
制御方法。
【請求項20】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置が、
シナリオとアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて、前記発表者の発話内容を検出し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し
、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
制御方法。
【請求項21】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置が、
シナリオとアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて、前記発表者の発話内容を検出し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し
、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
制御方法。
【請求項22】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置に、
前記発表者の目を含む映像を取得し、視線とアバタとの対応関係を示す関係情報を取得し、
前記映像に基づいて、発表中の前記発表者の視線を解析し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し、前記発表者の音声の信号である音声信号を取得し、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
処理を実行させる制御プログラム。
【請求項23】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置に、
前記発表者の目を含む映像を取得し、視線とアバタとの対応関係を示す関係情報を取得し、
前記映像に基づいて、発表中の前記発表者の視線を解析し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し、前記発表者の音声の信号である音声信号を取得し、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
処理を実行させる制御プログラム。
【請求項24】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置に、
声色とアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて音声特徴量を抽出し、
前記音声特徴量を用いて、前記発表者の音声の声色を特定し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成
し、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
処理を実行させる制御プログラム。
【請求項25】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置に、
声色とアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて音声特徴量を抽出し、
前記音声特徴量を用いて、前記発表者の音声の声色を特定し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成
し、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
処理を実行させる制御プログラム。
【請求項26】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置に、
話し方とアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて、前記発表者の発話内容を検出し、
前記発話内容に基づいて、話し方を特定し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し
、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
処理を実行させる制御プログラム。
【請求項27】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置に、
話し方とアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて、前記発表者の発話内容を検出し、
前記発話内容に基づいて、話し方を特定し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し
、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
処理を実行させる制御プログラム。
【請求項28】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信し、かつ発表者が用いる情報処理装置に、
シナリオとアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて、前記発表者の発話内容を検出し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し
、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
処理を実行させる制御プログラム。
【請求項29】
発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有し、かつ聴講者が用いる聴講者装置と、発表者が用いる発表者装置と通信する情報処理装置に、
シナリオとアバタとの対応関係を示す関係情報を取得し、
前記発表者の音声の信号である音声信号を取得し、
前記音声信号に基づいて、前記発表者の発話内容を検出し、
前記関係情報に基づいて、前記発話担当アバタの切替を決定し、
新しい発話担当アバタである第2のアバタを含む画面を生成し
、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換し、
声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する、
処理を実行させる制御プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、制御方法、及び制御プログラムに関する。
【背景技術】
【0002】
近年、ネットワークを介したプレゼンテーションが行われている。例えば、プレゼンテーションは、アバタを用いて、行われる。ここで、アバタに関する技術が提案されている(非特許文献1を参照)。非特許文献1には、複数のアバタのいずれかが発表者の発話を話すことが記載されている。
【先行技術文献】
【非特許文献】
【0003】
【文献】Keisuke Seta、Masanori Yokoyama、Shigeo Yoshida、Takuji Narumi、Tomohiro Tanikawa、Michitaka Hirose、「Divided Presence:Improving Group Decision-Making via Pseudo-Population Increase」、2018年
【発明の概要】
【発明が解決しようとする課題】
【0004】
発表者は、複数のアバタのうち、任意のアバタに発話を行わせたい場合がある。しかし、上記の技術では、任意のアバタが発話を行うことができない。
【0005】
本開示の目的は、任意のアバタに発話を行わせることである。
【課題を解決するための手段】
【0006】
本開示の一態様に係る情報処理装置が提供される。情報処理装置は、発話担当アバタである第1のアバタを表示している表示装置と接続し、又は前記表示装置を有する聴講者装置と通信する。情報処理装置は、発表者が用いる装置である。情報処理装置は、前記発表者の目を含む映像を取得し、視線とアバタとの対応関係を示す関係情報を取得し、前記発表者の音声の信号である音声信号を取得する取得部と、前記映像に基づいて、発表中の前記発表者の視線を解析し、前記関係情報に基づいて、前記発話担当アバタの切替を決定する切替制御部と、新しい発話担当アバタである第2のアバタを含む画面を生成する生成部と、前記音声信号に基づいて、前記発表者の音声の声色を、前記第2のアバタ用の声色に変換する声色変換部と、声色の変換によって得られた変換後音声信号と前記画面とを前記聴講者装置に送信する通信制御部と、を有する。
【発明の効果】
【0007】
本開示によれば、任意のアバタに発話を行わせることができる。
【図面の簡単な説明】
【0008】
【
図1】実施の形態1の通信システムを示す図である。
【
図2】実施の形態1の発表者装置と聴講者装置とが有するハードウェアを示す図である。
【
図3】実施の形態1のディスプレイに表示されるアバタの具体例を示す図である。
【
図4】実施の形態1の発表者装置が有する機能のブロック図である。
【
図5】実施の形態1の発表者装置が実行する処理の例を示すフローチャートである。
【
図6】実施の形態1の通信システムで行われる処理の具体例を示す図である。
【
図7】実施の形態1の変形例1の発表者装置が実行する処理の例を示すフローチャートである。
【
図8】実施の形態1の変形例1の関係テーブルの例を示す図である。
【
図9】実施の形態1の変形例2の発表者装置が実行する処理の例を示すフローチャートである。
【
図10】実施の形態1の変形例2の関係テーブルの例を示す図である。
【
図11】実施の形態1の変形例3の発表者装置が実行する処理の例を示すフローチャートである。
【
図12】実施の形態1の変形例3の関係テーブルの例を示す図である。
【
図13】実施の形態1の変形例4の発表者装置が実行する処理の例を示すフローチャートである。
【
図14】実施の形態1の変形例4の関係テーブルの例を示す図である。
【
図15】実施の形態2の通信システムを示す図である。
【
図16】実施の形態2のサーバが有する機能のブロック図である。
【
図17】実施の形態2の通信システムで実行される処理の例を示すシーケンス図である。
【
図18】実施の形態2の変形例1の通信システムで実行される処理の例を示すシーケンス図である。
【
図19】実施の形態2の変形例2の通信システムで実行される処理の例を示すシーケンス図である。
【
図20】実施の形態2の変形例3の通信システムで実行される処理の例を示すシーケンス図である。
【
図21】実施の形態2の変形例4の通信システムで実行される処理の例を示すシーケンス図である。
【発明を実施するための形態】
【0009】
以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本開示の範囲内で種々の変更が可能である。
【0010】
実施の形態1.
図1は、実施の形態1の通信システムを示す図である。通信システムは、発表者装置100と聴講者装置200とを含む。発表者装置100と聴講者装置200とは、ネットワークを介して、通信する。
【0011】
発表者装置100は、発表者が用いる装置である。発表者装置100は、情報処理装置とも言う。発表者装置100は、制御方法を実行する装置である。聴講者装置200は、聴講者が用いる装置である。例えば、発表者装置100と聴講者装置200とは、ノート型、デスクトップ型、又はタブレット型のコンピュータである。
【0012】
発表者は、発表者装置100を用いて、プレゼンテーション、オンラインの講演などを行う。プレゼンテーション、当該講演などを聴講する聴講者の数は、1以上である。そのため、発表者装置100は、1以上の聴講者装置と通信する。ここで、以下の説明を簡単にするため、
図1では、1つの聴講者装置が例示されている。よって、聴講者装置の数は、2以上でもよい。
【0013】
次に、発表者装置100と聴講者装置200とが有するハードウェアを説明する。
図2は、実施の形態1の発表者装置と聴講者装置とが有するハードウェアを示す図である。発表者装置100は、プロセッサ101、揮発性記憶装置102、及び不揮発性記憶装置103を有する。
【0014】
プロセッサ101は、発表者装置100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などである。プロセッサ101は、マルチプロセッサでもよい。発表者装置100は、処理回路を有してもよい。処理回路は、単一回路又は複合回路でもよい。
【0015】
揮発性記憶装置102は、発表者装置100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、発表者装置100の補助記憶装置である。例えば、不揮発性記憶装置103は、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)である。
【0016】
発表者装置100には、ディスプレイ300、マウス310、キーボード320、撮像装置330、及びマイク340が接続されている。また、発表者装置100は、ディスプレイ300、キーボード320、撮像装置330、及びマイク340のうちの少なくとも1つを有してもよい。ディスプレイ300は、発表者が見るディスプレイである。ディスプレイ300、マウス310、キーボード320、撮像装置330、及びマイク340は、発表者側のディスプレイ、マウス、キーボード、撮像装置、及びマイクと呼んでもよい。
ここで、ディスプレイは、表示装置とも言う。また、マイクは、マイクロフォンである。
【0017】
聴講者装置200は、発表者装置100と同様に、プロセッサ、揮発性記憶装置、及び不揮発性記憶装置を有する。聴講者装置200には、ディスプレイ400、及びスピーカ410,411が接続されている。聴講者装置200は、ディスプレイ400、及びスピーカ410,411のうちの少なくとも1つを有してもよい。また、聴講者装置200には、マウス、キーボード、撮像装置、及びマイクが接続されてもよい。さらに、聴講者装置200は、当該キーボード、当該撮像装置、及び当該マイクのうちの少なくとも1つを有してもよい。ディスプレイ400は、聴講者が見るディスプレイである。なお、ディスプレイ400、スピーカ410,411、当該マウス、当該キーボード、当該撮像装置、及び当該マイクは、聴講者側のディスプレイ、複数のスピーカ、マウス、キーボード、撮像装置、及びマイクと呼んでもよい。また、スピーカの数は、1つでもよい。
【0018】
上述したように、発表者は、発表者装置100を用いて、プレゼンテーション、オンラインの講演などを行う。詳細には、発表者は、アバタを用いて、プレゼンテーション、オンラインの講演などを行う。以下、発表者は、アバタを用いて、プレゼンテーションを行うものとする。ここで、アバタの例を示す。
【0019】
図3は、実施の形態1のディスプレイに表示されるアバタの具体例を示す図である。ディスプレイ400には、アバタ401、アバタ402、及び範囲403が表示されている。
また、ディスプレイ300にも、アバタ401、アバタ402、及び範囲403が表示されている。発表者は、ディスプレイ300を見ながら、プレゼンテーションを行う。聴講者は、ディスプレイ400を見ながら、プレゼンテーションを聞く。
【0020】
アバタ401とアバタ402とのそれぞれには、役割が与えられている。例えば、アバタ401は、プレゼンテーションを行うアバタである。アバタ401は、発表者の発話に合わせて発話する。例えば、アバタ401は、リップシンクの技術によって、発表者の発話に合わせて発話する。例えば、アバタ402は、後述する範囲403に表示されている内容を読み上げる。また、例えば、アバタ402は、アバタ401の発話内容を分かりやすく要約して発話する。ここで、アバタ402が当該内容を読み上げる行為及びアバタ402が発話する行為は、発表者によって行われる。後述するように、発表者装置100の処理により、発話担当アバタが切り替わる。発表者は、発話担当アバタを切替えながら、プレゼンテーションを行う。例えば、発表者は、アバタ401が発話した後、発表者装置100を用いて、発話担当アバタをアバタ402に切り替える。発表者は、アバタ401の発話内容の要約を発話する。発表者装置100は、アバタ402が発表者の当該発話に合わせて発話するように、制御を行う。これにより、アバタ402は、アバタ401の発話内容の要約を発話する。
【0021】
範囲403は、チャットの内容が表示される範囲である。例えば、聴講者が入力した文字が、範囲403に表示される。
【0022】
なお、
図3には、2つのアバタが例示されている。アバタの数は、3つ以上でもよい。また、例えば、アバタ401は、第1のアバタ又は第2のアバタとも言う。アバタ401が第1のアバタである場合、アバタ402は、第2のアバタであると考えてもよい。アバタ401が第2のアバタである場合、アバタ402は、第1のアバタであると考えてもよい。
【0023】
次に、発表者装置100が有する機能を説明する。
図4は、実施の形態1の発表者装置が有する機能のブロック図である。発表者装置100は、記憶部110、取得部120、切替制御部130、生成部140、声色変換部150、及び通信制御部160を有する。
【0024】
記憶部110は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
取得部120、切替制御部130、生成部140、声色変換部150、及び通信制御部160の一部又は全部は、処理回路によって実現してもよい。また、取得部120、切替制御部130、生成部140、声色変換部150、及び通信制御部160の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、制御プログラムとも言う。例えば、制御プログラムは、記録媒体に記録されている。
【0025】
記憶部110は、様々な情報を記憶する。
取得部120は、発話担当アバタの切替判定で用いられる情報を取得する。具体的には、当該情報は、ポインティング情報である。例えば、ポインティング情報は、アバタ402がポインティングされたことを示す情報である。ポインティングは、発表者がマウス310を用いることによって行われる。ここで、以下、当該情報は、ポインティング情報とする。
【0026】
取得部120は、音声信号を取得する。例えば、取得部120は、音声信号をマイク340から取得する。なお、音声信号は、発表者の音声の信号である。
切替制御部130は、ポインティング情報に基づいて、発話担当アバタの切替を決定する。
生成部140は、新しい発話担当アバタ(例えば、アバタ402)を含む画面を生成する。また、当該画面には、古い発話担当アバタ(例えば、アバタ401)が含まれてもよい。
【0027】
声色変換部150は、音声信号に基づいて、発表者の音声の声色を、新しい発話担当アバタ用の声色に変換する。なお、声色変換部150は、声色を変換する場合、公知技術を用いて声色を変換する。
通信制御部160は、声色の変換によって得られた変換後音声信号と、生成された画面とを聴講者装置200に送信する。
【0028】
次に、発表者装置100が実行する処理を、フローチャートを用いて、説明する。
図5は、実施の形態1の発表者装置が実行する処理の例を示すフローチャートである。
(ステップS11)取得部120は、ポインティング情報を取得する。例えば、取得部120は、ポインティング情報を記憶部110から取得する。なお、例えば、ポインティング情報は、アバタ(例えば、アバタ402)がポインティングされたことを示す情報である。
【0029】
(ステップS12)切替制御部130は、現在の発話担当アバタとポインティング情報が示すアバタとが同じであるか否かを判定する。ここで、例えば、現在の発話担当アバタを示す情報は、記憶部110に格納されている。
条件を満たす場合、処理は、終了する。また、条件を満たす場合、現在の発話担当アバタ(例えば、アバタ401)が発話の担当を継続する。条件を満たさない場合、切替制御部130は、ポインティング情報に基づいて、現在の発話担当アバタとポインティング情報が示すアバタとが異なることを特定する。そして、処理は、ステップS13に進む。
【0030】
(ステップS13)切替制御部130は、発話担当アバタの切替を決定する。
(ステップS14)生成部140は、ポインティング情報が示すアバタ(例えば、アバタ402)を含む画面を生成する。また、当該画面には、古い発話担当アバタ(例えば、アバタ401)が含まれるものとする。
【0031】
(ステップS15)取得部120は、音声信号をマイク340から取得する。
(ステップS16)声色変換部150は、音声信号に基づいて、発表者の音声の声色を、ポインティング情報が示すアバタ用の声色に変換する。これにより、変換後音声信号が生成される。このように、発話担当アバタの切替が決定されることで、新しい発話担当アバタ用の声色の音声信号である変換後音声信号が生成される。
【0032】
(ステップS17)通信制御部160は、変換後音声信号と画面とを聴講者装置200に送信する。
聴講者装置200は、当該画面がディスプレイ400に表示されるための制御を行う。また、聴講者装置200は、変換後音声信号に基づく音が、スピーカ410とスピーカ411とのうちの少なくとも1つから出力されるための制御を行う。
これにより、聴講者は、ディスプレイ400に表示された当該画面を見ながら、ポインティング情報が示すアバタによる、変換後音声信号に基づく発話を聞くことができる。
また、ステップS14は、ステップS16の後に実行されてもよい。
【0033】
次に、通信システムで行われる処理を、具体例を用いて説明する。
図6は、実施の形態1の通信システムで行われる処理の具体例を示す図である。まず、アバタ401が発話担当アバタであるものとする。聴講者は、アバタ401の発話を聞く。
【0034】
発表者は、マウス310を用いて、ディスプレイ300に表示されているアバタ402をポインティングする。発表者装置100は、発話担当アバタをアバタ401からアバタ402に切り替えることを決定する。発表者は、アバタ401の発話内容の要約を発話する。発表者装置100は、音声信号を取得する。発表者装置100は、音声信号に基づく変換後音声信号と画面とを聴講者装置200に送信する。
【0035】
これにより、ディスプレイ400には、当該画面が表示される。また、聴講者は、アバタ402の発話を聞くことができる。なお、アバタ402の声色は、アバタ401の声色と異なる。
【0036】
実施の形態1によれば、例えば、発表者がマウス310を用いてアバタ402をポインティングすることで、発話担当アバタが、アバタ401からアバタ402に切り替わる。このように、発表者の意図に従って、発話担当アバタが、切り替わる。よって、発表者装置100は、発表者の意図に従って、任意のアバタに発話を行わせることができる。また、アバタが切り替わることで、発表が分かりやすくなる。
【0037】
発表者装置100は、次の処理を実行してもよい。取得部120は、発表者によってマウス310又はキーボード320が操作されていることを示す操作情報を取得する。例えば、取得部120は、操作情報を記憶部110から取得する。取得部120は、操作情報とアバタとの対応関係を示す関係テーブルを取得する。例えば、取得部120は、関係テーブルを記憶部110から取得する。また、例えば、取得部120は、関係テーブルを外部装置(例えば、クラウドサーバ)から取得する。なお、関係テーブルは、関係情報と呼んでもよい。また、関係テーブルに含まれる操作情報は、操作履歴に基づいて作成されてもよい。関係テーブルは、マウス310の操作とキーボード320の操作との組合せと、アバタとの対応関係を示してもよい。切替制御部130は、関係テーブルに基づいて、操作情報に対応するアバタ(例えば、アバタ401)を特定する。切替制御部130は、発話担当アバタ(例えば、アバタ402)と、特定されたアバタ(例えば、アバタ401)が異なることを特定する。切替制御部130は、発話担当アバタの切替を決定する。生成部140は、特定されたアバタ(例えば、アバタ401)を含む画面を生成する。取得部120は、音声信号をマイク340から取得する。声色変換部150は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。通信制御部160は、変換後音声信号と画面とを聴講者装置200に送信する。
【0038】
発表者装置100は、次の処理を実行してもよい。取得部120は、発表者によってマウス310又はキーボード320が予め設定された時間、操作されていないことを示す無操作情報を取得する。例えば、取得部120は、無操作情報を記憶部110から取得する。取得部120は、無操作情報とアバタとの対応関係を示す関係テーブルを取得する。例えば、取得部120は、関係テーブルを記憶部110から取得する。また、例えば、取得部120は、関係テーブルを外部装置から取得する。なお、関係テーブルは、関係情報と呼んでもよい。切替制御部130は、関係テーブルに基づいて、無操作情報に対応するアバタ(例えば、アバタ402)を特定する。切替制御部130は、発話担当アバタ(例えば、アバタ401)と、特定されたアバタ(例えば、アバタ402)が異なることを特定する。切替制御部130は、発話担当アバタの切替を決定する。生成部140は、特定されたアバタ(例えば、アバタ402)を含む画面を生成する。取得部120は、音声信号をマイク340から取得する。声色変換部150は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。通信制御部160は、変換後音声信号と画面とを聴講者装置200に送信する。
【0039】
生成部140は、発話担当アバタの発話内容が表示されている画面を生成してもよい。例えば、生成部140は、
図6のように、アバタ402の発話内容である“つまり、yyyということですね。”という文字が表示されている画面を生成する。また、生成部140は、文字の色及び文字のフォントをアバタごとに変える。このように、ディスプレイ400に文字が表示されることで、聴講者は、アバタ402の発話内容を、視覚を通して認識することができる。
【0040】
通信制御部160は、発話担当アバタ(例えば、アバタ402)の位置に音像が形成されるように、聴講者装置200を制御してもよい。例えば、通信制御部160は、音像の形成指示を聴講者装置200に送信する。聴講者装置200は、発話担当アバタの位置に音像が形成されるように、スピーカ410とスピーカ411とを制御する。このように、発話担当アバタの位置に音像が形成されることで、聴講者は、発話担当アバタが本当に話しているように感じることができる。
【0041】
生成部140は、画面に表示されるアバタの数を変更してもよい。詳細には、生成部140は、発表者の発表中に、画面に表示されるアバタの数を変更してもよい。例えば、アバタ402が発話担当アバタである場合、生成部140は、アバタ402のみが表示されている画面を生成する。すなわち、アバタ401は、画面に表示されない。これにより、聴講者は、どのアバタを注目して話を聞いたらよいのか分かる。そのため、聴講者の集中度が向上される。
【0042】
実施の形態1では、発話担当アバタの切替判定で用いられる情報として、ポインティング情報を例示した。実施の形態1の変形例1~4では、当該情報がポインティング情報以外である場合を説明する。
【0043】
実施の形態1の変形例1.
図7は、実施の形態1の変形例1の発表者装置が実行する処理の例を示すフローチャートである。
(ステップS21)取得部120は、キーボードボタン情報を取得する。例えば、取得部120は、キーボードボタン情報を記憶部110から取得する。なお、キーボードボタン情報は、発表者があるキーボードボタンを押下したことを示す情報である。例えば、当該キーボードボタンは、キーボード320のSPACEキーである。ここで、当該キーボードボタンは、第1のキーボードボタンとも言う。
【0044】
(ステップS22)取得部120は、関係テーブルを取得する。例えば、取得部120は、関係テーブルを記憶部110から取得する。また、例えば、取得部120は、関係テーブルを外部装置から取得する。なお、関係テーブルは、関係情報と呼んでもよい。ここで、関係テーブルを具体的に説明する。
【0045】
図8は、実施の形態1の変形例1の関係テーブルの例を示す図である。例えば、関係テーブル111は、記憶部110に格納されている。関係テーブル111は、キーボードボタンとアバタとの項目を有する。このように、関係テーブル111は、キーボードボタンとアバタとの対応関係を示す。例えば、
図8のアバタAは、アバタ401である。
図8のアバタBは、アバタ402である。
【0046】
(ステップS23)切替制御部130は、キーボードボタン情報と関係テーブル111とに基づいて、キーボードボタン情報が示すキーボードボタン(例えば、SPACEキー)に対応するアバタ(例えば、アバタBであるアバタ402)を特定する。
【0047】
(ステップS24)切替制御部130は、現在の発話担当アバタと、特定されたアバタとが同じであるか否かを判定する。条件を満たす場合、処理は、終了する。条件を満たさない場合、切替制御部130は、現在の発話担当アバタと、特定されたアバタとが異なることを特定する。そして、処理は、ステップS25に進む。
【0048】
(ステップS25)切替制御部130は、発話担当アバタの切替を決定する。
(ステップS26)生成部140は、特定されたアバタ(例えば、アバタ402)を含む画面を生成する。また、当該画面には、特定されたアバタ以外のアバタが含まれてもよい。
【0049】
(ステップS27)取得部120は、音声信号をマイク340から取得する。
(ステップS28)声色変換部150は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。
(ステップS29)通信制御部160は、変換後音声信号と画面とを聴講者装置200に送信する。
また、ステップS26は、ステップS28の後に実行されてもよい。
【0050】
実施の形態1の変形例1によれば、発表者装置100は、任意のアバタに発話を行わせることができる。
【0051】
実施の形態1の変形例2.
図9は、実施の形態1の変形例2の発表者装置が実行する処理の例を示すフローチャートである。
(ステップS31)取得部120は、発表者の目を含む映像(すなわち、複数の画像)を取得する。例えば、取得部120は、当該映像を撮像装置330から取得する。また、当該映像は、発表者の顔の映像でもよい。
【0052】
(ステップS32)取得部120は、関係テーブルを取得する。例えば、取得部120は、関係テーブルを記憶部110から取得する。また、例えば、取得部120は、関係テーブルを外部装置から取得する。なお、関係テーブルは、関係情報と呼んでもよい。ここで、関係テーブルを具体的に説明する。
【0053】
図10は、実施の形態1の変形例2の関係テーブルの例を示す図である。例えば、関係テーブル111aは、記憶部110に格納されている。関係テーブル111aは、視線とアバタとの項目を有する。このように、関係テーブル111aは、視線とアバタとの対応関係を示す。例えば、
図10のアバタAは、アバタ401である。
図10のアバタBは、アバタ402である。
【0054】
なお、
図10の関係テーブル111aは、一例である。例えば、関係テーブル111aには、左右方向とアバタAとの対応関係を示す情報が登録されてもよい。例えば、関係テーブル111aには、上下方向とアバタBとの対応関係を示す情報が登録されてもよい。
【0055】
(ステップS33)切替制御部130は、当該映像に基づいて、発表者の視線を解析する。例えば、切替制御部130は、当該映像とアイトラッキングとを用いて、発表者の視線を解析する。
例えば、切替制御部130は、解析により、右方向を検出する。当該解析の結果は、発表者がアバタ402を注視していることを示している。
【0056】
(ステップS34)切替制御部130は、関係テーブル111aに基づいて、発表者の視線に対応するアバタを特定する。例えば、解析の結果が右方向である場合、切替制御部130は、関係テーブル111aに基づいて、アバタB(すなわち、アバタ402)を特定する。
【0057】
(ステップS35)切替制御部130は、現在の発話担当アバタと、特定されたアバタとが同じであるか否かを判定する。条件を満たす場合、処理は、終了する。条件を満たさない場合、切替制御部130は、現在の発話担当アバタと、特定されたアバタとが異なることを特定する。そして、処理は、ステップS36に進む。
(ステップS36)切替制御部130は、発話担当アバタの切替を決定する。
(ステップS37)生成部140は、特定されたアバタ(例えば、アバタ402)を含む画面を生成する。また、当該画面には、特定されたアバタ以外のアバタが含まれてもよい。
【0058】
(ステップS38)取得部120は、音声信号をマイク340から取得する。
(ステップS39)声色変換部150は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。
(ステップS40)通信制御部160は、変換後音声信号と画面とを聴講者装置200に送信する。
また、ステップS32は、ステップS33の後に実行されてもよい。ステップS37は、ステップS39の後に実行されてもよい。
【0059】
実施の形態1の変形例2によれば、発表者装置100は、任意のアバタに発話を行わせることができる。
【0060】
また、取得部120は、映像と発表者の目の位置情報とを取得してもよい。例えば、当該位置情報は、赤外線を用いることで、取得される。切替制御部130は、当該映像と当該位置情報とに基づいて、発表者の視線を解析する。切替制御部130は、当該位置情報を追加して、発表者の視線を解析することで、精度の高い解析結果を得ることができる。
【0061】
実施の形態1の変形例3.
実施の形態1の変形例3では、音声信号を用いて、発話担当アバタを切り替える場合を説明する。ここで、発表者は、発話させるアバタごとに声色を変える。例えば、発話担当アバタがアバタ401である場合、発表者は、裏声で発話する。発話担当アバタがアバタ402である場合、発表者は、低い声色で発話する。
【0062】
以下、具体的に、発表者装置100が実行する処理を説明する。
図11は、実施の形態1の変形例3の発表者装置が実行する処理の例を示すフローチャートである。
(ステップS41)取得部120は、音声信号をマイク340から取得する。
(ステップS42)取得部120は、関係テーブルを取得する。例えば、取得部120は、関係テーブルを記憶部110から取得する。また、例えば、取得部120は、関係テーブルを外部装置から取得する。なお、関係テーブルは、関係情報と呼んでもよい。ここで、関係テーブルを具体的に説明する。
【0063】
図12は、実施の形態1の変形例3の関係テーブルの例を示す図である。例えば、関係テーブル111bは、記憶部110に格納されている。関係テーブル111bは、声色とアバタとの項目を有する。このように、関係テーブル111bは、声色とアバタとの対応関係を示す。例えば、
図12のアバタAは、アバタ401である。
図12のアバタBは、アバタ402である。
【0064】
(ステップS43)切替制御部130は、音声信号に基づいて、音声特徴量を抽出する。
(ステップS44)切替制御部130は、音声特徴量を用いて、発表者の音声の声色を特定する。例えば、切替制御部130は、音声特徴量とファルセット検出技術とを用いて、裏声を特定する。
(ステップS45)切替制御部130は、関係テーブル111bに基づいて、特定された声色に対応するアバタを特定する。
【0065】
(ステップS46)切替制御部130は、現在の発話担当アバタと、特定されたアバタとが同じであるか否かを判定する。条件を満たす場合、処理は、終了する。条件を満たさない場合、切替制御部130は、現在の発話担当アバタと、特定されたアバタとが異なることを特定する。そして、処理は、ステップS47に進む。
【0066】
(ステップS47)切替制御部130は、発話担当アバタの切替を決定する。
(ステップS48)生成部140は、特定されたアバタを含む画面を生成する。また、当該画面には、特定されたアバタ以外のアバタが含まれてもよい。
【0067】
(ステップS49)声色変換部150は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。
(ステップS50)通信制御部160は、変換後音声信号と画面とを聴講者装置200に送信する。
また、ステップS42は、ステップS44の後に実行されてもよい。ステップS48は、ステップS49の後に実行されてもよい。
【0068】
実施の形態1の変形例3によれば、発表者装置100は、任意のアバタに発話を行わせることができる。
【0069】
発表者装置100は、次の処理を実行してもよい。まず、発表者は、発話させるアバタごとに話し方を変える。例えば、発話担当アバタがアバタ401である場合、発表者は、丁寧な言葉を使って話す。発話担当アバタがアバタ402である場合、発表者は、フレンドリーな話し方を行う。また、例えば、発話担当アバタがアバタ401である場合、発表者は、標準語で話す。発話担当アバタがアバタ402である場合、発表者は、方言で話す。取得部120は、音声信号を取得する。取得部120は、関係テーブルを取得する。当該関係テーブルは、話し方とアバタとの対応関係を示す情報である。切替制御部130は、音声信号に基づいて、発表者の発話内容を検出する。切替制御部130は、発話内容を検出する場合、公知の音声認識技術を用いて、発話内容を検出する。切替制御部130は、発話内容に基づいて、話し方を特定する。例えば、切替制御部130は、発話内容の語尾に基づいて、発表者が丁寧な言葉を使って話しているか否かを特定する。切替制御部130は、関係テーブルに基づいて、特定された話し方に対応するアバタを特定する。アバタが特定された後、発表者装置100は、ステップS46~S50を実行する。
【0070】
実施の形態1の変形例4.
図13は、実施の形態1の変形例4の発表者装置が実行する処理の例を示すフローチャートである。
(ステップS51)取得部120は、音声信号をマイク340から取得する。
(ステップS52)取得部120は、関係テーブルを取得する。例えば、取得部120は、関係テーブルを記憶部110から取得する。また、例えば、取得部120は、関係テーブルを外部装置から取得する。なお、関係テーブルは、関係情報と呼んでもよい。ここで、関係テーブルを具体的に説明する。
【0071】
図14は、実施の形態1の変形例4の関係テーブルの例を示す図である。例えば、関係テーブル111cは、記憶部110に格納されている。関係テーブル111cは、シナリオとアバタとの項目を有する。このように、関係テーブル111cは、シナリオとアバタとの対応関係を示す。例えば、
図14のアバタAは、アバタ401である。
図14のアバタBは、アバタ402である。
【0072】
(ステップS53)切替制御部130は、音声信号に基づいて、発表者の発話内容を検出する。
(ステップS54)切替制御部130は、関係テーブル111cに基づいて、特定された発話内容に対応するアバタを特定する。例えば、特定された発話内容が“つまり、yyyということですね。”である場合、切替制御部130は、アバタB(すなわち、アバタ402)を特定する。
【0073】
(ステップS55)切替制御部130は、現在の発話担当アバタと、特定されたアバタとが同じであるか否かを判定する。条件を満たす場合、処理は、終了する。条件を満たさない場合、切替制御部130は、現在の発話担当アバタと、特定されたアバタとが異なることを特定する。そして、処理は、ステップS56に進む。
【0074】
(ステップS56)切替制御部130は、発話担当アバタの切替を決定する。
(ステップS57)生成部140は、特定されたアバタを含む画面を生成する。また、当該画面には、特定されたアバタ以外のアバタが含まれてもよい。
【0075】
(ステップS58)声色変換部150は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。
(ステップS59)通信制御部160は、変換後音声信号と画面とを聴講者装置200に送信する。
また、ステップS52は、ステップS53の後に実行されてもよい。ステップS57は、ステップS58の後に実行されてもよい。
【0076】
実施の形態1の変形例4によれば、発表者装置100は、任意のアバタに発話を行わせることができる。
【0077】
実施の形態2.
次に、実施の形態2を説明する。実施の形態2では、実施の形態1と相違する事項を主に説明する。そして、実施の形態2では、実施の形態1と共通する事項の説明を省略する。
実施の形態1では、発表者装置100が発話担当の切替を行う場合を説明した。実施の形態2では、サーバが発話担当の切替を行う場合を説明する。
【0078】
図15は、実施の形態2の通信システムを示す図である。通信システムは、サーバ500、発表者装置600、及び聴講者装置200を含む。サーバ500、発表者装置600、及び聴講者装置200は、ネットワークを介して、通信する。
【0079】
サーバ500は、情報処理装置とも言う。例えば、サーバ500は、クラウドサーバである。サーバ500は、制御方法を実行する装置である。サーバ500は、プロセッサ、揮発性記憶装置、及び不揮発性記憶装置を有する。サーバ500は、処理回路を有してもよい。
【0080】
発表者装置600は、発表者が用いる装置である。例えば、発表者装置600は、PC(Personal Computer)である。発表者装置600は、ディスプレイを有する。また、発表者装置600には、ディスプレイが接続されてもよい。
発表者は、発表者装置600のディスプレイに表示された画面を見ながら、プレゼンテーション、オンラインの講演などを行う。実施の形態1と同じように、当該画面は、ディスプレイ400にも表示されている。
【0081】
次に、サーバ500が有する機能を説明する。
図16は、実施の形態2のサーバが有する機能のブロック図である。サーバ500は、記憶部510、取得部520、切替制御部530、生成部540、声色変換部550、及び通信制御部560を有する。
【0082】
記憶部510は、サーバ500が有する揮発性記憶装置又は不揮発性記憶装置に確保した記憶領域として実現してもよい。
取得部520、切替制御部530、生成部540、声色変換部550、及び通信制御部560の一部又は全部は、サーバ500が有する処理回路によって実現してもよい。また、取得部520、切替制御部530、生成部540、声色変換部550、及び通信制御部560の一部又は全部は、サーバ500が有するプロセッサが実行するプログラムのモジュールとして実現してもよい。例えば、当該プロセッサが実行するプログラムは、制御プログラムとも言う。例えば、制御プログラムは、記録媒体に記録されている。
【0083】
記憶部510は、様々な情報を記憶する。
取得部520は、発話担当アバタの切替判定で用いられる情報を取得する。具体的には、当該情報は、ポインティング情報である。
取得部520は、音声信号を取得する。例えば、取得部520は、音声信号を発表者装置600から取得する。なお、音声信号は、発表者の音声の信号である。
【0084】
切替制御部530は、ポインティング情報に基づいて、発話担当アバタの切替を決定する。
生成部540は、新しい発話担当アバタ(例えば、アバタ402)を含む画面を生成する。また、当該画面には、古い発話担当アバタ(例えば、アバタ401)が含まれていてもよい。
【0085】
声色変換部550は、音声信号に基づいて、発表者の音声の声色を、新しい発話担当アバタ用の声色に変換する。
通信制御部560は、声色の変換によって得られた変換後音声信号と画面とを聴講者装置200に送信する。
【0086】
次に、通信システムで実行される処理を、シーケンス図を用いて、説明する。
図17は、実施の形態2の通信システムで実行される処理の例を示すシーケンス図である。上述したように、サーバ500は、発表者装置100と同様の処理を行う。そのため、詳細な説明は、省略する。
(ステップST101)発表者装置600は、ポインティング情報をサーバ500に送信する。例えば、ポインティング情報は、アバタ(例えば、アバタ402)がポインティングされたことを示す情報である。
ポインティング情報は、取得部520に取得される。
【0087】
(ステップST102)切替制御部530は、現在の発話担当アバタとポインティング情報が示すアバタとが異なることを特定する。切替制御部530は、発話担当アバタの切替を決定する。
(ステップST103)生成部540は、ポインティング情報が示すアバタ(例えば、アバタ402)を含む画面を生成する。また、当該画面には、古い発話担当アバタ(例えば、アバタ401)が含まれてもよい。
【0088】
(ステップST104)発表者装置600は、発表者の音声の信号である音声信号をサーバ500に送信する。
音声信号は、取得部520に取得される。
(ステップST105)声色変換部550は、音声信号に基づいて、発表者の音声の声色を、ポインティング情報が示すアバタ用の声色に変換する。これにより、変換後音声信号が生成される。
【0089】
(ステップST106)通信制御部560は、変換後音声信号と画面とを聴講者装置200に送信する。
これにより、聴講者は、ディスプレイ400に表示された当該画面を見ながら、ポインティング情報が示すアバタによる、変換後音声信号に基づく発話を聞くことができる。
【0090】
実施の形態2によれば、サーバ500は、発表者の意図に従って、任意のアバタに発話を行わせることができる。
【0091】
サーバ500は、次の処理を実行してもよい。例えば、取得部520は、操作情報を発表者装置600から取得する。なお、操作情報は、発表者によってマウス又はキーボードが操作されていることを示す情報である。取得部520は、操作情報とアバタとの対応関係を示す関係テーブルを取得する。例えば、取得部520は、関係テーブルを記憶部510から取得する。切替制御部530は、関係テーブルに基づいて、操作情報に対応するアバタを特定する。切替制御部530は、発話担当アバタと、特定されたアバタが異なることを特定する。切替制御部530は、発話担当アバタの切替を決定する。生成部540は、特定されたアバタを含む画面を生成する。例えば、取得部520は、音声信号を発表者装置600から取得する。声色変換部550は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。通信制御部560は、変換後音声信号と画面とを聴講者装置200に送信する。
【0092】
サーバ500は、次の処理を実行してもよい。例えば、取得部520は、無操作情報を発表者装置600から取得する。なお、無操作情報は、発表者によってマウス又はキーボードが予め設定された時間、操作されていないことを示す情報である。取得部520は、無操作情報とアバタとの対応関係を示す関係テーブルを取得する。例えば、取得部520は、関係テーブルを記憶部510から取得する。切替制御部530は、関係テーブルに基づいて、無操作情報に対応するアバタを特定する。切替制御部530は、発話担当アバタと、特定されたアバタが異なることを特定する。切替制御部530は、発話担当アバタの切替を決定する。生成部540は、特定されたアバタを含む画面を生成する。例えば、取得部520は、音声信号を発表者装置600から取得する。声色変換部550は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。通信制御部560は、変換後音声信号と画面とを聴講者装置200に送信する。
【0093】
生成部540は、発話担当アバタの発話内容が表示されている画面を生成してもよい。また、生成部540は、画面に表示されるアバタの数を変更してもよい。
通信制御部560は、発話担当アバタの位置に音像が形成されるように、聴講者装置200を制御してもよい。例えば、通信制御部560は、音像の形成指示を聴講者装置200に送信する。聴講者装置200は、発話担当アバタの位置に音像が形成されるように、スピーカ410とスピーカ411とを制御する。
【0094】
実施の形態2の変形例1.
実施の形態2の変形例1では、実施の形態1の変形例1と同様の処理をサーバ500が実行する。そのため、詳細な説明は、省略する。
図18は、実施の形態2の変形例1の通信システムで実行される処理の例を示すシーケンス図である。
(ステップST111)発表者装置600は、キーボードボタン情報をサーバ500に送信する。キーボードボタン情報は、発表者があるキーボードボタンを押下したことを示す情報である。当該キーボードボタンは、第1のキーボードボタンとも言う。
キーボードボタン情報は、取得部520に取得される。
【0095】
(ステップST112)取得部520は、関係テーブル111を取得する。例えば、取得部520は、関係テーブル111を記憶部510から取得する。また、例えば、取得部520は、サーバ500に接続可能な外部装置から関係テーブル111を取得する。関係テーブル111は、キーボードボタンとアバタとの対応関係を示す。
【0096】
(ステップST113)切替制御部530は、キーボードボタン情報と関係テーブル111とに基づいて、キーボードボタン情報が示すキーボードボタンに対応するアバタを特定する。
(ステップST114)切替制御部530は、現在の発話担当アバタと特定されたアバタとが異なることを特定する。切替制御部530は、発話担当アバタの切替を決定する。
【0097】
(ステップST115)生成部540は、特定されたアバタを含む画面を生成する。また、当該画面には、特定されたアバタ以外のアバタが含まれてもよい。
(ステップST116)発表者装置600は、発表者の音声の信号である音声信号をサーバ500に送信する。
音声信号は、取得部520に取得される。
【0098】
(ステップST117)声色変換部550は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。
(ステップST118)通信制御部560は、変換後音声信号と画面とを聴講者装置200に送信する。
【0099】
実施の形態2の変形例1によれば、サーバ500は、任意のアバタに発話を行わせることができる。
【0100】
実施の形態2の変形例2.
実施の形態2の変形例2では、実施の形態1の変形例2と同様の処理をサーバ500が実行する。そのため、詳細な説明は、省略する。
図19は、実施の形態2の変形例2の通信システムで実行される処理の例を示すシーケンス図である。
(ステップST121)発表者装置600は、発表者の目を含む映像をサーバ500に送信する。また、当該映像は、発表者の顔の映像でもよい。
当該映像は、取得部520に取得される。
【0101】
(ステップST122)取得部520は、関係テーブル111aを取得する。例えば、取得部520は、関係テーブル111aを記憶部510から取得する。また、例えば、取得部520は、関係テーブル111aを外部装置から取得する。関係テーブル111aは、視線とアバタとの対応関係を示す。
【0102】
(ステップST123)切替制御部530は、当該映像に基づいて、発表者の視線を解析する。
(ステップST124)切替制御部530は、関係テーブル111aに基づいて、発表者の視線に対応するアバタを特定する。
(ステップST125)切替制御部530は、現在の発話担当アバタと特定されたアバタとが異なることを特定する。切替制御部530は、発話担当アバタの切替を決定する。
【0103】
(ステップST126)生成部540は、特定されたアバタを含む画面を生成する。また、当該画面には、特定されたアバタ以外のアバタが含まれてもよい。
(ステップST127)発表者装置600は、発表者の音声の信号である音声信号をサーバ500に送信する。
音声信号は、取得部520に取得される。
【0104】
(ステップST128)声色変換部550は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。
(ステップST129)通信制御部560は、変換後音声信号と画面とを聴講者装置200に送信する。
【0105】
実施の形態2の変形例2によれば、サーバ500は、任意のアバタに発話を行わせることができる。
【0106】
また、取得部520は、映像と発表者の目の位置情報とを発表者装置600から取得してもよい。切替制御部530は、当該映像と当該位置情報とに基づいて、発表者の視線を解析する。切替制御部530は、当該位置情報を追加して、発表者の視線を解析することで、精度の高い解析結果を得ることができる。
【0107】
実施の形態2の変形例3.
実施の形態2の変形例3では、実施の形態1の変形例3と同様の処理をサーバ500が実行する。そのため、詳細な説明は、省略する。
図20は、実施の形態2の変形例3の通信システムで実行される処理の例を示すシーケンス図である。
(ステップST131)発表者装置600は、発表者の音声の信号である音声信号をサーバ500に送信する。
音声信号は、取得部520に取得される。
【0108】
(ステップST132)取得部520は、関係テーブル111bを取得する。例えば、取得部520は、関係テーブル111bを記憶部510から取得する。また、例えば、取得部520は、関係テーブル111bを外部装置から取得する。関係テーブル111bは、声色とアバタとの対応関係を示す。
【0109】
(ステップST133)切替制御部530は、音声信号に基づいて、音声特徴量を抽出する。
(ステップST134)切替制御部530は、音声特徴量を用いて、発表者の音声の声色を特定する。
(ステップST135)切替制御部530は、関係テーブル111bに基づいて、特定された声色に対応するアバタを特定する。
【0110】
(ステップST136)切替制御部530は、現在の発話担当アバタと特定されたアバタとが異なることを特定する。切替制御部530は、発話担当アバタの切替を決定する。
(ステップST137)生成部540は、特定されたアバタを含む画面を生成する。また、当該画面には、特定されたアバタ以外のアバタが含まれてもよい。
【0111】
(ステップST138)声色変換部550は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。
(ステップST139)通信制御部560は、変換後音声信号と画面とを聴講者装置200に送信する。
【0112】
実施の形態2の変形例3によれば、サーバ500は、任意のアバタに発話を行わせることができる。
【0113】
サーバ500は、次の処理を実行してもよい。取得部520は、音声信号を取得する。取得部520は、関係テーブルを取得する。当該関係テーブルは、話し方とアバタとの対応関係を示す情報である。切替制御部530は、音声信号に基づいて、発表者の発話内容を検出する。切替制御部530は、発話内容に基づいて、話し方を特定する。切替制御部530は、関係テーブルに基づいて、特定された話し方に対応するアバタを特定する。アバタが特定された後、サーバ500は、ステップST136~139を実行する。
【0114】
実施の形態2の変形例4.
実施の形態2の変形例4では、実施の形態1の変形例4と同様の処理をサーバ500が実行する。そのため、詳細な説明は、省略する。
図21は、実施の形態2の変形例4の通信システムで実行される処理の例を示すシーケンス図である。
(ステップST141)発表者装置600は、発表者の音声の信号である音声信号をサーバ500に送信する。
音声信号は、取得部520に取得される。
【0115】
(ステップST142)取得部520は、関係テーブル111cを取得する。例えば、取得部520は、関係テーブル111cを記憶部510から取得する。また、例えば、取得部520は、関係テーブル111cを外部装置から取得する。関係テーブル111cは、シナリオとアバタとの対応関係を示す。
【0116】
(ステップST143)切替制御部530は、音声信号に基づいて、発表者の発話内容を検出する。
(ステップST144)切替制御部530は、関係テーブル111cに基づいて、特定された発話内容に対応するアバタを特定する。
(ステップST145)切替制御部530は、現在の発話担当アバタと特定されたアバタとが異なることを特定する。切替制御部530は、発話担当アバタの切替を決定する。
【0117】
(ステップST146)生成部540は、特定されたアバタを含む画面を生成する。また、当該画面には、特定されたアバタ以外のアバタが含まれてもよい。
(ステップST147)声色変換部550は、音声信号に基づいて、発表者の音声の声色を、特定されたアバタ用の声色に変換する。これにより、変換後音声信号が生成される。
(ステップST148)通信制御部560は、変換後音声信号と画面とを聴講者装置200に送信する。
【0118】
実施の形態2の変形例4によれば、サーバ500は、任意のアバタに発話を行わせることができる。
【0119】
以上に説明した各実施の形態における特徴は、互いに適宜組み合わせることができる。
【符号の説明】
【0120】
100 発表者装置、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 110 記憶部、 111,111a,111b,111c 関係テーブル、 120 取得部、 130 切替制御部、 140 生成部、 150 声色変換部、 160 通信制御部、 200 聴講者装置、 300 ディスプレイ、 310 マウス、 320 キーボード、 330 撮像装置、 340 マイク、 400 ディスプレイ、 401 アバタ、 402 アバタ、 403 範囲、 410,411 スピーカ、 500 サーバ、 510 記憶部、 520 取得部、 530 切替制御部、 540 生成部、 550 声色変換部、 560 通信制御部、 600 発表者装置。