【解決手段】デジタルポートレート1は、人の顔の撮像画像である静止画に画像処理を施して目のまばたきや口の開閉や表情の変化等を伴う動画を生成する動画生成部と、外部マイクで入力された音声を加工して声色を変える音声変換部と、を含んでおり、動画生成部が音声に同期して変化するように生成した動画を音声と共に出力する。
人の顔が撮像された静止画に画像処理を施すことにより、顔の表情の変化、目のまばたき、口の動き、及び顔の向きの変化のうちの少なくともいずれかを含む動画を生成する動画生成部と、
音を電気信号に変換する集音マイクを介して入力された音声を加工し、声色及び話し方のうちの少なくともいずれかが異なる音声に変換する音声変換部と、
前記動画生成部により生成された動画、及び前記音声変換部により変換された音声を出力する出力装置と、を含み、
前記動画生成部は、前記出力装置によって出力する音声に同期して変化する動画を生成する動画出力システム。
声色を特定可能な話者情報を記憶する話者情報記憶部を含み、前記音声変換部は、前記話者情報記憶部が記憶する話者情報によって特定される声色に音声を変換するように構成されている請求項1に記載の動画出力システム。
話し方を特定可能な話者情報を記憶する話者情報記憶部を含み、前記音声変換部は、前記話者情報によって特定される話し方に音声を変換するように構成されている請求項1又は2に記載の動画出力システム。
集音マイクを介して入力された問掛け音声との対話を実現するための音声パターンを予め記憶する音声パターン記憶部と、問掛け音声の意味内容を特定する音声認識部と、を含み、
前記音声変換部は、前記音声パターンに係る音声を加工し、
前記出力装置は、前記音声認識部が特定した問掛け音声の意味内容に対応すると共に加工された音声パターンに係る音声を出力するように構成されている請求項1〜3のいずれか1項に記載の動画出力システム。
【発明を実施するための形態】
【0010】
本発明の実施の形態につき、以下の実施例を用いて具体的に説明する。
(実施例1)
本例は、音声と共に動画を出力可能なデジタルポートレート1に関する例である。この内容について、
図1〜
図7を用いて説明する。
動画出力システムの一例をなすデジタルポートレート1は、音声付の動画による故人の遺影として利用される。デジタルポートレート1は、遺影の故人が参列者の問掛けに受け答えする高機能の出力装置として機能する。
【0011】
デジタルポートレート1(
図1)は、漆塗の黒色のフレーム1Fを有し、フレーム1Fの内側に液晶ディスプレイ21(
図3参照。)の表示画面210が配置されている。デジタルポートレート1の背面側には、フレーム1Fよりもひと回り小さい筐体13が設けられ、電気的な構成の収容スペースが確保されている。
【0012】
筐体13(
図1及び
図2)の外周では、内蔵スピーカ223が左右両側の側面に設けられているほか、電源スイッチ131や、外部端子132〜135などが配設されている。外部端子としては、スピーカ端子134や、マイク端子135や、USB端子133や、外部モニタ端子132などがある。また、フレーム1Fの前面には、内蔵カメラ221、内蔵マイク222が埋設されている。内蔵マイク222は、例えば葬儀の参列者等が個人に問掛ける音声を取得するための集音マイクである。内蔵カメラ221は、故人に向かって問掛ける参列者を撮像するための撮像カメラである。
【0013】
USB端子133には、USB規格のキーボードやマウスなどを接続可能である。キーボードやマウスを接続すれば、一般的なPCと同様にデジタルポートレート1を操作でき、各種の設定操作が可能である。設定操作の際には、黒塗りのフレーム1Fに囲まれた表示画面210をモニタとして利用することも可能である。さらに、USB端子133には、一般的なUSBメモリ等の外付メモリ39(
図3)を装着可能である。USBメモリなどの記憶媒体を利用すれば、動画の元になる故人の静止画の画像データや、故人の音声データや、デジタルポートレート1の機能を高めるためのソフトウェアなどの転送が可能である。
【0014】
マイク端子135には、外部マイク(集音マイク)31を接続可能である。外部マイク31を利用すれば、バックヤードに控えたオペレータ300が音声を入力可能である。マイク端子135を複数系統設けることも良い。この場合には、参列者が音声を入力するための外部マイクを接続できる。祭壇に飾られた遺影の間近に参列者が近づけない場合であっても、参列者用の外部マイクがあれば、問掛け音声を確実性高く入力できる。
【0015】
スピーカ端子134には、外部スピーカ32を接続可能である。例えば、参列者の問掛け音声に対応するオペレータ300が控えるバックヤードに外部スピーカ32を設置すると良い。問掛け音声を出力する外部スピーカ32を設定すれば、問掛け音声に対応するオペレータ300が控えるバックヤードの設置自由度が高くなる。
【0016】
外部モニタ端子132には、汎用のPCモニタを接続可能である。例えば、オペレータ300が控えるバックヤードに外部モニタ33を設置し、内蔵カメラ221による参列者の撮像画像を表示することも良い。参列者を表示する外部モニタ33をバックヤードに設置すれば、オペレータ300が参列者の表情やしぐさを確認しながら、参列者の問掛けに対してより的確に対応できる。また例えば、デジタルポートレート1の設定操作を実施する際、例えばオペレータ300が作業する机上に、キーボード、マウス、外部モニタが揃っていれば、デジタルポートレート1の各種の設定操作や機能の切替操作などをバックヤードから実施できる。また、バックヤードに2台目の外部モニタを設置することも良い。参列者の問掛け音声に対する対応作業と並行して、デジタルポートレート1の設定操作等を実施できる。
【0017】
なお、外部端子の機能は、全て、Bluetooth(登録商標)やワイヤレスディスプレイなど、無線技術によって代替可能である。無線技術によれば、設定操作や、問掛け音声に応答するオペレータ300が控えるバックヤードの設置自由度を格段に向上できる。オペレータ300が控えるバックヤードを遠隔地に設けることも可能である。例えばインターネットを利用すれば、遠隔地のオペレータ300が問掛け音声に対応可能である。
【0018】
筐体13には、
図3のごとく、動画生成部202や音声変換部204等としての機能を実現するメイン基板2や、液晶ディスプレイ21を制御する表示制御基板211や、ハードディスク(HD)24などの記憶装置や、内蔵スピーカ223や内蔵マイク222のアンプ基板22や、内蔵カメラ221、図示しない電源回路などが収容されている。
【0019】
メイン基板2は、各種の演算処理を実行するCPU(Central Processing Unit)20、ROM207やRAM208などの記憶素子や、入出力を制御するI/Oコントローラ209などが実装された電子基板である。デジタルポートレート1は、ディスプレイ一体型のPC(Personal Computer)と同様のハードウェア構成を備えている。デジタルポートレート1には、ウィンドウズ(登録商標)やLinux(登録商標)などの汎用OS(Operating System)を組込みしても良く、独自のOSを組込みしても良い。
【0020】
ハードディスク24は、メイン基板2のCPU20が読み出し可能な記憶領域をなし、故人情報記憶部240としての機能を備えている。故人情報記憶部240は、故人の静止画及び音声データのほか、故人に関わる各種の情報を記憶するための記憶領域をなしている。
【0021】
CPU20は、ハードディスク24に格納されたソフトウェアプログラムを実行することで、故人の3次元モデルを生成する故人モデル化部201、故人の動画を生成する動画生成部202、故人の声色情報(話者情報の一例)を抽出する話者情報抽出部203、オペレータの返答音声の声色を変換する音声変換部204、音声認識部205等としての各種の機能を実現する。
【0022】
次に、(1)故人情報記憶部240、(2)故人モデル化部201、(3)動画生成部202、(4)話者情報抽出部203、(5)音声変換部204、(6)音声認識部205の各機能について説明する。
【0023】
(1)故人情報記憶部(話者情報記憶部)
故人情報記憶部240は、例えば、故人に関わる以下の各情報を記憶している。
(1.1)故人の静止画:予め撮影された故人の静止画。
(1.2)故人の音声データ:予め録音された故人の音声データ。
(1.3)故人の声色情報:故人の声色を特定する声色情報。
(1.4)故人の3次元モデルデータ:故人の静止画に基づく3次元モデル(ワイヤフレームモデル)のデータ。
(1.5)故人の情報:故人の趣味や好物や交友関係や姻戚関係等の情報。故人と交友関係や姻戚関係を有する人物の顔画像や個人情報などを、故人の情報に含めることも良い。なお、故人の情報は、オペレータによる操作に応じて適宜、参照可能に構成しておくと良い。故人の情報があれば、オペレータが参列者の問掛けに対してより的確に対応できる。
【0024】
(2)故人モデル化部
故人モデル化部201は、顔の特徴点を抽出する特徴点抽出部、3次元モデル生成部により構成されている。
(2.1)特徴点抽出部
特徴点抽出部は、故人の静止画の顔領域について、目、鼻、唇、眉などの特徴点FP(
図4参照。)を抽出する特徴点抽出処理(画像処理の一例)を実行する。例えば目については、目頭、目尻、黒目、目の輪郭をなす点などが特徴点FPとして抽出される。例えば口については、口角、上唇の輪郭をなす点、下唇の輪郭をなす点などが特徴点FPとして抽出される。
(2.2)3次元モデル生成部
3次元モデル生成部は、故人の3次元モデルを生成する3次元モデル生成処理を実行する。画像処理の一例をなす3次元モデル生成処理は、標準的な顔(標準顔)の3次元的な形状を表すワイヤフレームモデルである標準3次元モデルを故人に適合するように変形させることで、故人の3次元モデルを生成する処理である。
【0025】
標準3次元モデルは、例えば、目、鼻、唇、眉などに対応する特徴点が、頂点あるいは交点として規定されたワイヤフレームモデルである。3次元モデル生成処理では、故人の静止画から抽出された特徴点と、標準3次元モデルの特徴点と、の対応付けが行われる。故人に係る特徴点の位置関係に合致するように標準3次元モデルを変形することで、故人の3次元モデルを生成できる。故人の3次元モデルをなすワイヤフレームモデルの各サーフェスには、静止画の対応領域の色やテクスチャーを割り付けると良い。
【0026】
(3)動画生成部
動画生成部202は、故人の3次元モデルを変形させて動きを生み出す動画生成処理を実行する。この動画生成処理では、3次元モデルをなすワイヤフレームモデルを局所的あるいは全体的に変形させる処理が行われる。例えば、瞼を閉じる動作を実現する際には、目を構成する特徴点などワイヤフレームモデルの頂点あるいは交点を変位させると良い。例えば、口を開く動作を実現する際には、口を構成する特徴点を変位させる処理が行われる。さらに例えば、頷く動作を実現する際には、故人の3次元モデルをなすワイヤフレームモデルの局所的な変形に代えて、軽く前回りさせるようにワイヤフレームモデル全体を回転変位させた後、すぐに元の位置に戻す処理が行われる。さらに、怒りの表情を故人に行わせる際には、眉や目尻を吊り上げるようなワイヤフレームモデルの変形処理が行われる。例えば故人の発話中では、目のまばたきや、口の開閉や、頷きなどを適宜組み合わせることで、故人の自然な発話動作を再現できる。
【0027】
(4)話者情報抽出部
話者情報抽出部203は、予め録音された故人の音声データから声色情報を分離、抽出する話者情報抽出処理を実行する。音声データに信号処理を施すと、声帯の振動に由来する音源情報と、話者のあごの骨格や口腔形状等が反映された声色情報に分解できる。音源情報は、音の強弱や音程など、音源から発生する音の特性を表す情報である。声色情報は、音源から生じた音が伝達される経路の特性を表す情報である。声色情報は、声質を表す情報であり、声帯の振動が伝わる口腔の形状などが反映される情報である。話者情報抽出部203によって抽出された声色情報は、故人の声色の特徴を表す情報として、故人情報記憶部240としてのハードディスク24に保存される。
【0028】
(5)音声変換部
音声変換部204は、バックヤードに控えるオペレータの返答音声の声色を変換(加工)する音声変換処理を実行する。音声変換部204は、返答音声の音声データから音源情報を抽出する音源情報抽出部、音源情報に対して故人に係る声色情報を組み合わせる音声合成部、を含んで構成される。
(5.1)音源情報抽出部
音源情報抽出部は、外部マイク31を利用して入力されたオペレータの音声データ(返答音声)から音源情報を分離、抽出する音源情報抽出処理を実行する。この音源情報抽出部は、上記の話者情報抽出部203と構成が似通っている。音源情報抽出部は、音声データを音源情報と声色情報とに分解する点において、話者情報抽出部203と同様の技術的構成を備えている。話者情報抽出部203が声色情報を分離、抽出するのに対して、音源情報抽出部は、音源情報を分離、抽出する点が相違している。
(5.2)音声合成部
音声合成部は、音源情報抽出部によって抽出された音源情報に対して、故人に係る声色情報を組み合わせて新たな音声を生成する音声合成処理を実行する。音声合成部によって合成された音声データは、内蔵スピーカ223から出力される。
【0029】
(6)音声認識部
音声認識部205は、参列者の問掛け音声及びオペレータの返答音声の意味内容を特定するための音声認識処理を実行する。本例の音声認識部205は、音声の意味内容を厳密に特定するものではなく、穏やかなものか、ユーモラスなものか、シリアスなものか、悲しみを含むものか、等を特定するものである。本例の音声認識処理では、例えば、音韻論で分析される最小の音韻的単位である音素の単位時間当たりの個数(発話速度)、音声の音程や、音声の音量、笑い声の有無、等によって、上記のような意味内容が特定される。
【0030】
以上のような構成のデジタルポートレート1は、例えば、故人の葬儀が執り行われる祭場において、祭壇の遺影とは別に、故人を偲ぶための遺影として活用される。デジタルポートレート1は、例えば、故人を偲ぶために設けられたスペースの壁面に取り付けられ、参列者は、デジタルポートレート1の故人との対話が可能である。デジタルポートレート1による音声は、バックヤードに控えるオペレータ300(
図2参照。)の音声が故人の声色に変換されたものである。参列者にとっては、生前の故人と対話するように感じられ、故人を懐かしむことが可能である。
【0031】
次に、このようなデジタルポートレート1の運用を可能とするための(a)準備作業、(b)運用について、順番に説明する。
(a)準備作業
デジタルポートレート1を運用する際には、故人の静止画及び音声データを予め、故人情報記憶部240としてのハードディスク24に保存しておく必要がある。例えば、故人の静止画及び音声データを保存したUSBメモリ等の外付メモリ39を利用すれば、静止画等のデータをデジタルポートレート1に容易に転送できる。なお、精度の高い声色情報を抽出するためには、故人の存命中に、所定パターンの会話文を音読させて記録しておくと良い。所定パターンの会話文には、声色情報を精度高く抽出可能な会話のパターンを設定すると良い。
【0032】
さらに、故人情報記憶部240としてのハードディスク24には、上記の(1.5)故人の情報を保存しておくと良い。故人の情報は、参列者の問掛け音声にオペレータが返答する際の参考情報として有用である。なお、上記の通り、故人情報記憶部240に記憶させる故人に係る情報(静止画、音声データ、故人の情報)は、例えばUSBメモリを利用してデジタルポートレート1に転送可能である。USBメモリ等に代えて、フラッシュROMを内蔵するSDカードを利用することも良い。さらに、デジタルポートレート1がWiFi(登録商標)などの無線通信機能を備えていれば、別体のPC装置から無線でデータ転送することも良い。さらにデジタルポートレート1がWiFi(登録商標)等を介してインターネットに接続可能であれば、インターネットを介してデジタルポートレート1と接続可能な別体のPC装置あるいはサーバ装置からデータ転送することも良い。
【0033】
デジタルポートレート1を運用可能な状態に設定するためには、ハードディスク24に保存されたスタンバイプログラムによる所定のスタンバイ処理の実行が必要である。このスタンバイ処理は、上記の特徴点抽出処理、3次元モデル生成処理、及び話者情報抽出処理を含む処理である。スタンバイ処理の内容について
図5及び
図6を参照して説明する。
【0034】
スタンバイ処理では、
図5のごとく、メイン基板2のCPU20が、まず、故人情報記憶部240としてのハードディスク24から故人の静止画の画像データを読み込む(S101)。そして、故人の静止画について特徴点FPを抽出する特徴点抽出処理を実行する(S102、
図4参照。)。
【0035】
メイン基板2のCPU20は、抽出された故人の特徴点FPによって標準3次元モデルを変形する処理を実行し、故人の3次元モデルを生成する(S103、3次元モデル生成処理)。CPU20は、故人情報記憶部240としてのハードディスク24に故人の3次元モデルを書き込む(S104)。これにより、デジタルポートレート1の運用中に、CPU20が故人の3次元モデルを利用可能になる。
【0036】
さらにスタンバイ処理では、
図6のごとく、メイン基板2のCPU20が、故人情報記憶部240としてのハードディスク24から故人の音声データを読み込む(S201)。そして、CPU20は、故人の音声データから声色情報を分離、抽出する話者情報抽出処理を実行する(S202)。CPU20は、故人情報記憶部240としてのハードディスク24に故人の声色情報を書き込む(S203)。これにより、デジタルポートレート1の運用中に、CPU20が故人の声色情報を利用可能になる。
【0037】
(b)運用
デジタルポートレート1は、所定の運用プログラムの実行によって運用される。デジタルポートレート1の運用中では、故人の動画が表示画面210に表示され、対話も可能である。デジタルポートレート1の故人は、まばたきや、時折、頭を傾けたり、顔の向きを変えるといった動作を行う。特に、会話中の故人は、発話に合わせて口を開閉したり、話の内容に応じて軽く頷くといった様々な動作を行う。
【0038】
デジタルポートレート1の故人に対面する参列者は、フレーム1Fに埋設された内蔵カメラ221によって撮像されてバックヤードの外部モニタ33に表示される。また、その参列者が故人に問掛けた音声は、フレーム1Fに埋設された内蔵マイク222によって電気信号に変換され、デジタルポートレート1を経由して、バックヤードの外部スピーカ32から出力される。
【0039】
参列者に応対するオペレータが控えるバックヤードには、上記のごとく、外部スピーカ32のほかに、オペレータの音声を電気信号に変換する外部マイク31や、参列者の撮像画像を表示する外部モニタ33等が設置されている。オペレータは、外部モニタ33に表示された参列者を視認しながら、問掛け音声に対して適宜、返答できる。オペレータによる返答音声は、音声合成により故人の声色に変換されて内蔵スピーカ223から出力される。
【0040】
上記のようなデジタルポートレート1の動作の流れを、
図7のフロー図を参照して説明する。メイン基板2のCPU20は、デジタルポートレート1の運用開始時に、まず、故人情報記憶部240としてのハードディスク24から故人の3次元モデル及び声色情報を読み込む(S301)。
【0041】
続いてCPU20は、参列者の音声あるいはオペレータの音声の有無、すなわち音声の入力状態であるか否かを判断する(S302)。音声としては、参列者の問掛け音声、問掛け音声に対するオペレータの返答音声、オペレータの挨拶音声等がある。挨拶音声は、定型文の読み上げ音声などである。定型文としては、例えば「本日は、私の葬儀に御列席頂き、まことにありがとうございます。・・・・」等の挨拶文などがある。
【0042】
いずれかの音声が有る場合には(S302:有)、CPU20は、その音声の音声データの取込を実行する(S303)。CPU20は、音声の発話元がオペレータであるか参列者であるかを判断する(S304)。バックヤードのオペレータが発話元であるとき、CPU20は、音声データに対して上記の音源情報抽出処理を適用して、オペレータの音声から音源情報を分離、抽出する(S304:YES→S305)。そして、CPU20は、オペレータの音声から抽出された音源情報に対して、故人の声色情報を組み合わせる音声合成を実行する(S306)。一方、音声の発話元がオペレータではなく参列者であったとき(S304:NO)、CPU20は、故人の声を音声合成によって再現するための上記のS305、S306の処理を迂回する。
【0043】
CPU20は、音声の発話元がオペレータであるか参列者であるかに関わらず、上記のS303で取り込みした音声に対して音声認識処理を適用し、音声の意味内容を特定する(S307)。なお上記の通り、このときの音声認識は、音声の意味内容を厳密に特定するものではない。例えば、単位時間当たりの音素の数(発話速度)、音声の音程や、音声の音量、笑い声の有無、等によって、音声の意味内容が、穏やかか、ユーモラスか、シリアスか、悲しみを含むものか、等の意味内容を特定するのみである。
【0044】
続いてCPU20は、デジタルポートレート1に表示された故人に動きを与えるために、上記のS301で読み込んだ故人の3次元モデルを適宜、変形させる処理を実行する(S308)。上記のごとく、3次元モデルの変形態様としては、目のまばたきや、口の開閉や、頷きや、顔の向きの変更や、顔の表情の変化などがある。
【0045】
参列者の音声もオペレータの音声も入力されていない場合(S302:無)、故人の動作は、目のまばたき、辺りを見まわすような顔の向きの変更などが主体的になる。参列者の問掛け音声の入力中(S302:有→S304:NO)における故人の動作は、問掛け音声の時間的な間や区切り等に応じた頷き、問掛け音声の意味内容に応じた故人の表情変化などがある。また、オペレータの発話中(S302:有→・・・→S304:YES)における故人の動作は、返答音声の発話に応じた口の開閉や、返答音声の意味内容に応じた表情変化などがある。
【0046】
例えば、発話に合わせて口を開閉させる際には、例えば、返答音声を構成する音源データの強弱や音源情報の種別(母音か子音か等)に応じて口を開閉させるための変形処理を故人の3次元モデルに適用すると良い。変形処理は、3次元モデルをなすワイヤフレームモデルの頂点あるいは交点の一部または全部を変位させる処理である。例えば、口を開閉させる際には、CPU20は、口の輪郭を形成するワイヤフレームモデルの頂点あるいは交点を適宜、変位させることで、口の開閉動作を実現する。
【0047】
CPU20は、故人の3次元モデルを正面から見た2次元画像に随時、変換し、表示画面210の故人の画像を更新する。これにより、デジタルポートレート1に故人の動画を表示できる(S309)。オペレータが発話中のとき、CPU20は、故人の動画と同期して、上記のS306で音声合成した故人の音声を内蔵スピーカ223から出力する。故人の音声としては、参列者の問掛け音声に対する返答音声と、定型の挨拶文の読み上げ音声等がある。
【0048】
以上のように構成されたデジタルポートレート1は、デジタル技術を利用して故人を動画で表示すると共に、故人との対話が可能な高機能の遺影である。このデジタルポートレート1を活用すれば、故人との対話を通じて故人を偲び懐かしむことができる。故人との対話中では、参列者からの問掛けに応じて故人が頷いたり、話の内容に応じて故人の表情が変わることもある。問掛ける側の参列者にとっては、自分の問掛けに応じて故人が反応を示すように感じられ、故人を身近に感じることができる。
【0049】
さらに参列者は、故人に問掛けたとき、故人の声色で返答を受けることができる。さらに、デジタルポートレート1の故人は、返答する際に口を開閉させたり、返答の内容によって笑ったり怒ったり等、様々な表情を見せる。参列者にとっては、自分の問掛けに応じて故人が生前と同様、誠実に返答してくれるように感じられ、故人に対して親しみを感じることができる。
【0050】
なお、内蔵カメラ221による撮像画像に画像処理を施し、デジタルポートレート1の前を通り過ぎる参列者や、立ち止まる参列者を検出することも良い。通り過ぎる参列者を目で追うような動きをデジタルポートレート1の故人に行わせることも良く、前を通る参列者に対して会釈する動作を故人に行わせることも良い。
【0051】
メイン基板2のCPU20の機能として、参列者を特定するための人物特定処理を実行する人物特定部としての機能を追加することも良い。この人物特定部は、例えば、内蔵カメラ221による参列者の撮像画像から顔領域を切り出し、故人に縁のある人物の顔画像等を故人の情報として記憶するハードディスク24の記憶領域を参照することで、参列者を特定する。参列者を特定したとき、メイン基板2のCPU20が、その参列者に関する情報をハードディスク24から読み出してオペレータに提示すると良い。提示方法としては、参列者の撮像画像を表示する外部モニタ33の表示画面の一部を占有する表示窓を設け、参列者に関する情報を表示することも良い。この場合には、バックヤードのオペレータは、参列者の様子を視認すると共に、参列者に関する情報を把握した上で、参列者の問掛けに対して適切に返答できる。参列者と故人との関係や参列者の情報等を把握していれば、問掛け音声に対してオペレータが的確に返答可能である。なお、オペレータの操作に応じて、表示窓の表示内容が外部モニタ33の表示画面に大きく表示されるように切り替えることも良い。参列者を特定できたとき、参列者に関する情報が有る旨をオペレータに報知する手段を設けることも良い。この場合、参列者の情報を求めるオペレータの切替操作に応じて、外部モニタ33の表示画面を参列者に関する情報の表示画面に切り替えると良い。
【0052】
本例では、予め故人の音声データをハードディスク24等に保存しておき、スタンバイ処理の実行により故人の声色情報(話者情報の一例)を生成してハードディスク24に保存している。これに代えて、故人の音声データを取得したとき、直ちにその声色情報を分離、抽出しておくことも良い。そして、故人情報記憶部240としてのハードディスク24に、故人の声色情報を保存しておくことも良い。
【0053】
本例では、故人の存命中に所定パターンの会話文を音読させることで音声データを収集する例を説明している。これに代えて、生前の故人が撮影されたビデオ画像等の中から故人の音声データを切り出し、声色情報を抽出することも可能である。あるいは、兄弟や親子など声質の似た親族に所定パターンの会話文を音読させ、声色情報を抽出することも良い。近親者の場合、声質を左右する口腔形状や骨格の形状が似通っていることが多いため、故人の声色情報として利用できる可能性がある。
【0054】
また、本例では、予め故人の静止画をハードディスク24等に保存しておき、スタンバイ処理の実行により、故人の3次元モデルを生成してハードディスク24に保存する例を説明している。これに代えて、静止画に基づく故人の3次元モデルを予め生成しておき、ハードディスク24に保存しておくことも良い。
【0055】
本例では、参列者による問掛け音声に対してオペレータが考えて返答する構成を例示している。さらに、オペレータを補助する機能として、参列者の撮像画像を外部モニタ33に表示する機能や、参列者に関する情報や、故人の情報などのテキスト表示を外部モニタ33に表示する機能等を例示している。これに代えて、メイン基板2のCPU20が返答テキストを生成し、外部モニタ33にテキスト表示する構成を採用しても良い。メイン基板2のCPU20が返答のテキストを生成するための構成としては、例えば、問掛け音声の意味内容を音声認識によって特定し、その認識結果に応じて返答例を生成する構成がある。このときの音声認識により特定する意味内容としては、問掛け音声に対する対話が可能なレベルであると良い。対話可能なレベルまで問掛け音声の意味内容を特定できた場合、メイン基板2のCPU20が、ハードディスク24に保存された故人の情報の中から、問掛け音声の意味内容に対応する情報を選択的に取得できる。問掛け音声の意味内容に対応する故人の情報を取得できれば、その情報を反映させた返答例のテキストを生成できる。なお、問掛け音声の意味内容の特定(音声認識)、故人の情報の選択的な取得、故人の情報に基づく返答例のテキスト生成、などの各処理については、例えば機械学習を利用する人工知能的なアプローチを適用できる。人工知能の技術を活用すれば、これらの処理を効率的、かつ精度高く実行できる。
【0056】
故人の音声データから音声合成に必要な音素を切り出し、故人の音素データとしてハードディスク24に保存しておくことも良い。この場合には、故人の音素データに基づく音声合成により、予め用意された挨拶文等のテキストや、メイン基板2のCPU20が生成した返答のテキスト等を、故人の声色で読み上げできる。オペレータが返答テキストを打ち込み、CPU20がそのテキストを音声合成する態様を採用することも良い。
【0057】
なお、本例では、参列者の問掛け音声に対して故人が返答するデジタルポートレート1を例示しているが、デジタルポートレート1の故人が返答せず、微笑むだけといったように音声出力しないようにしても良いし、あるいは定型の挨拶を行うだけの態様であっても良い。故人が微笑む表情を行う動作は、周囲の音に反応して実行しても良く、一定時間毎に実行しても良く、前を通過する人の検出を契機として実行しても良く、参列者の問掛け音声の入力を契機として実行しても良い。
【0058】
本例は、デジタルポートレート1を遺影として利用する例である。動画出力システム1Sの一例であるデジタルポートレート1は、遺影のほか、芸能人や文化人などの有名人のポートレートや、会社や店の経営者のポートレートや、デパートや会社の受付嬢のポートレート等として幅広く活用できる。例えば、会社等の受付嬢のポートレートとして活用する場合であれば、インターネットを利用してバックヤードを遠隔地に設け、一人のオペレータが複数の会社の受付業務を兼業することも可能である。
【0059】
本例では、音声に合わせた動画を生成する構成を例示したが、例えば笑った表情や悲しい表情等の表情のパターンを指定することで、その指定された表情のパターンにて動画生成しても良く、この場合、音声に合わせて指定された表情での動画としても良い。
また、本例では、例えば遺影への適用において、遺影となる1枚の静止画に基づいて動画を生成する構成を例示している。この場合、遺影となる静止画としては、故人に対する親しみを感じられるよう、亡くなるよりも少し前の故人の撮像画像が選ばれることが多い。亡くなるよりも少し前の故人の静止画に基づく動画生成に加えて、例えば、故人の10代の頃の静止画や、20代の頃の静止画や、30代の頃の静止画などに基づき、若い年代の頃の故人の動画を生成することも良い。この場合には、遺影だけでなく故人の人生を年代別に顧みたり、思い出深い年代における故人を偲んだりすることが可能となる。このような運用は、遺影だけでなく、上述した有名人のような他のポートレートを対象とした運用においても有用である。
【0060】
(実施例2)
本例は、実施例1のデジタルポートレートに基づいて、故人の話し方を話者情報に含めた例である。本例の構成のうち、故人の音声データから話者情報を抽出する話者情報抽出部、及びオペレータの音声を変換する音声変換部の構成が実施例1とは相違している。本例の内容について、
図8及び
図9を参照して説明する。
図8は、話者情報抽出部による処理の流れを示すフロー図である。
図9は、音声変換部による処理の流れを示すフロー図である。
【0061】
実施例1では、故人の話者情報として、故人の声色を特定可能な声色情報を例示している。これに対して、本例は、声色情報に加えて、故人の話し方を特定可能な話し方情報を話者情報に含める構成例である。本例の話し方情報は、標準語を含めて秋田弁や熊本弁や名古屋弁などの話し方の種別情報である。
【0062】
次に、
図8を参照して話者情報抽出部が話者情報を抽出する手順を説明する。話者情報抽出部は、まず、所定パターンの会話文の音読による故人の音声データを読み込む(S401)。そして、故人の音声データに話者情報抽出処理を適用することで、声色情報、話し方情報を抽出する(S402)。
【0063】
話者情報抽出部は、音声データを音素に分解して音声認識処理を施すことで、音声をテキスト化する。そして、特定の単語をなす音素列や、特定の文節をなす音素列を切り出し、そのイントネーションから方言の種別を特定する。例えば、地名である「なごや」に対応する音素列について、1文字目の「な」にアクセントがあったり、「あんたぁなにいっとるの」の音素列のなかで3文字目の「た」と最後から3文字目の「と」にアクセントがある等の音声データについては、名古屋弁に分類できる。
【0064】
話者情報抽出部は、実施例1と同様、声色情報及び話し方情報を、話者情報としてハードディスクに書き込む(S403)。例えば、名古屋弁に分類された音声データについては、声色情報に加えて、名古屋弁を表す話し方の種別情報を含む話者情報がハードディスクに保存される。
【0065】
次に、
図9を参照して本例の音声変換部が音声を変換する手順を説明する。音声変換部は、実施例1と同様、まず、オペレータの音声を取り込み(S501)、音源情報を分離、抽出する(S502)。そして、抽出された音源情報に対して、故人の声色情報を組み合わせる音声合成を実行すると共に(S503)、話し方の変換処理を実行する(S504)。
【0066】
なお、S504の話し方の変換処理では、オペレータの音声を音素に分解して音声認識処理を施すことで、音声をテキスト化する。そして、特定の単語や特定の文節等が現れたとき、その単語に所定パターンのイントネーションを割り当てる。例えば、「あんた、なにいってるの」という文節に対しては、3文字目の「た」と、最後から3文字目の「て」にアクセントを付けると良い。さらに、「た」を「たぁ」と音を伸ばすと共に、「て」の発音を(te)から(to)に近づけるように変更すると、名古屋弁らしくなる。なお、イントネーションを変更する対象の上記の特定の単語あるいは文節は、話し方情報が表す話し方の種別(方言の種類)に応じて異なる。話し方の種別によって、特徴ある単語や文節が相違するからである。
【0067】
本例のデジタルポートレート(動画出力システム)は、オペレータの音声の声色を変換すると共に話し方も変換する。このデジタルポートレートによれば、出力する音声を故人の音声により近づけることで、生前の故人の再現性を向上できる。
【0068】
なお、話者情報として、故人の話し方のうちの特徴あるイントネーションのパターンを音声データから抽出しておき、話者情報としてハードディスクに保存しておくことも良い。さらに、イントネーションのパターンには、テキストを対応付けておくと良い。音声変換部は、オペレータの音声を処理して得られたテキストを元にして、音声合成によりオペレータの音声を故人の音声に変換すると良い。テキストのうち、イントネーションのパターンに該当しない部分については、標準語に近いイントネーションを割り当てると良い。一方、イントネーションのパターンに係るテキストに該当する部分については、話者情報をなすイントネーションのパターンを割り当てると良い。
なお、その他の構成及び作用効果については実施例1と同様である。
【0069】
(実施例3)
本例は、実施例1のデジタルポートレート(動画出力システム)に基づいて、バックヤードのオペレータを必要としない構成例である。
本例の構成では、デジタルポートレートのハードディスクが、音声パターンを記憶する音声パターン記憶部としての機能を備えている。音声パターン記憶部としてのハードディスクには、故人が自発的に発話するパターン(自発パターン)や、問掛けに対する返答パターンなどの音声パターンが記録されている。デジタルポートレートは、音声パターンの音源情報に対して故人の声色情報を組み合わせる(加工)ことで、故人の音声を生成する。なお、音声パターンは、予め録音されたアナウンサーなどの音声でも良く、音声から分離、抽出された音源情報であっても良い。
【0070】
自発パターンとしては、例えば、「おはようございます。」、「ようこそお越し頂きました。」等の挨拶のパターンなどがある。自発パターンに基づく故人の音声は、所定の時刻になったときなどに出力しても良く、デジタルポートレートの前を誰かが横切ったときに出力しても良い。誰かが前を横切ったときの挨拶のパターンは、朝であれば「おはようございます。」、昼であれば「こんにちは。」等、時間帯に応じて変えると良い。デジタルポートレートは、選択された自発パターンの音源情報に対して、故人の声色情報を組み合わせることで故人の音声を生成し、出力する。
【0071】
返答パターンとしては、参列者との間で想定される問答に対応するパターンが用意される。デジタルポートレートは、参列者の問掛け音声の意味内容を特定し(音声認識処理)、対応する返答パターンを選択する。そして、返答パターンの音源情報に対して故人の声色情報を組み合わせることで返答パターンの故人の返答音声を生成し、出力する。
【0072】
本例のデジタルポートレートでは、オペレータが音声を入力しなくても、故人の声による発話、対話が可能である。
なお、自発パターンや返答パターンは、テキストであっても良い。故人の声色情報を利用し、故人の声色でテキストを読み上げることで故人の音声を生成できる。
自発パターンや返答パターンに係る故人の音声は、発話する際に音声合成等により生成しても良いが、各パターンを予め故人の音声に変換しておき、音声パターン記憶部としてのハードディスクに保存しておくことも良い。この場合には、各パターンが必要になったとき、ハードディスクから読み出して直ちに出力可能できる。故人の音声への変換処理は、デジタルポートレート本体で行っても良いが、別体のPC装置で変換した音声をデジタルポートレートに転送しても良い。音声の転送は、例えばUSBメモリなどの記録媒体を利用しても良く、WiFi(登録商標)等の無線通信を利用して転送しても良い。インターネットを経由して遠隔地のサーバ装置等から故人の音声をデジタルポートレートに転送しても良い。
なお、その他の構成及び作用効果については実施例1と同様である。
【0073】
(実施例4)
本例は、実施例1に基づいて、別体のPC装置100にて生成された動画をデジタルポートレート1が表示するように構成された動画出力システム1Sの例である。本例の内容について、
図10を参照して説明する。
本例のデジタルポートレート1は、業者が利用者に提供して運用されるレンタル機器である。デジタルポートレート1の利用者は、故人の静止画等を保存したUSBメモリ391等を一旦、業者に送るか引き渡すと、別体のPC装置100で生成された動画等が保存されたUSBメモリ391の返却を受けることができる。USBメモリ391を利用してやり取りする情報には、動画に加えて、音声を含めても良い。
【0074】
デジタルポートレート1を利用するに当たって、利用者は、デジタルポートレート1のUSB端子に、業者から返却されたUSBメモリ391を装着するだけで良い。USBメモリ391に保存された動画等は、出力装置としてのデジタルポートレート1のCPUによって自動的に読み出され、出力可能な状態になる。
【0075】
業者が予め用意する動画としては、目のまばたきのパターン、口の開閉パターン、微笑みのパターン、頷きのパターンなど、各種の動作パターンがある。デジタルポートレート1は、問掛け音声や、故人が発話する音声等の内容や、周囲の状況に応じて、動作パターンを組み合わせることで、故人を動画で表示する。
【0076】
本例は、デジタルポートレート1と別体のPC装置100との組み合わせにより動画出力システム1Sを構成した例である。本例の構成では、故人の静止画から3次元モデルを生成する故人モデル化部、故人の動画を生成する動画生成部などの機能を、外部のPC装置100に持たせている。本例の動画出力システム1Sでは、デジタルポートレート1の処理負担を軽減でき、製品コストを低減できる。
【0077】
なお、本例の構成では、デジタルポートレート1、及び外部のPC装置100の双方が、データのやり取りを実現するための構成を備えている必要がある。USBメモリ391等の記録媒体を利用してデータをやり取りする場合であれば、双方がUSBメモリ等の記録媒体から直接的あるいは間接的にデータを読み取るための構成が必要である。
【0078】
本例では、静止画や動画等のデータの記録媒体としてUSBメモリ391を例示しているが、記録媒体はUSBメモリ391に限定されず、SDカード、CD−Rなど様々な記録媒体を利用できる。
【0079】
利用者から業者への静止画等のデータ供給、及び業者から利用者への動画等のデータ供給のうちの少なくともいずれか一方については、USBメモリ391等の記録媒体を利用する態様に代えて、インターネットを利用する通信による態様により実現することも良い。
【0080】
デジタルポートレート1がWiFiあるいは有線LAN等の通信機能を備えており、インターネットに接続された状態であっても良い。この場合には、静止画あるいは音声のデータを保存するUSBメモリ391がUSB端子に装着されたとき、静止画等を自動的に読み出し、インターネット経由で業者が運用する専用サイトに静止画等のデータを送信すると良い。専用サイトにて、静止画に基づく動画等を生成して、送信元のデジタルポートレート1に返信するように構成すると良い。デジタルポートレート1では、専用サイトから受信した動画や音声を出力できる。この場合には、故人の静止画や故人の音声データを保存するUSBメモリ391をUSB端子に装着するだけで、デジタルポートレート1が故人の動画や音声を出力できるようになる。
【0081】
なお、静止画に基づいて動画を生成するアプリケーションソフト、あるいはそのアプリケーションソフトがインストールされたPC装置を、販売、貸与等により利用者に提供することも良い。この場合には、デジタルポートレート1の利用者が、自分のPC装置あるいは提供を受けたPC装置を利用して動画等を生成できる。生成した動画は、デジタルポートレート1にて出力可能である。
【0082】
なお、本例では、各種の動画パターンを保存したUSBメモリ391を利用者に返却しているが、動画生成に必要な故人の3次元モデルを保存したUSBメモリを利用者に返却することも良い。この場合には、デジタルポートレート1側で3次元モデルを適宜、変形させる処理を実行することで、故人の動画を生成できる。
なお、その他の構成及び作用効果については実施例1と同様である。
【0083】
(実施例5)
本例は、実施例1のデジタルポートレートに基づいて、インターネット101を介在してデジタルポートレート1を運用する動画出力システム1Sの例である。この内容について、
図11を参照して説明する。
【0084】
本例の動画出力システム1Sでは、故人の動画や音声を出力する出力装置であるデジタルポートレート1と、動画や音声を生成するサーバ装置100と、が別の場所に設置され、両者がインターネット101を介して通信可能に接続されている。オペレータ300は、サーバ装置100と通信可能に接続されたPC装置(図示略)を利用して、参列者の問掛け音声に対する返答が可能である。
【0085】
なお、オペレータ300のPC装置は、サーバ装置100とは別の場所に設置することも良い。インターネット101を利用すれば、サーバ装置100とPC装置との間でのデータ通信が可能になる。オペレータ300のPC装置を省略し、サーバ装置100に外部マイク31や外部モニタ33や外部スピーカ32等を設けることも良い。
【0086】
動画出力システム1Sでは、デジタルポートレート1にサーバ装置100が管理する専用サイトが登録されている。デジタルポートレート1は、例えばUSBメモリ391等の記録媒体から故人の静止画や、故人の音声データや、故人の情報等を読み込むと、上記の専用サイトに自動的にアクセスするアクセス手段を備えている。サーバ装置100が管理する専用サイトへの自動アクセスに応じて、USBメモリ391等の記録媒体に保存された故人の静止画や、故人の音声データや、故人の情報等が、サーバ装置100にアップロードされる。
【0087】
また、参列者がデジタルポートレート1の故人に問い掛けると、その問掛け音声や、参列者の撮像画像等がサーバ装置100にアップロードされ、オペレータ300のPC装置に転送される。また、オペレータの音声は、サーバ装置100に送信され、故人の音声に変換された上でデジタルポートレート1に送信される。デジタルポートレート1は、このようにサーバ装置100から受信した音声や動画を出力する。本例の動画出力システム1Sにおけるデジタルポートレート1は、参列者の問掛け音声や撮像画像をアップロードし、インターネット101を介して受信する動画や故人の音声等を出力するのみの端末となる。
【0088】
サーバ装置100は、故人情報記憶部、故人モデル化部、動画生成部、話者情報抽出部、音声変換部、音声認識部、としての機能を備えている。サーバ装置100は、参列者の問掛け音声の意味内容の特定、故人の3次元モデルの生成、故人の動画生成、オペレータの返答音声の変換等の処理を実行する。特に、故人の動画の生成に当たっては、音声の意味内容に応じた動作あるいは表情を実現できるように故人の動画を生成する。
【0089】
本例の構成では、例えば、故人の静止画や音声や情報を保存したUSBメモリ391等の記録媒体をデジタルポートレート1に装着したとき、インターネット経由で故人の静止画等がサーバ装置に送信されると良い。この構成では、USB端子、USBメモリからデータを読み取るCPU等が、故人の静止画を取得するための静止画取得部を構成している。この静止画取得部によって取得された静止画等は、デジタルポートレート1の識別情報を対応付けて、動画生成部としてのサーバ装置100にアップロードすると良い。サーバ装置100側では、動画生成部が生成する動画に対して、元データである静止画に係る識別情報を対応付けると良い。出力装置であるデジタルポートレート1の識別情報が動画に対応付けされていれば、対応するデジタルポートレート1に確実に動画を送信できる。
【0090】
なお、デジタルポートレート1から故人の静止画等が自動的あるい半自動的にサーバ装置100にアップロードされる構成に代えて、デジタルポートレート1の操作によりサーバ装置が管理する専用サイトにアクセスし、故人の静止画や音声をアップロードする構成を採用しても良い。故人の静止画等のアップロードの際、対応するデジタルポートレート1の識別情報を対応付けると良い。
なお、その他の構成及び作用効果については実施例1と同様である。
【0091】
(実施例6)
本例は、実施例1を元にして、動画の生成方法を変更した構成例である。この内容について、
図12を参照して説明する。
【0092】
本例の動画出力システムをなすデジタルポートレートには、バックヤードのオペレータを撮像する外部カメラが接続されている。デジタルポートレートは、オペレータの撮像画像を利用して、故人の動画を生成する構成を備えている。
【0093】
本例のデジタルポートレートが動画を生成する動作について、
図12のフロー図を参照して説明する。同図は、故人の3次元データを読み込み済みであることを前提とした処理の流れを説明するためのフロー図である。ここでは、デジタルポートレートが備えるメイン基板のCPU(
図3中の符号20)を主体として処理の内容を説明する。
【0094】
メイン基板のCPUは、バックヤードのオペレータの撮像画像を取り込み(S601)、撮像画像から顔領域の切り出しを実行する(S602)。そして、CPUは、オペレータの顔の特徴点を抽出し(S603)、故人の特徴点と、の対応付けを実行する(S604)。特徴点の対応付けは、例えば、オペレータの口元と故人の口元との対応付け、オペレータの目と故人の目との対応付け等、対応する部位の特徴点が対応付けられる。
【0095】
このような特徴点の対応付けがなされた状態で、CPUは、オペレータの撮像画像(動画)について、特徴点の動きを検出する(S605)。そしてCPUは、オペレータに係る各特徴点の動きの情報に基づき、故人に係る各特徴点に同様の動きが生じるように故人の3次元モデルを変形させる(S606)。そして、この3次元モデルに基づく動画を表示する(S607)。
【0096】
本例の構成によれば、オペレータと同様の表情および動作を、デジタルポートレートの中の故人に行わせることが可能である。例えば、参列者との会話中にオペレータが微笑めば、デジタルポートレートの故人も微笑むことになる。また、例えば、参列者との会話中にオペレータが頷けば、デジタルポートレートの故人が同様に頷くことになる。
なお、その他の構成及び作用効果については実施例1と同様である。
【0097】
(実施例7)
本例は、実施例1のデジタルポートレートに基づいて、動画の立体表示を可能とした構成例である。この内容について、
図13〜
図16を参照して説明する。
本例は、故人を立体的に表示するための立体表示部5が組み込まれたデジタルポートレートの例である。
立体表示部5(
図13)は、ハーフミラー50を利用して故人511を立体的に表示させるように構成されている。さらに、この立体表示部5では、立体的に表示された故人511と重ねて像531が表示される。
【0098】
立体表示部5は、参列者等の観者に対面して配設される透明なガラスパネル500の内側に、ハーフミラー50が斜めに配設された空間を有している。この空間の底面には、ハーフミラー50に対して斜めに対面するように液晶ディスプレイ51が配設されている。観者の視線は、ハーフミラー50によって曲げられて液晶ディスプレイ51に向かう。
【0099】
ハーフミラー50を介して観者と対面する空間の奥側の壁面53には、各種の像531が描かれている。本例では、仏様の背景に描かれることが多い蓮、鳥などの像531が壁面53に描かれている。観者は、ハーフミラー50を透して像531を見込むことが可能である。
【0100】
本例の立体表示部5では、ガラスパネル500の内側を見込む観者の視線の一部がハーフミラー50によって曲げられ、空間の底面に沿うように配設された液晶ディスプレイ51の故人511に向かう。一方、観者の視線の一部は、ハーフミラー50を通過して壁面53に向かっている。このとき、ガラスパネル500に対面している観者の目には、故人の立体像511Aと像531とが重なって視認される(
図14)。
【0101】
壁面53の奥行き方向の位置を調整することで、
図14のように観者に視認される像に奥行感を持たせることも可能である。例えば、壁面53を奥側に移動させれば、像531に対して故人511が飛び出しているように観者に感じさせることができる。
空間の底面に配設される液晶ディスプレイ51に代えて、液晶プロジェクターと映像を映し出すスクリーンとの組み合わせを採用することもできる。この場合、液晶ディスプレイ51に代えてスクリーンを配置すると共に、スクリーンと対面する空間の天井に液晶プロジェクターを配設すれば良い。
【0102】
本例では、壁面53として、像531を描いた壁面を例示しているが、これに代えて、液晶ディスプレイを壁面に設けることも良い。液晶ディスプレイを壁面に設ければ、故人の立体像511Aの背景の像の変更表示が可能である。
【0103】
本例に代えて、
図15の立体表示部5を採用しても良い。同図の立体表示部5では、ハーフミラー50の斜めの角度が変更されており、故人511を表示する液晶ディスプレイ51が空間の天井に沿って配設されている。また、観者と対面する壁面には、表示パネル53が配設されている。同図の表示パネル53は、光源となるLEDがちりばめて配置された光源パネルである。この表示パネル53では、一部または全部のLEDを選択的に点灯できる。
【0104】
さらに、
図15の立体表示部5では、ハーフミラー50が配設された空間が奥行き方向に延長されている。この立体表示部5では、故人511の立体像511Aの背面側に光源となるLEDが位置している。それ故、この立体表示部5では、故人511の立体像511Aが、表示パネル53の手前側に結像する。
【0105】
図15の立体表示部5では、観者が、背面側に光源であるLED538が位置する状態で、故人511の立体像511Aを視認できる(
図16)。観者側から見て、立体像511Aよりも離れた位置で点灯するLED538は、立体像511Aに一層の奥行感を与えるという効果を生じさせる。例えば、
図16のLED538を結ぶ多角形状の相似形を維持したまま、多角形状の大きさが次第に小さくなるように点灯状態のLEDを切り替えることも良い。この場合には、背景が遠ざかるのに相対して、立体像511Aが手前側にせり出すように観者に感じさせることができる。なお、LED538をちりばめた表示パネル53に代えて、液晶ディスプレイを採用することも良い。
なお、その他の構成及び作用効果については実施例1と同様である。
【0106】
(実施例8)
本例は、実施例7のデジタルポートレートに基づいて、故人の全身表示の動画を立体的に表示可能に構成した例である。この内容について、
図17及び
図18を参照して説明する。本例のデジタルポートレート1は、
図17のように故人の全身表示が可能であるうえ、故人を立体的に表示可能である。
【0107】
デジタルポートレート1が備える立体表示部5の構造について、
図17中のA−A矢視断面の構造を示す
図18の断面図を参照して説明する。立体表示部5は、参列者等の観者に対面して配設される透明なガラスパネル500の内側に、ハーフミラー50が斜めに配設された空間を有している。この空間の側面には、ハーフミラー50に対して斜めに対面するように故人511の全身を動画表示する液晶ディスプレイ51が配設されている。
【0108】
この立体表示部5によれば、ハーフミラー50の裏側に結像する立体像511Aを観者に視認させることができる。このデジタルポートレート1は、例えば、葬儀会場のエントランス等への設置に好適である。
【0109】
本例に代えて、透明スクリーン52と、下方から斜め上方に向けて透明スクリーン52に像を投影するプロジェクタ521と、を備える
図19のデジタルポートレート1を採用することも良い。このデジタルポートレート1では、透明スクリーン52に、故人の像521Aを結像できる。観者にとっては、故人の像521Aが空間に浮かぶ立体像として視認できる。
なお、その他の構成及び作用効果については実施例7と同様である。
【0110】
以上、実施例のごとく本発明の具体例を詳細に説明したが、これらの具体例は、特許請求の範囲に包含される技術の一例を開示しているにすぎない。言うまでもなく、具体例の構成や数値等によって、特許請求の範囲が限定的に解釈されるべきではない。特許請求の範囲は、公知技術や当業者の知識等を利用して前記具体例を多様に変形、変更あるいは適宜組み合わせた技術を包含している。
本発明の動画出力システムは、集音マイクを介して入力された音声を加工し、声色及び話し方の少なくともいずれかが異なる音声に変換して出力可能である。さらに、この動画出力システムは、