(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0012】
<実施形態>
図1〜
図9を参照して、本実施形態に係るカラオケ装置1について説明する。
【0013】
==カラオケ装置==
カラオケ装置1は、歌唱者が選曲した楽曲のカラオケ演奏及び歌唱者がカラオケ歌唱を行うための装置である。
図1に示すように、カラオケ装置1は、カラオケ本体10、スピーカ20、表示装置30、マイク40、及びリモコン装置50を備える。
【0014】
スピーカ20はカラオケ本体10からの放音信号に基づいて放音するための構成である。表示装置30はカラオケ本体10からの信号に基づいて映像や画像を画面に表示するための構成である。マイク40は歌唱者の歌唱音声(マイク40からの入力音声)をアナログの歌唱音声信号に変換してカラオケ本体10に入力するための構成である。
【0015】
(カラオケ本体のハードウェア)
図1に示すように、カラオケ本体10は、制御部11、通信部12、記憶部13、音響処理部14、表示処理部15及び操作部16を備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。
【0016】
カラオケ本体10は、選曲された楽曲のカラオケ演奏制御、歌詞や背景画像等の表示制御、マイク40を通じて入力された歌唱音声信号の処理といった、カラオケ歌唱に関する各種の制御を行う。
【0017】
制御部11は、CPU11aおよびメモリ11bを備える。CPU11aは、メモリ11bに記憶された動作プログラムを実行することにより各種の制御機能を実現する。メモリ11bは、CPU11aに実行されるプログラムを記憶したり、プログラムの実行時に各種情報を一時的に記憶したりする記憶装置である。
【0018】
通信部12は、ルーター(図示なし)を介してカラオケ本体10を通信回線に接続するためのインターフェースを提供する。
【0019】
記憶部13は、各種のデータを記憶する大容量の記憶装置であり、たとえばハードディスクドライブなどである。記憶部13は、カラオケ装置1によりカラオケ演奏を行うための複数の楽曲データを記憶する。
【0020】
楽曲データは、個々のカラオケ楽曲を特定するための識別情報(楽曲ID)が付与されている。楽曲データは、伴奏データ、リファレンスデータ、背景画像データ、歌詞データ及び属性情報を含む。伴奏データは、カラオケ演奏音の元となるMIDI形式のデータである。リファレンスデータは、歌唱者によるカラオケ歌唱を採点する際の基準として用いられるデータである。リファレンスデータは、ピッチ(音高)データ、音長データ、タイミングデータ等を含む。背景画像データは、カラオケ演奏時に合わせて表示装置30等に表示される背景画像に対応するデータである。歌詞データは、表示装置30等に表示させる歌詞(歌詞テロップ)に関するデータである。属性情報は、曲名、歌手名、作詞・作曲者名、及びジャンル等の当該楽曲に関する情報である。
【0021】
音響処理部14は、制御部11の制御に基づき、カラオケ楽曲に対する演奏の制御およびマイク40を通じて入力された歌唱音声信号の処理を行う。音響処理部14は、たとえばMIDI音源、ミキサ、アンプ(いずれも図示なし)を含む。制御部11は、予約された楽曲の伴奏データを、テンポクロック信号に基づいて順次読み出し、MIDI音源に入力する。MIDI音源は、当該伴奏データに基づいて楽音信号を生成する。ミキサは、当該音楽信号およびマイク40から出力される歌唱音声信号を適当な比率でミキシングしてアンプに出力する。アンプは、ミキサからのミキシング信号を増幅し、放音信号としてスピーカ20へ出力する。これにより、スピーカ20からは放音信号に基づくカラオケ演奏音およびマイク40からの歌唱音声が放音される。
【0022】
表示処理部15は、制御部11の制御に基づき、表示装置30における各種表示に関する処理を行う。たとえば、表示処理部15は、カラオケ演奏時における背景画像に歌詞や各種アイコンが重ねられた映像を表示装置30に表示させる制御を行う。
【0023】
操作部16は、パネルスイッチおよびリモコン受信回路などからなり、歌唱者によるカラオケ装置1のパネルスイッチあるいはリモコン装置50の操作に応じて選曲信号、演奏中止信号などの操作信号を制御部11に対して出力する。制御部11は、操作部16からの操作信号を検出し、対応する処理を実行する。
【0024】
リモコン装置50は、カラオケ本体10に対する各種操作をおこなうための装置である。歌唱者はリモコン装置50を用いて歌唱を希望するカラオケ楽曲の選曲(予約)等を行うことができる。
【0025】
(カラオケ本体のソフトウェア)
図2はカラオケ本体10のソフトウェア構成例を示す図である。カラオケ本体10は、単語−感情タイプデータベース100、曲調−感情タイプデータベース200、感情リファレンスデータ取得部300、歌唱感情データ生成部400、感情表現評価部500、採点処理部600、及びカラオケ歌唱評価部700を備える。単語−感情タイプデータベース100、及び曲調−感情タイプデータベース200は、記憶部13の記憶領域の一部として提供される。感情リファレンスデータ取得部300、歌唱感情データ生成部400、感情表現評価部500、採点処理部600、及びカラオケ歌唱評価部700は、CPU11aがメモリ11bに記憶されるプログラムを実行することにより実現される。
【0026】
[単語−感情タイプデータベース]
単語−感情タイプデータベース100は、様々なカラオケ楽曲の歌詞に含まれる単語それぞれに対し、感情タイプを関連付けたものである。感情タイプは、喜怒哀楽等の一般的な感情表現に相当する。
図3は、単語−感情タイプデータベース100に記憶されるデータの一部を示したものである。この例では、感情タイプとして、「喜び」、「怒り」、「哀しみ」の3つが設定されている。各単語には、感情タイプ毎に所定のスコア(この例では1〜5点の5段階)が付与されている。たとえば、単語「いない」に対しては、感情タイプ毎に「喜び:1点、怒り:3点、哀しみ:5点」のスコアが付与されている。
【0027】
[曲調−感情タイプデータベース]
曲調−感情タイプデータベース200は、カラオケ楽曲に使用される曲調と感情タイプとを関連付けたものである。
図4は、曲調−感情タイプデータベース200に記憶されるデータの一部を示したものである。この例では、
図3と同様、感情タイプとして、「喜び」、「怒り」、「哀しみ」の3つのタイプが設定されている。
図4の例では、複数のコードで曲調を分類している。各コードには、感情タイプ毎に所定のスコア(この例では1〜5点の5段階)が付与されている。たとえば、メジャーコードに対しては、感情タイプ毎に「喜び:5点、怒り:1点、哀しみ:1点」のスコアが付与されている。また「メジャー」とは、例えばC、E、F、Gなどのメジャーコード(長調の和音)であり、「マイナー」とは、例えばDm、Em、Amなどのマイナーコード(短調の和音)である。
【0028】
なお、一の単語または一の曲調に対しては、少なくとも一つの感情タイプが関連付けられていればよい。たとえば、ある単語(ある曲調)に対して最も支配的な感情タイプを一つだけ関連付けることも可能であるし、逆に4つ以上の感情タイプを関連付けることでもよい。また、単語−感情タイプデータベース100に登録されていない単語が歌詞の中で使われている可能性もありうる。そこで、単語−感情タイプデータベース100は、「その他」として「喜び:1点、怒り:1点、哀しみ:1点」のようなスコアを記憶してもよい。
【0029】
[感情リファレンスデータ取得部]
感情リファレンスデータ取得部300は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する。
【0030】
カラオケ楽曲の各歌唱区間は、それぞれ歌唱にふさわしい雰囲気がある。すなわち、カラオケ楽曲を歌唱する際には、歌唱区間毎に表現すべき適切な感情が存在する。たとえば、哀しい雰囲気を持ったカラオケ楽曲に対しては、哀しみの感情表現を行うことが適切である。感情リファレンスデータは、このような感情表現が適切に行われているかどうかを判断する際に参照するデータである。感情リファレンスデータの取得は、カラオケ楽曲の歌詞及び曲調の少なくとも一方に基づいて行われる。
【0031】
図5は、カラオケ楽曲Xに含まれる歌唱区間毎の歌詞、及び曲調を示したものである。各歌詞は複数の単語から構成されている。感情リファレンスデータ取得部300は、
図5に示した歌唱区間毎に、感情リファレンスデータを取得する。
【0032】
たとえば、歌唱区間Aの歌詞は「あなたは」及び「いない」の2つの単語を含む。また、歌唱区間Aのコードは「Am」である(
図5参照)。
【0033】
この場合、感情リファレンスデータ取得部300は、単語−感情タイプデータベース100から単語「あなたは」及び単語「いない」それぞれについて、感情タイプ毎のスコアを読み出す。
図3の例を参照すると、単語「あなたは」は「喜び:5点、怒り:3点、哀しみ:5点」のスコアであり、単語「いない」は「喜び:1点、怒り:3点、哀しみ:5点」のスコアである。
【0034】
感情リファレンスデータ取得部300は、歌唱区間Aの歌詞(2つの単語)について読み出したスコアを感情タイプ毎に加算する。歌唱区間Aの例では、「喜び:6点、怒り:6点、哀しみ:10点」となる。
【0035】
また、感情リファレンスデータ取得部300は、曲調−感情タイプデータベース200からコード「Am」について、感情タイプ毎のスコアを読み出す。
図4の例を参照すると、コード「Am」はマイナーであるので「喜び:1点、怒り:3点、哀しみ:5点」のスコアである。
【0036】
感情リファレンスデータ取得部300は、歌唱区間Aの歌詞に基づくスコア(喜び:6点、怒り:6点、哀しみ:10点)と、歌唱区間Aの曲調に基づくスコア(喜び:1点、怒り:3点、哀しみ:5点)とを感情タイプ毎に加算した合計スコア(喜び:7点、怒り:9点、哀しみ:15点)を求める。本実施形態においては、一の歌唱区間に含まれる複数の単語から成る歌詞に基づくスコアと、一の曲調に基づくスコアを単純に加算したが、歌唱区間の長さや単語及び曲調の数などに応じて、重み付けをして加算してもよい。
【0037】
感情リファレンスデータ取得部300は、残りの歌唱区間B〜Hについても同様に感情タイプ毎の合計スコアを求める(
図6A参照)。そして、感情リファレンスデータ取得部300は、感情タイプ毎に加算した合計スコアの比率を歌唱区間毎に算出することで感情リファレンスデータを取得する(
図6B参照)。このように、感情リファレンスデータは、感情タイプ毎の数値として取得することができる。
【0038】
なお、本実施形態では、歌詞(単語)及び曲調に基づいて感情リファレンスデータを取得する例について述べたが、いずれか一方のみ(たとえば、単語のみ)に基づいて感情リファレンスデータを取得してもよい。また、感情リファレンスデータは、感情タイプの比率に基づく数値でなくてもよい。たとえば、感情リファレンスデータは、ある歌唱区間について、最もスコアが高い感情タイプを100点とし、それ以外の感情タイプを0点としてもよい。
図6Bの歌唱区間Aの例でいえば、最もスコアが高い「哀しみ」を100点とし、「喜び」及び「怒り」を0点とすることでもよい。また、本実施形態においては、一の歌唱区間に一のコード(曲調)が含まれている例で説明したが、一の歌唱区間に複数のコードが含まれている場合もありうる。その場合、感情リファレンスデータ取得部300は、複数のコードのスコアを感情タイプ毎に合計したものを一の歌唱区間のスコアとして取得してもよい。
【0039】
[歌唱感情データ生成部]
歌唱感情データ生成部400は、カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを歌唱区間毎に生成する。
【0040】
歌唱感情データは、実際のカラオケ歌唱に込められた感情表現を示すデータである。本実施形態において、歌唱感情データは数値で示される。歌唱感情データは歌唱音声を感情分析することにより得られる。感情分析は、公知の技術(たとえば、特許文献2や「音声こころ分析サービス」(株式会社日立システムズ))を利用することができる。具体例として、歌唱感情データ生成部400は、歌唱音声から感情の込め方と相関のある感情特徴量を抽出する。また、歌唱感情データ生成部400は、抽出された感情特徴量に基づいて、歌唱に込められた感情を分析する。感情分析は、所定の歌唱区間毎に行われる。そして、歌唱感情データ生成部400は、感情分析により得られた情報を数値化し、所定の感情タイプに分類することで、歌唱区間毎の歌唱感情データを生成する。
【0041】
或いは、公知の人工知能技術を利用して歌唱感情データを生成することも可能である。たとえば、音声感情認識エンジンSTにより、会話音声から喜び、怒り、哀しみなどの感情状態と10段階の興奮の強さを検出する機能を有するPC用開発支援キット「ST Emotion SDK」(株式会社AGI)が存在する。歌唱感情データ生成部400がこのようなキットと同様の機能を備え、歌唱音声の感情分析を機械学習させることで歌唱者の感情を検出することが可能となる。この場合、歌唱感情データ生成部400は、検出した情報を数値化し、所定の感情タイプに分類することで、歌唱区間毎の歌唱感情データを生成することができる。
【0042】
図7は、歌唱者が
図5に示したカラオケ楽曲Xの歌詞を歌唱した場合の歌唱感情データを示す。この例では、歌唱区間毎に感情分析結果を3つの感情タイプに分類した歌唱感情データを生成している。また、
図7の例では、3つの感情タイプの合計スコアが100点以下になるように調整されている。なお、歌唱感情データは、ある歌唱区間について、最もスコアが高い感情タイプを100点とし、それ以外の感情タイプを0点としてもよい。また、一の歌唱区間に対しては、少なくとも一つの感情タイプが関連付けられていればよい。たとえば、歌唱区間に対して最も支配的な感情タイプを一つだけ関連付けることも可能であるし、逆に4つ以上の感情タイプを関連付けることでもよい。
【0043】
[感情表現評価部]
感情表現評価部500は、感情リファレンスデータと歌唱感情データとを比較することにより、歌唱区間毎の感情表現の評価を行う。
【0044】
感情表現の評価は、カラオケ歌唱に感情がどれだけ込められているかを数値化することにより行う。具体的に、感情表現評価部500は、感情タイプ毎に感情リファレンスデータと歌唱感情データとの比較を行い、感情タイプ毎に得られたスコアを合計した値により感情表現の評価を行う。この場合、感情リファレンスデータ及び歌唱感情データは、共通する複数の感情タイプで構成されていることが好ましい。
【0045】
たとえば、感情リファレンスデータ取得部300が
図6Bに示す感情リファレンスデータを取得し、歌唱感情データ生成部400が
図7に示す歌唱感情データを生成したとする。
【0046】
この場合、感情表現評価部500は、歌唱区間Aについて、感情タイプ毎に感情リファレンスデータのスコアと歌唱感情データのスコアとのANDを取る。具体的には、「喜び:23点&10点=10点」、「怒り:29点&0点=0点」、「哀しみ:48点&20点=20点」となる。そして、感情表現評価部500は、各感情タイプのスコアを合計した値(10点+20点=30点)を歌唱区間Aの評価とする。感情表現評価部500は、歌唱区間B〜Hについても同様の処理を行い、歌唱区間毎に感情表現を評価する(
図8参照)。なお、ある歌唱区間における感情リファレンスデータのスコアが100点を満点とし、ある歌唱区間における歌唱感情データのスコアの最大値が100点であるため、歌唱区間毎の評価は100点が満点となる。
【0047】
感情表現評価部500は、評価結果を歌唱者に提示することができる。たとえば、感情表現評価部500は、
図8に示す評価結果を表示装置30に表示させることが可能である。或いは、感情表現評価部500は、歌唱区間毎のスコアの平均値(
図8の例であれば、53.125点)を算出し、当該平均値を提示することも可能である。
【0048】
なお、感情リファレンスデータにおいて、最もスコアの高い感情タイプを100点とし、それ以外を0点とし、歌唱感情データにおいて最もスコアの高い感情タイプ以外を0点とした場合、感情表現評価部500においては実質的に、歌唱区間毎に支配的な感情タイプが一致するか否かという観点で評価がなされる事になる。
【0049】
[採点処理部]
採点処理部600は、歌唱音声から抽出した歌唱音声データを、音高、音量及び歌唱技法の少なくとも一つに基づいて採点することにより採点値を算出する。
【0050】
カラオケ歌唱の採点は、公知の技術を利用することができる。たとえば、採点処理部600は、マイク40から入力された歌唱音声信号から、ピッチ(音高)データ、音量データ等の歌唱音声データを抽出し、カラオケ楽曲のリファレンスデータと比較することにより、採点値を算出する。
【0051】
[カラオケ歌唱評価部]
カラオケ歌唱評価部700は、カラオケ楽曲の歌唱に基づく感情表現の評価及び採点値に基づいて、カラオケ楽曲の歌唱の評価を行う。
【0052】
本実施形態におけるカラオケ歌唱の評価は、リファレンスデータに沿ったカラオケ歌唱が行われたか、及び適切な感情表現が行われたかを総合的に評価することにより行う。
【0053】
たとえば、カラオケ楽曲X全体の感情表現評価部500による各歌唱区間の感情表現の評価の平均値が60点であり、採点処理部600による採点結果が85点であったとする。
【0054】
この場合、カラオケ歌唱評価部700は、これらのスコアを用いてカラオケ楽曲Xの歌唱評価を行う。たとえば、「採点結果:感情表現の評価=9:1」の重み付けが設定されている場合、カラオケ歌唱評価部700は、(85点×0.9)+(60点×0.1)=82.5点をカラオケ楽曲Xの歌唱評価のスコアとして算出する。
【0055】
或いは、感情表現の評価を採点結果に対する10%のボーナス点として加算する場合、カラオケ歌唱評価部700は、85点+(60点×0.1)=91点をカラオケ楽曲Xの歌唱評価のスコアとして算出する。なお、このように加算方式を採用する場合、上限は、カラオケ装置1の採点機能が備える最大値(たとえば100点)とすることが好ましい。
【0056】
カラオケ歌唱評価部700は、評価結果を歌唱者に提示することができる。たとえば、カラオケ歌唱評価部700は、算出したスコアを表示装置30に表示させることが可能である。
【0057】
==カラオケ装置1の動作について==
次に、
図9を参照して本実施形態におけるカラオケ装置1の動作の具体例について述べる。
図9は、カラオケ装置1の動作例を示すフローチャートである。
【0058】
カラオケ装置1は、歌唱者が選曲したカラオケ楽曲Xの伴奏データに基づいてカラオケ演奏を行う(カラオケ演奏。ステップ10)。歌唱者はカラオケ演奏に合わせてカラオケ歌唱を行う。
【0059】
カラオケ楽曲Xのカラオケ歌唱が終了した後、感情リファレンスデータ取得部300は、カラオケ楽曲Xを歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する(感情リファレンスデータの取得。ステップ11)。
【0060】
歌唱感情データ生成部400は、カラオケ楽曲Xを歌唱することにより得られた歌唱音声を感情分析し、歌唱区間毎に歌唱感情データを生成する(歌唱感情データの生成。ステップ12)。
【0061】
感情表現評価部500は、ステップ11で取得した感情リファレンスデータと、ステップ12で生成した歌唱感情データとを比較することにより、歌唱区間毎の感情表現の評価を行う(感情表現の評価。ステップ13)。
【0062】
採点処理部600は、カラオケ楽曲Xを歌唱することにより得られた歌唱音声から抽出した歌唱音声データをリファレンスデータと比較することで、採点値を算出する(採点値の算出。ステップ14)。
【0063】
カラオケ歌唱評価部700は、ステップ13で行われた感情表現の評価、及びステップ14で算出された採点値に基づいて、カラオケ楽曲Xの歌唱評価を行う(カラオケ歌唱の評価。ステップ15)。
【0064】
なお、上記例では、カラオケ楽曲Xのカラオケ歌唱が終了した後に処理する例について述べたが、感情表現の評価は、少なくとも一の歌唱区間のカラオケ歌唱が終了した後に行われることでもよい。たとえば、歌唱区間Aの歌唱終了後に上記ステップ11〜14の処理を行い、歌唱区間Bの歌唱終了後に上記ステップ11〜14の処理を行い、歌唱区間Cの歌唱終了後に・・・・というように、カラオケ楽曲Xの終了までステップ11〜14の処理を繰り返し行い、最後に各歌唱区間における感情表現の評価と採点値に基づいて、カラオケ楽曲Xの歌唱評価を行ってもよい。
【0065】
また、感情リファレンスデータは、カラオケ楽曲の歌詞や曲調に基づいて生成したものを記憶部13に記憶しておくことでもよい。この場合、感情リファレンスデータ取得部300は、記憶部13から感情リファレンスデータを直接取得する。
【0066】
このように本実施形態に係るカラオケ装置1は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する感情リファレンスデータ取得部300と、カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを歌唱区間毎に生成する歌唱感情データ生成部400と、感情リファレンスデータと歌唱感情データとを比較することにより、歌唱区間毎の感情表現の評価を行う感情表現評価部500とを有する。
【0067】
歌唱音声を感情分析した歌唱感情データと感情リファレンスデータとを比較することにより、カラオケ楽曲の雰囲気を考慮した感情表現がなされている場合には評価が高くなる。一方、単に大きな声で歌唱した場合のように、雰囲気を考慮しない歌唱は評価が低くなる。すなわち、本実施形態に係るカラオケ装置1によれば、カラオケ楽曲の雰囲気にふさわしい感情表現で歌唱が行われているかを適切に評価できる。
【0068】
また、本実施形態に係るカラオケ装置1において、感情リファレンスデータ及び歌唱感情データは、共通する複数の感情タイプで構成され、感情表現評価部500は、感情タイプ毎に感情リファレンスデータと歌唱感情データとの比較を行う。このように、複数の感情タイプ毎に感情リファレンスデータと歌唱感情データとの比較を行うことにより、カラオケ楽曲の雰囲気にふさわしい感情表現がなされているかどうかをより正確に判断できる。
【0069】
また、本実施形態に係るカラオケ装置1は、歌唱音声から抽出した歌唱音声データを、音高、音量及び歌唱技法の少なくとも一つに基づいて採点することにより採点値を算出する採点処理部600と、カラオケ楽曲の歌唱に基づく感情表現の評価及び採点値に基づいて、カラオケ楽曲の歌唱の評価を行うカラオケ歌唱評価部700と、を有する。このようなカラオケ装置1によれば、感情表現の評価を含むカラオケ歌唱の総合評価を行うことができる。
【0070】
また、感情リファレンスデータ取得部300は、カラオケ楽曲の歌詞及び曲調の少なくとも一方に基づいて、感情リファレンスデータを取得する。このように、カラオケ楽曲の歌詞及び曲調の少なくとも一方を用いることにより、カラオケ楽曲の雰囲気を反映した感情リファレンスデータの取得が可能となる。
【0071】
<変形例>
上記実施形態では、感情リファレンスデータ取得部300が、カラオケ楽曲の歌詞及び曲調に基づいて、感情リファレンスデータを取得する例について述べた。
【0072】
図10は、本変形例に係るカラオケ本体10のソフトウェア構成例を示す図である。カラオケ本体10は、感情リファレンスデータ取得部300、歌唱感情データ生成部400、感情表現評価部500、採点処理部600、カラオケ歌唱評価部700、及び感情リファレンスデータ記憶部800を備える。感情リファレンスデータ記憶部800は、記憶部13の記憶領域の一部として提供される。
【0073】
[感情リファレンスデータ記憶部]
感情リファレンスデータ記憶部800は、カラオケ楽曲の原曲歌手の歌唱音声を感情分析した歌唱感情データに基づく感情リファレンスデータを記憶する。原曲歌手は、カラオケ楽曲を歌唱するプロの歌手等であり、カラオケ楽曲の歌唱を最も上手く歌える者である。すなわち、各歌唱区間における感情表現も正確に再現することができる。
【0074】
感情リファレンスデータの記憶は、たとえば新たなカラオケ楽曲が配信される都度行われる。具体的に、歌唱感情データ生成部400は、新たなカラオケ楽曲の原曲歌手の歌唱分析を行い、複数の感情タイプからなる歌唱感情データを生成する。歌唱感情データ生成部400は、歌唱感情データを元に、複数の感情タイプの比率を100点満点で正規化し、感情リファレンスデータとして記憶する。
図11は、上記実施形態における歌唱区間A〜Hの感情リファレンスデータの例を示した図である。
図11から明らかなように、いずれの歌唱区間においても感情タイプの合計スコアが100点満点になるように設定されている。
【0075】
[感情リファレンスデータ取得部]
本変形例に係る感情リファレンスデータ取得部300は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する。
【0076】
感情リファレンスデータ取得部300は、感情リファレンスデータ記憶部800から感情リファレンスデータを取得する。たとえば、カラオケ楽曲Xが選曲された場合、感情リファレンスデータ取得部300は、感情リファレンスデータ記憶部800からカラオケ楽曲Xの感情リファレンスデータを読み出す。
【0077】
このように、本変形例に係るカラオケ装置1によれば、感情表現の評価を行う都度、感情リファレンスデータを算出する必要が無い。また、原曲歌手の歌唱音声から感情リファレンスデータを作成することで、原曲歌手の歌唱に沿った適切な感情表現の評価が可能となる。
【0078】
<その他>
上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。