(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0015】
以下、本発明の実施形態を図により説明する。
図1に本発明に係るカラオケ装置のブロック構成図を示すと共に、
図2に
図1の単音節テーブル及び2連音節テーブルの説明図を示し、
図3にリファレンス特定対象の歌詞データの説明図を示し、
図4に
図1の検出装置のブロック構成図を示す。
【0016】
図1において、カラオケ装置11は、主要装置としてのカラオケ本体12に、有線又は無線で外部接続されるものとして、表示部13、ミキシングアンプ14、マイク15、スピーカ16、遠隔入出力装置17が接続されることで構成され、当該カラオケ本体12は、所定数の検出装置18(18A〜18N)に対して通信自在とされる(検出装置18については
図4で説明する)。
【0017】
上記表示部13は、通常の楽曲選曲表示やカラオケ演奏時の背景映像等を表示するもので、例えば液晶ディスプレイ(LCD)、プラズマディスプレイ(PDP)、その他種々のディスプレイを採用することができる。上記ミキシングアンプ14は、カラオケ本体12より送られてくる音楽演奏信号に、マイク15からの音声信号をミキシングし、増幅してスピーカ16より出力する。
【0018】
上記遠隔入出力装置17は、図示しない端末送受信部により、カラオケ本体12に対して有線方式ないし無線方式(IR方式やブルートゥース(登録商標)機構のピコネット接続方式など)を利用してデータ授受を行うためのもので、少なくともログイン・ログアウト処理手段17A、楽曲検索手段である選曲楽曲登録手段17B、検出装置選択手段17C及びリモコン表示部17Dを適宜備える。
【0019】
上記ログイン・ログアウト処理手段17Aは、利用者によるログイン操作に応じて当該利用者より利用者名や利用者IDを取得し、RAM23に利用者情報42として記憶してログインを許可する処理を行うと共に、ログアウト操作に応じて利用終了の処理を行うプログラムである。なお、遠隔入出力装置17は後述のGUI機能によって利用者が歌唱したい楽曲を検索して予約することが可能であるが、利用者は先にカラオケ装置11にログインしていることが望ましい。
【0020】
上記選曲楽曲登録手段17Bは、楽曲IDや曲名、アーチスト名などのデータからなるテーブルに基づいて、利用者が所望する楽曲を検索させ、選曲された楽曲の楽曲IDをカラオケ本体12に送信するプログラムである。送信された楽曲IDは、カラオケ本体12におけるRAM23予約待ち行列41に登録される。
【0021】
上記検出装置選択手段17Cは、検出装置18とログインした利用者とを対応付けるプログラムである。具体的には、リモコン表示部17Dに、既にカラオケ装置11とペアリングがなされている検出装置18A〜18Nのリストを表示させ、当該リストの中から、自分の使用する検出装置18を選択することで利用者と検出装置18とを対応付け、その情報をRAM23に利用者情報42の一つとして記憶する。そして、利用者は楽曲予約時に、歌唱者として自分を選択した上で予約操作を行えば、当該楽曲の演奏時にカラオケ装置11は、当該利用者に対応付けられている検出装置18からの検出信号のみを受信することになる。
【0022】
上記リモコン表示部17Dは、液晶ディスプレイ(LCD)とタッチセンサとを積層して入出力用とし、表示されるアイコン等に対応して当該タッチセンサにより楽曲の選択などのデータを入力することができるGUIのユーザインタフェース機能を有するものである。
【0023】
上記カラオケ本体12は、バス20、中央制御部21、ROM22、RAM23、映像表示制御手段24、音楽演奏制御部25、音源(シンセサイザ)25A、採点手段26、A/D変換部26A、送受信部27、記憶部28、検出信号受信部31、検出動作識別手段32、音節特定手段33、リファレンス特定手段34及び比較評価処理手段35を備える。音節特定手段33及びリファレンス特定手段34によりリファレンス情報処理手段を構成する。
【0024】
上記RAM23には予約待ち行列41、利用者情報42、対象歌詞データ43、リファレンスデータ44及び比較結果データ45の記憶領域が形成される。また、記憶部28には、楽曲データベース(楽曲DB)51、映像データベース(映像DB)52、リファレンスデータベース(リファレンスDB)53、単音節テーブル54及び2連音節テーブル55が記憶される。なお、上記各構成について、本発明の要旨と直接関連しない要素部分であっても、従前のカラオケシステムにおいても大部分が適用可能であることを示すために、構成要素の全体を説明する。
【0025】
上記中央制御部21は、このシステムを統括的に処理制御する物理的なCPUであり、ROM22に記憶されているプログラムに基づくアルゴリズム処理を行う。上記RAM23は、予約待ち行列41、利用者情報42、対象歌詞データ43、リファレンスデータ44及び比較結果データ45の記憶領域が形成される他に、上記種々のプログラムを展開、実行させるための作業領域としての役割をなすもので、例えば半導体メモリで構成され、仮想的にハードディスク上に構築される場合をも含む概念である。
【0026】
RAM23に記憶される上記対象歌詞データ43は、予約待ち行列41に選曲予約登録された楽曲IDに基づく楽曲DB51より読み出した歌詞データである。この楽曲の歌詞データは、
図3に示すように、全歌詞文字を適宜な小節ごとに区切った頁と、表示部13等に表示される横1列分の文字列で区切った行、各文字の文字番号と文字コード、歌詞本文かルビかの種別コード、表示部13等の画面の表示位置を示す表示レイアウト、各文字についての演奏時系列上で色変え処理する色変えタイミングからなる。当該色替えタイミングは、色変え開始時間と終了時間からなり、例えば演奏開始からの経過時間をms単位で表したものである。
【0027】
すなわち、この歌詞データは頁と行によって区分されており、頁は表示部13の1画面分における最大表示単位、行は表示部13等に表示したときの横1行分の文字列であり、この頁、または行が後述のリファレンス特定手段34において複数のフレーズ区間に区分され(
図5参照)、後述の顎の動きに応じた開閉動作状態の特定処理を行う。なお、読み出し処理は、予約待ち行列41に予約登録されて演奏開始時に中央制御部21により行われるが、この処理に特化したプログラムを別に備えさせてもよい。
【0028】
RAM23に記憶される比較結果データ45は、比較評価処理手段35による比較結果であり、音節ごとにリアルタイムで記憶されていくもので、歌唱終了した時点で歌唱全体の全比較結果のデータとなる。
【0029】
上記映像表示制御手段24は、演奏時に、映像DB52より抽出された背景映像及び楽曲DB51より抽出された楽曲の歌詞データを表示部13に出力するプログラム乃至電子回路である。なお、比較評価処理手段35における評価を表示させることとしてもよい。上記音楽演奏制御部25は、例えばシーケンスプログラムを備え、楽曲IDで楽曲DB51より抽出された音符データに従って音源(シンセサイザ)25Aを駆動するもので、当該音源25Aの出力は演奏信号としてミキシングアンプ14に出力される。
【0030】
上記採点手段26は、利用者による歌唱音声のピッチを検出して後述の楽曲ごとの主旋律のリファレンスデータの各音高と比較することにより採点するもので、マイク15から入力されA/D変換部26Aでデジタル変換された音声信号を、歌唱採点するためのリファレンスデータに基づいて採点処理を行うプログラムである。具体的には、例えば特許第4222915号公報に記載されている手法を用いることができる。
【0031】
上記送受信部27は、遠隔入出力装置17との間で有線方式ないし無線方式(IR方式やブルートゥース(登録商標)機構のピコネット接続方式など)を利用してデータ授受を行うためのもので、そのための電子回路及びプログラムである。
【0032】
上記記憶部28に記憶されている楽曲DB51は、楽曲毎に、音符データ、歌詞データなどを格納する。演奏に関して、具体的には、楽曲ID、曲名及びアーチストID(アーチスト名)が関連付けられた楽曲テーブルを有し、楽曲毎に、楽曲IDで管理される所定データ形式のカラオケ楽曲の演奏データ(例えば、MIDI(登録商標)形式の旋律パートの音符ごとの楽譜データ)等で構成される楽曲データ(ファイル)について当該楽曲IDをファイル名としてそれぞれ格納したデータベースである。上記記憶部28に記憶されている映像DB52は、楽曲毎に応じた背景映像データについて楽曲IDをファイル名としてそれぞれ格納したデータベースである。
【0033】
上記記憶部28に記憶されているリファレンスDB53は、楽曲ごとの主旋律の採点リファレンスデータであって、上記楽曲DB51に記憶されているカラオケ楽曲と当該カラオケ楽曲の歌唱区間に合わせた歌唱者による歌唱を評価、分析するための評価基準として用いられる採点リファレンスデータとを紐付けて記憶するデータベースである。
【0034】
上記記憶部28に記憶されている単音節テーブル54は、歌詞データにおける対象の音節が、後述のリファレンス特定手段34で区分処理されるフレーズ区間の先頭の場合を対象に当該対象の音節を発声するに際して、顎を開く方向、または閉じる方向に動かす顎の開閉動作状態を特定したテーブルであり、
図2(A)に示すように、対象の音節である「母音」若しくは「子音+母音」の一つの音節に対して顎の動き(開閉動作状態)を予め設定したものである。なお、フレーズ区間の先頭の音節は、顎を閉じた状態からフレーズ区間の先頭の音節を発声するに際しての顎が動きを設定している。なお、
図2(A)、(B)において、「↑」は顎を開く動き、「↓」は顎を閉じる動き、「−」は顎の動きがない状態を表している。
【0035】
上記記憶部28に記憶されている2連音節テーブル55は、歌詞データにおける対象の音節がフレーズ区間の先頭以外の音節の場合に、当該対象の音節の前の音節と当該対象の音節との二つの音節を順に発声する際に、顎の開く方向、又は閉じる方向の動きを特定したテーブルであり、
図2(B)に示すように、対象の音節の前の音節である「母音」若しくは「子音+母音」と、対象の音節である「母音」及び「子音+母音」並びに特殊発声音節(例えば、「母音a」及び「子音+母音a」、「母音e」及び「子音+母音e」、並びに「母音o」及び「子音+母音o」に対しては「は(ha)」、「へ(he)」、「ほ(ho)」、「ん(n)」)の二つの音節の順による組に対して顎の開閉動作状態を予め設定したものである。なお、フレーズ区間の先頭以外の音節は、二つの連続した音節について、一つ目の音節を発声した状態から二つ目の音節を発声するに際しての顎の動きを設定している。
【0036】
上記検出信号受信部31は、後述の検出装置18より送信されてくる検出信号を受信するプログラム乃至電子回路である。上記検出動作識別手段32は、楽曲の演奏中に検出装置18より受信した信号から顎の開閉状態を識別するプログラム乃至電子回路である。例えば、検出信号として電圧レベル信号(そのレベル値に特化したデータ信号でもよい)を検出装置18より受信し、当該信号に基づいてレベル値を特定し、予め設定されたレベル値に応じて顎の開き、閉じ、不動の開閉状態の対応付けより識別する。
【0037】
上記音節特定手段33及びリファレンス特定手段34で構成されるリファレンス情報処理手段は、歌唱される楽曲の歌詞データの音節に応じて歌唱者の顎の動きの開閉動作状態を推測するリファレンスデータを、音節と顎の開閉動作状態とを予め設定した上記単音節テーブル54及び2連音節テーブル55に基づいて算出するもので、音節特定手段33は、RAM23に記憶されている
図3に示す対象歌詞データ43に基づいて、当該歌詞データの先頭文字から順次音節を特定するプログラムである(
図5で説明する)。
【0038】
リファレンス特定手段34は、対象歌詞データ43を複数のフレーズ区間に区分し(区分については
図5及び
図8で説明する)、音節特定手段33により特定された音節が、歌唱区間の先頭の場合に当該音節に対応する顎の開閉動作状態を上記単音節テーブル54より特定し、歌唱区間の先頭以外の音節の場合に当該音節の前の音節と当該音節の順による組に対応する顎の開閉動作状態を上記2連音節テーブル55から特定し、RAM23にリファレンスデータ44として記憶するプログラムである(
図5及び
図6で説明する)。
【0039】
上記比較評価処理手段35は、後述の歌唱タイミングデータに基づき歌唱すべき期間が到来している音節について、リファレンス情報処理手段(音節特定手段33及びリファレンス特定手段34)で特定された顎の開閉動作状態であるRAM23に記憶されているリファレンスデータ44と上記検出動作識別手段32で識別された顎の開閉動作状態のデータとを比較し、比較結果の評価を遠隔入出力装置17のリモコン表示部17D若しくは表示部13(リモコン表示部17Dと共にでもよい)に表示させると共に、比較結果をRAM23に比較結果データ45として記憶していくプログラムである。なお、比較処理、評価処理については
図7で説明する。
【0040】
ここで、
図1に示される検出装置18は、ウェアラブル端末であって、カラオケルームなどに常備されて利用者によって当該検出装置18を選択的に所持されるもので、予めカラオケ装置11(検出信号受信部31)と近距離無線通信によりペアリングがなされている。検出装置18は、
図4に示すように、装置本体61に検出処理手段62及び検出送信手段63を備え、外部に延長接続された検知センサ64を備える。当該検出処理手段62は、装置IDを保持して装置全体を統御するプログラムを備え、当該利用者がログインしたときに当該検出装置18(装置ID)を選択指定することにより関連付けられてRAM23に利用者情報42の一部として記憶される。
【0041】
上記検出送信手段63は、ペアリングされたカラオケ装置11の検出信号受信部31に対して検知センサ64で検知した検出信号を、例えば電圧レベルの信号又はレベル値に特化したデータ信号として送信するプログラム乃至電子回路である。上記検知センサ64は、歌唱による顎の動きを検出する圧力センサなどの検出素子を備えるもので、利用者の耳孔内に挿入できる形態のものや、耳孔周辺に装着できる形態などのものを使用することができるものである。
【0042】
そこで、
図5に
図1のリファレンス特定手段における歌詞データに基づく顎動作特定処理の説明図を示すと共に、
図6に
図5の個別音節の顎動作特定処理の説明図を示し、
図7に
図1の比較評価手段における比較評価の説明図を示す。ここでは、楽曲が予約待ち行列41に選曲予約された際に、
図3に示すRAM23に対象歌詞データ43が記憶されることを前提とする。
【0043】
楽曲の選曲予約がされると、当該楽曲の楽曲IDに基づいて、RAM23より読み出された
図3に示す対象歌詞データ43に対して、音節特定手段33が、
図5に示すように、歌詞データの最初の文字から順に、文字コードがひらがなである文字を音節として特定していく(漢字は特定しない)。
【0044】
リファレンス特定手段34は、
図5に示すように、対象歌詞データ43を複数のフレーズ区間に区分する。例えば、
図3の対象歌詞データ43において、歌詞の色変えが連続的に行われる歌詞文字列を一括のひとまとまりとして区分されている区間とするもので、各歌詞に対応付けられている色変タイミングデータに基づき、対象の音節の開始タイミングと、対象の音節の前の音節の終了タイミングが連続している場合は、この二つの音節は連続的に色変えが行われていることになり、一つのフレーズ区間に含ませる。
【0045】
図3の具体例を挙げれば、歌詞データにおける文字番号1の「あ」の終了タイミングと、続く文字番号2の「た」の開始タイミングが、どちらも演奏開始からの経過時間である9750msで連続し、以後文字番号7の「も」と文字番号8の「の」まで連続状態が続いており、これを一つのフレーズ区間に含ませる。
【0046】
一方、対象の音節の開始タイミングと、対象の音節の前の音節の終了タイミングが連続していない場合は、この二つの音節は連続的に色変えが行われていないこととなり、ここがフレーズの区切りとなるため、対象の音節がフレーズ先頭となる。
図3の具体例を挙げれば、歌詞データにおける文字番号8の「の」の終了タイミングが演奏開始からの経過時間である12700msで、続く文字番号10の「う」の開始タイミングが演奏開始からの経過時間である13000msであり、間に300msの連続しない区間があり、ここがフレーズの区切りとなるものである。
【0047】
リファレンス特定手段34は、続いて、音節特定手段33により特定された音節に対し、フレーズ区間の先頭の音節に対しては単音節テーブル54を参照して対応する顎の開閉動作状態を特定し、フレーズ区間の先頭以外の音節に対しては2連音節テーブル55を参照して当該対象の音節の直前の音節と当該対象の音節の順による組に対応する顎の開閉動作状態を特定していくものである。
【0048】
具体例を示すと、
図6(A)の例では、演奏に沿った
図5の文字番号1の「あ」[(子音+)a]の音節について、フレーズ区間の先頭であるため、単音節テーブル54を参照して対象の音節[(子音+)a]に対応する顎の動き「↑」を特定する。また、
図6(B)の例では、演奏に沿った
図5の文字番号2の「た」[(子音+)a]の音節について、フレーズ区間の途中であるため、直前の音節が「あ」[(子音+)a]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)a]→[(子音+)a]に対応する顎の動き「↓↑」を特定する。
【0049】
図6(C)の例では、演奏に沿った
図5の文字番号6の「く」[(子音+)u]の音節について、フレーズ区間の途中であるため、直前の音節が「を」[(子音+)o]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)o]→[(子音+)u]に対応する顎の動き「↓」を特定する。さらに、
図6(D)の例では、演奏に沿った
図5の文字番号7の「も」[(子音+)o]の音節について、フレーズ区間の途中であるため、直前の音節が「く」[(子音+)u]であることを特定し、2連音節テーブル55を参照して対象の音節[(子音+)u]→[(子音+)o]に対応する顎の動き「↑」を特定する。
【0050】
そして、リファレンス特定手段34において、上記歌詞データの特定する音節ごとに、上記のように顎の開閉動作状態を特定したリファレンスデータを特定していき、歌詞データ全部の音節で特定したリファレンスデータをRAM23にリファレンスデータ44として記憶する。
【0051】
そこで、比較評価処理手段35は、選曲予約されたカラオケ楽曲の演奏の際にRAM23よりリファレンスデータ44を読み出し、選曲予約されたカラオケ楽曲の演奏が開始され、歌唱タイミングデータに基づいて歌唱すべき期間が到来している音節のリファレンスデータと、当該音節の歌唱すべき期間中に歌唱者が装着した検出装置から受信して識別された検出動(顎の開閉動作状態)を比較することにより、その比較結果の評価を与える。
【0052】
具体的には、
図7に示すように、演奏時間軸上において、音節「あ」を歌唱すべき期間中に受信した検出動作が「↑(顎を開いた)」であった場合、当該音節「あ」に対応する顎の動きのレファレンスデータは「↑」であるため、当該音節については理想的な顎の動きが出来ているということとなり、例えば比較結果「○」となり、続く音節「た」の歌唱すべき期間中に受信した検出信号が「↓(顎を閉じた)」であった場合、当該音節「た」に対応する顎の動きリファレンスデータは「↓↑」であるため、当該音節については理想的な顎の動きが出来ていないということで、例えば比較結果「×」となるものである。
【0053】
比較評価処理手段35は、比較結果の評価を、遠隔入出力装置17のリモコン表示部17D及び表示部13の一方又は両方に表示させる。例えば、評価内容を歌唱の際にリアルタイム表示させる場合には、任意の音節の歌唱すべき期間が終了した時点での比較結果である「○」の回数と「×」の回数を評価内容として、表示部13やリモコン表示部17Dの画面上の所定の場所にリアルタイムに表示する。これによって、「×」より「○」の回数を増加させることを、すなわち顎の動きを気にしながら歌唱させることを意識させるものである。
【0054】
別の比較評価から評価表示の処理として、比較評価処理手段35において、上記リファレンスデータ44と受信した検出信号から識別した検出動作による顎の動きに基づいて、それぞれの顎の開閉回数をカウントする。具体的には、音節「あ」を歌唱すべき期間中の顎の動きは「↑」でこれを1回とし、続く音節「た」を歌唱すべき期間中の顎の動きは「↓↑」で2回とし、これが「の」まで演奏が進むと、リファレンスデータ44の顎の動き回数は9回になる。各音節の歌唱すべき期間が終了する度に、リファレンスデータ44に基づくカウント値と、検出動作のカウント値とを比較し、その比較結果の差に応じて評価する。
【0055】
すなわち、リファレンスデータ44と検出動作より特定した顎の動きに応じた開閉動作状態に基づいて、特定した「↑」、「↓」、「↓↑」からそれぞれの顎の開閉回数をカウントしていき、任意の音節を歌唱すべき期間が終了する度にリファレンスデータ44に基づくカウント値に対して、検出信号の検出動作のカウント値が所定値以上少ない比較結果のときには顎を意識して動かす意味での「↑」を評価とし、検出信号の検出動作のカウント値が所定値以上多い比較結果のときには顎を動かし過ぎという意味での「↓」を評価とし、検出信号の検出動作のカウント値が顎を動かすべき回数との差が所定値以内との比較結果のときにはスムーズに顎が動いているという意味での「GOOD」を評価としてリアルタイムに表示する。これによって、「GOOD」表示をいかに続けられるか、つまり顎の動きを気にしながら歌唱させるという歌唱を支援することができる。
【0056】
一方、評価内容を歌唱後に表示する場合には、比較評価処理手段35において、歌唱音節毎の比較結果をRAM23より比較結果データ45を読み出して歌唱後に表示させる。例えば、歌唱後に比較評価処理手段35が比較結果データ45を遠隔入出力装置17に対して楽曲ID及び利用者IDを紐づけて転送すれば、歌唱した利用者と比較結果データ45とが対応づけられることとなり、当該歌唱者は歌唱した楽曲の音節(ひらがな)をリモコン表示部17Dに表示し、当該比較結果データ45の各音節の比較結果を評価内容として「○」は青色で、「×」は赤色で文字を表示する。これにより、歌唱者はスムーズに顎が動いている音節、動いていない音節を確認することができるものである。
【0057】
次に、
図8に、
図1のリファレンス特定手段における他の歌詞データに基づくフレーズ区間特定、リファレンス特定の説明図を示す。ここでは、フレーズ区間特定及びリファレンス特定の処理を示したものである。また、RAM23には、
図8(A)に示すように、対象演奏データ71の記憶領域が形成され、予約待ち行列41に選曲予約された楽曲IDに基づいて楽曲DB51より読み出された演奏データが記憶される。
【0058】
そこで、リファレンス特定手段34は、
図8(B)において、まず、RAM23に記憶された対象歌詞データ43及び対象演奏データ71から、楽曲の演奏データに含まれる歌唱旋律パートの楽譜データの各音符に対して歌唱すべき歌詞文字データを対応づけた歌詞文字・旋律対応データ(
図8(B)の音符・休符、音高、歌詞の対応データ)を作成する。具体的には、歌唱旋律パートの楽譜データの各音符の発音タイミングと、対象歌詞データ43の各音節の色変えタイミングの一致度から、音符に対応する音節をそれぞれ特定する。その際、歌唱者が歌唱しやすいように各音符の発音の開始より先に音節の色替えが開始されるよう設定されているため、このタイミング差を考慮するとよい。また、ひとつの音節を複数の音符で発音するような場合でも、当該音節の色替え時間と当該二つの音符の発音持続時間の一致度によって対応付けが可能となる。
【0059】
続いて、上記歌詞文字・旋律対応データに基づいて顎の動きを特定する場合のフレーズ区間を、旋律パートの音符の発音が連続的に行われる歌詞文字列を一括のひとまとまりとして区分する。すなわち、音符が連続している間は、二つの音符に対応付けられた音節は連続的に発音されることとなるため、ひとつのフレーズ区間に含ませる。例えば、
図8(B)に示す音節「あたまをくものうえにだし」に対応する音符は連続しているものを一つのフレーズ区間に含ませる。
【0060】
また、休符を挟む前後二つの音符は休符により連続的に発音されないこととなるため、休符をフレーズの区切りとし、休符の次の音符に対応付けられた音節をフレーズ先頭とする。例えば、
図8(B)に示す音節「〜うえにだし」の「し」に対応する二分音符の次に四分休符があるため、その次の付点四分音符対応する音節「しほうの」の「し」をフレーズ先頭とさせるものである。
【0061】
そして、
図8(B)に示すように、単音節テーブル54及び2連音節テーブル55を参照して特定した顎の動き(「↑」、「↓」、「↓↑」)を対象の音節に対応付けることにより、歌詞データ及び演奏データに基づいた音節毎のリファレンスデータ44を特定するものである。なお、このように特定され記憶されたリファレンスデータ44は、比較評価処理手段35における処理において、歌唱旋律パートの楽譜データの各音符の発音タイミングに基づいて、歌唱すべき期間が到来している音節のリファレンスデータを特定することになる。
【0062】
このような歌詞データ及び演奏データによるフレーズの区分処理によっても楽曲歌唱の際の顎の開閉動作状態のリファレンスデータでの推測、特定をより高精度とすることができ、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。
【0063】
上記のように、カラオケ楽曲の演奏の際に画面に表示される歌詞に合わせて、歌唱者が歌唱した際の顎の動きと、当該楽曲の歌詞に基づく理想的な顎の動とが歌唱すべき音節毎に比較されるため、歌唱時のスムーズな顎の動きが出来ているか否かを歌唱者が音節毎に確認することが可能となり、歌唱時に顎の動きを意識させて良い発声を促す歌唱を支援することができるものである。
【0064】
また、歌詞データや演奏データより楽曲歌唱の際に開閉するであろう顎の開閉動作(リファレンスデータ)を推測、特定することから、数万曲にも及ぶカラオケ楽曲に対して予めデータを作成する必要がなく、簡易構成で実現することができるものである。