(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0009】
以下、図面を参照して、本発明に係る音声学習支援装置を電子辞書に適用した場合の実施形態について詳細に説明する。
【0010】
[外観構成]
図1は、電子辞書1の斜視図である。
この図に示すように、電子辞書1は大きくは機器本体100と蓋体200とを備えている。
機器本体100はキー群2やカードスロット12を備えており、蓋体200はメインパネル10を備えている。
【0011】
キー群2は、ユーザから電子辞書1を操作するための操作を受ける各種キーを有している。具体的には、キー群2は、訳/決定キーと、文字キーと、辞書選択キーと、カーソルキーと、シフトキーと、戻るキー、学習帳キー等とを有している。
訳/決定キーは、検索の実行や、見出し語の決定等に使用されるキーである。文字キーは、ユーザによる文字の入力等に使用されるキーであり、本実施の形態においては“A”〜“Z”キーを備えている。辞書選択キーは、後述の辞書データベース72(
図2参照)の選択に使用されるキーである。カーソルキーは、画面内の反転表示位置、つまりカーソル位置の移動等に使用されるキーであり、本実施の形態においては上下左右の方向を指定可能となっている。シフトキーは、日本語の単語を検索対象に設定するとき等に使用されるキーである。戻るキーは、前回表示した画面に戻るとき等に使用されるキーである。学習帳キーは、単語帳を閲覧するとき等に使用される。
【0012】
カードスロット12は、種々の情報を記憶した外部情報記憶媒体12a(
図2参照)と着脱可能に設けられている。
【0013】
メインパネル10は、ユーザによるキー群2の操作に応じた文字や符号等、各種データを表示する部分であり、LCD(Liquid Crystal Display)やELD(Electronic Luminescence Display)等によって構成されている。特に本実施の形態では、メインパネル10には音声テキストコンテンツ74(
図2参照)に格納されたテキストが表示される。なお、本実施の形態におけるメインパネル10は、いわゆるタッチパネル110(
図2参照)と一体的に形成されており、手書き入力等の操作を受け付け可能となっている。
【0014】
メインパネル10を含む蓋体200は機器本体100に対し開閉自在となっており、大きく分けて全開状態、半開状態、閉状態の3つの状態を維持することができる。閉状態にあっては、蓋体200はメインパネル10に表示される表示内容を遮蔽する部材になる。蓋体200がかかる3つの状態のいずれの状態にあるかは、機器本体100に内蔵されたCPU20(
図2参照)が識別するようになっている。
「全開状態」とは、機器本体100に対し蓋体200が完全に開いた状態(電子辞書1が通常使用される範囲の角度をもって開いた状態)であってメインパネル10の表示内容を視認可能な状態をいう。「閉状態」とは、機器本体100に対し蓋体200が閉じた状態であってメインパネル10の表示内容を視認不可な状態をいう。「半開状態」とは、蓋体200の開閉の程度が全開状態と閉状態との間にあり、メインパネル10の表示内容を視認可能な状態をいう。
【0015】
[内部構成]
続いて、電子辞書1の内部構造について説明する。
図2は、電子辞書1の内部構成を示すブロック図である。
【0016】
この図に示すように、電子辞書1は、表示部40、入力部30、記録媒体読取部60、CPU(Central Processing Unit)20、フラッシュROM(Read Only Memory)80、リモートコントローラ50、振動センサ52、RAM(Random Access Memory)90を備え、各部はバスで相互にデータ通信可能に接続されて構成されている。
【0017】
表示部40は、上述のメインパネル10及びサブパネル11を備えており、CPU20から入力される表示信号に基づいて各種情報をメインパネル10やサブパネル11に表示するようになっている。
【0018】
入力部30は、上述のキー群2やタッチパネル110を備えており、押下されたキーやタッチパネル110の位置に対応する信号をCPU20に出力するようになっている。
【0019】
記録媒体読取部60は、上述のカードスロット12を備えており、当該カードスロット12に装着された外部情報記憶媒体12aから情報を読み出したり、当該外部情報記憶媒体12aに情報を記録したりするようになっている。
【0020】
ここで、外部情報記憶媒体12aには、コンテンツ等が格納されるようになっている。なお、このコンテンツは後述のフラッシュROM80におけるコンテンツ群70のコンテンツと同様のデータ構造を有しているため、ここでは説明を省略する。
【0021】
CPU20は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子辞書1を統括的に制御するようになっている。具体的には、CPU20は、入力部30から入力される操作信号等に応じてフラッシュROM80に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。そして、CPU20は、処理結果をRAM90に保存するとともに、当該処理結果を表示部40に適宜出力させる。
【0022】
フラッシュROM80は、電子辞書1の各種機能を実現するためのプログラムやデータを記憶するメモリである。本実施の形態においては、フラッシュROM80は、本発明に係る音声学習支援プログラム82と、コンテンツ群70と、単語帳群84等とを記憶している。
【0023】
音声学習支援プログラム82は、後述の音声学習支援処理(
図3〜
図4参照)をCPU20に実行させるためのプログラムである。
【0024】
コンテンツ群70は、複数のコンテンツを有しており、本実施の形態においては、複数の辞書データベース72及び音声テキストコンテンツ74を有している。
【0025】
辞書データベース72には、見出し語(単語)と、この見出し語の説明情報とを対応付けた1つ以上の辞書情報が格納されている。本実施の形態においては、このような辞書データベース72として、「英和辞書」や「物理事典」などの辞書データベース72が用いられている。
【0026】
音声テキストコンテンツ74には、複数のテキスト(教材)が格納されている。本実施の形態においては、「英単語」や「文学朗読(日本文学1000作品)」などのテキストが格納されている。
【0027】
単語帳群84は、音声単語帳テーブル86を有している。
音声単語帳テーブル86は、学習対象の単語(注意すべき単語)として、ユーザ操作により登録された単語に対応する見出し語と、当該見出し語の説明情報とを対応付けて蓄積記憶するようになっている。
【0028】
リモートコントローラ50は電子辞書1に対し着脱自在であり、ユーザ操作による指示を受けその旨をCPU20に出力するようになっている。リモートコントローラ50は外部操作機器の一例であり、有線であってもよいし、無線であってもよい。
振動センサ52は電子辞書に対する振動を検出するセンサであり、電子辞書1の振動を検出するとその旨をCPU20に出力するようになっている。
【0029】
RAM90は、CPU20が実行する各種プログラムや、これらプログラムの実行に係るデータ等を一時的に保持するメモリ領域を備えている。
【0030】
[動作]
続いて、電子辞書1の動作について、図面を参照しつつ説明する。
【0031】
<音声学習支援処理>
図3〜
図4は、CPU20が音声学習支援プログラム82を読み出して実行する情報表示処理の流れを示すフローチャートである。
この音声学習支援プログラムにおいては、
図3に示すように、まずCPU20は、ユーザ操作によりコンテンツ群70から音声テキストコンテンツ74が選択されたか否かを判定する(ステップS1)。
判定の結果、CPU20は、音声テキストコンテンツ74が選択されたと判定した場合(ステップS1;YES)、ステップS2〜S4を実行し、音声テキストコンテンツ74が選択されていないと判定した場合(ステップS1;NO)、
図4の処理に移行する。
ステップS2では、CPU20は、音声テキストコンテンツ74のジャンルを、たとえば「英単語」、「文学朗読」などを指定する。ステップS3では、CPU20は、指定されたジャンルのタイトル、ページなどを指定する。ステップS4では、CPU20は、操作が中止されたか否かを判定し、中止されたと判定した場合(ステップS4;YES)、ステップS1に戻り、中止されていないと判定した場合(ステップS4;NO)、ステップS5に移行する。
【0032】
ステップS5では、CPU20は、指定したジャンルのテキストを表示する。たとえば、「英単語」を指定した場合は単語(見出し語)とその訳語を、「文学朗読」を指定した場合はその文学作品の本文を表示する。
【0033】
次に、CPU20は、ユーザ操作によりテキスト中で指定された単語(以下「指定単語」という。)を指定し(ステップS6)、閉状態音声出力モードがONか否かを判定する(ステップS7)。「閉状態音声出力モード」とは、蓋体200が閉状態で音声出力をすることができるモードをいう。
閉状態音声出力モードがONであると判定した場合(ステップS7;YES)、CPU20は、蓋体200が全開状態であるか否か(ステップS8)、蓋体200が閉状態であるか否か(ステップS9)、蓋体200が全開状態から一定時間内に閉状態に状態変化したか否か(ステップS10)をそれぞれ判定し、蓋体200が閉状態であると判定したときに音声出力を開始する(ステップS11)。
ステップS11では、CPU20は、ステップS6の指定単語を、音声出力を開始する単語と決定し、当該指定単語から音声出力を開始する。
【0034】
次に、CPU20は、リモートコントローラ50の出力結果または振動センサ52の検出結果に基づき、ユーザ指示があったか否かを判定する(ステップS12)。
判定の結果、CPU20は、ユーザ指示があったと判定した場合(ステップS12;YES)、ユーザ指示に従う単語を、ユーザ指示に従うタイミングで単語帳登録し(ステップS13)、その後またはユーザ指示はないと判定した場合(ステップS12;NO)、ステップS14に移行する。
【0035】
ステップS13では、CPU20は、リモートコントローラ50または振動センサ52によるユーザ指示を検出したとき、ユーザ指示があった場合にユーザ指示のタイミングに対応する、音声出力中のまたはユーザ指示の直前に音声出力されたテキスト部分の単語を指示単語として検出する。具体的には、CPU20は、ユーザ指示の直前に音声出力されている単語に対応する見出し語を音声単語帳テーブル86に蓄積記憶させる。
たとえば、「英単語」のジャンルのテキストを音声出力し、単語A→訳語い→2秒停止→単語B→訳語ろ→2秒停止→……の順序で音声出力している場合、CPU20は、ユーザ指示を単語Aまたは訳語いのタイミングか、その直後の2秒停止のタイミングで検出したときには「単語A」を単語帳登録し、ユーザ指示を単語Bまたは訳語ろのタイミングか、その直後の2秒停止のタイミングで検出したときには「単語B」をユーザ指示直前の単語として単語帳登録する。
【0036】
ステップS14では、CPU20は、蓋体200が閉状態から全開状態または半開状態に状態変化したか否かを判定する。
判定の結果、CPU20は、状態変化はないと判定した場合(ステップS14;NO)、音声出力をそのまま継続して(ステップS15)ステップS12〜S14を繰り返し、状態変化があったと判定した場合(ステップS14;YES)、音声出力を停止して(ステップS16)ステップS4に戻る。
【0037】
他方、CPU20は、閉状態音声出力モードがOFFであると判定した場合(ステップS7;NO)または蓋体200が全開状態から一定時間経過後、たとえば2秒後もその状態が維持されたと判定した場合(ステップS10;NO)、指定単語に対応する見出し語の説明情報を辞書データベース72から読み出してメインパネル10に表示させる(ステップS17)。
次に、CPU20は、ユーザ操作により戻る操作がなされたか否かを判定し(ステップS18)、戻る操作がなされたと判定した場合(ステップS;YES)、ステップS4に戻り、戻る操作はなされなかったと判定した場合(ステップS;NO)、ステップS1に戻る。
【0038】
図4の処理では、CPU20は、ユーザ操作により環境設定がなされたか否かを判定し(ステップS20)、環境設定がなされたと判定した場合(ステップS20;YES)、ステップ21〜S26を実行し、環境設定はなされなかったと判定した場合(ステップS20;NO)、ステップS30に移行する。
【0039】
ステップS21〜S26では、CPU20は、ユーザ操作により、閉状態音声出力モードのON/OFF設定が変更されたか否か(ステップS21)、リモートコントローラ50による外部操作のON(有効)/OFF(無効)設定が変更されたか否か(ステップS23)、振動センサ52のON(有効)/OFF(無効)設定が変更されたか否か(ステップS25)をそれぞれ判定する。
判定の結果、CPU20は、ON/OFF設定が変更されたと判定した場合(ステップS21、S23、S25;YES)、ユーザ操作に応じてON/OFF設定を変更し(ステップS22、S24、S26)、ON/OFF設定は変更されなかったと判定した場合(ステップS21、S23、S25;NO)、その後の処理に移行する。
【0040】
ステップS30では、CPU20は、ユーザ操作により単語帳の確認操作がなされたか否かを判定する。
判定の結果、CPU20は、単語帳の確認操作がなされたと判定した場合(ステップS30;YES)、ステップS31〜S34を実行し、単語帳の確認操作はなされなかったと判定した場合(ステップS30;NO)、ステップS35〜S36の処理を実行する。
【0041】
ステップ31では、CPU20は、単語帳登録された単語に対応する見出し語を、音声単語帳テーブル86から読み出しメインパネル10に一覧表示させる。
ステップS32〜S33では、CPU20は、ユーザ操作に応じた単語を指定し、その単語に対応する見出し語の説明情報を、辞書データベース72から読み出しメインパネル10に表示させる。
ステップS34では、ユーザ操作により戻る操作がなされたか否かを判定し、戻る操作がなされたと判定した場合(ステップS34;YES)、ステップS31に戻り、戻る操作はなされなかったとは判定した場合(ステップS34;NO)、
図3のステップS1に戻る。
【0042】
ステップS35では、CPU20は、ユーザ操作により他の操作がなされたか否かを判定し、他の操作がなされたと判定した場合(ステップS35;YES)、他の処理を実行し(ステップS36)、他の操作はなされなかったと判定した場合(ステップS35;NO)、
図3のステップS1に戻る。
【0043】
[動作例]
続いて、上述した電子辞書1の処理を具体的に説明する。
【0044】
<動作例1>
ユーザ操作により音声テキストコンテンツ74が選択され(ステップS1)、ジャンル「英単語」が選択されると(ステップS2)、
図5に示すように、そのジャンルのテキストがメインパネル10に表示される(ステップS5)。
ユーザが自己の操作によりメインパネル10のテキスト中で単語「decide」が指定され(ステップS6)、蓋体200が全開状態のまま一定時間経過、たとえば2秒間経過すると(ステップS8;YES、ステップS10;NO)、
図6に示すように、decideに対応する見出し語の説明状態がメインパネル10に表示される(ステップS17)。
【0045】
他方、上記と同様に、ユーザ操作により音声テキストコンテンツ74が選択され、
図7に示すように、テキストがメインパネル10に表示された状態において、
図8(a)に示すように、ユーザ操作によりテキスト中の単語「misery」の次の単語が指定され(ステップS6)、
図8(b)に示すように、蓋体200が全開状態から閉状態にされると(ステップS8;NO、ステップS9;YES)、miseryの次の単語から音声出力が開始される(ステップS11)。
そして音声出力中にユーザにとって分からない単語がある場合に、
図8(c)に示すように、リモートコントローラ50による外部操作またはユーザが首を傾げたり電子辞書1を振ったりして電子辞書1に振動を加えるとユーザ指示があったと判定され(ステップS12;YES)、音声出力された単語のうち、電子辞書1において外部操作または振動が検出されたときの直前の単語、たとえば「circumstance」がユーザ指示があった単語であると検出され、単語帳に自動的に登録される(ステップS13)。
【0046】
その後、ユーザが単語帳を確認すると(ステップS30;YES)、circumstanceも単語帳に一覧表示され(ステップS31)、ユーザがその単語を指定すると(ステップS32)、
図9に示すように、circumstanceに対応する説明情報がメインパネル10に表示される(ステップS33)。
【0047】
<動作例2>
動作例2も動作例1と同様である。
ユーザ操作により音声テキストコンテンツ74が選択され(ステップS1)、ジャンル「文学朗読(日本文学1000作品)」が選択されると(ステップS2)、
図10に示すように、そのジャンルのテキストがメインパネル10に表示される(ステップS5)。
図11(a)に示すように、ユーザ操作によりテキスト中の単語「池」が指定され(ステップS6)、蓋体200が全開状態から閉状態にされると(ステップS8;NO、ステップS9;YES)、その指定された単語から音声出力が開始される(ステップS11)。
そして音声出力中にユーザにとって分からない単語がある場合に、
図11(b)に示すように、リモートコントローラ50による外部操作またはユーザが首を傾げたり電子辞書1を振ったりして電子辞書1に振動を加えると(ステップS12;YES)、音声出力された単語のうち、電子辞書1において外部操作または振動が検出されたときの直前の単語が単語帳に自動的に登録される(ステップS13)。
【0048】
以上の電子辞書1によれば、
図3のステップS13、
図8に示したように、蓋体200が閉状態等によってテキストが視認不可であると判別されると、テキスト表示に替わって、テキストの中の単語を含む内容が音声出力され、音声出力中に振動等によりユーザ指示がなされると、ユーザ指示のタイミングに対応する音声出力中のテキスト部分の単語が単語帳登録されるから、電子辞書1の表示が見れない使用環境であっても音声学習中の単語を適切に単語帳登録することができる。
【0049】
また、
図3のステップS7〜S11、S17、
図5〜
図8に示したように、閉状態音声出力モードがON状態の場合でも、蓋体200が全開状態で維持されたときは、指定単語に対応する見出し語の説明情報がメインパネル10に表示され、蓋体200が全開状態または半開状態から一定時間内に閉状態に移行されたときは、指定単語から音声出力が開始されるため、ユーザは自己の意思に沿った適切な操作を実現することができる。
【0050】
なお、本発明を適用可能な実施形態は、上述した実施形態や変形例に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
例えば、本実施形態においては、音声出力されたテキスト中の単語を単語帳登録するようにしたが、たとえば詩や俳句や物語のテキスト等を表示し、テキストが視認不可のときに、テキスト音声を出力させ、ユーザ操作に応じたタイミングで朗読されたテキスト中の文を登録対象の文字列として登録するようにしても良い。この場合、ユーザが装着したイヤホンに内蔵された振動検出手段により、頷く等のユーザの振動を検知して、登録するようにしてもよい。
【0051】
また本実施形態では、本発明に係る電子機器を電子辞書1として説明したが、本発明が適用可能なものは、このような製品に限定されず、たとえば
図12に示すようなタブレットパソコン(或いはスマートフォン)300、携帯電話、パソコン、PDA(Personal Digital Assistant)、ゲーム機などの電子機器全般に適用可能である。タブレットパソコン300に適用する場合は、電子辞書1の機器本体100をタブレット本体302と、蓋体200をカバー304と置き換えて適用すればよい。タブレットパソコン300にカバー304が付帯していないときは、タブレット本体302の表示部(バックライトなど)の電源がONかOFFかにより、視認可能か不可かの状態を識別すればよい。
また、本発明に係る音声学習支援プログラム82は、電子辞書1に対して着脱可能な外部情報記憶媒体に記憶されることとしてもよい。
【0052】
以上、本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲をその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
表示手段と、
複数の文字列を含むテキストを表示させるテキスト表示制御手段と、
前記表示手段に表示されたテキストが視認可能か不可かを判別する視認判別手段と、
前記視認判別手段により視認不可と判別された場合に、テキスト中の文字列を含む内容を音声出力制御する視認不可時音声出力制御手段と、
前記視認不可時音声出力制御手段による音声出力に応じて、ユーザ指示があった場合にユーザ指示のタイミングに対応する、音声出力に応じたテキスト部分の文字列を検出する指示文字列検出手段と、
前記指示文字列検出手段により検出された文字列を登録する文字列登録手段と、
を備えることを特徴とする音声学習支援装置。
<請求項2>
前記テキストは、前記文字列中に、見出し語と該見出し語の訳語とを含み、
前記指示文字列検出手段は、音声出力中のまたはユーザ指示の直前に音声出力されている文字列である単語を検出する指示単語検出手段を有し、
前記文字列登録手段は、前記指示文字列検出手段により指示された文字列である単語を登録する単語登録手段を有することを特徴とする音声学習支援装置。
<請求項3>
請求項1又は2に記載の音声学習支援装置において、
見出し語と当該見出し語の説明情報とを対応付けて複数記憶する辞書記憶手段と、
ユーザ操作によりテキスト中で指定された文字列に対応する見出し語の説明情報を表示させる説明情報表示制御手段と、を備え、
前記説明情報表示制御手段は、前記視認判別手段が視認可能と判別したときに、ユーザ操作によりテキスト中で指定された文字列に対応する見出し語の説明情報を前記辞書記憶手段から読み出し表示させることを特徴とする音声学習支援装置。
<請求項4>
請求項3に記載の音声学習支援装置において、
前記説明情報表示制御手段は、前記視認判別手段が視認可能であると判別する状態が一定時間継続したときに、ユーザ操作によりテキスト中で指定された文字列に対応する見出し語の説明情報を前記辞書記憶手段から読み出し表示させることを特徴とする音声学習支援装置。
<請求項5>
請求項3または4に記載の音声学習支援装置において、
前記説明情報表示制御手段は、前記視認判別手段が視認可能であると判別したときに、ユーザ操作によりテキスト中で指定された文字列に対応する見出し語の説明情報を前記辞書記憶手段から読み出し表示させ、
前記音声出力制御手段は、前記視認判別手段が視認可能であると判別した後、一定時間経過後に視認不可であると判別したときに、音声出力制御することを特徴とする音声学習支援装置。
<請求項6>
請求項3または4に記載の音声学習支援装置において、
前記視認判別手段が視認可能であると判別したときに、ユーザ操作によりテキスト中の音声出力を開始する文字列を指定する開始文字列指定手段を備え、
前記音声出力制御手段は、前記視認判別手段が視認可能であると判別した後、一定時間経過後に視認不可であると判別したときに、前記開始単語指定手段により指定された文字列の位置から音声出力制御することを特徴とする音声学習支援装置。
<請求項7>
請求項5又は6に記載の音声学習支援装置において、
前記表示手段の表示内容を遮蔽する遮蔽手段を備え、
前記視認判別手段は、前記遮蔽手段による遮蔽状態に応じて、テキストが視認可能か不可かを判別することを特徴とする音声学習支援装置。
<請求項8>
請求項1〜7のいずれか一項に記載の音声学習支援装置において、
ユーザ指示を受ける外部操作手段を備え、
前記ユーザ指示検出手段が、前記外部操作手段の出力結果に基づき、ユーザ指示があるか否かを検出することを特徴とする音声学習支援装置。
<請求項9>
請求項1〜7のいずれか一項に記載の音声学習支援装置において、
振動を検出する振動検出手段を備え、
前記ユーザ指示検出手段が、前記振動検出手段の検出結果に基づき、ユーザ指示があるか否かを検出することを特徴とする音声学習支援装置。
<請求項10>
表示手段を備えるコンピューターに、
複数の文字列を含むテキストを表示させるテキスト表示制御機能と、
前記表示手段に表示されたテキストが視認可能か不可かを判別する視認判別機能と、
前記視認判別機能により視認不可と判別された場合に、テキスト中の文字列を含む内容を音声出力制御する視認不可時音声出力制御機能と、
前記視認不可時音声出力制御機能による音声出力に応じて、ユーザ指示があった場合にユーザ指示のタイミングに対応する、音声出力に応じたテキスト部分の文字列を検出する指示文字列検出機能と、
前記指示文字列検出機能により検出された文字列を登録する文字列登録機能と、
を実現させることを特徴とする音声学習支援プログラム。