【課題】文字処理装置に手書き入力された文字画像の解析を実行させる際に、文字処理装置における処理時間の短縮、コストの軽減が可能なように、解析対象となる文字情報を決定できる情報処理装置を提供する。
【解決手段】情報処理システム100において、情報処理装置10は、文字が手書きされた文字画像と、当該文字画像が表された表示領域に割り当てられた属性を示す属性情報と、を含む画像情報を取得する取得部10aと、属性情報に基づいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する判定部10bと、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する抽出部10cと、を備える。
前記判定部は、前記属性情報である、前記文字画像が前記画像情報に埋め込まれた時刻を示した第1のタイムスタンプに基づいて、前記解析対象か否かを判定する、請求項1または請求項2に記載の情報処理装置。
前記判定部は、前記第1のタイムスタンプと、前記画像情報に埋め込まれた、前記文字画像をテキストデータに変換する要求を行った時刻を示した第2のタイムスタンプと、の比較に基づいて、解析対象か否かを判定する、請求項3に記載の情報処理装置。
さらに、抽出した前記文字の画像を、手書きされた文字の画像をテキストデータに変換する文字処理装置に送信する出力部を備える、請求項1から請求項4のいずれか1項に記載の情報処理装置。
【発明を実施するための形態】
【0011】
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。
【0012】
本実施形態の情報処理装置は、情報端末において手書きされた文字画像を検索可能なテキストデータに変換して、文字画像に対応位置にそのテキストデータを埋め込む処理を行う場合に、テキストデータに変換が必要な文字画像のみを選択して、解析、変換処理を実行させるようにする。その結果、不要な文字画像の解析処理や変換処理、重複した処理等を抑制し、解析、変換処理に要する時間の短縮や処理コストの軽減を行う。
【0013】
図1は、本実施形態にかかる情報処理装置(例えばパーソナルコンピュータ:PC)10を含む情報処理システム100の構成を示す例示的かつ模式的な図である。情報処理システム100は、情報処理装置10と無線または有線で接続され、情報の送受が可能な情報端末12(電子ペーパーと称する場合もある)と、情報処理装置10とクラウド14を介して情報の送受が可能な文字処理装置16とで構成されている。
【0014】
情報端末12は、いわゆる「電子ペーパー」とすることができる。情報端末12は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリやSSD(Solid State Drive)等の記憶部、通信インターフェース、入出力インターフェース等で構成されている。
【0015】
情報端末12(電子ペーパー)は、例えば、周知の「マイクロ・カプセル」に包まれる表示用の「電子インク」と称される電子粉の電気泳動を利用した電子粉流体方式等で表示を行う表示装置である。情報端末12は、電子粉の電気泳動を利用した表示を行うことにより、表示内容を書き換えるときだけ電力を必要とする表示装置とすることができる。つまり、情報端末12に一度表示された画像は、その表示中に電力消費を伴わず、情報端末12の電力消費の軽減に大きく寄与できる。また、情報端末12は、通信機能と組み合わせることで、容易に最新情報の取得および表示が可能となる。
【0016】
また、情報端末12は、電子ペン12p等を用いて、表示部(表示画面)上でペン先を移動させることにより、電子インクの状態を変化させて、手書き入力が可能である。さらに、情報端末12は、電子ペン12pを用いて手書き入力を行う際に、入力される線の太さや、線の色などの表示態様の選択を受け付けることが可能である。
【0017】
したがって、情報端末12は、従来の手書きの手帳の代わりとして利用することができる。さらに、
図2に示されるように、情報端末12において、表示される画像情報Pは、スキャナ等で取り込まれたイメージデータP1に、当該イメージデータP1における文字画像に対応する位置(座標)に、表示態様などを示した属性情報と、透明テキストP2(テキストデータ)と、を埋め込み可能とする。透明テキストP2は、画像情報Pには表示されない情報であるため、情報端末12を利用するユーザには、イメージデータP1のみが視認可能となり、違和感のない表示を行いつつ、テキストデータを用いた文字検索を実現することが可能となる。画像情報Pは、例えば、PDF形式のデータが考えられるが、他の形式のデータであっても良い。
【0018】
情報処理装置10は、一般的なパーソナルコンピュータを利用可能であり、CPU、ROM、RAM、HDD(Hard Disk Drive)やSSD等の記憶部、通信インターフェース、入出力インターフェース等で構成されている。
【0019】
情報処理装置10は、前述したように、情報端末12で文字検索を実行するために必要な透明テキストP2を得るために、画像情報Pを情報端末12から取り込み、画像情報Pにおけるどの表示領域の文字画像をテキストデータに変換する解析対象とするか否かを判定する判定処理を実行する。また、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する抽出処理を実行する。そして、抽出した文字の画像を文字処理装置16に送信して、文字認識やテキストデータ化処理等を実行させる。
【0020】
文字処理装置16は、例えば、クラウド14を介して接続された装置に対してサービスを提供するサーバとするが、情報処理装置10に直接接続された装置でもよい。文字処理装置16は、情報処理装置10によって解析対象とされた文字の画像を取得すると、周知の文字認識処理を実行して、文字の画像をテキストデータに変換して透明テキストP2を生成する。そして、生成した透明テキストP2を情報処理装置10に送信する。
【0021】
文字処理装置16もまた一般的なパーソナルコンピュータで構成可能であり、CPU、ROM、RAM、HDDやSSD等の記憶部と、通信インターフェース等で構成されている。
【0022】
情報処理装置10は、文字処理装置16から送信された透明テキストP2を情報端末12から取得している画像情報Pの対応する部分(座標)に埋め込む処理を実行し、情報端末12に返送する。その結果、情報端末12では、手書き文字画像がテキストデータとして認識可能となり、文字検索を実行することが可能となる。
【0023】
このように構成される情報処理システム100における情報端末12、情報処理装置10、文字処理装置16の詳細な構成を
図3に示される例示的かつ模式的なブロック図を用いて説明する。
【0024】
情報端末12は、画像情報Pの表示、電子ペン12pにより手書き入力された文字画像の表示等を行う表示処理と、画像情報Pや文字画像等によって表示されている文字の検索処理等を実行するためのモジュールを備える。情報端末12は、例えば、受付部12a、記憶部12b、表示部12c、送受信部12d、検索部12e等を備える。
【0025】
受付部12aは、画像情報受付部12a1と手書き画像受付部12a2とを含む。画像情報受付部12a1は、予め作成された閲覧用の画像情報(書籍データ、取扱説明書データ、カタログデータ、資料データ、記入用紙データ等)を、送受信部12dを介して受け付け、記憶部12bに逐次記憶させる。
【0026】
手書き画像受付部12a2は、表示部(表示画面)上に描かれた文字等の手書き文字を画像(イメージデータ)として受け付ける。そして、手書き画像受付部12a2は、表示画面上に表示されている画像情報P(書籍データや資料データ等)の位置(座標)と手書き文字が入力された位置(座標)とを対応付けて、記憶部12bに逐次記憶させる。
図4は、電子ペン12pを用いて手書き入力された文字画像Iを示す例示的な図である。
図4は、手書きの文字画像Iとして、以下のような内容が入力された例である。
「Meeting reservation
On February 5, in the third meeting room at the head office start at 15:00 and make a reservation for the meeting room.」
【0027】
記憶部12bは、書き換え可能な不揮発性の記憶装置であり、例えば、フラッシュメモリやSSD等である。記憶部12bは、受付部12aが受け付けた画像情報Pや手書きの文字画像等を逐次記憶する。
【0028】
表示部12cは、記憶部12bに記憶された画像情報Pや手書きの文字画像を読み出し表示させることができる。表示部12cは、上述したように、周知の「マイクロ・カプセル」に包まれる表示用の「電子インク」と称される電子粉の電気泳動を利用した電子粉流体方式等で画像情報Pや手書きの文字画像等の表示を行う。電子インクは、微小の黒微粒子と白微粒子を透明の液体に浮遊させた状態で構成される。電子インクの微粒子は電荷を有している。例えば、白色微粒子が正電荷を有し、黒色微粒子が負電荷を有している。そして、マイクロ・カプセルは上側の透明電極板と下側の下層電極板との間に挟まれている。したがって、透明電極板に負電圧が印加されると、正電荷を有する白色微粒子が透明電極板に引き付けられて、透明電極板に白色を表示させる。この場合、負電荷を有する黒色微粒子は、下層電極板側に移動して隠される。結果的に、マイクロ・カプセルは白色を表面側に向け、情報端末12の表示部12c(表示画面)において白色表示が行われる。また、透明電極板に正電圧が印加されると、黒色微粒子と白色微粒子の移動方向が逆になり、マイクロ・カプセルは黒色を表面側に向け、情報端末12の表示部12cにおいて黒色表示が行われる。このように、電子粉の電気泳動を利用することにより、情報端末12は、表示内容を書き換えるときだけ電力を必要とする表示装置とすることができる。
【0029】
送受信部12dは、情報端末12が情報処理装置10と有線または無線で接続された場合に、情報処理装置10で実行される後述する判定処理や抽出処理の対象となる画像情報Pの送信を行う。また、送受信部12dは、文字処理装置16で実行された文字解析処理(手書きの文字画像をテキストデータに変換する処理)の結果としてのテキストデータが埋め埋め込まれた画像情報Pを情報処理装置10から受信する。なお、送受信部12dは、ネットワークを介して提供される既存の画像情報P(例えば、書籍データや資料データ等)も受信可能である。
【0030】
検索部12eは、表示部12cに表示されている画像情報Pの表示内容に対応して埋め込まれたテキストデータ(透明テキスト)を用いて、画像情報Pから文字検索を行う。検索部12eに、例えば「会議」という文字が入力されると、画像情報Pに埋め込まれた透明テキストから、「会議」というテキストデータが検索される。表示部12cでは、検索結果に対応する文字を、例えば強調表示することによりユーザに認識し易い状態で表示する。
【0031】
情報処理装置10は、主として、手書きの文字画像をテキストデータに変換する解析対象とするか否かを判定する判定処理と、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する抽出処理を実行する。このような処理を実行するために、情報処理装置10は、例えば、取得部10a、判定部10b、抽出部10c、画像情報結合部10d、出力部10e等のモジュールを備える。これらのモジュールは、情報処理装置10のCPUがROM等の不揮発性の記憶部に記憶された(インストールされた)情報処理プログラムを読み出し、当該情報処理プログラムに従って演算処理を実行することにより実現される。なお、判定部10bは、詳細モジュールとして、属性取得部18、比較部20を含み、属性取得部18は、領域抽出部18a、表示態様取得部18b、第1タイムスタンプ取得部18c等を含む。また、比較部20は、第2タイムスタンプ取得部20aを含む。また、出力部10eは、第1出力部10e1と第2出力部10e2とを含む。
【0032】
取得部10aは、情報端末12において生成された手書きされた文字画像I(
図4参照)と、当該文字画像Iが表された表示領域に割り当てられた属性を示す属性情報(注釈データと称する場合がある)と、を含む画像情報Pを情報端末12の送受信部12dを介して取得する取得処理を実行する。また、取得部10aは、第1出力部10e1が文字処理装置16に送信した解析対象の文字の画像が、テキストデータに変換された後に文字処理装置16から返送された場合に、そのテキストデータを取得(受信)する。
【0033】
属性情報(注釈データ)とは、画像情報Pに含まれるメタデータであり、例えば、画像情報Pにおける文字画像の位置を示す座標データと関連付けられて生成されている。属性情報は、情報端末12上で電子ペン12pによって手書き文字が入力されたタイミングで生成される。
図5は、手書きされた文字画像Iに対する属性情報22の付与状態を示す例示的な説明する図である。なお、
図5では図示の都合上、符号の属性情報22の記載を一部省略している。属性情報22は、情報端末12の表示部12c上では表示されないが、情報処理装置10の表示部(不図示)上で必要に応じて表示することができる。属性情報22は、情報処理装置10の表示部上では、例えば、青色の四角で表示される。属性情報22は、例えば、文字画像Iを構成する各文字画像の塊の状態に基づいて、自動的に付与される。
図5に示される例では、タイトルとして書かれた「Meeting」の場合、「Meet」と「ing」が別々に認識され、それぞれの属性情報22が付与されている。また、「reservation」は、一塊で認識され、一つの属性情報22が付与されている。属性情報22の塊の大きさ(長さ)は、例えば、各文字画像の間隔の違いや、各文字画像を手書きしたときの連続性等に基づき決定される。
【0034】
例えば、「Meet」と「ing」との間の空間が他の文字画像の空間、例えば、「M」と「e」との間の空間より広い場合、「Meet」と「ing」とが別々の塊として認識される。また、「Meet」と「ing」の間の空間が他の文字画像の空間と実質的に同じ場合でも、例えば、「Meet」と書いた後に「ing」を書き始めるまでの時間が、「M」と「e」を書く間の時間より長かった場合、例えば、一拍おいて、「ing」を書いた場合、「Meet」と「ing」とが別々の塊として認識される。したがって、同じ文字列の文字画像の場合でも手書きされたときの状態によって、属性情報22として認識される塊の大きさが異なる。例えば、タイトルとして書かれた「reservation」という文字列は、一塊の属性情報22として認識されている。一方、本文中に書かれた「reservation」という文字列は、三つの塊として認識され、三つの属性情報22が付与されている。
【0035】
属性情報22が有する情報は、例えば、当該属性情報22が作成された時刻(日時)情報が含まれる。属性情報22が付与された時刻(手書きされた日時)が、例えば、2019年12月31日00時00分00秒の場合、時刻情報として、「20191231000000」というタイプスタンプが付与される。属性情報22の作成時に付与されるタイムスタンプを第1タイムスタンプと称する。第1タイムスタンプ(属性情報22)は、手書きの文字画像が解析対象の画像か否か判定する際に利用することができる。第1タイムスタンプ(属性情報22)の利用については後述する。
【0036】
また、属性情報22が有する他の情報として、例えば、電子ペン12pで手書きを行う場合に選択したペン色(例えば、青色や赤色等)の情報や電子ペン12pの線の太さ、線種等の表示態様を示す情報が含まれる。
図6は、属性情報22が付与される文字画像Iの表示態様を説明する例示的かつ模式的な図である。
図6は、図示の関係で、青色文字ペンを選択して手書きした文字画像Iaを細字で表し、赤色文字ペンを選択して手書きした文字画像Ibを太字で表している。使用するペン色を異ならせることにより、後から検索対象にするか否かを識別させることができる。例えば、ユーザが後から文字検索を行いたいと考える場合、検索対象として「文章」を指定することは少なく、多くの場合、「単語」や「熟語」を指定して検索を行う。例えば、「Meeting reservation」を、他の文字画像Iとは異なるペン色、例えば、赤色文字ペンを選択して手書きしておけば、「Meeting reservation」のみを解析対象としてテキストデータに変換しておけばよいことになる。この場合、ユーザが求める「Meeting reservation」の内容、すなわち、
図4の本文を迅速に認識することができる。このように、属性情報22に含まれる文字画像Iの表示態様を用いて文字情報を解析対象とするか否かを決定することが可能となり、文字処理装置16における解析時間の短縮、解析コストの低減を図ることできる。また、他の実施形態では、属性情報22として、
図6に示される通り、文字の線の太さを用いてもよい。この場合、細字文字ペンを選択して手書きした文字画像Iaで表し、太字文字ペンを選択して手書きした文字画像Ibを表す。そして、後から検索したい文字画像を、太字文字ペンを選択して手書きしておけば、太文字の文字情報のみを解析対象として判定する処理を容易に行うことができる。同様に、属性情報22が有する情報として、電子ペン12pの線種、例えば、実線と破線等を用いてもよく同様の効果を得ることができる。属性情報22に含まれる文字画像Iの表示態様の利用詳細については後述する。
【0037】
画像情報Pは、様々な状況で利用される。このため、画像情報Pに埋め込まれ文字画像のデータ量が大きい場合もある。このような場合に全ての文字画像に対応するテキストデータを生成すると、文字処理装置16の処理負担が大きくなる。また、文字処理装置16でテキストデータに変換するサービスが有料な場合には、コストが大きくなる。
【0038】
さらには、画像情報Pに埋め込まれた文字画像に対応するテキストデータが埋め込まれた後に、別の文字画像が埋め込まれた場合に、画像情報P全体についてテキストデータに変換しようとすると、同一の文字画像に対して複数回テキストデータへの変換が行われることになる。そこで、本実施形態においては、文字画像に対応付けられた属性情報22に応じて解析対象とするか否かを判定することとした。
【0039】
例えば、本実施形態においては、情報端末12を利用するユーザに対して、テキストデータへの変換対象となるための文字の色や、線種を、連絡しておく。これにより、ユーザは、テキストデータに変換したい文字について、当該連絡に従って、文字の色や線種を設定する。これにより、テキストデータの解析対象となる文字を設定可能となる。そして、情報処理装置10においては、下記の構成を備えることで、必要に応じて文字画像をテキストデータに変換することが可能となる。
【0040】
判定部10bは、属性情報22(色、線種、タイムスタンプ等)に基づいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する。
【0041】
属性取得部18の領域抽出部18aは、取得部10aが取得した画像情報Pから属性情報22を抽出する。属性情報22は前述したように、手書きの文字情報が生成されたときの各文字画像の間隔や文字情報が生成されたときの時間差等により、自動的に設定される。
【0042】
表示態様取得部18bは、属性情報22に含まれる表示態様を示すデータを、属性情報22毎に取得する。例えば、文字情報が手書きされた際に利用された電子ペン12pのペン色やペンの太さ等の情報を取得する。
【0043】
判定部10bは、表示態様取得部18bが取得した属性情報22としての表示態様に基づき、文字画像をテキストデータに変換する解析対象とするか否かを判定する。例えば、赤色文字ペンを選択して手書きされた文字画像のみを解析対象とすると決めておくことにより、判定部10bは、画像情報Pに含まれる複数の属性情報22から解析対象とすべき属性情報22(文字画像)を容易に絞り込むことができる。
【0044】
第1タイムスタンプ取得部18cは、属性情報22に含まれる第1タイムスタンプを示すデータを、属性情報22毎に取得する。第1タイムスタンプ取得部18cは、取得した第1タイムスタンプを比較部20に提供する。
【0045】
比較部20の第2タイムスタンプ取得部20aは、取得部10aが取得した画像情報Pに埋め込まれている第2タイムスタンプを取得する。第2タイムスタンプは、情報処理装置10が文字処理装置16に対して文字画像をテキストデータに変換する要求を行った時刻を示す情報である。つまり、今回の処理で取得部10aが取得した画像情報Pと同じ画像情報Pが、取得部10aで過去に取得され、そのときに、文字画像を解析対象にするか否かの判定が全て完了した場合に、処理の完了を示す時刻(日時)として第2タイムスタンプが画像情報Pに付与される。したがって、取得部10aが今回取得した画像情報Pに新たに手書き文字画像が追加されていたり、文字画像が修正されていたりする場合、追加や修正が行われた属性情報22に付与される第1タイムスタンプが示す時刻(日時)は、画像情報Pに付与されている第2タイムスタンプが示す時刻(日時)より後の時刻となる。つまり、比較部20は、今回の処理で、第2タイムスタンプと、画像情報Pに埋め込まれた各属性情報22の第1タイムスタンプとを比較することにより、新たに追記されたり、修正されたりした属性情報22(文字画像)を容易に特定することができる。
【0046】
例えば、今回の処理で対象としている画像情報Pに「20200114000000」という第2タイムスタンプが埋め込まれていた場合を考える。この場合、前回の処理で、情報処理装置10が文字処理装置16に対して文字画像をテキストデータに変換する要求を行った時刻(属性情報22対する判定処理が全て完了した時刻)が、2020年01月14日00時00分00秒であることを示す。一方、今回の処理で対象としている画像情報Pに含まれる属性情報22(文字画像)の第1タイムスタンプが、「20191231000000」の場合、両者を比較すると、第2タイムスタンプ>第1タイムスタンプとなる。つまり、「20191231000000」という第1タイムスタンプが付与された属性情報22は、既に前回の処理以前に解析対象とされ、文字処理装置16において、文字認識処理(テキストデータ化)が行われていることになる。この場合、第2タイムスタンプ>第1タイムスタンプとなった属性情報22は、これ以降は判定処理自体が不要であると見なせるので、解析対象外ファイルに移動してもよい。その結果、次回処理における比較部20の処理が軽減できる。逆に、第2タイムスタンプ<第1タイムスタンプとなる、第1タイムスタンプが付与された属性情報22が存在する場合、その属性情報22(文字画像)は、前回の処理の後に、追記または修正された文字画像であり、今回の処理で、解析対象とする必要がある属性情報22であると見なすことができる。
【0047】
したがって、判定部10bは、文字画像をテキストデータに変換する解析対象とするか否かを判定する場合、第1段階処理として、表示態様取得部18bが取得した属性情報22の表示態様に基づいて、ユーザが希望する文字画像を解析対象とする。例えば、電子ペン12pを使用する場合に赤色文字ペンを選択して手書きした文字画像に対応する属性情報22を解析対象とする。そして、判定部10bは、第2段階処理として、画像情報Pに埋め込まれている第2タイムスタンプと、各属性情報22に埋め込まれている属性情報22(この場合、赤色文字ペンを示す属性情報22)の第1タイムスタンプとの比較を行い、過去に解析対象にされていない属性情報22を今回の解析対象とする。このように、判定部10bは、2段階で判定処理を行うことにより、解析対象とする属性情報22を高精度に選択することができる。なお、判定部10bは、上述した第1段階処理(表示態様に基づく判定)のみを実行して、解析対象にするか否かの判定を行ってもよい。この場合、解析対象の判定精度を容易に向上することができる。また、ユーザの希望する文字画像のみを解析対象とすることができるので、判定処理が容易になる。また、判定部10bは、第2段階処理(タイムスタンプの比較に基づく判定)のみを実行して、解析対象にするか否かの判定を行ってもよい。この場合、解析対象が重複してしまうことを容易に回避し、テキストデータへの変換コストの削減に寄与できる。また、画像情報Pがアップデートされた部分(追記、修正された部分)のみを解析対象とすることができるので、処理効率を向上することができる。
【0048】
抽出部10cは、判定部10bにおいて、解析対象と判定された属性情報22(文字画像)に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する。判定部10bにおいて、例えば
図5における「February 5」に対応する属性情報22が、解析対象と判定された場合、抽出部10cは、「February 5」が対応する表示領域から「February 5」の画像を抽出する。
【0049】
画像情報結合部10dは、解析対象と判定されたて抽出部10cによって抽出された画像が、文字処理装置16に送られ、テキストデータに変換され、返送されてきた場合、そのテキストデータ(透明テキスト)に対する処理を実行する。画像情報結合部10dは、返送されたテキストデータを解析対象と判定された属性情報22の対応する位置(座標)に埋め込む場合に、テキストデータを文字列として統合し、検索可能な状態にする。例えば、
図5おいて、「February」は、「Februa」と「ry」に属性情報22が分離されている。この場合、それぞれの属性情報22にテキストデータが埋め込まれた場合でも、検索部12eは、「February」という単語を検索することができない場合がある。そこで、画像情報結合部10dは、
図5に示されるように、隣接する属性情報22同士のずれ、例えば、縦方向のずれや横方向のずれの大きさを判定し、近いお互いに近い属性情報22同士を、
図8に示しように一つの文字列24として結合する。その結果、情報端末12の検索部12eは画像情報P上で、「February」という単語(文字)を含む文字列24を検索できるようになる。なお、画像情報結合部10dは、属性情報22を結合する場合、「February」等のように単語単位で統合してもよいし、「the head office」等のように熟語単位で統合してもよい。
【0050】
第1出力部10e1は、抽出部10cが抽出した解析対象となった手書きされた文字を表した文字の画像を文字処理装置16に向けて出力する。また、第2出力部10e2は、画像情報結合部10dによって、文字列24として結合された属性情報22を含む画像情報P(透明テキストが埋め込まれた画像情報P)を情報端末12に向けて出力する。
【0051】
文字処理装置16は、受付部16aが情報処理装置10から送信される画像を受け付けると、文字処理部16bは、周知の技術を用いた文字認識処理を実行するとともに、認識された文字をテキストデータに変換する。そして、結果送信部16cは、変換したテキストデータを情報処理装置10に向けて返送する。
【0052】
このように、情報処理装置10は、解析対象と判定された画像のみを文字処理装置16に送信して、文字認識、テキストデータ変換を行わせるので、文字処理装置16における処理時間の短縮、文字処理装置16における処理コストの低減を行うことができる。つまり、情報処理装置10は迅速かつ低コストで、検索に適したテキストデータが埋め込まれた画像情報Pを情報端末12に返送することができる。
【0053】
図8は、上述のように構成される情報処理システム100における処理シーケンスを説明する例示的かつ模式的な図である。
【0054】
情報端末12は、当該情報端末12と情報処理装置10とが送受信部12dを介して有線または無線で接続された場合に、情報処理装置10がネット経由等で取得した画像情報Pや、情報処理装置10で作成された画像情報Pを画像情報受付部12a1で受け付け、逐次、記憶部12bに記憶する(S1a)。また、画像情報受付部12a1は、送受信部12dを介してネット経由で提供される画像情報Pを受け付けて記憶部12bに記憶してもよい(S1b)。
【0055】
情報端末12は、情報処理装置10から通信が切り離された通常使用状態において、画像情報Pを表示部12cに表示し、ユーザに画像情報Pを視認させることができる。また、情報端末12の手書き画像受付部12a2は、表示部12c上にユーザにより描かれた文字等の手書き文字を画像(イメージデータ)として適宜受け付けることができる(S2)。手書き画像受付部12a2は、情報端末12上に表示されている画像情報Pと手書き文字が入力された位置(座標)とを対応付けて、記憶部12bに逐次記憶させる。
【0056】
次に、情報端末12が手書き入力された文字画像のテキスト化のために情報処理装置10に接続された場合、情報処理装置10の取得部10aは、情報端末12に対して、画像情報Pの送信を要求する(S3)。情報端末12は、情報処理装置10の要求に対して、送受信部12dを介して、画像情報Pを送信する(S4)。この場合、送受信部12dは、記憶部12bに記憶されている画像情報Pの全てを送信対象としてもよいし、ユーザにより指定された画像情報Pを選択的に送信するようにしてもよい。
【0057】
情報処理装置10は、情報端末12から画像情報Pを取得すると、取得した画像情報Pに対に含まれる文字画像が解析対象か否かを判定する判定処理の開始を指示する(S5)。この場合、判定部10bは、まず、第1段階処理として属性情報22に含まれる文字画像の表示態様に基づいて、当該文字画像をテキストデータに変換する解析対象とするか否かを判定する(S6)。続いて、判定部10bは、第2段階処理として、属性情報22に含まれる第1タイムスタンプと画像情報Pに埋め込まれた第2タイムスタンプとの比較に基づいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する(S7)。
【0058】
判定部10bによって解析対象が判定され、抽出部10cによって解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像が抽出されると、第1出力部10e1は、その画像を文字処理装置16に送信する(S8)。
【0059】
文字処理装置16の文字処理部16bは、情報処理装置10から送信された画像に対して文字認識処理およびテキストデータ化処理等の解析処理を実行し(S9)、結果送信部16cは、解析結果(テキストデータ)を情報処理装置10に返送する(S10)。
【0060】
情報処理装置10では、文字処理装置16からテキストデータを取得すると、画像情報Pにおいて解析対象と判定された属性情報22の位置(座標)に対応するテキストデータ(透明テキスト)を埋め込むとともに、
図7に示すようにテキストデータの結合処理を行い、文字列24とする(S11)。そして、第2出力部10e2は、テキストデータ(透明テキスト)が埋め込まれた画像情報Pを情報端末12に返送する(S12)。その結果、情報端末12では、手書き入力された文字画像を含む画像情報Pに対してテキストデータを用いた文字検索が可能となる。
【0061】
図9は、情報処理装置10において、文字画像をテキストデータに変換する解析対象とするか否かを判定する処理の流れを説明する例示的なフローチャートである。
【0062】
判定部10bは、取得部10aが取得した画像情報Pに含まれる一つの属性情報22から表示態様(例えば、使用された電子ペン12pのペン色)を取得する(S100)。取得した表示態様が、ユーザが検索対象の文字を手書きする場合に使用する色(例えば、赤色)の場合(S102のYes)、属性情報22に対応する座標の領域を画像に変換する(S104)。判定部10bは、取得部10aが取得した画像情報Pに含まれる全ての属性情報22がS100において取得(選択)済みか否か判定し(S106)、取得(選択)していない属性情報22が残っている場合(S106のNo)、S100に移行して、残っている属性情報22の取得を行いS102の判定処理を行う。また、S102において、判定部10bが取得した属性情報22の表示態様が、ユーザが検索対象の文字を手書きする場合に使用する色以外(例えば、青色)の場合(S102のNo)、S100に移行し、他の属性情報22の取得を行う。なお、S100〜S106の処理が、判定部10bにおいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する場合の第1段階処理(判定処理)に相当する。
【0063】
判定部10bは、取得部10aが取得した画像情報Pに含まれる全ての属性情報22がS100において取得済みとなった場合(S106のYes)、第2タイムスタンプ取得部20aは、画像情報Pに第2タイムスタンプが埋め込まれているか確認する(S108)。画像情報Pに第2タイムスタンプが埋め込まれている場合(S108のYes)、第1タイムスタンプ取得部18cは、S104で画像に変換された領域に対応する属性情報22のいずれかの第1タイムスタンプを取得する(S110)。そして、比較部20において、第2タイムスタンプと第1タイムスタンプとの比較を行い(S112)、第2タイムスタンプより第1タイムスタンプが古い場合(S112のYes)、その第1タイムスタンプが埋め込まれた属性情報22に対応する画像を解析対象外フォルダに移動する(S114)。つまり、再度、この画像情報Pが取得部10aによって取得された場合、その属性情報22は、解析対象からはじめから除外して、判定処理が重複して行われることを回避する。
【0064】
第1タイムスタンプ取得部18cは、S110において、S104で画像に変換された領域に対応する全ての属性情報22の第1タイムスタンプが取得済みになった場合(S116のYes)、取得部10aが取得した画像情報Pの第2タイムスタンプを現在の時刻で更新する(S118)。そして、判定部10bは、解析対象外ファイルに移動しなかった属性情報22に対応する画像を、今回の処理において、文字画像をテキストデータに変換する解析対象に決定するとともに、抽出部10cは、解析対象と判定された画像を抽出し(S120:抽出処理)、このフローを一旦終了する。
【0065】
なお、S116において、S104で画像に変換された領域に対応する全ての属性情報22の第1タイムスタンプがまだ取得し終わっていない場合(S116のNo)、S110に移行し、S104で画像に変換された領域に対応する他の属性情報22の第1タイムスタンプを取得し、S112以降の処理を繰り返し実行する。また、S112において、第2タイムスタンプより第1タイムスタンプが古くない場合(S112のNo)、S110に移行し、S104で画像に変換された領域に対応する他の属性情報22の第1タイムスタンプを取得し、S112の処理を繰り返し実行する。
【0066】
S108において、画像情報Pに第2タイムスタンプが埋め込まれていない場合(S108のNo)、取得部10aが取得した画像情報Pに対して、文字画像をテキストデータに変換する解析対象とするか否かを判定する処理を初めて実行していると見なせる。この場合、判定部10bは、画像情報Pに新規の第2タイムスタンプを埋め込み(S122)、S120の処理に移行する。つまり、判定部10bは、文字画像をテキストデータに変換する解析対象とするか否かの判定を第1段階処理によって決定する。なお、S110〜S118、S122の処理が、判定部10bにおいて、文字画像をテキストデータに変換する解析対象とするか否かを判定する場合の第2段階処理(判定処理)に相当する。
【0067】
このように、本実施形態の情報処理装置10によれば、文字画像をテキストデータに変換する解析対象とするか否かを判定し、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する。その結果、手書き入力された文字画像の解析を実行させる際に、処理時間の短縮、コストの軽減が可能なように、解析対象となる文字情報を決定することのできる情報処理装置を得ることができる。
【0068】
また、情報処理装置10の判定部10bは、属性情報である、ユーザが手書き入力時に指定した文字画像の表示態様に基づいて解析対象か否かを判定する。その結果、解析対象の判定精度を容易に向上することができる。また、ユーザの希望する文字画像のみを解析対象とすることができるので、処理が容易になる。
【0069】
また、情報処理装置10の判定部10bは、属性情報である、文字画像が画像情報に埋め込まれた時刻を示した第1のタイムスタンプに基づいて解析対象か否かを判定する。その結果、解析対象の判定精度を容易に向上することができる。
【0070】
また、情報処理装置10の判定部10bは、属性情報22に埋め込まれた第1のタイムスタンプと、画像情報に埋め込まれた第2のタイムスタンプと、の比較に基づいて、解析対象か否かを判定する。その結果、解析対象が重複してしまうことを容易に回避し、テキストデータへの変換コストの削減に寄与できる。また、画像情報Pがアップデートされた部分(追記、修正された部分)のみを解析対象とすることができるので、処理効率を向上することができる。
【0071】
また、情報処理装置10は、さらに、抽出した文字の画像を、手書きされた文字の画像をテキストデータに変換する文字処理装置に送信する出力部を備える。この場合、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像のみが文字処理装置に出力されるので、情報処理装置10と文字処理装置16との間で実行される処理時間の短縮に寄与することができる。
【0072】
また、情報端末12と、情報処理装置10と、文字処理装置16と、を備える情報処理システム100によれば、情報処理装置10は、文字画像をテキストデータに変換する解析対象とするか否かを判定し、解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する。その結果、情報処理装置10は、抽出した手書きされた文字を表した文字の画像のみを文字処理装置16に送信し、文字の解析を実行させて、その解析結果を画像情報Pに反映させることができる。したがって、情報端末12において、文字検索が可能な画像情報Pの取得を短所時間、低コストで実現し易くすることができる。
【0073】
また、情報処理装置10による上述したような処理を実現する情報処理プログラムによれば、文字画像をテキストデータに変換する解析対象とするか否かを判定する判定処理および解析対象と判定された文字画像に対応する表示領域から、手書きされた文字を表した文字の画像を抽出する抽出処理を、パーソナルコンピュータ上で容易に実現することができる。
【0074】
なお、本実施形態の情報処理装置10のCPUで実行される情報処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
【0075】
さらに、情報処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される情報処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
【0076】
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。