IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ キヤノン株式会社の特許一覧

特許7438752情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-02-16
(45)【発行日】2024-02-27
(54)【発明の名称】情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラム
(51)【国際特許分類】
   H04N 1/32 20060101AFI20240219BHJP
   H04N 1/00 20060101ALI20240219BHJP
【FI】
H04N1/32 144
H04N1/00 127A
H04N1/00 Z
【請求項の数】 11
(21)【出願番号】P 2019237033
(22)【出願日】2019-12-26
(65)【公開番号】P2021106332
(43)【公開日】2021-07-26
【審査請求日】2022-12-20
(73)【特許権者】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】110001243
【氏名又は名称】弁理士法人谷・阿部特許事務所
(72)【発明者】
【氏名】石田 祐樹
(72)【発明者】
【氏名】酒井 洋行
(72)【発明者】
【氏名】大曲 勇気
(72)【発明者】
【氏名】鈴木 智博
(72)【発明者】
【氏名】浦谷 充
【審査官】花田 尚樹
(56)【参考文献】
【文献】特開2013-235553(JP,A)
【文献】特開2006-072580(JP,A)
【文献】特開2016-161479(JP,A)
【文献】特開2012-181701(JP,A)
【文献】特開2014-215723(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 1/32 - 1/36
1/42 - 1/44
H04N 1/00
(57)【特許請求の範囲】
【請求項1】
像を撮像して撮像画像を取得する取得手段と、
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報を抽出する抽出手段と、
ユーザがタッチパネルに触れたことに対応するタッチ情報が取得された場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御する制御手段と、
を有することを特徴とする情報処理装置
【請求項2】
前記制御手段は、ユーザが前記タッチパネルの特定の位置に触れた場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御することを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記制御手段は、ユーザが前記タッチパネルに表示された前記撮像画像の特定の部分に触れた場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御することを特徴とする請求項1に記載の情報処理装置。
【請求項4】
画像を撮像して撮像画像を取得する第1の取得手段と、
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報であって、閲覧情報と、前記閲覧情報の閲覧を許可されたユーザのIDである第1ユーザIDとを含む付加情報を抽出する抽出手段と、
前記画像を撮影したユーザのIDである第2ユーザIDを取得する第2の取得手段と、
前記第1ユーザIDと前記第2ユーザIDとが一致する場合に、前記抽出手段で抽出された付加情報に含まれる前記閲覧情報を表示するように制御する制御手段と、
を有することを特徴とする情報処理装置
【請求項5】
前記第2ユーザIDは、顔認証によって得られることを特徴とする請求項に記載の情報処理装置
【請求項6】
前記第1の取得手段は、第1のカメラで撮像された前記撮像画像を取得し、
前記第2の取得手段は、前記第1のカメラとは異なる第2のカメラによってユーザを撮影した撮影画像から顔認証によって前記第2ユーザIDを取得することを特徴とする請求項4に記載の情報処理装置。
【請求項7】
前記第2の取得手段は、前記情報処理装置が備える指紋認証機能を用いた指紋認証によって特定されたユーザ、あるいは前記情報処理装置が備える音声認証機能を用いた音声認証によって特定されたユーザのIDを前記第2ユーザIDとして取得することを特徴とする請求項4に記載の情報処理装置。
【請求項8】
コンピュータを、請求項1乃至7のいずれか1項に記載された情報処理装置の各手段として機能させるためのプログラム。
【請求項9】
コンピュータを、請求項1乃至7のいずれか1項に記載された情報処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
【請求項10】
画像を撮像して撮像画像を取得する取得ステップと、
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報を抽出する抽出ステップと、
ユーザがタッチパネルに触れたことに対応するタッチ情報が取得された場合に、前記抽出ステップで抽出した付加情報を前記タッチパネルに表示するように制御する制御ステップと、
を有することを特徴とする情報処理装置の制御方法。
【請求項11】
画像を撮像して撮像画像を取得する第1の取得ステップと、
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報であって、閲覧情報と、前記閲覧情報の閲覧を許可されたユーザのIDである第1ユーザIDとを含む付加情報を抽出する抽出ステップと、
前記画像を撮影したユーザのIDである第2ユーザIDを取得する第2の取得ステップと、
前記第1ユーザIDと前記第2ユーザIDとが一致する場合に、前記抽出ステップで抽出された付加情報に含まれる前記閲覧情報を表示するように制御する制御ステップと、
を有することを特徴とする情報処理装置の制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像内に電子透かしとして埋め込まれた付加情報を取得して、所定の処理を行う情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラムに関する。
【背景技術】
【0002】
特許文献1には、画像に付加情報としてUniform Resource Locator(以下、URLという)を埋め込み、ソフトウエアによって埋め込まれたURLを読み取ることで、ユーザがネットワークにアクセスすることが記載されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2005-051793号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、特許文献1の方法では、画像に埋め込まれた付加情報は、変更することができない。そのため、ソフトウエアによって埋め込まれた付加情報を読み取ることで成される処理は、常に同じ処理であり、例えば、ユーザが画像を読み取った日時や場所などの状況に合わせた処理を行うことはできなかった。
【0005】
よって本発明は、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラムを提供する。
【課題を解決するための手段】
【0006】
そのため本発明の情報処理装置は、像を撮像して撮像画像を取得する取得手段と、前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報を抽出する抽出手段と、ユーザがタッチパネルに触れたことに対応するタッチ情報が取得された場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御する制御手段と、を有することを特徴とする。
【発明の効果】
【0007】
本発明によれば、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラムを提供することができる。
【図面の簡単な説明】
【0008】
図1】多重化エンコードのためのハードウェアの構成を示した図である。
図2図1(a)の付加情報多重化装置のハードウェア構成を示した図である。
図3】画像情報から付加情報を抽出するハードウェアの構成を示した図である。
図4】多重化エンコード処理を行うファームウェア構成を示したブロック図である。
図5】画像情報を復号化する画像復元処理を示したフローチャートである。
図6】色補正テーブルを示した図である。
図7】四面体補間のイメージ図である。
図8】色分解テーブルの一例を示した図である。
図9】誤差拡散法における誤差分配方法を説明する図である。
図10】バイナリデータに対応するマスクデータを示した図である。
図11】多重化エンコード処理を示すフローチャートである。
図12】多重化部のファームウェア構成を示したブロック図である。
図13】周波数特性が異なるマスクパターンを数値化した図である。
図14】多重化エンコード処理後の記録処理を示したフローチャートである。
図15】多重化デコード処理のファームウェアのブロック構成とイメージ図である。
図16】周波数特性の差を示す図とブロック毎に多重化された記録媒体の図である。
図17】周波数特性を判定する際の検出位置を説明するための図である。
図18】多重化デコード処理を示すフローチャートである。
図19】画像を抽出するイメージ図と抽出処理を示したフローチャートである。
図20】画像を抽出するイメージ図と抽出処理を示したフローチャートである。
図21】画像を抽出するイメージ図と抽出処理を示したフローチャートである。
図22】画像を抽出するイメージ図と抽出処理を示したフローチャートである。
図23】画像を抽出するイメージ図と抽出処理を示したフローチャートである。
図24】抽出処理を示したフローチャートである。
【発明を実施するための形態】
【0009】
以下、電子透かしとして付加情報が埋め込まれた画像に関する実施形態について記載する。ここでの電子透かしとは、画像に対して不可視に、もしくは視認することが困難な状態で埋め込まれた情報である。このような情報は、該画像に対して装置が解析を行うことにより抽出可能である。この解析の詳細については後述する。なお、以降の説明において、電子透かしとしての情報の埋め込みを、画像に対する該情報の「多重化」として表現する。
【0010】
(第1の実施形態)
以下、図面を参照して本発明の第1の実施形態について説明する。先ず、画像情報に付加情報を埋め込む多重化エンコード処理部と、撮影画像(撮像情報)から付加情報を抽出する多重化デコード処理部の基本構成について説明する。
【0011】
先ず、多重化エンコード処理部と多重化エンコード処理について説明する。
図1は、本実施形態において、画像情報Aに付加情報Bを埋め込む多重化エンコードのためのハードウェアの構成を示した図である。このハードウェアは、画像情報Aと付加情報Bとを取得し、それらの画像情報Aに付加情報Bが埋め込まれた印刷物Cを生成する。
【0012】
図1(a)のハードウェアは、付加情報多重化装置102と記録装置103とを備えており、付加情報多重化装置102によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録装置103で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。図1(b)のハードウェアは、記録装置103の内部に付加情報多重化部105と記録部106とを備え、付加情報多重化部105によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録部106で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。本実施形態を実現可能なハードウェアの構成は、図1(a)または図1(b)のいずれの構成でもよい。
【0013】
図1(a)の構成において、入力端子100から入力される画像情報Aは、色成分を含む多階調の画像情報である。入力端子101から入力される付加情報Bは、テキスト文書情報、音声情報、動画情報、あるいはテキスト文書情報、音声情報、画像、動画情報を圧縮した情報、および他のバイナリ値に変換された情報などである。多重化装置102は、後述するように、画像情報Aに付加情報Bを埋め込む多重化処理を行う。記録装置103は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。
【0014】
図1(b)の構成において、図1(a)の多重化装置102に相当する多重化部105は、記録装置103に含まれており、図1(a)の構成と同様に、入力端子100から画像情報Aが入力され、入力端子101から付加情報Bが入力される。記録装置103内の多重化部105は、画像情報Aに付加情報Bを埋め込む処理を行う。また、記録部106は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。このように付加情報Bが埋め込まれた画像情報A’に基づいて印刷物Cを生成する処理を「多重化エンコード処理」ともいう。
【0015】
図2は、図1(a)の付加情報多重化装置102のハードウェア構成を示した図である。CPU202は、中央演算装置であり、例えば、付加情報Bを多重化する処理をプログラムに従って実行する。ROM203は、CPU202により実行されるプログラムを記憶する。RAM204は、CPU202によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供する。2次記憶装置205は、例えばハードディスクであり、画像ファイルや付加情報などを保存するための記憶媒体である。ディスプレイ206は、ユーザインタフェース画面や処理内容等を表示する。キー入力装置207は、キーボードなどの機器の操作を介して処理の指示や設定、文字入力等を受け付ける。ネットワークインタフェース208は、例えばLAN(Local Area Network)に接続されている。また、LANは、インターネットに接続されている。CPU202は、ネットワークインタフェース208により、インターネットに接続されたサイトにアクセスして、ディスプレイ206にサイトの画面を表示させ、情報を送受信する。付加情報多重化装置102は、例えばコンピュータやスマートフォンなどの情報処理装置であるが、画像情報Aに付加情報Bを埋め込む処理が実行可能であれば他の形態の装置でもよい。
【0016】
図3は、印刷物Cに記録された画像情報A’から付加情報Bを抽出するハードウェアの構成を示した図である。ここでは、画像情報A’から付加情報Bを抽出するハードウェアとしてモバイル端末301を例に説明する。
【0017】
モバイル端末301は、多重化エンコード処理された印刷物Cをカメラなどの撮像装置によって撮像して、その撮影画像を解析することによって、画像に埋め込まれている付加情報Bを抽出する。
【0018】
撮像センサ302を保持するカメラ付きのモバイル端末(情報処理装置)301は、印刷物Cの撮影機能をもつ。付加情報Bの分離装置303は、撮像センサ302によって撮影された画像を解析することによって、後述するように、付加情報Bを抽出する。CPU(中央演算装置)304は、プログラムにしたがって情報処理方法を実行し、ROM305には、CPU304によって実行されるプログラムが記憶されている。RAM306は、CPU304によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリとして機能する。ハードディスク等の2次記憶装置307は、画像ファイルおよび画像解析結果を含むデータベースなどを保存する。ディスプレイ308は、CPU304の処理結果などをユーザに提示する。
【0019】
キー入力装置309は、タッチパネル機能を備えるディスプレイ308を用いて、タッチパネルの操作によって処理の指示および文字の入力等を行う。無線LAN(Local Area Network)310はインターネットに接続されており、インターネットに接続されたサイトにアクセスして、ディスプレイ308にサイトの画面などを表示させる。無線LAN310は、データを送受信などにも用いられる。スピーカー311は、抽出された付加情報Bが音声情報または音声付動画データの場合に、音声を出力する。また、インターネットの接続先に動画データがある場合には、その動画データの再生時に音声を出力する。加速度計312は、モーションセンサを搭載しており、モバイル端末301を所持して歩いた時の歩数やモバイル端末301がどちらの方角を向いているかを提示する。
【0020】
ジャイロスコープ313は、モバイル端末301がどのような姿勢を維持しているかを感知し、加速度計312の精度をさらに向上させる。GPS(Global Positioning System)314は人工衛星と通信しモバイル端末301の地球上の位置を提示する。第二撮像センサ315は撮像センサ302と同等の機能を持つ撮像センサであり、撮像センサ302と同様に画像や動画を撮影することができる。時計316は時刻を管理する。ユーザが手動で時刻を調整する事もできるが、無線LAN310を介してサーバ上の時刻を取得し、自動で調整する事も可能である。国や地球上の位置によって時刻は変わる為、ユーザは手動もしくは自動で調整する。
【0021】
モバイル端末301はスマートフォン、タブレット、PC、デジタルカメラ、ビデオカメラやウェアラブル端末を使った構成が考えられる。また、モバイル端末301は、撮像センサ302を内蔵する構成に限定されない。例えば、モバイル端末301とは別の装置によって撮像センサ302を制御して、撮影画像を付加情報の分離装置303に送信する構成であってもよい。撮像センサ302としては、デジタルカメラおよびビデオカメラなどを用いることができる。また、付加情報Bの分離装置303としては、パソコンおよびスマートフォンなどを用いることができ、印刷物Cから付加情報Bを抽出できる構成であればよい。
【0022】
図4は、多重化エンコード処理を行う基本的なファームウェア構成を示したブロック図である。付属情報の取得部401は、画像情報Aを圧縮する際に使用された各種パラメータを取得する。その取得された各種パラメータは、復元部402で、圧縮された画像から画像情報を抽出するための処理に利用される。また、その取得された各種パラメータは、圧縮度を算出するための処理に利用される。例えば、入力画像は、文書情報をJPEGフォーマットで圧縮して得られた非可逆画像情報であり、記録媒体に記録される。非可逆画像情報には、圧縮する際に使用された量子化テーブルと画像情報サイズとが含まれている。取得された画像情報サイズ情報および量子化テーブルは、画像情報の復元部402に送られる。
【0023】
画像情報の復元部402は、符号化された画像情報を復号化して、画像情報を抽出する。以下では、入力画像をJPEG画像として説明する。
【0024】
ここで図5は、符号化された画像情報を復号化する画像復元処理を示したフローチャートである。以下、このフローチャートを用いて画像復元処理を説明する。図5の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。ここでは、JPEG形式の画像がN個の8画素正方ブロック(8×8画素のブロック)に分割されているものとする。
【0025】
画像復元処理が開始されると、CPU202はS51でn=1として、CPU202はS52で、n番目のブロックをハフマン符号化する。ハフマン符号化は、頻度の高いデータに短いビット数の符号を割当てることによって、全体のビット数を減らすように圧縮する方法である。ハフマン復号化は、予めハフマン符号を仕様で定義しておいて元のデータに復号化する。その後、CPU202はS53で、量子化テーブルを用いて逆量子化する、逆量子化では、付属情報取得部401によって取得された量子化テーブル(画像情報を圧縮する際に使用された量子化テーブル)を用いた逆量子化により画像情報に展開する。次に、CPU202はS54で、画像情報に展開したものを逆DCT変換する。逆DCT変換は、直流成分(DC成分)と交流成分(AC成分)にDCT変換された画像情報を元の画像濃度成分のデータに戻すための逆変換を行う。
【0026】
そして、CPU202はS55でn=n+1として、CPU202はS56で、N=nであるか否かを判定し否判定であればS52に戻り処理を繰り返す。このようにして、上記の処理を対象画面のN個の全ブロックについて実行する。
【0027】
JPEG圧縮は、輝度Y、色差Cb、Cr形式で実施されることが多く、その場合、逆DCT処理が施されたデータもYCbCrの形式になる。下式1により、YCbCr形式の値をRGB形式の画像信号値に変換する。
式1:
R = Y + 1.402×Cr
G = Y - 0.344×Cb - 0.714×Cr
B = Y + 1.772×Cb
【0028】
図4のブロック図に戻り、画像補正部403は、画像情報復元部402により複合化されたRGBデータに対し、画像の補正処理を施す。画像の補正としては、全体の色を明るくまたは暗くする明度調整、コントラスト調整、およびカラーバランスの調整の他、写真の記録を想定した逆光補正および赤目補正などの様々な補正が挙げられる。これらの補正を画像補正部403において一元的に処理することにより、記録装置に依存しない処理を実現することができる。
【0029】
解像度変換部404は、画像情報を記録装置に対応する解像度に変換する。入力される画像情報と、記録装置の解像度と、に応じて導き出された変倍量に基づいて、拡大または縮小の処理を施す。変倍処理としては、ニアレストネイバー、バイリニア、バイキュービック法などが存在し、処理の特性、および処理速度を考慮して適宜選択すればよい。
【0030】
色補正部405は、記録装置103による記録画像が好適な色となるように、画像情報に変換処理を施す。例えば、表示装置に表示された画像を記録する場合、表示装置と記録装置とにおける色再現範囲は必ずしも一致しない。ある色では記録装置の再現範囲の方が狭く、また、別の色では記録装置の再現範囲の方が広い場合がある。そのため、画像の劣化を最小限にして、適宜、色の圧縮および伸長を行う必要がある。
【0031】
本実施形態では、それらの変換処理をRGB形式で実施する。つまり、記録装置103の再現性を考慮して、色補正部405に入力されたRGB値を記録装置用のRGB値(以下、「記録装置用RGB」ともいう)に変換する。この変換は、マトリクスなどの演算によって行うことも可能である。一般的には、3次元の色補正テーブル411が利用される。入力されるRGB値を各色8ビット(256階調)とした場合、全ての組み合わせを保持することは記憶容量の観点から現実的でないため、色補正テーブル411として、所定の間隔で間引かれたテーブルを用いる。
【0032】
ここで図6は、色補正テーブル411を示した図であり、図7は、四面体補間のイメージ図である。本実施形態の色補正テーブル411は、各色256階調を17点のグリッド点とし、それに対応する記録装置用RGB値を記載したテーブルである(17*17*17=4913グリッド点)。グリッド点間の値は、補間処理を利用して算出する。補間方法は、幾つかの方法の中から選択して利用することができ、本実施形態においては四面体補間法を利用した。四面体補間法とは、3次元空間の分割単位を四面体として、4つの格子点を用いる線形補間である。この四面体補間法においては、まず、図7(a)のように3次元空間を四面体に分割してから、ターゲットとなる点pが、分割された四面体のうちのいずれに属するかを決定する。その四面体の4頂点をそれぞれp0、p1、p2、p3とし、図7(b)のように、その四面体をさらに細かい小四面体に分割する。各点の変換値をそれぞれf(p0)、f(p1)、f(p2)、f(p3)とした場合、下式2により補間値f(p)を求めることができる。
【0033】
【数1】
【0034】
ここで、w0、w1、w2、w3は、各頂点piと反対向位置における小四面体の体積比である。このように、対象となるRGB値に対応した記録装置用RGB値を算出する。その場合、階調性を考慮して、出力を8ビット以上としてもよい。また、色補正テーブルは、記録装置の色再現範囲にも依存するため、例えば、記録に使用する記録用紙(記録媒体)が異なる場合は、それに応じたテーブルを準備することが望ましい。
【0035】
図4のブロック図に戻り、インク色変換部406は、色補正部405によって変換された記録装置用RGB値をインク色の値に変換する。この変換には、記録装置用RGB値の組み合わせと、インク色の値と、が予め対応付けられた色分解テーブル412を用いる。色補正部405と同様に、インク色変換部406においてもグリッド点17のテーブルを利用する。
【0036】
ここで図8は、色分解テーブル412の一例を示した図である。本実施形態の色分解テーブル412では、インク色として、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の4色を想定し、各グリッド点に対応した4色の値が収められている。これらの値は、記録用紙の記録面上においてインクが溢れないこと、インク同士が隣接した際に滲まないこと、などを考慮して決定される。そのため、記録に使用する記録用紙が異なる場合は、それに応じた色分解テーブル412を準備することが望ましい。また、上述の色補正部405と同様に、記録装置用RGB値に対応するインク色の値は、四面体補間処理によって補間することができる。
【0037】
図4のブロック図に戻り、濃度補正部407は、画像の記録濃度を補正する。一般的にインクジェット記録装置では、記録用紙上にドットを形成するために付与されるインクの量が多くなるにしたがって、ドットの重なりが増加し、画像の記録濃度が上昇しにくくなる。濃度補正部407は、このような濃度の応答性を均一にするために濃度を補正する。
【0038】
濃度補正により、色補正テーブル411および色分解テーブル412の作成を高精度に行うことができる。C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)のインクを用いる記録装置においては、それらのインク色について濃度補正を行う。本実施形態おいては、1次元の濃度補正テーブル413を用いる。そのテーブルとしては、インク色毎の入力8ビット(256階調)に対応したテーブルを用意しておけばよく、特に間引くことなく、入力信号値と補正後の出力信号値とを対応付けたテーブルを用いることができる。
【0039】
階調変換部408は、インク色毎に変換されて濃度補正が施された多ビットデータを、記録装置において記録可能な階調数に変換する。本実施形態においては、記録「1」/非記録「0」の2階調(1ビット)に変換し、階調の変換方法としては、画像の低周波成分を排除して、視覚に好適な階調の再現が可能な誤差拡散法を用いる。また、入力信号として、0~255の8ビットのデータを想定する。
【0040】
ここで図9は、誤差拡散法における誤差分配方法を説明する図である。ターゲットピクセルの信号値を信号値Lとし、しきい値THとして、信号値Lとしきい値THとを比較する。本実施形態においては、0~255を2値化するためにしきい値THを127とし、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
L>TH ・・・・・・ 1(記録)
L≦TH ・・・・・・ 0(非記録)
【0041】
この判定結果に応じて、量子化代表値Vを下記のように設定する。
1(記録) ・・・・・・ 255
0(非記録) ・・・・・・ 0
【0042】
このように量子化代表値Vを設定することにより、発生する誤差E(=L-V)は、図9の分配係数にしたがって周囲のピクセルに分配される。
【0043】
次のターゲットピクセルの信号値Lに、分配された誤差Eaを加算した値Laと、しきい値THと、を比較し、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
La>TH ・・・・・・ 1(記録)
La≦TH ・・・・・・ 0(非記録)
【0044】
このような処理を全てのピクセル、および全てのインク色C、M、Y、Kに対して実行することにより、記録可能な1ビットのインク色毎の記録データが得られる。
【0045】
図4のブロック図に戻り、付加情報409は、図1(a)の多重化装置102もしくは図1(b)多重化部105において、画像情報Aに埋め込まれる付加情報Bであり、テキスト文書情報などである。テキスト文書情報は、例えば、既に公知である文字コードを利用して、数字および文字を数値に割り当てた数値情報であり、この数値情報が付加情報409として多重化部410に送信される。
【0046】
具体例として、「hello」という文字に対応するテキスト文書情報について説明する。テキスト文書情報は、数値情報いわゆるバイナリデータとする。バイナリデータとは「0」もしくは「1」の情報であり、この「0」もしくは「1」の情報の連続的なつながりが特定の意味を持つ。バイナリデータと文字との対応は、「文字コード」によって定義されている。文字コードの中の1つである「シフトJIS」の場合、「h」はバイナリデータの「01101000」に対応する。
【0047】
同様に、「e」は「01100101」、「l」は「01101100」、「o」は「01101111」のバイナリデータに対応する。したがって、「hello」という文字はバイナリデータでは、「0110100001100101011011000110110001101111」と表現できる。逆に、「0110100001100101011011000110110001101111」というバイナリデータを取得できれば、「hello」という文字を取得することができる。付加情報409は、このようなバイナリデータに変換された数値情報に対応する。
【0048】
付加情報多重化部410は、解像度変換部404において変換された画像情報と、付加情報409と、を受け取り、画像情報に付加情報409を埋め込む。この埋め込み処理(多重化処理)においては、付加情報409(「0」、「1」のバイナリデータに変換されたテキスト文書など)が埋め込まれた画像情報の記録画像から、その付加情報409が読み取れるように、付加情報409を画像情報に埋め込む。例えば、付加情報409の「0」,「1」のバイナリデータが読み取れるように、画像情報にマスク処理を施して、バイナリデータに対応する「0」,「1」の情報を埋め込む。
【0049】
ここで図10(a),(b)は、「0」、「1」のバイナリデータに対応するマスクデータを示した図である。画像データにマスク処理を施すことにより、所定領域の画像情報に、「0」,「1」のバイナリデータに対応する異なる周期性を持たせる。これらのマスクデータを使用する付加情報多重化部410における処理の詳細については後述する。
【0050】
図11は、多重化エンコード処理を示すフローチャートである。以下、このフローチャートを用いて多重化エンコード処理を説明する。図11の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。多重化エンコード処理が開始されると、CPU202はS11で、付属情報取得部401および画像情報復元部402によって、記録用の画像情報Aを取得する。例えば、画像情報Aは、モバイル端末301により予め撮影して、JPEGフォーマットでモバイル端末内のメモリに保存されたデータである。取得したJPEGの画像情報Aを解凍し、静止画の3色8ビットのRGBの画像情報を生成する。また、必要に応じて、画像補正部403によって、取得した画像情報Aに補正もしくは加工処理を施す。
【0051】
その後、CPU202はS12で、画像情報Aに埋め込む付加情報409を取得する。例えば、スマートフォンでキー入力されたテキスト文書情報を取得する。テキスト文書情報は、例えば、公知の文字コードシフトJISを利用して、数字および文字を数値に割り当てた数値情報とする。その数値情報は、付加情報409として多重化部410に送信される。そして、CPU202はS13で、任意に選択された記録媒体のサイズおよび記録装置103の解像度に基づいて、取得した画像情報Aに対して解像度変換処理を施す。例えば、選択された記録媒体のサイズを2Lとした場合、記録装置103における入力解像度の画素数に合わせて、画像情報Aの解像度を変換する。
【0052】
具体的には、記録装置103における入力解像度を600dpi(dot per inch)とした場合、記録媒体のサイズ2Lの画素数を3000画素×4000画素に設定する。この場合、画素数が1500画素×2000画素の画像情報Aに対しては、縦方向および横方向の画素数がそれぞれ2倍となるように解像度変換を行う。入力画像のアスペクト比を変更させたくない場合に、縦方向および横方向の拡大および縮小率を同じにして解像度変換を行う。その後、CPU202はS14で、付加情報の多重化部410によって、画像情報Aに付加情報409を埋め込むための付加情報多重化処理を行って処理を終了する。
【0053】
図12は、本実施形態における多重化部410のファームウェア構成を示したブロック図である。以下、多重化部410における各処理部について説明する。
【0054】
色空間変換部1201は、解像度変換部404においてサイズが変更された画像情報の色空間を、情報多重化のための色空間に変換する処理部である。例えば、下式3のように、情報多重化を行う色空間を色空間YUVのUとし、画像情報のRGBの色空間をYUVの色空間に変換する。
式3:
Y = 0.299×R + 0.587×G + 0.114×B
U =-0.169×R - 0.331×G + 0.500×B
V = 0.500×R - 0.419×G - 0.081×B
【0055】
ブロック位置設定部1202では、後述するブロックの位置座標を設定する。本実施形態では、画像情報を複数のブロック領域に分け、ブロック単位で各画素の濃度を変調させて、図10(a),(b)のマスクデータに対応するパターンを形成させることにより、付加情報409を埋め込む。そのため、ブロック位置設定部1202では、色空間変換後の画像情報を取得し、指定された色のプレーン画像に対して、指定された1つのブロックのサイズに合わせて、ブロックの位置座標を設定する。例えば、色空間YUVのU色のプレーン画像のサイズを縦幅640px、横幅480pxとし、ブロックサイズを縦幅8px、横幅8pxとする。この場合、縦ブロック数は80(=640÷8)、横ブロック数は60(=480÷8)、合計のブロック数は4800(=80×60)となる。例えば、各ブロックの左上座標をブロック位置と定めて設定することができる。
【0056】
数値化部1203は、受信した付加情報409を数値化したデータに変換する。例えば、付加情報409をシフトJISの文字列とする。この場合には、シフトJISの形式によって文字と数値とが対応付けられた変換マップを予め保持しておき、その変換マップを用いて文字列を数値列に変換する。例えば、文字列「hello」の場合、変換後の数値列「0110100001100101011011000110110001101111」となる。
【0057】
パターン選択部1204には、ブロック単位で各画素の濃度変調を行うためのマスクパターンが登録されており、数値化部1203によって数値化された付加情報409に対して適用すべきマスクパターンを選択する。
【0058】
ここで図13(a),(b)は、周波数特性が異なる図10(a),(b)のマスクパターンを数値化した図である。前述したように、図10(a)および図13(a)のマスクパターンは、付加情報409のバイナリデータの「0」に対応し、図10(b)および図13(b)のパターンは、付加情報409のバイナリデータの「1」に対応する。図10(a),(b)の黒の領域901が図13(a),(b)の「2」に対応する。同様に白の領域902が「0」に対応し、斜線の領域903が「-1」に対応する。
【0059】
情報多重化部1205は、色空間変換部1201において色空間変換した画像情報と、ブロック位置設定部1202において設定された各ブロックの位置と、パターン選択部1204において選択されたマスクパターンとを取得する。情報多重化部1205は、これらの取得情報から、画像情報にマスクパターンを適用した画像情報を生成する。
【0060】
印刷物Cの記録画像を撮影する際に、必ずしも画像全体を撮影できるとは限らない。そのため、印刷物Cの記録画像の一部を撮影だけでも付加情報が抽出できるように、同じ付加情報を記録画像中の複数個所に埋め込む。例えば、80ブロックを1つの付加情報とした場合、全ブロック数4800に対して、同じ付加情報を60(=4800÷80)領域に分けて埋め込む。したがって画像情報は60の領域に分けられ、それらのうちの1つの領域に対して、縦幅8px、横幅8pxを1ブロックとした80ブロックの付加情報が埋め込まれる。80ブロックを1つの付加情報として取り扱うことにより、80ビットの付加情報が設定できる。但し、80ビットの開始位置が分かるように、シフトJISにおいては文字として表現されていない「11111111」の8ビットを付加情報の先頭に含ませる。したがって、72(=80-8)ビットのデータが付加情報となる。
【0061】
80ビット内に収まるデータは、数値化部1203において数値化された付加情報の「0」,「1」の数値列であり、8px×8pxの1ブロック毎に数値が定義され、その数値に対応するマスクパターンが選択される。画像情報における8px×8pxのブロックに、付加情報に対応するマスクパターンが埋め込まれる。例えば、画像データをYUVのU色プレーンとし、それを1ブロック毎に処理し、そのYUVのU色プレーンの値に図12(a),(b)のマスクパターンの値を適用する。例えば、下記のように、それらのマスクパターンの数値に応じてYUVのU色プレーンの値(U値)を加減算処理し、その加減算処理を行う基準値を10とする。
式4:
適用後のU値 = YUVのU値 + 基準値 × マスクパターンの数値
【0062】
例えば、1ブロック内の1画素のU値が「20」であり、適用するマスクパターンの数値が「0」である場合には、下式5のようにU値が処理される。
式5:
適用後のU値 = 20 + 10 × 0 = 20
【0063】
また、1ブロック内の1画素のU値が「30」であり、適用するマスクパターンの数値が「2」の場合には、下式6のようにU値が処理される。
式6:
適用後のU値 = 30 + 10 × 2 = 50
【0064】
このように本実施形態においては、画素毎に適用するマスクパターンの数値と、基準値と、を掛け合わせた値を加算することによって、多重化を実現する。マスクパターンの適用方法は、U色プレーン上に、マスクパターンを埋め込むことができればよく、本実施形態の方法に限定されず、例えば、YUVのU値に、マスクパターンの数値を掛け合わせてもよい。
【0065】
このような多重化エンコード処理は、図1(a)の付加情報多重化装置102または図1(b)の付加情報多重化部105によって実行される。多重化エンコード処理は、記録装置103によって処理されてもよく、記録装置103によって処理されなくてもよい。多重化装置102もしくは多重化部105において生成された多重化エンコード処理後の画像情報は、記録装置103もしくは記録部106に送信される。
【0066】
図14は、多重化エンコード処理後の画像情報の記録処理を示したフローチャートである。図14の処理は、例えば、記録装置が備えるCPUがROMに記憶されたプログラムをRAMに読み出して実行することにより実現される。以下、このフローチャートを用いて多重化エンコード処理後の画像情報の記録処理を説明する。
【0067】
多重化エンコード処理後の画像情報の記録処理が開始されると、CPUはS31で、付加情報多重化部410において付加情報409が埋め込まれた画像情報(多重化画像データ)を取得する。次にCPUはS32で、色補正部405によって、多重化画像データに適宜、色補正を施す。次にCPUはS33で、インク色変換部406、濃度補正部407、階調変換部408において、色補正後の画像情報をインク色の値に変換してから濃度を補正し、その濃度補正後の画像情報を階調数に変換することにより記録データを生成する。生成された記録データは、記録エンジンに送信される。そして、CPUはS34で記録エンジンを制御することで、記録データに基づいて各色のインクを記録媒体に付与することにより印刷物Cを生成する。
【0068】
以下、多重化デコード処理部と多重化デコード処理について説明する。
図15(a)は、本実施形態における多重化デコード処理の基本ファームウェアのブロック構成を示す図であり、図15(b)は、多重化エンコード処理された印刷物をカメラ付きのモバイル端末301で撮影するイメージを示した図である。多重化デコード処理によって印刷物に埋め込まれている付加情報を抽出する。以下、多重化デコード処理部の詳細について説明する。
【0069】
撮像センサ302は、撮像部1501と色調整部1502とを含む。付加情報分離装置303は、多重化位置検出部1503、付加情報分離部1504、抽出データ解析部1505を含む。本実施形態では、テキスト文書データや音声データや動画データなどの数値化された付加情報のデータが、印刷物1411上にパターン形状として付加されているものとする。例えば、付加情報は、印刷物C全体に、同じ情報を領域毎に繰り返し付加されている。撮像部1501は、多重化エンコード処理された印刷物Cを、撮像センサ302内の撮像素子で、撮像画像データに変換する。
【0070】
撮像センサ302が備える撮像素子であるCCDについては、既に公知の技術なので、詳細な説明は省略する。概略を説明すると、CCDは、光をフォトダイオードという受光素子が感知して、光を電圧に変化させることが可能である。その際に、素子毎に配置したRGBやCMYなどのカラーフィルタを通すことにより、光を色のデータとして変換させることができる。撮像部1501で撮影されたセンサ値は、色調整部1502に送られる。
【0071】
色調整部1502は、撮像部1501においてフォトダイオードで取り出したセンサ値に対し、例えば、1画素YUV、8ビットデータとして、画像データに変換する。また、ホワイトバランスや明るさ調整など、通常撮影時に実行される色調整処理も併せて行う。
【0072】
多重化位置検出部1503は、多重化した印刷物が撮影され色調整された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性を取得する。多重化位置検出部1503は、取得した周波数特性を判定することで、多重化されている位置を検出する。
【0073】
図16(a)は、二次元の周波数領域で周波数特性の差を示す概略図である。横軸は水平方向の周波数、縦軸は垂直方向の周波数を示している。中心となる原点は直流成分を示し、原点から遠ざかるにつれて、高周波域となる。本実施形態では、図13(a)、(b)のマスクパターンの切換えにより、多重化された印刷物のYUVのU成分の周波数特性が変わる。
【0074】
例えば、図13(a)によるU成分の特性の変化により、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが生じるとする。また、図13(b)によるU成分の特性の変化により、図16(a)の直線1602の周波数ベクトル上に大きなパワースペクトルが生じるとする。付加情報分離時には、この大きなパワースペクトルが発生する周波数ベクトルを検出することで多重化信号を判定することができる。
【0075】
図13(a)、(b)は、特定の周波数ベクトルの方向性を有するHPF(ハイパスフィルタ)に相当する。図13(a)、(b)は、周波数ベクトル検出時の空間フィルタとしても用いられる。即ち、図13(a)の空間フィルタでは、直線1601上の周波数ベクトルを強調することが可能になり、また、図13(b)の空間フィルタでは、直線1602上の周波数ベクトルを強調することが可能になる。
【0076】
例えば、今、図13(a)のマスクパターンにより、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが発生したとする。その場合、図13(a)の空間フィルタではパワースペクトルの変化量が増幅するが、図13(b)の空間フィルタでは、ほとんど増幅されない。即ち、複数の空間フィルタを並列にフィルタリングすると、周波数ベクトルが一致した空間フィルタ時のみ増幅し、それ以外のフィルタでは増幅がほとんど生じない。従って、いかなる周波数ベクトル上に大きなパワースペクトルが発生しているかを容易に判定することができる。
【0077】
また、今回YUVのU成分において周波数特性を変化させて多重化された印刷物の付加情報分離時にU成分により周波数ベクトルを検出したが、U成分が失われてしまうと付加情報が分離できないことになる。U成分ではなく他のY成分やV成分に特性が移った場合、Y成分やV成分で周波数特性を判定すると付加情報を分離することができるが、U成分のみ解析するよりも時間がかかってしまう。
【0078】
上記のように、周波数特性の判定を行うことで、データを抽出することが可能となる。しかしながら、周波数特性を判定する際に、抽出すべき位置がずれていると、正しく抽出しにくくなってしまう。
【0079】
図17は、周波数特性を判定する際の検出位置を説明するための図である。画像1701は、印刷物の4つのブロックにおいて多重化されている画像を示す。領域1702、1703は、ブロック単位で周波数特性を判定する領域を示す。図17において、領域1702は、多重化されているブロックの位置とずれていることを示す。領域1703は、多重化されているブロックの位置と合っていることを示す。この場合、領域1703は、予め決めた周波数を正しく特定することが可能だが、領域1702は、特定の周波数ベクトルのパワースペクトルが下がってしまうので、予め決めた周波数の特定が困難になる。
【0080】
多重化位置検出部1503は、特定の周波数ベクトルのパワースペクトルが強いか弱いかに基づいてブロック位置を検出する。そこで、多重化位置検出部1503は、取得した撮像後の画像データに対し、ブロック位置をずらしながら周波数特性の判定を行い、多重化されたブロックの位置を検出する。
【0081】
付加情報分離部1504は、多重化位置検出部1503で検出した位置を基準とし、周波数特性を判定した結果を利用して、多重化されている付加情報を抽出する。
【0082】
図16(b)は、記録媒体にブロック毎に多重化されている様子を示す図である。同図において、記録媒体1603は、印刷用紙を示し、ブロック1604は、多重化されるブロックを示す。多重化されているブロック数が横8ブロック、縦12ブロック、計96ブロックとする。図16(b)において、ブロック毎に、多重化エンコード処理で、付加情報の「0」と「1」が埋め込まれているものとする。
【0083】
例えば、図16(a)の、直線1601の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「0」と判定される。また、直線1602上の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「1」と判定される。多重化位置検出部1503で検出した位置を基準に、ブロック単位で、96ブロック分、位置をずらしながら、周波数特性の判定が行われる。この場合、1ブロック毎に、「0」「1」の1ビットを判定できるので、合計96ビットのデータを抽出することができる。このように、位置をずらしながら周波数特性の判定を行うことで、多重化されたデータを抽出することができる。
【0084】
抽出データ解析部1505は、付加情報分離部1504で付加情報として分離した数値列に対して、データを解析し、元々埋め込んだ付加情報の形式に変換する処理である。例えば、予め多重化する付加情報を、テキスト文書データとして、文字コードを「シフトJIS」で数値化した値であるとする。
【0085】
シフトJISの1バイトコード(半角文字)では、上位4ビットと下位4ビットの組み合わせで、数値及び文字に対応した変換を行える。例えば、上位4ビットが「0100」で、下位4ビットが「0001」の場合、文字列として、「A」と判定される。このように、変換マップを予め保持しておき、数値列を対応させることで、文字へと変換することができる。
【0086】
付加情報として分離した数値列は、図3のRAM306に、一時的に保持しておき、2次記憶装置307に予め保持していた「シフトJIS」変換マップを参照可能なようにしておく。
【0087】
例えば、付加情報分離部1504で分離した付加情報の数値列が、「0110100001100101011011000110110001101111」とする。この場合、変換マップに対応させると以下のようになる。上位4ビット「0110」、下位4ビット「1000」で、文字「h」となる。上位4ビット「0110」、下位4ビット「0101」で、文字「e」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1111」で、文字「o」となる。従って、文字列として、「hello」が抽出される。
【0088】
付加情報を抽出すると、例えば抽出された文字列を図3のディスプレイ308で表示する。また、抽出された文字列がURL(Uniform Resource Locator)である場合、無線LAN310でネットワークに接続し、ブラウザを利用して、ディスプレイ308にURL先の画面を表示する。また、そのURLが動画サイトであった場合、ディスプレイ308で動画を表示し、スピーカー311で、音声を出力する。
【0089】
図18は、本実施形態における多重化デコード処理を示すフローチャートである。図18の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
【0090】
S1801では、CPU304は、撮像センサ302により、多重化された印刷物Cの撮影を行う。撮像センサ302は、撮影された光が色データ値に変換されたセンサ値を、色調整部1502に送信する。S1801の処理は、図15(a)の撮像部1501の撮像センサによる撮影画像を取得する処理に対応する。
【0091】
S1802では、CPU304は、取得した撮影画像の色調整を行う。色調整部1502は、撮像部1501から色データ値を受信し、ホワイトバランス調整を行い、ホワイトバランス調整された色データを画像データとして生成する。色調整部1502は、生成した画像データを付加情報分離装置303へ送信する。もしくは、生成した画像データは、図3の2次記憶装置307に保存される。S1802の処理は、図15(a)の色調整部1502による、ホワイトバランスの色調整を行った画像を生成する処理に対応する。
【0092】
S1803では、CPU304は、色調整部1502からホワイトバランス後の画像データを受信し、もしくは、図3の2次記憶装置307に保存された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性の判定を行い、多重化されている位置を検出する。S1803の処理は、図15(a)の多重化位置検出部1503による、画像データから多重化されている基準位置を検出する処理に対応する。
【0093】
S1804では、CPU304は、多重化位置検出部1503により、画像データから、多重化されている基準位置を検出できたか否かを判定する。検出できたと判定された場合、S1805へ進み、検出できなかったと判定された場合、S1801に戻り処理を繰り返す。
【0094】
S1805では、CPU304は、色調整部1502で生成された画像データと、多重化位置検出部1503で検出した多重化されている基準位置に基づいて、周波数特性を判定した結果を用いて、多重化されている付加情報を数値データとして抽出する。S1805の処理は、図15(a)の付加情報分離部1504による、画像データから付加情報を抽出する処理に対応する。付加情報分離部1504は、抽出した数値データを図15(a)の抽出データ解析部1505へ送信する。もしくは、付加情報分離部1504は、図3のRAM306に一時的に保存し、抽出データ解析部1505へ、その旨を通知する。
【0095】
S1806では、CPU304は、図15(a)の抽出データ解析部1505により、分離した付加情報に相当する数値データを取得し、数字データを解析し、文字データなどの付加情報に変換する。S1806の処理は、図15(a)の抽出データ解析部1505による、付加情報を抽出する処理に対応する。
【0096】
S1807では、CPU304は、図15(a)の抽出データ解析部1505で抽出した付加情報の取得を完了したか否かを判定する。付加情報の取得を完了したと判定した場合、図18の多重化デコード処理を終了し、取得を完了していないと判定した場合、S1801の処理を繰り返す。
【0097】
多重化された印刷物から付加情報を抽出できた場合、図3のディスプレイ308などに、結果を表示したり、ネットワークにアクセスしたりする。多重化された印刷物から付加情報を抽出できなかった場合、例えば、撮影された画像データが、付加情報を抽出するだけの領域を全て含んでいない場合が考えられる。その場合、付加情報の一部しか抽出できなかったためにデータが完全ではなく、再度、撮影し直す必要がある。
【0098】
以下、本実施形態の特徴的な構成について説明する。
図19(a)は、付加情報が埋め込まれている画像を抽出するモバイル端末201を示した図であり、図19(b)は、モバイル端末301による付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として、例えば「http://www.XXX.XX.XX/」のようなURLの一部と、例えば「180219」のような日付閾値情報と、を画像から抽出する。なお、「180219」は、2018年2月19日を示すものとする。また、抽出した付加情報に加えて、ユーザが付加情報を抽出した日時の日時情報をモバイル端末301の時計316から取得する。以下、図19(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図19(b)の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
【0099】
付加情報の抽出処理が開始されると、CPU304はS1901で、撮像センサ302によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、印刷物からURLの一部と日付閾値情報とを取得する。その後、CPU304はS1902で、時計316から日時情報を取得する。そして、CPU304はS1903で、取得した付加情報と日時情報とからURLを作成する。
【0100】
具体的には、付加情報に含まれる日付閾値情報と、モバイル端末301から取得した日時情報とを比較して、日時情報の日付が日付閾値情報の日付の前か後かで、作成するURLを異ならせる。例えば、印刷物を撮影した日付である日時情報の日付が「2018年2月17日」だった場合、日付閾値情報「180219」が示す2018年2月19日より前であるため、合成するURLとして「http://www.XXX.XX.XX/before/」を作成する。また、日時情報の日付が「2018年2月20日」だった場合、日付閾値情報「180219」が示す2018年2月19日より後であるため、合成するURLとして「http://www.XXX.XX.XX/after/」を作成する。
【0101】
日付閾値情報と取得した日時情報の日付とが同じであった場合は、「http://www.XXX.XX.XX/before/」か「http://www.XXX.XX.XX/after/」のいずれか一方のURLとなるように予め設定しておき、その設定に基づいていずれかのURLに決定される。その後、CPU304はS1904で、作成したURLにアクセスし、URL先のコンテンツをモバイル端末301に表示して処理を終了する。このように、本実施形態では取得した日時情報に応じて、その後の処理の内容を切り替えることができる。
【0102】
本実施形態が想定するケースとしては、結婚式の招待状に付加情報を埋め込んでおき、結婚式の前には招待者からのメッセージ動画を表示し、結婚式の後には結婚式動画を表示するケースが考えられる。
【0103】
なお、本実施形態では日付について閾値を設けた例を説明したが、これに限定するものでなく、日付と時間とで閾値を設け、日時情報として日付と時間とを取得してもよい。
【0104】
また、本実施形態においては付加情報と日時情報とをモバイル端末301の中で合成したが、付加情報と日時情報とをサーバに送りサーバ内で処理の内容を切り替えて、URLを作成してモバイル端末に送信し、そのURLをモバイル端末301が受信してもよい。
【0105】
このように、本実施形態のモバイル端末は、撮像した画像より付加情報を取得し、更に、撮像の際の状況に関する撮像状況情報を取得して、その付加情報と撮像状況情報とに基づいて処理を行う。これによって、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理方法およびプログラムを実現することができる。
【0106】
(第2の実施形態)
以下、図面を参照して本発明の第2の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
【0107】
図20(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図20(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として目的地のGPS情報(所定場所の位置を示すGPS情報)を取得する。また、抽出した付加情報に加えてモバイル端末301のGPS314より、現在のモバイル端末301の位置を示すGPS情報を取得する。以下、図20(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図20(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
【0108】
付加情報の抽出処理が開始されると、CPU304はS2001で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、目的地のGPS情報を取得する。その後、CPU304はS2002で、モバイル端末301のGPS314よりより現在のモバイル端末301位置を示すGPS情報を取得する。そして、CPU304はS2003で、付加情報とGPS情報とから目的地と現在地との経路を算出する。経路を計算する方法はインターネット上にある地図サービスを利用する。モバイル端末301を所持しているユーザが移動し、現在地のGPS情報が変わった場合、地図上に表示される経路も変わる。その後、CPU304はS3004で、モバイル端末301のディスプレイ308に算出した経路を表示して処理を終了する。
【0109】
本実施形態が想定するケースとしては、コンサートチケット2011に付加情報を埋め込んでおくケースを想定している。モバイル端末301で付加情報と、現在地のGPS情報とを取得し、現在地からコンサート会場までの経路を表示することで、ユーザがどこにいてもユーザの居る場所からコンサート会場へとユーザを案内することができる。
【0110】
なお、目的地のGPS情報と現在地のGPS情報とをインターネット上の経路探索サービスに送信し、地図と経路とを受信して表示してもよい。
【0111】
(第3の実施形態)
以下、図面を参照して本発明の第3の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
【0112】
図21(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図21(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として商品の価格を取得する。また、抽出した付加情報に加えて、モバイル端末301からユーザの居住国情報を取得する。以下、図21(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図21(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
【0113】
付加情報の抽出処理が開始されると、CPU304はS2102で、モバイル端末301によって印刷物を撮影して、印刷物2111に埋め込まれた付加情報を取得する。ここではモバイル端末301は、商品の価格、例えば「$2」を取得する。その後、CPU304はS2102で、モバイル端末よりユーザの居住国情報を取得する。本実施形態では、ユーザの居住国情報はモバイル端末301の設定値を利用するが、GSP履歴やユーザ入力等他の方法を用いてもよい。また、居住国ではなく任意の国を選択してもよい。そして、CPU304はS2103で、取得した価格情報、例えば「$2」と、ユーザの居住国情報、例えば「日本」と、からインターネットの為替変換サービスを利用し、価格情報の価格を居住国の通貨に換算した価格を取得する。具体的には、取得した価格が「$2」であれば、為替レートが$1=100円だった場合、換算された価格情報は「200円」となる。S2104で変換された価格情報を表示して処理を終了する。
【0114】
本実施形態が想定するケースとしては、商品のパッケージ2011に付加情報を埋め込むケースである。例えば、日本からアメリカに海外旅行中に、現地の商品の価格を現在の為替で日本円に換算した価格を知りたいケースを想定する。
【0115】
なお、本実施形態では商品のパッケージから取得した商品の価格を居住国の価格に変換したが、これに限定するものではない。例えば領収書や見積書、決算書など価格情報が必要とされているものであれば、本発明を適用可能である。
【0116】
(第4の実施形態)
以下、図面を参照して本発明の第4の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
【0117】
図22(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図22(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では美術館の絵画2211の説明表示2212に付加情報としてURLを埋め込む。以下、図22(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図22(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
【0118】
付加情報の抽出処理が開始されると、CPU304はS2201で、モバイル端末301によって説明表示2212を撮影して、説明表示2212に埋め込まれた付加情報を取得する。説明表示2212には絵画2211の簡単な説明が記載されており、説明表示2212をモバイル端末301で撮影することで、付加情報としてURLを取得する。複数の美術品の説明表示2212には、どれも同じURLが埋め込まれており、URL先には美術品が美術館のどの場所に掲示されているかを示す「レイアウト情報」と「各美術品の詳細な説明文」とが記載されている。
【0119】
その後、CPU304はS2202で、モバイル端末301からGPS情報と端末向き情報とを取得する。GPS情報は、GPS314から取得し、このGPS情報によって美術館の中のユーザの位置を取得することができる。また、端末向き情報は、加速度計312とジャイロスコープ313とから取得し、この端末向き情報によってモバイル端末301の向きを取得することができる。CPU304はS2203で、URL先のレイアウト情報と、ユーザの位置と、モバイル端末301の向きと、から美術館内でユーザが見ている美術品を特定し、特定した美術品の詳細な説明文をモバイル端末301が取得する。その後、CPU304はS2204で、ユーザが見ている美術品の詳細な説明文をモバイル端末301に表示して処理を終了する。
【0120】
どの美術品にも同じ付加情報を埋め込んでおくことで、美術品のレイアウトや説明表示を変更しても、ユーザのモバイル端末301には、ユーザが見ている美術品の詳細な説明文が表示される。
【0121】
なお、本実施形態では美術館の例を示したが、同様に動物園や水族館などでも使用可能である。また、宝探しゲームに応用し物品とスマホとが所定の位置、所定の向きになった時だけ情報を取得できるようにしてもよい。また、加速度計212とジャイロスコープ213とを使用して、ユーザの歩数を測定し、ユーザの歩数に応じてコンテンツを切り替えてもよい。
【0122】
また、本実施形態は、メガネタイプのウェアラブル端末に搭載されたカメラを用いることにより、より効果的に適用できる。例えば、美術館でメガネタイプのウェアラブル端末で見た方向の印刷物から付加情報を取得し、対応した情報を表示することができる。
【0123】
(第5の実施形態)
以下、図面を参照して本発明の第5の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
【0124】
図23(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図23(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物2311には付加情報が埋め込まれており、モバイル端末301は、印刷物2311の撮影後のタッチ情報を取得する。以下、図23(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図23(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
【0125】
付加情報の抽出処理が開始されると、CPU304はS2301で、モバイル端末301によって印刷物を撮影して、説明表示2311に埋め込まれた付加情報を取得する。その後、CPU304はS2302では、モバイル端末301のディスプレイ308からユーザがディスプレイ308に触れることに対応する情報であるタッチ情報を取得する。印刷物2311には押しボタンが記録されており、ユーザがモバイル端末301で印刷物2311を撮影し、モバイル端末301のディスプレイ308に表示された印刷物2311の押しボタンにユーザが触れることでモバイル端末301はタッチ情報を取得する。
【0126】
CPU304はS2303では、モバイル端末301がタッチ情報を取得したか否かを判定する。タッチ情報を取得していれば、S2304に移行し、タッチ情報を取得していなければ処理を終了する。S2304に移行した場合は、CPU304はS2301で取得した付加情報をモバイル端末301のディスプレイ308に表示して処理を終了する。
【0127】
なお、付加情報は所定情報であり、どのような情報でもよく、例えば、印刷物は押しボタンが記録された商品の広告であり、撮影してディスプレイの押しボタン画像に触れることで、付加情報である商品の詳細情報が記載されたURLの画面をディスプレイに表示してもよい。このように、ユーザのタッチ動作に応じて付加情報を表示させることもできる。
【0128】
(第6の実施形態)
以下、図面を参照して本発明の第6の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
【0129】
図24は、本実施形態における付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物には付加情報が埋め込まれており、モバイル端末301は、印刷物を撮影することで、情報α(閲覧情報)と、情報αの閲覧を許可されたユーザのユーザIDとが含まれた付加情報を取得する。モバイル端末には2つのカメラを搭載したものがあり、風景を撮影するためのモバイル端末の裏側に搭載されたカメラと、ユーザ自身を撮影するために表側に搭載されたカメラとがある。本実施形態では、モバイル端末301は、裏側のカメラによって付加情報を取得し、表側のカメラでユーザの顔を写すことで、顔認証情報を取得する。以下、図24のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図24の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
【0130】
付加情報の抽出処理が開始されると、CPU304はS2401で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。付加情報には情報αと、情報αの閲覧を許可されたユーザのユーザIDとが含まれている。その後、CPU304はS2402で、モバイル端末301でユーザを撮影して、顔認証情報を取得する。本実施形態では、1つ目のカメラ(撮像センサ202)で印刷物を撮影し、2つ目のカメラ(第二撮像センサ215)でユーザ自身を撮影するケースを想定する。顔認証情報は、第二撮像センサ215で取得した顔画像を用いて、特定のユーザを指し示すユーザIDを算出する。顔認証は多くの方法が提案されているが、ユーザが特定できればどの方法を用いてもよい。そして、CPU304はS2403で、顔認証で取得したユーザIDが、S2401で取得した情報αの閲覧を許可されたユーザのユーザIDと一致するか否かを判定する。一致していればS2404に移行して、一致していなければ処理を終了する。S2404に移行した場合、CPU304は、情報αのロックを解除して、S2402で情報αをモバイル端末301のディスプレイ308に表示する。
【0131】
なお、本実施形態ではユーザの特定に顔認証を用いて情報αに対するロックの解除を行ったが、ユーザの特定は他の方法を用いてもよい。例えば、指紋認証機能を備えたモバイル端末で指紋認証を用いてユーザを特定してもよいし、音声認証機能を備えたモバイル端末で音声認証を用いてユーザを特定してもよい。
【符号の説明】
【0132】
102 付加情報多重化装置
103 記録装置
301 モバイル端末
304 CPU
308 ディスプレイ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24