IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社日立製作所の特許一覧

特開2023-85654アクション処理サーバおよびアクション処理方法
<>
  • 特開-アクション処理サーバおよびアクション処理方法 図1
  • 特開-アクション処理サーバおよびアクション処理方法 図2
  • 特開-アクション処理サーバおよびアクション処理方法 図3
  • 特開-アクション処理サーバおよびアクション処理方法 図4
  • 特開-アクション処理サーバおよびアクション処理方法 図5
  • 特開-アクション処理サーバおよびアクション処理方法 図6
  • 特開-アクション処理サーバおよびアクション処理方法 図7
  • 特開-アクション処理サーバおよびアクション処理方法 図8
  • 特開-アクション処理サーバおよびアクション処理方法 図9
  • 特開-アクション処理サーバおよびアクション処理方法 図10
  • 特開-アクション処理サーバおよびアクション処理方法 図11
  • 特開-アクション処理サーバおよびアクション処理方法 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023085654
(43)【公開日】2023-06-21
(54)【発明の名称】アクション処理サーバおよびアクション処理方法
(51)【国際特許分類】
   G06Q 10/109 20230101AFI20230614BHJP
   G06Q 50/10 20120101ALI20230614BHJP
【FI】
G06Q10/10 340
G06Q50/10
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2021199801
(22)【出願日】2021-12-09
(71)【出願人】
【識別番号】000005108
【氏名又は名称】株式会社日立製作所
(74)【代理人】
【識別番号】110001807
【氏名又は名称】弁理士法人磯野国際特許商標事務所
(72)【発明者】
【氏名】酒井 優
(72)【発明者】
【氏名】水落 空
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049AA12
5L049CC11
(57)【要約】
【課題】オンライン見学における見学者と説明者の質疑応答の円滑に進めることを可能とする。
【解決手段】アクション処理サーバ100は、対象物の1つ以上の撮影画像と、対象物および前記対象物の周辺にある物体の位置情報とを取得する取得部111と、対象物の撮影画像上の指定された位置、および当該位置に関連したアクション情報を取得し、当該撮影画像上の指定された位置に対応する対象物上の箇所を算出するアクション処理部115と、対象物上の箇所に対応する位置にアクションマークが付与された対象物の撮影画像と、アクション情報とを端末に送信する表示制御部114とを備える。
【選択図】図8
【特許請求の範囲】
【請求項1】
対象物の1つ以上の撮影画像と、前記対象物および前記対象物の周辺にある物体の3次元の位置情報とを取得する取得部と、
前記対象物の撮影画像上の指定された位置、および当該位置に関連したアクション情報を取得し、当該撮影画像上の指定された位置に対応する前記対象物上の3次元空間における箇所を算出するアクション処理部と、
前記対象物上の箇所に対応する位置にアクションマークが付与された前記対象物の撮影画像と、前記アクション情報とを端末に送信する表示制御部とを備える
アクション処理サーバ。
【請求項2】
前記アクション処理部は、
前記アクション情報に関連した新たなアクション情報を前記端末から取得し、
前記表示制御部は、
前記対象物上の箇所に対応する位置にアクションマークが付与された前記対象物の撮影画像と、前記アクション情報とに加えて、前記新たなアクション情報を前記端末に送信する
請求項1に記載のアクション処理サーバ。
【請求項3】
前記アクション処理部は、
前記対象物の撮影画像を撮影した撮影装置の位置および向きを取得し、
前記対象物の撮影画像上の指定された位置、前記取得部が取得した位置情報、当該撮影装置の位置および向きに基づいて、当該撮影画像上の指定された位置に対応する前記対象物上の箇所を算出する
請求項1に記載のアクション処理サーバ。
【請求項4】
前記対象物および前記対象物の周辺にある物体がある領域のなかの部分領域で、前記撮影画像に映る当該部分領域に相当する部分画像にモザイクが施される部分領域であるモザイクエリアを設定するモザイクエリア設定部をさらに備え、
前記表示制御部は、
前記撮影画像のなかで当該モザイクエリアに相当する部分画像にモザイクを施す
請求項1に記載のアクション処理サーバ。
【請求項5】
前記アクション処理部は、
前記対象物の撮影画像上の新たに指定された位置、および当該位置に関連した新たなアクション情報を取得し、
当該撮影画像上の新たに指定された位置に対応する前記対象物上の箇所を算出し、
前記表示制御部は、
前記対象物上の箇所に対応する位置、および前記対象物の撮影画像上の新たに指定された位置に前記アクションマークが付与された前記対象物の撮影画像を前記端末に送信する
請求項1に記載のアクション処理サーバ。
【請求項6】
前記表示制御部は、
前記端末から前記対象物の撮影画像上の位置を取得すると、当該位置に対応する前記対象物上の箇所を算出し、当該対象物上の箇所に関連したアクション情報を当該端末に送信する
請求項5に記載のアクション処理サーバ。
【請求項7】
前記取得部が取得する撮影画像は、前記対象物の撮影済みのコンテンツに含まれる撮影画像である
請求項1に記載のアクション処理サーバ。
【請求項8】
アクション処理サーバが、
対象物の1つ以上の撮影画像と、前記対象物および前記対象物の周辺にある物体の3次元の位置情報とを取得するステップと、
前記対象物の撮影画像上の指定された位置、および当該位置に関連したアクション情報を取得し、当該撮影画像上の指定された位置に対応する前記対象物上の3次元空間における箇所を算出するステップと、
前記対象物上の箇所に対応する位置にアクションマークが付与された前記対象物の撮影画像と、前記アクション情報とを端末に送信するステップとを実行する
アクション処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像に関連したアクションを処理するアクション処理サーバおよびアクション処理方法に関する。
【背景技術】
【0002】
生産拠点のグローバル化や感染症拡大防止といった観点から、オンラインによる工場見学のニーズが増加している。従来、オンラインによる工場見学では、作成済み資料や録画済みビデオを用いた説明が多かった。
工場見学に利用可能な技術として、特許文献1に記載の情報提供システムがある。この情報提供システムは、利用者の移動に合わせてその場にあった情報を携帯端末などで撮影した実景画像に重畳表示する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2004-102835号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
オンライン見学に特許文献1に記載の情報提供システムを用いることで、説明者の移動に合わせて、工場内で製作される製品や工場の設備の説明ができるようになる。しかしながら、遠隔の見学者が疑問をもった製品や設備の箇所/部分を説明者が把握できず、的確に説明できず、見学者の疑問を解消できない問題が生じる。また、見学者が疑問をもった箇所を説明するため、見学コースの後戻りが発生し、見学コース全体を十分に説明する時間がなくなる問題が生じる。このような問題は、工場に限らず、各種施設のオンライン見学やオンライン観光ツアー、住宅のオンラインでの内部見学(内見)などを含むオンライン見学(説明会)でも同様である。
【0005】
工場や設備にはセキュリティ(秘密保持)の都合上、見学禁止エリアが点在しており、見学者が見学を希望する箇所によっては、見学禁止エリアが映りこんでしまう恐れがある。このため、見学者の希望どおりに見学することができないという問題もある。
本発明はこのような背景に鑑みなされたもので、オンライン見学における見学者と説明者の質疑応答を円滑に進めることを可能とするアクション処理サーバおよびアクション処理方法を提供することを課題とする。
【課題を解決するための手段】
【0006】
上記した課題を解決するため、本発明に係るアクション処理サーバは、対象物の1つ以上の撮影画像と、前記対象物および前記対象物の周辺にある物体の3次元の位置情報とを取得する取得部と、前記対象物の撮影画像上の指定された位置、および当該位置に関連したアクション情報を取得し、当該撮影画像上の指定された位置に対応する前記対象物上の3次元空間における箇所を算出するアクション処理部と、前記対象物上の箇所に対応する位置にアクションマークが付与された前記対象物の撮影画像と、前記アクション情報とを端末に送信する表示制御部とを備える。
【発明の効果】
【0007】
本発明によれば、オンライン見学における見学者と説明者の質疑応答を円滑に進めることを可能とするアクション処理サーバおよびアクション処理方法を提供することができる。上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
【図面の簡単な説明】
【0008】
図1】本実施形態に係るオンライン見学システムの全体構成図である。
図2】本実施形態に係るオンライン見学システムの利用手順を説明するための図である。
図3】本実施形態に係るアクション入力前の画面を説明するための図である。
図4】本実施形態に係るアクション入力中の画面を説明するための図である。
図5】本実施形態に係るアクション入力後の画面を説明するための図である。
図6】本実施形態に係る端末が撮影した画像を表示する画面を説明するための図である。
図7】本実施形態に係る応答入力後の画面を説明するための図である。
図8】本実施形態に係るアクション処理サーバの機能ブロック図である。
図9】本実施形態に係るアクションデータベースのデータ構成図である。
図10】本実施形態に係るモザイクエリア設定画面である。
図11】本実施形態に係る表示制御処理およびアクション処理のフローチャートである。
図12】本実施形態の変形例に係る複数のアクションマークが表示される画面を説明するための図である。
【発明を実施するための形態】
【0009】
≪オンライン見学システムの概要≫
以下に本発明を実施するための形態(実施形態)における工場で製作される製品のオンライン見学システムについて説明する。オンライン見学システムは、工場内に設置されたカメラ、説明者の端末、見学者の端末、およびアクション処理サーバを含む。工場内に設置されたカメラや説明者の端末は、工場内で製作されている製品(見学の対象物)を撮影する。
【0010】
見学者は、製品の撮影画像(映像)と説明者による音声の説明とについてテキストでの質問(アクション)が可能である。質問するときに見学者は、質問に係る製品の箇所(部分、構成要素、ところ)を撮影画像上で指定することができる。アクション処理サーバを介して端末に表示されることで当該箇所および質問が、説明者と他の見学者との間で共有できる。説明者は質問に対してテキストで回答(応答)することができ、応答はアクション処理サーバを介して見学者の端末に送信されて表示される。
【0011】
このように、見学者と説明者とのやり取りが可能になることで、見学が円滑に進むことになる。質問の起点となった製品の箇所が見学者と説明者とで共有できるので、説明者は質問者の質問を容易に把握でき、的確に回答することができる。また、質問者以外の見学者は、質問や応答の内容を明瞭に把握することができるようになる。
【0012】
≪オンライン見学システムの全体構成≫
図1は、本実施形態に係るオンライン見学システム10の全体構成図である。オンライン見学システム10は、カメラ222、ステレオカメラ221、端末231~233、およびアクション処理サーバ100を含んで構成される。カメラ222、ステレオカメラ221、端末231~233、およびアクション処理サーバ100は、ネットワーク280を介して相互に通信可能である。
【0013】
カメラ222は、工場240内にある見学の対象物210(製品)を撮影し、撮影画像をアクション処理サーバ100に送信する。ステレオカメラ221は、工場240の天井に設置されて対象物210やその周囲にある物体までの距離情報を取得して、アクション処理サーバ100に送信する。図1記載のステレオカメラ221、およびカメラ222は、それぞれ1台であるが、複数台であってもよい。
【0014】
端末231は説明者が利用し、端末232,233は工場240から遠隔にいる見学者が利用する。端末231は、例えばスマートフォンであり、タッチパネルディスプレイを備えるものとする。端末232,233は、タッチパネルディスプレイを備えるものに限定されず、例えばスマートフォンや卓上型コンピュータである。説明者が利用する端末231にはカメラが備わり、説明者が撮影した対象物210の撮影画像はアクション処理サーバ100に送信される。
【0015】
なお対象物210は工場240内で製作されている製品であり、見学者はその発注者であるとする。工場240内の領域241には、秘密保持上の理由などにより発注者が見学者ではない製品や見学者には見せたくない設備がある。つまりは、領域241は見学者には隠すべき製品・設備がある領域(見学禁止エリア)である。
【0016】
≪オンライン見学システムの利用手順≫
アクション処理サーバ100の詳細を説明する前に、オンライン見学システム10の利用手順を説明する。図2は、本実施形態に係るオンライン見学システム10の利用手順を説明するための図である。ステップS11~S15,S18,S20,S22は、説明者が行うステップ(手順)である。ステップS16,S17,S19,S21,S23は、見学者が行うステップである。
【0017】
ステップS11において説明者は、対象物210(図1参照)を設置する。
ステップS12において説明者は、対象物210を撮影するカメラ222を設置する。なおステレオカメラ221は、工場240の天井に設置済みである。
ステップS13において説明者は、アクション処理サーバ100に指示して、対象物210のある領域や領域241(図1参照)を含む領域の3次元マップを作成する。換言すればアクション処理サーバ100は、説明者の指示により3次元マップを生成する。
【0018】
ステップS14において説明者は、アクション処理サーバ100に指示して、3次元マップのなかにモザイクエリアを設定する。換言すればアクション処理サーバ100は、説明者の指示によりモザイクエリアを設定する。モザイクエリアとは、カメラ222や端末231が撮影する画像のなかでモザイクが施されて見学者には見せない領域である。説明者は、3次元マップのなかで領域241に対応する領域をモザイクエリアに設定する(後記する図10参照)。
【0019】
ステップS15において説明者は、事前見学の準備を行う。説明者は例えば、カメラ222や説明者の端末231で撮影した映像・静止画、当該映像・静止画に付与されるナレーション、説明用の図などを含む事前見学用のビデオデータや資料を制作して、アクション処理サーバ100に格納する。以下、このビデオデータや資料を事前見学コンテンツ160(後記する図8参照)と記す。
【0020】
ステップS16において見学者は、端末232,233で事前見学コンテンツ160を閲覧して事前見学を行う。
ステップS17において見学者は、事前見学中に質問やコメントがあると、端末232,233を用いて質問文・コメント文を入力する。入力には、質問文・コメント文の他に、見学者が指定した質問・コメントの対象となる対象物210の箇所(対象物210の撮影画像のなかの位置)がある。この入力の容態は、ステップS21と同様であり、図4を用いて後記する。以下では、質問・コメントを発する(入力する)ことやその内容(質問文・コメント文)をアクションと記す。また、後記する説明者の応答やその内容もアクションである。
【0021】
ステップS18において説明者は、端末231でステップS17において入力されたアクションに対する応答(応答文)を入力する。この入力の容態は、ステップS22と同様であり、図7を用いて後記する。
ステップS19において見学者は、端末232,233でステップS18において入力された応答を確認する。見学者は、他の質問がある場合にはステップS17に戻ってアクションを入力する。
【0022】
ステップS20において説明者は対象物210を説明する。詳しくは、説明者は端末231で対象物210を撮影しつつ、対象物の説明を行う。カメラ222や端末231で撮影された対象物210の画像、および説明者の音声は、アクション処理サーバ100を介して見学者の端末232,233に配信される。見学者は、撮影画像と音声とを視聴することで対象物210を見学(本見学)する。なお端末231,232,233で表示される画面(後記する図3図7参照)の表示データは、後記するアクション処理サーバ100の表示制御部114によって生成される。
【0023】
ステップS21において見学者は、本見学中に質問やコメントがあると、アクションを入力する。図3は、本実施形態に係るアクション入力前の画面310を説明するための図である。画面310は、本見学中の端末231~233の画面である。撮影画像表示領域311には、カメラ222や端末231が撮影した対象物210,315の撮影画像が表示される。対象物315の背後には、モザイクエリアとして設定された領域241(図1参照)があり、このモザイクエリアに対応する撮影画像にはモザイク316が施されている。
【0024】
アクション領域312には、アクションである質問文、コメント文、およびアクションに対する応答文が表示される。
見取り図領域313には、対象物210やカメラ222、端末231を含む工場240内を上から見た見取り図が表示される。なお見取り図は、ステップS13で作成された3次元マップに基づいて生成される。
見取り図において対象物210は、中央の矩形として示されている。カメラ222は「A」と記されたカメラのアイコンで、カメラとしての端末231は「B」と記されたカメラのアイコンで示されている。
【0025】
見取り図領域313の下側には、「A」ボタンと「B」ボタンとが配置されている。図3においては「A」ボタンが選択されており、撮影画像表示領域311に表示される撮影画像は、「A」と記されたカメラのアイコンに対応するカメラ222が撮影した画像である。「B」ボタンがタップされると、撮影画像表示領域311に表示される撮影画像は、「B」と記されたカメラのアイコンに対応する端末231が撮影した画像に変わる(後記する図6参照)。
【0026】
端末232において見学者がアクションを入力する際には、アクションの起点となる対象物210,315の箇所をタップして指定する。図4は、本実施形態に係るアクション入力中の画面310Aを説明するための図である。図4ではタップした位置を、手のアイコンの人さし指で示している。続いて見学者は、アクション領域312をタップして、質問文を入力する。入力された対象物210,315の箇所の撮影画像における位置情報(2次元座標)や質問文は、端末232からアクション処理サーバ100に送信される。
【0027】
図5は、本実施形態に係るアクション入力後の画面310Bを説明するための図である。アクションの起点となる対象物210,315をタップして指定された箇所には、アクションマーク317が表示されている。アクションマーク317は、質問やコメントの対象となっている対象物210の箇所/部分/構成要素/ところを示す目印/標識であって、撮影画像表示領域311に表示される対象物210,315に重ねて表示される。
【0028】
画面310Bの撮影画像表示領域311やアクション領域312に表示される撮影画像やテキストは、アクション処理サーバ100から受信した情報であって、全ての端末231~233に送信される。つまり、質問した見学者を含む全ての見学者や説明者の端末231~233に画面310Bが表示される。
【0029】
ここで見取り図領域313の下側の「B」ボタンをタップすると「B」と記されたカメラのアイコンに対応する端末231が撮影した画像に変わる(後記する図6参照)。図6は、本実施形態に係る端末231が撮影した画像を表示する画面310Cを説明するための図である。画面310Cの撮影画像表示領域311には、「B」と記されたカメラのアイコンに対応する端末231が撮影した画像が表示される。アクションマーク317Aは、対象物210上の同じ箇所に付与されている。これは後記するようにアクション処理サーバ100が、箇所を2次元情報である撮影画像上の位置(2次元座標)として捉えているのではなく、3次元空間にある対象物210上の位置(3次元座標)として捉えているからである。
【0030】
図2に戻って、ステップS22において説明者は、ステップS21において入力されたアクションに対する応答(応答文)を入力する。図7は、本実施形態に係る応答入力後の画面310Dを説明するための図である。説明者は、質問が表示されたアクション領域312(図5記載の画面310Bのアクション領域312参照)をタップして、応答文を入力する。応答文はアクション処理サーバ100に送信されて、さらに端末231~233に送信され、応答が端末231~233の画面のアクション領域312に表示される。
【0031】
図2に戻って、ステップS23において見学者は、応答文を確認する。見学者は、質問がある場合にはステップS21に戻ってアクションを入力する。また、アクションの起点となる対象物210,315の箇所を指定しない場合には、見学者はステップS22と同様にアクション領域312をタップしてアクション(テキスト)を入力する。
【0032】
≪アクション処理サーバの構成≫
図8は、本実施形態に係るアクション処理サーバ100の機能ブロック図である。アクション処理サーバ100はコンピュータであり、制御部110、記憶部120、および入出力部180を備える。入出力部180には、ディスプレイやキーボード、マウスなどのユーザインターフェイス機器が接続される。入出力部180は通信デバイスを備え、カメラ222、ステレオカメラ221、端末231~233他の装置とのデータ送受信が可能である。また入出力部180にメディアドライブが接続され、記録媒体を用いたデータのやり取りが可能であってもよい。
【0033】
≪アクション処理サーバ:記憶部≫
記憶部120は、ROM(Read Only Memory)やRAM(Random Access Memory)、SSD(Solid State Drive)などの記憶機器を含んで構成される。記憶部120には、3次元マップ130、モザイクエリア情報140、アクションデータベース150、事前見学コンテンツ160、およびプログラム128が記憶される。
【0034】
3次元マップ130は、ステレオカメラ221の撮像情報(距離情報)を基づいて、後記する3次元マップ生成部112により生成される。3次元マップ130には、対象物210がある領域や領域241(図1参照)を含む領域の3次元情報が含まれる。詳しくは3次元マップ130には、対象物210や領域241にある物体(製品や設備)の位置や形状、高さなどの情報が含まれる。
【0035】
モザイクエリア情報140は、後記するモザイクエリア設定部113により生成される。モザイクエリア情報140には、ステップS14(図2参照)において説明者が設定した、3次元マップ130におけるモザイクエリアの位置情報が含まれる。換言すればモザイクエリアは、領域241(図1参照)に対応するように説明者が設定した3次元マップ130内の領域である。
【0036】
アクションデータベース150は、アクション(質問・コメント・応答)に係る情報を記憶する。図9は、本実施形態に係るアクションデータベース150のデータ構成図である。アクションデータベース150は例えば表形式のデータであって、1つの行(レコード)は1つのアクションを示し、識別情報151(図9ではIDと記載)、対象位置152、先行153、受付時刻154、発信端末155、および内容156の列(属性)を含む。
【0037】
識別情報151は、アクションの識別情報である。対象位置152は、見学者が指定したアクションの起点となる対象物210の箇所の3次元マップ130における位置(3次元座標)である。先行153は、先行する(1つ前の)アクションの識別情報151である。
受付時刻154は、アクション処理サーバ100がアクションを端末231~233からアクション(アクションに係る情報、アクション情報)を受信した時刻である。発信端末155は、説明者/見学者がアクションを入力した端末231~233の識別情報であり、アクション処理サーバ100にアクション情報を送信した端末231~233を示す。内容156は、アクションのテキストであり、質問文・コメント文・応答文である。
【0038】
識別情報151が「M0001」であるレコード(アクション)は、アクションの起点となる対象物210の箇所が指定されて入力された質問である。このため先行するアクションがないので、先行153は「N/A」となっている。
識別情報151が「M0002」であるレコード(アクション)は、識別情報151が「M0001」である質問に対する応答のアクションである。このため先行153が「M0001」となり、対象物210の箇所が指定されていないので対象位置152は「N/A」となっている。
【0039】
図8に戻って、記憶部120の説明を続ける。事前見学コンテンツ160は、ステップS15(図2参照)において説明者が制作した、事前見学用のビデオデータや資料である。プログラム128には、後記する制御部110に備わる機能部が実行する処理(表示制御処理、アクション処理)の手順の記述が含まれる。
【0040】
≪アクション処理サーバ:制御部≫
制御部110は、CPU(Central Processing Unit)を含んで構成され、取得部111、3次元マップ生成部112、モザイクエリア設定部113、表示制御部114、およびアクション処理部115が備わる。
取得部111は、端末231、ステレオカメラ221、およびカメラ222から撮影画像や距離情報を取得する。
【0041】
≪制御部:3次元マップ生成部≫
3次元マップ生成部112は、ステレオカメラ221の距離情報を基づいて、3次元マップ130を生成する。なお3次元マップ生成部112は、ステレオカメラ221に限らずLiDAR(Light Detection and Ranging)のような3次元測距装置/3Dスキャナの出力情報を基に3次元マップ130を生成してもよい。
【0042】
≪制御部:モザイクエリア設定部≫
モザイクエリア設定部113は、説明者の指示に従って3次元マップ130で示される工場240内の3次元空間にモザイクエリアを設定する。モザイクエリア設定部113は、3次元マップ130から工場240内の平面画像(平面地図)を生成して、当該平面地図で指定された2次元領域で示される3次元空間をモザイクエリアと設定してもよい。
【0043】
図10は、本実施形態に係るモザイクエリア設定画面330である。モザイクエリア設定画面330には、工場240の天井から見た平面画像(平面地図)が表示されている。部分画像335は対象物210であり、部分画像331,332は領域241(図1参照)にある見学者には見せたくない製品・設備である。説明者は、モザイクエリア設定画面330上でモザイクエリア333を指定する。モザイクエリア333は平面画像内の2次元の領域と指定されるが、モザイクエリアは3次元マップ130内の3次元の領域である。
【0044】
このようにアクション処理サーバ100は、対象物210および対象物210の周辺にある物体がある領域のなかの部分領域で、撮影画像に映る当該部分領域に相当する部分画像にモザイクが施される部分領域であるモザイクエリアを設定するモザイクエリア設定部113を備える。
【0045】
≪制御部:表示制御部≫
図8に戻って制御部の説明を続ける。表示制御部114は、画面310,310A,310B,310C,310D(図3図7参照)の表示データを生成して、端末231~233に送信する。撮影画像表示領域311の表示データは、カメラ222、および端末231が撮影した撮影画像にモザイクが施されて生成される。表示制御部114は、カメラ222または端末231の位置と撮影角度(向き)と3次元マップ130とに基づいて、撮影画像のなかでモザイクエリアの画像領域を特定し、当該画像領域にモザイクを施す。さらに表示制御部114は、アクションマーク317が表示されるように撮影画像を加工する(後記する図11のステップS34参照)。
【0046】
端末231の位置と撮影角度とは、端末231に備わる加速度センサやジャイロセンサの測定値を基に端末231が算出して、撮影画像とともにアクション処理サーバ100に送信されるものとする。ステレオカメラ221が取得した距離情報に含まれる端末231の情報を基に算出されてもよい。
カメラ222の位置と撮影角度については、カメラ222が固定カメラならばカメラ設置時(図2記載のステップS12参照)に固定値としてアクション処理サーバ100に設定されてもよい。カメラ222が見学者の指示により移動や撮影角度が変更可能なカメラであれば、端末231と同様にカメラ222が位置と撮影角度を算出して撮影画像とともにアクション処理サーバ100に送信される。
【0047】
アクション領域312の表示データの1件目は、アクションデータベース150(図9参照)のなかのレコードで対象位置152を含み、受付時刻154が最新のレコードである。2件目の表示データは、当該レコードを先行153に含むレコードである。3件目の表示データは、当該レコードを先行153に含むレコードである。このようにして表示制御部114は、先行153を参照することで、対象位置152に係るアクションのレコードを特定して、アクション領域312の表示データを取得する。これらのアクションのレコードは、1件目のレコードの対象位置152で示される箇所に係る一連のアクションであり、スレッドとも記す。
【0048】
見取り図領域313の表示データについて、表示制御部114は3次元マップ130から工場240内を上から見た見取り図を生成する。さらに表示制御部114は、カメラ222、および端末231の位置情報および向きの情報を基に、生成した見取り図にカメラのアイコンを配置して、見取り図領域313の表示データを生成する。
【0049】
以上に説明したようにアクション処理サーバ100は、対象物210上の箇所(3次元座標で示される位置)に対応する位置にアクションマーク317が付与された対象物210の撮影画像と、アクション情報とを端末231~233に送信する表示制御部114を備える。
またアクション処理サーバ100が備える表示制御部114は、対象物210上の箇所に対応する位置にアクションマーク317が付与された対象物210の撮影画像と、アクション情報(質問)とに加えて、新たなアクション情報(当該質問に係る応答・コメント)とを端末231~233に送信する。なお、新たなアクション情報の送信は省略可能である。
他にもアクション処理サーバ100が備える表示制御部114は、撮影画像のなかでモザイクエリアに相当する部分画像にモザイクを施す。
【0050】
≪制御部:アクション処理部≫
アクション処理部115は、端末231~233から受信したアクションに係る情報をアクションデータベース150(図9参照)に格納する。受信するアクションには、撮影画像に写る対象物210の箇所を指定して入力された質問のアクション(図4参照)および質問のアクションに対する応答やコメントのアクション(図7参照)がある。
【0051】
質問のアクションに係る情報には、撮影画像における箇所の位置(2次元座標)や質問文が含まれる。アクション処理部115は、撮影画像における箇所の位置、撮影画像を撮影したカメラ222または端末231の位置、向き(撮影角度)、および3次元マップ130に基づいて、指定された箇所である対象物210上の位置(3次元座標)を算出する。アクション処理部115は、アクションデータベース150にレコードを追加し、識別情報151には新たな識別情報を、対象位置152には算出した3次元座標を、先行153には「N/A」を、受付時刻154にはアクションを受信した時刻を、発信端末155にはアクション情報を送信した端末231~233の識別情報を、内容156には質問文を格納する。
【0052】
このようにアクション処理サーバ100は、対象物210の撮影画像上の指定された位置、および当該位置に関連したアクション情報を取得し、当該撮影画像上の指定された位置に対応する対象物210上の3次元空間における箇所を算出するアクション処理部115を備える。
またアクション処理サーバ100が備えるアクション処理部115は、対象物210の撮影画像を撮影した撮影装置(カメラ222、端末231)の位置および向きを取得し、対象物210の撮影画像上の指定された位置、取得部111が取得した位置情報(取得部111が取得した距離情報に基づいて生成された3次元マップ130参照)、当該撮影装置の位置および向きに基づいて、当該撮影画像上の指定された位置(2次元座標)に対応する対象物210上の箇所(3次元座標)を算出する。
【0053】
応答・コメントのアクションに係る情報には、先行する質問のアクションの識別情報や応答文・コメント文が含まれる。アクション処理部115は、アクションデータベース150にレコードを追加し、識別情報151には新たな識別情報を、対象位置152には「N/A」を、先行153には先行する質問のアクションの識別情報151を、受付時刻154にはアクション情報を受信した時刻を、発信端末155にはアクションを送信した端末231~233の識別情報を、内容156には応答文・コメント文を格納する。
このようにアクション処理サーバ100が備えるアクション処理部115は、アクション情報(質問)に関連した新たなアクション情報(応答・コメント)を端末231~233から取得する。
【0054】
≪表示制御処理とアクション処理≫
図11は、本実施形態に係る表示制御処理およびアクション処理のフローチャートである。ステップS31~S37は、主に表示制御部114が実行する表示制御処理である。ステップS41~S44は、アクション処理部115が実行するアクション処理である。本見学中(図2のステップS20~S23参照)には、表示制御処理とアクション処理とが並行して同時に実行される。
【0055】
ステップS31において取得部111は、カメラ222および端末231から撮影画像を受信して取得する。
ステップS32において表示制御部114は、撮影画像のなかのモザイクエリアが写る領域にモザイクを施す。
ステップS33において表示制御部114は、アクションデータベース150からアクションの情報を取得する。
【0056】
ステップS34において表示制御部114は、ステップS33で取得したアクションに係る対象位置152(図9参照)に対応する撮影画像の位置にアクションマーク317を追加する。つまり表示制御部114は、撮影画像にアクションマーク317が重ねて(重畳して)表示されるように、ステップS32で生成された撮影画像を加工する。
ステップS35において表示制御部114は、見取り図領域313の表示データを生成する。
【0057】
ステップS36において表示制御部114は、ステップS32で生成したモザイクが施された撮影画像、ステップS33で取得したアクションの情報、およびステップS35で生成した見取り図領域313の表示データを含む画面データを端末231~233に送信する。
ステップS37において表示制御部114は、説明者が利用する端末231から終了の指示があれば(ステップS37→YES)表示制御処理を終了し、終了の指示がなれば(ステップS37→NO)ステップS31に戻る。
【0058】
ステップS41においてアクション処理部115は、アクション(質問・応答・コメント)の情報を端末231~233から受信する。
ステップS42においてアクション処理部115は、ステップS41で受信したアクションが質問であって指定された撮影画像内の位置(2次元座標)が含まれていれば、対応する対象物210上の箇所(3次元座標)を算出する。
【0059】
ステップS43においてアクション処理部115は、アクションの情報をアクションデータベース150に格納する。
ステップS44においてアクション処理部115は、説明者が利用する端末231から終了の指示があれば(ステップS44→YES)アクション処理を終了し、終了の指示がなれば(ステップS44→NO)ステップS41に戻る。
【0060】
ここまでに説明した表示制御処理とアクション処理とは、本見学中(図2のステップS20~S23参照)の処理である。事前見学中(ステップS16~S19参照)についても、ほぼ同様である。異なる点は以下のとおりである。
ステップS31において取得部111は、カメラ222、端末231から撮影画像を取得するのではなく、事前見学コンテンツ160から撮影画像を取得する。
事前見学中の撮影画像は、撮影済みの画像であり、事前見学コンテンツ160の制作時にモザイクを施してもよく、ステップS32はスキップできる。
このようにアクション処理サーバ100が備える取得部111が取得する撮影画像は、対象物210の撮影済みのコンテンツ(事前見学コンテンツ160参照)に含まれる撮影画像であってもよい。
【0061】
≪オンライン見学システムの特徴≫
以上説明したように、アクションを通じて見学者と説明者との間で、質問や応答のやり取りが可能になる。さらに見学者間でのコメントのやり取りも可能になる。やり取りの際、質問の起点となった対象物210の箇所が、見学者と説明者間で共有されているため、説明者は質問者の質問を容易に把握でき、的確に回答することができる。また、質問者以外の見学者は、質問や回答の内容を明瞭に把握することができるようになる。
【0062】
また対象物210の箇所は、撮影画像上の位置ではなく、対象物210の3次元空間上の位置である。このため、撮影するカメラ222や端末231が切り替わったり、移動したり、撮影の向きが変わったりしても、対象物210上の同じ箇所を示しており(図5図6記載のアクションマーク317,317A参照)説明者や見学者が何処/何についてやり取り(議論)しているか混乱することはない。
【0063】
説明者は、見学者に見せたくない製品や設備があるエリアをモザイクエリアとして設定して(図2のステップS14、図10参照)、端末231~233に表示される撮影画像にモザイクをかけることができる。このため撮影画像に見せたくない製品や設備が写り込むことがないようにカメラ222や端末231の位置や向きを気にする必要がなくなる。特に端末231の撮影画像について、見学者は対象物210を説明するうえで適切な場所・向きから撮影することができる。延いては、見学者にとっても望ましい撮影画像を見ながら説明が受けられる。
【0064】
≪変形例:複数の箇所≫
上記した実施形態においてアクションの起点となる対象物210の箇所は1つであり、撮影画像表示領域311に表示されるアクションマーク317,317Aは1つである(図5図7参照)。同じ時間帯に複数の箇所に係るアクションが起こることを想定して、複数のアクションマークが表示されるようにしてもよい。
【0065】
図12は、本実施形態の変形例に係る複数のアクションマーク317,318が表示される画面310Eを説明するための図である。以下では、1つの箇所に係る連続するアクションをスレッドと記す。
アクションマーク317は、アクションマーク318より強調されて表示されており、アクション領域312に表示されるアクションは、アクションマーク317に係ることを示している。アクションマーク318は、アクション領域312にある質問のアクションを入力した見学者Aとは異なる見学者Bが入力したアクションに係る対象物210の箇所を示している。アクションマーク318がタップされると、アクションマーク318(で示される対象物210の箇所)に係るアクションのスレッドがアクション領域312に表示される。
【0066】
このような操作を実現するためにアクション処理部115は、アクションマーク318に係る2番目のアクションについて、1番目のアクションと同様に処理してアクションデータベース150に格納する。また表示制御部114は、アクションデータベース150にある対象位置152ごと(つまりはアクションのスレッドごと)に画面データを生成して(図11記載のステップS31~S35参照)、利用者が指定したアクションマークに対応するアクションのスレッドを含む画面データを端末に送信するようにしてもよい。
【0067】
このようにアクション処理サーバ100が備えるアクション処理部115は、対象物210の撮影画像上の新たに指定された位置(2次元座標)、および当該位置に関連した新たなアクション情報(2番目のアクション)を取得し、撮影画像上の新たに指定された位置に対応する対象物210上の箇所(3次元座標)を算出する。
またアクション処理サーバ100が備える表示制御部114は、対象物210上の箇所に対応する位置、および対象物210の撮影画像上の新たに指定された位置にアクションマーク318が付与された対象物210の撮影画像を端末231~233に送信する。
【0068】
または、以下に示すような実現の手法であってもよい。アクションマーク318がタップされると端末は、撮影画像のタップされた位置(2次元座標)をアクション処理サーバ100に送信する。表示制御部114は、撮影画像の位置から対象物210の箇所の位置(3次元座標)を算出する。次に表示制御部114は、アクションデータベース150のなかで対象位置152が、算出した位置であるアクション(アクションのスレッド)を抽出して、端末に送信する。端末は受信したアクションをアクション領域312に表示する。
【0069】
このようにアクション処理サーバ100が備える表示制御部114は、端末231~233から対象物210の撮影画像上の位置を取得すると、当該位置に対応する対象物210上の箇所を算出し、当該対象物210上の箇所に関連したアクション情報を当該端末231~233に送信する。
このように複数の箇所・アクションのスレッドを扱うことで、説明者と見学者とは複数の観点から議論することができ、対象物210についてより理解を深めることができる。
【0070】
≪変形例:3次元マップ生成≫
上記した実施形態では、ステレオカメラ221から取得した距離情報を基に、3次元マップ生成部112が、3次元マップ130を生成している。ステレオカメラ221が、対象物210がある領域や領域241を含む領域の3次元情報(位置情報)を生成して、アクション処理サーバ100に送信するようにしてもよい。
この場合、アクション処理サーバ100は、対象物210の1つ以上の撮影画像と、対象物210および対象物210の周辺にある物体の3次元の位置情報とを取得する取得部111を備えることになる。
【0071】
≪適用例≫
上記した実施形態では工場240で製作される製品を対象物210としているが、これに限らない。オンライン見学システム10は、施設のオンライン見学やオンライン観光ツアー、住宅のオンラインでの内部見学(内見)などを含むオンライン見学(説明会)でも利用可能である。
【0072】
≪その他変形例≫
なお、本明細書において、プログラム128を記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。上記した実施形態において表示制御部114は、モザイクが施された撮影画像、アクションの情報、および見取り図領域313の表示データを含む画面データを生成して端末231~233に送信する(図11記載のステップS31~S36参照)。表示制御部114は、個々の端末231~233それぞれに応じた画面データを生成して、個々の端末231~233に送信するようにしてもよい。例えば、撮影画像表示領域311やアクション領域312の表示内容は、端末231~233によって異なる場合がある。表示制御部114は、個々の端末231~233それぞれに応じた画面データを生成することで、表示制御処理が単純になる。
【0073】
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【符号の説明】
【0074】
10 オンライン見学システム
100 アクション処理サーバ
111 取得部
112 3次元マップ生成部
113 モザイクエリア設定部
114 表示制御部
115 アクション処理部
130 3次元マップ
140 モザイクエリア情報
150 アクションデータベース
160 事前見学コンテンツ(対象物の撮影済みのコンテンツ)
210 対象物
231~233 端末
317,317A アクションマーク
333 モザイクエリア
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12