(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-06-16
(45)【発行日】2025-06-24
(54)【発明の名称】プログラム及び通信方法
(51)【国際特許分類】
H04N 7/15 20060101AFI20250617BHJP
G06F 3/0484 20220101ALI20250617BHJP
【FI】
H04N7/15
G06F3/0484
(21)【出願番号】P 2022081180
(22)【出願日】2022-05-17
【審査請求日】2024-02-08
(73)【特許権者】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(74)【代理人】
【識別番号】100147485
【氏名又は名称】杉村 憲司
(74)【代理人】
【識別番号】230118913
【氏名又は名称】杉村 光嗣
(74)【代理人】
【識別番号】100139491
【氏名又は名称】河合 隆慶
(74)【代理人】
【識別番号】100176728
【氏名又は名称】北村 慎吾
(72)【発明者】
【氏名】堀 達朗
【審査官】大西 宏
(56)【参考文献】
【文献】特開2004-171356(JP,A)
【文献】特開2012-169694(JP,A)
【文献】特開2015-115723(JP,A)
【文献】特開2018-019338(JP,A)
【文献】特開2020-043533(JP,A)
【文献】特開2020-092424(JP,A)
【文献】特開2022-032812(JP,A)
【文献】特開2022-069211(JP,A)
【文献】特表2010-541398(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 7/14 - 7/173
G06F 3/048- 3/0489
(57)【特許請求の範囲】
【請求項1】
第1ユーザがいる第1空間で撮影された、前記第1ユーザの撮影画像を含む前記第1空間の第1画像から背景を除去して、前記第1空間とは別個の第2空間にいる第2ユーザに向けて表示される第2画像を生成するコンピュータに、
生成された第2画像を、ネットワークを介して送信することと、
前記第1ユーザの合図を検知すると、前記第1空間にある物体をスキャンすることと、
スキャンされた物体の画像を、前記ネットワークを介して送信することと
を含む動作を実行させるプログラム。
【請求項2】
前記スキャンすることは、前記第1空間にある物体として、前記第1ユーザが手で持っている物体を検知することを含む請求項1に記載のプログラム。
【請求項3】
前記スキャンすることは、前記第1空間にある物体として、前記第1ユーザが手を近づけている物体を検知することを含む請求項1に記載のプログラム。
【請求項4】
前記スキャンすることは、前記第1空間にある物体として、前記第1ユーザが見ている物体を検知することを含む請求項1に記載のプログラム。
【請求項5】
前記スキャンすることは、前記第1空間にある物体として、前記第1ユーザが指さしている物体を検知することを含む請求項1に記載のプログラム。
【請求項6】
前記合図は、前記第1ユーザの声による指示を含む請求項1に記載のプログラム。
【請求項7】
前記合図は、前記第1ユーザの動きによる指示を含む請求項1に記載のプログラム。
【請求項8】
前記動作は、
前記物体の、前記第1ユーザが注目している箇所を特定することと、
特定された箇所を示す注目情報を、前記ネットワークを介して送信することと
を更に含む請求項1に記載のプログラム。
【請求項9】
第1ユーザがいる第1空間で撮影された、前記第1ユーザの撮影画像を含む前記第1空間の第1画像から背景を除去して第2画像を生成する端末装置であって、前記第1ユーザの合図を検知すると、前記第1空間にある物体をスキャンする端末装置により生成された第2画像を、ネットワークを介して受信することと、
受信された第2画像を、前記第1空間とは別個の第2空間にいる第2ユーザに向けて表示することと、
前記端末装置によりスキャンされた物体の画像を、前記ネットワークを介して受信することと、
受信された前記物体の画像を前記第2ユーザに向けて表示することと
を含む動作をコンピュータに実行させ
、
前記動作は、前記物体の、前記第1ユーザが注目している箇所を示す注目情報を、前記ネットワークを介して受信することを更に含み、
前記物体の画像は、3次元画像であり、
前記表示することは、前記物体の画像を回転又は移動させて、前記物体の画像の、受信された注目情報で示される箇所に対応する位置を前記第2ユーザに向けて表示することを含むプログラム。
【請求項10】
第1ユーザがいる第1空間で撮影された、前記第1ユーザの撮影画像を含む前記第1空間の第1画像から背景を除去して、前記第1空間とは別個の第2空間にいる第2ユーザに向けて表示される第2画像を生成する端末装置から、生成された第2画像を、ネットワークを介して送信することと、
前記端末装置により、前記第1ユーザの合図を検知すると、前記第1空間にある物体をスキャンすることと、
前記端末装置から、スキャンされた物体の画像を、前記ネットワークを介して送信することと
を含む通信方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、プログラム及び通信方法に関する。
【背景技術】
【0002】
特許文献1には、ビデオ会議ストリーム内の背景を抽出してユーザから分離し、分離された背景を、別のユーザのシステムから受信した背景又は事前に記録された背景に置き換えるシステムが開示されている。
【0003】
特許文献2に開示されているシステムでは、第1の端末が、カメラによって撮影された動画像を第2の端末に送信する。第2の端末が、受信した動画像をディスプレイに表示し、当該動画像に対する指示をユーザに書き込ませる。第2の端末が、書き込まれた指示の画像と、当該指示の画像に対応する範囲で動画像をトリミングして得られた静止画像とを第1の端末に送信する。第1の端末が、受信した静止画像の射影変換又は姿勢変換を行いながら、カメラによって撮影された動画像の、当該静止画像と一致する部分を抽出する。第1の端末が、抽出した部分に静止画像と同じ射影変換又は姿勢変換を行った指示の画像を重畳させた動画像をディスプレイに表示する。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2020-092424号公報
【文献】特開2015-115723号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
従来のシステムでは、ユーザが目の前にある物体をビデオ会議で相手に見せようとしても、物体が背景の一部とみなされて除去されてしまうおそれがある。
【0006】
本開示の目的は、ユーザが映像を使ったコミュニケーションを行っている相手に対し、背景除去機能を有効にしていても目の前にある物体を見せられるようにすることである。
【課題を解決するための手段】
【0007】
本開示に係るプログラムは、
第1ユーザがいる第1空間で撮影された第1画像から背景を除去して、前記第1空間とは別個の第2空間にいる第2ユーザに向けて表示される第2画像を生成するコンピュータに、
前記第1ユーザの合図を検知すると、前記第1空間にある物体をスキャンすることと、
スキャンされた物体の画像を前記第2画像とともにネットワークを介して送信することと
を含む動作を実行させる。
【0008】
本開示に係る別のプログラムは、
第1ユーザがいる第1空間で撮影された第1画像から背景を除去して第2画像を生成する端末装置であって、前記第1ユーザの合図を検知すると、前記第1空間にある物体をスキャンする端末装置によりスキャンされた物体の画像を前記第2画像とともにネットワークを介して受信することと、
受信された前記物体の画像を前記第2画像とともに前記第1空間とは別個の第2空間にいる第2ユーザに向けて表示することと
を含む動作をコンピュータに実行させる。
【0009】
本開示に係る通信方法は、
第1ユーザがいる第1空間で撮影された第1画像から背景を除去して、前記第1空間とは別個の第2空間にいる第2ユーザに向けて表示される第2画像を生成する端末装置により、前記第1ユーザの合図を検知すると、前記第1空間にある物体をスキャンすることと、
前記端末装置から、スキャンされた物体の画像を前記第2画像とともにネットワークを介して送信することと
を含む。
【発明の効果】
【0010】
本開示によれば、ユーザが映像を使ったコミュニケーションを行っている相手に対し、背景除去機能を有効にしていても目の前にある物体を見せることができる。
【図面の簡単な説明】
【0011】
【
図1】本開示の実施形態に係る通信システムの構成を示すブロック図である。
【
図2】第1ユーザが両手で物体を保持している例を示す図である。
【
図3】第2ユーザが物体の画像を見ている例を示す図である。
【
図4】第2ユーザが物体の画像を見ている別の例を示す図である。
【
図5】本開示の実施形態に係る第1端末装置の動作を示すフローチャートである。
【
図6】本開示の実施形態に係る第2端末装置の動作を示すフローチャートである。
【
図7】本開示の実施形態に係る第2端末装置の動作の変形例を示すフローチャートである。
【発明を実施するための形態】
【0012】
以下、本開示の一実施形態について、図を参照して説明する。
【0013】
各図中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。
【0014】
図1から
図3を参照して、本実施形態に係る通信システム10の構成を説明する。
【0015】
通信システム10は、サーバ装置20と、第1端末装置30と、第2端末装置40とを備える。サーバ装置20は、ネットワーク50を介して第1端末装置30及び第2端末装置40と通信可能である。第1端末装置30は、ネットワーク50を介して第2端末装置40と通信可能であってもよい。
【0016】
サーバ装置20は、データセンタなどの施設に設置され、サービス事業者によって運用される。サーバ装置20は、クラウドコンピューティングシステム又はその他のコンピューティングシステムに属するサーバコンピュータである。
【0017】
第1端末装置30は、第1ユーザ13がいる第1空間11に設置され、第1ユーザ13によって使用される。第1空間11は、例えば、第1ユーザ13の自宅又はオフィスである。第1端末装置30は、例えば、PCなどの汎用コンピュータ、特定の計算に特化した専用コンピュータ、又は携帯電話機、スマートフォン、若しくはタブレットなどのモバイル機器である。「PC」は、personal computerの略語である。
【0018】
第2端末装置40は、第2ユーザ14がいる、第1空間11とは別個の第2空間12に設置され、第2ユーザ14によって使用される。第2空間12は、例えば、第2ユーザ14の自宅又はオフィスである。第2端末装置40は、例えば、PCなどの汎用コンピュータ、特定の計算に特化した専用コンピュータ、又は携帯電話機、スマートフォン、若しくはタブレットなどのモバイル機器である。
【0019】
ネットワーク50は、インターネット、少なくとも1つのWAN、少なくとも1つのMAN、又はこれらの任意の組合せを含む。「WAN」は、wide area networkの略語である。「MAN」は、metropolitan area networkの略語である。ネットワーク50は、少なくとも1つの無線ネットワーク、少なくとも1つの光ネットワーク、又はこれらの任意の組合せを含んでもよい。無線ネットワークは、例えば、アドホックネットワーク、セルラーネットワーク、無線LAN、衛星通信ネットワーク、又は地上マイクロ波ネットワークである。「LAN」は、local area networkの略語である。
【0020】
図1から
図3を参照して、本実施形態の概要を説明する。
【0021】
第1端末装置30は、第1空間11で撮影された第1画像M1から背景を除去して、第2空間12にいる第2ユーザ14に向けて表示される第2画像M2を生成する端末装置である。第1端末装置30は、第1ユーザ13の合図を検知すると、第1空間11にある物体15をスキャンする。第1端末装置30は、スキャンした物体15の画像M3を第2画像M2とともにネットワーク50を介して送信する。物体15は、
図2に示すような車両の模型に限らず、メモ若しくはその他の書類、又は食品若しくはその他の商品など、任意の有体物でよい。
【0022】
第2端末装置40は、第1端末装置30によりスキャンされた物体15の画像M3を第2画像M2とともにネットワーク50を介して受信する。第2端末装置40は、受信した物体15の画像M3を第2画像M2とともに第2ユーザ14に向けて表示する。
【0023】
本実施形態によれば、第1ユーザ13が映像を使ったコミュニケーションを行っている相手に対し、背景除去機能を有効にしていても目の前にある物体15を見せることができる。例えば、第1ユーザ13が目の前にある物体15をビデオ会議で相手に見せようとしたときに、物体15が背景の一部とみなされて除去されることを回避できる。
【0024】
本実施形態では、第1端末装置30は、物体15の、第1ユーザ13が注目している箇所を特定する。第1端末装置30は、特定した箇所を示す注目情報A1を、ネットワーク50を介して送信する。
【0025】
第2端末装置40は、注目情報A1を、ネットワーク50を介して受信する。第2端末装置40は、物体15の画像M3の、受信した注目情報A1で示される箇所に対応する位置に印16を表示する。
【0026】
本実施形態によれば、第1ユーザ13が映像を使ったコミュニケーションを行っている相手に対し、第1ユーザ13が注目している箇所を簡単に伝えることができる。例えば、第1ユーザ13が物体15の注目している箇所をビデオ会議で相手に伝えたいときに、当該箇所を書き込む必要がなくなる。
【0027】
図2の例では、第1端末装置30は、カメラ36を用いて、第1画像M1として、ウェブ会議中の第1ユーザ13を含む第1空間11の映像を撮影する。第1端末装置30は、第2画像M2として、撮影した映像から背景を除去して得られた映像を、ネットワーク50を介してサーバ装置20に送信する。第1端末装置30は、ウェブ会議中の第2ユーザ14を含む第2空間12の映像、又はその映像から背景を除去して得られた映像を、ネットワーク50を介してサーバ装置20から受信する。第1端末装置30は、受信した映像をディスプレイ37に表示する。第1端末装置30は、第1ユーザ13の合図を検知すると、カメラ36を用いて、第1空間11にある物体15として、第1ユーザ13が注目した車両の模型をスキャンする。例えば、第1ユーザ13が車両の模型を両手で保持するか、両手の周辺領域に置くか、目視するか、又は指さした場合に、第1ユーザ13が車両の模型に注目したとみなされる。第1端末装置30は、物体15の画像M3として、スキャンした車両の模型の画像を、ネットワーク50を介してサーバ装置20に送信する。
【0028】
サーバ装置20は、第1空間11の映像から背景を除去して得られた映像を、ネットワーク50を介して第1端末装置30から受信し、受信した映像を適宜加工した上で、ネットワーク50を介して第2端末装置40に送信する。サーバ装置20は、第2空間12の映像、又はその映像から背景を除去して得られた映像を、ネットワーク50を介して第2端末装置40から受信し、受信した映像を適宜加工した上で、ネットワーク50を介して第1端末装置30に送信する。サーバ装置20は、車両の模型の画像を、ネットワーク50を介して第1端末装置30から受信すると、受信した画像を適宜加工した上で、ネットワーク50を介して第2端末装置40に送信する。
【0029】
図3の例では、第2端末装置40は、カメラ46を用いて、ウェブ会議中の第2ユーザ14を含む第2空間12の映像を撮影する。第2端末装置40は、撮影した映像、又は撮影した映像から背景を除去して得られた映像を、ネットワーク50を介してサーバ装置20に送信する。第2端末装置40は、ウェブ会議中の第1ユーザ13を含む第1空間11の映像から背景を除去して得られた映像を、ネットワーク50を介してサーバ装置20から受信する。第2端末装置40は、受信した映像をディスプレイ47に表示する。第2端末装置40は、車両の模型の画像を、ネットワーク50を介してサーバ装置20から受信すると、受信した画像をディスプレイ47に表示する。
【0030】
図2及び
図3の例によれば、ウェブ会議において、発表者が目の前にある物体15を、ウェブ会議ツールで特別な操作を行うことなく簡単に相手側に表示させることができる。
【0031】
図2の例では、第1端末装置30は、カメラ36を用いて、第1ユーザ13の顔の向き、視線、又は指の向きを検知して、第1ユーザ13が車両の模型のどこに注目しているかを認識する。第1端末装置30は、注目情報A1として、第1ユーザ13が車両の模型のどこに注目しているかを、ネットワーク50を介してサーバ装置20に通知する。
【0032】
サーバ装置20は、第1ユーザ13が車両の模型のどこに注目しているかを、ネットワーク50を介して第1端末装置30から通知されると、第1ユーザ13が車両の模型のどこに注目しているかを、ネットワーク50を介して第2端末装置40に通知する。
【0033】
図3の例では、第2端末装置40は、第1ユーザ13が車両の模型のどこに注目しているかを、ネットワーク50を介してサーバ装置20から通知されると、第1ユーザ13が車両の模型のどこに注目しているかが第2ユーザ14に分かるように、印16として破線の枠を、ディスプレイ47に表示している車両の模型の画像上に表示する。
【0034】
図2及び
図3の例によれば、ウェブ会議において、発表者が相手と共有している物体15のどこを説明しているかを、ウェブ会議ツールで特別な操作を行うことなく簡単に相手に認識させることができる。
【0035】
物体15の画像M3は、2次元画像でもよいし、又は3次元画像でもよい。物体15の画像M3が3次元画像である場合に、
図4に示すように、第2端末装置40は、物体15の画像M3を回転又は移動させて、物体15の画像M3の、受信した注目情報A1で示される箇所に対応する位置を第2ユーザ14に向けて表示してもよい。そのような変形例によれば、印16を表示しなくても、第1ユーザ13が映像を使ったコミュニケーションを行っている相手に対し、第1ユーザ13が注目している箇所を簡単に伝えることができる。
【0036】
図4の例では、第2端末装置40は、第1ユーザ13が車両の模型のどこに注目しているかを、ネットワーク50を介してサーバ装置20から通知されると、車両の模型の、第1ユーザ13が注目している箇所が第2ユーザ14に見えるように、ディスプレイ47に表示している車両の模型の画像を回転又は移動させる。
【0037】
第1端末装置30によりスキャンされた物体15の画像M3は、第2端末装置40だけでなく、第1端末装置30でも表示されてよい。そのような変形例において、第1端末装置30は、スキャンした物体15の画像M3を第1ユーザ13に向けて表示する。
【0038】
例えば、第1端末装置30は、車両の模型の画像をディスプレイ37に表示する。
【0039】
更なる変形例として、第1端末装置30は、ディスプレイ37に表示している物体15の画像M3の、第1ユーザ13が注目している箇所を特定し、特定した箇所を示す注目情報A2を、ネットワーク50を介して送信してもよい。そのような変形例において、第2端末装置40は、注目情報A2を、ネットワーク50を介して受信する。第2端末装置40は、物体15の画像M3の、受信した注目情報A2で示される箇所に対応する位置に印を表示する。あるいは、物体15の画像M3が3次元画像である場合に、第2端末装置40は、物体15の画像M3を回転又は移動させて、物体15の画像M3の、受信した注目情報A2で示される箇所に対応する位置を第2ユーザ14に向けて表示してもよい。
【0040】
例えば、第1端末装置30は、カメラ36を用いて、第1ユーザ13の顔の向き、視線、又は指の向きを検知して、第1ユーザ13が車両の模型の画像のどこに注目しているかを認識する。第1端末装置30は、注目情報A2として、第1ユーザ13が車両の模型の画像のどこに注目しているかを、ネットワーク50を介してサーバ装置20に通知する。
【0041】
サーバ装置20は、第1ユーザ13が車両の模型の画像のどこに注目しているかを、ネットワーク50を介して第1端末装置30から通知されると、第1ユーザ13が車両の模型の画像のどこに注目しているかを、ネットワーク50を介して第2端末装置40に通知する。
【0042】
第2端末装置40は、第1ユーザ13が車両の模型の画像のどこに注目しているかを、ネットワーク50を介してサーバ装置20から通知されると、第1ユーザ13が車両の模型の画像のどこに注目しているかが第2ユーザ14に分かるように、印として破線の枠を、ディスプレイ47に表示している車両の模型の画像上に表示する。あるいは、第2端末装置40は、第1ユーザ13が車両の模型の画像のどこに注目しているかを、ネットワーク50を介してサーバ装置20から通知されると、車両の模型の画像の、第1ユーザ13が注目している箇所が第2ユーザ14に見えるように、ディスプレイ47に表示している車両の模型の画像を回転又は移動させてもよい。
【0043】
更なる別の変形例として、第1端末装置30は、物体15の画像M3の、第2ユーザ14が注目している箇所を示す注目情報A3を、ネットワーク50を介して受信し、ディスプレイ37に表示している物体15の画像M3の、受信した注目情報A3で示される箇所に対応する位置に印を表示してもよい。あるいは、物体15の画像M3が3次元画像である場合に、第1端末装置30は、注目情報A3を、ネットワーク50を介して受信し、ディスプレイ37に表示している物体15の画像M3を回転又は移動させて、物体15の画像M3の、受信した注目情報A3で示される箇所に対応する位置を第1ユーザ13に向けて表示してもよい。
【0044】
例えば、第2端末装置40は、カメラ46を用いて、第2ユーザ14の顔の向き、視線、又は指の向きを検知して、第2ユーザ14が車両の模型の画像のどこに注目しているかを認識する。第2端末装置40は、注目情報A3として、第2ユーザ14が車両の模型の画像のどこに注目しているかを、ネットワーク50を介してサーバ装置20に通知する。
【0045】
サーバ装置20は、第2ユーザ14が車両の模型の画像のどこに注目しているかを、ネットワーク50を介して第2端末装置40から通知されると、第2ユーザ14が車両の模型の画像のどこに注目しているかを、ネットワーク50を介して第1端末装置30に通知する。
【0046】
第1端末装置30は、第2ユーザ14が車両の模型の画像のどこに注目しているかを、ネットワーク50を介してサーバ装置20から通知されると、第2ユーザ14が車両の模型の画像のどこに注目しているかが第1ユーザ13に分かるように、印として破線の枠を、ディスプレイ37に表示している車両の模型の画像上に表示する。あるいは、第1端末装置30は、第2ユーザ14が車両の模型の画像のどこに注目しているかを、ネットワーク50を介してサーバ装置20から通知されると、車両の模型の画像の、第2ユーザ14が注目している箇所が第1ユーザ13に見えるように、ディスプレイ37に表示している車両の模型の画像を回転又は移動させてもよい。
【0047】
この例によれば、ウェブ会議において、参加者が相手と共有している物体15のどこを見ているかを、ウェブ会議ツールで特別な操作を行うことなく簡単に相手に認識させることができる。
【0048】
図1を参照して、本実施形態に係る第1端末装置30の構成を説明する。
【0049】
第1端末装置30は、制御部31と、記憶部32と、通信部33と、入力部34と、出力部35とを備える。
【0050】
制御部31は、少なくとも1つのプロセッサ、少なくとも1つのプログラマブル回路、少なくとも1つの専用回路、又はこれらの任意の組合せを含む。プロセッサは、CPU若しくはGPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサである。「CPU」は、central processing unitの略語である。「GPU」は、graphics processing unitの略語である。プログラマブル回路は、例えば、FPGAである。「FPGA」は、field-programmable gate arrayの略語である。専用回路は、例えば、ASICである。「ASIC」は、application specific integrated circuitの略語である。制御部31は、第1端末装置30の各部を制御しながら、第1端末装置30の動作に関わる処理を実行する。
【0051】
記憶部32は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ、又はこれらの任意の組合せを含む。半導体メモリは、例えば、RAM、ROM、又はフラッシュメモリである。「RAM」は、random access memoryの略語である。「ROM」は、read only memoryの略語である。RAMは、例えば、SRAM又はDRAMである。「SRAM」は、static random access memoryの略語である。「DRAM」は、dynamic random access memoryの略語である。ROMは、例えば、EEPROMである。「EEPROM」は、electrically erasable programmable read only memoryの略語である。フラッシュメモリは、例えば、SSDである。「SSD」は、solid-state driveの略語である。磁気メモリは、例えば、HDDである。「HDD」は、hard disk driveの略語である。記憶部32は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。記憶部32には、第1端末装置30の動作に用いられるデータと、第1端末装置30の動作によって得られたデータとが記憶される。
【0052】
通信部33は、少なくとも1つの通信用インタフェースを含む。通信用インタフェースは、例えば、Ethernet(登録商標)などの有線LAN通信規格に対応したインタフェース、IEEE802.11などの無線LAN通信規格、又はLTE、4G規格、若しくは5G規格などの移動通信規格に対応したインタフェースである。「IEEE」は、Institute of Electrical and Electronics Engineersの略称である。「LTE」は、Long Term Evolutionの略語である。「4G」は、4th generationの略語である。「5G」は、5th generationの略語である。通信部33は、サーバ装置20と通信を行う。通信部33は、第2端末装置40とも通信を行ってよい。通信部33は、第1端末装置30の動作に用いられるデータを受信し、また第1端末装置30の動作によって得られるデータを送信する。
【0053】
入力部34は、少なくとも1つの入力用インタフェースを含む。入力用インタフェースは、例えば、物理キー、静電容量キー、ポインティングデバイス、ディスプレイ37と一体的に設けられたタッチスクリーン、カメラ36、LiDAR、又はマイクロフォンである。「LiDAR」は、light detection and rangingの略語である。カメラ36は、例えば、RGBカメラ、又はRGBカメラとデプスカメラとの組合せである。入力部34は、第1端末装置30の動作に用いられるデータを入力する操作を受け付ける。入力部34は、第1端末装置30に備えられる代わりに、外部の入力機器として第1端末装置30に接続されてもよい。接続用インタフェースとしては、USB、HDMI(登録商標)、又はBluetooth(登録商標)などの規格に対応したインタフェースを用いることができる。「USB」は、Universal Serial Busの略語である。「HDMI(登録商標)」は、High-Definition Multimedia Interfaceの略語である。
【0054】
出力部35は、少なくとも1つの出力用インタフェースを含む。出力用インタフェースは、例えば、ディスプレイ37又はスピーカである。ディスプレイ37は、例えば、LCD又は有機ELディスプレイである。「LCD」は、liquid crystal displayの略語である。「EL」は、electro luminescentの略語である。出力部35は、第1端末装置30の動作によって得られるデータを出力する。出力部35は、第1端末装置30に備えられる代わりに、外部の出力機器として第1端末装置30に接続されてもよい。接続用インタフェースとしては、USB、HDMI(登録商標)、又はBluetooth(登録商標)などの規格に対応したインタフェースを用いることができる。
【0055】
第1端末装置30の機能は、本実施形態に係るプログラムを、制御部31としてのプロセッサで実行することにより実現される。すなわち、第1端末装置30の機能は、ソフトウェアにより実現される。プログラムは、第1端末装置30の動作をコンピュータに実行させることで、コンピュータを第1端末装置30として機能させる。すなわち、コンピュータは、プログラムに従って第1端末装置30の動作を実行することにより第1端末装置30として機能する。
【0056】
プログラムは、非一時的なコンピュータ読取り可能な媒体に記憶しておくことができる。非一時的なコンピュータ読取り可能な媒体は、例えば、フラッシュメモリ、磁気記録装置、光ディスク、光磁気記録媒体、又はROMである。プログラムの流通は、例えば、プログラムを記憶したSDカード、DVD、又はCD-ROMなどの可搬型媒体を販売、譲渡、又は貸与することによって行う。「SD」は、Secure Digitalの略語である。「DVD」は、digital versatile discの略語である。「CD-ROM」は、compact disc read only memoryの略語である。プログラムをサーバのストレージに格納しておき、サーバから他のコンピュータにプログラムを転送することにより、プログラムを流通させてもよい。プログラムをプログラムプロダクトとして提供してもよい。
【0057】
コンピュータは、例えば、可搬型媒体に記憶されたプログラム又はサーバから転送されたプログラムを、一旦、主記憶装置に格納する。そして、コンピュータは、主記憶装置に格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。サーバからコンピュータへのプログラムの転送は行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって処理を実行してもよい。「ASP」は、application service providerの略語である。プログラムは、電子計算機による処理の用に供する情報であってプログラムに準ずるものを含む。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。
【0058】
第1端末装置30の一部又は全ての機能が、制御部31としてのプログラマブル回路又は専用回路により実現されてもよい。すなわち、第1端末装置30の一部又は全ての機能が、ハードウェアにより実現されてもよい。
【0059】
図1を参照して、本実施形態に係る第2端末装置40の構成を説明する。
【0060】
第2端末装置40は、制御部41と、記憶部42と、通信部43と、入力部44と、出力部45とを備える。
【0061】
制御部41は、少なくとも1つのプロセッサ、少なくとも1つのプログラマブル回路、少なくとも1つの専用回路、又はこれらの任意の組合せを含む。プロセッサは、CPU若しくはGPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサである。プログラマブル回路は、例えば、FPGAである。専用回路は、例えば、ASICである。制御部41は、第2端末装置40の各部を制御しながら、第2端末装置40の動作に関わる処理を実行する。
【0062】
記憶部42は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ、又はこれらの任意の組合せを含む。半導体メモリは、例えば、RAM、ROM、又はフラッシュメモリである。RAMは、例えば、SRAM又はDRAMである。ROMは、例えば、EEPROMである。フラッシュメモリは、例えば、SSDである。磁気メモリは、例えば、HDDである。記憶部42は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。記憶部42には、第2端末装置40の動作に用いられるデータと、第2端末装置40の動作によって得られたデータとが記憶される。
【0063】
通信部43は、少なくとも1つの通信用インタフェースを含む。通信用インタフェースは、例えば、Ethernet(登録商標)などの有線LAN通信規格に対応したインタフェース、IEEE802.11などの無線LAN通信規格、又はLTE、4G規格、若しくは5G規格などの移動通信規格に対応したインタフェースである。通信部43は、サーバ装置20と通信を行う。通信部43は、第1端末装置30とも通信を行ってよい。通信部43は、第2端末装置40の動作に用いられるデータを受信し、また第2端末装置40の動作によって得られるデータを送信する。
【0064】
入力部44は、少なくとも1つの入力用インタフェースを含む。入力用インタフェースは、例えば、物理キー、静電容量キー、ポインティングデバイス、ディスプレイ47と一体的に設けられたタッチスクリーン、カメラ46、LiDAR、又はマイクロフォンである。カメラ46は、例えば、RGBカメラ、又はRGBカメラとデプスカメラとの組合せである。入力部44は、第2端末装置40の動作に用いられるデータを入力する操作を受け付ける。入力部44は、第2端末装置40に備えられる代わりに、外部の入力機器として第2端末装置40に接続されてもよい。接続用インタフェースとしては、USB、HDMI(登録商標)、又はBluetooth(登録商標)などの規格に対応したインタフェースを用いることができる。
【0065】
出力部45は、少なくとも1つの出力用インタフェースを含む。出力用インタフェースは、例えば、ディスプレイ47又はスピーカである。ディスプレイ47は、例えば、LCD又は有機ELディスプレイである。出力部45は、第2端末装置40の動作によって得られるデータを出力する。出力部45は、第2端末装置40に備えられる代わりに、外部の出力機器として第2端末装置40に接続されてもよい。接続用インタフェースとしては、USB、HDMI(登録商標)、又はBluetooth(登録商標)などの規格に対応したインタフェースを用いることができる。
【0066】
第2端末装置40の機能は、本実施形態に係る別のプログラムを、制御部41としてのプロセッサで実行することにより実現される。すなわち、第2端末装置40の機能は、ソフトウェアにより実現される。プログラムは、第2端末装置40の動作をコンピュータに実行させることで、コンピュータを第2端末装置40として機能させる。すなわち、コンピュータは、プログラムに従って第2端末装置40の動作を実行することにより第2端末装置40として機能する。
【0067】
第2端末装置40の一部又は全ての機能が、制御部41としてのプログラマブル回路又は専用回路により実現されてもよい。すなわち、第2端末装置40の一部又は全ての機能が、ハードウェアにより実現されてもよい。
【0068】
図5及び
図6を参照して、本実施形態に係る通信システム10の動作を説明する。この動作は、本実施形態に係る通信方法に相当する。
【0069】
図5及び
図6に示す動作は、第1ユーザ13及び第2ユーザ14がそれぞれ第1端末装置30及び第2端末装置40を使用してウェブ会議など、映像を使ったコミュニケーションを行っている間、繰り返し行われる。
【0070】
【0071】
ステップS101において、制御部31は、入力部34としてのカメラ36を用いて、第1空間11で第1画像M1を撮影する。ステップS102において、制御部31は、ステップS101で撮影した第1画像M1から背景を除去して第2画像M2を生成する。ステップS103において、制御部31は、第1空間11にある物体15の画像M3をサーバ装置20に送信済みであるかどうかを判定する。具体的には、制御部31は、ステップS107の処理がまだ実行されていないか、又はステップS107の処理が実行された後、ステップS111の処理も実行された場合に、物体15の画像M3を送信済みでないと判定する。制御部31は、ステップS107の処理が実行された後、ステップS111の処理がまだ実行されていない場合に、物体15の画像M3を送信済みであると判定する。物体15の画像M3を送信済みでないと判定された場合は、ステップS104の処理が実行される。物体15の画像M3を送信済みであると判定された場合は、ステップS108の処理が実行される。
【0072】
ステップS104において、制御部31は、入力部34としてのマイクロフォン又はカメラ36を用いて、第1ユーザ13の合図を検知し得る。この合図は、「これを見て」と言うなど、第1ユーザ13の声による指示を含んでもよいし、又は物体15を手に取る、物体15がある方向に首を向ける、若しくは物体15を指さすなど、第1ユーザ13の動きによる指示を含んでもよい。合図は、システム側で事前に設定された汎用パターンでもよいし、又はユーザ側で任意に指定された独自パターンでもよい。合図が検知されなかった場合は、ステップS105の処理が実行される。合図が検知された場合は、ステップS106の処理が実行される。
【0073】
ステップS105において、制御部31は、ステップS102で生成した第2画像M2を、通信部33を介してサーバ装置20に送信する。その後、ステップS101の処理が再び実行される。
【0074】
ステップS106において、制御部31は、入力部34としてのカメラ36を用いて、第1空間11にある物体15をスキャンする。具体的には、制御部31は、第1空間11にある物体15として、第1ユーザ13が手で持っている物体を検知し、検知した物体をスキャンする。例えば、制御部31は、カメラ36を用いて、第1ユーザ13の両手を認識し、認識した両手の間にある車両の模型などの有体物をスキャン対象の物体として検知する。あるいは、制御部31は、第1空間11にある物体15として、第1ユーザ13が手を近づけている物体を検知し、検知した物体をスキャンしてもよい。例えば、制御部31は、カメラ36を用いて、第1ユーザ13の両手を認識し、認識した両手の周辺にある車両の模型などの有体物をスキャン対象の物体として検知してもよい。あるいは、制御部31は、第1空間11にある物体15として、第1ユーザ13が見ている物体を検知し、検知した物体をスキャンしてもよい。例えば、制御部31は、カメラ36を用いて、第1ユーザ13の視線又は顔の向きを認識し、認識した視線の先、又は顔が向いている方向にある車両の模型などの有体物をスキャン対象の物体として検知してもよい。あるいは、制御部31は、意図しない物体の共有化を避けるために、第1空間11にある物体15として、第1ユーザ13が手で持っているか、又は手を近づけており、かつ第1ユーザ13が見ている物体を検知し、検知した物体をスキャンしてもよい。あるいは、制御部31は、第1空間11にある物体15として、第1ユーザ13が指さしている物体を検知し、検知した物体をスキャンしてもよい。例えば、制御部31は、カメラ36を用いて、第1ユーザ13の指を認識し、認識した指の先が向いている方向にある車両の模型などの有体物をスキャン対象の物体として検知してもよい。制御部31は、検知した物体の、第1ユーザ13の指又は手で隠れている部分も取り込めるように、その物体を動かすか、又は指若しくは手をずらすよう第1ユーザ13に促してもよい。制御部31は、2つ以上の物体を検知した場合は、どの物体をスキャンすべきか第1ユーザ13に問い合わせてもよい。ステップS107において、制御部31は、ステップS106でスキャンした物体15の画像M3を、ステップS102で生成した第2画像M2とともに通信部33を介してサーバ装置20に送信する。その後、ステップS101の処理が再び実行される。
【0075】
ステップS108において、制御部31は、入力部34としてのマイクロフォン又はカメラ36を用いて、第1ユーザ13の別の合図を検知し得る。この合図は、「これを消して」と言うなど、第1ユーザ13の声による指示を含んでもよいし、又は物体15をカメラ36の画角から外れるように動かすなど、第1ユーザ13の動きによる指示を含んでもよい。合図は、システム側で事前に設定された汎用パターンでもよいし、又はユーザ側で任意に指定された独自パターンでもよい。合図が検知されなかった場合は、ステップS109の処理が実行される。合図が検知された場合は、ステップS111の処理が実行される。
【0076】
ステップS109において、制御部31は、入力部34としてのカメラ36を用いて、物体15の、第1ユーザ13が注目している箇所を特定する。具体的には、制御部31は、物体15の、第1ユーザ13が見ている箇所を特定する。例えば、制御部31は、カメラ36を用いて、第1ユーザ13の視線又は顔の向きを認識し、ステップS106で検知した物体の、認識した視線又は顔が向いている箇所を特定する。あるいは、制御部31は、物体15の、第1ユーザ13が指さしている箇所を特定してもよい。例えば、制御部31は、カメラ36を用いて、第1ユーザ13の指を認識し、ステップS106で検知した物体の、認識した指の先が向いている箇所を特定してもよい。ステップS110において、制御部31は、ステップS109で特定した箇所を示す注目情報A1を、ステップS102で生成した第2画像M2とともに通信部33を介してサーバ装置20に送信する。その後、ステップS101の処理が再び実行される。
【0077】
ステップS111において、制御部31は、物体15の画像M3の表示を中止するよう要求する物体削除要求Rqを、ステップS102で生成した第2画像M2とともに通信部33を介してサーバ装置20に送信する。その後、ステップS101の処理が再び実行される。
【0078】
サーバ装置20は、ステップS105、ステップS107、ステップS110、又はステップS111で送信された第2画像M2を第1端末装置30から受信すると、受信した第2画像M2を適宜加工した上で第2端末装置40に送信する。例えば、サーバ装置20は、第2画像M2に含まれている第1ユーザ13の撮影画像を、仮想3次元空間内に存在する第1ユーザ13のアバターに変換した上で第2端末装置40に送信してもよい。サーバ装置20は、ステップS107で送信された物体15の画像M3を第1端末装置30から受信すると、受信した物体15の画像M3を適宜加工した上で第2端末装置40に送信する。例えば、サーバ装置20は、物体15の画像M3としての撮影画像を、仮想3次元空間内に存在する物体15の3次元オブジェクトに変換した上で第2端末装置40に送信してもよい。サーバ装置20は、ステップS110で送信された注目情報A1を第1端末装置30から受信すると、受信した注目情報A1を適宜加工した上で第2端末装置40に送信する。サーバ装置20は、ステップS111で送信された物体削除要求Rqを第1端末装置30から受信すると、受信した物体削除要求Rqを適宜加工した上で第2端末装置40に送信する。
【0079】
【0080】
ステップS201において、制御部41は、第2画像M2を、通信部43を介してサーバ装置20から受信する。制御部41は、物体15の画像M3、注目情報A1、又は物体削除要求Rqを、第2画像M2とともに通信部43を介してサーバ装置20から受信し得る。ステップS202において、制御部41は、物体15の画像M3をサーバ装置20から受信済みであるかどうかを判定する。具体的には、制御部41は、物体15の画像M3をまだ受信していないか、又は物体15の画像M3を受信した後、物体削除要求Rqも受信した場合に、物体15の画像M3を受信済みでないと判定する。制御部41は、物体15の画像M3を受信した後、物体削除要求Rqをまだ受信していない場合に、物体15の画像M3を受信済みであると判定する。物体15の画像M3を受信済みでないと判定された場合は、ステップS203の処理が実行される。物体15の画像M3を受信済みであると判定された場合は、ステップS206の処理が実行される。
【0081】
ステップS203において、制御部41は、ステップS201で物体15の画像M3をサーバ装置20から受信したかどうかを判定する。物体15の画像M3を受信しなかったと判定された場合は、ステップS204の処理が実行される。物体15の画像M3を受信したと判定された場合は、ステップS205の処理が実行される。
【0082】
ステップS204において、制御部41は、ステップS201で受信した第2画像M2を出力部45としてのディスプレイ47に表示する。すなわち、制御部41は、第2画像M2を第2ユーザ14に向けて表示する。その後、ステップS201の処理が再び実行される。
【0083】
ステップS205において、制御部41は、ステップS201で受信した物体15の画像M3を、ステップS201で受信した第2画像M2とともに出力部45としてのディスプレイ47に表示する。すなわち、制御部41は、物体15の画像M3を第2画像M2とともに第2ユーザ14に向けて表示する。その後、ステップS201の処理が再び実行される。
【0084】
ステップS206において、制御部41は、ステップS201で物体削除要求Rqをサーバ装置20から受信したかどうかを判定する。物体削除要求Rqを受信しなかったと判定された場合は、ステップS207の処理が実行される。物体削除要求Rqを受信したと判定された場合は、ステップS204の処理が実行される。すなわち、制御部41は、ステップS201で受信した物体削除要求Rqに応じて、物体15の画像M3の表示を中止し、ステップS204において、ステップS201で受信した第2画像M2のみを出力部45としてのディスプレイ47に表示する。
【0085】
ステップS207において、制御部41は、ステップS205と同様に、ステップS203で受信した物体15の画像M3を、ステップS201で受信した第2画像M2とともに出力部45としてのディスプレイ47に表示する。すなわち、制御部41は、物体15の画像M3を第2画像M2とともに第2ユーザ14に向けて表示する。ステップS208において、制御部41は、物体15の画像M3の、ステップS201で受信した注目情報A1で示される箇所に対応する位置に印16を表示する。例えば、制御部41は、第1ユーザ13が車両の模型などの有体物のどこに注目しているかが第2ユーザ14に分かるように、印16として枠又はマークを、ディスプレイ47に表示している当該有体物の画像上に表示する。その後、ステップS201の処理が再び実行される。
【0086】
図7を参照して、第2端末装置40の動作の一変形例を説明する。物体15の画像M3は、3次元画像であるとする。
【0087】
ステップS211からステップS217の処理については、
図6のステップS201からステップS207の処理と同じであるため、説明を省略する。
【0088】
ステップS207の後、ステップS218において、制御部41は、物体15の画像M3を回転又は移動させて、物体15の画像M3の、ステップS201で受信した注目情報A1で示される箇所に対応する位置を第2ユーザ14に向けて表示する。例えば、制御部41は、車両の模型などの有体物の、第1ユーザ13が注目している箇所が第2ユーザ14に見えるように、ディスプレイ47に表示している当該有体物の画像を回転又は移動させる。その後、ステップS211の処理が再び実行される。
【0089】
第2画像M2、物体15の画像M3、注目情報A1、及び物体削除要求Rqは、第1端末装置30から第2端末装置40に送信されてもよい。そのような変形例によれば、サーバ装置20を省略することができる。
【0090】
以下に本開示の実施形態の一部について例示する。しかしながら、本開示の実施形態はこれらに限定されない点に留意されたい。
[付記1]
第1ユーザがいる第1空間で撮影された第1画像から背景を除去して、前記第1空間とは別個の第2空間にいる第2ユーザに向けて表示される第2画像を生成するコンピュータに、
前記第1ユーザの合図を検知すると、前記第1空間にある物体をスキャンすることと、
スキャンされた物体の画像を前記第2画像とともにネットワークを介して送信することと
を含む動作を実行させるプログラム。
[付記2]
前記スキャンすることは、前記第1空間にある物体として、前記第1ユーザが手で持っている物体を検知することを含む付記1に記載のプログラム。
[付記3]
前記スキャンすることは、前記第1空間にある物体として、前記第1ユーザが手を近づけている物体を検知することを含む付記1に記載のプログラム。
[付記4]
前記スキャンすることは、前記第1空間にある物体として、前記第1ユーザが見ている物体を検知することを含む付記1に記載のプログラム。
[付記5]
前記スキャンすることは、前記第1空間にある物体として、前記第1ユーザが指さしている物体を検知することを含む付記1に記載のプログラム。
[付記6]
前記合図は、前記第1ユーザの声による指示を含む付記1から付記5のいずれか1項に記載のプログラム。
[付記7]
前記合図は、前記第1ユーザの動きによる指示を含む付記1から付記6のいずれか1項に記載のプログラム。
[付記8]
前記動作は、
前記物体の、前記第1ユーザが注目している箇所を特定することと、
特定された箇所を示す注目情報を、前記ネットワークを介して送信することと
を更に含む付記1から付記7のいずれか1項に記載のプログラム。
[付記9]
第1ユーザがいる第1空間で撮影された第1画像から背景を除去して第2画像を生成する端末装置であって、前記第1ユーザの合図を検知すると、前記第1空間にある物体をスキャンする端末装置によりスキャンされた物体の画像を前記第2画像とともにネットワークを介して受信することと、
受信された前記物体の画像を前記第2画像とともに前記第1空間とは別個の第2空間にいる第2ユーザに向けて表示することと
を含む動作をコンピュータに実行させるプログラム。
[付記10]
前記動作は、前記物体の、前記第1ユーザが注目している箇所を示す注目情報を、前記ネットワークを介して受信することを更に含み、
前記表示することは、前記物体の画像の、受信された注目情報で示される箇所に対応する位置に印を表示することを含む付記9に記載のプログラム。
[付記11]
前記動作は、前記物体の、前記第1ユーザが注目している箇所を示す注目情報を、前記ネットワークを介して受信することを更に含み、
前記物体の画像は、3次元画像であり、
前記表示することは、前記物体の画像を回転又は移動させて、前記物体の画像の、受信された注目情報で示される箇所に対応する位置を前記第2ユーザに向けて表示することを含む付記9に記載のプログラム。
[付記12]
第1ユーザがいる第1空間で撮影された第1画像から背景を除去して、前記第1空間とは別個の第2空間にいる第2ユーザに向けて表示される第2画像を生成する端末装置により、前記第1ユーザの合図を検知すると、前記第1空間にある物体をスキャンすることと、
前記端末装置から、スキャンされた物体の画像を前記第2画像とともにネットワークを介して送信することと
を含む通信方法。
【0091】
本開示は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の2つ以上のブロックを統合してもよいし、又は1つのブロックを分割してもよい。フローチャートに記載の2つ以上のステップを記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行してもよい。その他、本開示の趣旨を逸脱しない範囲での変更が可能である。
【符号の説明】
【0092】
10 通信システム
11 第1空間
12 第2空間
13 第1ユーザ
14 第2ユーザ
15 物体
16 印
20 サーバ装置
30 第1端末装置
31 制御部
32 記憶部
33 通信部
34 入力部
35 出力部
36 カメラ
37 ディスプレイ
40 第2端末装置
41 制御部
42 記憶部
43 通信部
44 入力部
45 出力部
46 カメラ
47 ディスプレイ
50 ネットワーク