(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024046109
(43)【公開日】2024-04-03
(54)【発明の名称】操作システム、処理方法、およびプログラム
(51)【国際特許分類】
G06T 7/20 20170101AFI20240327BHJP
B25J 3/00 20060101ALI20240327BHJP
G06V 40/20 20220101ALI20240327BHJP
H04N 7/18 20060101ALI20240327BHJP
【FI】
G06T7/20 300A
B25J3/00
G06V40/20
H04N7/18 U
【審査請求】有
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2022151300
(22)【出願日】2022-09-22
(71)【出願人】
【識別番号】000227205
【氏名又は名称】NECプラットフォームズ株式会社
(74)【代理人】
【識別番号】100106909
【弁理士】
【氏名又は名称】棚井 澄雄
(74)【代理人】
【識別番号】100134544
【弁理士】
【氏名又は名称】森 隆一郎
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100162868
【弁理士】
【氏名又は名称】伊藤 英輔
(72)【発明者】
【氏名】萩野 達
【テーマコード(参考)】
3C707
5C054
5L096
【Fターム(参考)】
3C707BS10
3C707JS03
3C707JS07
3C707JT07
3C707JT10
3C707JU02
3C707JU12
3C707KS12
3C707KT02
3C707KT03
3C707KT06
5C054CA04
5C054CC02
5C054DA07
5C054FA04
5C054FE02
5C054FE23
5C054HA04
5L096BA02
5L096BA05
5L096CA05
5L096DA02
5L096FA67
5L096FA69
5L096GA51
(57)【要約】
【課題】操作者が操作対象のロボットの周囲にいない場合、カメラから表示装置へ送信されるロボットの周囲の状況を含む映像のデータ量を低減することのできる操作システムを提供する。
【解決手段】操作システムは、操作者によるジェスチャーを特定する第1特定手段と、前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定する第2特定手段と、を備える。
【選択図】
図10
【特許請求の範囲】
【請求項1】
操作者によるジェスチャーを特定する第1特定手段と、
前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定する第2特定手段と、
を備える操作システム。
【請求項2】
前記ジェスチャーは、
前記操作者の頭の位置および前記操作者の顔の向きの変更を含む前記操作者の行動である、
請求項1に記載の操作システム。
【請求項3】
前記ジェスチャーは、
前記操作者が映像におけるカメラに目線を合わせ、まばたきすることを含む前記操作者の行動である、
請求項1に記載の操作システム。
【請求項4】
前記操作者が所定の操作を行うことにより前記第2特定手段が特定した前記カメラの変更を禁止する変更禁止手段、
を備える請求項1または請求項2に記載の操作システム。
【請求項5】
操作者によるジェスチャーを特定することと、
前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定することと、
を含む処理方法。
【請求項6】
コンピュータに、
操作者によるジェスチャーを特定することと、
前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定することと、
を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、操作システム、処理方法、およびプログラムに関する。
【背景技術】
【0002】
近年、倉庫などで使用される遠隔操作されるロボットの開発が盛んに行われている。特許文献1には、関連する技術として、産業車両を遠隔操作するシステムに関する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、操作者が操作してロボットを操作する場合、操作者はロボットの周囲の状態を把握する必要がある。そして、操作者が操作対象のロボットの周囲にいない場合、ロボットの周囲を撮影するカメラから、操作者が見ることのできる表示装置へ、ロボットの周囲を撮影した映像を送信し、操作者は表示装置を介してロボットの周囲の状況を確認する必要がある。このように、操作者が操作対象のロボットの周囲にいない場合、カメラから表示装置へ送信されるロボットの周囲の状況を含む映像のデータ量を低減することのできる技術が求められている。
【0005】
本開示の各態様は、上記の課題を解決することのできる操作システム、処理方法、およびプログラムを提供することを目的の1つとしている。
【課題を解決するための手段】
【0006】
上記目的を達成するために、本開示の一態様によれば、操作システムは、操作者によるジェスチャーを特定する第1特定手段と、前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定する第2特定手段と、を備える。
【0007】
上記目的を達成するために、本開示の別の態様によれば、処理方法は、操作者によるジェスチャーを特定することと、前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定することと、を含む。
【0008】
上記目的を達成するために、本開示の別の態様によれば、プログラムは、コンピュータに、操作者によるジェスチャーを特定することと、前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定することと、を実行させる。
【発明の効果】
【0009】
本開示の各態様によれば、操作者が操作対象のロボットの周囲にいない場合、カメラから表示装置へ送信されるロボットの周囲の状況を含む映像のデータ量を低減することのできる技術が求められている。
【図面の簡単な説明】
【0010】
【
図1】本開示の第1実施形態による操作システムの構成の一例を示す図である。
【
図2】本開示の第1実施形態による情報処理装置の構成の一例を示す図である。
【
図3】本開示の第1実施形態におけるしきい値の一例を示す図である。
【
図4】本開示の第1実施形態による記憶部が記憶するテーブルの一例を示す図である。
【
図5】本開示の第1実施形態による操作システムの処理フローの一例を示す図である。
【
図6】本開示の第2実施形態による操作システムの構成の一例を示す図である。
【
図7】本開示の第2実施形態による情報処理装置の構成の一例を示す図である。
【
図8】本開示の第2実施形態による記憶部が記憶するテーブルの一例を示す図である。
【
図9】本開示の第2実施形態による操作システムの処理フローの一例を示す図である。
【
図10】本開示の実施形態による操作システムの最小構成を示す図である。
【
図11】本開示の実施形態による最小構成の操作システムの処理フローの一例を示す図である。
【
図12】少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
【発明を実施するための形態】
【0011】
<第1実施形態>
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、本開示の第1実施形態による操作システム1の構成の一例を示す図である。操作システム1は、
図1に示すように、第1システム10および第2システム20を備える。操作システム1は、第1システム10を介して第2システム20の後述するロボット201を操作する操作者の頭部の位置および操作者の顔の向きに応じて第2システム20において撮影した映像を第1システム10に送信する後述する複数のカメラ202の中から1つが選択されるシステムである。また、操作システム1は、第1システム10に対して行われる操作に応じて、第2システム20におけるロボット201が動作するシステムである。なお、カメラが撮影する映像を見ながら操作装置101を介してロボット201を操作するために、操作者が操作者の頭部の位置および操作者の顔の向きを変更することを含む身体を動かす動作は、ジェスチャーの一例である。
【0012】
第1システム10は、
図1に示すように、操作装置101、ヘッドマウンテッドディスプレイ102(表示装置の一例)、センサ103、および情報処理装置104を備える。第1システム10は、操作者の頭部の位置および操作者の顔の向きに応じて第2システム20において撮影した映像を第1システム10に送信する1つのカメラを選択する。また、第1システム10は、操作者による操作に応じて第2システム20におけるロボットを操作する。
【0013】
操作装置101は、操作者により操作に応じてロボット201を制御する制御信号を生成する。操作装置101は、生成した制御信号を第2システム20に送信する。
【0014】
ヘッドマウンテッドディスプレイ102は、第2システム20から送信されるカメラ202が撮影している映像の映像信号を復号化して映像を映す。操作者は、このヘッドマウンテッドディスプレイを身に着けて、複数のカメラ202のうちの1つが撮影している映像を見ながら操作装置101に対してロボット201を操作するための操作を行う。
【0015】
センサ103は、操作者の頭部の位置および操作者の顔の向きの両方を検出する。センサの例としては、ジャイロセンサ、加速度センサ、モーションセンサ、トラッカーなどが挙げられる。ジャイロセンサは、回転を検出できるセンサであり、操作者の顔の向きを検出することができる。センサがジャイロセンサである場合、センサ103は、操作者の頭部の位置を検出することができる別のセンサを含む。加速度センサは、前後、左右、上下のそれぞれの方向の加速度を検出できるセンサであり、操作者の頭部の位置および操作者の顔の向きの両方を検出することができる。モーションセンサは、操作者を撮影し、撮影した映像を解析することにより、操作者の頭部の位置および操作者の顔の向きの両方を検出することができる。トラッカーは、トラッキング用のセンサを身に着けた操作者に赤外線やレーザーなどの光を照射し、センサが光を受光することにより、操作者の頭部の位置および操作者の顔の向きの両方を検出することができる。センサ103は、操作者の頭部の位置および操作者の顔の向きの両方を検出することができれば、センサをいくつ備えるものであってもよい。また、センサ103の一部または全部は、ヘッドマウンテッドディスプレイ102に設けられるものであってもよい。
【0016】
情報処理装置104は、センサ103が検出した操作者の頭部の位置および操作者の顔の向きに応じて、操作者の頭部の位置と操作者の顔の向きとの組み合わせを特定する。
図2は、本開示の第1実施形態による情報処理装置104の構成の一例を示す図である。情報処理装置104は、
図2に示すように、記憶部1041、および処理部1042(第1特定手段の一例、第2特定手段の一例)を備える。
【0017】
記憶部1041は、操作者の頭部の位置および操作者の顔の向きを特定するためのしきい値を記憶する。
図3は、本開示の第1実施形態におけるしきい値の一例を示す図である。
図3の(a)の部分は、操作者の頭部の位置を特定するための第1しきい値、第2しきい値、第3しきい値、および第4しきい値を示している。第1しきい値および第2しきい値は、
図3の(a)の部分に示すように、左右方向の操作者の頭部の位置を特定するためのしきい値である。また、第3しきい値および第4しきい値は、
図3の(a)の部分に示すように、奥行き方向の操作者の頭部の位置を特定するためのしきい値である。操作者の頭部の位置は、左右方向について、第1しきい値を含む第1しきい値よりも左側の領域、第2しきい値を含む第2しきい値よりも左側であり、第1しきい値よりも右側の領域、第2しきい値よりも右側の領域の3つに分類される。また、操作者の頭部の位置は、奥行き方向について、第3しきい値を含む第3しきい値よりも奥の領域、第4しきい値を含む第4しきい値よりも奥であり、第3しきい値よりも手前の領域、第4しきい値よりも手前の領域の3つに分類される。その結果、操作者の頭部の位置は、第1しきい値、第2しきい値、第3しきい値、および第4しきい値により、
図3の(a)の部分に示すように、左奥、奥、右奥、左中央、中央、右中央、左手前、手前、右手前の9つの領域に分類される。この分類は、後述するように、処理部1042により行われる。なお、左奥、奥、右奥、左中央、中央、右中央、左手前、手前、右手前の9つの領域の基準は、例えば中央の領域の中心である。
【0018】
図3の(b)の部分は、操作者の顔の向きを特定するための第5しきい値、第6しきい値、第7しきい値、および第8しきい値を示している。第5しきい値および第6しきい値は、
図3の(b)の部分に示すように、左右方向の操作者の顔の向きを特定するためのしきい値である。また、第7しきい値および第8しきい値は、
図3の(b)の部分に示すように、上下方向の操作者の顔の向きを特定するためのしきい値である。操作者の顔の向きは、左右方向について、第5しきい値を含む第5しきい値よりも左側の領域、第6しきい値を含む第6しきい値よりも左側であり、第5しきい値よりも右側の領域、第6しきい値よりも右側の領域の3つに分類される。また、操作者の顔の向きは、上下方向について、第7しきい値を含む第7しきい値よりも上の領域、第8しきい値を含む第8しきい値よりも上であり、第7しきい値よりも下の領域、第8しきい値よりも下の領域の3つに分類される。その結果、操作者の顔の向きは、第5しきい値、第6しきい値、第7しきい値、および第8しきい値により、
図3の(b)の部分に示すように、左上、上、右上、左中、中、右中、左下、下、右下の9つの領域に分類される。この分類は、後述するように、処理部1042により行われる。なお、左上、上、右上、左中、中、右中、左下、下、右下の9つの領域の基準は、例えば中の領域の中心である。
【0019】
また、記憶部1041は、撮影した映像を第1システム10に送信するカメラ202を選択するためのテーブルTBL1を記憶する。
図4は、本開示の第1実施形態による記憶部1041が記憶するテーブルTBL1の一例を示す図である。テーブルTBL1は、
図4に示すように、操作者の頭部の位置と操作者の顔の向きとの組み合わせと、それぞれの組み合わせの場合に撮影した映像を第1システム10に送信するカメラを選択する選択信号とを関連付けて記憶している。選択信号は、撮影した映像を第1システム10に送信するカメラと後述する第2システム20のエンコーダ204とが接続されるように後述する第2システム20のスイッチ203を切り替える信号である。選択信号は、カメラを選択するための信号であるため、選択信号を特定することは、カメラを特定したことと等価である。
【0020】
処理部1042は、センサ103による操作者の頭部の位置の検出結果に基づいて、操作者の頭部の位置が左奥、奥、右奥、左中央、中央、右中央、左手前、手前、右手前の何れであるかを特定する。また、処理部1042は、センサ103による操作者の顔の向きの検出結果に基づいて、操作者の顔の向きが左上、上、右上、左中、中、右中、左下、下、右下の何れであるかを特定する。処理部1042は、特定した操作者の頭部の位置と、特定した操作者の顔の向きとの組み合わせを特定する。処理部1042は、特定した組み合わせに一致する組み合わせを、テーブルTBL1において特定する。処理部1042は、テーブルTBL1において、特定した組み合わせに関連付けられている選択信号を特定する。そして、処理部1042は、特定した選択信号を第2システム20に送信する。
【0021】
第2システム20は、
図1に示すように、ロボット201、カメラ202a1、202a2、202a3、202a4、202a5、202a6、202a7、202a8、202a9、202a10、202a11、202a12、202a13、スイッチ203、およびエンコーダ204を備える。カメラ202a1、202a2、202a3、202a4、202a5、202a6、202a7、202a8、202a9、202a10、202a11、202a12、202a13を総称してカメラ202という。
【0022】
ロボット201は、第1システム10から受ける制御信号に応じて動作する。カメラ202のそれぞれは、それぞれに定められた領域の映像を撮影する。
【0023】
スイッチ203は、第1システム10から受ける選択信号に応じて、撮影した映像を第1システム10に送信するカメラとエンコーダ204とが接続されるように内部の接続が切り替わる。エンコーダ204は、スイッチ203を介して受けるカメラが撮影した映像を符号化する。エンコーダ204は、符号化後の映像信号を第1システム10に送信する。
【0024】
次に、本開示の第1実施形態による操作システム1の処理について説明する。ここでは、
図5に示す本開示の第1実施形態による操作システム1の処理フローについて説明する。
【0025】
カメラが撮影する映像を見ながら操作装置101を介してロボット201を操作するために、操作者は操作者の頭部の位置および操作者の顔の向きを変える身体を動かす動作を行う。センサ103は、操作者が身体を動かすことにより変化する操作者の頭部の位置および操作者の顔の向きを検出する(ステップS1)。
【0026】
処理部1042は、センサ103が検出した操作者の頭部の位置が左奥、奥、右奥、左中央、中央、右中央、左手前、手前、右手前の何れであるかを特定する(ステップS2)。
【0027】
例えば、処理部1042は、センサ103が検出した操作者の頭部の位置の左右方向の位置と第1しきい値とを比較する。そして、操作者の頭部の位置が第1しきい値を含めて第1しきい値の左側に位置する場合、処理部1042は、センサ103が検出した操作者の頭部の位置の奥行き方向の位置と第3しきい値とを比較する。操作者の頭部の位置が第3しきい値を含めて第3しきい値の奥に位置する場合、処理部1042は、操作者の頭部の位置を左奥と特定する。また、操作者の頭部の位置が第3しきい値よりも手前に位置する場合、処理部1042は、センサ103が検出した操作者の頭部の位置の奥行き方向の位置と第4しきい値とを比較する。操作者の頭部の位置が第4しきい値を含めて第4しきい値の奥に位置する場合、処理部1042は、操作者の頭部の位置を左中央と特定する。また、操作者の頭部の位置が第4しきい値よりも手前に位置する場合、処理部1042は、操作者の頭部の位置を左手前と特定する。
【0028】
また、操作者の頭部の位置が第1しきい値よりも右側に位置する場合、処理部1042は、センサ103が検出した操作者の頭部の位置の左右方向の位置と第2しきい値とを比較する。そして、操作者の頭部の位置が第2しきい値を含めて第2しきい値の左側に位置する場合、処理部1042は、センサ103が検出した操作者の頭部の位置の奥行き方向の位置と第3しきい値とを比較する。操作者の頭部の位置が第3しきい値を含めて第3しきい値の奥に位置する場合、処理部1042は、操作者の頭部の位置を奥と特定する。また、操作者の頭部の位置が第3しきい値よりも手前に位置する場合、処理部1042は、センサ103が検出した操作者の頭部の位置の奥行き方向の位置と第4しきい値とを比較する。操作者の頭部の位置が第4しきい値を含めて第4しきい値の奥に位置する場合、処理部1042は、操作者の頭部の位置を中央と特定する。また、操作者の頭部の位置が第4しきい値よりも手前に位置する場合、処理部1042は、操作者の頭部の位置を手前と特定する。
【0029】
また、操作者の頭部の位置が第2しきい値よりも右側に位置する場合、処理部1042は、センサ103が検出した操作者の頭部の位置の奥行き方向の位置と第3しきい値とを比較する。操作者の頭部の位置が第3しきい値を含めて第3しきい値の奥に位置する場合、処理部1042は、操作者の頭部の位置を右奥と特定する。また、操作者の頭部の位置が第3しきい値よりも手前に位置する場合、処理部1042は、センサ103が検出した操作者の頭部の位置の奥行き方向の位置と第4しきい値とを比較する。操作者の頭部の位置が第4しきい値を含めて第4しきい値の奥に位置する場合、処理部1042は、操作者の頭部の位置を右中央と特定する。また、操作者の頭部の位置が第4しきい値よりも手前に位置する場合、処理部1042は、操作者の頭部の位置を右手前と特定する。
【0030】
また、処理部1042は、センサ103が検出した操作者の顔の向きが左上、上、右上、左中、中、右中、左下、下、右下の何れであるかを特定する(ステップS3)。
【0031】
例えば、処理部1042は、センサ103が検出した操作者の顔の向きの左右方向の向きと第5しきい値とを比較する。そして、操作者の顔の向きが第5しきい値を含めて第5しきい値の左側に位置する場合、処理部1042は、センサ103が検出した操作者の顔の向きの上方向の向きと第7しきい値とを比較する。操作者の顔の向きが第7しきい値を含めて第7しきい値の上に位置する場合、処理部1042は、操作者の顔の向きを左上と特定する。また、操作者の顔の向きが第7しきい値よりも下に位置する場合、処理部1042は、センサ103が検出した操作者の顔の向きの上方向の向きと第4しきい値とを比較する。操作者の顔の向きが第4しきい値を含めて第4しきい値の上に位置する場合、処理部1042は、操作者の顔の向きを左中と特定する。また、操作者の顔の向きが第4しきい値よりも下に位置する場合、処理部1042は、操作者の顔の向きを左下と特定する。
【0032】
また、操作者の顔の向きが第1しきい値よりも右側に位置する場合、処理部1042は、センサ103が検出した操作者の顔の向きの左右方向の向きと第6しきい値とを比較する。そして、操作者の顔の向きが第6しきい値を含めて第6しきい値の左側に位置する場合、処理部1042は、センサ103が検出した操作者の顔の向きの上方向の位置と第7しきい値とを比較する。操作者の顔の向きが第7しきい値を含めて第7しきい値の上に位置する場合、処理部1042は、操作者の顔の向きを上と特定する。また、操作者の顔の向きが第7しきい値よりも下に位置する場合、処理部1042は、センサ103が検出した操作者の顔の向きの上方向の位置と第8しきい値とを比較する。操作者の顔の向きが第8しきい値を含めて第8しきい値の上に位置する場合、処理部1042は、操作者の顔の向きを中と特定する。また、操作者の顔の向きが第8しきい値よりも下に位置する場合、処理部1042は、操作者の顔の向きを下と特定する。
【0033】
また、操作者の顔の向きが第6しきい値よりも右側に位置する場合、処理部1042は、センサ103が検出した操作者の顔の向きの上方向の向きと第7しきい値とを比較する。操作者の顔の向きが第7しきい値を含めて第7しきい値の上に位置する場合、処理部1042は、操作者の顔の向きを右上と特定する。また、操作者の顔の向きが第7しきい値よりも下に位置する場合、処理部1042は、センサ103が検出した操作者の顔の向きの上方向の向きと第4しきい値とを比較する。操作者の顔の向きが第8しきい値を含めて第8しきい値の上に位置する場合、処理部1042は、操作者の顔の向きを右中と特定する。また、操作者の顔の向きが第8しきい値よりも下に位置する場合、処理部1042は、操作者の顔の向きを右下と特定する。
【0034】
処理部1042は、特定した操作者の頭部の位置と、特定した操作者の顔の向きとの組み合わせを特定する(ステップS4)。処理部1042は、特定した組み合わせに一致する組み合わせを、テーブルTBL1において特定する(ステップS5)。処理部1042は、テーブルTBL1において、特定した組み合わせに関連付けられている選択信号を特定する(ステップS6)。そして、処理部1042は、特定した選択信号を第2システム20に送信する。
【0035】
スイッチ203は、第1システム10から受ける選択信号に応じて、撮影した映像を第1システム10に送信するカメラとエンコーダ204とが接続されるように内部の接続が切り替わる(ステップS7)。エンコーダ204は、スイッチ203を介して受けるカメラが撮影した映像を符号化する(ステップS8)。エンコーダ204は、符号化後の映像信号を第1システム10に送信する。
【0036】
ヘッドマウンテッドディスプレイ102は、第2システム20から送信されるカメラ202が撮影している映像の映像信号を復号化して映像を映す(ステップS9)。操作者は、このヘッドマウンテッドディスプレイを身に着けて、複数のカメラ202のうちの1つが撮影している映像を見ながら操作装置101に対してロボット201を操作するための操作を行う。
【0037】
操作装置101は、操作者により操作に応じてロボット201を制御する制御信号を生成する(ステップS10)。操作装置101は、生成した制御信号を第2システム20に送信する。ロボット201は、第1システム10から受ける制御信号に応じて動作する(ステップS11)。
【0038】
以上、本開示の第1実施形態による操作システム1について説明した。操作システム1において、処理部1042(第1特定手段の一例、第2特定手段の一例)は、操作者が操作者の頭部の位置および操作者の顔の向きを変更することを含む操作者によるジェスチャーを特定する。また、処理部1042は、前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定する。こうすることにより、操作者がロボットを操作する際に見る必要のある映像のデータ量を低減することができる。その結果、操作者が操作対象のロボットの周囲にいない場合、カメラから表示装置へ送信されるロボットの周囲の状況を含む映像のデータ量を低減することができる。
【0039】
<第1実施形態の第1変形例>
第1実施形態の第1変形例による操作システム1は、複数のセンサ103による操作者の頭部の位置の複数の検出結果に基づいて操作者の頭部の位置を特定する、または、複数のセンサ103による操作者の顔の向きの複数の検出結果に基づいて操作者の顔の向きを特定するシステムである。第1実施形態では明確に示していないが、複数のセンサ103による操作者の頭部の位置の複数の検出結果に基づいて操作者の頭部の位置を特定する場合、または、複数のセンサ103による操作者の顔の向きの複数の検出結果に基づいて操作者の顔の向きを特定する場合、センサ103ごとに異なる検出結果を示す可能性がある。そのため、第1実施形態の第1変形例による操作システム1において、処理部1042は、ステップS2およびステップS3において、複数のセンサ103が示す検出結果の多数決、または、複数のセンサ103が示す検出結果の論理積(AND)を演算する。そして、処理部1042は、演算結果を操作者の頭部の位置または操作者の顔の向きとするものであってもよい。この第1実施形態の第1変形例による操作システム1により、1つのセンサ103により操作者の頭部の位置や操作者の顔の向きを特定する場合に比べて、より精度よく操作者の頭部の位置や操作者の顔の向きを特定することができる。
【0040】
<第1実施形態の第2変形例>
第1実施形態の第2変形例による操作システム1は、操作者が所定の操作を行うことにより、複数のカメラ202の中から特定したカメラの変更を禁止するシステムである。第1実施形態による操作システム1や第1実施形態の第2変形例による操作システム1では、操作者がロボット201を操作している最中に、操作者の頭部の位置や操作者の顔の向きが変化した場合、操作者の頭部の位置や操作者の顔の向きに応じてカメラが切り替わり、映像が切り替わる可能性がある。その結果、操作者によるロボット201の操作が困難になる可能性がある。このような場合、特定したカメラを固定して、操作者がロボット201を操作できることが望まれる。それを可能にするために、第1実施形態の第2変形例による操作システム1では、センサ103が操作者による所定の操作を検出した場合に、処理部1042(変更禁止手段の一例)は、特定したカメラの変更を禁止する。操作者による所定の操作の例としては、高速に顔を振る操作、所定回数まばたきする操作、口の形状を所定の形状にする操作、テーブルTBL1における該当する選択信号がそんざいしない検出内容を示す操作、手、足、身体が所定の動きとなるように動かす操作、所定のボタンを押下する操作などが挙げられる。この第1実施形態の第2変形例による操作システム1により、第1実施形態による操作システム1や第1実施形態の第2変形例による操作システム1に比べて、ロボット201の操作中にカメラが切り替わる可能性が低くなる。その結果、第1実施形態の第2変形例による操作システム1では、第1実施形態による操作システム1や第1実施形態の第2変形例による操作システム1に比べて、操作者は、ロボット201をより操作し易くなる。
【0041】
<第2実施形態>
本開示の第2実施形態による操作システム1は、本開示の第1実施形態による操作システム1における操作者が操作者の頭部の位置および操作者の顔の向きを変えるジャスチャーの代わりに、ヘッドマウンテッドディスプレイ102を介して、複数のカメラ202の中から1つを特定するジェスチャーを用いてカメラ特定する。
図6は、本開示の第2実施形態による操作システム1の構成の一例を示す図である。
【0042】
操作システム1は、
図6に示すように、第1システム10および第2システム20を備える。第1システム10は、第1実施形態によるセンサ103の代わりに、センサ105を備える。第1システム10は、第1実施形態による情報処理装置104の代わりに、情報処理装置106を備える。ヘッドマウンテッドディスプレイ102は、第2システム20の後述するカメラ205が撮影するカメラ202を撮影した映像を映す。センサ105は、操作者の目線およびまばたきを検出する。
【0043】
図7は、本開示の第2実施形態による情報処理装置106の構成の一例を示す図である。情報処理装置106は、記憶部1061および処理部1062(第1特定手段の一例)を備える。記憶部1061は、カメラ202それぞれとともに、それぞれのカメラと第2システム20のエンコーダ204とが接続されるように第2システム20のスイッチ203を切り替える信号である選択信号を関連付けて記憶する。
図8は、本開示の第2実施形態による記憶部が記憶するテーブルTBL2の一例を示す図である。テーブルTBL2は、記憶部1061が記憶する、カメラ202それぞれとともに、それぞれのカメラと第2システム20のエンコーダ204とが接続されるように第2システム20のスイッチ203を切り替える信号である選択信号を関連付けたテーブルである。
【0044】
また、処理部1062は、ヘッドマウンテッドディスプレイ102を介してカメラ202自体を映す映像を見て、複数のカメラ202の中から1つに目線を合わせ、例えば操作者が2度まばたきすることなどを含む所定のジェスチャーを行う操作者による操作に応じて、1つのカメラと特定する。
【0045】
次に、本開示の第2実施形態による操作システム1の処理について説明する。ここでは、
図9に示す本開示の第2実施形態による操作システム1の処理フローについて説明する。
【0046】
ヘッドマウンテッドディスプレイ102に映しだされるカメラ205が撮影するカメラ202自体を見ながら、操作者は、複数のカメラ202のうち特定する1つのカメラに目線を合わせ、カメラを特定する所定のジェスチャーを行う。処理部1062は、操作者によるこのような操作に応じて、1つのカメラと特定する(ステップS21)。処理部1062は、テーブルTBL2において、特定したカメラに一致するカメラを特定する(ステップS22)。そして、処理部1062は、テーブルTBL2において、特定したカメラに関連付けられている選択信号を特定する(ステップS23)。処理部1062は、特定した選択信号を第2システム20に送信する。そして、ステップS7~ステップS11の処理が行われる。
【0047】
以上、本開示の第2実施形態による操作システム1について説明した。本開示の第2実施形態による操作システム1において、処理部1062は、操作者による操作に応じて、1つのカメラと特定する。処理部1062は、テーブルTBL2において、特定したカメラに一致するカメラを特定する。そして、処理部1062は、テーブルTBL2において、特定したカメラに関連付けられている選択信号を特定する。処理部1062は、特定した選択信号を第2システム20に送信する。こうすることにより、操作者が直接的にカメラを選択することができる。その結果、第2実施形態による操作システム1は、第1実施形態の操作システム1に比べてより確実にカメラを特定することができる。
【0048】
図10は、本開示の実施形態による操作システム1の最小構成を示す図である。操作システム1は、
図10に示すように、第1特定手段300および第2特定手段400を備える。第1特定手段300は、操作者によるジェスチャーを特定する。第2特定手段400は、前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定する。
【0049】
図11は、本開示の実施形態による最小構成の操作システム1の処理フローの一例を示す図である。次に、本開示の実施形態による最小構成の操作システム1の処理について
図11を参照して説明する。
【0050】
第1特定手段300は、操作者によるジェスチャーを特定する(ステップS101)。第2特定手段400は、前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定する(ステップS102)。
【0051】
以上、本開示の実施形態による最小構成の操作システム1について説明した。この操作システム1により、操作者が操作対象のロボットの周囲にいない場合、カメラから表示装置へ送信されるロボットの周囲の状況を含む映像のデータ量を低減することができる。
【0052】
なお、本開示の実施形態における処理は、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。
【0053】
本開示の実施形態について説明したが、上述の操作システム1、第1システム10、第2システム20、操作装置101、ヘッドマウンテッドディスプレイ102、情報処理装置104、106、エンコーダ204、その他の制御装置は内部に、コンピュータシステムを有していてもよい。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。コンピュータの具体例を以下に示す。
図12は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
【0054】
コンピュータ5は、
図12に示すように、CPU(Central Processing Unit)6、メインメモリ7、ストレージ8、インターフェース9を備える。例えば、上述の操作システム1、第1システム10、第2システム20、操作装置101、ヘッドマウンテッドディスプレイ102、情報処理装置104、106、エンコーダ204、その他の制御装置のそれぞれは、コンピュータ5に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ8に記憶されている。CPU6は、プログラムをストレージ8から読み出してメインメモリ7に展開し、当該プログラムに従って上記処理を実行する。また、CPU6は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ7に確保する。
【0055】
ストレージ8の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ8は、コンピュータ5のバスに直接接続された内部メディアであってもよいし、インターフェース9または通信回線を介してコンピュータ5に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ5に配信される場合、配信を受けたコンピュータ5が当該プログラムをメインメモリ7に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ8は、一時的でない有形の記憶媒体である。
【0056】
また、上記プログラムは、前述した機能の一部を実現してもよい。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるファイル、いわゆる差分ファイル(差分プログラム)であってもよい。
【0057】
本開示のいくつかの実施形態を説明したが、これらの実施形態は、例であり、開示の範囲を限定しない。これらの実施形態は、開示の要旨を逸脱しない範囲で、種々の追加、省略、置き換え、変更を行ってよい。
【0058】
なお、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
【0059】
(付記1)
操作者によるジェスチャーを特定する第1特定手段と、
前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定する第2特定手段と、
を備える操作システム。
【0060】
(付記2)
前記ジェスチャーは、
前記操作者の頭の位置および前記操作者の顔の向きの変更を含む前記操作者の行動である、
付記1に記載の操作システム。
【0061】
(付記3)
前記ジェスチャーは、
前記操作者が映像におけるカメラに目線を合わせ、まばたきすることを含む前記操作者の行動である、
付記1に記載の操作システム。
【0062】
(付記4)
前記操作者が所定の操作を行うことにより前記第2特定手段が特定した前記カメラの変更を禁止する変更禁止手段、
を備える付記1または付記2に記載の操作システム。
【0063】
(付記5)
操作者によるジェスチャーを特定することと、
前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定することと、
を含む処理方法。
【0064】
(付記6)
コンピュータに、
操作者によるジェスチャーを特定することと、
前記ジェスチャーに基づいて撮影した映像を送信するカメラを特定することと、
を実行させるプログラム。
【符号の説明】
【0065】
1・・・操作システム
5・・・コンピュータ
6・・・CPU
7・・・メインメモリ
8・・・ストレージ
9・・・インターフェース
10・・・第1システム
20・・・第2システム
101・・・操作装置
102・・・ヘッドマウンテッドディスプレイ
103、105・・・センサ
104、106・・・情報処理装置
201・・・ロボット
202、202a1~202a13・・・カメラ
203・・・スイッチ
204・・・エンコーダ