IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

<>
  • 特開-処理装置、処理方法、及びプログラム 図1
  • 特開-処理装置、処理方法、及びプログラム 図2
  • 特開-処理装置、処理方法、及びプログラム 図3
  • 特開-処理装置、処理方法、及びプログラム 図4
  • 特開-処理装置、処理方法、及びプログラム 図5
  • 特開-処理装置、処理方法、及びプログラム 図6
  • 特開-処理装置、処理方法、及びプログラム 図7
  • 特開-処理装置、処理方法、及びプログラム 図8
  • 特開-処理装置、処理方法、及びプログラム 図9
  • 特開-処理装置、処理方法、及びプログラム 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024073746
(43)【公開日】2024-05-30
(54)【発明の名称】処理装置、処理方法、及びプログラム
(51)【国際特許分類】
   G06Q 50/26 20240101AFI20240523BHJP
   G06Q 50/10 20120101ALI20240523BHJP
【FI】
G06Q50/26
G06Q50/10
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022184614
(22)【出願日】2022-11-18
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100110928
【弁理士】
【氏名又は名称】速水 進治
(72)【発明者】
【氏名】川上 和也
【テーマコード(参考)】
5L049
5L050
【Fターム(参考)】
5L049CC20
5L049CC35
5L050CC20
5L050CC35
(57)【要約】
【課題】事件や事故における当事者に関する各種推定の結果の妥当性を判断する。
【解決手段】本発明は、現場の状況を示す現場状況情報を取得する現場状況情報取得部11と、現場状況情報に基づき、現場で起きた出来事の当事者の特徴を推定する当事者推定部12と、推定された当事者の特徴と、対象人物の特徴との差分である特徴差分を算出する算出部13と、特徴差分を出力する出力部14とを有する処理装置10を提供する。
【選択図】図1
【特許請求の範囲】
【請求項1】
現場の状況を示す現場状況情報を取得する現場状況情報取得手段と、
前記現場状況情報に基づき、前記現場で起きた出来事の当事者の特徴を推定する当事者推定手段と、
推定された前記当事者の特徴と、対象人物の特徴との差分である特徴差分を算出する算出手段と、
前記特徴差分を出力する出力手段と、
を有する処理装置。
【請求項2】
前記対象人物の特徴は、前記現場で起きた出来事に関連して逮捕された人物の特徴、前記現場で起きた出来事の容疑者の特徴、前記現場で起きた出来事の参考人の特徴、及び前記現場で起きた出来事に関連して収集された目撃情報で示される人物の特徴の中の少なくとも1つを含む請求項1に記載の処理装置。
【請求項3】
前記当事者の特徴及び前記対象人物の特徴は、
人種、国籍、文化、宗教、年齢、性別、身長、体重、肺活量、体脂肪率、四肢の長さ、四肢の重さ、利き手、利き足、及び服装の中の少なくとも1つを含む請求項1又は2に記載の処理装置。
【請求項4】
前記現場状況情報は、
前記現場を撮影した画像、前記現場の状況を描写したイラスト、及び前記現場の状況を描写したテキストの中の少なくとも1つを含む請求項1又は2に記載の処理装置。
【請求項5】
前記当事者推定手段は、
各種特徴を有する人物が各種アクションを行った後の周辺の状況を示す学習データに基づき生成された推定モデルに基づき、前記当事者の特徴を推定する請求項1又は2に記載の処理装置。
【請求項6】
前記対象人物の特徴に基づき、前記対象人物が前記現場で起きた出来事の当事者であった場合の前記現場の状況を推定する現場状況推定手段をさらに有し、
前記算出手段は、推定された前記現場の状況と、前記現場状況情報で示される前記現場の状況との差分である状況差分を算出し、
前記出力手段は、前記状況差分を出力する請求項1又は2に記載の処理装置。
【請求項7】
前記現場状況推定手段は、
各種特徴を有する人物が各種アクションを行った後の周辺の状況を示す学習データに基づき生成された推定モデルに基づき、前記現場の状況を推定する請求項6に記載の処理装置。
【請求項8】
前記当事者推定手段は、
前記現場状況情報で示される現場の状況を引き起こすことができない人物の特徴を推定し、
前記出力手段は、
前記現場状況情報で示される現場の状況を引き起こすことができない人物の特徴を出力する請求項1又は2に記載の処理装置。
【請求項9】
1つ以上のコンピュータが、
現場の状況を示す現場状況情報を取得し、
前記現場状況情報に基づき、前記現場で起きた出来事の当事者の特徴を推定し、
推定された前記当事者の特徴と、対象人物の特徴との差分である特徴差分を算出し、
前記特徴差分を出力する、
処理方法。
【請求項10】
コンピュータを、
現場の状況を示す現場状況情報を取得する現場状況情報取得手段、
前記現場状況情報に基づき、前記現場で起きた出来事の当事者の特徴を推定する当事者推定手段、
推定された前記当事者の特徴と、対象人物の特徴との差分である特徴差分を算出する算出手段、
前記特徴差分を出力する出力手段、
として機能させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、処理装置、処理方法、及びプログラムに関する。
【背景技術】
【0002】
本発明に関連する技術が、特許文献1乃至3に開示されている。
【0003】
特許文献1には、顔画像以外の特徴情報(年齢、性別、体型、動作、衣服、所持物等)に基づき、特定対象の人物(不審人物等)を画像内で検出する技術が開示されている。
【0004】
特許文献2には、人物や物体の行動や特徴に基づき、不審者や不審物を画像内で検出する技術が開示されている。
【0005】
特許文献3には、物や物を扱う人物モデルの3次元画像を仮想空間に生成する技術が開示されている。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2018-142137号公報
【特許文献2】特開2022-086627号公報
【特許文献3】国際公開第2018/003148号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
事件や事故が起きた際に、当事者(犯人等)が不明である場合がある。このような場合、目撃情報や過去の類似ケース等から、その当事者に関する各種推定が行われる。例えば、過去の類似ケースの当事者の中から今回の事件や事故の当事者が絞り込まれる。また、例えば、目撃情報や過去の類似ケース等に基づき今回の事件や事故の当事者の特徴(性別、年齢層、体格等)が算出される。
【0008】
近年、上述した各種推定にコンピュータが利用され始めている。一方で、人間の直感や経験等に基づいて、上述した各種推定が行われる場合もある。
【0009】
ところで、上述した各種推定の結果が間違っていた場合、誤認逮捕や、いつまでたっても当事者が見つからない等の不都合が生じ得る。このため、上述した各種推定の結果の妥当性を判断する技術が望まれている。
【0010】
特許文献1及び2に開示の技術は、画像内から不審者を検出する技術である。また、特許文献3に開示の技術は、物や物を扱う人物モデルの3次元画像を仮想空間に生成する技術である。これらの技術において、上述した各種推定の結果の妥当性を判断することはできない。
【0011】
本発明の目的の一例は、上述した問題を鑑み、事件や事故における当事者に関する各種推定の結果の妥当性を判断するという課題を解決する処理装置、処理方法、及びプログラムを提供することにある。
【課題を解決するための手段】
【0012】
本発明の一態様によれば、
現場の状況を示す現場状況情報を取得する現場状況情報取得手段と、
前記現場状況情報に基づき、前記現場で起きた出来事の当事者の特徴を推定する当事者推定手段と、
推定された前記当事者の特徴と、対象人物の特徴との差分である特徴差分を算出する算出手段と、
前記特徴差分を出力する出力手段と、
を有する処理装置が提供される。
【0013】
本発明の一態様によれば、
1つ以上のコンピュータが、
現場の状況を示す現場状況情報を取得し、
前記現場状況情報に基づき、前記現場で起きた出来事の当事者の特徴を推定し、
推定された前記当事者の特徴と、対象人物の特徴との差分である特徴差分を算出し、
前記特徴差分を出力する、
処理方法が提供される。
【0014】
本発明の一態様によれば、
コンピュータを、
現場の状況を示す現場状況情報を取得する現場状況情報取得手段、
前記現場状況情報に基づき、前記現場で起きた出来事の当事者の特徴を推定する当事者推定手段、
推定された前記当事者の特徴と、対象人物の特徴との差分である特徴差分を算出する算出手段、
前記特徴差分を出力する出力手段、
として機能させるプログラムが提供される。
【発明の効果】
【0015】
本発明の一態様によれば、事件や事故における当事者に関する各種推定の結果の妥当性を判断するという課題を解決する処理装置、処理方法、及びプログラムが実現される。
【図面の簡単な説明】
【0016】
上述した目的、及びその他の目的、特徴及び利点は、以下に述べる公的な実施の形態、及びそれに付随する以下の図面によってさらに明らかになる。
【0017】
図1】処理装置の機能ブロック図の一例を示す図である。
図2】処理装置が行う処理の一例の概要を説明するための図である。
図3】処理装置のハードウエア構成の一例を示す図である。
図4】処理装置の機能ブロック図の他の一例を示す図である。
図5】処理装置が出力する画面の一例を示す図である。
図6】処理装置の処理の流れの一例を示すフローチャートである。
図7】処理装置が行う処理の一例の概要を説明するための図である。
図8】処理装置の機能ブロック図の一例を示す図である。
図9】処理装置が出力する画面の一例を示す図である。
図10】処理装置の処理の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0018】
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
【0019】
<第1の実施形態>
図1は、第1の実施形態に係る処理装置10の概要を示す機能ブロック図である。処理装置10は、現場状況情報取得部11と、当事者推定部12と、算出部13と、出力部14とを有する。
【0020】
現場状況情報取得部11は、現場の状況を示す現場状況情報を取得する。当事者推定部12は、現場状況情報に基づき、現場で起きた出来事の当事者の特徴を推定する。算出部13は、推定された当事者の特徴と、対象人物の特徴との差分である特徴差分を算出する。出力部14は、特徴差分を出力する。
【0021】
対象人物は、その現場で起きた出来事の当事者と考えられている人物である。当事者は、その現場で起きた出来事の犯人、容疑者、参考人、被害者、加害者、目撃者等である。対象人物は、目撃情報や過去の類似ケース等に基づき、任意の手法で、その現場で起きた出来事の当事者と判断された人物である。また、対象人物は、人に限らず、熊、犬、猪等の動物や、カラス等の鳥等の他の生き物であってもよい。
【0022】
このような本実施形態の処理装置10によれば、現場の状況に基づき算出した当事者の特徴と、その現場で起きた出来事の当事者と考えられている人物である対象人物の特徴との差分を算出し、出力することができる。出力された差分が、その対象人物をその現場で起きた出来事の当事者とする判断の妥当性を示す。差分が小さいほどその判断は妥当である。
【0023】
このような本実施形態の処理装置10によれば、事件や事故における当事者に関する各種推定の結果の妥当性を判断するという課題が解決される。
【0024】
<第2の実施形態>
「概要」
本実施形態の処理装置10は、第1の実施形態の処理装置10を具体化したものである。図2を用いて、処理装置10が実行する処理の概要を説明する。なお、各処理の詳細は後述する。
【0025】
まず、本実施形態では、人物の特徴と、各人物が各種アクションを行った後の周辺の状況とを紐付けた学習データに基づく学習により生成された第1の推定モデルが用意される。第1の推定モデルは、状況を示す情報を入力とし、そのような状況を引き起こす人物の特徴を出力とする。
【0026】
処理装置10は、「現場の状況を示す現場状況情報」を第1の推定モデルに入力する。そして、処理装置10は、第1の推定モデルから出力された「そのような現場の状況を引き起こす人物の特徴」を、予測される当事者の特徴として取得する。
【0027】
次いで、処理装置10は、取得した予測される当事者の特徴と、対象人物の特徴との差分(特徴差分)を算出し、出力する。対象人物は、上述の通り、その現場で起きた出来事の当事者と考えられている人物である。以下、このような処理装置10の構成を詳細に説明する。
【0028】
「ハードウエア構成」
次に、処理装置10のハードウエア構成の一例を説明する。処理装置10の各機能部は、ハードウエアとソフトウエアの任意の組合せによって実現される。その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。ソフトウエアは、予め装置を出荷する段階から格納されているプログラムや、CD(Compact Disc)等の記録媒体やインターネット上のサーバ等からダウンロードされたプログラム等を含む。
【0029】
図3は、処理装置10のハードウエア構成を例示するブロック図である。図2に示すように、処理装置10は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置10は周辺回路4Aを有さなくてもよい。なお、処理装置10は物理的及び/又は論理的に分かれた複数の装置で構成されてもよい。この場合、複数の装置各々が上記ハードウエア構成を備えることができる。
【0030】
バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)等の演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)等のメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイス等を含む。また、入出力インターフェイス3Aはインターネット等の通信ネットワークに接続するためのインターフェイスを含む。入力装置は、例えばキーボード、マウス、マイク、物理ボタン、タッチパネル等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
【0031】
「機能構成」
次に、本実施形態の処理装置10の機能構成を詳細に説明する。図4に、処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、現場状況情報取得部11と、当事者推定部12と、算出部13と、出力部14と、対象人物情報取得部15とを有する。
【0032】
現場状況情報取得部11は、現場の状況を示す現場状況情報を取得する。
【0033】
「現場」は、事件や事故が起きた現場である。例えば、当事者が不明となっている現場において、本実施形態の処理装置10が利用される。事件及び事故の種類は、例えば暴行、傷害、殺人、強盗、器物破損、交通事故、獣害、物体の落下等であるが、これらに限定されない。
【0034】
「現場状況情報」は、現場を撮影した画像(静止画像及び動画像の少なくとも一方を含む)、現場の状況を描写したイラスト、及び現場の状況を描写したテキストの中の少なくとも1つを含む。画像及びイラストは、3D(three dimensional)情報であってもよいし、2D(two dimensional)情報であってもよい。例えば警察官等が現場検証を行い、現場状況情報を生成する。
【0035】
現場状況情報は、現場の状況を示す。その状況を引き起こした人物の特徴に応じて内容が変化し得るあらゆる状況を、現場状況情報に含めることが好ましい。例えば、物が壊れている場合には、その破壊具合(例:破損している箇所の大きさ、破損している箇所の位置、破損の程度等)が示される。物は、電柱、看板、机、本棚、テーブル、テレビ等、現場に定在していたものであってもよい。その他、物は、カバン、棒、武器等、持ち運びされる物であってもよい。また、液体物や水しぶき、ガラス破片等が飛んでいる場合には、その位置や飛び散り具合(例:飛び散る距離、飛び散る方向等)が示される。なお、液体物や水しぶき、ガラス破片に限らず、血痕や血しぶきでもよい。また、壁や屋根などの建造物が壊れている場合には、その位置や大きさや破損の程度等が示される。また、事件や事故に巻き込まれた他の生き物が存在する場合、それらの様子が示されてもよい。他の生き物は、熊、犬、猪等の動物や、カラス等の鳥等が例示される。
【0036】
また、現場状況情報は、当該出来事が起きたタイミング(推定タイミング)の環境情報(例:天気、気温、湿度、時間帯、季節等)を含んでもよい。また、現場状況情報は、現場の位置情報(例:緯度経度情報、地域名、住所、信号機の前等)や、事件や事故が起きた日時情報や、目撃者の証言等を含んでもよい。また、現場状況情報は、現場にある物体(例:武器、家具、電気製品など)を示してもよい。
【0037】
本実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータ又は情報を取りに行くこと(能動的な取得)、及び、自装置に他の装置から出力されるデータ又は情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエスト又は問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(又は、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータ又は情報の中から選択して取得すること、又は、配信されたデータ又は情報を選択して受信することであってもよい。
【0038】
当事者推定部12は、現場状況情報取得部11が取得した現場状況情報に基づき、現場で起きた出来事の当事者の特徴を推定する。
【0039】
「現場で起きた出来事」は、上述した事件や事故である。
【0040】
「当事者」は、その出来事に関わっていた人物であり、例えばその出来事の犯人、容疑者、参考人、被害者、加害者、目撃者等である。
【0041】
「当事者の特徴」は、人種、国籍、文化、宗教、年齢、性別、身長、体重、肺活量、体脂肪率、四肢の長さ、四肢の重さ、利き手、利き足、及び服装(例:ズボン、スカート、タイトな服、ルーズな服等)の中の少なくとも1つを含む。
【0042】
当事者推定部12は、図2に示す第1の推定モデルを用いて、当事者の特徴を推定する。
【0043】
第1の推定モデルは、各種特徴を有する人物が各種アクションを行った後の周辺の状況を示す学習データに基づく学習で生成される。学習データは、図2に示すように、人物の特徴と、各人物が各種アクションを行った後の周辺の状況とを紐付けたデータである。
【0044】
第1の推定モデルは、状況を示す情報を入力とし、そのような状況を引き起こす人物の特徴を出力とする。当事者推定部12は、「現場の状況を示す現場状況情報」を第1の推定モデルに入力する。そして、当事者推定部12は、第1の推定モデルから出力された「そのような現場の状況を引き起こす人物の特徴」を、予測される当事者の特徴として取得する。
【0045】
学習データで示される人物の特徴は、人種、国籍、文化、宗教、年齢、性別、身長、体重、肺活量、体脂肪率、四肢の長さ、四肢の重さ、利き手、利き足、及び服装の中の少なくとも1つを含む。
【0046】
各種アクションは、各種事件や事故で当事者が行い得るアクションである。以下、このようなアクションの一例を示すが、これらに限定されない。
・対象物(例:人に見立てた物(人形など)や、その他の物)を素手で押す
・対象物を各種物(例:棒等)で押す
・対象物を素手でたたく
・対象物を各種物でたたく
・対象物を素手で殴る
・対象物を各種物で殴る
・対象物を蹴る
・対象物を投げ飛ばす
・対象物を各種刃物(刃渡り5cm、10cm等)で刺す
・対象物に向けて発砲する
・対象物に各種物を投げつける
【0047】
また、これらアクションは互いに異なる各種条件下で行われることが好ましい。このようにすることで、学習データのバリエーションが増える。各種条件は、例えば天気、気温、湿度、時間帯、季節等の環境条件で定義されてもよい。また、各種条件は、アクションを行う人物の状態で定義されてもよい。例えば疲労時(例:50m走った後、100m走った後、500m走った後、1分間のシャドーボクシングを行った後等)や、正常時等のように定義されてもよい。また、走って勢いをつけた状態、勢いをつけない状態等のように定義されてもよい。
【0048】
学習データの生成には、複数の人物が参加する。そして、各人物の上述した特徴が特定される。また、各人物が上述したアクションを行う。なお、各人物は各アクションを1回行ってもよいし、複数回行ってもよい。そして、各人物が各アクションを行った後の周辺の状況、具体的には対象物の状態や、その派生物(例:周辺の地面や壁や対象物についた液体物や水しぶき、ガラス破片、血痕や返り血等)を示す情報が収集される。当該情報は、周辺の状況を撮影した画像(静止画像及び動画像の少なくとも一方を含む)、周辺の状況を描写したイラスト、及び周辺の状況を描写したテキストの中の少なくとも1つを含む。画像及びイラストは、3D情報であってもよいし、2D情報であってもよい。
【0049】
対象人物情報取得部15は、対象人物の特徴を示す対象人物情報を取得する。ユーザが、対象人物情報を処理装置10に入力する。対象人物情報取得部15は、ユーザによって入力された対象人物情報を取得する。ユーザから入力を受付ける手段は特段制限されず、あらゆる技術を採用できる。
【0050】
「対象人物情報」は、現場で起きた出来事の当事者と考えられている人物の特徴を示す情報である。対象人物情報は、例えば、以下の人物の特徴の中の少なくとも1つを含むことができる。
・現場で起きた出来事に関連して逮捕された人物の特徴
・現場で起きた出来事の容疑者の特徴
・現場で起きた出来事の参考人の特徴
・現場で起きた出来事の被害者の特徴
・現場で起きた出来事の加害者の特徴
・現場で起きた出来事の目撃者の特徴
・現場で起きた出来事に関連して収集された目撃情報で示される人物の特徴
【0051】
「対象人物の特徴」は、人種、国籍、文化、宗教、年齢、性別、身長、体重、肺活量、体脂肪率、四肢の長さ、四肢の重さ、利き手、利き足、及び服装の中の少なくとも1つを含む。
【0052】
算出部13は、当事者推定部12により推定された当事者の特徴と、対象人物情報取得部15により取得された対象人物の特徴との差分である特徴差分を算出する。
【0053】
差分を算出する対象の特徴は、例えば、人種、国籍、文化、宗教、年齢、性別、身長、体重、肺活量、体脂肪率、四肢の長さ、四肢の重さ、利き手、利き足、及び服装の中の少なくとも1つを含む。
【0054】
算出部13は、これらの項目毎に、当事者推定部12により推定された当事者の特徴と、対象人物情報取得部15により取得された対象人物の特徴とが一致するか否かを判断する。そして、異なる項目を特徴差分として特定する。
【0055】
また、身長、体重、肺活量、体脂肪率、四肢の長さ、四肢の重さのように、特徴が数値で表される項目においては、算出部13は、当事者推定部12により推定された当事者の特徴の数値と、対象人物情報取得部15により取得された対象人物の特徴の数値との差を、特徴差分として算出してもよい。
【0056】
出力部14は、算出部13により算出された特徴差分を示す情報を生成し、任意の手段で当該情報を出力する。出力部14は、ディスプレイ、投影装置、プリンター等の各種出力装置を介して、特徴差分を示す情報を出力することができる。
【0057】
例えば、出力部14は、図5に示すような画面を生成し、出力してもよい。図5に示す画面では、当事者推定部12により推定された当事者の特徴(図中、「予測される当事者の特徴」)と、対象人物情報取得部15により取得された対象人物の特徴(図中、「対象人物の特徴」)とが並べて表示されている。また、各々の特徴を有する人物モデルがコンピュータグラフィックス等の技術を用いて生成され、並べて表示されている。人物モデルは3D画像であってもよいし、2D画像であってもよい。
【0058】
また、図5に示す画面では、算出部13により算出された特徴差分が表示されている。特徴差分は、互いに一致しない項目を示す。また、特徴差分は、互いに一致しない項目の数値の差を示す。図5では、身長や体重が互いに異なることが示されている。
【0059】
次に、図6のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
【0060】
処理装置10は、現場の状況を示す現場状況情報を取得すると(S10)と、現場状況情報に基づき、現場で起きた出来事の当事者の特徴を推定する(S11)。次いで、処理装置10は、対象人物の特徴を取得する(S12)。なお、S12の処理順は図示するものに限定されない。S12は、S10及びS11と並行して行われてもよいし、S10及びS11の前に行われてもよい。
【0061】
次いで、処理装置10は、S11で推定した当事者の特徴と、S12で取得した対象人物の特徴との差分である特徴差分を算出する(S13)。そして、処理装置10は、S13で算出した特徴差分を出力する(S14)。
【0062】
「作用効果」
本実施形態の処理装置10は、第1の実施形態の処理装置10と同様な作用効果が実現される。
【0063】
また、本実施形態の処理装置10は、現場状況情報から当事者の特徴を推定した後、推定した当事者の特徴と対象人物の特徴との差分である特徴差分を算出し、算出した特徴差分を出力することができる。
【0064】
ユーザは、その現場で起きた出来事の当事者と考えられている人物の特徴を対象人物の特徴として処理装置10に入力することで、それらの人物をその現場で起きた出来事の当事者とする判断の妥当性を把握することができる。出力された特徴差分が、その判断の妥当性を示す。特徴差分が小さいほどその判断は妥当である。
【0065】
警察などは、処理装置10の判断結果を客観的な証拠として、捜査等の業務を行うことができる。結果、主観に基づかない公平な捜査等が実現される。
【0066】
<第3の実施形態>
図7を用いて、処理装置10が実行する処理の概要を説明する。なお、各処理の詳細は後述する。
【0067】
まず、本実施形態では、人物の特徴と、各人物が各種アクションを行った後の周辺の状況とを紐付けた学習データに基づく学習により生成された第2の推定モデルが用意される。第2の推定モデルは、人物の特徴を入力とし、そのような人物が引き起こす現場の状況を出力とする。
【0068】
処理装置10は、「対象人物の特徴」を第2の推定モデルに入力する。対象人物は、上述の通り、その現場で起きた出来事の当事者と考えられている人物である。そして、処理装置10は、第2の推定モデルから出力された「そのような人物が引き起こす現場の状況」を取得する。
【0069】
次いで、処理装置10は、対象人物が引き起こす現場の状況の予測と、現場状況情報が示す現場の状況との差分(状況差分)を算出し、出力する。以下、このような処理装置10の構成を詳細に説明する。
【0070】
図8に、処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、現場状況情報取得部11と、当事者推定部12と、算出部13と、出力部14と、対象人物情報取得部15と、現場状況推定部16とを有する。
【0071】
現場状況推定部16は、対象人物情報取得部15が取得した対象人物情報で示される対象人物の特徴に基づき、対象人物が現場で起きた出来事の当事者であった場合の現場の状況を推定する。
【0072】
現場状況推定部16は、図7に示す第2の推定モデルを用いて、対象人物が現場で起きた出来事の当事者であった場合の現場の状況を推定する。
【0073】
第2の推定モデルは、各種特徴を有する人物が各種アクションを行った後の周辺の状況を示す学習データに基づく学習で生成される。学習データは、図2に示すように、人物の特徴と、各人物が各種アクションを行った後の周辺の状況とを紐付けたデータである。
【0074】
第2の推定モデルは、人物の特徴を入力として、そのような特徴を有する人物が引き起こす周辺の状況(現場の状況)を出力とする。現場状況推定部16は、「対象人物の特徴」を第2の推定モデルに入力する。そして、現場状況推定部16は、第2の推定モデルから出力された「そのような人物が引き起こす現場の状況」を取得する。
【0075】
第2の推定モデルから出力される内容は、対象物(例:人に見立てた物(人形など)や、その他の物)の状態(例:破損している箇所の大きさ、破損している箇所の位置、破損の程度等)や、その派生物(例:周辺の地面や壁や対象物についた液体物、水しぶき、ガラス破片、血痕、返り血等)の状態(例:飛び散る距離、飛び散る方向等)や、壁や屋根などの建造物の状態(例:破損位置や大きさ、破損の程度等)等を含む。
【0076】
学習データの内容や取得方法は、第2の実施形態で説明した第1の推定モデルの学習データの内容や取得方法と同様である。
【0077】
算出部13は、現場状況推定部16により推定された現場の状況と、現場状況情報取得部11が取得した現場状況情報で示される現場の状況との差分である状況差分を算出する。
【0078】
例えば、算出部13は、液体物、水しぶき、ガラス破片、血痕、返り血等の飛び散る距離の差を、状況差分として算出してもよい。これらの飛び散る距離は、例えば床に形成された液体物等の溜まりからの距離と定義されてもよいし、その他の手法で定義されてもよい。その他、算出部13は、対象物の破損位置の差や、破損箇所の大きさの差等を、状況差分として算出してもよい。
【0079】
出力部14は、算出部13により算出された状況差分を示す情報を生成し、任意の手段で当該情報を出力する。出力部14は、ディスプレイ、投影装置、プリンター等の各種出力装置を介して、状況差分を示す情報を出力することができる。
【0080】
例えば、出力部14は、図9に示すような画面を生成し、出力してもよい。図9に示す画面では、現場状況推定部16により推定された現場の状況(図中、「予測される現場の状況」)と、現場状況情報取得部11が取得した現場状況情報で示される現場の状況(図中、「現場状況情報で示される現場の状況」)とが並べて表示されている。各々の様子は、例えばコンピュータグラフィックス等の技術を用いて生成された現場のモデル画像である。現場のモデル画像は、3D画像であってもよいし、2D画像であってもよい。
【0081】
また、図9に示す画面では、算出部13により算出された状況差分が表示されている。状況差分は、互いに一致しない項目を示す。図9では、液体物の飛び散る距離が互いに異なることが示されている。
【0082】
図9の右側に示されている「現場状況情報で示される現場の状況」のモデル画像は、現場状況情報で示される現場の状況を再現することで生成される。「現場状況情報で示される現場の状況」のモデル画像は、現場状況情報に基づきコンピュータが自動生成してもよいし、オペレータの操作に基づき生成されてもよい。例えば、まず空間を生成した後、空間内に各種オブジェクト(例:液体物、武器、家具、植物等)を配置することで、モデル画像が生成される。空間の大きさや形状、各種オブジェクトの大きさ、形状、空間内の位置、向き等は、現場状況情報で示される。空間の生成には、過去の事件や事故で蓄積された空間のデータや、任意の手段で蓄積されたサンプルデータ等を利用してもよい。
【0083】
一方、図9の左側に示されている「予測される現場の状況」のモデル画像は、例えば、図9右側に示されている「現場状況情報で示される現場の状況」のモデル画像を修正することで生成されてもよい。状況差分として示される差分が修正対象となる。すなわち、「現場状況情報で示される現場の状況」のモデル画像における状況差分として示されるオブジェクトの内容(例:液体物の飛び散る距離)を、現場状況推定部16により推定された内容に変更することで、「予測される現場の状況」のモデル画像が生成されてもよい。
【0084】
次に、図10のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
【0085】
処理装置10は、現場の状況を示す現場状況情報を取得する(S20)。また、処理装置10は、対象人物の特徴を示す情報を取得する(S21)。なお、S21はS20と並行して行われてもよいし、S20の前に行われてもよい。
【0086】
次いで、処理装置10は、対象人物の特徴に基づき、対象人物が現場で起きた出来事の当事者であった場合の現場の状況を推定する(S22)。
【0087】
次いで、処理装置10は、S22で推定した現場の状況と、S20で取得した現場状況情報で示される現場の状況との差分である状況差分を算出する(S23)。そして、処理装置10は、S23で算出した状況差分を出力する(S24)。
【0088】
処理装置10のその他の構成は、第1及び第2の実施形態と同様である。すなわち、本実施形態の処理装置10は、図2に示す第1の推定モデルを用いた処理と、図7に示す第2の推定モデルを用いた処理の両方を実行するよう構成される。変形例として、本実施形態の処理装置10は、図7に示す第2の推定モデルを用いた処理のみを実行し、図2に示す第1の推定モデルを用いた処理を実行しないように構成されてもよい。
【0089】
本実施形態の処理装置10によれば、第1及び第2の実施形態と同様の作用効果が実現される。また、本実施形態の処理装置10によれば、現場で起きた出来事の当事者と考えられている対象人物が引き起こす現場の状況の予測と、現場状況情報が示す現場の状況との差分(状況差分)を算出し、出力することができる。
【0090】
ユーザは、現場で起きた出来事の当事者と考えられている対象人物の特徴を処理装置10に入力することで、対象人物を現場で起きた出来事の当事者とする判断の妥当性を把握することができる。出力された状況差分が、その判断の妥当性を示す。状況差分が小さいほどその判断は妥当である。
【0091】
警察などは、処理装置10の判断結果を客観的な証拠として、捜査等の業務を行うことができる。結果、主観に基づかない公平な捜査等が実現される。
【0092】
<変形例>
以下、第1乃至第3の実施形態に適用可能な変形例を説明する。当該変形例においても、第1乃至第3の実施形態と同様の作用効果が実現される。
【0093】
「変形例1」
処理装置10は、第2の実施形態で説明したように(図2参照)、「現場の状況を示す現場状況情報」を第1の推定モデルに入力し、第1の推定モデルから出力された「そのような現場の状況を引き起こす人物の特徴」を取得すると、取得した「そのような現場の状況を引き起こす人物の特徴」をユーザに向けて出力してもよい。この場合、例えば図5の「予測される当事者の特徴」の情報のみがユーザに向けて提示されることとなる。
【0094】
ユーザは、当該情報に基づき、犯人、容疑者、参考人、被害者、加害者、目撃者等を絞り込んだり、捜索したりすることができる。
【0095】
「変形例2」
処理装置10の当事者推定部12は、現場状況情報で示されるその現場の状況を引き起こすことができない人物の特徴を推定してもよい。そして、出力部14は、現場状況情報で示される現場の状況を引き起こすことができない人物の特徴をユーザに向けて提示(出力)してもよい。
【0096】
当該推定の手法は様々である。例えば、当事者推定部12は、第1の推定モデルが出力した「現場状況情報で示される現場の状況を引き起こす人物の特徴」に該当しない人物の特徴を、現場状況情報で示されるその現場の状況を引き起こすことができない人物の特徴と推定してもよい。
【0097】
また、当事者推定部12は、「現場状況情報で示される現場の状況を引き起こす人物の特徴」に該当しない人物の特徴を第3の実施形態で説明した第2の推定モデルに入力し、そのような特徴の人物が引き起こし得る現場の状況の予測を取得してもよい。そして、予測した現場の状況と、現場状況情報で示される現場の状況とが所定レベル以上異なる場合、そのような人物の特徴を、現場状況情報で示されるその現場の状況を引き起こすことができない人物の特徴と推定してもよい。
【0098】
上述した「所定レベル以上異なる」は、例えば「液体物等の飛び散る距離が閾値以上異なる」ことを意味してもよいし、「現場の状況を示す複数の項目の所定割合以上(又は所定数以上)が互いに異なる」ことを意味してもよいし、その他であってもよい。
【0099】
「変形例3」
処理装置10は、現場のシーンを再現した画像(静止画像又は動画像)を作成し、ユーザに向けて提示してもよい。例えば、処理装置10は、第3の実施形態で説明した手法で生成した「現場状況情報で示される現場の状況」のモデル画像(図9の右側参照)内に、第2の実施形態で説明した手法で生成した「予測される当事者の特徴」の人物モデルの画像(図5の左側参照)を配置することで、現場のシーンを再現してもよい。
【0100】
動画を生成する場合には、ユーザが、人物モデルに行わせるアクションを指定する入力を処理装置10に対して行う。そして、処理装置10は、モデル画像内に配置した人物モデルに、ユーザが指定したアクションを行わせた動画像を生成する。動画像内で人物モデルに行わせることができるアクションは、例えば押す、たたく、殴る、蹴る、投げ飛ばす、刃物で刺す、発砲する、物を投げつける等であるが、これらに限定されない。なお、これらのアクションは、様々な感情下で行われるバリエーションがあってもよい。例えば、激高した状態で押す、冷静な状態で押す等である。
【0101】
ユーザは、当該再現画像に基づき現場の状況を視覚的に把握することで、様々な気付きを得ることができる。
【0102】
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。上述した実施形態の構成は、互いに組み合わせたり、一部の構成を他の構成に入れ替えたりしてもよい。また、上述した実施形態の構成は、趣旨を逸脱しない範囲内において種々の変更を加えてもよい。また、上述した各実施形態や変形例に開示される構成や処理を互いに組み合わせてもよい。
【0103】
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施の形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施の形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施の形態は、内容が相反しない範囲で組み合わせることができる。
【0104】
上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 現場の状況を示す現場状況情報を取得する現場状況情報取得手段と、
前記現場状況情報に基づき、前記現場で起きた出来事の当事者の特徴を推定する当事者推定手段と、
推定された前記当事者の特徴と、対象人物の特徴との差分である特徴差分を算出する算出手段と、
前記特徴差分を出力する出力手段と、
を有する処理装置。
2. 前記対象人物の特徴は、前記現場で起きた出来事に関連して逮捕された人物の特徴、前記現場で起きた出来事の容疑者の特徴、前記現場で起きた出来事の参考人の特徴、及び前記現場で起きた出来事に関連して収集された目撃情報で示される人物の特徴の中の少なくとも1つを含む1に記載の処理装置。
3. 前記当事者の特徴及び前記対象人物の特徴は、
人種、国籍、文化、宗教、年齢、性別、身長、体重、肺活量、体脂肪率、四肢の長さ、四肢の重さ、利き手、利き足、及び服装の中の少なくとも1つを含む1又は2に記載の処理装置。
4. 前記現場状況情報は、
前記現場を撮影した画像、前記現場の状況を描写したイラスト、及び前記現場の状況を描写したテキストの中の少なくとも1つを含む1から3のいずれかに記載の処理装置。
5. 前記当事者推定手段は、
各種特徴を有する人物が各種アクションを行った後の周辺の状況を示す学習データに基づき生成された推定モデルに基づき、前記当事者の特徴を推定する1から4のいずれかに記載の処理装置。
6. 前記対象人物の特徴に基づき、前記対象人物が前記現場で起きた出来事の当事者であった場合の前記現場の状況を推定する現場状況推定手段をさらに有し、
前記算出手段は、推定された前記現場の状況と、前記現場状況情報で示される前記現場の状況との差分である状況差分を算出し、
前記出力手段は、前記状況差分を出力する1から5のいずれかに記載の処理装置。
7. 前記現場状況推定手段は、
各種特徴を有する人物が各種アクションを行った後の周辺の状況を示す学習データに基づき生成された推定モデルに基づき、前記現場の状況を推定する6に記載の処理装置。
8. 前記当事者推定手段は、
前記現場状況情報で示される現場の状況を引き起こすことができない人物の特徴を推定し、
前記出力手段は、
前記現場状況情報で示される現場の状況を引き起こすことができない人物の特徴を出力する1から7のいずれかに記載の処理装置。
9. 1つ以上のコンピュータが、
現場の状況を示す現場状況情報を取得し、
前記現場状況情報に基づき、前記現場で起きた出来事の当事者の特徴を推定し、
推定された前記当事者の特徴と、対象人物の特徴との差分である特徴差分を算出し、
前記特徴差分を出力する、
処理方法。
10. コンピュータを、
現場の状況を示す現場状況情報を取得する現場状況情報取得手段、
前記現場状況情報に基づき、前記現場で起きた出来事の当事者の特徴を推定する当事者推定手段、
推定された前記当事者の特徴と、対象人物の特徴との差分である特徴差分を算出する算出手段、
前記特徴差分を出力する出力手段、
として機能させるプログラム。
【符号の説明】
【0105】
10 処理装置
11 現場状況情報取得部
12 当事者推定部
13 算出部
14 出力部
15 対象人物情報取得部
16 現場状況推定部
1A プロセッサ
2A メモリ
3A 入出力I/F
4A 周辺回路
5A バス
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10