IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ トヨタ自動車株式会社の特許一覧

<>
  • 特許-画像処理システムおよび画像処理方法 図1
  • 特許-画像処理システムおよび画像処理方法 図2
  • 特許-画像処理システムおよび画像処理方法 図3
  • 特許-画像処理システムおよび画像処理方法 図4
  • 特許-画像処理システムおよび画像処理方法 図5
  • 特許-画像処理システムおよび画像処理方法 図6
  • 特許-画像処理システムおよび画像処理方法 図7
  • 特許-画像処理システムおよび画像処理方法 図8
  • 特許-画像処理システムおよび画像処理方法 図9
  • 特許-画像処理システムおよび画像処理方法 図10
  • 特許-画像処理システムおよび画像処理方法 図11
  • 特許-画像処理システムおよび画像処理方法 図12
  • 特許-画像処理システムおよび画像処理方法 図13
  • 特許-画像処理システムおよび画像処理方法 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-05
(45)【発行日】2024-08-14
(54)【発明の名称】画像処理システムおよび画像処理方法
(51)【国際特許分類】
   G08G 1/017 20060101AFI20240806BHJP
   G08G 1/04 20060101ALI20240806BHJP
   H04N 7/18 20060101ALI20240806BHJP
   G06T 7/00 20170101ALI20240806BHJP
【FI】
G08G1/017
G08G1/04 C
H04N7/18 U
G06T7/00 650B
【請求項の数】 8
(21)【出願番号】P 2021190909
(22)【出願日】2021-11-25
(65)【公開番号】P2023077586
(43)【公開日】2023-06-06
【審査請求日】2023-11-08
(73)【特許権者】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(74)【代理人】
【識別番号】110001195
【氏名又は名称】弁理士法人深見特許事務所
(72)【発明者】
【氏名】毛利 昌弘
(72)【発明者】
【氏名】藤田 貴大
【審査官】秋山 誠
(56)【参考文献】
【文献】特開2014-229103(JP,A)
【文献】特開2019-121319(JP,A)
【文献】特開2019-169190(JP,A)
【文献】特開2021-048449(JP,A)
【文献】特開2018-060296(JP,A)
【文献】特開2013-168886(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/017
G08G 1/04
H04N 7/18
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
カメラにより撮影された動画データを格納するメモリと、
前記メモリに格納された前記動画データに対して画像処理を行うプロセッサとを備え、
前記プロセッサは、
前記カメラにより撮影された車両のなかから予め登録された対象車両を選択し、
前記対象車両の時間変化に基づいて、前記対象車両の走行速度を算出し、
前記メモリに格納された前記動画データから、前記対象車両が前記カメラの撮影可能範囲に入ってから前記撮影可能範囲から出るまでのすべてのフレームと、前記対象車両が前記撮影可能範囲に入る前の所定数のフレームと、前記対象車両が前記撮影可能範囲から出た後の前記所定数のフレームとを含む複数のフレームを切り出し、
前記対象車両の走行速度が遅いほど、前記所定数は多く設定され、
前記プロセッサは、切り出された複数のフレームを用いて、前記対象車両を含む画像を生成する、画像処理システム。
【請求項2】
前記メモリは、リングバッファを含み、
前記リングバッファは、新たに撮影された前記動画データを所定容量分だけ格納可能な記憶領域を有し、前記所定容量を超えた分の古い前記動画データについては前記記憶領域から自動的に消されるように構成されている、請求項に記載の画像処理システム。
【請求項3】
前記プロセッサは、前記対象車両のナンバプレートのナンバーに基づいて、前記対象車両を選択する、請求項1または2に記載の画像処理システム。
【請求項4】
ナンバー認識モデルが格納された第1のメモリをさらに備え、
前記ナンバー認識モデルは、ナンバープレートのナンバーを含む動画を入力とし、かつ、前記動画における前記ナンバーを出力とする学習済みモデルであり、
前記プロセッサは、前記ナンバー認識モデルを用いて、前記動画データから前記ナンバーを認識する、請求項3に記載の画像処理システム。
【請求項5】
前記プロセッサは、前記対象車両に搭載された通信機器の識別情報に基づいて、前記対象車両を選択する、請求項1または2に記載の画像処理システム。
【請求項6】
車両抽出モデルが格納された第2のメモリをさらに備え、
前記車両抽出モデルは、車両を含む動画を入力とし、かつ、前記動画における前記車両を出力とする学習済みモデルであり、
前記プロセッサは、前記車両抽出モデルを用いて、前記動画データから前記対象車両を含む複数の車両を抽出する、請求項1または2に記載の画像処理システム。
【請求項7】
対象車両特定モデルが格納された第3のメモリをさらに備え、
前記対象車両特定モデルは、車両が抽出された動画を入力とし、かつ、前記動画における前記車両を出力とする学習済みモデルであり、
前記プロセッサは、前記対象車両特定モデルに基づいて、前記動画データから前記対象車両を特定する、請求項1または2~4のいずれか1項に記載の画像処理システム。
【請求項8】
コンピュータによる画像処理方法であって、
カメラにより車両が撮影された動画データをメモリに格納するステップと、
前記カメラにより撮影された車両のなかから予め登録された対象車両を選択するステップと、
前記対象車両の時間変化に基づいて、前記対象車両の走行速度を算出するステップと、
前記メモリに格納された前記動画データから、前記対象車両が前記カメラの撮影可能範囲に入ってから前記撮影可能範囲から出るまでのすべてのフレームと、前記対象車両が前記撮影可能範囲に入る前の所定数のフレームと、前記対象車両が前記撮影可能範囲から出た後の前記所定数のフレームとを含む複数のフレームを切り出すステップとを含み、
前記対象車両の走行速度が遅いほど、前記所定数は多く設定され、
前記画像処理方法は、切り出された複数のフレームを用いて、前記対象車両を含む画像を生成するステップをさらに含む、画像処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像処理システムおよび画像処理方法に関し、より特定的には、車両を撮影するための技術に関する。
【背景技術】
【0002】
運転が好きなユーザは、自身の走行中の車両の外観を撮影したいという欲求(ニーズ)を有し得る。ユーザは、撮影した画像を、たとえばソーシャル・ネットワーキング・サービス(以下、「SNS」と記載する)に投稿(アップロード)することで多くの人に見てもらうことができる。しかし、ユーザが自身による運転中に走行中の車両の外観を撮影することは困難である。そこで、走行中の車両の外観を撮影するサービスが提案されている。たとえば特開2021-48449号公報(特許文献1)は車両撮影システムを開示する。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2021-48449号公報
【文献】特開2019-121319号公報
【文献】特開2019-86372号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に開示された車両撮影システムは、車両を特定するための情報に基づいて車両を特定し、特定された車両を撮影し、撮影された車両の画像データを通信装置に送信する。つまり、特許文献1に開示された車両撮影システムでは、車両を撮影可能なタイミングが車両の特定後に限定されている。したがって、車両の特定前にユーザのニーズに合う写真映りがよい瞬間(期間であってもよい)があったとしても、特許文献1に開示の車両撮影システムでは、そのような瞬間の画像は撮影できない。
【0005】
本開示は上記課題を解決するためになされたものであり、本開示の目的は、ユーザのニーズに合う瞬間の画像の撮影を可能にすることである。
【課題を解決するための手段】
【0006】
(1)本開示のある局面に従う画像処理システムは、カメラにより撮影された動画データを格納するメモリと、メモリに格納された動画データに対して画像処理を行うプロセッサとを備える。プロセッサは、カメラにより撮影された車両のなかから予め登録された対象車両を選択する。プロセッサは、メモリに格納された動画データから、選択される前の対象車両を含む複数のフレームを切り出す。プロセッサは、切り出された複数のフレームを用いて、対象車両を含む画像を生成する。
【0007】
(2)プロセッサは、対象車両がカメラの撮影可能範囲に入ってから、対象車両が撮影可能範囲から出るまでのすべてのフレームを切り出す。
【0008】
(3)プロセッサは、すべてのフレームに加えて、対象車両が撮影可能範囲に入る前のフレームと、対象車両が撮影可能範囲から出た後のフレームとを切り出す。
【0009】
(4)メモリは、リングバッファを含む。リングバッファは、新たに撮影された動画データを所定容量分だけ格納可能な記憶領域を有し、所定容量を超えた分の古い動画データについては記憶領域から自動的に消されるように構成されている。
【0010】
上記(1)~(4)の構成においては、プロセッサは、対象車両が含むフレーム(対象車両が選択される前のフレームも含む)を切り出す。プロセッサは、好ましくは、対象車両が含まれている全フレームを切り出し、より好ましくは、当該全フレームの前後のフレームを切り出す。これにより、対象車両がカメラの撮影可能範囲に入る前から撮影可能範囲から出た後までの一連の流れのなかから、対象車両を含む画像(後述する鑑賞画像)を生成できる。よって、上記(1)~(4)の構成によれば、ユーザのニーズに合う瞬間の画像を撮影できる。
【0011】
(5)プロセッサは、対象車両のナンバプレートのナンバーに基づいて、対象車両を選択する。
【0012】
(6)画像処理システムは、ナンバー認識モデルが格納された第1のメモリをさらに備える。ナンバー認識モデルは、ナンバープレートのナンバーを含む動画を入力とし、かつ、動画におけるナンバーを出力とする学習済みモデルである。プロセッサは、ナンバー認識モデルを用いて、動画データからナンバーを認識する。
【0013】
(7)プロセッサは、対象車両に搭載された通信機器の識別情報に基づいて、対象車両を選択する。
【0014】
(8)画像処理システムは、車両抽出モデルが格納された第2のメモリをさらに備える。車両抽出モデルは、車両を含む動画を入力とし、かつ、動画における車両を出力とする学習済みモデルである。プロセッサは、車両抽出モデルを用いて、動画データから対象車両を含む複数の車両を抽出する。
【0015】
(9)画像処理システムは、対象車両特定モデルが格納された第3のメモリをさらに備える。対象車両特定モデルは、車両が抽出された動画を入力とし、かつ、動画における車両を出力とする学習済みモデルである。プロセッサは、対象車両特定モデルに基づいて、動画データから対象車両を特定する。
【0016】
上記(5),(6)の構成によれば、ナンバー認識により対象車両を高精度に選択できる。上記(7)の構成によれば、ナンバー認識に限らず、通信機器の識別情報に基づいて対象車両を選択できる。上記(8)の構成によれば、対象車両を含む複数の車両を高精度に抽出できる。上記(9)の構成によれば、動画データから対象車両を高精度に特定できる。
【0017】
(10)本開示の他の局面に従うコンピュータによる画像処理方法は、第1~第4のステップを含む。第1のステップは、カメラにより車両が撮影された動画データをメモリに格納するステップである。第2のステップは、カメラにより撮影された車両のなかから予め登録された対象車両を選択するステップである。第3のステップは、メモリに格納された動画データから、選択される前の対象車両を含む複数のフレームを切り出すステップである。第4のステップは、切り出された複数のフレームを用いて、対象車両を含む画像を生成するステップである。
【0018】
上記(10)の方法によれば、上記(1)の構成と同様に、ユーザのニーズに合う瞬間の画像を撮影できる。
【発明の効果】
【0019】
本開示によれば、ユーザのニーズに合う瞬間の画像を撮影できる。
【図面の簡単な説明】
【0020】
図1】本開示の実施の形態1に係る画像処理システムの全体構成を概略的に示す図である。
図2】実施の形態1における撮影システムの典型的なハードウェア構成を示すブロック図である。
図3】カメラによる車両撮影の様子を示す図である。
図4】サーバの典型的なハードウェア構成を示すブロック図である。
図5】比較例に係る画像処理システムにおける車両撮影の様子を説明するための図である。
図6】実施の形態1における撮影システムおよびサーバの機能的構成を示す機能ブロック図である。
図7】マッチング処理部および対象車両選択部による処理を説明するための図である。
図8】車両抽出処理に用いられる学習済みモデル(車両抽出モデル)の一例を説明するための図である。
図9】ナンバー認識処理に用いられる学習済みモデル(ナンバー認識モデル)の一例を説明するための図である。
図10】対象車両特定処理に用いられる学習済みモデル(対象車両特定モデル)の一例を説明するための図である。
図11】実施の形態1における車両撮影の処理手順を示すフローチャートである。
図12】実施の形態2における撮影システムの典型的なハードウェア構成を示すブロック図である。
図13】実施の形態2における撮影システムの機能的構成を示す機能ブロック図である。
図14】実施の形態2における車両撮影の処理手順を示すフローチャートである。
【発明を実施するための形態】
【0021】
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付して、その説明は繰り返さない。
【0022】
[実施の形態1]
<システム構成>
図1は、本開示の実施の形態1に係る画像処理システムの全体構成を概略的に示す図である。画像処理システム100は、複数の撮影システム1と、サーバ2とを備える。複数の撮影システム1の各々とサーバ2とは、ネットワークNWを介して互いに通信可能に接続されている。なお、図1には3台の撮影システム1が示されているが、撮影システム1の台数は特に限定されない。撮影システム1は1台だけであってもよい。
【0023】
撮影システム1は、たとえば道路近傍に設置され、当該道路を走行中の車両9(図3参照)を撮影する。本実施の形態では、撮影システム1は、撮影された動画に所定の演算処理(後述)を施し、その演算処理結果を動画とともにサーバ2に送信する。
【0024】
サーバ2は、たとえば、車両撮影サービスを提供する事業者の自社サーバである。サーバ2は、クラウドサーバ管理会社が提供するクラウドサーバであってもよい。サーバ2は、撮影システム1から受信した動画からユーザが鑑賞するための画像(以下、「鑑賞画像」とも記載する)を生成し、生成された鑑賞画像をユーザに提供する。鑑賞画像は、一般的には静止画であるが、規定時間(たとえば数秒間程度の短い時間)の動画であってもよい。ユーザは、多くの場合、車両9のドライバであるが、特に限定されない。
【0025】
図2は、実施の形態1における撮影システム1の典型的なハードウェア構成を示すブロック図である。撮影システム1は、プロセッサ11と、メモリ12と、カメラ13と、通信インターフェイス(IF)14とを備える。メモリ12は、ROM(Read Only Memory)121と、RAM(Random Access Memory)122と、フラッシュメモリ123とを含む。撮影システム1の構成要素はバス等によって互いに接続されている。
【0026】
プロセッサ11は、撮影システム1の全体的な動作を制御する。メモリ12は、プロセッサ11により実行されるプログラム(オペレーティングシステムおよびアプリケーションプログラム)と、そのプログラムで使用されるデータ(マップ、テーブル、数式、パラメータなど)とを記憶する。また、メモリ12は、撮影システム1により撮影された動画を一時的に格納する。
【0027】
カメラ13は、車両9の動画を撮影する。カメラ13は、偏光レンズ付の高感度タイプのカメラであることが好ましい。
【0028】
図3は、カメラ13による車両撮影の様子を示す図である。カメラ13は、車両9に設けられたナンバープレートを撮影可能であるとともに、写真映りがよい車両9の車体についても撮影可能である。カメラ13により撮影された動画は、ナンバープレートのナンバーを認識するために用いられるとともに、鑑賞画像を生成するためにも用いられる。
【0029】
図2に戻り、通信IF14は、サーバ2との通信を行うためのインターフェイスである。通信IF14は、たとえば4G(Generation)または5Gに準拠する通信モジュールである。
【0030】
図4は、サーバ2の典型的なハードウェア構成を示すブロック図である。サーバ2は、プロセッサ21と、メモリ22と、入力装置23と、ディスプレイ24と、通信IF25とを備える。メモリ22は、ROM221と、RAM222と、HDD223とを含む。サーバ2の構成要素はバス等によって互いに接続されている。
【0031】
プロセッサ21は、サーバ2における各種演算処理を実行する。メモリ22は、プロセッサ21により実行されるプログラムと、そのプログラムで使用されるデータとを記憶する。また、メモリ22は、サーバ2による画像処理に使用されるデータを格納したり、サーバ2により画像処理されたデータを格納したりする。入力装置23は、サーバ2の管理者の入力を受け付ける。入力装置23は、典型的にはキーボード、マウスである。ディスプレイ24は様々な情報を表示する。通信IF25は、撮影システム1との通信を行うためのインターフェイスである。
【0032】
<比較例>
本実施の形態に係る画像処理システム100の特徴の理解を容易にするため、比較例に係る画像処理システム900について説明する。
【0033】
図5は、比較例に係る画像処理システム900における車両撮影の様子を説明するための図である。ここでは、左から右に走行する車両9がカメラ93によって撮影される状況を想定する。カメラ93から延びる点線は、カメラ93により撮影可能な範囲を示す。
【0034】
時刻t1において、車両9の先端が撮影可能範囲内に入る。しかし、この時点ではナンバープレートは撮影可能範囲外である。時刻t2において、ナンバープレートが撮影可能範囲内に入り、ナンバプレートが撮影される。ナンバーを認識して車両9が撮影対象の車両(以下、「対象車両」とも記載する)であるかどうかを特定するには多少の処理時間がかかる。その間も車両9は走行する。時刻t3において、車両9が対象車両と特定される。時刻t3から、車両9が撮影可能範囲から出る時刻t4までの間の期間が、比較例において車両9を撮影可能な期間である。
【0035】
しかしながら、この場合、車両9が特定される時刻t3よりも前にユーザのニーズに合う写真映りがよい瞬間(または期間)があったとしても、そのような瞬間の画像は撮影できない。また、車両9が撮影可能範囲内に入り、その後、撮影可能範囲外から出て行くまでの一連の流れを撮影することもできない。
【0036】
そこで、本実施の形態においては、車両9が特定される時刻t3よりも前の動画についてもメモリ22に格納しておく構成を採用する。本実施の形態では、車両9が撮影可能範囲内に入り、撮影可能範囲外から出て行くまでの一連の流れを撮影した上で、その流れのなかの一部または全部が切り出される。これにより、ユーザのニーズに合う瞬間の画像を撮影することが可能になる。
【0037】
なお、車両9は、図5に示したような四輪車に限られず、たとえば二輪車(バイク)であってもよい。二輪車のナンバープレートは後方にしか取り付けられていないので、ナンバープレートを撮影して車両を特定するまでの期間が長くなりやすい。したがって、二輪車に対しては、ユーザのニーズに合う瞬間の画像を撮影するとの画像処理システム100の効果がより顕著になる。
【0038】
<画像処理システムの機能的構成>
図6は、実施の形態1における撮影システム1およびサーバ2の機能的構成を示す機能ブロック図である。撮影システム1は、撮影部31と、通信部32と、演算処理部33とを含む。演算処理部33は、動画バッファ331と、車両抽出部332と、ナンバー認識部333と、マッチング処理部334と、対象車両選択部335と、特徴量抽出部336と、動画切り出し部337とを含む。
【0039】
撮影部31は、車両9の動画を撮影し、撮影された動画を動画バッファ331に出力する。撮影部31は、図2のカメラ13に対応する。
【0040】
通信部32は、ネットワークNWを介してサーバ2の通信部42(後述)と双方向の通信を行う。通信部32は、サーバ2から対象車両のナンバーを受信したり、撮影部31により撮影された各車両のナンバーをサーバに送信したりする。また、通信部32は、動画(より詳細には、対象車両を含むように切り出された動画)をサーバ2に送信する。通信部32は図2の通信IF14に対応する。
【0041】
動画バッファ331は、撮影部31により撮影された動画を一時的に記憶する。動画バッファ331は、代表的にはリングバッファ(循環バッファ)であって、1次元配列の先頭と末尾とが論理的に連結された環状の記憶領域を有する。新たに撮影された動画は、記憶領域に格納可能な所定容量分(所定枚数のフレーム、所定時間であってもよい)だけ動画バッファ331に記憶される。当該所定の時間を超えた分の古い動画は、動画バッファ331から自動的に消去される。動画バッファ331は、動画を車両抽出部332および動画切り出し部337に出力する。
【0042】
車両抽出部332は、動画から車両(対象車両に限らず、車両全般)を抽出する。この処理を「車両抽出処理」とも記載する。車両抽出処理には、たとえば、ディープラーニング(深層学習)などの機械学習の技術により生成された学習済みモデルを用いることができる。本例では、車両抽出部332は「車両抽出モデル」によって実現される。車両抽出モデルについては図8にて説明する。車両抽出部332は、動画のうち車両が抽出された部分(車両を含むフレーム)をナンバー認識部333に出力するとともにマッチング処理部334に出力する。
【0043】
ナンバー認識部333は、車両抽出部332により車両が抽出された動画からナンバープレートのナンバーを認識する。この処理を「ナンバー認識処理」とも記載する。ナンバー認識処理にもディープラーニングなどの機械学習の技術により生成された学習済みモデルを用いることができる。本例では、ナンバー認識部333は「ナンバー認識モデル」によって実現される。ナンバー認識モデルについては図9にて説明する。ナンバー認識部333は、認識したナンバーをマッチング処理部334に出力する。また、ナンバー認識部333は、認識したナンバーを通信部32に出力する。これにより、各車両のナンバーがサーバ2に送信される。
【0044】
図7は、マッチング処理部334および対象車両選択部335による処理を説明するための図である。2台の車両が抽出され、かつ、2つのナンバーが認識された状況を例に説明する。マッチング処理部334は、車両抽出部332により抽出された車両と、ナンバー認識部333により認識されたナンバーとを対応付ける(マッチング処理)。より詳細には、マッチング処理部334は、ナンバー毎に、ナンバーと車両との間の距離(フレーム上でのナンバーの座標と車両の座標との間の距離)を算出する。そして、マッチング処理部334は、ナンバーと、そのナンバーとの間の距離が短い車両とを対応付ける。マッチング処理部334は、上記のマッチング処理の結果(ナンバーが対応付けられた車両)を対象車両選択部335に出力する。
【0045】
対象車両選択部335は、マッチング処理によってナンバーが対応付けられた車両のなかから、ナンバーが対象車両のナンバー(サーバ2から受信したもの)に一致する車両を対象車両として選択する。対象車両選択部335は、対象車両として選択された車両を特徴量抽出部336に出力するとともに動画切り出し部337に出力する。
【0046】
図6を再び参照して、特徴量抽出部336は、対象車両を含む動画を解析することで対象車両の特徴量を抽出する。特徴量は、対象車両の走行状態および外観を含み得る。より具体的には、特徴量抽出部336は、対象車両を含むフレームにおける対象車両の時間的変化(たとえば、フレーム間での対象車両の移動量、フレーム間での対象車両のサイズの変化量)に基づいて、対象車両の走行速度を算出する。特徴量抽出部336は、対象車両の走行速度に加えて、たとえば対象車両の加速度(減速度)を算出してもよい。また、特徴量抽出部336は、公知の画損認識技術を用いて対象車両の外観(ボディ形状、ボディ色など)に関する情報を抽出する。特徴量抽出部336は、対象車両の特徴量(走行速度、加速度、ボディ形状、ボディ色など)を動画切り出し部に出力する。また、特徴量抽出部336は、対象車両の特徴量を通信部32に出力する。これにより、対象車両の特徴量がサーバ2に送信される。
【0047】
動画切り出し部337は、動画バッファ331に格納された動画から対象車両を含む部分を切り出す。好ましくは、動画切り出し部337は、対象車両選択部335により選択された対象車両が含まれているフレームをすべて切り出す。より好ましくは、動画切り出し部337は、対象車両が含まれている全フレームに加えて、当該フレームよりも前の所定数のフレーム(対象車両が撮影部31の撮影可能範囲に入る前のフレーム)と、当該フレームよりも後の所定数のフレーム(対象車両が撮影部31の撮影可能範囲から出た後のフレーム)についても切り出しの対象とする。すなわち、動画切り出し部337は、対象車両が撮影部31の撮影可能範囲に入る前から撮影可能範囲から出た後までの一連の流れの動画を切り出すことが好ましい。動画切り出し部337は、切り出された動画を通信部32に出力する。これにより、対象車両が走行する様子を撮影部31の撮影可能範囲の全範囲に亘って撮影した動画がサーバ2に送信される。
【0048】
なお、動画切り出し部337は、特徴量抽出部336により抽出された特徴量を用いて動画を切り出してもよい。たとえば、動画切り出し部337は、対象車両の走行速度に応じて、動画を切り出す時間の長さを変えてもよい。言い換えると、動画切り出し部337は、対象車両が含まれている全フレームの前後のフレームの数(上記「所定数」)を可変に設定してもよい。動画切り出し部337は、対象車両の走行速度が遅いほど、動画を切り出す時間を長くすることができる。これにより、より確実に、対象車両が走行する様子を撮影可能範囲の全範囲に亘って切り出すことができる。
【0049】
サーバ2は、記憶部41と、通信部42と、演算処理部43とを含む。記憶部41は、画像記憶部411と、登録情報記憶部412とを含む。演算処理部43は、車両抽出部431と、対象車両特定部432と、画像加工部433と、アルバム作成部434と、ウェブサービス管理部435と、撮影システム管理部436とを含む。
【0050】
画像記憶部411は、サーバ2による演算処理の結果、得られる鑑賞画像を格納する。より具体的には、画像記憶部411は、画像加工部433による加工前後の画像を記憶するとともに、アルバム作成部434により作成されたアルバムを格納する。
【0051】
登録情報記憶部412は、車両撮影サービスに関する登録情報を記憶している。登録情報は、車両撮影サービスの提供を申し込んだユーザの個人情報と、そのユーザの車両情報とを含む。ユーザの個人情報は、たとえば、ユーザの識別番号(ID)、氏名、生年月日、住所、電話番号、メールアドレスなどに関する情報を含む。ユーザの車両情報は、車両のナンバープレートのナンバーに関する情報を含む。車両情報は、たとえば、車種、年式、ボディ形状(セダン型、ワゴン型、ワンボックス型など)、ボディ色などに関する情報を含んでもよい。
【0052】
通信部42は、ネットワークNWを介して撮影システム1の通信部32と双方向の通信を行う。通信部42は、対象車両のナンバーを撮影システム1に送信したり、撮影システム1により撮影された各車両のナンバーを受信したりする。また、通信部42は、撮影システム1から対象車両を含む動画と、対象車両の特徴量(走行状態および外観)とを受信する。通信部42は図4の通信IF25に対応する。
【0053】
車両抽出部431は、動画から車両(対象車両に限らず、車両全般)を抽出する。この処理には、撮影システム1の車両抽出部332による車両抽出処理と同様に、車両抽出モデルを用いることができる。車両抽出部431は、動画のうち車両が抽出された動画(車両を含むフレーム)を対象車両特定部432に出力する。
【0054】
対象車両特定部432は、車両抽出部431により抽出された車両のなかから、対象車両の特徴量(走行速度、加速度などの走行状態、および、ボディ形状、ボディ色などの外観)に基づいて対象車両を特定する。この処理を「対象車両特定処理」とも記載する。対象車両特定処理にもディープラーニングなどの機械学習の技術により生成された学習済みモデルを用いることができる。本例では、対象車両特定部432は「対象車両特定モデル」によって実現される。対象車両特定については図10にて説明する。対象車両特定部432によって対象車両が特定されることで鑑賞画像が生成される。鑑賞画像は、通常は複数の画像(時間的に連続した複数のフレーム)を含む。対象車両特定部432は、鑑賞画像を画像加工部433に出力する。
【0055】
画像加工部433は鑑賞画像を加工する。たとえば、画像加工部433は、複数の画像のなかから最も写真映りがよい画像(いわゆるベストショット)を選択する。そして、画像加工部433は、抽出された鑑賞画像に対して様々な画像補正(トリミング、色補正、歪み補正など)を行う。画像加工部433は、加工済みの鑑賞画像をアルバム作成部434に出力する。
【0056】
アルバム作成部434は、加工済みの鑑賞画像を用いてアルバムを作成する。アルバム作成には公知の画像解析技術(たとえば、スマートホンで撮影された画像からフォトブック、スライドショーなどを自動で作成する技術)を用いることができる。アルバム作成部434は、アルバムをウェブサービス管理部435に出力する。
【0057】
ウェブサービス管理部435は、アルバム作成部434により作成されたアルバムを用いたウェブサービス(たとえばSNSに連携可能なアプリケーションプログラム)を提供する。なお、ウェブサービス管理部435は、サーバ2とは別のサーバに実装されてもよい。
【0058】
撮影システム管理部436は、撮影システム1を管理(監視および診断)する。撮影システム管理部436は、管理下の撮影システム1に何らかの異常(カメラ故障、通信不具合など)が発生した場合に、そのことをサーバ2の管理者に通知する。これにより、管理者が撮影システム1点検、修理などの対応を取ることができる。撮影システム管理部436もウェブサービス管理部435と同様に、別サーバとして実装され得る。
【0059】
<学習済みモデル>
図8は、車両抽出処理に用いられる学習済みモデル(車両抽出モデル)の一例を説明するための図である。学習前モデルである推定モデル51は、たとえば、ニューラルネットワーク511と、パラメータ512とを含む。ニューラルネットワーク511は、ディープラーニングによる画像認識処理に用いられる公知のニューラルネットワークである。そのようなニューラルネットワークとしては、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)、再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)などが挙げられる。パラメータ512は、ニューラルネットワーク511による演算に用いられる重み付け係数などを含む。
【0060】
多数の教師データが開発者により予め準備される。教師データは、例題データと、正解データとを含む。例題データは、抽出対象である車両を含む画像データである。正解データは、例題データに対応する抽出結果を含む。具体的には、正解データは、例題データに含まれる車両が抽出された画像データである。
【0061】
学習システム61は、例題データおよび正解データを用いて推定モデル51を学習させる。学習システム61は、入力部611と、抽出部612と、学習部613とを含む。
【0062】
入力部611は、開発者により準備された多数の例題データ(画像データ)を受け付けて抽出部612に出力する。
【0063】
抽出部612は、入力部611からの例題データを推定モデル51に入力することによって、例題データに含まれる車両を例題データ毎に抽出する。抽出部612は、その抽出結果(推定モデル51からの出力)を学習部613に出力する。
【0064】
学習部613は、抽出部612から受けた例題データからの車両の抽出結果と、その例題データに対応する正解データとに基づいて、推定モデル51を学習させる。具体的には、学習部613は、抽出部612によって得られた車両の抽出結果が正解データに近づくように、パラメータ512(たとえば重み付け係数)を調整する。
【0065】
以上のように推定モデル51の学習が行われ、学習が完了した推定モデル51が車両抽出モデル71として車両抽出部332(および車両抽出部431)に格納されている。車両抽出モデル71は、動画を入力とし、かつ、車両が抽出された動画を出力とする。車両抽出モデル71は、動画のフレーム毎に、抽出された車両を当該フレームの識別子と関連付けてマッチング処理部334に出力する。フレームの識別子とは、たとえばタイムスタンプ(フレームの時刻情報)である。
【0066】
図9は、ナンバー認識処理に用いられる学習済みモデル(ナンバー認識モデル)の一例を説明するための図である。例題データは、認識対象であるナンバーを含む画像データである。正解データは、例題データに含まれるナンバープレートの位置およびナンバーを示すデータである。例題データおよび正解データが異なるものの、学習システム62による推定モデル52の学習手法は、学習システム61(図8参照)による学習手法と同様であるため、詳細な説明は繰り返さない。
【0067】
学習が完了した推定モデル52がナンバー認識モデル72としてナンバー認識部333に格納されている。ナンバー認識モデル72は、車両抽出部332によって車両が抽出された動画を入力とし、かつ、ナンバープレートの座標およびナンバーを出力とする。ナンバー認識モデル72は、動画のフレーム毎に、認識されたナンバープレートの座標およびナンバーを当該フレームの識別子に関連付けてマッチング処理部334に出力する。
【0068】
図10は、対象車両特定処理に用いられる学習済みモデル(対象車両特定モデル)の一例を説明するための図である。例題データは、特定対象である対象車両を含む画像データである。例題データは、対象車両の特徴量(具体的には走行状態および外観)に関する情報をさらに含む。正解データは、例題データに含まれる対象車両が特定された画像データである。学習システム63による推定モデル53の学習手法も学習システム61,62(図8および図9参照)による学習手法と同様であるため、詳細な説明は繰り返さない。
【0069】
学習が完了した推定モデル53が対象車両特定モデル73として対象車両特定部432に格納されている。対象車両特定モデル73は、車両抽出部431によって車両が抽出された動画、ならびに、対象車両の特徴量(走行状態および外観)を入力とし、かつ、対象車両が特定された動画を出力とする。対象車両特定モデル73は、動画のフレーム毎に、特定された動画を当該フレームの識別子に関連付けて画像加工部433に出力する。
【0070】
なお、車両抽出処理は、機械学習を用いた処理に限定されない。機械学習を用いない公知の画像認識技術(画像認識モデル、アルゴリズム)を車両抽出処理に適用できる。ナンバー認識処理および対象車両特定処理に関しても同様である。
【0071】
<処理フロー>
図11は、実施の形態1における車両撮影の処理手順を示すフローチャートである。このフローチャートは、たとえば予め定められた条件成立時または所定の周期毎に実行される。図中、左側に撮影システム1による処理を示し、右側にサーバ2による処理を示す。各ステップは、撮影システム1のプロセッサ11またはサーバ2のプロセッサ21によるソフトウェア処理により実現されるが、ハードウェア(電気回路)により実現されてもよい。以下、ステップをSと略す。
【0072】
S11において、撮影システム1は、動画に対して車両抽出処理(図8参照)を実行することで車両を抽出する。さらに、撮影システム1は、車両が抽出された動画に対してナンバー認識処理(図9参照)を実行することでナンバーを認識する(S12)。撮影システム1は、認識されたナンバーをサーバ2に送信する。
【0073】
サーバ2は、撮影システム1からナンバーを受信すると、登録情報を参照することで、受信したナンバーが登録済みのナンバーであるかどうか(つまり、撮影システム1により撮影された車両が車両撮影サービスの提供を申し込んだユーザの車両(対象車両)であるかどうか)を判定する。受信したナンバーが登録済みのナンバー(対処車両のナンバー)である場合、サーバ2は、対象車両のナンバーを送信するとともに、対象車両を含む動画の送信を撮影システム1に要求する(S21)。
【0074】
S13において、撮影システム1は、認識動画における各車両と各ナンバーとのマッチング処理を実行する。そして、撮影システム1は、ナンバーが対応付けられた車両のなかから、対象車両のナンバーと同じナンバーが対応付けられた車両を対応車両として選択する(S14)。さらに、撮影システム1は、対象車両の特徴量(走行状態および外観)を抽出し、抽出された特徴量をサーバ2に送信する(S15)。
【0075】
S16において、撮影システム1は、メモリ22(動画バッファ331)に一時的に格納された動画のなかから、対象車両を含む部分をナンバー認識前(対象車両が選択される前)の時点から切り出す。切り出し手法については図6にて詳細に説明したため、ここでの説明は繰り返さない。撮影システム1は、切り出された動画をサーバ2に送信する。
【0076】
S22において、サーバ2は、撮影システム1から受信した動画に対して車両抽出処理(図8参照)を実行することで、車両を抽出する。
【0077】
S23において、サーバ2は、S22にて抽出された車両のなかから、対象車両の特徴量(走行状態および外観)に基づいて対象車両を特定する(図10の対象車両特定処理)。対象車両の特徴量として対象車両の走行状態および外観のうちの一方のみを用いることも考えられる。しかし、動画中に、ボディ形状およびボディ色が同じ複数台の車両が含まれたり、走行速度および加速度がほぼ等しい複数台の車両が含まれたりする可能性がある。これに対し、本実施の形態では、ボディ形状およびボディ色が同じ複数台の車両が動画中に含まれる場合であっても、それらの車両の間で走行速度および/または加速度が異なれば、対象車両を他の車両から区別できる。あるいは、走行速度および加速度がほぼ等しい複数台の車両が動画中に含まれる場合であっても、それらの車両の間でボディ形状および/またはボディ色が異なれば、対象車両を他の車両から区別できる。このように、対象車両の特徴量として対象車両の走行状態および外観の両方を用いることによって、対象車両の特定精度を向上させることができる。
【0078】
ただし、対象車両の走行状態および外観の両方を用いることは必須ではなく、いずれか一方のみを用いてもよい。対象車両の走行状態および/または外観に関する情報は、本開示に係る「対象車両情報」に相当する。また、対象車両の外観に関する情報は、撮影システム1(特徴量抽出部336)による解析によって得られた車両情報に限らず、登録情報記憶部412に予め記憶された車両情報であってもよい。
【0079】
S24において、サーバ2は、対象車両を含む動画(複数の鑑賞画像)のなかから、最適な鑑賞画像(ベストショット)を選択する。さらに、サーバ2は、最適な鑑賞画像に対して画像補正を行う。そして、サーバ2は、補正後の鑑賞画像を用いてアルバムを作成する(S25)。ユーザは、作成されたアルバムを鑑賞したり、アルバム内の所望の画像をSNSに投稿したりすることができる。
【0080】
以上のように、実施の形態1においては、撮影システム1は、ナンバープレートのナンバー認識によって対象車両を選択する。そして、撮影システム1は、対象車両が含まれている全フレーム(対象車両が選択される前のフレームも含む)を切り出してサーバ2に送信する。より好ましくは、撮影システム1は、対象車両が含まれている全フレームに加えて、その前後のフレームを切り出してサーバ2に送信する。これにより、対象車両がカメラ13の撮影可能範囲に入る前から撮影可能範囲から出た後までの一連の流れがサーバ2に収集される。したがって、サーバ2が上記の一連の流れのなかから最適なフレームを選択して鑑賞画像を生成することが可能になる。よって、実施の形態1によれば、ユーザのニーズに合う瞬間の画像を撮影できる。
【0081】
[実施の形態2]
実施の形態1では、ナンバープレートのナンバーを用いて対象車両を特定する構成について説明した。しかし、対象車両の特定手法は、これに限定されない。実施の形態2では、無線通信の識別番号を用いて対象車両が特定される。
【0082】
図12は、実施の形態2における撮影システム1Aの典型的なハードウェア構成を示すブロック図である。撮影システム1Aは、通信IF14に代えて通信IF15を含む点において、実施の形態1における撮影システム1(図2参照)と異なる。通信IF15は、遠距離無線モジュール151と、近距離無線モジュール152とを含む。
【0083】
遠距離無線モジュール151は、通信IF14と同様に、たとえば4Gまたは5Gに準拠する通信モジュールである。遠距離無線モジュール151は、撮影システム1Aとサーバ2との間の遠距離通信に用いられる。
【0084】
近距離無線モジュール152は、Wi-Fi(登録商標)またはBluetooth(登録商標)などの近距離通信規格に準拠する通信モジュールである。近距離無線モジュール152は、車両9に設けられた近距離無線モジュール95と通信したり、車両9内のユーザが保持するユーザ端末96(スマートホン、タブレット端末など)と通信したりするように構成されている。
【0085】
車両9の近距離無線モジュール95およびユーザ端末96の各々は、近距離通信規格に準拠する各無線機器に固有の識別番号(デバイスアドレスとも呼ばれる)を有している。撮影システム1Aの近距離無線モジュール152は、近距離無線モジュール95および/またはユーザ端末96の識別番号を取得できる。
【0086】
以下、近距離無線モジュール95およびユーザ端末96を包括的に「無線機器」とも記載する。また、無線機器の識別番号を「無線機ID」とも記載する。対象車両の無線機IDは、ユーザから事前(たとえば車両撮影サービスの申込時)に取得されて登録情報記憶部412(図6参照)に記憶されている。
【0087】
図13は、実施の形態2における撮影システム1Aの機能的構成を示す機能ブロック図である。撮影システム1は、近距離通信部81と、撮影部82と、遠距離通信部83と、演算処理部84とを含む。演算処理部84は、無線機ID取得部841と、動画バッファ842と、車両抽出部843と、マッチング処理部844と、対象車両選択部845と、特徴量抽出部846と、動画切り出し部847とを含む。
【0088】
近距離通信部81は、車両9に搭載された無線機器と近距離通信を行う。近距離通信部81は、図12の近距離無線モジュール152に対応する。
【0089】
無線機ID取得部841は、近距離無線モジュール95および/またはユーザ端末96の識別番号(無線機ID)を取得する。無線機ID取得部841は、取得した無線機IDをマッチング処理部844に出力する。
【0090】
撮影部82、動画バッファ842および車両抽出部843は、実施の形態1における撮影部31、動画バッファ331および車両抽出部332(図6参照)とそれぞれ同等である。
【0091】
マッチング処理部844は、車両抽出部843により抽出された車両と、無線機ID取得部841により取得された無線機IDとを対応付ける(マッチング処理)。より詳細には、マッチング処理部334は、無線機器が搭載された車両が接近したタイミングで、車両抽出部843により抽出された車両に当該無線機器から取得された無線機IDを対応付ける。車両9が撮影システム1Aに接近するに従って近距離無線の強度が向上する。したがって、マッチング処理部844は、無線機IDに加えて近距離無線の強度に基づいて、車両と無線機IDとの対応付けを行ってもよい。マッチング処理部844は、上記のマッチング処理の結果(無線機IDが対応付けられた車両)を対象車両選択部845に出力する。
【0092】
対象車両選択部845は、マッチング処理によって無線機IDが対応付けられた車両のなかから、無線機IDが対象車両の無線機ID(サーバ2から受信したもの)に一致する車両を対象車両として選択する。対象車両選択部845は、対象車両として選択された車両を特徴量抽出部846に出力するとともに動画切り出し部847に出力する。
【0093】
特徴量抽出部846、動画切り出し部847および遠距離通信部83は、実施の形態1における特徴量抽出部336、動画切り出し部337および通信部32(図6参照)とそれぞれ同等である。また、サーバ2も実施の形態1におけるサーバ2と基本的に同等であるため、紙面の都合上、サーバ2の機能ブロック図(図6参照)については図示していない。
【0094】
図14は、実施の形態2における車両撮影の処理手順を示すフローチャートである。このフローチャートは、ナンバープレートのナンバーに代えて無線機IDを用いる点以外は、実施の形態1におけるフローチャート(図11)と同等であるため、説明は繰り返さない。
【0095】
以上のように、実施の形態2においては、撮影システム1Aは、車両9に搭載された近距離無線モジュール95および/またはユーザ端末96の識別番号(無線機ID)を用いて対象車両を選択する。そして、撮影システム1Aは、対象車両が含まれている全フレーム(対象車両が選択される前のフレームも含む)を切り出してサーバ2に送信する。より好ましくは、撮影システム1Aは、対象車両が含まれている全フレームに加えて、その前後のフレームを切り出してサーバ2に送信する。これにより、対象車両がカメラ13の撮影可能範囲に入る前から撮影可能範囲から出た後までの一連の流れがサーバ2に収集される。したがって、サーバ2が上記の一連の流れのなかから最適なフレームを選択して鑑賞画像を生成することが可能になる。よって、実施の形態2によれば、ユーザのニーズに合う瞬間の画像を撮影できる。
【0096】
なお、実施の形態1,2では、撮影システム1,1Aとサーバ2とが画像処理を分担して実行する例について説明した。したがって、撮影システム1,1Aのプロセッサ11およびサーバ2のプロセッサ21の両方が本開示に係る「プロセッサ」に相当する。しかし、撮影システム1,1Aがすべての画像処理を実行し、画像処理済みのデータ(鑑賞画像)をサーバ2に送信してもよい。よって、サーバ2は本開示に係る画像処理に必須の構成要素ではない。この場合、撮影システム1,1Aのプロセッサ11が本開示に係る「プロセッサ」に相当する。
【0097】
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【符号の説明】
【0098】
100 画像処理システム、1,1A 撮影システム、11 プロセッサ、12 メモリ、121 ROM、122 RAM、123 フラッシュメモリ、13 カメラ、14 通信IF、15 通信IF、151 遠距離無線モジュール、152 近距離無線モジュール、2 サーバ、21 プロセッサ、22 メモリ、221 ROM、222 RAM、23 入力装置、24 ディスプレイ、25 通信IF、31 撮影部、32 通信部、33 演算処理部、331 動画バッファ、332 車両抽出部、333 ナンバー認識部、334 マッチング処理部、335 対象車両選択部、336 特徴量抽出部、337 動画切り出し部、41 記憶部、411 画像記憶部、412 登録情報記憶部、42 通信部、43 演算処理部、431 車両抽出部、432 対象車両特定部、433 画像加工部、434 アルバム作成部、435 ウェブサービス管理部、436 撮影システム管理部、51,52,53 推定モデル、511 ニューラルネットワーク、512 パラメータ、61,62,63 学習システム、611,621,631 入力部、612 抽出部、622 認識部、632 特定部、613,623,633 学習部、71 車両抽出モデル、72 ナンバー認識モデル、73 対象車両特定モデル、81 近距離通信部、82 撮影部、83 遠距離通信部、84 演算処理部、841 無線機ID取得部、842 動画バッファ、843 車両抽出部、844 マッチング処理部、845 対象車両選択部、846 特徴量抽出部、847 動画切り出し部、9 車両、93 カメラ、95 近距離無線モジュール、96 ユーザ端末、900 画像処理システム、NW ネットワーク。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14