(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-01-05
(45)【発行日】2024-01-16
(54)【発明の名称】固体撮像装置、電子機器及び固体撮像装置の制御方法
(51)【国際特許分類】
H04N 23/54 20230101AFI20240109BHJP
H04N 23/60 20230101ALI20240109BHJP
H04N 23/611 20230101ALI20240109BHJP
H04N 25/70 20230101ALI20240109BHJP
G06T 7/00 20170101ALI20240109BHJP
H01L 27/146 20060101ALI20240109BHJP
【FI】
H04N23/54
H04N23/60 500
H04N23/611
H04N25/70
G06T7/00 350C
H01L27/146 A
H01L27/146 D
(21)【出願番号】P 2022024324
(22)【出願日】2022-02-18
(62)【分割の表示】P 2020109273の分割
【原出願日】2019-07-29
【審査請求日】2022-04-26
(31)【優先権主張番号】P 2018144173
(32)【優先日】2018-07-31
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】316005926
【氏名又は名称】ソニーセミコンダクタソリューションズ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】浴 良仁
【審査官】高野 美帆子
(56)【参考文献】
【文献】国際公開第2018/051809(WO,A1)
【文献】特開2017-158065(JP,A)
【文献】国際公開第2009/1530(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 23/54
H04N 23/60
H04N 23/611
H04N 25/70
G06T 7/00
H01L 27/146
(57)【特許請求の範囲】
【請求項1】
画像データを取得する撮像部と、
前記画像データに対してニューラルネットワーク計算モデルに基づく処理を実行し、前記処理の結果に基づいて前記画像データに対する加工処理を実行することで加工画像データを生成する処理部と、
前記撮像部から出力された前記画像データ及び前記処理部で生成された前記加工画像データを格納するメモリと、
前記メモリに格納されている前記画像データ及び前記加工画像データのうちの何れか一方を外部へ出力するセレクタと、
を備え
、
前記処理部は、前記メモリに格納されている前記画像データに対して前記ニューラルネットワーク計算モデルに基づく前記処理を実行することで、前記画像データにおける一部の注目領域の位置情報を特定し、特定された前記位置情報に基づいて前記画像データに対して前記加工処理を実行することで前記加工画像データを生成する
固体撮像装置。
【請求項2】
前記メモリは、加工有りの処理モードである加工処理モードと加工無しの処理モードである通常処理モードとのうちの何れかのモードを格納し、
前記セレクタは、前記メモリに前記加工処理モードが格納されている場合、前記加工画像データを外部へ出力し、前記メモリに前記通常処理モードが格納されている場合、前記画像データを外部へ出力する
請求項1に記載の固体撮像装置。
【請求項3】
前記処理部は、学習済みの学習モデルを用いた前記処理によって、前記画像データにおける前記注目領域の位置情報を特定する
請求項
1又は2に記載の固体撮像装置。
【請求項4】
前記処理部は、前記画像データから前記注目領域を抽出して前記加工画像データを生成する
請求項
1~3の何れか1項に記載の固体撮像装置。
【請求項5】
前記処理部は、前記画像データから前記注目領域以外の領域を抽出して前記加工画像データを生成する
請求項
1~3の何れか1項に記載の固体撮像装置。
【請求項6】
前記注目領域は、人物の顔、目、鼻、口、窓及び表札のうち少なくとも1つを含む領域である
請求項
1~5の何れか1項に記載の固体撮像装置。
【請求項7】
固体撮像装置と、
前記固体撮像装置から出力された画像データに対してアプリケーションによる処理を実行する制御装置と、
を備え、
前記固体撮像装置は、
画像データを取得する撮像部と、
前記画像データに対してニューラルネットワーク計算モデルに基づく処理を実行し、前記処理の結果に基づいて前記画像データに対する加工処理を実行することで加工画像データを生成する処理部と、
前記撮像部から出力された前記画像データ及び前記処理部で生成された前記加工画像データを格納するメモリと、
前記メモリに格納されている前記画像データ及び前記加工画像データのうちの何れか一方を外部へ出力するセレクタと、
を備え
、
前記処理部は、前記メモリに格納されている前記画像データに対して前記ニューラルネットワーク計算モデルに基づく前記処理を実行することで、前記画像データにおける一部の注目領域の位置情報を特定し、特定された前記位置情報に基づいて前記画像データに対して前記加工処理を実行することで前記加工画像データを生成する
電子機器。
【請求項8】
画像データを取得する撮像部と、画像データを外部へ出力するセレクタと、画像データを格納するメモリとを備える固体撮像装置の制御方法であって、
前記撮像部から出力された前記画像データを前記メモリに格納し、
前記撮像部から出力された前記画像データに対してニューラルネットワーク計算モデルに基づく処理を実行し、
前記処理の結果に基づいて前記画像データに対する加工処理を実行することで加工画像データを生成し、
前記加工処理で生成された前記加工画像データを前記メモリに格納し、
前記メモリに格納されている前記画像データ及び前記加工画像データのうちの何れか一方を外部へ出力するように前記セレクタを制御する
ことを含
み、
前記メモリに格納されている前記画像データに対して前記ニューラルネットワーク計算モデルに基づく前記処理を実行することで、前記画像データにおける一部の注目領域の位置情報を特定し、特定された前記位置情報に基づいて前記画像データに対して前記加工処理を実行することで前記加工画像データを生成する
制御方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、固体撮像装置、電子機器及び固体撮像装置の制御方法に関する。詳しくは、チップ内での画像データの加工処理に関する。
【背景技術】
【0002】
デジタルカメラなどに代表される機器には、CMOS(Complementary Metal Oxide Semiconductor)やDSP(Digital Signal Processor)を有するイメージセンサが搭載される。イメージセンサでは、撮像された画像がDSPに供給され、DSPにおいて様々な処理がなされて、アプリケーションプロセッサなどの外部装置に出力される。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記の従来技術では、イメージセンサ内のDSPにおいて、ノイズ除去などの簡単な画像処理が実行され、画像データを用いた顔認証などの複雑な処理はアプリケーションプロセッサなどで実行されるのが一般的である。このため、イメージセンサで撮像された撮像画像がそのままアプリケーションプロセッサに出力されるので、セキュリティの観点やプライバシーの観点から、イメージセンサのチップ内で加工処理を実行することが望まれている。
【0005】
そこで、本開示では、イメージセンサのチップ内で加工処理を実行することができる固体撮像装置、電子機器及び固体撮像装置の制御方法を提案する。
【課題を解決するための手段】
【0006】
上記の課題を解決するために、本開示に係る一形態の固体撮像装置は、画像データを取得する撮像部と、前記画像データまたは前記画像データに基づくデータに対して、ニューラルネットワーク計算モデルに基づいて特定領域を抽出する処理を実行する処理部と、前記特定領域に基づいて加工された画像データ、又は、前記特定領域に基づいて前記撮像部から読み出された画像データを出力する出力部と、を有する。
【0007】
撮像部で取得された画像データから加工対象となる特定領域を抽出する処理部を固体撮像装置に搭載することで、チップ内で加工領域の抽出や加工処理を実行することが可能となる。それにより、そのままの画像データに含まれるプライバシー情報等がチップ外へ出力されることを防止でき、セキュアな固体撮像装置を実現することが可能となる。また、固体撮像装置から外部へ出力されるデータ量を低減できるというメリットも得られる。
【発明の効果】
【0008】
本開示によれば、イメージセンサのチップ内で加工処理を実行することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
【図面の簡単な説明】
【0009】
【
図1】第1の実施形態に係る電子機器としての撮像装置の概略構成例を示すブロック図である。
【
図2】第1の実施形態に係る画像の加工を説明する図である。
【
図3】第1の実施形態に係る加工処理の流れを示すフローチャートである。
【
図4】第1の実施形態の変形例を説明する図である。
【
図5】第2の実施形態に係る撮像装置を説明する図である。
【
図6】第2の実施形態の変形例を説明する図である。
【
図7】第3の実施形態に係る撮像装置を説明する図である。
【
図8】第3の実施形態にかかる加工処理の流れを示すシーケンス図である。
【
図9】本実施形態に係るイメージセンサのチップ構成例を示す模式図である。
【
図10】本実施形態に係るレイアウト例を説明するための図である。
【
図11】本実施形態に係るレイアウト例を説明するための図である。
【
図12】車両制御システムの概略的な構成の一例を示すブロック図である。
【
図13】車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
【
図14】内視鏡手術システムの概略的な構成の一例を示す図である。
【
図15】カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
【
図16】診断支援システムの概略的な構成の一例を示すブロック図である。
【発明を実施するための形態】
【0010】
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
【0011】
また、以下に示す項目順序に従って本開示を説明する。
1.第1の実施形態
2.第1の実施形態の変形例
3.第2の実施形態
4.第3の実施形態
5.イメージセンサのチップ構成
6.レイアウト例
7.その他の実施形態
8.移動体への応用例
9.内視鏡手術システムへの応用例
10.WSI(Whole Slide Imaging)システムへの応用例
【0012】
(1.第1の実施形態)
[1-1.第1の実施形態に係る画像処理システムの構成]
図1は、第1の実施形態に係る電子機器としての撮像装置の概略構成例を示すブロック図である。
図1に示すように、撮像装置1は、クラウドサーバ30と通信可能に接続される。なお、撮像装置1とクラウドサーバ30とは、有線や無線を問わず、各種ネットワークやUSB(Universal Serial Bus)ケーブルなどを介して、通信可能に接続される。
【0013】
クラウドサーバ30は、撮像装置1から送信された静止画や動画などの画像データを記憶するサーバ装置の一例である。例えば、クラウドサーバ30は、ユーザごと、日付ごと、撮像場所ごとなど任意の単位で画像データを記憶し、画像データを用いたアルバム作成など様々なサービスを提供することもできる。
【0014】
撮像装置1は、イメージセンサ10とアプリケーションプロセッサ20を有する電子機器の一例であり、例えばデジタルカメラ、デジタルビデオカメラ、タブレット端末、スマートフォンなどである。なお、以降の実施形態では、画像を撮像する例を用いて説明するが、これに限定されるものではなく、動画などであっても同様に処理することができる。
【0015】
イメージセンサ10は、例えば1チップで構成されるCMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、入射光を受光し、光電変換を行って、入射光の受光量に対応する画像データをアプリケーションプロセッサ20に出力する。
【0016】
アプリケーションプロセッサ20は、各種アプリケーションを実行するCPU(Central Processing Unit)などのプロセッサの一例である。アプリケーションプロセッサ20は、イメージセンサ10から入力された画像データをディスプレイに表示する表示処理、画像データを用いた生体認証処理、画像データをクラウドサーバ30に送信する送信処理などアプリケーションに対応する各種処理を実行する。
【0017】
[1-2.第1の実施形態に係る撮像装置の構成]
図1に示すように、撮像装置1は、固体撮像装置であるイメージセンサ10と、アプリケーションプロセッサ20とを備える。イメージセンサ10は、撮像部11、コントロール部12、信号処理部13、DSP(処理部ともいう)14、メモリ15、セレクタ16(出力部ともいう)を有する。
【0018】
撮像部11は、例えば、ズームレンズ、フォーカスレンズ、絞り等を備える光学系104と、フォトダイオードなどの受光素子を含む単位画素が2次元マトリクス状に配列した構成を備える画素アレイ部101とを備える。外部から入射した光は、光学系104を介することで、画素アレイ部101における受光素子が配列した受光面に結像される。画素アレイ部101の各単位画素は、その受光素子に入射した光を電変換することで、入射光の光量に応じた電荷を読出可能に蓄積する。
【0019】
また、撮像部11には、変換器(Analog to Digital Converter:以下、ADCという)17(例えば、
図2参照)が含まれている。ADC17は、撮像部11から読み出された単位画素毎のアナログの画素信号をデジタル値に変換することで、デジタルの画像データを生成し、生成した画像データを信号処理部13へ出力する。なお、ADC17には、電源電圧等から撮像部11を駆動するための駆動電圧を生成する電圧生成回路等が含まれてもよい。
【0020】
撮像部11が出力する画像データのサイズは、例えば、12M(3968×2976)ピクセルや、VGA(Video Graphics Array)サイズ(640×480ピクセルZ)等の複数のサイズの中から選択することができる。また、撮像部11が出力する画像データについては、例えば、RGB(赤、緑、青)のカラー画像とするか、又は、輝度のみの白黒画像とするかを選択することができる。これらの選択は、撮影モードの設定の一種として行うことができる。
【0021】
コントロール部12は、例えば、ユーザの操作や設定された動作モードに従い、イメージセンサ10内の各部を制御する。
【0022】
信号処理部13は、撮像部11から読み出されたデジタルの画像データ又はメモリ15から読み出されたデジタルの画像データ(以下、処理対象の画像データという)に対して種々の信号処理を実行する。例えば、処理対象の画像データがカラー画像である場合、信号処理部13は、この画像データをYUVの画像データやRGBの画像データなどにフォーマット変換する。また、信号処理部13は、例えば、処理対象の画像データに対し、ノイズ除去やホワイトバランス調整等の処理を必要に応じて実行する。その他、信号処理部13は、処理対象の画像データに対し、DSP14がその画像データを処理するのに必要となる種々の信号処理(前処理ともいう)を実行する。
【0023】
DSP14は、例えば、メモリ15に格納されているプログラムを実行することで、ディープニューラルネットワーク(DNN)を利用した機械学習によって作成された学習済みモデルを用いて各種処理を実行する処理部として機能する。例えば、DSP14は、メモリ15に記憶されている学習済みモデルに基づいた演算処理を実行することで、メモリ15に記憶されている辞書係数と画像データとを掛け合わせる処理を実行する。このような演算処理により得られた結果(演算結果)は、メモリ15及び/又はセレクタ16へ出力される。なお、演算結果には、学習済みモデルを用いた演算処理を実行することで得られた画像データや、その画像データから得られる各種情報(メタデータ)が含まれ得る。また、DSP14には、メモリ15へのアクセスを制御するメモリコントローラが組み込まれていてもよい。
【0024】
演算処理には、例えば、ニューラルネットワーク計算モデルの一例である学習済みの学習モデルを利用したものが存在する。例えば、DSP14は、学習済みの学習モデルを用いて、各種処理であるDSP処理を実行することもできる。例えば、DSP14は、メモリ15から画像データを読み出して学習済みの学習モデルに入力し、学習済みモデルの出力結果として顔の輪郭や顔画像の領域などである顔位置を取得する。そして、DSP14は、画像データのうち、抽出された顔位置に対して、マスキング、モザイク、アバター化などの処理を実行して、加工画像データを生成する。その後、DSP14は、生成した加工された画像データ(加工画像データ)をメモリ15に格納する。
【0025】
また、学習済みの学習モデルには、学習データを用いて、人物の顔位置の検出などを学習したDNNやサポートベクタマシンなどが含まれる。学習済みの学習モデルは、判別対象のデータである画像データが入力されると、判別結果すなわち顔位置を特定するアドレスなどの領域情報を出力する。なお、DSP14は、学習データを用いて学習モデル内の各種パラメータの重み付けを変更することで学習モデルを更新したり、複数の学習モデルを用意しておき演算処理の内容に応じて使用する学習モデルを変更したり、外部の装置から学習済みの学習モデルを取得または更新したりして、上記演算処理を実行することができる。
【0026】
なお、DSP14が処理対象とする画像データは、画素アレイ部101から通常に読み出された画像データであってもよいし、この通常に読み出された画像データの画素を間引くことでデータサイズが縮小された画像データであってもよい。若しくは、画素アレイ部101に対して画素を間引いた読み出しを実行することで通常よりも小さいデータサイズで読み出された画像データであってもよい。なお、ここでの通常の読み出しとは、画素を間引かずに読み出すことであってよい。
【0027】
このような学習モデルによる顔位置の抽出や加工処理により、画像データの顔位置がマスキングされた加工画像データ、画像データの顔位置がモザイク処理された加工画像データ、または、画像データの顔位置がキャラクターに置き換えられてアバター化された加工画像データなどを生成することができる。
【0028】
メモリ15は、撮像部11から出力された画像データ、信号処理部13で信号処理された画像データ、DSP14で得られた演算結果等を必要に応じて記憶する。また、メモリ15は、DSP14が実行する学習済みの学習モデルのアルゴリズムをプログラム及び辞書係数として記憶する。
【0029】
また、メモリ15は、信号処理部13から出力された画像データやDSP14から出力された演算処理済みの画像データ(以下、加工画像データという)に加え、ISO(International Organization for Standardization)感度、露光時間、フレームレート、フォーカス、撮影モード、切出し範囲等を記憶してもよい。すなわち、メモリ15は、ユーザにより設定される各種撮像情報を記憶し得る。
【0030】
セレクタ16は、例えばコントロール部12からの選択制御信号に従うことで、DSP14から出力された加工画像データやメモリ15に記憶されている画像データを選択的に出力する。例えば、セレクタ16は、メモリ15に格納されている加工画像データやメタデータ等の演算結果とのいずれかを、ユーザの設定等により選択して、アプリケーションプロセッサ20に出力する。
【0031】
例えば、セレクタ16は、加工画像データを出力する加工処理モードが選択されている場合は、DSP14が生成した加工画像データをメモリ15から読み出して、アプリケーションプロセッサへ出力する。一方、セレクタ16は、加工画像データを出力しない通常処理モードが選択されている場合は、信号処理部13から入力される画像データをアプリケーションプロセッサへ出力する。なお、セレクタ16は、第1の処理モードが選択されている場合、DSP14から出力された演算結果を直接アプリケーションプロセッサ20へ出力してもよい。
【0032】
以上のようにしてセレクタ16から出力された画像データや加工画像データは、表示やユーザインタフェースなどを処理するアプリケーションプロセッサ20に入力される。アプリケーションプロセッサ20は、例えば、CPU等を用いて構成され、オペレーティングシステムや各種アプリケーションソフトウエア等を実行する。このアプリケーションプロセッサ20には、GPU(Graphics Processing Unit)やベースバンドプロセッサなどの機能が搭載されていてもよい。アプリケーションプロセッサ20は、入力された画像データや演算結果に対し、必要に応じた種々処理を実行したり、ユーザへの表示を実行したり、所定のネットワーク40を介して外部のクラウドサーバ30へ送信したりする。
【0033】
なお、所定のネットワーク40には、例えば、インターネットや、有線LAN(Local Area Network)又は無線LANや、移動体通信網や、Bluetooth(登録商標)など、種々のネットワークを適用することができる。また、画像データや演算結果の送信先は、クラウドサーバ30に限定されず、単一で動作するサーバや、各種データを保管するファイルサーバや、携帯電話機等の通信端末など、通信機能を有する種々の情報処理装置(システム)であってよい。
【0034】
[1-3.第1の実施形態に係る画像加工の説明]
図2は、第1の実施形態に係る画像の加工を説明する図である。
図2に示すように、信号処理部13は、撮像部11から読み出された画像データに信号処理を行ってメモリ15に格納する。DSP14は、メモリ15から画像データを読み出して、学習済みの学習モデルを用いた顔検出を実行し、画像データから顔位置を検出する(処理1)。
【0035】
続いて、DSP14は、検出した顔位置に、マスキングやモザイクなどを施す加工処理(処理2)を実行して加工画像データを生成し、メモリ15に格納する。その後、セレクタ16は、ユーザの選択に応じて、顔領域が加工された加工画像データをアプリケーションプロセッサ20に出力する。
【0036】
[1-4.第1の実施形態に係る処理の流れ]
図3は、第1の実施形態に係る加工処理の流れを示すフローチャートである。
図3に示すように、撮像部11による撮像された画像データがメモリ15に格納される(S101)。
【0037】
そして、DSP14は、メモリ15から画像データを読み出し(S102)、学習済みの学習モデルを用いて、顔位置を検出する(S103)。続いて、DSP14は、画像データの顔位置を加工した加工画像データを生成して、メモリ15に格納する(S104)。
【0038】
その後、セレクタ16は、加工有りの処理モードである加工処理モードが選択されている場合(S105:Yes)、加工画像データをメモリ15から読み出して、アプリケーションプロセッサ20などの外部装置に出力する(S106)。
【0039】
一方、セレクタ16は、加工無しの処理モードである通常処理モードが選択されている場合(S105:No)、加工処理が施されてない画像データをメモリ15から読み出して、アプリケーションプロセッサ20などの外部装置に出力する(S107)。
【0040】
[1-5.作用・効果]
上述したように、イメージセンサ10は、加工が必要な場合でも1チップ内の閉じた領域で、加工処理を実行できるので、撮像された画像データがそのまま外部に出力されることを抑制でき、セキュリティの向上やプライバシーの保護を実現できる。また、イメージセンサ10は、加工の有無をユーザに選択させることができるので、用途に応じて処理モードを選択でき、ユーザの利便性を向上することができる。
【0041】
(2.第1の実施形態の変形例)
上記第1の実施形態では、顔位置にマスキング等を実行する例を説明したが、加工処理がこれに限定されるものではない。例えば、顔位置を抽出した部分画像を生成することもできる。
【0042】
図4は、第1の実施形態の変形例を説明する図である。
図4に示すように、信号処理部13は、撮像部11から読み出された画像データに信号処理を行ってメモリ15に格納する。DSP14は、メモリ15から画像データを読み出して、学習済みの学習モデルを用いた顔検出を実行し、画像データから顔位置を検出する(処理1)。
【0043】
続いて、DSP14は、検出した顔位置を抽出した部分画像データを生成し(処理2)、メモリ15に格納する。その後、セレクタ16は、ユーザの選択に応じて、顔の部分画像データをアプリケーションプロセッサ20に出力する。
【0044】
上述したように、イメージセンサ10は、加工が必要な場合でも1チップ内の閉じた領域で、部分画像データの抽出を実行できるので、人物の特定、顔認証、人物ごとの画像収集などアプリケーションプロセッサ20の処理に応じた画像を出力することができる。この結果、不要な画像の送信を抑制でき、セキュリティの向上やプライバシーの保護を実現でき、データ容量も削減することができる。
【0045】
(3.第2の実施形態)
[3-1.第2の実施形態に係る撮像装置の説明]
ところで、第1の実施形態では、DSP14が加工処理を実行する例を説明したが、これに限定されるものではなく、セレクタ16が加工処理を行うこともできる。そこで、第2の実施形態では、セレクタ16が加工処理を行う例を説明する。
【0046】
図5は、第2の実施形態に係る撮像装置を説明する図である。
図5に示すように、第2の実施形態に係るイメージセンサ10の構成は、第1の実施形態に係るイメージセンサ10と同様なので、詳細な説明は省略する。第1の実施形態と異なる点は、イメージセンサ10のDSP14が、学習モデルを用いて抽出した顔位置の位置情報をセレクタ16に通知する点である。
【0047】
例えば、
図5に示すように、信号処理部13は、撮像部11から読み出された画像データに信号処理を行ってメモリ15に格納する。DSP14は、メモリ15から画像データを読み出して、学習済みの学習モデルを用いた顔検出を実行し、画像データから顔位置を検出する(処理1)。そして、DSP14は、顔位置を特定するアドレスなどである位置情報をセレクタ16に通知する。
【0048】
セレクタ16は、加工処理がユーザにより選択されている場合に、画像データをメモリ15から読み出し、DSP14から取得した位置情報を用いて、加工対象となるROI(Region of Interest)を特定する。そして、セレクタ16は、特定したROIに対して、マスキングなどの加工処理を実行して加工画像データを生成し(処理2)、加工画像データをアプリケーションプロセッサ20に出力する。なお、セレクタ16は、加工画像データをメモリ15に格納することもできる。
【0049】
[3-2.第2の実施形態の第1の変形例]
上記第1の実施形態の変形例と同様、第2の実施形態においてもセレクタ16が顔位置を抽出した部分画像を生成することもできる。
【0050】
図6は、第2の実施形態の第1の変形例を説明する図である。
図6に示すように、信号処理部13は、撮像部11から読み出された画像データに信号処理を行ってメモリ15に格納する。DSP14は、メモリ15から画像データを読み出して、学習済みの学習モデルを用いた顔検出を実行し、画像データから顔位置を検出する(処理1)。そして、DSP14は、顔位置を特定するアドレスなどである位置情報をセレクタ16に通知する。
【0051】
続いて、セレクタ16は、加工処理がユーザにより選択されている場合に、画像データをメモリ15から読み出し、DSP14から取得した位置情報を用いて、加工対象となるROI(Region of Interest)を特定する。その後、セレクタ16は、画像データからROIに該当する部分を抽出した部分画像データを生成し(処理2)、アプリケーションプロセッサ20に出力する。
【0052】
[3-3.第2の実施形態の第2の変形例]
上述した第2の実施形態及びその第1の変形例では、メモリ15に格納されている画像データに対してセレクタ16がROIの抽出(切り出し又はトリミングともいう)や加工(マスキング等)などの処理2を行なう場合を例示したが、これに限定されず、例えば、セレクタ16が、信号処理部13から出力された画像データに対して直接、ROIの切り出しや加工(マスキング等)などの処理2を実行するように構成することも可能である。
【0053】
[3-4.第2の実施形態の第3の変形例]
また、撮像部11から読み出す画像データ自体を、ROIのみの部分画像データやROIを含まない画像データとすることも可能である。その場合、第1のフレームに対してDSP14で抽出された顔位置がコントロール部12へ通知され、コントロール部12が撮像部11に対し、第1のフレームの次のフレームである第2のフレームにおけるROIに相当する画素領域からの部分画像データの読み出しや、ROI以外の領域に相当する画素領域からの画像データの読み出しを実行する。
【0054】
なお、第2の実施形態及びその変形例において、セレクタ16は、マスキング等の加工処理に限らず、画像データのうちのROIに該当する領域だけを他の画像に書き換えて出力することもでき、画像データのうちのROIに該当する領域だけをメモリ15から読み出さずに出力することもできる。なお、この処理は、第1の実施形態におけるDSP14が実行することもできる。
【0055】
上述したように、イメージセンサ10は、セレクタ16で加工処理を実行できるので、加工処理が不要な場合のDSP14の処理負荷を低減できる。また、イメージセンサ10は、セレクタ16で加工した加工画像をメモリ15に保存せずに、出力することができるので、メモリ15の使用容量を削減することができ、メモリ15のコスト削減や小型化が図れる。この結果、イメージセンサ10全体の小型化を図ることもできる。
【0056】
(4.第3の実施形態)
[4-1.第3の実施形態に係る撮像装置の説明]
ところで、イメージセンサ10は、撮像部11からの画像データ全体の読み出しに先だって、小さい容量の画像データを先に読み出して、顔位置を検出することで、処理の高速化を図ることができる。そこで、第3の実施形態では、処理の高速化を図る例を説明する。
【0057】
図7は、第3の実施形態に係る撮像装置を説明する図である。
図7に示すように、第3の実施形態に係るイメージセンサ10の構成は、第1の実施形態に係るイメージセンサ10と同様なので、詳細な説明は省略する。ここでは、第1の実施形態と異なる点について説明する。
【0058】
例えば、
図7に示すように、撮像部11は、全単位画素から画像データを読み出す際に、全単位画素ではなく対象の単位画素から間引いて読み出し、間引いた小さい容量の画像データをメモリ15に格納する。これと並行して、撮像部11は、画像データの通常読み出しを実行する。
【0059】
そして、DSP14は、メモリ15から小さい容量の画像データを読み出して、学習済みの学習モデルを用いた顔検出を実行し、当該画像データから顔位置を検出する(処理1)。そして、DSP14は、顔位置を特定するアドレスなどである位置情報をセレクタ16に通知する。
【0060】
その後、セレクタ16は、撮像部11により読み出された通常の画像データが入力されると、DSP14から取得した位置情報を用いて、通常の画像データから加工対象となるROI(Region of Interest)を特定する。そして、セレクタ16は、ROIに該当する領域にマスキングなどの加工処理を実行して加工画像データを生成し(処理2)、加工画像データをアプリケーションプロセッサ20に出力する。
【0061】
[4-2.第3の実施形態に係る処理の流れ]
次に、
図7で説明した処理の流れを説明する。
図8は、第3の実施形態にかかる加工処理の流れを示すシーケンス図である。
図8に示すように、撮像部11は、画像を間引いて読み出し(S201)、間引いた小さい容量の画像データをメモリ15に格納する(S202)。その後、撮像部11は、通常の画像データの読み出しを継続する。
【0062】
これと並行して、DSP14は、DNN等を用いて、小さい容量の画像データから顔検出を実行し、顔位置を検出する(S203)。そして、DSP14は、検出した顔位置の位置情報をセレクタ16に通知する(S205とS206)。
【0063】
そして、セレクタ16は、DSP14から通知された顔位置の位置情報を保持する(S207)。その後、撮像部11は、通常の画像データの読み出しが完了すると、セレクタ16に出力し(S209とS210)、セレクタ16は、顔位置の位置情報を用いて、通常の画像データから顔位置を特定する(S211)。
【0064】
その後、セレクタ16は、顔位置を加工した加工画像データを生成し(S212)、加工画像データを外部装置に出力する(S213)。例えば、セレクタ16は、DNNで検出された顔の位置のみを切出して出力する。このように、イメージセンサ10は、通常の画像データの読み出しが完了する前に、顔位置を検出することができるので、画像データの読み出し後に遅滞なく加工処理を実行することができ、第1の実施形態と比べても、処理を高速化することができる。
【0065】
(5.イメージセンサのチップ構成)
次に、
図1に示すイメージセンサ10のチップ構成の例について、以下に図面を参照して詳細に説明する。
【0066】
図9は、本実施形態に係るイメージセンサのチップ構成例を示す模式図である。
図9に示すように、イメージセンサ10は、四角形の平板状の第1基板(ダイ)100と、同じく四角形の平板状の第2基板(ダイ)120とが貼り合わされた積層構造を有している。
【0067】
第1基板100と第2基板とのサイズは、例えば、同じであってよい。また、第1基板100と第2基板120とは、それぞれシリコン基板などの半導体基板であってよい。
【0068】
第1基板100には、
図1に示すイメージセンサ10の構成において、撮像部11の画素アレイ部101が配置される。また、第1基板100には、光学系104の一部又は全部がオンチップで設けられていてもよい。
【0069】
第2基板120には、
図1に示すイメージセンサ10の構成において、ADC17と、コントロール部12と、信号処理部13と、DSP14と、メモリ15と、セレクタ16とが配置されている。なお、第2基板120には、不図示のインタフェース回路やドライバ回路などが配置されていてもよい。
【0070】
第1基板100と第2基板120との貼り合わせは、第1基板100及び第2基板120をそれぞれチップに個片化した後、これら個片化された第1基板100及び第2基板120を貼り合わせる、いわゆるCoC(Chip on Chip)方式であってもよいし、第1基板100と第2基板120とのうち一方(例えば、第1基板100)をチップに個片化した後、この個片化された第1基板100を個片化前(すなわち、ウエハ状態)の第2基板120に貼り合わせる、いわゆるCoW(Chip on Wafer)方式であってもよいし、第1基板100と第2基板120とを共にウエハの状態で貼り合わせる、いわゆるWoW(Wafer on Wafer)方式であってもよい。
【0071】
第1基板100と第2基板120との接合方法には、例えば、プラズマ接合等を使用することができる。ただし、これに限定されず、種々の接合方法が用いられてよい。
【0072】
(6.レイアウト例)
図10及び
図11は、本実施形態に係るレイアウト例を説明するための図である。なお、
図10は、第1基板100のレイアウト例を示し、
図11は、第2基板120のレイアウト例を示す。
【0073】
[6-1.第1基板のレイアウト例]
図10に示すように、第1基板100には、
図1に示すイメージセンサ10の構成において、撮像部11の画素アレイ部101が配置されている。なお、第1基板100に光学系104の一部又は全部を搭載する場合には、画素アレイ部101と対応する位置に設けられる。
【0074】
画素アレイ部101は、第1基板100の4つの辺L101~L104のうち、1つの辺L101側に片寄って配置される。言い換えれば、画素アレイ部101は、その中心部O101が第1基板100の中心部O100よりも辺L101に近接するように、配置されている。なお、第1基板100における画素アレイ部101が設けられた面が長方形である場合、辺L101は、例えば、短い方の辺であってもよい。ただし、これに限定されず、長い方の辺に、画素アレイ部101が片寄って配置されてもよい。
【0075】
画素アレイ部101の4つの辺のうちの辺L101に近接する領域、言い換えれば、辺L101と画素アレイ部101との間の領域には、画素アレイ部101中の各単位画素101aを第2基板120に配置されたADC17に電気的に接続させるための配線として、第1基板100を貫通する複数の貫通配線(Through Silicon Via:以下、TSVという)が配列するTSVアレイ102が設けられている。このように、TSVアレイ102を画素アレイ部101が近接する辺L101に近接させることで、第2基板120において、ADC17等の各部を配置スペースを確保し易くすることができる。
【0076】
なお、TSVアレイ102は、辺L101と交わる2つの辺L103及びL104のうち一方の辺L104(ただし、辺L103であってもい)に近接する領域、言い換えれば、辺L104(又は、辺L103)と画素アレイ部101との間の領域にも設けられていてよい。
【0077】
第1基板100の4つの辺L101~L104のうち、画素アレイ部101が片寄って配置されていない辺L102~L103それぞれには、直線状に配列された複数のパッドよりなるパッドアレイ103が設けられている。パッドアレイ103に含まれるパッドには、例えば、画素アレイ部101やADC17などのアナログ回路用の電源電圧が印加されるパッド(電源ピンともいう)や、信号処理部13やDSP14やメモリ15やセレクタ16やコントロール部12等のデジタル回路用の電源電圧が印加されるパッド(電源ピンともいう)や、MIPI(Mobile Industry Processor Interface)やSPI(Serial Peripheral Interface)などのインタフェース用のパッド(信号ピンともいう)や、クロックやデータの入出力のためのパッド(信号ピンともいう)などが含まれている。各パッドは、例えば、外部の電源回路やインタフェース回路とワイヤを介して電気的に接続される。各パッドアレイ103とTSVアレイ102とは、パッドアレイ103中の各パッドに接続されたワイヤからの信号の反射の影響を無視できる程度に十分に離れていることが好ましい。
【0078】
[6-2.第2基板のレイアウト例]
一方、
図11に示すように、第2基板120には、
図1に示すイメージセンサ10の構成において、ADC17と、コントロール部12と、信号処理部13と、DSP14と、メモリ15とが配置されている。なお、第1のレイアウト例では、メモリ15がメモリ15Aとメモリ15Bとの2つの領域に分かれている。同様に、ADC17がADC17AとDAC(Digital-to-Analog Converter)17Bとの2つの領域に分かれている。DAC17Bは、ADC17AへAD変換用の参照電圧を供給する構成であり、広い意味でADC17の一部に含まれる構成である。また、
図10には図示されていないが、セレクタ16も第2基板120に配置されている。
【0079】
さらに、第2基板120には、第1基板100を貫通するTSVアレイ102中の各TSV(以下、単にTSVアレイ102とする)と接触することで電気的に接続された配線122と、第1基板100のパッドアレイ103における各パッドと電気的に接続される複数のパッドが直線状に配列されてなるパッドアレイ123とが設けられている。
【0080】
TSVアレイ102と配線122との接続には、例えば、第1基板100に設けられたTSVと第1基板100から第2基板120にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式や、第1基板100から第2基板120にかけて設けられた共通のTSVで接続する、いわゆるシェアードTSV方式などを採用することができる。ただし、これらに限定されず、例えば、第1基板100の接合面と第2基板120の接合面とにそれぞれ露出させた銅(Cu)同士を接合する、いわゆるCu-Cuボンディング方式など、種々の接続形態を採用することが可能である。
【0081】
第1基板100のパッドアレイ103における各パッドと、第2基板120のパッドアレイ123における各パッドとの接続形態は、例えば、ワイヤボンディングである。ただし、これに限定されず、スルーホールやキャスタレーション等の接続形態であってもよい。
【0082】
第2基板120のレイアウト例では、例えば、TSVアレイ102と接続される配線122の近傍を上流側とし、画素アレイ部101から読み出された信号の流れに沿って、上流から順に、ADC17Aと、信号処理部13と、DSP14とが配置されている。すなわち、画素アレイ部101から読み出された画素信号が最初に入力されるADC17Aが最も上流側である配線122の近傍に配置され、次いで、信号処理部13が配置され、配線122から最も遠い領域にDSP14が配置されている。このように、ADC17からDSP14までを信号の流れに沿って上流側から配置したレイアウトとすることで、各部を接続する配線を短縮することが可能となる。それにより、信号遅延の低減や信号の伝搬損失の低減やS/N比の向上や消費電力の低減が可能となる。
【0083】
また、コントロール部12は、例えば、上流側である配線122の近傍に配置される。
図10では、ADC17Aと信号処理部13との間にコントロール部12が配置されている。このようなレイアウトとすることで、コントロール部12が画素アレイ部101を制御する際の信号遅延の低減や信号の伝搬損失の低減やS/N比の向上や消費電力の低減が可能となる。また、アナログ回路用の信号ピンや電源ピンをアナログ回路の近傍(例えば、
図10中の下側)にまとめて配置し、残りのデジタル回路用の信号ピンや電源ピンをデジタル回路の近傍(例えば、
図10中の上側)にまとめて配置したり、アナログ回路用の電源ピンとデジタル回路用の電源ピンとを十分に離して配置したりなどが可能となるというメリットも存在する。
【0084】
また、
図10に示すレイアウトでは、DSP14が最も下流側であるADC17Aとは反対側に配置されている。このようなレイアウトとすることで、言い換えれば、第1基板100と第2基板120との積層方向(以下、単に上下方向という)において、画素アレイ部101と重畳しない領域に、DSP14を配置することが可能となる。
【0085】
このように、上下方向において画素アレイ部101とDSP14とが重畳しない構成とすることで、DSP14が信号処理を実行することで発生したノイズが画素アレイ部101に入り込むことを低減することが可能となる。その結果、DSP14を学習済みモデルに基づいた演算を実行する処理部として動作させた場合でも、画素アレイ部101へのDSP14の信号処理に起因したノイズの入り込みを低減することが可能となるため、品質の劣化が低減された画像を取得することが可能となる。
【0086】
なお、DSP14と信号処理部13とは、DSP14の一部又は信号線で構成された接続部14aによって接続される。また、セレクタ16は、例えば、DSP14の近傍に配置される。接続部14aをDSP14の一部とした場合、上下方向において一部のDSP14が画素アレイ部101と重なることとなるが、このような場合でも、全てのDSP14が上下方向において画素アレイ部101と重畳する場合と比較して、画素アレイ部101へのノイズの入り込みを低減することが可能である。
【0087】
メモリ15A及び15Bは、例えば、DSP14を3方向から囲むように配置される。このように、DSP14を囲むようにメモリ15A及び15Bを配置することで、メモリ15における各メモリ素子とDSP14との配線上の距離を平均化しつつ全体的に短くすることが可能となる。それにより、DSP14がメモリ15へアクセスする際の信号遅延や信号の伝搬損失や消費電力を低減することが可能となる。
【0088】
パッドアレイ123は、例えば、第1基板100のパッドアレイ103と上下方向において対応する第2基板120上の位置に配置される。ここで、パッドアレイ123に含まれるパッドのうち、ADC17Aの近傍に位置するパッドは、アナログ回路(主にADC17A)用の電源電圧やアナログ信号の伝搬に使用される。一方、コントロール部12や信号処理部13やDSP14やメモリ15A及び15Bの近傍に位置するパッドは、デジタル回路(主に、コントロール部12、信号処理部13、DSP14、メモリ15A及び15B)用の電源電圧やデジタル信号の伝搬に使用される。このようなパッドレイアウトとすることで、各パッドと各部とを接続する配線上の距離を短くすることが可能となる。それにより、信号遅延の低減や信号や電源電圧の伝搬損失の低減やS/N比の向上や消費電力の低減が可能となる。
【0089】
(7.その他の実施形態)
上述した各実施形態に係る処理は、上記各実施形態以外にも種々の異なる形態にて実施されてよい。
【0090】
例えば、加工処理は、上記実施形態で説明した以外にも、学習モデルに学習させた内容に応じた様々な処理を実行することができる。例えば、顔全体を抽出するだけでなく、顔の輪郭を抽出したり、目や鼻などの一部分だけを抽出したり、撮像装置1の所有者や特定の人物などを抽出したり、家の画像から表札や窓などの一部分を抽出したりすることもできる。また、室内の画像データに写り込む室外部分を抽出したり、人物と動物とを区別して抽出したり、画像データから窓の部分を抽出したりすることもできる。また、加工処理の一例には、顔などの抽出された特定領域だけを読み出したり、特定領域だけを読み出さなかったり、特定領域を黒く塗りつぶしたり、特定領域だけを切り抜いた画像を読み出したりする処理も含まれる。また、矩形領域に限らず、三角形などの任意の領域を抽出することもできる。また、マスキング処理やモザイク処理などの加工処理は、1つの処理に限らず、複数の処理を組み合わせることもできる。また、顔位置などの抽出は、DSP14に限らず、信号処理部13で実行することもできる。
【0091】
上記実施形態では、DNNで学習した学習モデルを例示したが、DNN以外にも、RNN(Recurrent Neural Networks)やCNN(Convolutional Neural Network)など様々なニューラルネットワークを用いることができる。また、DNNなどを用いた学習モデルに限らず、決定木やサポートベクタマシンなどの他の様々な機械学習で学習した学習モデルを用いることもできる。
【0092】
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
【0093】
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、
図1に示したコントロール部12と信号処理部13は統合されてもよい。
【0094】
(8.移動体への応用例)
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
【0095】
図12は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
【0096】
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。
図12に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
【0097】
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
【0098】
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
【0099】
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
【0100】
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
【0101】
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
【0102】
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
【0103】
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
【0104】
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
【0105】
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。
図12の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
【0106】
図13は、撮像部12031の設置位置の例を示す図である。
【0107】
図13では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
【0108】
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
【0109】
なお、
図13には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
【0110】
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
【0111】
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
【0112】
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
【0113】
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
【0114】
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。撮像部12031等に本開示に係る技術を適用することにより、撮像部12031等を小型化することが可能となるため、車両12100のインテリアやエクステリアの設計が容易となる。また、撮像部12031等に本開示に係る技術を適用することにより、ノイズの低減されたクリアな画像を取得することが可能となるため、より見やすい撮影画像をドライバに提供することができる。それにより、ドライバの疲労を軽減することが可能になる。
【0115】
(9.内視鏡手術システムへの応用例)
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
【0116】
図14は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
【0117】
図14では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
【0118】
内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
【0119】
鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
【0120】
カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
【0121】
CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
【0122】
表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
【0123】
光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
【0124】
入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
【0125】
処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
【0126】
なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
【0127】
また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
【0128】
また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
【0129】
図15は、
図14に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
【0130】
カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
【0131】
レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
【0132】
撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
【0133】
また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
【0134】
駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
【0135】
通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
【0136】
また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
【0137】
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
【0138】
カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
【0139】
通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
【0140】
また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
【0141】
画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
【0142】
制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
【0143】
また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
【0144】
カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
【0145】
ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
【0146】
以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、カメラヘッド11102の撮像部11402等に適用され得る。カメラヘッド11102に本開示に係る技術を適用することにより、カメラヘッド11102等を小型化することが可能となるため、内視鏡手術システム11000をコンパクト化が可能となる。また、カメラヘッド11102等に本開示に係る技術を適用することにより、ノイズの低減されたクリアな画像を取得することが可能となるため、より見やすい撮影画像を術者に提供することができる。それにより、術者の疲労を軽減することが可能になる。
【0147】
なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
【0148】
(10.WSI(Whole Slide Imaging)システムへの応用例)
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、医師等が患者から採取された細胞や組織を観察して病変を診断する病理診断システムやその支援システム等(以下、診断支援システムと称する)に適用されてもよい。この診断支援システムは、デジタルパソロジー技術を利用して取得された画像に基づいて病変を診断又はその支援をするWSI(Whole Slide Imaging)システムであってもよい。
【0149】
図16は、本開示に係る技術が適用される診断支援システム5500の概略的な構成の一例を示す図である。
図16に示すように、診断支援システム5500は、1以上の病理システム5510を含む。さらに医療情報システム5530と、導出装置5540とを含んでもよい。
【0150】
1以上の病理システム5510それぞれは、主に病理医が使用するシステムであり、例えば研究所や病院に導入される。各病理システム5510は、互いに異なる病院に導入されてもよく、それぞれWAN(Wide Area Network)(インターネットを含む)やLAN(Local Area Network)や公衆回線網や移動体通信網などの種々のネットワークを介して医療情報システム5530及び導出装置5540に接続される。
【0151】
各病理システム5510は、顕微鏡5511と、サーバ5512と、表示制御装置5513と、表示装置5514とを含む。
【0152】
顕微鏡5511は、光学顕微鏡の機能を有し、ガラススライドに収められた観察対象物を撮像し、デジタル画像である病理画像を取得する。観察対象物とは、例えば、患者から採取された組織や細胞であり、臓器の肉片、唾液、血液等であってよい。
【0153】
サーバ5512は、顕微鏡5511によって取得された病理画像を図示しない記憶部に記憶、保存する。また、サーバ5512は、表示制御装置5513から閲覧要求を受け付けた場合に、図示しない記憶部から病理画像を検索し、検索された病理画像を表示制御装置5513に送る。
【0154】
表示制御装置5513は、ユーザから受け付けた病理画像の閲覧要求をサーバ5512に送る。そして、表示制御装置5513は、サーバ5512から受け付けた病理画像を、液晶、EL(Electro‐Luminescence)、CRT(Cathode Ray Tube)などを用いた表示装置5514に表示させる。なお、表示装置5514は、4Kや8Kに対応していてもよく、また、1台に限られず、複数台であってもよい。
【0155】
ここで、観察対象物が臓器の肉片等の固形物である場合、この観察対象物は、例えば、染色された薄切片であってよい。薄切片は、例えば、臓器等の検体から切出されたブロック片を薄切りすることで作製されてもよい。また、薄切りの際には、ブロック片がパラフィン等で固定されてもよい。
【0156】
薄切片の染色には、HE(Hematoxylin-Eosin)染色などの組織の形態を示す一般染色や、IHC(Immunohistochemistry)染色などの組織の免疫状態を示す免疫染色など、種々の染色が適用されてよい。その際、1つの薄切片が複数の異なる試薬を用いて染色されてもよいし、同じブロック片から連続して切り出された2以上の薄切片(隣接する薄切片ともいう)が互いに異なる試薬を用いて染色されてもよい。
【0157】
顕微鏡5511は、低解像度で撮像するための低解像度撮像部と、高解像度で撮像するための高解像度撮像部とを含み得る。低解像度撮像部と高解像度撮像部とは、異なる光学系であってもよいし、同一の光学系であってもよい。同一の光学系である場合には、顕微鏡5511は、撮像対象に応じて解像度が変更されてもよい。
【0158】
観察対象物が収容されたガラススライドは、顕微鏡5511の画角内に位置するステージ上に載置される。顕微鏡5511は、まず、低解像度撮像部を用いて画角内の全体画像を取得し、取得した全体画像から観察対象物の領域を特定する。続いて、顕微鏡5511は、観察対象物が存在する領域を所定サイズの複数の分割領域に分割し、各分割領域を高解像度撮像部により順次撮像することで、各分割領域の高解像度画像を取得する。対象とする分割領域の切替えでは、ステージを移動させてもよいし、撮像光学系を移動させてもよいし、それら両方を移動させてもよい。また、各分割領域は、ガラススライドの意図しない滑りによる撮像漏れ領域の発生等を防止するために、隣接する分割領域との間で重複していてもよい。さらに、全体画像には、全体画像と患者とを対応付けておくための識別情報が含まれていてもよい。この識別情報は、例えば、文字列やQRコード(登録商標)等であってよい。
【0159】
顕微鏡5511で取得された高解像度画像は、サーバ5512に入力される。サーバ5512は、各高解像度画像をより小さいサイズの部分画像(以下、タイル画像と称する)に分割する。例えば、サーバ5512は、1つの高解像度画像を縦横10×10個の計100個のタイル画像に分割する。その際、隣接する分割領域が重複していれば、サーバ5512は、テンプレートマッチング等の技法を用いて互いに隣り合う高解像度画像にスティッチング処理を施してもよい。その場合、サーバ5512は、スティッチング処理により貼り合わされた高解像度画像全体を分割してタイル画像を生成してもよい。ただし、高解像度画像からのタイル画像の生成は、上記スティッチング処理の前であってもよい。
【0160】
また、サーバ5512は、タイル画像をさらに分割することで、より小さいサイズのタイル画像を生成し得る。このようなタイル画像の生成は、最小単位として設定されたサイズのタイル画像が生成されるまで繰り返されてよい。
【0161】
このように最小単位のタイル画像を生成すると、サーバ5512は、隣り合う所定数のタイル画像を合成することで1つのタイル画像を生成するタイル合成処理を、全てのタイル画像に対して実行する。このタイル合成処理は、最終的に1つのタイル画像が生成されるまで繰り返され得る。このような処理により、各階層が1つ以上のタイル画像で構成されたピラミッド構造のタイル画像群が生成される。このピラミッド構造では、ある層のタイル画像とこの層とは異なる層のタイル画像との画素数は同じであるが、その解像度が異なっている。例えば、2×2個の計4つのタイル画像を合成して上層の1つのタイル画像を生成する場合、上層のタイル画像の解像度は、合成に用いた下層のタイル画像の解像度の1/2倍となっている。
【0162】
このようなピラミッド構造のタイル画像群を構築することによって、表示対象のタイル画像が属する階層次第で、表示装置に表示される観察対象物の詳細度を切り替えることが可能となる。例えば、最下層のタイル画像が用いられる場合には、観察対象物の狭い領域を詳細に表示し、上層のタイル画像が用いられるほど観察対象物の広い領域が粗く表示されるようにすることができる。
【0163】
生成されたピラミッド構造のタイル画像群は、例えば、各タイル画像を一意に識別可能な識別情報(タイル識別情報と称する)とともに、不図示の記憶部に記憶される。サーバ5512は、他の装置(例えば、表示制御装置5513や導出装置5540)からタイル識別情報を含むタイル画像の取得要求を受け付けた場合に、タイル識別情報に対応するタイル画像を他の装置へ送信する。
【0164】
なお、病理画像であるタイル画像は、焦点距離や染色条件等の撮像条件毎に生成されてもよい。撮像条件毎にタイル画像が生成される場合、特定の病理画像とともに、特定の撮像条件と異なる撮像条件に対応する他の病理画像であって、特定の病理画像と同一領域の他の病理画像を並べて表示してもよい。特定の撮像条件は、閲覧者によって指定されてもよい。また、閲覧者に複数の撮像条件が指定された場合には、各撮像条件に対応する同一領域の病理画像が並べて表示されてもよい。
【0165】
また、サーバ5512は、ピラミッド構造のタイル画像群をサーバ5512以外の他の記憶装置、例えば、クラウドサーバ等に記憶してもよい。さらに、以上のようなタイル画像の生成処理の一部又は全部は、クラウドサーバ等で実行されてもよい。
【0166】
表示制御装置5513は、ユーザからの入力操作に応じて、ピラミッド構造のタイル画像群から所望のタイル画像を抽出し、これを表示装置5514に出力する。このような処理により、ユーザは、観察倍率を変えながら観察対象物を観察しているような感覚を得ることができる。すなわち、表示制御装置5513は仮想顕微鏡として機能する。ここでの仮想的な観察倍率は、実際には解像度に相当する。
【0167】
なお、高解像度画像の撮像方法は、どの様な方法を用いてもよい。ステージの停止、移動を繰り返しながら分割領域を撮像して高解像度画像を取得してもよいし、所定の速度でステージを移動しながら分割領域を撮像してストリップ上の高解像度画像を取得してもよい。また、高解像度画像からタイル画像を生成する処理は必須の構成ではなく、スティッチング処理により貼り合わされた高解像度画像全体の解像度を段階的に変化させることで、解像度が段階的に変化する画像を生成してもよい。この場合でも、広いエリア域の低解像度画像から狭いエリアの高解像度画像までを段階的にユーザに提示することが可能である。
【0168】
医療情報システム5530は、いわゆる電子カルテシステムであり、患者を識別する情報、患者の疾患情報、診断に用いた検査情報や画像情報、診断結果、処方薬などの診断に関する情報を記憶する。例えば、ある患者の観察対象物を撮像することで得られる病理画像は、一旦、サーバ5512を介して保存された後、表示制御装置5513によって表示装置5514に表示され得る。病理システム5510を利用する病理医は、表示装置5514に表示された病理画像に基づいて病理診断を行う。病理医によって行われた病理診断結果は、医療情報システム5530に記憶される。
【0169】
導出装置5540は、病理画像に対する解析を実行し得る。この解析には、機械学習によって作成された学習モデルを用いることができる。導出装置5540は、当該解析結果として、特定領域の分類結果や組織の識別結果等を導出してもよい。さらに、導出装置5540は、細胞情報、数、位置、輝度情報等の識別結果やそれらに対するスコアリング情報等を導出してもよい。導出装置5540によって導出されたこれらの情報は、診断支援情報として、病理システム5510の表示装置5514に表示されてもよい。
【0170】
なお、導出装置5540は、1台以上のサーバ(クラウドサーバを含む)等で構成されたサーバシステムであってもよい。また、導出装置5540は、病理システム5510内の例えば表示制御装置5513又はサーバ5512に組み込まれた構成であってもよい。すなわち、病理画像に対する各種解析は、病理システム5510内で実行されてもよい。
【0171】
本開示に係る技術は、以上説明した構成のうち、例えば、顕微鏡5511に好適に適用され得る。具体的には、顕微鏡5511における低解像度撮像部及び/又は高解像度撮像部に本開示に係る技術を適用することができる。本開示に係る技術を低解像度撮像部に適用することで、全体画像における観察対象物の領域の特定を低解像度撮像部内で実行可能となる。また、本開示に係る技術を高解像度撮像部に適用することで、タイル画像の生成処理や病理画像に対する解析処理の一部又は全部を、高解像度撮像部内で実行可能となる。それにより、病理画像の取得から病理画像の解析までの処理の一部又は全部を顕微鏡5511内においてオンザフライで実行可能となるため、より迅速且つ的確な診断支援情報の出力が可能となる。例えば、特定組織の部分抽出や、個人情報に配慮しての画像の一部出力などを顕微鏡5511内で実行可能となり、撮像時間の短縮化や、データ量の縮小化や、病理医のワークフローの時間短縮等を実現することが可能となる。
【0172】
なお、上記で説明した構成は、診断支援システムに限らず、共焦点顕微鏡や蛍光顕微鏡、ビデオ顕微鏡等の生物顕微鏡全般にも適用され得る。ここで、観察対象物は、培養細胞や受精卵、精子等の生体試料、細胞シート、三次元細胞組織等の生体材料、ゼブラフィッシュやマウス等の生体であってもよい。また、観察対象物は、ガラススライドに限らず、ウェルプレートやシャーレ等に格納された状態で観察されることもできる。
【0173】
さらに、顕微鏡を利用して取得した観察対象物の静止画像から動画像が生成されてもよい。例えば、所定期間連続的に撮像した静止画像から動画像を生成してもよいし、所定の間隔を空けて撮像した静止画像から画像シーケンスを生成してもよい。このように、静止画像から動画像を生成することで、がん細胞や神経細胞、心筋組織、精子等の拍動や伸長、遊走等の動きや培養細胞や受精卵の分裂過程など、観察対象物の動的な特徴を機械学習を用いて解析することが可能となる。
【0174】
また、上述してきた各実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
【0175】
また、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
【0176】
なお、本技術は以下のような構成も取ることができる。
(1)
画像データを取得する撮像部と、
前記画像データまたは前記画像データに基づくデータに対して、ニューラルネットワーク計算モデルに基づいて特定領域を抽出する処理を実行する処理部と、
前記特定領域に基づいて加工された画像データ、又は、前記特定領域に基づいて前記撮像部から読み出された画像データを出力する出力部と、
を有する固体撮像装置。
(2)
前記処理部は、学習済みの学習モデルを用いた演算処理によって、前記画像データから加工対象となる前記特定領域を抽出する
前記(1)記載の固体撮像装置。
(3)
前記処理部は、前記特定領域に対して、マスキング処理、モザイク処理、または、アバター化処理を実行して、前記加工された画像データを生成する
前記(1)または(2)に記載の固体撮像装置。
(4)
前記処理部は、前記画像データから前記特定領域に該当する部分画像データを抽出する
前記(1)に記載の固体撮像装置。
(5)
前記出力部は、前記部分画像データを外部へ出力する
前記(4)に記載の固体撮像装置。
(6)
前記出力部は、前記処理部で抽出された前記特定領域の部分画像データを前記加工された画像データ又は前記撮像部から読み出された前記画像データとして外部へ出力する
前記(1)から(5)のいずれかに記載の固体撮像装置。
(7)
前記出力部は、前記処理部で抽出された前記特定領域以外の画像データを前記加工された画像データ又は前記撮像部から読み出された前記画像データとして外部へ出力する
前記(1)から(5)のいずれかに記載の固体撮像装置。
(8)
前記撮像部からの画像データの読み出しを制御する制御部をさらに備え、
前記制御部は、前記特定領域に該当する部分画像データを前記撮像部から読み出す
前記(1)から(7)のいずれかに記載の固体撮像装置。
(9)
前記撮像部からの画像データの読み出しを制御する制御部をさらに備え、
前記制御部は、前記特定領域を含まない画像データを前記撮像部から読み出す
前記(1)から(7)のいずれかに記載の固体撮像装置。
(10)
前記特定領域は、人物の顔、目、鼻、口、窓及び表札のうち少なくとも1つを含む領域である
前記(1)から(9)のいずれかに記載の固体撮像装置。
(11)
前記撮像部は、撮像された画像の読み出しの際に、読み出し対象の単位画素を間引いて読み出し、前記画像データを取得し、
前記処理部は、前記間引かれた画像データから前記特定領域を抽出する
前記(1)から(10)のいずれかに記載の固体撮像装置。
(12)
画像データを取得する撮像部と、前記画像データに基づくデータに対して、ニューラルネットワーク計算モデルに基づいて特定領域を抽出する処理を実行する処理部と、前記特定領域に基づいて加工された前記画像データ、又は、前記特定領域に基づいて前記撮像部から読み出された画像データを出力する出力部とを有する固体撮像装置と、
前記固体撮像装置から出力された前記加工された画像データ、又は、前記撮像部から読み出された画像データに対してアプリケーションによる処理を実行する制御装置と
を有する電子機器。
【符号の説明】
【0177】
1 撮像装置
10 イメージセンサ
11 撮像部
12 コントロール部
13 信号処理部
14 DSP
15 メモリ
16 セレクタ
20 アプリケーションプロセッサ
30 クラウドサーバ