IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 厦▲門▼大学の特許一覧 ▶ 嘉庚創新実験室の特許一覧

<>
  • 特表-LED構造性能の予測方法 図1
  • 特表-LED構造性能の予測方法 図2
  • 特表-LED構造性能の予測方法 図3
  • 特表-LED構造性能の予測方法 図4
  • 特表-LED構造性能の予測方法 図5
  • 特表-LED構造性能の予測方法 図6
  • 特表-LED構造性能の予測方法 図
  • 特表-LED構造性能の予測方法 図7
  • 特表-LED構造性能の予測方法 図
  • 特表-LED構造性能の予測方法 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-09-26
(54)【発明の名称】LED構造性能の予測方法
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240918BHJP
   G06N 3/08 20230101ALI20240918BHJP
   G06N 3/0464 20230101ALI20240918BHJP
   G06N 3/044 20230101ALI20240918BHJP
   G06F 18/214 20230101ALI20240918BHJP
   G06F 18/10 20230101ALI20240918BHJP
   H01L 33/00 20100101ALI20240918BHJP
【FI】
G06N20/00
G06N3/08
G06N3/0464
G06N3/044
G06F18/214
G06F18/10
H01L33/00 Z
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024531558
(86)(22)【出願日】2021-10-15
(85)【翻訳文提出日】2024-02-05
(86)【国際出願番号】 CN2021124176
(87)【国際公開番号】W WO2023060580
(87)【国際公開日】2023-04-20
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.PYTHON
(71)【出願人】
【識別番号】504458976
【氏名又は名称】厦▲門▼大学
(71)【出願人】
【識別番号】524030569
【氏名又は名称】嘉庚創新実験室
(74)【代理人】
【識別番号】100205936
【弁理士】
【氏名又は名称】崔 海龍
(74)【代理人】
【識別番号】100132805
【弁理士】
【氏名又は名称】河合 貴之
(72)【発明者】
【氏名】黄 凱
(72)【発明者】
【氏名】江 瑩
(72)【発明者】
【氏名】姜 卓頴
(72)【発明者】
【氏名】李 琳
(72)【発明者】
【氏名】李 澄
(72)【発明者】
【氏名】李 金釵
(72)【発明者】
【氏名】張 栄
(72)【発明者】
【氏名】康 俊勇
【テーマコード(参考)】
5F241
【Fターム(参考)】
5F241AA31
5F241CA05
5F241CA40
5F241CB01
(57)【要約】
本発明は、半導体電子デバイスの技術分野に関し、LED構造性能の予測方法を提供し、主にLED構造の入力特徴パラメータ及び出力特徴パラメータを収集、抽出し、且つ対応するデータセットを構築し、既知の基準に基づいてデータセット中のデータを前処理し、機械学習アルゴリズムを利用してモデルを構築し、且つこのモデルに対して構造パラメータ設定及び初期化トレーニングを行い、前処理された前述データセットを活用して構造パラメータ初期化トレーニング後のモデルに対してトレーニング最適化を行い、さらに予測モデルを得、予測対象のLED構造の入力特徴パラメータのテストデータを該予測モデルに入力し、さらに該予測対象のLED構造の出力特徴パラメータの予測値を取得する。これにより、LED構造の性能を迅速に予測でき、予測時間が速く且つ予測精度が高い。
【選択図】図3
【特許請求の範囲】
【請求項1】
LED構造性能の予測方法であって、
LED構造の入力特徴パラメータ及び対応する出力特徴パラメータのデータを収集、抽出し、前記データを生データセット及び予測データセットに分けるステップと、
前記生データセット及び前記予測データセットを前処理し、前処理された生データセット及び前処理された予測データセットを取得するステップと、
機械学習アルゴリズムを活用して初期モデルを構築するステップと、
前記初期モデルに対して構造パラメータ設定を行い、且つ前記構造パラメータに対して初期化トレーニングを行い、初期化されたモデルを取得するステップと、
前記初期化されたモデルを最適化し、前記前処理された生データセットを活用して前記初期化されたモデルに対してトレーニングを行うことで、対応するネットワーク重み及びバイアスを取得し、さらに予測モデルを得るステップと、
予測し、予測対象のLED構造の入力特徴パラメータにおける前記前処理されたテストデータセットを前記予測モデルに入力し、さらに前記予測対象のLED構造の出力特徴パラメータの予測値を取得するステップと、を含むことを特徴とするLED構造性能の予測方法。
【請求項2】
前記LED構造の入力特徴パラメータは、前記LED構造における量子井戸領域のバリヤー層及びポテンシャル井戸層の構造、組成、含有量、及び電子ブロック層の構造、組成、含有量を含み、前記対応する出力特徴パラメータは、前記LED構造の内部量子効率、光出力パワー及びその対応する電流密度を含むことを特徴とする請求項1に記載のLED構造性能の予測方法。
【請求項3】
前記機械学習アルゴリズムは、少なくとも深層学習アルゴリズム、多層パーセプトロン、決定木、線形回帰、勾配ブースティング回帰のうちの1つであることを特徴とする請求項1に記載のLED構造性能の予測方法。
【請求項4】
前記深層学習アルゴリズムは、少なくとも畳み込みニューラルネットワーク、リカレントニューラルネットワーク、自己符号化、深層信念ネットワークのうちの1つであることを特徴とする請求項3に記載のLED構造性能の予測方法。
【請求項5】
前記LED構造は、InGaN系可視光LED、AlGaN系深紫外LED、GaAs系LED、GaAlAs系LED、GaP系LEDを含むことを特徴とする請求項1に記載のLED構造性能の予測方法。
【請求項6】
前記LED構造の入力特徴パラメータ及び対応する出力特徴パラメータのデータは、前記LED構造のタイプに応じて選別し、調整することができることを特徴とする請求項1に記載のLED構造性能の予測方法。
【請求項7】
前記生データセット及び前記予測データセットに対して前処理を行う方法は、
既知の物理的知識及びデータ間の関係に基づいて前記LED構造の入力特徴パラメータを選別する特徴選別ステップと、
選別された前記特徴データに対して正規化処理を行うデータ処理ステップと、
処理後の前記特徴データのサイズを組み換えるデータ組み換えステップと、を含むことを特徴とする請求項1に記載のLED構造性能の予測方法。
【請求項8】
選別された前記特徴データに対して正規化処理を行った後、前記特徴パラメータのデータ平均値は0、標準偏差は1であることを特徴とする請求項7に記載のLED構造性能の予測方法。
【請求項9】
前記初期化されたモデルを最適化するステップにおいて、平均二乗誤差を採用して前記初期化されたモデルのトレーニング結果を判定し、前記平均二乗誤差式は、
【数1】
であり、ここで、Predict、Actualはそれぞれi番目サンプルの予測値、真値であることを特徴とする請求項1に記載のLED構造性能の予測方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、半導体電子デバイスの技術分野に関し、特に機械学習アルゴリズムモデルを活用してLED(発光ダイオード)構造性能を予測する方法に関する。
【背景技術】
【0002】
発光ダイオード(Light Emitting Diode、LED)は、高効率、省エネ、環境保護、長寿命などの特徴を有し、交通指示、建築装飾、表示照明などの多くの分野で広く用いられている。中でも、半導体材料はInGaNやGaNが急速に発展し、急速に商業化が図られている。
【0003】
我が国は、1994年に「GaN系材料と青緑色光デバイスの研究」課題を設立してから現在まで、InGaN、GaN系LEDは、既に一般照明、LCDバックライト、屋外表示、景観照明、及び自動車用照明などの分野に幅広く応用されている。GaN系LED製品は、固体照明の分野で有望視されており、白熱灯及び蛍光などのエネルギー効率の高い代替品である。
【0004】
高性能LEDの構造設計は、通常、材料の合成開発、新規構造設計、新規製造技術などの観点から、LEDの性能の最適化結果の良否を、以前のシミュレーションや実験結果と対比して確認する試行錯誤的な手法を用いて行われる。デバイスの性能最適化は、一般に、長い時間を要し、時間、材料、設備、及び人手のような大量のリソースを消費する。
【0005】
機械学習は、確率論的知識、統計学的知識、近似理論的知識、及び複雑なアルゴリズム知識を包含し、コンピュータをツールとして用いて実際のリアルタイムの人間の学習方式をシミュレーションすることに取り組み、既存の内容を知識構造に分割して学習効率を効果的に向上させることを目的とする多学科の相互活用の一環である。機械学習は、コンピュータを用いて人間の学習活動をシミュレーション又は実現する方法を研究する科学であり、人工知能の中で最も知能的な特徴を有し、最も初期的な研究分野の1つである。機械学習は、人工知能及びパターン認識分野の共同研究ホットスポットであり、その理論及び方法は、工学と科学の分野における複雑な問題を解決するために広く用いられている。現在のインターネット技術が急速に発展している時代に、人工知能における機械学習手法をLEDの構造設計に適用すると、実現できる効率向上は幾何学的なレベルで倍増する可能性がある。
【0006】
高性能LEDの構造設計において、どのように機械学習手法を用いて設計されたLED構造の性能を予測し、且つこの予測結果を用いて、効率のより良い電子デバイスを得るために、該LED構造の設計案を適時に調整するかが、当業者にとって積極的に解決すべき課題の1つとなっている。
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明は、上述した従来技術における高性能LED構造設計におけるその構造性能予測の不足を解決するために、LED構造性能の予測方法を提供し、該方法は、機械学習における異なるアルゴリズムモデル(ニューラルネットワークモデル、決定木、MLPなど)を利用することによって、高性能LED構造性能の予測を実現し、且つ該予測結果の指示に基づいてLED構造の設計案を適時に調整することにより、該高性能LEDの構造設計が全体的により優れた発光性能を有する。
【課題を解決するための手段】
【0008】
一実施例において、LED構造性能の予測方法であって、LED構造の入力特徴パラメータ及び対応する出力特徴パラメータのデータを収集、抽出し、前記データを生データセット及び予測データセットに分けるステップ(S1)と、前記生データセット及び前記予測データセットを前処理し、前処理された生データセット及び前処理された予測データセットを取得するステップ(S2)と、機械学習アルゴリズムを活用して初期モデルを構築するステップ(S3)と、前記初期モデルに対して構造パラメータ設定を行い、且つ前記構造パラメータに対して初期化トレーニングを行い、初期化されたモデルを取得するステップ(S4)と、前記初期化されたモデルを最適化し、前記前処理された生データセットを活用して前記初期化されたモデルに対してトレーニングを行うことで、対応するネットワーク重み及びバイアスを取得し、さらに予測モデルを得るステップ(S5)と、予測し、予測対象のLED構造の入力特徴パラメータにおける前記前処理されたテストデータセットを前記予測モデルに入力し、さらに前記予測対象のLED構造の出力特徴パラメータの予測値を取得するステップ(S6)と、を含む。
【0009】
一実施例において、前記LED構造の入力特徴パラメータは、前記LED構造における量子井戸領域のバリヤー層及びポテンシャル井戸層の構造、組成、含有量、及び電子ブロック層の構造、組成、含有量を含み、前記LED構造の出力特徴パラメータの予測値は、前記LED構造の内部量子効率(IQE)、光出力パワー及びその対応する電流密度、IQE Droop(内部量子効率ドループ)、ピーク電流密度などを含む。
【0010】
一実施例において、前記機械学習アルゴリズムは、深層学習アルゴリズム、多層パーセプトロン(MLP)、決定木(Decision Tree)、線形回帰(Liner)、勾配ブースティング回帰(GBR)のうちの1つを含んでもよいがこれらに限定されない。ここで、深層学習アルゴリズムは、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(KNN)、自己符号化(Auto encoder)、深層信念ネットワーク(DBN)のうちの1つを含んでもよいがこれらに限定されない。
【0011】
一実施例において、前記予測方法を利用してLED構造性能を予測する過程において、前記LED構造は、InGaN系可視光LED、AlGaN系深紫外LED、GaAs系LED、GaAlAs系LED、GaP系LEDを含むがこれらに限定されない。なお、本発明に記載のLED構造は、PN接合と量子井戸層とを含むLED構造である。
【0012】
LED構造は、他の光電デバイス構造と比較してより複雑であるため、構造特徴パラメータを選択する際に構造特徴の重要性及び実際の要件に応じて選択するべきである。つまり、前記LED構造の入力特徴パラメータ及び対応する出力特徴パラメータのデータは、前記LED構造の異なるタイプに応じて選別、調整することができる。換言すれば、選択されたLED構造の入力特徴パラメータ及び出力特徴パラメータは、必要に応じて、削除又は増幅してもよい。
【0013】
一実施例において、前記生データセット及び前記予測データセットに対して前処理を行う方法は、既知の物理的知識及びデータ間の関係に基づいて前記LED構造の入力特徴パラメータを選別する特徴選別ステップ(1)と、選別された前記特徴データに対して正規化処理を行うデータ処理ステップ(2)と、処理後の前記特徴データのサイズを組み換えるデータ組み換えステップ(3)と、を含んでもよい。
【0014】
一実施例において、選別された前記特徴データに対して正規化処理を行った後、前記特徴パラメータのデータ平均値は0、標準偏差は1である。
【0015】
一実施例において、前記初期化されたモデルを最適化する際に、平均二乗誤差を採用して該初期化されたモデル最適化のトレーニング結果、例えば該ニューラルネットワークモデルの良さや予測精度の程度を判定する。前記平均二乗誤差式は、
【数1】
であり、ここで、Predict、Actualはそれぞれi番目サンプルの予測値、真値であり、Nはサンプル総数である。
【0016】
一実施例において、深層学習アルゴリズムにおけるニューラルネットワークモデルは畳み込みニューラルネットワークモデルであり、前記畳み込みニューラルネットワークモデルは、前記LED構造の入力特徴パラメータのテストデータを入力するための入力層と、複数の畳み込み層であって、前記入力層に接続され、前記入力層に入力された前記テストデータに対して特徴抽出を行うために用いられ、前記畳み込み層から出力されたデータが処理された後に複数の全結合層に接続され、前記複数の全結合層にニューロンが設置されて予測を行う複数の畳み込み層と、前記全結合層に接続され、前記LED構造の出力特徴パラメータの予測値を出力するための出力層と、を含む。
【0017】
一実施例において、前記畳み込みニューラルネットワークモデルに対してパラメータ設定及びパラメータ初期化トレーニングを行う際に、前記畳み込みニューラルネットワークモデルに順に第1畳み込み層、第2畳み込み層、第1全結合層及び第2全結合層を含み、第1畳み込み層と第2畳み込み層の配置が同じで、総カーネル数が異なり、前記第1全結合層がドロップアウト(Dropout)戦略を採用してオーバーフィッティングを低減するステップと、前記第1畳み込み層と前記第2畳み込み層に重みを初期化して正規分布ノイズを遮断し、ネットワークにおけるバイアスを一定に初期化するステップと、トレーニングサンプルの特徴に基づいてある数値区間内で学習率を設定し、前記トレーニングサンプルのバッチサイズ(Batchsize)を決定するステップと、前記トレーニングサンプルの設定に基づいて前記畳み込みニューラルネットワークモデルを繰り返しトレーニングし、且つ前記繰り返しトレーニングの総ラウンド数を決定し、さらに前記畳み込みニューラルネットワークモデルを最適化するステップと、を含む。
【0018】
一実施例において、前記第1畳み込み層及び前記第2畳み込み層における重みの初期化時に、平均値0、標準偏差0.1で正規分布ノイズを遮断し、前記ネットワークにおけるバイアス初期化における定数が1であり、前記学習率の数値区間が0.00001~0.1であり、前記繰り返しトレーニングの総ラウンド数が100~500ラウンドである。
【発明の効果】
【0019】
以上のことから、本発明が提供するLED構造性能の予測方法は、従来のAPSYSなどのシミュレーションソフトウェアと比較して、以下の効果を有する。
1、機械学習における異なるアルゴリズムモデルを利用してLED構造の性能を予測する方法は、ネットワーク構造のフィッティングがこのモデル内で収束するか否かにかかわらず、異なる構造LEDデバイスの性能の迅速な予測を実現でき、且つこの予測結果に基づいてLED構造の設計案の最適化をより良く指示することができる。
2、本発明における機械学習アルゴリズムに用いられるニューラルネットワークモデルは、Dropoutなどの戦略を用いることにより、構築されたニューラルネットワークモデルのオーバーフィッティングを効果的に防止又は低減し、さらに構築されたニューラルネットワークモデルの高性能LED構造の性能予測に対する正確率を向上させることができる。
3、本発明では、ビッグデータに対して機械学習を行った後、対応するニューラルネットワークモデルを構築し、該ニューラルネットワークモデルを用いて異なる構造を有する高性能LED全体の構造材デバイスの性能を予測する。これにより、データ面から高性能LED全体の構造における比較的複雑な物理面のルールを探索することができ、操作が簡便である。
【0020】
本発明の他の特徴及び有益な効果は、後の説明書で説明され、部分的に明細書から明らかとなるか、又は本発明の実施により理解されるであろう。本発明の目的及び他の有益な効果は、明細書、特許請求の範囲、及び図面に具体的に示された構造によって達成され得る。
【図面の簡単な説明】
【0021】
本発明の実施例又は従来技術における技術案をより明確に説明するために、以下に実施例又は従来技術の説明で必要な図面を簡単に紹介するが、明らかに、以下の説明における図面は本発明の幾つかの実施例であり、当業者にとって、創造的な労力を与えずに、これらの図面に基づいて他の図面を得ることができ、以下の説明において、図面に記載された位置関係は、特に断らない限り、図面に示された部材が示す方向を基準とする。
【0022】
図1】本発明におけるLEDの一実施例の構造模式図である。
図2】本発明における古典的なニューラルネットワークモデルの模式図である。
図3】本発明におけるLED構造性能の予測方法の一実施例のフローチャートである。
図4】本発明におけるLED構造性能予測に用いられる畳み込みニューラルネットワークの構造模式図である。
図5】本発明における畳み込みニューラルネットワークモデルの一実施例の構造模式図である。
図6】本発明における畳み込みニューラルネットワークモデルによって予測された内部量子効率とAPSYSシミュレーション内部量子効率との比較図である。
図7】本発明における多層パーセプトロンモデルによって予測された内部量子効率とAPSYSシミュレーション内部量子効率との比較図である。
図8】本発明におけるLED構造性能予測に用いられる決定木の部分構造模式図である。
【発明を実施するための形態】
【0023】
本発明の実施例の目的、技術案及び利点をより明確にするために、以下、本発明の実施例における図面を参照して、本発明の実施例における技術案を明確且つ完全に説明し、明らかに、説明された実施例は、本発明の一部の実施例であって、全ての実施例ではなく、以下に説明される本発明の様々な実施形態に設計された技術的特徴は、互いに矛盾しない限り、互いに組み合わせることができ、本発明における実施例に基づいて、発明的な努力をせずに当業者が思いつく他の全ての実施例が、本発明の保護範囲に属する。
【0024】
本発明の説明において、なお、本発明で使用される全ての用語(技術的及び科学的な用語を含む)は、本発明が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有し、本発明を限定するものと理解されてはならず、本発明で使用される用語は、本明細書の文脈及び関連技術でのそれらの意味と一致する意味を有するものと理解されるべきであり、本発明で明らかに定義しない限り、理想的又は過度に形式的な意味として理解されるべきではないことがさらに理解されるべきである。
【0025】
GaN系LEDは、高性能LEDの構造設計において、十分な理論的支持及びデータ支持を伴って、ここ30年の成長歴を有する。説明、理解を容易にするために、本発明の実施例の説明では、GaN系LEDの構造を例に、機械学習における異なるアルゴリズムモデルを活用してLED構造性能の予測方法を解釈説明する。しかし、これに限定されるものではなく、本発明により提供されるLED構造性能の予測方法は、InGaN系可視LED、AlGaN系深紫外LED、GaAs系LED、GaAlAs系LED、GaP系LEDなどの多様なLED構造の性能予測に適用可能である。なお、本発明に記載のLED構造とは、PN接合と量子井戸層とを含むLED構造である。
【0026】
図1を参照すると、図1は、本発明におけるLEDの一実施例の構造模式図である。図示のように、前記LED構造はGaN系LEDであり、該GaN系LED構造タイプはPN接合(又はpn接合)を含むLEDである。このようなGaN系LEDの全体構造は、主に、基板10と、基板に順に積層されたアンドープGaN層11(undroped GaN、u-GaN)と、n型層12と、多重量子井戸層13(Multiple quantum wells、MQWs;量子井戸層MQW)と、電子ブロック層14(Electron Blocking Layer、EBL)と、p型層15と、p電極16(P-contact)と、n電極17(N-contact)と、から構成されている。図1に示すように、この例では、基板10はサファイア(sapphire)基板であり、n型層12はn型ドープGaN層(n-GaN)であり、p型層15はp型ドープGaN層(p-GaN)である。量子井戸層13(MQW)は、交互に成長されたInGaN層とGaN層とを含む。換言すれば、量子井戸層13は、複合発光領域として、複数周期のInGaN/GaN多重量子井戸である。アンドープGaN層11は、基板10とn型ドープGaN層との間に介在し、バッファ層として機能する。p型15及びn型層12の両端には、それぞれp電極16(P-contact)、n電極17(N-contact)が形成されている。
【0027】
図1に示すように、この例におけるGaN系LEDは、GaN系青色LEDであり、InGaN/GaN多重量子井戸構造を採用している。このようなGaN系青色LED構造は、チップの発光効率を向上させることができ、これを用いて製造された電子デバイスは、高輝度で光効率が高いという利点を有する。このようなGaN系青色LED構造において、電子デバイスの発光効率に大きな影響を与える因子としては、多重量子井戸層13(MQWs)、電子ブロック層14(EBL)などを含むがこれらに限定されない。多重量子井戸層13(MQWs)及び電子ブロック層14(EBL)の構造は多様であり、その組み合わせも多様に現れる。電子デバイスの発光効率を向上させるために、GaN系青色LEDの構造設計の過程で、多重量子井戸層13(MQWs)及び電子ブロック層14(EBL)の構造に注目し、且つ多重量子井戸層13(MQWs)及び電子ブロック層14(EBL)の構造性能をより高効率かつ高精度に予測することが必要である。
【0028】
研究開発の進展、進化に伴い、研究発表された機械学習の手法は多岐に亘り、強調側面によって多様な分類手法が可能である。機械学習は、学習戦略の分類に基づいて、人間の脳を模した機械学習と、数学的手法を直接用いた機械学習に分けることができる。人間の脳を模した機械学習は、さらに、記号学習とニューラルネットワーク学習(又は連合学習)に分けることができる。数学的手法を直接用いた機械学習には、主に統計的機械学習がある。機械学習は、学習方法の分類に基づいて、帰納的学習、演繹的学習、類推的学習、及び分析的学習に分けられる。帰納的学習は、さらに、記号帰納的学習(例学習、決定木学習など)及び関数帰納的学習(又は発見学習と呼ばれ、ニューラルネットワーク学習、例学習、発見学習、統計学習など)に分けることができる。機械学習は、学習方式の分類に基づいて、監督学習(教師あり学習)、無監督学習(教師なし学習)、及び強化学習(ブースティング学習)に分けることができる。機械学習は、データ形式の分類に基づいて、構造化学習及び非構造化学習に分けることができる。機械学習は、学習対象の分類に基づいて、概念学習、規則学習、関数学習、クラス学習、及びベイジアンネットワーク学習に分けることができる。
【0029】
機械学習で比較的よく使用されるアルゴリズムは、決定木アルゴリズム、単純ベイジアンアルゴリズム、サポートベクターマシンアルゴリズム、ランダムフォレストアルゴリズム、人工ニューラルネットワークアルゴリズム、Boosting及びBaggingアルゴリズム、関連規則アルゴリズム、EM(最尤推定)アルゴリズム、並びに深層学習を含むがこれらに限定されない。ここで、深層学習(Deep Learning、略称:DL)は、機械学習(Machine Learning、略称:ML)分野で新たな研究方向としてサンプルデータの固有の規則性と表現階層を学習することができる。深層学習の最終目的は、機械が人間のように分析学習能力を有することができ、文字、画像、及び音声などのデータを認識できるようにすることである。
【0030】
異なる深層学習モデルは、主にニューラルネットワークに基づいて構築される。ニューラルネットワークは、生物ニューラルネットワークの行動特性をシミュレーションしたアルゴリズム数学モデルであり、複数の入力を受信して出力を生成することができる。ニューラルネットワークの発展が進み、深層学習アルゴリズムの反復的な更新が進むにつれて、ネットワークモデルの構造も継続的に調整及び最適化され、特に特徴抽出及び特徴選択の手法は、より大きな改善の余地を有する。それは、任意の複雑な非線形関係をマッピングすることができ、非常に強いロバスト性、記憶能力、自己学習などの能力を有し、分類、予測、パターン認識などにおいて広く応用されている。
【0031】
前述の内容に基づき、本発明の例において、採用した機械学習アルゴリズムは、深層学習アルゴリズム、多層パーセプトロン、決定木、線形回帰、勾配ブースティング回帰アルゴリズムであってもよい。ここで、深層学習アルゴリズムは、畳み込みニューラルネットワーク、リカレントニューラルネットワーク、自己符号化、深層信念ネットワークであってもよい。
【0032】
図2を参照すると、図2は、本発明における古典的なニューラルネットワークモデルの模式図である。ニューラルネットワーク(Neural Network、略称:NN)は、人間の実際のニューラルネットワークをシミュレーションして情報を処理するアルゴリズム数学モデルであり、単純な処理ユニット(ニューロンと呼ばれる)を多数接続して形成される複雑なネットワークシステムであり、非常に複雑な非線形動力学習システムである。ニューロンは、情報の処理が非線形な多入力単出力の情報処理ユニットである。ニューラルネットワークは、機械学習におけるモデルの1つである。
【0033】
人間の実際のニューラルネットワークと同様に、ニューラルネットワークは、ニューロン、ノードとノードとの間の接続(シナプス)から構成され、各ニューラルネットワークユニットはパーセプトロンとも呼ばれ、複数の入力を受信して出力を生成すると理解される。実際のニューラルネットワーク決定モデルは、多くの場合、複数のパーセプトロンから構成される多層ネットワークである。図2に示すように、古典的なニューラルネットワークモデルは、主に入力層、暗黙層、出力層から構成される。図に示す例では、LayerLは入力層を表し、LayerLは暗黙層又は隠れ層を表し、LayerLは出力層を表す。機械学習におけるニューラルネットワークモデルの利点に基づいて、図1に示すGaN系青色LED構造の設計の過程においてニューラルネットワークモデルを用いてLED構造が電子デバイスの発光効率に影響を与える特徴因子を比較的効率的且つ精確に予測し、且つ該予測結果に基づいてGaN系青色LED構造の設計案を適時に調整して、所期の全体機能効果に合致させることができる。前記特徴因子は、多重量子井戸層13(MQWs)、電子ブロック層14(EBL)の構造性能を含むがこれらに限定されない。
【0034】
図2に示すように、フィードフォワードニューラルネットワークでは、情報は、入力ノードから隠れノード(もしあれば)を通って出力ノードに到達するまでの一方向にのみ順方向に移動する。ネットワーク内で循環又はループがない。機械学習の分野において、代表的な深層学習モデルは、主に、(1)畳み込み演算に基づくニューラルネットワークシステム、即ち畳み込みニューラルネットワーク(Convolutional Neural Network、略称:CNN)、(2)自己符号化(Auto Encoder)とスパース符号化(Sparse Coding)を含む、マルチレイヤニューロンに基づく自己符号化ニューラルネットワーク、(3)マルチレイヤ自己符号化ニューラルネットワークの方式でプレトレーニングを行い、さらに識別情報と合わせてニューラルネットワークの重みをさらに最適化する深層信念ネットワーク(DBN)という3つのタイプを含むことができる。
【0035】
深層学習モデルは、前述した3つの代表的な深層学習モデルだけでなく、リカレントニューラルネットワーク(Recurrent Neural Networks)、リカーシブニューラルネットワーク(Recursive Neural Networks)などでもある。
【0036】
畳み込みニューラルネットワーク(CNN)は、局所接続、重み共有などの特性を有する深層フィードフォワードニューラルネットワークである。畳み込みニューラルネットワークは、3つの部分から構成され、第1部分は入力層であり、第2部分はn個の畳み込み層とプールリング層の組み合わせからなり(隠れ層、暗黙層とも呼ばれる)、第3部分は1つの全結合された多層パーセプトロン分類器(全結合層とも呼ばれる)で構成される。畳み込みニューラルネットワークは、畳み込み層とサブサンプリング層とからなる特徴抽出器を含む。畳み込みニューラルネットワークの畳み込み層では、1つのニューロンは隣接層のニューロンの一部にのみ接続される。CNNの1つの畳み込み層には、通常、いくつかの特徴平面(FeatureMap)が含まれ、各特徴平面はいくつかの矩形に配列されたニューロンから構成され、同一の特徴平面のニューロンは重みを共有し、かかる共有重みが畳み込みカーネルである。畳み込みカーネルは、一般に、ランダムな小数行列の形で初期化され、ネットワークのトレーニング過程において学習して合理的な重みを得る。共有重み(畳み込みカーネル)は、ネットワークの層間の接続を低減する一方で、オーバーフィッティングのリスクを低減するという直接的な利点を有する。サブサンプリングは、プールリング(Pooling)とも呼ばれ、通常、平均値サブサンプリング(Mean Pooling)と最大値サブサンプリング(Max Pooling)の2つの形式がある。サブサンプリング層(Subsampling Layer)は、プールリング層(Pooling Layer)とも呼ばれ、特徴選択を行い、特徴数を低減し、それによってパラメータ数を低減するという役割を果たす。サブサンプリングは、特定の畳み込みプロセスと見なされ得る。畳み込み及びサブサンプリングは、モデルの複雑性を大幅に単純化し、モデルのパラメータを低減する。
【0037】
図1と併せて、図3を参照し、図3は、本発明におけるLED構造性能の予測方法の一実施例のフローチャートである。図1に示されるGaN系LEDの構造を例として、機械学習アルゴリズムモデルを活用してLED構造性能を予測する手順は、以下のとおりである。
S01:GaN系青色LED多重量子井戸構造の入力特徴パラメータ及び対応する出力特徴パラメータのデータを収集して対応する生データセット及び予測データセットを構築し、前記生データセット及び予測データセットを前処理し、前処理された生データセット及び前処理されたテストデータセットを取得し、
S02:機械学習の初期モデルを構築し、
S03:構築した初期モデルに対してネットワーク構造パラメータ設定を行い、且つ設定されたネットワーク構造パラメータに対して初期化トレーニングを行い、初期化モデルを取得し、
S04:前処理された生データセットを利用して初期化モデルをトレーニング、最適化し、予測モデルを取得し、
S05:前処理されたテストデータセットを前記予測モデルに入力し、GaN系青色LED多重量子井戸構造の性能パラメータの予測値を出力する。
【0038】
一実施例において、該機械学習の予測モデルのトレーニング及び予測過程は、生データセットに対してモデル入力データとして特徴変数を選択するステップ(S11)と、生データセットに対して前処理を行い、データ正規化処理を行うステップ(S12)と、前処理された生データセットに対してサンプルデータを抽出し、且つ複数回のバッチ分割を行うステップ(S13)と、バッチ分割された前処理された生データセットに対して複数ラウンドのトレーニングを行い、予測結果を出力するステップ(S14)と、を含む。一実施例において、該予測モデルを設定するとき、予測モデルのパラメータは、畳み込みカーネル数、畳み込みカーネル長、及び活性化関数を含むがこれらに限定されない。
【0039】
具体的に、以下では、異なる機械学習アルゴリズムモデルを用いてGaN系LED構造性能を予測する手順を通じて、どのように機械学習モデルを活用してLED構造性能を予測するかについて解釈説明する。
【0040】
実施例1:機械学習における深層学習アルゴリズムモデルを利用してLED構造の性能を予測する。
【0041】
図1図3と併せて、図4及び図5を参照し、図4は、本発明におけるLED構造性能予測に用いられる畳み込みニューラルネットワークの構造模式図であり、図5は、本発明における畳み込みニューラルネットワークモデルの一実施例の構造模式図である。図5の例では、畳み込みニューラルネットワーク(CNN)で構築されたニューラルネットワークモデルを例としてさらに解釈、説明する。深層学習の畳み込みニューラルネットワークアルゴリズムモデルを活用してGaN系青色LED多重量子井戸構造の性能を予測する手順は、以下のとおりである。
【0042】
ステップS1:GaN系青色LED多重量子井戸構造の入力特徴パラメータ及び対応する出力特徴パラメータのデータを収集、抽出し、且つ収集したこれらのデータに対して対応するデータセットを構築する。
【0043】
GaN系青色LED多重量子井戸構造の入力特徴パラメータを収集、抽出する過程において、GaN系青色LED多重量子井戸構造における特徴パラメータの選別が必要である。この選別過程では、主にGaN系青色LED多重量子井戸構造の出力特徴パラメータの予測値に大きな影響を与える入力特徴パラメータに対してデータ収集及び抽出又は選択を行う。選択されたGaN系青色LED多重量子井戸構造の入力特徴パラメータは、量子井戸領域のバリヤー層及びポテンシャル井戸層の構造、組成、含有量など、及び電子ブロック層の構造、組成、含有量などを含むがこれらに限定されない。選択されたGaN系青色LED多重量子井戸構造の出力特徴パラメータの予測値は、LED構造の内部量子効率(IQE)、光出力パワー及びその対応する電流密度、IQE Droop(内部量子効率ドループ)、ピーク電流密度などを含むがこれらに限定されない。
【0044】
次に、これらの選択された入力特徴パラメータに対して対応するデータセットを構築し、且つ対応するデータセットパラメータを設計する。該データセットは、生データセットとテストデータセットとに分けられ、且つデータセットを前処理する。該データセットパラメータは、量子井戸領域又は電子ブロック層領域が超格子構造又は組成勾配などの複雑な構造を採用することを示すことができ、それによってLED構造のデータを大量に収集、記録することができる。これにより、1つのLED構造あたりのデータを1つのサンプルとすることができ、複数のLED構造のデータを1つのサンプルセットとすることができる。各サンプル又は各サンプルセットをニューラルネットワーク内の入力層とすることができる。
【0045】
ステップS2:ステップS1で構築されたデータセット中のデータを前処理し、前処理された生データセット及び前処理されたテストデータセットを取得する。前記前処理の方法は、以下のステップを含む。
(1)構築されたデータセットにおいて、既知の物理的知識及び各データ間の相関性に基づいて、予測を必要とする物理量、例えば内部量子位相レートに対する影響度に従って、LED構造の入力特徴パラメータを選別し、ランク付けする。
(2)選別された特徴データに対して正規化のデータ処理を行い、具体的な計算式は、x’=(x-μ)/σであり、ここで、μは、サンプルの平均値であり、σは、サンプルの標準偏差である。データに対して正規化処理を行うことにより入力データが各次元において平均値が0、標準偏差が1となり、標準正規分布に従う。
(3)データ組み換えであり、処理後のこれらのデータのサイズを組み換え、且つ複数のバッチの分割を行う。
【0046】
なお、2次元畳み込みニューラルネットワークで必要な入力次元は4D(samples,rows,cols,channels)であるため、この例では、生データはtxtで読み込まれた配列である。そのため、生データの並び方を調整して、2次元畳み込みニューラルネットワークの入力サイズに合わせる必要がある。
【0047】
ステップS3:機械学習における深層学習アルゴリズムに基づいて、畳み込みニューラルネットワークモデルを構築する。
【0048】
図4を参照すると、本例において畳み込みニューラルネットワークを用いて構築された畳み込みニューラルネットワークモデル構造は、順に、主に入力層、複数の畳み込み層、複数の全結合層及び出力層を含み、各層の間は順に接続される。入力層は、前処理された生データセット、前処理されたテストデータセットなどの、前述のLED構造のサンプル又はサンプルセットの入力特徴パラメータのデータ又はデータセットを入力するために用いられることができる。
【0049】
この図に示す例では、畳み込みニューラルネットワークモデル構造において、入力層の後に2つの畳み込み層が接続され、それぞれの畳み込み層には活性化関数が含まれる。
【0050】
畳み込み層は、畳み込みカーネルと特徴マップとの対応の畳み込み計算により特徴マップを抽出し、第1畳み込み層の畳み込みの具体的な過程は、x(l)= Σx(l-1)* ω(l)+b(l)で表すことができ、ここで、*は行列の畳み込み計算を表し、ω(l)はl層目のニューロン重みを表し、b(l)はl層目のバイアスを表す。一般的に、入力行列サイズをω、畳み込みカーネルサイズをk、ステップ幅をk、ゼロパディング層数をpとすると、畳み込み後に生成される特徴マップサイズ計算式は、
【数2】
となる。本例では、入力特徴マップに対してゼロパディング操作を行い、畳み込み後の特徴マップのサイズを不変とする。
【0051】
畳み込み層における活性化関数は、線形整流関数(Relu)である。線形整流関数の数式は、f(x)=max(0,x)となり、特徴マップに対する非線形変換が可能となる。
【0052】
第2畳み込み層は、活性化関数を経た画像のさらなる特徴抽出を行い、第2畳み込み層に出力された画像は、活性化層における線形整流関数(Relu)によって活性化された後、全結合層などの次の部分に伝達される。
【0053】
図4と併せて図5を参照すると、図5の例では、畳み込みニューラルネットワークモデル構造は、2つの全結合層を有する。前記活性層によって活性化された画像は、平坦化処理(Flatten)を経て、(960)となり、128個のニューロンが設置された第1全結合層に接続される。この例で用いられるトレーニングサンプルが比較的少ないことを考慮して、オーバーフィッティングを抑制又は低減するために、トレーニング1ラウンド当たり20%のニューロンをランダムに不活性化するドロップアウト(Dropout)戦略を採用する。活性化関数を経た画像に対して、第2全結合層を用いて、最終的な予測を完了する。
【0054】
ステップS4:構築した畳み込みニューラルネットワークモデルに対してネットワーク構造パラメータ設定を行い、且つ設定したネットワーク構造パラメータに対して初期化トレーニングを行い、初期化した畳み込みニューラルネットワークモデルを取得する。
【0055】
畳み込みニューラルネットワークモデルに設定されたネットワーク構造パラメータに対して初期化トレーニングを行う方法は、第1畳み込み層のステップ幅を1、出力チャネル数を16、パディングモードpaddingをsameに設定する。第2畳み込み層のステップ幅を1、出力チャネル数を32、パディングモードpaddingをsameに設定する。第1畳み込み層及び第2畳み込み層における重みは、平均値が0で標準偏差が0.1のトランケートされた正規分布ノイズに初期化され、ネットワークにおける全てのバイアスは、定数1に初期化される。トレーニングサンプルの特徴に基づいて学習率をある数値区間内で設定し、トレーニングサンプルのバッチサイズ(Batchsize)を決定し、トレーニングサンプルの設定に基づいて該畳み込みニューラルネットワークモデルに対して繰り返しトレーニングを行い、且つ繰り返しトレーニングの総ターン数を決定することにより、畳み込みニューラルネットワークモデルの初期化トレーニングが完了する。ここで、学習率は、0.00001~0.1の数値区間を設定し、繰り返しトレーニングの総ラウンド数は100~500ラウンドである。
【0056】
さらに説明すると、図に示す例では、トレーニングサンプルの学習率は0.0001に設定されている。トレーニングサンプルのバッチサイズ(Batchsize)は16に設定されており、即ちトレーニングごとに畳み込みニューラルネットワークに16枚の画像を入力し、そして全バッチにわたるサンプルの平均損失を計算する。トレーニングの総ラウンド数は300ラウンドであり、構築された畳み込みニューラルネットワークモデルを確率的勾配降下法(SGD)アルゴリズムで初期最適化する。
【0057】
ステップS5:ステップS2で前処理されたLED構造の入力特徴パラメータのデータセットを用いて、前記初期化された畳み込みニューラルネットワークモデルをトレーニング、最適化し、該畳み込みニューラルネットワークモデルのネットワーク重み及びバイアスを取得して保存し、さらに畳み込みニューラルネットワーク予測モデルを得る。ここで、該データセットは、前処理された生データセットである。
【0058】
機械学習では、損失関数は、モデル出力値と目標値との間の損失(ギャップ)を測定するために用いられる。これを踏まえ、ステップS5では、畳み込みニューラルネットワークモデルのトレーニング時の損失関数を、平均二乗誤差を用いて表示し、この畳み込みニューラルネットワークモデルのトレーニング結果の良さを明確にする。この平均二乗誤差式は、
【数3】
であり、ここで、Predict、Actualはそれぞれi番目のサンプルの予測値、真値である。計算されたMSEの値が0に近いほど、該畳み込みニューラルネットワークモデルのトレーニング、最適化結果がより良好であり、その出力の結果精度がより高いことを示す。これにより、トレーニング、最適化後に得られた畳み込みニューラルネットワーク予測モデルを用いてLED構造の性能予測を行う際に、得られる予測値の精度が高くなる。
【0059】
ステップS6:予測対象のGaN系LED構造の入力特徴パラメータのうち前処理されたテストデータセットを入力層として該畳み込みニューラルネットワーク予測モデルに入力し、それによって該予測対象のGaN系LED構造の出力特徴パラメータの予測値を出力する。予測対象のGaN系LED構造の出力特徴パラメータの予測値は、LED構造の内部量子効率(IQE)、光出力パワー、及びそれに対応する電流密度を含むがこれらに限定されない。
【0060】
Pythonプラットフォームで前記予測モデルを構築し、且つそれをトレーニングする。Pythonでは、前記畳み込みニューラルネットワーク予測モデルをトレーニング及び予測し、図6に示すような畳み込みニューラルネットワークモデル予測の内部量子効率とAPSYSシミュレーション内部量子効率との対比を得る。図6から分かるようにIQE(LED構造の内部量子効率)の予測値は、損失0.2422%と実際値とほぼ一致し、誤差の少ない範囲に収まっている。
【0061】
実施例2:機械学習における多層パーセプトロンモデルを利用してLED構造の性能を予測する。
【0062】
多層パーセプトロン(Multilayer Perceptron、略称:MLP)は、フィードフォワード人工ニューラルネットワークモデルであり、入力された複数のデータセットを単一の出力されたデータセットにマッピングする。
【0063】
図2と併せて、図2は、本発明におけるGaN系LED構造性能予測に用いられる多層パーセプトロンの部分構造模式図であってもよい。実際、30個のニューロン、10個の隠れ層を用い、図2の例において、機械学習における多層パーセプトロンアルゴリズムを活用してGaN系青色LED多重量子井戸構造の性能を予測する手順は、以下のとおりである。
【0064】
ステップS1:GaN系青色LED多重量子井戸構造の入力特徴パラメータ及び対応する出力特徴パラメータのデータを収集、抽出し、且つ収集したこれらのデータに対して対応するデータセットを構築する。
【0065】
GaN系青色LED多重量子井戸構造の入力特徴パラメータを収集、抽出する過程において、GaN系青色LED多重量子井戸構造における特徴パラメータの選別が必要である。この選別過程では、主にGaN系青色LED多重量子井戸構造の出力特徴パラメータの予測値に大きな影響を与える入力特徴パラメータに対してデータ収集及び抽出又は選択を行う。選択されたGaN系青色LED多重量子井戸構造の入力特徴パラメータは、量子井戸領域のバリヤー層及びポテンシャル井戸層の構造、組成、含有量など、及び電子ブロック層の構造、組成、含有量などを含むがこれらに限定されない。選択されたGaN系青色LED多重量子井戸構造の出力特徴パラメータの予測値は、LED構造の内部量子効率(IQE)、光出力パワー及びその対応する電流密度、IQE Droop(内部量子効率ドループ)、ピーク電流密度などを含むがこれらに限定されない。
【0066】
次に、これらの選択された入力特徴パラメータに対して対応するデータセットを構築し、且つ対応するデータセットパラメータを設計する。該データセットは、生データセットとテストデータセットとに分けられ、且つデータセットを前処理する。該データセットパラメータは、量子井戸領域又は電子ブロック層領域が超格子構造又は組成勾配などの複雑な構造を採用することを示すことができ、それによってLED構造のデータを大量に収集、記録することができる。これにより、1つのLED構造あたりのデータを1つのサンプルとすることができ、複数のLED構造のデータを1つのサンプルセットとすることができる。各サンプル又は各サンプルセットをマルチレイヤニューロン内の入力層とすることができる。
【0067】
ステップS2:ステップS1で構築されたデータセット中のデータを前処理し、前処理された生データセット及び前処理されたテストデータセットを取得する。前記前処理の方法は、以下のステップを含む。
(1)構築されたデータセットにおいて、既知の物理的知識及び各データ間の相関係数に基づいて、LED構造の入力特徴パラメータを選別する。
(2)選別された特徴データに対して正規化のデータ処理を行い、具体的な計算式は、x’=(x-μ)/σであり、ここで、μは、サンプルの平均値であり、σは、サンプルの標準偏差である。データに対して正規化処理を行うことにより入力データが各次元において平均値が0、標準偏差が1となり、標準正規分布に従う。
(3)データ組み換えであり、処理後のこれらのデータのサイズを組み換え、且つ複数のバッチの分割を行う。
【0068】
なお、この例では、生データはtxtで読み込まれた配列である。そのため、生データの並び方を調整して、マルチレイヤニューロンの入力サイズに合わせる必要がある。
【0069】
ステップS3:機械学習アルゴリズムに基づいて、マルチレイヤニューロンモデルを構築する。
【0070】
図2を参照すると、本例においてマルチレイヤニューロンモデル構造は、順に、主に入力層、複数の隠れ層、及び出力層を含み、各層の間は順に接続される。入力層は、前述のLED構造のサンプル又はサンプルセットの入力特徴パラメータのデータ又はデータセットを入力するために用いられることができる。
【0071】
図2の例では、マルチレイヤニューロンモデル構造において、入力層の後に1つの隠れ層が接続され、活性化関数が含まれる。隠れ層における活性化関数は、線形整流関数(Relu)である。隠れ層のノード数は10であり、出力層に接続されている。
【0072】
ステップS4:構築したマルチレイヤニューロンモデルに対してネットワーク構造パラメータ設定を行い、且つ設定したネットワーク構造パラメータに対して初期化トレーニングを行い、初期化したマルチレイヤニューロンモデルを取得する。
【0073】
マルチレイヤニューロンモデルに設定されたネットワーク構造パラメータに対して初期化トレーニングを行う方法は、隠れ層における重みは、平均値が0で標準偏差が0.1のトランケートされた正規分布ノイズに初期化され、ネットワークにおける全てのバイアスは、定数1に初期化される。トレーニングサンプルの特徴に基づいて学習率をある数値区間内で設定し、トレーニングサンプルのバッチサイズ(Batchsize)を決定し、トレーニングサンプルの設定に基づいて該畳み込みニューラルネットワークモデルに対して繰り返しトレーニングを行い、且つ繰り返しトレーニングの総ターン数を決定することにより、畳み込みニューラルネットワークモデルの初期化トレーニングが完了する。ここで、学習率は、0.00001~0.1の数値区間を設定し、繰り返しトレーニングの総ラウンド数は100~500ラウンドである。
【0074】
さらに説明すると、図に示す例では、トレーニングサンプルの学習率は0.0001に設定されている。トレーニングサンプルのバッチサイズ(Batchsize)は16に設定されており、即ちトレーニングごとに畳み込みニューラルネットワークに16枚の画像を入力し、そして全バッチにわたるサンプルの平均損失を計算する。トレーニングの総ラウンド数は300ラウンドであり、構築された畳み込みニューラルネットワークモデルを確率的勾配降下法(SGD)アルゴリズムで初期最適化する。
【0075】
ステップS5:ステップS2で前処理されたLED構造の入力特徴パラメータのデータセットを用いて、前記初期化されたマルチレイヤニューロンモデルをトレーニング、最適化し、該マルチレイヤニューロンモデルのネットワーク重み及びバイアスを取得して保存し、さらにマルチレイヤニューロンモデルを得る。ここで、該データセットは、前処理された生データセットである。
【0076】
前方伝搬過程は、X(l)=Y(l-1)(l)+B(l)で示すことができ、ここで、W(l)は、l-1番目の層がl番目の層にマッピングされる時の重み行列を示し、B(l)は、l番目の層のバイアスベクトルを示す。活性化関数は、Y(l)=max(0,x(l))で表され得る。出力特徴パラメータを前方伝搬によって取得し、その後損失関数を計算し、同時に後方伝搬アルゴリズムを用いて各パラメータの偏微分係数をさらに最適化する。
【0077】
機械学習では、損失関数は、モデル出力値と目標値との間の損失(ギャップ)を測定するために用いられる。これを踏まえ、ステップS5では、マルチレイヤニューロンモデルのトレーニング時の損失関数を、平均二乗誤差を用いて表示し、この畳み込みニューラルネットワークモデルのトレーニング結果の良さを明確にする。この平均二乗誤差式は、
【数4】
であり、ここで、Predict、Actualはそれぞれi番目のサンプルの予測値、真値である。計算されたMSEの値が0に近いほど、該畳み込みニューラルネットワークモデルのトレーニング、最適化結果がより良好であり、その出力の結果精度がより高いことを示す。これにより、トレーニング、最適化後に得られたマルチレイヤニューロン予測モデルを用いてLED構造の性能予測を行う際に、得られる予測値の精度が高くなる。
【0078】
ステップS6:予測対象のGaN系LED構造の入力特徴パラメータのうち前処理されたテストデータセットを入力層として該マルチレイヤニューロンモデルに入力し、それによって該予測対象のGaN系LED構造の出力特徴パラメータの予測値を出力する。予測対象のGaN系LED構造の出力特徴パラメータの予測値は、LED構造の内部量子効率(IQE)、光出力パワー、及びそれに対応する電流密度を含むがこれらに限定されない。
【0079】
Pythonプラットフォームで前記予測モデルを構築し、且つそれをトレーニングする。Pythonでは、前記マルチレイヤニューロン予測モデルをトレーニング及び予測し、図7に示すようなマルチレイヤニューロン予測の内部量子効率とAPSYSシミュレーション内部量子効率との対比を得る。図7から分かるようにIQE(LED構造の内部量子効率)の予測値は、損失0.7056%と実際値とほぼ一致し、誤差の少ない範囲に収まっている。
【0080】
実施例3:機械学習における決定木モデルを利用してLED構造の性能を予測する。
【0081】
決定木は、各内部ノードが属性の分割を表し、各枝が分類出力を表し、各葉ノードがカテゴリを表す木構造である。
【0082】
図8を参照し、図8は、本発明におけるLED構造性能予測に用いられる決定木の部分構造模式図である。図8の例では、実際には2層の深さしか示されておらず、実際には深さ10が採用されている。機械学習における決定木アルゴリズムを活用してGaN系青色LED多重量子井戸構造の性能を予測する手順は、以下のとおりである。
【0083】
ステップS1:GaN系青色LED多重量子井戸構造の入力特徴パラメータ及び対応する出力特徴パラメータのデータを収集、抽出し、且つ収集したこれらのデータに対して対応するデータセットを構築する。
【0084】
GaN系青色LED多重量子井戸構造の入力特徴パラメータを収集、抽出する過程において、GaN系青色LED多重量子井戸構造における特徴パラメータの選別が必要である。この選別過程では、主にGaN系青色LED多重量子井戸構造の出力特徴パラメータの予測値に大きな影響を与える入力特徴パラメータに対してデータ収集及び抽出又は選択を行う。選択されたGaN系青色LED多重量子井戸構造の入力特徴パラメータは、量子井戸領域のバリヤー層及びポテンシャル井戸層の構造、組成、含有量など、及び電子ブロック層の構造、組成、含有量などを含むがこれらに限定されない。選択されたGaN系青色LED多重量子井戸構造の出力特徴パラメータの予測値は、LED構造の内部量子効率(IQE)、光出力パワー及びその対応する電流密度、IQE Droop(内部量子効率ドループ)、ピーク電流密度などを含むがこれらに限定されない。
【0085】
次に、これらの選択された入力特徴パラメータに対して対応するデータセットを構築し、且つ対応するデータセットパラメータを設計する。該データセットは、生データセットとテストデータセットとに分けられ、且つデータセットを前処理する。該データセットパラメータは、量子井戸領域又は電子ブロック層領域が超格子構造又は組成勾配などの複雑な構造を採用することを示すことができ、それによってLED構造のデータを大量に収集、記録することができる。これにより、1つのLED構造あたりのデータを1つのサンプルとすることができ、複数のLED構造のデータを1つのサンプルセットとすることができる。各サンプル又は各サンプルセットをマルチレイヤニューロン内の入力層とすることができる。
【0086】
ステップS2:ステップS1で構築されたデータセット中のデータを前処理し、前処理された生データセット及び前処理されたテストデータセットを取得する。前記前処理の方法は、以下のステップを含む。
(1)構築されたデータセットにおいて、既知の物理的知識及び各データ間の相関係数に基づいて、LED構造の入力特徴パラメータを選別する。
(2)選別された特徴データに対して正規化のデータ処理を行うことにより、これらのデータの平均値が0、標準偏差が1となる。
(3)データ組み換えであり、処理後のこれらのデータのサイズを組み換え、且つ複数のバッチの分割を行う。
【0087】
なお、この例では、生データはtxtで読み込まれた配列である。そのため、生データの並び方を調整して、決定木の入力サイズに合わせる必要がある。
【0088】
ステップS3:機械学習アルゴリズムに基づいて、決定木モデルを構築する。
【0089】
決定木モデルにおける最大深さは10であり、内部ノードをスプリットする際に必要な最小サンプル数は2であり、非純度関数は、
【数5】
であり、ここで、Predict、Actualはそれぞれi番目のサンプルの予測値、真値である。
【0090】
ステップS4:構築した決定木モデルに対してハイパーパラメータ設定を行い、初期化した決定木モデルを取得する。
【0091】
決定木モデルにおける最大深さは10であり、内部ノードをスプリットする際に必要な最小サンプル数は2であり、非純度関数は、
【数6】
であり、ここで、Predict、Actualはそれぞれi番目のサンプルの予測値、真値である。
【0092】
ステップS5:ステップS2で前処理されたLED構造の入力特徴パラメータのデータセットを用いて、前記初期化された決定木モデルをトレーニング、最適化し、該決定木モデルのネットワーク重み及びバイアスを取得して保存し、さらに決定木モデルを得る。ここで、該データセットは、前処理された生データセットである。
【0093】
機械学習では、損失関数は、モデル出力値と目標値との間の損失(ギャップ)を測定するために用いられる。これを踏まえ、ステップS5では、決定木モデルのトレーニング時の損失関数を、平均二乗誤差を用いて表示し、この畳み込みニューラルネットワークモデルのトレーニング結果の良さを明確にする。この平均二乗誤差式は、
【数7】
であり、ここで、Predict、Actualはそれぞれi番目のサンプルの予測値、真値である。計算されたMSEの値が0に近いほど、該決定木モデルのトレーニング、最適化結果がより良好であり、その出力の結果精度がより高いことを示す。これにより、トレーニング、最適化後に得られた決定木予測モデルを用いてLED構造の性能予測を行う際に、得られる予測値の精度が高くなる。
【0094】
ステップS6:予測対象のGaN系LED構造の入力特徴パラメータのうち前処理されたテストデータセットを入力層として該決定木モデルに入力し、それによって該予測対象のGaN系LED構造の出力特徴パラメータの予測値を出力する。予測対象のGaN系LED構造の出力特徴パラメータの予測値は、LED構造の内部量子効率(IQE)、光出力パワー、及びそれに対応する電流密度を含むがこれらに限定されない。
【0095】
以上のように、本発明が提供する畳み込みニューラルネットワークモデル、多層パーセプトロン予測モデル、決定木予測モデルなどは、従来技術と比較して、GaN系青色LED多重量子井戸構造の全体構造設計過程において、当該LED構造の内部量子効率(IQE)、光出力パワー、及びそれに対応する電流密度などの発光効率パラメータをより精確に予測することができ、この予測結果に基づいて新型GaN系LED構造の設計案の最適化をより良く指示し、さらに発光効率が所望に合致する新型GaN系LED全体構造を設計することができる。また、本発明が提供する畳み込みニューラルネットワーク予測モデルは、レーザ、プローブなどの出力パラメータの予測値を予測することもできる。
【0096】
さらに、当業者は、従来技術における多くの問題点が存在するにもかかわらず、本発明の各実施例又は技術案は、従来技術又は背景技術において列挙された技術的問題点の全てを同時に解決することなく、1つ又は複数の態様においてのみ改良され得ることを理解するであろう。特許請求の範囲に記載されていない内容は、該特許請求の範囲の限定として解釈されるべきではないことは、当業者には理解されるであろう。
【0097】
LED、GaN系LED、機械学習、ニューラルネットワークなどの用語が本願ではより多く用いられるが、他の用語が用いられる可能性を排除するものではない。これらの用語は、本発明の本質をより便利に説明及び解釈するためにのみ用いられ、これらは、いかなる追加の制限も本発明の精神に反するものとして解釈され、本発明の実施例の明細書及び特許請求の範囲、並びに上記図面における用語「第1」、「第2」、及び同様のもの(存在する場合)は、類似のものを区別するために用いられ、特定の順序又は前後順序を説明するために用いられる必要はない。
【0098】
最後に、上述の各実施例は、単に本発明の技術案を説明するためにのみ用いられるものであり、本発明を制限するものではなく、前述の各実施例を参照して本発明を詳細に説明したが、当業者であれば、依然として前述の各実施例に記載の技術案を修正したり、技術的特徴の一部又は全部を等価に置き換えたりすることができ、これらの修正又は置換は、対応する技術案の本質を本発明の各実施例の技術案の範囲から逸脱させるものではないことが理解されるであろう。
【符号の説明】
【0099】
10-基板、
11-アンドープGaN層、
12-n型層、
13-多重量子井戸層、
14-電子ブロック層、
15-p型層、
16-p電極、
17-n電極。
図1
図2
図3
図4
図5
図6
【図
図7
【図
図8
【国際調査報告】