(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022079446
(43)【公開日】2022-05-26
(54)【発明の名称】ディープラーニングを活用した音声ベースのトラウマスクリーニング装置及び方法
(51)【国際特許分類】
G10L 25/63 20130101AFI20220519BHJP
G10L 25/30 20130101ALI20220519BHJP
G10L 21/10 20130101ALI20220519BHJP
【FI】
G10L25/63
G10L25/30
G10L21/10
【審査請求】有
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2021186529
(22)【出願日】2021-11-16
(31)【優先権主張番号】10-2020-0152939
(32)【優先日】2020-11-16
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2021-0132219
(32)【優先日】2021-10-06
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】521502757
【氏名又は名称】イモコグ カンパニー リミテッド
【氏名又は名称原語表記】EMOCOG Co., Ltd.
【住所又は居所原語表記】#101, 18, Yongmasan-ro 112-gil, Jungnang-gu, Seoul, 02176 Republic of Korea
(74)【代理人】
【識別番号】110002262
【氏名又は名称】TRY国際特許業務法人
(72)【発明者】
【氏名】ノ ユホン
(57)【要約】 (修正有)
【課題】ディープラーニングを活用した音声ベースのトラウマスクリーニング装置及び方法を提供する。
【解決手段】ディープラーニングを活用した音声ベースのスクリーニング方法は、非接触で空間や状況の制約なく獲得することができる音声を通じてトラウマをスクリーニングする。
【選択図】
図7
【特許請求の範囲】
【請求項1】
ディープラーニングを活用した音声ベースのトラウマスクリーニング装置において、
少なくとも一つのプログラムが格納されたメモリと
上記少なくとも一つのプログラムを実行することにより、演算を実行するプロセッサを含み、
上記プロセッサは、
音声データを獲得し、
上記音声データを前処理し、
上記前処理された音声データを画像データに変換し、
上記画像データをディープラーニングモデルに入力し、前記ディープラーニングモデルの出力値としてトラウマ結果を獲得するものである、装置。
【請求項2】
上記プロセッサは、
上記音声データが所定の長さを有するデータになるように、所定の時間単位でシフト(shift)させることにより、上記音声データを前処理するものである、請求項1に記載の装置。
【請求項3】
上記プロセッサは、
上記前処理された音声データを短時間フーリエ変換して2次元データを生成し、
上記2次元データを画像データとして活用して前記ディープラーニングモデルに入力するものである、請求項1に記載の装置。
【請求項4】
ディープラーニングを活用した音声ベースのトラウマスクリーニング方法において、
音声データを獲得するステップと;
上記音声データを前処理するステップと、
上記前処理された音声データを画像データに変換するステップと、
上記画像データをディープラーニングモデルに入力し、前記ディープラーニングモデルの出力値としてトラウマ結果を獲得するステップ
を含む、方法。
【請求項5】
第4項の方法をコンピュータで実行するためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ディープラーニングを活用した音声ベースのトラウマスクリーニング装置及び方法に関するもので、より詳細には、音声データをディープラーニングして感情を認識し、トラウマの可能性を推測するディープラーニングを活用した音声ベースのトラウマスクリーニング装置及び方法に関するものである。
【背景技術】
【0002】
昨今、現代人は勉強、就職などの日常的な事件から、交通事故、犯罪などの深刻な事件に至るまで、さまざまなストレスにさらされている。医学用語でトラウマは外傷後ストレス障害(PTSD)と呼ばれ、外部外傷事件に起因する精神的傷害を意味する。トラウマを経験する人は感情を制御し、安定させるのに苦労し、自発的回復率はトラウマ発生後1年以内に60%以上と高いが、それ以降は急激に低下する。したがって外傷を経験した後、1年以内の初期治療は、外傷後遺症から回復するために非常に重要である。初期治療のためには、外傷を診断するために病院を訪問し、相談することが不可欠であるが、精神疾患に対する社会的偏見で治療を先送りしたり、外傷を認知できなかったり、診断と治療に失敗する場合が多い。
【0003】
近年ディープラーニングは、医師の早期診断を支援するために、エンジニアリング技術と医療分野を融合するために使用されている。特に音声は、患者の感情を把握するために効果的な感情や意図を込めており、患者が拒否感を感じずに自然環境から非接触方式で得ることができるので、広く使用されている。加えて、年齢分類、感情認識などの音声を利用した研究が多く行われているが、音声分析を用いた外傷選別研究は進んでいない。
本発明の背景技術は、大韓民国登録特許第10-189765号に掲載されている。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明は、非接触で映像に比べて相対的に抵抗なく獲得することができる音声を利用してトラウマをスクリーニングするディープラーニングを活用した音声ベースのトラウマスクリーニング装置及び方法を提供する。
【0005】
本発明は、音声データを画像データに変換してトラウマをスクリーニングするディープラーニングを活用した音声ベースのトラウマスクリーニング装置及び方法を提供する。
【0006】
本発明は、ディープラーニングで音声の感情を認識した後、後処理を通して認識の精度を高めたディープラーニングを活用した音声ベースのトラウマスクリーニング装置及び方法を提供する。
【0007】
本発明は、特定の状況や空間ではなくても簡単に音声だけで感情を認識することができるトラウマ診断に役立つディープラーニングを活用した音声ベースのトラウマスクリーニング装置及び方法を提供する。
【課題を解決するための手段】
【0008】
本発明の一側面によると、ディープラーニングを活用した音声ベースのトラウマスクリーニング装置を提供する。
【0009】
本発明の一実施例に係るディープラーニングを活用した音声ベースのトラウマスクリーニング装置は、音声データを獲得する入力部、音声データを編集する前処理部、編集された音声データを画像データに変換する変換部と、画像データから感情を認識するディープラーニング部と、ディープラーニング部の結果値を後処理する判断部を含むことができる。
【0010】
本発明の他の一側面によると、ディープラーニングを活用した音声ベースのトラウマスクリーニング方法及びこれを実行するコンピュータプログラムが記録された、コンピュータが読み取り可能な記録媒体を提供する。
【0011】
本発明の一実施例に係るディープラーニングを活用した音声ベースのトラウマスクリーニング方法及びこれを実行するコンピュータプログラムが格納された記録媒体が提供される。前述ディープラーニングを活用した音声ベースのトラウマスクリーニング方法は、音声データを獲得するステップと、音声データを前処理するステップと、前処理された音声データを画像データに変換するステップと、画像データをディープラーニングするステップと、ディープラーニングの結果値を後処理するステップを含むことができる。
【0012】
前述したもの以外の他の側面、特徴、利点が以下の図面、特許請求の範囲と発明の詳細な説明から明らかになるだろう。
【発明の効果】
【0013】
本発明の一実施例によると、ディープラーニングを活用した音声ベースのスクリーニング装置および方法は、非接触で空間や状況の制約なく獲得することができる音声を通じてトラウマをスクリーニングすることができる。
【0014】
本発明の一実施例によると、音声データを画像データに変換してディープラーニングで感情を認識し、後処理してトラウマスクリーニングの精度を高めることができる。
【図面の簡単な説明】
【0015】
【
図1】
図1は、一実施例に係るディープラーニングを活用した音声ベースのトラウマスクリーニング装置のブロック図である。
【
図2】
図2は、一実施例に係る音声データを画像データに変換する方法を説明するための図である。
【
図3】
図3は、一実施例に係る画像データの例示を示す図である。
【
図4】
図4は、一実施例に係るディープラーニングモデルの例示を示す図である。
【
図5】
図5は、一実施例によるウィンドウサイズに応じたディープラーニングモデルの結果値を説明するための図である。
【
図6】
図6は、一実施例に係るディープラーニングを活用した音声ベースのトラウマスクリーニング方法を説明するための図である。
【
図7】
図7は、一実施例に係るディープラーニングを活用した音声ベースのトラウマスクリーニング方法のフローチャートである。
【
図8】
図8は、一実施例による装置のブロック図である。
【発明を実施するための形態】
【0016】
本発明は、様々な変更を加えることができ、いくつかの実施例を有することができる、特定の実施例を図面に例示し、これを詳細な説明で詳細に説明する。しかし、これは本発明を特定の実施形態に限定するものではなく、本発明の思想及び技術範囲に含まれるすべての変更、均等物ないし代替物を含むものと理解されるべきである。本発明を説明するに当たって、関連する公知技術に対する具体的な説明が本発明の要旨を不必要に曖昧にすると判断された場合、その詳細な説明を省略する。また、本明細書及び請求項で使用される単数表現は、特に明記しない限り、一般的に「一つ以上」を意味するものと解釈されるべきである。
【0017】
以下、本発明の好ましい実施例を、添付図面を参照して詳細に説明することとし、添付図面を参照して説明することに当たって、同一または対応する構成要素は、同じ図面番号を付与してこれに対する重複される説明は省略するとする。
【0018】
図1~
図5は、本発明の一実施例に係るディープラーニングを活用した音声ベースのトラウマスクリーニング装置を説明するための図である。
【0019】
図1は、一実施例に係るディープラーニングを活用した音声ベースのトラウマスクリーニング装置のブロック図である。
【0020】
図1を参照すると、ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、入力部100、前処理部200、変換部300、ディープラーニング部400と判断部500を含んでいる。
【0021】
ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、音声データでトラウマをスクリーニングする。ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、トラウマの有無を判別するものではなく、トラウマをスクリーニングすることで非接触で自然な環境で抵抗なく音声を獲得することができる。
【0022】
ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、幸福、中立、悲しみ、恐怖の4つの感情を、音声データから認識してトラウマをスクリーニングする。ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10が4つの感情を利用する理由は、多くの人がトラウマが生じた場合、激しい恐怖を感じて、トラウマ後の時間の経過に応じて、悲しみの強度が強くなり、多くの場合、うつ病に発展するからである。トラウマの初期には恐怖、悲しみ、驚き、怒りの感じが目立ち、時間が過ぎると、怒りが弱くなり、恐怖と悲しみが強くなる。ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、音声データから恐怖と悲しい感情が認識されるとトラウマ確率が高く、中立的で幸せな感情が現れるとトラウマ確率が低いことを前提としてトラウマをスクリーニングする。
【0023】
入力部100は、音声入力を受けて音声データを生成したり、音声データの入力を受けて獲得したりする。
【0024】
図2は、一実施例に係る音声データを画像データに変換する方法を説明するための図である。
【0025】
図2を参照すると、前処理部200は、獲得された音声データを画像データに変換するために、データ間の長さの差をなくし、音声データの数を増加させる。例えば前処理部200は、0.1秒単位で移動(shift)すると、2秒単位で編集する。
【0026】
変換部300は、音声データを画像データに変換する。 詳しく説明すると、変換部300は、短時間フーリエ変換(STFT、Short-Time Fourier Transform)スペクトログラム(Spectrogram)を利用して、1次元の音声データを2次元スペクトログラム(Spectrogram)画像データに変換する。例えば、変換部300は、前処理された音声データを、毎秒サンプリング数を1024に指定して、高速フーリエ変換(FFT、Fast Fourier Transform)を行い、512サンプルだけオーバーラップ(Over-lap)して移動(shift)させる。
【0027】
変換部300は、最小値 - 最大値スケーラー(min-max scaler)を使用して、すべての画像データの値が0~1の間にあるようにスケーリングする。最小値 - 最大値スケーラー(min-max scaler)は最小値(Min)と最大値(Max)を使用して「0~1」の間の範囲(range)にデータを標準化する。
【0028】
図3は、一実施例に係る画像データの例示を示す図である。
図3を参照すると、変換部300が音声データをスペクトログラム画像データに変換した結果を確認できる。
【0029】
ディープラーニング部400は、スペクトログラム画像データをディープラーニングモデルの入力値とし、感情を認識するように学習する。
【0030】
ディープラーニング部400は、畳み込みニューラルネットワーク(CNN)モデルの中で、視覚的形状グループ-13(VGG-13、Visual Geometry Group-13)モデルを用いて学習する。ディープラーニング部400は、国内放送と映画から、6つの基本的な感情(幸せ、悲しみ、嫌悪感、怒り、恐怖、驚き)を入れた音声を抽出して作成された韓国語音声データセット(dataset)を使用する。韓国語音声データセット(dataset)で、各音声データの長さは2~11秒で、各感情について、合計600以上の音声データがある。ディープラーニング部400は、韓国語音声データセットの中から恐怖、悲しみ、中立および幸福の4つの感情の音声データのみを用いて学習する。
【0031】
図4は、一実施例に係るディープラーニングモデルの例示を示す図である。
図4を参照すると、ディープラーニング部400は、3 * 3のカーネルの10個の畳み込み層(Conv-layer、convolutional layer)、5つの最大プーリング層(Max pooling Layer)及び3つの全結合層(Fully connected layer)を含んでいる。例えば、ディープラーニング部400は、288 * 432 * 3サイズのスペクトログラム画像データを入力値として使用する。ディープラーニング部400は、2つの3 * 3畳み込み層(Conv-layer、convolutional layer)の次に2 * 2カーネルの最大プーリング層(Max pooling Layer)を実行することができる。次に、ディープラーニング部400は、全結合層(Fully connected layer)を通じてトラウマスクリーニング値をバイナリ分類である0または1の値で出力する。つまり、ディープラーニング部400は、バイナリ分類でトラウマがある確率が高い場合、またはない可能性が高い場合を出力する。
【0032】
判断部500は、ディープラーニング部400の結果を後処理して精度を高める。判断部500は、ディープラーニング部400の結果が一定期間一定に維持された時にトラウマかどうかをスクリーニングして、最終的な結果の信頼性を向上させる。例えば判断部500は、ウィンドウサイズ(window size)を2~10に事前に設定することができる。判断部500は、ディープラーニング部400の結果が設定されたウィンドウのサイズだけ0または1で維持されると、最終的にトラウマの有無をスクリーニングする。
【0033】
図5は、一実施例によるウィンドウサイズに応じたディープラーニングモデルの結果値を説明するための図である。
図5を参照すると、判断部500は、ウィンドウのサイズを4~8に設定し、設定されたウィンドウのサイズだけ値が維持されている場合の結果値だけを抽出する。これにより、判断部500が音声データから認識された感情の精度が100%であることを確認することができる。ウィンドウサイズ1は判断部500が後処理を実行しない場合であり、精度は99.03であるが、ウィンドウサイズを4~8に設定して判断部500が後処理した場合は精度が100%であることが確認できる。詳細に説明すれば、ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10が、音声データから正確な感情を認識するために100m秒の音声ではなく、400~800m秒の音声を利用することが精度を高めるものである。ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、音声データが400~800msの間、同じ感情が維持されると、その感情として判断することができる。したがってディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、ウィンドウサイズが4~8である場合の結果値のみを使用する。
【0034】
図6は、一実施例に係るディープラーニングを活用した音声ベースのトラウマスクリーニング方法を説明した図である。
【0035】
以下説明する各プロセスは、ディープラーニングを活用した音声ベースのトラウマスクリーニング装置を構成する各機能部が実行する処理だが、本発明の簡潔で明確な説明のために、各ステップの主体をディープラーニングを活用した音声ベースのトラウマスクリーニング装置と総称する。
【0036】
ステップS610でディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、感情認識に必要な音声データを獲得する。ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、直接音声入力を受けて音声データを生成したり、生成された音声データの入力を受けて音声データを獲得したりする。
【0037】
ステップS620でディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、入力された音声データを感情認識に適合するように前処理する。ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、音声データの長さを同一に編集し、音声データの数を増やす(Augmentation)。例えば、ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、0.1秒単位で移動(shift)させながら2秒単位で音声データを切る。
【0038】
ステップS630でディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、前処理された音声データを画像データに変換する。詳細に説明すれば、ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、短時間フーリエ変換(STFT、Short Time Fourier Transform)を利用して2秒単位で編集された1次元の音声データを2次元スペクトログラム(Spectrogram)画像データに変換する。例えばディップランニングを活用した音声ベースのトラウマスクリーニング装置10は、前処理された音声データを、毎秒サンプリング数を1024に指定して高速フーリエ変換(FFT、Fast Fourier Transform)を行い、512サンプルだけオーバーラップ(overlap)して移動(shift)させる。次に、すべてのデータの値が0~1の間にあるように最小値-最大値スケーラー(min-max scaler)を介してスケーリングする。
【0039】
ステップS640でディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、スケーリングされたスペクトログラム画像データをディープラーニングする。ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、畳み込みニューラルネットワーク(CNN)モデルの中で、視覚的形状グループ-13(VGG-13、Visual Geometry Group-13)モデルを利用して、感情認識を行う。ディープラーニングモデルに関しては、
図4で説明している。
【0040】
ステップS650でディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、ディップランニングモデルを使用して獲得した結果の値を後処理し、音声ベースの感情認識の精度を上昇させる。 ディープラーニングを活用した音声ベースのトラウマスクリーニング装置10は、ウィンドウサイズ(window size)が4~8である場合、音声ベースの感情認識の精度が100%であるため、ディープラーニングの結果値がウィンドウサイズ4~8に対応する場合に、その結果値をトラウマスクリーニングの結果として使用する。
【0041】
図7は、一実施例に係るディープラーニングを活用した音声ベースのトラウマスクリーニング方法のフローチャートである。
【0042】
図7に図示された方法は、先に説明した図面で説明された実施形態に関連するので、以下で省略された内容であっても、先の図面で説明された内容は、
図10の方法にも適用することができる。
【0043】
図7を参照すると、ステップ710で、プロセッサは、音声データを獲得することができる。
【0044】
音声データには、コンテンツ情報に加えて、発話者の感情が反映できる。
ステップ720で、プロセッサは、音声データを前処理することができる。
【0045】
一実施例では、音声データが所定の長さを有するデータになるように、所定の時間単位でシフト(shift)させることにより、上記音声データを前処理することができる。 プロセッサは、前処理過程を通じて音声データ間の長さの差をなくし、音声データの数を増やすことができる。
【0046】
ステップ730で、プロセッサは、前処理された音声データを画像データに変換することができる。
【0047】
プロセッサは、前処理された音声データを短時間フーリエ変換して2次元データを生成し、生成された2次元データを画像データとして活用することができる。
【0048】
ステップ740で、プロセッサは、画像データをディープラーニングモデルに入力して、ディープラーニングモデルの出力値としてトラウマ結果を獲得することができる。
【0049】
トラウマ結果値が1である場合、その音声データの発話者がトラウマを持っている確率が高く、トラウマ結果値が0である場合、その音声データの発話者がトラウマを持っている可能性が低い可能性がある。
【0050】
一実施例では、プロセッサは、画像データをディープラーニングモデルに入力して、ディープラーニングモデルの出力値として感情結果値を獲得することができる。感情結果値は、第1感情分類又は第2感情分類に区別できる。例えば、第1感情分類はトラウマと関連度が低いニュートラル(neutral)と幸せ(happy)を含むことができ、第2感情分類はトラウマと関連度が高い恐怖(fear)、悲しみ(sad)、怒り(angry)、驚き(surprise)を含むことができるが、第1感情分類及び第2感情分類は、上述した例に限定されない。
【0051】
一実施例では、プロセッサは、ディープラーニングモデルの出力値として獲得した感情結果値に基づいて、トラウマの段階を決定することができる。感情結果値は、第1感情分類、第2感情分類及び第3の感情分類に区別できる。
【0052】
例えば、第1感情分類はトラウマと関連度が低いニュートラル(neutral)と幸せ(happy)を含むことができ、第2感情分類はトラウマが発生した初期に持つようになる感情である恐怖(fear)、驚き(surprise)を含むことができ、第3感情分類はトラウマが発生した後、所定の時間が経過してから著しく持つようになる悲しみ(sad)、怒り(angry)を含むことができる。
【0053】
例えば、プロセッサは、ディープラーニングモデルの出力値として獲得した感情結果値が第2感情分類である場合、音声データの発話者のトラウマ段階が初期であると決定することができる。
【0054】
図8は、一実施例による装置のブロック図である。
図8を参照すると、装置1100は、通信部1110、プロセッサ1120及び DB1130を含むことができる。
図8の装置1100には、実施例に関連する構成要素だけが示されている。 したがって、
図8に図示された構成要素に加えて、他の汎用的な構成要素がさらに含まれることがあることを、当該技術分野の通常の技術者であれば理解することができる。
【0055】
通信部810は、外部サーバや外部デバイスとの有線/無線通信が出来るようにする1つ以上の構成要素を含むことができる。例えば、通信部810は、近距離通信部(図示せず)、移動通信部(図示せず)と放送受信部(図示せず)のうちの少なくとも一つを含むことができる。
【0056】
DB830は、装置800内で処理される各種データを格納するハードウェアであり、プロセッサ820の処理と制御のためのプログラムを格納することができる。
【0057】
DB830は、DRAM(dynamic random access memory)、SRAM(static random access memory)などのRAM(random access memory)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-only memory)、CD-ROM、Blu-ray(登録商標)または他の光学ディスクストレージ、HDD(hard disk drive)、SSD(solid state drive)、またはフラッシュメモリを含むことができる。
【0058】
プロセッサ820は、装置800の全体的な動作を制御する。例えば、プロセッサ820は、DB830に格納されたプログラムを実行することにより、入力部(図示せず)、ディスプレイ(図示せず)、通信部810、DB830などを全般的に制御することができる。 プロセッサ820は、DB830に格納されたプログラムを実行することで、装置800の動作を制御することができる。
【0059】
プロセッサ820は、
図1~
図7で上述した車線決定装置の動作のうちの少なくとも一部を制御することができる。
【0060】
プロセッサ820は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、コントローラ(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、その他の機能を実行するための電気的ユニットのうち少なくとも一つを利用して実装することができる。
【0061】
一方、プロセッサ820は、ディープラーニングモデルの学習と推論を実行するデータ学習部とデータ認識部を含むことができる。
【0062】
データ学習部は状況判断のための基準を学習することができる。データ学習部は、所定の状況を判断するためにどのようなデータを利用するか、データを利用して状況をどのように判断するかについての基準を学習することができる。 データ学習部は学習に利用されるデータを獲得し、獲得されたデータを後述するデータ認識モデルに適用することにより、状況判断のための基準を学習することができる。
【0063】
データ認識部はデータに基づいて状況を判断することができる。データ認識部は学習されたデータを認識モデルを用いて、所定のデータから状況を認識することができる。 データ認識部は、学習によって事前に設定された基準に基づいて、所定のデータを獲得し、獲得されたデータを入力値としてデータ認識モデルを利用することにより、所定のデータに基づいて所定の状況を判断することができる。また、獲得したデータを入力値としてデータ認識モデルによって出力された結果値は、データ認識モデルを更新するために使用することができる。
【0064】
データ学習部とデータ認識部のうち少なくとも一つは、少なくとも一つのハードウェアチップの形で製作して電子機器に搭載することができる。たとえば、データの学習部とデータ認識部のうちの少なくとも一つは、人工知能(AI; artificial intelligence)のための専用ハードウェアチップの形で製作することができ、または既存の汎用プロセッサ(例えば、CPUやapplication processor)またはグラフィック専用プロセッサ(例えば、GPU)の一部として製作し、前述した各種電子機器に搭載することもできる。
【0065】
この場合、データの学習部とデータ認識部は1つの電子装置(例えば、車線決定装置)に搭載したり、または別の電子デバイスにそれぞれ搭載したりすることもできる。たとえば、データの学習部とデータ認識部のいずれかは、車線決定装置に含ませ、残りの一つは、サーバに含ませることができる。また、データの学習部とデータ認識部は、有線または無線で通じて、データの学習部が構築したモデルの情報をデータ認識部に提供することも、データ認識部に入力されたデータが追加学習データとしてデータの学習部に提供されることもある。
【0066】
本発明に係る実施例は、コンピュータ上でさまざまな構成要素を介して実行できるコンピュータプログラムの形で実装することができ、このようなコンピュータプログラムは、コンピュータが読み取り可能な媒体に記録することができる。このとき、媒体は、ハードディスク、フロッピーディスク(登録商標)、および磁気テープのような磁気媒体、CD-ROMやDVDなどの光記録媒体、プロップティカルディスク(floptical disk)のような高磁気記録媒体(magneto-optical medium)、およびROM 、RAM、フラッシュメモリなどのような、プログラムコマンドを保存して実行するように特別に構成されたハードウェアデバイスを含むことができる。
【0067】
一方、前記コンピュータプログラムは、本発明のために特別に設計されて構成されたものであったり、またはコンピュータソフトウェア分野の当業者に公知されて使用可能なものであったりする。コンピュータプログラムの例としては、コンパイラによって作られるような機械語コードだけでなく、インタプリタなどを使用してコンピュータによって実行することができる高級言語コードも含まれる。
【0068】
一実施例によると、本開示の様々な実施形態による方法は、コンピュータプログラム製品(computer program product)に含ませて提供することができる。 コンピュータプログラム製品は、商品として販売者と購買者の間で取引される。 コンピュータプログラム製品は、機器で読み取り可能な記憶媒体(例えば、compact disc read only memory(CD-ROM))の形で配布されたり、またはアプリケーションストア(例えば、プレイストアTM)を介して、または2つのユーザーのデバイス間直接、オンラインで配布(例えば、ダウンロードまたはアップロード)したりすることができる。オンライン配信の場合、コンピュータプログラム製品の少なくとも一部は、メーカーのサーバ、アプリケーションストアのサーバ、または中継サーバのメモリのような、機器で読み取ることができる記憶媒体に少なくとも一時保存されたり、一時的に生成される。
【0069】
本発明の方法を構成するステップについて明らかに順序を記載したり、反する記載がなかったりする場合は、上記のステップは、適切な順序で行われることができる。必ずしも上記のステップの記載順序に本発明が限定されるものではない。本発明では、すべての例または例示的な用語(例えば、等々)の使用は、単に本発明を詳細に説明するためのものであって、特許請求の範囲によって限定されない以上、上記の例または例示的な用語により、本発明の範囲が限定されているわけではない。さらに、当業者は、様々な修正、組み合わせおよび変更が付加された特許請求の範囲またはその均等物のカテゴリ内で設計条件とファクターに基づいて構成されることがあることを予想できる。
【0070】
したがって、本発明の思想は、上記説明した実施例に限定されてはならず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等な、またはこれから等価的に変更されたすべての範囲は、本発明の思想の範疇に属するとする。