(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-06-14
(45)【発行日】2023-06-22
(54)【発明の名称】コンテンツ生成の方法及び装置
(51)【国際特許分類】
G06Q 30/0241 20230101AFI20230615BHJP
G06N 3/02 20060101ALI20230615BHJP
G06N 3/04 20230101ALI20230615BHJP
【FI】
G06Q30/0241
G06N3/02
G06N3/04
(21)【出願番号】P 2020534916
(86)(22)【出願日】2018-12-21
(86)【国際出願番号】 US2018067382
(87)【国際公開番号】W WO2019133545
(87)【国際公開日】2019-07-04
【審査請求日】2021-12-17
(31)【優先権主張番号】201711473163.1
(32)【優先日】2017-12-29
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】511050697
【氏名又は名称】アリババ グループ ホウルディング リミテッド
(74)【代理人】
【識別番号】100079108
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【氏名又は名称】内藤 和彦
(72)【発明者】
【氏名】ゼン,クンメン
(72)【発明者】
【氏名】シャオ,ジャンシン
(72)【発明者】
【氏名】チャン,チーチャン
(72)【発明者】
【氏名】ワン,ヨンリャン
(72)【発明者】
【氏名】リ,ムー
(72)【発明者】
【氏名】チェン,ヤンジャン
(72)【発明者】
【氏名】チェン,ユキ
【審査官】宮地 匡人
(56)【参考文献】
【文献】特開2016-004301(JP,A)
【文献】特開2017-167586(JP,A)
【文献】米国特許出願公開第2008/0065620(US,A1)
【文献】馬場 惇,検索連動型広告におけるテキスト自動生成とその評価指標の検討,2015年度人工知能学会全国大会論文集 [CD-ROM],3M3-5,2015年06月02日,pp.1-4
【文献】“AIコピーライター”、電通が開発 広告コピーを自動生成,[online],ITmedia,2017年05月18日,https://www.itmedia.co.jp/news/articles/1705/18/news141.html
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00-99/00
G06N 3/02
G06N 3/04
(57)【特許請求の範囲】
【請求項1】
製品説明情報を獲得することと、
深層ニューラルネットワークモデルコンポーネントを使用して、前記製品説明情報に合致したコンテンツフレーズを選択することであって、前記深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及び前記過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、
前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応したコンテンツを生成することと、
を含む、コンテンツ生成方法。
【請求項2】
前記深層ニューラルネットワークモデルコンポーネントが、
過去の製品説明情報及び前記過去の製品説明情報に関連付けられた過去のコンテンツを獲得することと、
前記過去の製品説明情報及び前記過去のコンテンツに基づいて、訓練パラメータを生成することと、
前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することと、
によって訓練される、請求項1に記載の方法。
【請求項3】
前記過去の製品説明情報と前記過去のコンテンツとに基づいて、前記訓練パラメータを生成することが、
前記過去の製品説明情報から少なくとも1つの製品フレーズを抽出することによって、過去の製品フレーズシーケンスを生成することと、
前記過去のコンテンツから少なくとも1つのコンテンツフレーズを抽出することによって、過去のコンテンツフレーズシーケンスを生成することと、
入力として前記過去の製品フレーズシーケンスを使用し、及び出力として前記過去のコンテンツフレーズシーケンスを使用して、前記訓練パラメータを調節することと、
をさらに含む、請求項2に記載の方法。
【請求項4】
前記深層ニューラルネットワークモデルコンポーネントが、Sequence to Sequence (seq2seq)モデルコンポーネント、並びにSequence to Sequence及びAttention機構(seq2seq及びAttention機構)モデルコンポーネントの少なくとも一方を含む、
請求項3に記載の方法。
【請求項5】
前記製品説明情報に合致した前記コンテンツフレーズを選択することが、
前記製品説明情報から少なくとも1つの製品フレーズを抽出することと、
前記製品フレーズを製品フレーズベクトルに変換することと、
前記製品フレーズベクトルに基づいて、製品フレーズベクトルシーケンスを生成することと、
前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、少なくとも1つのコンテンツフレーズを取得することと、
を含む、
請求項2に記載の方法。
【請求項6】
前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、前記少なくとも1つのコンテンツフレーズを取得することが、
前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて第1のコンテンツフレーズベクトルを生成することと、
前記コンテンツフレーズベクトルと前記製品フレーズベクトルとの間の相関度を決定することと、
第2のコンテンツフレーズベクトルのために、前記相関度に応じて前記製品フレーズベクトルの重み値を決定することと、
をさらに含む、請求項5に記載の方法。
【請求項7】
前記seq2seq及びAttention機構モデルコンポーネントが、エンコーダ及びデコーダを含み、前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することが、
前記デコーダによって生成される出力フレーズ及び前記出力フレーズと合致した過去の製品フレーズを獲得することと、
前記出力フレーズの再使用確率及び生成確率を決定することと、
前記再使用確率が前記生成確率よりも大きい場合に、前記デコーダの後続の出力フレーズとして、前記過去の製品フレーズの後続のフレーズを使用することと、
をさらに含む、
請求項4に記載の方法。
【請求項8】
前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応した前記コンテンツを生成することが、
前記選択されたコンテンツフレーズを言語モデルに入力することと、
前記言語モデルの予め設定された言語ルールに適合する前記コンテンツを生成することと、
をさらに含む、請求項1~7の何れか一項に記載の方法。
【請求項9】
前記コンテンツを表示することをさらに含む、請求項1~8の何れか一項に記載の方法。
【請求項10】
前記表示されたコンテンツに関するユーザの操作挙動を獲得することと、
深層学習のために前記操作挙動を前記深層ニューラルネットワークモデルコンポーネントにフィードバックすることと、
をさらに含む、請求項9に記載の方法。
【請求項11】
コンテンツ生成装置であって、
命令のセットを保存するメモリと、
前記命令のセットを実行して、前記装置に、
製品説明情報を獲得することと、
深層ニューラルネットワークモデルコンポーネントを使用して、前記製品説明情報に合致したコンテンツフレーズを選択することであって、前記深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及び前記過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、
前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応したコンテンツを生成することと、
を行わせるように構成された少なくとも1つのプロセッサと、
を含む、コンテンツ生成装置。
【請求項12】
前記深層ニューラルネットワークモデルコンポーネントが、
過去の製品説明情報及び前記過去の製品説明情報に関連付けられた過去のコンテンツを獲得することと、
前記過去の製品説明情報と前記過去のコンテンツとに基づいて、訓練パラメータを生成することと、
前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することと、
によって訓練される、請求項11に記載の装置。
【請求項13】
前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記過去の製品説明情報から少なくとも1つの製品フレーズを抽出することによって、過去の製品フレーズシーケンスを生成することと、
前記過去のコンテンツから少なくとも1つのコンテンツフレーズを抽出することによって、過去のコンテンツフレーズシーケンスを生成することと、
入力として前記過去の製品フレーズシーケンスを使用し、及び出力として前記過去のコンテンツフレーズシーケンスを使用して、前記訓練パラメータを調節することと、
を行わせるようにさらに構成される、請求項12に記載の装置。
【請求項14】
前記深層ニューラルネットワークモデルコンポーネントが、Sequence to Sequence (seq2seq)モデルコンポーネント、並びにSequence to Sequence及びAttention機構(seq2seq及びAttention機構)モデルコンポーネントの少なくとも一方を含む、
請求項13に記載の装置。
【請求項15】
前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記製品説明情報から少なくとも1つの製品フレーズを抽出することと、
前記製品フレーズを製品フレーズベクトルに変換することと、
前記製品フレーズベクトルに基づいて、製品フレーズベクトルシーケンスを生成することと、
前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、少なくとも1つのコンテンツフレーズを取得することと、
を行わせるようにさらに構成される、
請求項12に記載の装置。
【請求項16】
前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて第1のコンテンツフレーズベクトルを生成することと、
前記コンテンツフレーズベクトルと前記製品フレーズベクトルとの間の相関度を決定することと、
第2のコンテンツフレーズベクトルのために、前記相関度に応じて前記製品フレーズベクトルの重み値を決定することと、
を行わせるようにさらに構成される、請求項15に記載の装置。
【請求項17】
前記seq2seq及びAttention機構モデルコンポーネントが、エンコーダ及びデコーダを含み、前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記デコーダによって生成される出力フレーズ及び前記出力フレーズと合致した過去の製品フレーズを獲得することと、
前記出力フレーズの再使用確率及び生成確率を決定することと、
前記再使用確率が前記生成確率よりも大きい場合に、前記デコーダの後続の出力フレーズとして、前記過去の製品フレーズの後続のフレーズを使用することと、
を行わせるようにさらに構成される、
請求項14に記載の装置。
【請求項18】
前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記選択されたコンテンツフレーズを言語モデルに入力することと、
前記言語モデルの予め設定された言語ルールに適合する前記コンテンツを生成することと、
を行わせるようにさらに構成される、請求項11~17の何れか一項に記載の装置。
【請求項19】
前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記コンテンツを表示することを行わせるようにさらに構成される、請求項11~18の何れか一項に記載の装置。
【請求項20】
前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記表示されたコンテンツに関するユーザの操作挙動を獲得することと、
深層学習のために前記操作挙動を前記深層ニューラルネットワークモデルコンポーネントにフィードバックすることと、
を行わせるようにさらに構成される、請求項19に記載の装置。
【請求項21】
コンピュータシステムにコンテンツ生成方法を行わせるように前記コンピュータシステムの少なくとも1つのプロセッサによって実行可能な命令のセットを保存する非一時的コンピュータ可読媒体であって、前記方法が、
製品説明情報を獲得することと、
深層ニューラルネットワークモデルコンポーネントを使用して、前記製品説明情報に合致したコンテンツフレーズを選択することであって、前記深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及び前記過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、
前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応したコンテンツを生成することと、
を含む、非一時的コンピュータ可読媒体。
【請求項22】
前記深層ニューラルネットワークモデルコンポーネントが、
過去の製品説明情報及び前記過去の製品説明情報に関連付けられた過去のコンテンツを獲得することと、
前記過去の製品説明情報と前記過去のコンテンツとに基づいて、訓練パラメータを生成することと、
前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することと、
によって訓練される、請求項21に記載の非一時的コンピュータ可読媒体。
【請求項23】
前記過去の製品説明情報と前記過去のコンテンツとに基づいて、前記訓練パラメータを生成することが、
前記過去の製品説明情報から少なくとも1つの製品フレーズを抽出することによって、過去の製品フレーズシーケンスを生成することと、
前記過去のコンテンツから少なくとも1つのコンテンツフレーズを抽出することによって、過去のコンテンツフレーズシーケンスを生成することと、
入力として前記過去の製品フレーズシーケンスを使用し、及び出力として前記過去のコンテンツフレーズシーケンスを使用して、前記訓練パラメータを調節することと、
をさらに含む、請求項22に記載の非一時的コンピュータ可読媒体。
【請求項24】
前記深層ニューラルネットワークモデルコンポーネントが、Sequence to Sequence (seq2seq)モデルコンポーネント、並びにSequence to Sequence及びAttention機構(seq2seq及びAttention機構)モデルコンポーネントの少なくとも一方を含む、
請求項23に記載の非一時的コンピュータ可読媒体。
【請求項25】
前記製品説明情報に合致した前記コンテンツフレーズを選択することが、
前記製品説明情報から少なくとも1つの製品フレーズを抽出することと、
前記製品フレーズを製品フレーズベクトルに変換することと、
前記製品フレーズベクトルに基づいて、製品フレーズベクトルシーケンスを生成することと、
前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、少なくとも1つのコンテンツフレーズを取得することと、
を含む、
請求項22に記載の非一時的コンピュータ可読媒体。
【請求項26】
前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、前記少なくとも1つのコンテンツフレーズを取得することが、
前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて第1のコンテンツフレーズベクトルを生成することと、
前記コンテンツフレーズベクトルと前記製品フレーズベクトルとの間の相関度を決定することと、
第2のコンテンツフレーズベクトルのために、前記相関度に応じて前記製品フレーズベクトルの重み値を決定することと、
をさらに含む、請求項25に記載の非一時的コンピュータ可読媒体。
【請求項27】
前記seq2seq及びAttention機構モデルコンポーネントが、エンコーダ及びデコーダを含み、前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することが、
前記デコーダによって生成される出力フレーズ及び前記出力フレーズと合致した過去の製品フレーズを獲得することと、
前記出力フレーズの再使用確率及び生成確率を決定することと、
前記再使用確率が前記生成確率よりも大きい場合に、前記デコーダの後続の出力フレーズとして、前記過去の製品フレーズの後続のフレーズを使用することと、
をさらに含む、
請求項24に記載の非一時的コンピュータ可読媒体。
【請求項28】
前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応した前記コンテンツを生成することが、
前記選択されたコンテンツフレーズを言語モデルに入力することと、
前記言語モデルの予め設定された言語ルールに適合する前記コンテンツを生成することと、
をさらに含む、請求項21~27の何れか一項に記載の非一時的コンピュータ可読媒体。
【請求項29】
前記命令のセットが、前記コンピュータシステムに、
前記コンテンツを表示することをさらに行わせるように前記コンピュータシステムの前記少なくとも1つのプロセッサによって実行可能である、請求項21~28の何れか一項に記載の非一時的コンピュータ可読媒体。
【請求項30】
前記命令のセットが、前記コンピュータシステムに、
前記表示されたコンテンツに関するユーザの操作挙動を獲得することと、
深層学習のために前記操作挙動を前記深層ニューラルネットワークモデルコンポーネントにフィードバックすることと、
をさらに行わせるように前記コンピュータシステムの前記少なくとも1つのプロセッサによって実行可能である、請求項29に記載の非一時的コンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
[001] 本開示は、その全体が本明細書に援用される、2017年12月29日に出願された中国特許出願第201711473163.1号に対する優先権の利益を主張するものである。
【背景技術】
【0002】
背景
[002] デジタル時代では、例えば、ソーシャルメディア、選択メディア、及びニュースアプリで提供されるデジタルコンテンツの使用が、極めて顕著となっている。そして、デジタルコンテンツのマーケットシェアが(新聞などの物理的コンテンツと比較して)、今後増加し続けると予想される。従って、コンテンツの量も引き続き増加し続け得る。対象視聴者のニーズに合う情報を効果的に伝えるために、配布用の大量の多様な創造的コンテンツを迅速に作成する必要がある。
【発明の概要】
【発明が解決しようとする課題】
【0003】
開示の概要
[003] 本出願の実施形態の目的は、ターゲット製品のコンテンツを迅速に生成することができる文書生成の方法及び装置を提供することである。
【課題を解決するための手段】
【0004】
[004] 本開示の実施形態は、コンテンツ生成方法を提供する。この方法は、製品説明情報を獲得することと、深層ニューラルネットワークモデルコンポーネントを使用して、製品説明情報に合致したコンテンツフレーズを選択することであって、深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及び過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、選択されたコンテンツフレーズに基づいて、製品説明情報に対応したコンテンツを生成することと、を含み得る。
【0005】
[005] 本開示の実施形態は、コンテンツ生成装置も提供する。この装置は、命令のセットを保存するメモリと、命令のセットを実行して、装置に、製品説明情報を獲得することと、深層ニューラルネットワークモデルコンポーネントを使用して、製品説明情報に合致したコンテンツフレーズを選択することであって、深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及び過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、選択されたコンテンツフレーズに基づいて、製品説明情報に対応したコンテンツを生成することと、を行わせるように構成された少なくとも1つのプロセッサと、を含み得る。
【0006】
[006] 本開示の実施形態は、コンピュータシステムにコンテンツ生成方法を行わせるようにコンピュータシステムの少なくとも1つのプロセッサによって実行可能な命令のセットを保存する非一時的コンピュータ可読媒体をさらに提供する。この方法は、製品説明情報を獲得することと、深層ニューラルネットワークモデルコンポーネントを使用して、製品説明情報に合致したコンテンツフレーズを選択することであって、深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及び過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、選択されたコンテンツフレーズに基づいて、製品説明情報に対応したコンテンツを生成することと、を含み得る。
【0007】
図面の簡単な説明
[007] 本出願の実施形態又は先行技術における技術的解決策をより明瞭に説明するために、これらの実施形態又は先行技術を説明するために必要とされる添付の図面を以下に簡単に紹介する。以下で説明する添付の図面が本出願の一部の実施形態に過ぎないこと、及び当業者がこれらの添付の図面からさらに他の図面を創造的努力なしに導き出し得ることが明らかである。
【図面の簡単な説明】
【0008】
【
図1】[008]本出願の実施形態による、ある技術的解決策における過去の製品説明情報の深層学習の模式図である。
【
図2】[009]本出願の実施形態による、Sequence to Sequence(seq2seq)を使用することによるターゲット製品に関するコンテンツの生成の模式図である。
【
図3】[010]本出願の実施形態による、例示的コンテンツ生成方法の模式的フローチャートである。
【
図4】[011]本出願の実施形態による、seq2seqを使用した過去の製品説明情報の深層学習の模式図である。
【
図5】[012]本出願の実施形態による、seq2seqを使用した過去の製品説明情報の深層学習の模式図である。
【
図6】[013]本出願の実施形態による、seq2seqを使用した過去の製品説明情報の深層学習の模式図である。
【
図7】[014]本出願の実施形態による、例示的コンテンツ生成装置の模式的モジュール構造図である。
【発明を実施するための形態】
【0009】
詳細な説明
[015] 本出願における技術的解決策を当業者がより良く理解できるようにするために、本出願の実施形態における技術的解決策を本出願の実施形態における添付の図面を参照して明確且つ完全に説明する。説明する実施形態は、本出願の全ての実施形態ではなく一部に過ぎないことは明らかである。本出願の実施形態に基づいて、創造的な努力なしに当業者によって導き出される全ての他の実施形態が、本出願の保護範囲に全て入るものとする。
【0010】
[016] 上記と類似した技術的要件に基づいて、本出願において提供されるコンテンツ生成技術は、コンテンツを手作業で書くプロセスを無くすことができる。過去の製品説明情報及び過去のコンテンツの複数のペアに基づいて、過去の製品説明情報及び過去のコンテンツの複数のペアに対して深層ニューラルネットワーク学習を実行することによって、訓練により深層ニューラルネットワークモデルコンポーネントを取得することができる。訓練によって取得された深層ニューラルネットワークモデルコンポーネントを使用して、製品説明情報のコンテンツを構築することができ、このことは、製品のコンテンツを迅速に生成することができるだけでなく、コンテンツの精度とユーザ要件との間のある程度の合致を保証することもできる。
【0011】
[017] 幾つかの実施形態では、深層ニューラルネットワークモデルコンポーネントを使用して、複数の過去の製品説明情報及びそれらの過去の製品説明情報の過去のコンテンツに対して深層学習を実行することができる。従って、深層ニューラルネットワークモデルコンポーネントは、最終的に予め設定された要件(例えば、損失関数の値が、予め設定された閾値以下であるなど)を満たすように継続的に最適化され得る。過去の製品説明情報及び過去の製品説明情報の過去のコンテンツが特定の要件又はルールを含み得るので、幾つかの実施形態では、過去のコンテンツを使用して、特定の製品アクセス率を生じさせることができる。幾つかの実施形態では、コンテンツがユーザに表示された後に、ユーザの一部は、例えばコンテンツをクリックすること、それをお気に入りに加えること、商取引を行うことなどによって、コンテンツに関連付けられた製品情報にアクセスし得る。
【0012】
[018] 下記の表1は、過去の製品説明情報及びその過去の製品説明情報に対応する過去のコンテンツを示す。表1に示すように、「裸で眠ることが好きになる寝具」というコンテンツは、「モダンシンプルスタイル、綿、4枚組、綿寝具、1.8m/1.5mベッド、漫画柄4枚組、ベッドシーツ及びキルトカバー」という製品説明情報と関連付けられ、「元気が出るスポーツ着」というコンテンツは、「オリジナルデザイン、2017年春、ゆったりしたラウンドカラーの長袖フーディ+アシンメトリーパンツ、スポーツ着、レディース用」という製品説明情報に関連付けられる。製品説明情報及び過去のコンテンツの上記のデータは、電子商取引プラットフォームなどのプラットフォームの過去のデータから獲得できるだけでなく、人間の経験に従って提供されることも可能であることが理解される。データのソースは、本出願において限定されない。
【0013】
【0014】
[019] 深層ニューラルネットワークモデルコンポーネントにおけるSequence to Sequence(seq2seq)モデルコンポーネントを非限定的に例として挙げ、seq2seqモデルコンポーネントを使用することによる表1の二次製品のオリジナルの製品説明情報及び過去のコンテンツに対して深層学習を実行するプロセスを以下に説明することができる。幾つかの実施形態では、Pointer Network又はPointer Generatorなどのモデルコンポーネントを使用することにより、深層学習がデータに対して実行されることも可能である。本出願の実施形態で使用されるモデルコンポーネントは、本出願において限定されない。
【0015】
[020]
図1に示すように、基本的seq2seqモデルコンポーネント100は、エンコーダ要素102及びデコーダ要素104を含み得る。エンコーダ要素102及びデコーダ要素104はそれぞれ、再帰型ニューラルネットワーク(RNN)を含み得る。エンコーダ要素102において、入力シーケンスが、固定長のコンテキスト意味ベクトルに変換され得る。それに応じて、デコーダ要素104では、出力シーケンスを生成するために、コンテキスト意味ベクトルが、デコーダ要素104の入力として使用され得る。
図1に示すように、seq2seqモデルコンポーネントのエンコーダ要素102において、入力は、「オリジナルデザイン、2017年春、ゆったりしたラウンドカラーの長袖フーディ+アシンメトリーパンツ、スポーツ着、レディース用」におけるフレーズのベクトルから成るシーケンス{x1,x2,x3,…,x12}を含み得る(x1は、「オリジナル」というフレーズのベクトルに対応し、x2は、「デザイン」というフレーズのベクトルに対応するなどである)。
図1では、h1~h12は、それぞれx1~x12シーケンスに対応した隠れベクトルとしてそれぞれ表現され得る。隠れベクトルは、訓練パラメータが与えられ得る。シーケンス{x1,x2,x3,…,x12}の獲得後に、エンコーダ要素102は、このシーケンスを処理することにより、コンテキストベクトルcを生成することができる。コンテキストベクトルcは、上記の隠れベクトルの最後の隠れベクトル(例えば、h12)の変換から取得することができる。コンテキストベクトルcが隠れベクトルh1~h12の何れか1つ又は複数の変換からも取得され得ることが理解され、このことは本出願において限定されない。
図1に示すように、各隠れベクトルは、その隠れベクトルの前の隠れベクトルに関連付けられる。従って、最後の隠れベクトルh12は、前の全ての隠れベクトルの情報を含み得る。すなわち、コンテキストベクトルcは、シーケンス{x1,x2,x3,…,x12}の全ての情報を含み得る。
【0016】
[021]
図1に示すように、コンテキストベクトルcは、デコーダ要素104に入力することができる。デコーダ要素104も、RNNモデルコンポーネントを含み得る。RNNモデルコンポーネントは、隠れベクトルh’1、h’2、h’3、及びh’4などの複数の隠れベクトルを含み得る。デコーダ要素104は、コンテキストベクトルcを出力シーケンスに変換することができる。デコーダ要素104の出力シーケンスは、「スポーツの元気が出るスポーツ着」におけるフレーズのベクトルを含むシーケンスとなるべきである。しかし、実際の状況下では、出力シーケンスは、通常、過去のコンテンツとは合致しない。従って、出力シーケンスが過去のコンテンツと合致するまで、エンコーダ要素102及びデコーダ要素104の隠れベクトルにおける訓練パラメータが、さらに調節され得る。
【0017】
[022]
図2は、本出願の実施形態による例示的コンテンツ生成方法の方法フローチャートである。本出願は、以下の実施形態又は図面に記載するような方法の動作ステップを提供するが、この方法は、通常の作業に基づいて、又は創造的な作業なしに、より多くの動作ステップ又はより少ない動作ステップを含み得る。必要な論理的因果関係を持たないステップの実行シーケンスは、本出願の実施形態において提供される実行シーケンスに限定されない。この方法が、実際のコンテンツ生成プロセス又は装置において実行される際に、ステップは、実施形態若しくは添付の図面に示される方法順序に基づいて実行されてもよく、又は同時に(例えば、並列プロセッサを使用して、若しくはマルチスレッド処理の環境下で)実行されてもよい。
【0018】
[023]
図2に示すように、コンテンツ生成方法は、ステップS201~S205を含み得る。
【0019】
[024] ステップS201では、製品説明情報が獲得され得る。
【0020】
[025] ステップS203では、深層ニューラルネットワークモデルコンポーネントを使用して、製品説明情報に合致するコンテンツフレーズが選択され得る。深層ニューラルネットワークモデルコンポーネントは、複数の過去の製品説明情報及びこれらの過去の製品説明情報の過去のコンテンツに応じた訓練により取得され得る。
【0021】
[026] ステップS205では、選択されたコンテンツフレーズに基づいて、製品説明情報のコンテンツが構築及び生成される。
【0022】
[027] 幾つかの実施形態では、深層ニューラルネットワークモデルコンポーネント(例えば、seq2seqモデルコンポーネント)を使用して、過去のデータが訓練され得る。過去のデータは、複数の過去の製品説明情報及びこれらの過去の製品説明情報の過去のコンテンツを含み得る。幾つかの実施形態では、過去の製品説明情報は、詳細な製品説明情報、タイトル情報、製品のラベル情報などを含み得る。ある例では、過去のコンテンツは、比較的高い再現率を有する大量の過去のデータから選択された過去のコンテンツを含み得る。すなわち、ある特定の過去の製品説明情報に関して構築及び生成されたコンテンツが表示された後に、比較的高いユーザアクセス率が取得される。ユーザアクセス率は、例えば、ユーザクリック率、ユーザ収集率、ユーザ商取引率などを含み得る。他の実施形態では、過去のコンテンツは、人間の経験による他のコンテンツセットを含んでもよく、このことは、本出願において限定されない。
【0023】
[028] 幾つかの実施形態では、seq2seqモデルコンポーネントは、あるシーケンスを別のシーケンスに変換することができる。シーケンスは、ベクトルを用いて表現され得る。シーケンスは、製品説明情報における複数の製品フレーズを含み得る。seq2seqモデルコンポーネントは、エンコーダ要素及びデコーダ要素を含み得る。エンコーダ要素及びデコーダ要素はそれぞれ、RNNを含み得る。エンコーダ要素において、入力シーケンスが、固定長のコンテキスト意味ベクトルに変換され得る。それに応じて、デコーダ要素では、固定長のコンテキスト意味ベクトルが、出力シーケンスを生成するために、デコーダ要素の入力データとして使用され得る。上記の理論に基づいて、少なくとも1つの製品フレーズを過去の製品説明情報から抽出することができ、少なくとも1つの製品フレーズは、過去の製品フレーズシーケンスを形成する。過去の製品フレーズシーケンスを形成するプロセスにおいて、フレーズは、ベクトルに変換することができ、製品フレーズのベクトルは、過去の製品フレーズシーケンスを形成する。
【0024】
[029]
図3は、seq2seqを使用したコンテンツ生成の一例を提供する。具体的には、
図3は、本出願の実施形態による、seq2seqを使用することによるターゲット製品に関するコンテンツの生成の模式図である。ある例では、業者Xiao Mが、ストアウェブサイトのホームページ上で新しいドレスのコンテンツを表示する必要がある。このために、Xiao Mは、電子商取引プラットフォームのクライアント端末により、コンテンツを自動的に生成し得る。
図3に示すように、Xiao Mは、クライアント端末において、写真、製品説明情報、ラベル、及びドレスに関する他の情報を入力し得る。ドレスの製品説明情報は、「Yブランドの2017年ニュースタイル春服、婦人服、韓国ファッション、細身&スリム、シルクワンピース、Aラインスカート、ラージサイズ有」であり、ドレスのラベルは、「韓国ファッション」、「スリム」、「シルク」などである。この例では、クライアント端末又はクライアント端末に接続されたサーバ端末に、
図3の訓練されたseq2seqモデルコンポーネントが与えられる。従って、seq2seqモデルコンポーネントを使用して、ドレスのコンテンツを生成することができる。
【0025】
[030]
図3に示すように、seq2seqモデルコンポーネントを使用することによって、コンテンツ(「快適且つエレガント、あなたの最高峰の美に似合う」、「自分を甘やかす感情を楽しんで」、「それを着たあなたが好きです」など)を生成することができる。上記の処理手順に類似して、ドレスに関する製品説明情報から、少なくとも1つの製品フレーズが抽出され得る。製品フレーズは、「Yブランド」、「2017年」、「ニュースタイル」、「春服」、「婦人服」、「韓国ファッション」、「細身」、「スリム」、「シルク」、「ワンピース」、「Aラインスカート」、及び「ラージサイズ有」を含み得る。上記の製品フレーズがベクトルに変換された後に、これらのベクトルは、シーケンスの形式でエンコーダ要素に入力される。例えば、seq2seqモデルコンポーネントは、ドレスの過去の製品説明情報である「Yブランドの2017年ニュースタイル春服、婦人服、韓国ファッション、細身&スリム、シルクワンピース、Aラインスカート、ラージサイズ有」から、「Yブランド」、「2017年」、「ニュースタイル」、「春服」、「婦人服」、「韓国ファッション」、「細身」、「スリム」、「シルク」、「ワンピース」、「Aラインスカート」、及び「ラージサイズ有」という12個のフレーズのベクトルから成る過去の製品フレーズシーケンスを抽出する。過去のデータの統計によれば、「快適且つエレガント、あなたの最高峰の美に似合う」というコンテンツが、上記の過去の製品説明情報に従って構築及び生成された後に、ドレスが比較的高いユーザアクセス率を取得したことが判明した。例えば、多くのユーザが、製品情報をクリックし、製品情報を収集し、又は製品の商取引を行う。従って、「快適且つエレガント、あなたの最高峰の美に似合う」が、「Yブランドの2017年ニュースタイル春服、婦人服、韓国ファッション、細身&スリム、シルクワンピース、Aラインスカート、ラージサイズ有」に対応した過去のコンテンツとして設定され得る。過去のコンテンツのコンテンツフレーズを抽出して、6つのコンテンツフレーズである「快適」、「エレガント」、「似合う」、「あなたの」、「最高峰の」、及び「美」のベクトルを含むコンテンツが取得され得る。
【0026】
[031] コンテキストベクトルcの生成後に、エンコーダは、コンテキストベクトルcをデコーダ要素に送る。
図4に示すように、デコーダ要素400は、訓練された隠れベクトルに応じた計算によりコンテンツを取得し得る。隠れベクトルは、訓練パラメータを含み得る。訓練パラメータは、seq2seqモデルコンポーネントが訓練される段階で訓練済みである。コンテンツを生成するプロセスにおいて、複数の単一コンテンツフレーズから成るコンテンツフレーズシーケンスが、seq2seqモデルコンポーネントから出力されることに留意されたい。次いで、取得されたコンテンツフレーズは、予め設定された言語ルールに従ってコンテンツを生成するために、言語モデルに入力され得る。例示的な処理様式は、言語スムージング、重複情報の除去などを含み得る。
【0027】
[032] コンテンツの生成後に、コンテンツ用のグラフィックス及びテキスト編集ツールを使用して、コンテンツがXiao Mのクライアント端末上に表示され得る。
図3に示すように、コンテンツは、クライアント端末のユーザインタフェース上に表示することができ、ユーザは、自身の好みに従って選択を行うことができる。加えて、コンテンツ用のグラフィックス及びテキスト編集ツールは、ユーザが選択する複数のグラフィックス及びテキストスタイルを提供することもできる。コンテンツ用のグラフィックス及びテキスト編集ツールは、ユーザによって選択されたコンテンツ並びにグラフィックス及びテキストスタイルを自動的に
図3に示すような表示インタフェースへ編集することができる。
図3に示すように、Xiao Mは、「快適且つエレガント、あなたの最高峰の美に似合う」というコンテンツと、グラフィックス及びテキストスタイル1とを選択し得る。コンテンツ用のグラフィックス及びテキスト編集ツールは、コンテンツを表示するために使用される予め設定された位置に、グラフィックス及びテキストスタイル1でコンテンツを入れることができる。「シルクワンピース」というタイトル及び「春物新作」というサブタイトルなどのコンテンツ以外の情報も、グラフィックス及びテキストスタイル1上に表示することができ、他のユーザ定義のマーケティング情報なども、グラフィックス及びテキストスタイル1上に表示することができるが、このことは、限定されない。
【0028】
[033] ユーザXiao Mによって最終的に選択されたコンテンツの獲得後に、クライアント端末は、seq2seqモデルコンポーネントが深層学習をさらに実行するために、コンテンツを過去のデータとしてseq2seqモデルコンポーネントにフィードバックすることができることに留意されたい。例えば、Xiao Mは、「快適且つエレガント、あなたの最高峰の美に似合う」をドレスのコンテンツとして確定し得る。次いで、seq2seqモデルコンポーネントを訓練するプロセスにおいて、エンコーダ要素は、「Yブランドの2017年ニュースタイル春服、婦人服、韓国ファッション、細身&スリム、シルクワンピース、Aラインスカート、ラージサイズ有」を過去の製品説明情報として使用し、「快適且つエレガント、あなたの最高峰の美に似合う」を過去のコンテンツとして使用して、後続の深層学習を実行することができる。
【0029】
[034] 幾つかの実施形態では、
図4に示すように、過去の製品フレーズシーケンスである「Yブランド」、「2017年」、「ニュースタイル」、「春服」、「婦人服」、「韓国ファッション」、「細身」、「スリム」、「シルク」、「ワンピース」、「Aラインスカート」、及び「ラージサイズ有」が、seq2seqモデルコンポーネントのエンコーダの入力データとして使用される。
図4に示すように、x1~x12は、上記の過去の製品フレーズシーケンスにおける12個の製品フレーズのベクトルをそれぞれ表し、h1~h12は、x1~x12にそれぞれ対応した隠れベクトルをそれぞれ表し得る。
図2に示すように、過去の製品フレーズシーケンスは、コンテキストベクトルcに変換され得る。コンテキストベクトルcは、上記の隠れベクトルにおける最後の隠れベクトル(例えば、h12)の変換から取得され得る。コンテキストベクトルcが、h1~h12の何れか1つ又は複数の変換からも取得され得ることが理解され、このことは、本出願において限定されない。
【0030】
[035] 幾つかの実施形態では、コンテキストベクトルcが獲得された後に、
図5に示すように、コンテキストベクトルcは、seq2seqモデルコンポーネントのデコーダ要素504に入力され得る。コンテキストベクトルcの獲得後に、デコーダ要素504は、別のRNNを使用して、コンテキストベクトルcを変換してy1~y6の出力シーケンスを生成することができる。理想的な状態では、y1~y6の出力シーケンスが単に過去のコンテンツフレーズシーケンスである「快適」、「エレガント」、「似合う」、「あなたの」、「最高峰の」、及び「美」に対応したコンテンツフレーズベクトルシーケンスであることが期待される。まず、y1~y6の出力シーケンスを過去のコンテンツフレーズシーケンスと合致させることが難しい。従って、隠れベクトル(エンコーダ要素502及びデコーダ要素504の隠れベクトルを含む)の訓練パラメータが調節され得る。フレーズシーケンスと合致した出力シーケンスをデコーダ要素504において出力及び再構築することができるまで、上記のステップが繰り返される。
【0031】
[036] コンテンツ生成方法によれば、複数の過去の製品説明情報及びそれらの過去の製品説明情報の過去のコンテンツに対して深層学習を実行することにより、深層ニューラルネットワークモデルコンポーネントを構築することができる。そのため、深層ニューラルネットワークモデルコンポーネントを直接使用して、ターゲット製品のコンテンツを迅速に生成することができる。従って、本出願の実施形態は、リソースを節約することができるとともに、受信シーケンスデータに基づいてカスタマイズされた出力を提供することができる。加えて、一方では、ユーザクライアント端末にとって、製品のコンテンツの表示を加速させることができ、他方では、大量の過去のデータの深層学習により、深層ニューラルネットワークモデルコンポーネントを使用して獲得されたコンテンツが、ユーザの要件により合致し、その結果、ユーザの体験感覚が向上する。
【0032】
[037] 符号化プロセスにおいて、過去の製品説明情報に対応した過去の製品フレーズシーケンスが固定長のコンテキスト意味ベクトルに変換され得ることが上記から分かる。コンテキストベクトルは、最後のフレーズに対応する隠れベクトルの変換から取得される。その場合、コンテキストベクトルは、過去の製品フレーズシーケンスにおける最後のフレーズと高度に相関するが、前の複数のフレーズとはあまり相関しないと見なされ得る。加えて、実際の復号プロセスでは、コンテンツフレーズのベクトルがコンスタントに出力される状態で、コンテンツフレーズベクトルと、過去の製品フレーズシーケンスにおける様々な製品フレーズとの間の相関度も変化する。seq2seqモデルコンポーネントが、現在のコンテンツフレーズベクトル及び過去の製品フレーズシーケンスにおけるに大きく関連する有用な情報を見つけることにより集中することを可能にするために、本出願の幾つかの実施形態では、Attention機構が、seq2seqモデルコンポーネントにさらに追加されてもよい。Attention機構では、復号プロセスの各ステップにおいて、出力コンテンツベクトルと、過去の製品フレーズシーケンスにおける各製品フレーズのベクトルとの間の相関度の値が、一度計算される。この実施形態では、ある特定の製品フレーズのベクトルと、出力コンテンツベクトルとの間の相関度がより大きい(すなわち、相関度の値がより大きい)場合には、その製品フレーズに対する注意を高めるために、対応する製品フレーズのベクトルの重み値を増加させることができる。重み値は、後続のコンテンツフレーズのベクトルを計算するプロセスにおいて具体的に具現化され得る。
図6に示すように、計算により、Y1が「快適」であることが取得されると、「快適」と、過去の製品フレーズシーケンスである「Yブランド」、「2017年」、「ニュースタイル」、「春服」、「婦人服」、「韓国ファッション」、「細身」、「スリム」、「シルク」、「ワンピース」、「Aラインスカート」、及び「ラージサイズ有」における各製品フレーズのベクトルとの間の相関度が、Attention機構によりそれぞれ計算される。相関度は、ベクトル間の距離を含み得る。
図6に示すヒストグラムによれば、「快適」と、上記の製品フレーズにおける「シルク」との間の相関度の値が最大であること、すなわち、次の復号ステップが行われ、後続のコンテンツフレーズのベクトルが獲得される際に、「シルク」がより多く考慮され得ることが分かる。相関度の値を隠れベクトルに加えることによって、隠れベクトルの出力が影響を受け得る(すなわち、出力シーケンスの出力の質が向上する)。
【0033】
[038] 幾つかの実施形態では、製品説明情報の一部のエンティティ情報は、コンテンツにおいて完全に表示される必要がある(例えば、製品のブランド名、人名、地名、商標、日付、及び他の情報)。例えば、Michael Korsというブランド名の場合、デコーダが、コンテンツの生成プロセスにおいて、ブランド名における「Michael」というコンテンツフレーズを出力した場合、デコーダによる後続のコンテンツフレーズ出力は、出力ブランド名の完全性を保証するために、理論的に「Kors」である。
【0034】
[039] これに基づいて、本出願の幾つかの実施形態では、上記のシナリオにおいて、一部の固定情報の完全性を保証するために、Copying機構が使用され得る。例えば、Copying機構では、デコーダによる後続のコンテンツフレーズ出力が、複製によって生成されるか、それとも自動的に計算され得るか、及びこれは、再使用確率及び生成確率に基づいて具体的に判断され得る。再使用確率が生成確率よりも大きい場合、後続のコンテンツフレーズ出力は複製によって生成されると決定することができる。例えば、上記の例に関して、コンテンツフレーズ「Michael」の後続のコンテンツフレーズが計算される場合、再使用確率が生成確率よりも大きい状態を取得することができる、すなわち、出力の完全性を保証するために、デコーダによって出力されるべき後続のコンテンツフレーズとして機能するように、製品説明情報から「Michael」の後続の製品フレーズである「Kors」を複製することが可能である。この実施形態では、seq2seqモデルコンポーネントの訓練後に、モデルコンポーネントがさらにテストされる必要がある。既知の入力の過去の製品フレーズシーケンス及び既知の出力の過去のコンテンツフレーズシーケンスは、訓練プロセスに存在するが、既知の出力シーケンスは、テストプロセスには存在しないことが分かる。このような現象は、訓練プロセスの復号部分及びテストプロセスの復号部分において異なるパラメータ依存性をもたらし得る。つまり、訓練プロセスでは、復号プロセスの入力用語は、前の出力フレーズの期待出力(例えば、既知の出力ベクトル)であるが、テスト段階では前の出力フレーズの予測出力でもあり、このことは、訓練段階及びテスト段階における入力依存分布の不一致をもたらす。従って、本出願の幾つかの実施形態では、アニーリング訓練法を使用して、seq2seqモデルコンポーネントを訓練することができる。例えば、Data as Demonstrator(DAD)を使用したアニーリング訓練のプロセスにおいて、入力用語は、前の用語の期待出力又は予測出力となるようにランダムに選択され得る。このモデルは、最初は、過去のコンテンツに対応したフレーズシーケンスを使用して訓練される。訓練が深まるにつれて、モデルが最終的に過去のコンテンツに対応するフレーズシーケンスを必要としなくなるまで、過去のコンテンツに対応したフレーズシーケンスの訓練確率が徐々に低下する。明らかに、他の実施形態では、seq2seqモデルコンポーネントは、訓練プロセスの復号部分及びテストプロセスの復号部分における異なるパラメータ依存性の問題を解決するために、XENT(交差エントロピー)及びXENT to XENTなどの複数のアニーリング訓練方法を使用して訓練されることも可能である。
【0035】
[040] 本出願の幾つかの実施形態では、生成されるコンテンツの語数をさらに限定することができる。具体的には、seq2seqモデルコンポーネントを訓練するプロセスにおいて、コンテンツ終端識別子(例えば、識別子<\EOS>)が、復号部分に設定され得る。コンテンツの長さが10語に限定される場合、コンテンツ終端識別子は、10番目の単語の位置に設定することができる。コンテンツ終端識別子を設定した後に、現在のコンテンツの語数が制限を超えるか否かをリアルタイムでモニタリングするために、現在の出力ベクトルとコンテンツ終端識別子との間の距離が、復号プロセスにおいて計算され得る。
【0036】
[041] 深層ニューラルネットワークを使用することによって、製品タイトル、ラベル、及び過去のコンテンツだけでなく、詳細な製品説明情報及び過去のコンテンツに対しても、深層学習を実行することができる。詳細な製品説明情報は、製品の簡単な紹介、製品の詳細などを含み得る。ある特定の処理手順において、製品の簡単な紹介及び製品の詳細は、製品のタイトル又はラベルよりも多くの情報を含むことが多い。ある例では、装飾用絵画の製品説明情報は、「ブランド:XX絵画、絵画数:3枚以上、画材:キャンバス、取り付け方法:フレーム入り、フレーム材料:金属、色分類:A-カツラ(cercidiphyllum japonicum)の葉、B-アツバチトセラン(sansevieria trifasciata Prain)、C-アツバチトセラン(sansevieria trifasciata Prain)、D-drymoglossum subcordatum、E-モンステラの葉、F-ナツメヤシ属の木の葉、G-ハシゴシダ(parathelypteris glanduligera)、H-バショウの葉、I-銀縁丸葉のウコギ科タイワンモミジ(araliaceae polyscias fruticosa)、J-トウヒの葉、スタイル:モダンシンプル、製法:吹き付け、組み合わせ形態:単一価格、絵画形式:平面、パターン:植物と花、サイズ:40×60cm、50×70cm、60×90cm、フレームのタイプ:浅い木とアルミニウム合金のフレーム、黒色アルミニウム合金フレーム、商品番号:0739」である。過去のユーザデータの統計によれば、この装飾用絵画の製品説明情報に対応する過去のコンテンツは、「ミニマリズムスタイル。シンプルさへの回帰」として設定される。次いで、詳細な製品説明情報及び過去のコンテンツに対して、上述の実施形態と同様に深層学習が実行され得る。製品説明情報に合致するフレーズを選択するプロセスにおいて、製品説明情報の重複情報を除去することができるとともに、ブランド用語、材料フレーズ、及び中核的用語などの実際の意味を持つキーワードが、製品説明情報から抽出されることに留意されたい。例えば、装飾用絵画の製品説明情報から抽出され得るフレーズは、「3」、「キャンバス」、「フレーム入り」、「金属フレーム」、「吹き付け」、「平面」、「植物と花」、「アルミニウム合金」などを含み得る。
【0037】
[042] 別の局面では、本出願は、コンテンツ生成装置をさらに提供する。
図7は、本出願の実施形態による例示的コンテンツ生成装置700の模式図を示す。
図7に示すように、コンテンツ生成装置700は、プロセッサ701及びプロセッサ実行可能命令を保存するように構成されたメモリ703を含み得る。メモリ703は、非一時的コンピュータ可読ストレージ媒体を含み得る。非一時的媒体の一般的形態には、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、固体ドライブ、磁気テープ、又はその他の磁気データストレージ媒体、CD-ROM、その他の光学式データストレージ媒体、孔のパターンを有する物理的媒体、RAM、PROM、及びEPROM、FLASH(登録商標)-EPROM、又はその他のフラッシュメモリ、NVRAM、キャッシュ、レジスタ、その他のメモリチップ又はカートリッジ、及びこれらのネットワークバージョンが含まれる。
【0038】
[043] コンテンツ生成装置700は、コンテンツを表示するためのディスプレイ705も含み得る。命令が実行されると、プロセッサは、製品説明情報を獲得することと、深層ニューラルネットワークモデルコンポーネントを使用して、製品説明情報に合致したコンテンツフレーズを選択することであって、深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及びこれらの過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、選択されたコンテンツフレーズに基づいて、製品説明情報のコンテンツの構築及び生成を行うことと、を実施し得る。
【0039】
[044] 幾つかの実施形態では、深層ニューラルネットワークモデルコンポーネントは、複数の過去の製品説明情報及びこれらの過去の製品説明情報の過去のコンテンツを獲得することと、深層ニューラルネットワークモデルコンポーネントを構築することであって、深層ニューラルネットワークモデルコンポーネントが、訓練パラメータを与えられることと、複数の過去の製品説明情報と過去のコンテンツとの間の対応関係をそれぞれ使用し、かつ深層ニューラルネットワークモデルコンポーネントが予め設定された要件を満たすまで訓練パラメータを調節することによって、深層ニューラルネットワークモデルコンポーネントを訓練することと、によって取得されるように構成され得る。
【0040】
[045] 幾つかの実施形態では、複数の過去の製品説明情報と過去のコンテンツとの間の対応関係をそれぞれ使用することによって深層ニューラルネットワークモデルコンポーネントを訓練するステップが、過去の製品フレーズシーケンスを形成するために、過去の製品説明情報から少なくとも1つの製品フレーズを抽出することと、過去のコンテンツフレーズシーケンスを形成するために、過去のコンテンツから少なくとも1つのコンテンツフレーズを抽出することと、深層ニューラルネットワークモデルコンポーネントが予め設定された要件を満たすまで、深層ニューラルネットワークモデルコンポーネントの入力データとして過去の製品フレーズシーケンスを使用し、及び深層ニューラルネットワークモデルコンポーネントの出力データとして過去のコンテンツフレーズシーケンスを使用して、訓練パラメータを調節することと、を含み得る。
【0041】
[046] 幾つかの実施形態では、深層ニューラルネットワークモデルコンポーネントは、seq2seqモデルコンポーネント、並びにseq2seq及びAttention機構モデルコンポーネントの一方を含み得る。
【0042】
[0047] 幾つかの実施形態では、深層ニューラルネットワークモデルコンポーネントを使用して、製品説明情報に合致したコンテンツフレーズを選択するステップが、製品説明情報から少なくとも1つの製品フレーズを抽出し、製品フレーズを製品フレーズベクトルに変換し、及び製品説明情報に対応した製品フレーズベクトルシーケンスを形成することと、製品フレーズベクトルシーケンスを深層ニューラルネットワークモデルコンポーネントに入力し、及び製品フレーズベクトルシーケンス及び訓練パラメータに応じて計算により少なくとも1つのコンテンツフレーズを取得することと、を含み得る。
【0043】
[0048] 幾つかの実施形態では、製品フレーズベクトルシーケンスを深層ニューラルネットワークモデルコンポーネントに入力し、及び製品フレーズベクトルシーケンス及び訓練パラメータに応じて計算により少なくとも1つのコンテンツフレーズを取得するステップは、製品フレーズベクトルシーケンス及び訓練パラメータに応じて計算により単一のコンテンツフレーズベクトルを取得することと、コンテンツフレーズベクトルと製品フレーズベクトルとの間の相関度の値をそれぞれ計算することと、それぞれ相関度の値に応じて製品フレーズベクトルの重み値を設定することであって、重み値が後続のコンテンツフレーズベクトルの計算に使用されることと、を含み得る。
【0044】
[0049] 幾つかの実施形態では、seq2seq及びAttention機構モデルコンポーネントは、エンコーダ及びデコーダを含み、複数の過去の製品説明情報と過去のコンテンツとの間の対応関係をそれぞれ使用することによって、深層ニューラルネットワークモデルコンポーネントを訓練するステップが、デコーダによって生成される出力フレーズ、及び出力フレーズと合致した過去の製品フレーズを獲得することと、出力フレーズの再使用確率及び生成確率を計算することと、再使用確率が生成確率よりも大きい場合に、デコーダの後続の出力フレーズとして、過去の製品フレーズの後続のフレーズを使用することと、を含む。
【0045】
[050] 幾つかの実施形態では、選択されたコンテンツフレーズに基づいて、製品説明情報のコンテンツの構築及び生成を行うステップは、予め設定された言語ルールに適合するコンテンツの処理及び生成を行うための言語モデルに、選択されたコンテンツフレーズを入力することを含む。
【0046】
[0051] 幾つかの実施形態では、製品説明情報のコンテンツの構築及び生成を行うステップの後に、本方法は、コンテンツを表示することをさらに含む。
【0047】
[052] 本出願の幾つかの実施形態は、別のコンテンツ生成装置をさらに提供する。この装置は、プロセッサ及びプロセッサ実行可能命令を保存するように構成されたメモリを含み得る。命令が実行されると、プロセッサは、製品説明情報を獲得することと、深層ニューラルネットワークモデルコンポーネントを使用して、製品説明情報に合致したコンテンツフレーズを選択することであって、深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及びこれらの過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、選択されたコンテンツフレーズに基づいて、製品説明情報の複数のコンテンツの構築及び生成を行うことと、を実施する。
【0048】
[053] 幾つかの実施形態では、製品説明情報のコンテンツの構築及び生成を行うステップの実施後に、プロセッサは、以下のステップ:コンテンツを表示することと、コンテンツに関するユーザの操作挙動を獲得することと、深層学習のために操作挙動を深層ニューラルネットワークモデルコンポーネントにフィードバックすることと、をさらに実施する。
【0049】
[054] 本出願は、実施形態又はフローチャートに記載するような方法の動作ステップを提供する。しかし、通常の作業に基づいて、又は創造的な作業なしに、より多くの動作ステップ又はより少ない動作ステップが含まれてもよい。実施形態において列挙されるステップの順序は、ステップを実行する複数の順序の1つに過ぎず、唯一の実行順序を表すものではない。ステップは、実際の装置又はクライアント端末製品において行われる際に、実施形態若しくは添付の図面に示される方法順序に従って行われてもよく、又は並行して(例えば、並列プロセッサを使用して、若しくはマルチスレッド処理の環境下で)行われてもよい。
【0050】
[055] 純コンピュータ可読プログラムコードを使用することによってコントローラを実装することに加えて、本方法のステップは、論理ゲート、スイッチ、特定用途向け集積回路、プログラム可能論理制御装置、及び埋込式マイクロコントローラの形態で、コントローラが同じ機能を実施することを可能にするように論理的にプログラミングされてもよいことが理解される。従って、このようなコントローラは、ハードウェアコンポーネントと見なすことができ、その中に含まれ、且つ様々な機能を実施するように構成された装置も、ハードウェアコンポーネント内の構造と見なすことができる。また、これらの装置はさらに、様々な機能を実施するように構成されてもよく、方法を実施するためのソフトウェアモジュール及びハードウェアコンポーネント内の構造の両方とみなされ得る。
【0051】
[056] 本出願は、コンピュータによって実行されるコンピュータ実行可能命令(例えば、プログラムモジュール)の一般的コンテキストで説明され得る。一般に、プログラムモジュールには、ある特定のタスクを実行するため、又はある特定の抽象データ型を実施するためのルーチン、プログラム、オブジェクト、アセンブリ、データ構造、クラスなどが含まれる。本出願は、分散コンピューティング環境で実施することもでき、分散コンピュータ環境では、通信ネットワークにより接続された遠隔処理デバイスを使用して、タスクが実行される。分散コンピュータ環境では、プログラムモジュールは、ストレージデバイスを含むローカル及び遠隔コンピュータストレージ媒体内に位置してもよい。
【0052】
[057] 上記の実施方法の説明から、本出願がソフトウェアと必要なユニバーサルハードウェアプラットフォームとによって実施され得ることを当業者は理解できる。このような理解に基づいて、本出願の実施形態における技術的解決策は、基本的に、又は先行技術に寄与する部分が、ソフトウェア製品の形態で具現化されてもよい。コンピュータソフトウェア製品は、読出し専用メモリ(ROM)/ランダムアクセスメモリ(RAM)、磁気ディスク、又は光ディスクなどのストレージ媒体に保存されてもよく、及びコンピュータデバイス(これは、パーソナルコンピュータ、携帯端末、サーバ、ネットワークデバイスなどでもよい)が、実施形態又は本出願の実施形態の特定の部分の方法を実行することを可能にする幾つかの命令を含み得る。
【0053】
[058] 本明細書の実施形態は順次説明され、これらの実施形態の同一又は類似の部分は、互いを参照して得ることができ、各実施形態は、他の実施形態とは異なる部分を強調する。本出願は、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドデバイス、又はポータブルデバイス、タブレットデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラマブル電子デバイス、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、及び上記のシステム又はデバイスの何れかを含む分散コンピューティング環境などの様々な汎用又は専用コンピュータシステム環境又は構成に適用可能である。
【0054】
[059] 実施形態を用いて本出願を説明したが、本出願が、本出願の精神から逸脱することなく、多くのバリエーション及び変更を有することを当業者は分かるはずであり、添付の特許請求の範囲が、本出願の精神から逸脱することなく、それらのバリエーション及び変更を対象に含めることが予期される。