IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電信電話株式会社の特許一覧 ▶ 国立大学法人東北大学の特許一覧

特許7534753感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム
<>
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図1
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図2
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図3
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図4
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図5
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図6
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図7
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図8
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図9
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図10
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図11
  • 特許-感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-06
(45)【発行日】2024-08-15
(54)【発明の名称】感情評定モデル学習装置、感情評定値推定装置、感情評定モデル学習方法、プログラム
(51)【国際特許分類】
   G06N 3/08 20230101AFI20240807BHJP
   A61B 5/16 20060101ALI20240807BHJP
【FI】
G06N3/08
A61B5/16 120
【請求項の数】 8
(21)【出願番号】P 2021153191
(22)【出願日】2021-09-21
(65)【公開番号】P2023045020
(43)【公開日】2023-04-03
【審査請求日】2023-09-27
(73)【特許権者】
【識別番号】000004226
【氏名又は名称】日本電信電話株式会社
(73)【特許権者】
【識別番号】504157024
【氏名又は名称】国立大学法人東北大学
(74)【代理人】
【識別番号】100121706
【弁理士】
【氏名又は名称】中尾 直樹
(74)【代理人】
【識別番号】100128705
【弁理士】
【氏名又は名称】中村 幸雄
(74)【代理人】
【識別番号】100147773
【弁理士】
【氏名又は名称】義村 宗洋
(72)【発明者】
【氏名】熊野 史朗
(72)【発明者】
【氏名】石垣 司
(72)【発明者】
【氏名】周 岩
【審査官】多賀 実
(56)【参考文献】
【文献】熊野 史朗 外2名,「深層学習を用いた個人の情動認知のモデル化」,2021年度人工知能学会全国大会(第35回)[online],一般社団法人人工知能学会,2021年06月08日,セッションID:4D2-OS-4a-04,pp.1-2,[検索日 2021.07.01]インターネット:<URL:https://www.jstage.jst.go.jp/article/pjsai/JSAI2021/0/JSAI2021_4D2OS4a04/_pdf/-char/ja>
【文献】木下 涼 外1名,「深層学習によるテスト理論:Deep Response Model」,2019年度人工知能学会全国大会(第33回)[online],一般社団法人人工知能学会,2019年06月04日,セッションID:1O3-J-12-02,pp.1-4,[検索日 2019.07.01], インターネット:<URL:https://www.jstage.jst.go.jp/article/pjsai/JSAI2019/0/JSAI2019_1O3J1202/_pdf/-char/ja>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
A61B 5/16
(57)【特許請求の範囲】
【請求項1】
Sを2以上の整数とし、
評定項目情報z、評定者情報x、評定スケール情報vを入力とし、評定項目情報zから評定項目パラメタβを計算するニューラルネットワークとして構成される関数gと、評定者情報xから評定者パラメタθを計算するニューラルネットワークとして構成される関数fと、評定スケール情報vから評定スコアパラメタb(ただし、b=(b1, …, bS-1)tはb1≦…≦bS-1を満たす)を計算するニューラルネットワークとして構成される関数hと、次式により評定項目パラメタβ、評定者パラメタθ、評定スコアパラメタbから評定値Yがsより大きい確率P(Y>s)を計算する関数kとを用いて、確率P(Y>s)(s=1, …, S-1)を計算し、出力する感情評定モデルを学習する学習部
【数26】

を含む感情評定モデル学習装置。
【請求項2】
Sを2以上の整数、Nを2以上の整数とし、
評定項目情報z、評定者情報x、評定スケール情報vを入力とし、評定項目情報zから課題nに対する評定項目パラメタβnを計算するニューラルネットワークとして構成される関数gn(n=1, …, N)と、評定者情報xから課題nに対する評定者パラメタθnを計算するニューラルネットワークとして構成される関数fn(n=1, …, N)と、評定スケール情報vから課題nに対する評定スコアパラメタbn(ただし、bn=(b1 n, …, bS-1 n)tはb1 n≦…≦bS-1 nを満たす)を計算するニューラルネットワークとして構成される関数hn(n=1, …, N)と、次式により課題nに対する評定項目パラメタβn、課題nに対する評定者パラメタθn、課題nに対する評定スコアパラメタbnから課題nに対する評定値Ynがsより大きい確率P(Yn>s)を計算する関数kn(n=1, …, N)とを用いて、確率P(Yn>s)(n=1, …, N, s=1, …, S-1)を計算し、出力する感情評定モデルを学習する学習部
【数27】

を含む感情評定モデル学習装置。
【請求項3】
請求項2に記載の感情評定モデル学習装置であって、
関数gn(n=1, …, N)を構成するニューラルネットワークは、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとし、
関数fn(n=1, …, N)を構成するニューラルネットワークは、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとし、
関数hn(n=1, …, N)を構成するニューラルネットワークは、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとする
ことを特徴とする感情評定モデル学習装置。
【請求項4】
Sを2以上の整数とし、
g, f, hをそれぞれ請求項1に記載の感情評定モデル学習装置を用いて学習した感情評定モデルに含まれる評定項目情報zから評定項目パラメタβを計算するニューラルネットワークとして構成される関数、評定者情報xから評定者パラメタθを計算するニューラルネットワークとして構成される関数、評定スケール情報vから評定スコアパラメタb(ただし、b=(b1, …, bS-1)tはb1≦…≦bS-1を満たす)を計算するニューラルネットワークとして構成される関数とし、
入力評定項目情報~zから、~β=g(~z)により、評定項目パラメタ~βを計算する第1関数計算部と、
入力評定者情報~xから、~θ=f(~x)により、評定者パラメタ~θを計算する第2関数計算部と、
入力評定スケール情報~vから、~b=h(~v)により、評定スコアパラメタ~b(ただし、~b=(~b1, …, ~bS-1)tは~b1≦…≦~bS-1を満たす)を計算する第3関数計算部と、
評定項目パラメタ~β、評定者パラメタ~θ、評定スコアパラメタ~bから、次式により、評定値Yがsより大きい確率P(Y>s)(s=1, …, S-1)を計算する第4関数計算部と
【数28】

を含む感情評定値推定装置。
【請求項5】
Sを2以上の整数、Nを2以上の整数とし、
gn(n=1, …, N), fn(n=1, …, N), hn(n=1, …, N)をそれぞれ請求項2に記載の感情評定モデル学習装置を用いて学習した感情評定モデルに含まれる評定項目情報zから課題nに対する評定項目パラメタβnを計算するニューラルネットワークとして構成される関数、評定者情報xから課題nに対する評定者パラメタθnを計算するニューラルネットワークとして構成される関数、評定スケール情報vから課題nに対する評定スコアパラメタbn(ただし、bn=(b1 n, …, bS-1 n)tはb1 n≦…≦bS-1 nを満たす)を計算するニューラルネットワークとして構成される関数とし、
入力評定項目情報~zから、~βn=gn(~z)により、課題nに対する評定項目パラメタ~βn(n=1, …, N)を計算する第1関数計算部と、
入力評定者情報~xから、~θn=fn(~x)により、課題nに対する評定者パラメタ~θn(n=1, …, N)を計算する第2関数計算部と、
入力評定スケール情報~vから、~bn=hn(~v)により、課題nに対する評定スコアパラメタ~bn(n=1, …, N、ただし、~bn=(~b1 n, …, ~bS-1 n)tは~b1 n≦…≦~bS-1 nを満たす)を計算する第3関数計算部と、
評定項目パラメタ~βn(n=1, …, N)、評定者パラメタ~θn(n=1, …, N)、評定スコアパラメタ~bn(n=1, …, N)から、次式により、課題nに対する評定値Ynがsより大きい確率P(Yn>s)(n=1, …, N, s=1, …, S-1)を計算する第4関数計算部と
【数29】

を含む感情評定値推定装置。
【請求項6】
Sを2以上の整数とし、
評定項目情報z、評定者情報x、評定スケール情報vを入力とし、評定項目情報zから評定項目パラメタβを計算するニューラルネットワークとして構成される関数gと、評定者情報xから評定者パラメタθを計算するニューラルネットワークとして構成される関数fと、評定スケール情報vから評定スコアパラメタb(ただし、b=(b1, …, bS-1)tはb1≦…≦bS-1を満たす)を計算するニューラルネットワークとして構成される関数hと、次式により評定項目パラメタβ、評定者パラメタθ、評定スコアパラメタbから評定値Yがsより大きい確率P(Y>s)を計算する関数kとを用いて、確率P(Y>s)(s=1, …, S-1)を計算し、出力する感情評定モデルを学習する学習ステップ
【数30】

を含む感情評定モデル学習方法。
【請求項7】
Sを2以上の整数、Nを2以上の整数とし、
評定項目情報z、評定者情報x、評定スケール情報vを入力とし、評定項目情報zから課題nに対する評定項目パラメタβnを計算するニューラルネットワークとして構成される関数gn(n=1, …, N)と、評定者情報xから課題nに対する評定者パラメタθnを計算するニューラルネットワークとして構成される関数fn(n=1, …, N)と、評定スケール情報vから課題nに対する評定スコアパラメタbn(ただし、bn=(b1 n, …, bS-1 n)tはb1 n≦…≦bS-1 nを満たす)を計算するニューラルネットワークとして構成される関数hn(n=1, …, N)と、次式により課題nに対する評定項目パラメタβn、課題nに対する評定者パラメタθn、課題nに対する評定スコアパラメタbnから課題nに対する評定値Ynがsより大きい確率P(Yn>s)を計算する関数kn(n=1, …, N)とを用いて、確率P(Yn>s)(n=1, …, N, s=1, …, S-1)を計算し、出力する感情評定モデルを学習する学習ステップ
【数31】

を含む感情評定モデル学習方法。
【請求項8】
請求項1ないし3のいずれか1項に記載の感情評定モデル学習装置、請求項4または5に記載の感情評定値推定装置のいずれかとしてコンピュータを機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、アフェクティブコンピューティングに関するものであり、特に対象人物の状態に関する他者の評定に関するモデルを構築する技術に関する。
【背景技術】
【0002】
情動に関する研究において、主観は重要なテーマの1つである。対象人物の状態に関する主観評定には、大きく自己の主観と他者の主観に基づくものがある(図1参照)。その中で、他者が非専門家である個人である場合における主観評定に関する技術が求められており、当該技術では、対象人物の状態に関する他者の評定に関するモデルの構築が重要になってくる。
【0003】
従来、対象人物の状態に関する評定に関するモデルを構築する技術として、特許文献1や特許文献2に記載の技術があった。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2014-102606号公報
【文献】特開2015-32233号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
従来技術と同様の方法で構築されたモデルを用いると、対象人物の状態に関する他者の評定値を推定することは可能となる。しかし、当該モデルでは、なぜそのような評定値が推定されるのかについては説明することができない。
【0006】
そこで本発明では、推定された評定値に対する解釈を与えることができる対象人物の状態に関する他者の評定に関するモデルを構築する技術を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の一態様は、Sを2以上の整数とし、評定項目情報z、評定者情報x、評定スケール情報vを入力とし、評定項目情報zから評定項目パラメタβを計算するニューラルネットワークとして構成される関数gと、評定者情報xから評定者パラメタθを計算するニューラルネットワークとして構成される関数fと、評定スケール情報vから評定スコアパラメタb(ただし、b=(b1, …, bS-1)tはb1≦…≦bS-1を満たす)を計算するニューラルネットワークとして構成される関数hと、次式により評定項目パラメタβ、評定者パラメタθ、評定スコアパラメタbから評定値Yがsより大きい確率P(Y>s)を計算する関数kとを用いて、確率P(Y>s)(s=1, …, S-1)を計算し、出力する感情評定モデルを学習する学習部
【数1】

を含む。
【0008】
本発明の一態様は、Sを2以上の整数、Nを2以上の整数とし、評定項目情報z、評定者情報x、評定スケール情報vを入力とし、評定項目情報zから課題nに対する評定項目パラメタβnを計算するニューラルネットワークとして構成される関数gn(n=1, …, N)と、評定者情報xから課題nに対する評定者パラメタθnを計算するニューラルネットワークとして構成される関数fn(n=1, …, N)と、評定スケール情報vから課題nに対する評定スコアパラメタbn(ただし、bn=(b1 n, …, bS-1 n)tはb1 n≦…≦bS-1 nを満たす)を計算するニューラルネットワークとして構成される関数hn(n=1, …, N)と、次式により課題nに対する評定項目パラメタβn、課題nに対する評定者パラメタθn、課題nに対する評定スコアパラメタbnから課題nに対する評定値Ynがsより大きい確率P(Yn>s)を計算する関数kn(n=1, …, N)とを用いて、確率P(Yn>s)(n=1, …, N, s=1, …, S-1)を計算し、出力する感情評定モデルを学習する学習部
【数2】

を含む。
【発明の効果】
【0009】
本発明によれば、推定された評定値に対する解釈を与えることが可能となる。
【図面の簡単な説明】
【0010】
図1】対象人物の状態に関する主観評定を説明する図である。
図2】CORALの出力層とその直前の層の様子を示す図である。
図3】項目反応モデルの分類の一例を示す図である。
図4】課題が1つである場合の感情評定モデルの構造を示す図である。
図5】課題が2つである場合の感情評定モデルの構造を示す図である。
図6】感情評定モデル学習装置100の構成を示すブロック図である。
図7】感情評定モデル学習装置100の動作を示すフローチャートである。
図8】学習部110の構成を示すブロック図である。
図9】学習部110の動作を示すフローチャートである。
図10】感情評定値推定装置200の構成を示すブロック図である。
図11】感情評定値推定装置200の動作を示すフローチャートである。
図12】本発明の実施形態における各装置を実現するコンピュータの機能構成の一例を示す図である。
【発明を実施するための形態】
【0011】
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
【0012】
各実施形態の説明に先立って、この明細書における表記方法について説明する。
【0013】
^(キャレット)は上付き添字を表す。例えば、xy^zはyzがxに対する上付き添字であり、xy^zはyzがxに対する下付き添字であることを表す。また、_(アンダースコア)は下付き添字を表す。例えば、xy_zはyzがxに対する上付き添字であり、xy_zはyzがxに対する下付き添字であることを表す。
【0014】
ある文字xに対する^xや~xのような上付き添え字の”^”や”~”は、本来”x”の真上に記載されるべきであるが、明細書の記載表記の制約上、^xや~xと記載しているものである。
【0015】
<技術的背景>
本発明は、他者が非専門家である個人である場合にも適用できる、対象人物の状態に関する他者の評定に関するモデルを構築する技術に関するものである。以下、本発明の実施形態で扱う他者による対象人物の状態に関する評定値を推定するためのモデルのことを感情評定モデルという。感情評定モデルに求められる要求条件は以下の通りである。
【0016】
(1)解釈可能性:感情評定モデルを用いて推定された評定値がなぜそのような値になるのかを説明することができる。
【0017】
(2)推定性能:感情評定モデルを用いて推定することにより、より正確に評定値を推定することができる。
【0018】
本発明の実施形態では、一般にトレードオフの関係にある解釈可能性と推定性能の両立を実現するために、心理学におけるモデルを深層学習技術に統合することにより、感情評定モデルを構築する。推定性能を実現するために、深層学習技術としてモデルの出力である評定値を順序尺度として扱えるCORAL(COnsistent RAnk Logits)(参考非特許文献1参照)を用いることとする。また、解釈可能性を実現するために、心理学におけるモデルとして項目反応モデルを用いることとする。
【0019】
(参照非特許文献1:Cao,W., Mirjalili, V., and Raschka, S. “Rank consistent ordinal regression for neural networks with application to age estimation,” Pattern Recognition Letters, vol.140, pp.325-331, 2020.)
以下では、まずCORALについて説明する。次に、CORALとの組合せに適した項目反応モデルについて説明する。そして、最後に、感情評定モデルについて説明する。
【0020】
<<1:CORAL>>
感情評定モデルが出力する評定値の集合を{1, 2, …, S}(ただし、Sは2以上の整数)とする。Sを2とした場合、快/不快、高/低、正解/不正解といった二値の評定値となる。それに対して、Sを3以上とした場合、快/どちらともいえない/不快(S=3)、高/やや高/やや低/低(S=4)といった中間のスコアを含むような評定値となる。つまり、Sを3以上とした場合は、Sを2とした場合と比べて、評定値が程度の情報を扱うことができるようになる。CORALでは、評定値s∈{1, 2, …, S}を第1要素から第s-1要素までが1であり、第s要素から第S-1要素までが0であるS-1次元ベクトル[1, …, 1, 0, …, 0]t(以下、評定スコアという)として扱う。つまり、評定値yがsである場合、評定スコアは[I(y>1), …, I(y>s-1), I(y>s), …, I(y>S-1)]t(ただし、I(C)は条件Cが成り立つ場合は1、それ以外の場合は0を出力する関数である)と表される。
【0021】
また、CORALでは出力層の直前の層のm個のノードから出力層のS-1個のノードへの伝搬における重みは図2に示すように共有されており、バイアスbs(s=1, …, S-1)はb1≦…≦bS-1を満たす。そして、出力層のノードの出力は、図2に示すように式(1)のP(Y>s)となる。ここで、P(Y>s)は評定値Yがsより大きい確率を表す。
【数3】

(ただし、σはシグモイド関数である)
式(1)は、以下の式(2)と等価である。
【数4】

ここで、式(1)において、バイアスbsはsに関して単調増加すること、シグモイド関数σが単調増加関数であることから、P(Y>1)≧P(Y>2)≧…≧P(Y>S-1)が成り立つ。つまり、CORALでは推定結果の順序性が保証されることとなる。なお、評定値Yがsである確率P(Y=s)は、P(Y=s)=P(Y>s-1)-P(Y>s)により求めることができる。
【0022】
CORALでは、例えば、次式により計算される損失を最小化することにより、重みやバイアスを含むモデルのパラメタを学習する。
【数5】

<<2:CORALとの組合せに適した項目反応モデル>>
ここでは、CORALとの組合せに適した項目反応モデルを特定するため、式(2)が項目反応モデルのうち、RS-GRM(Rating-Scale Graded Response Model)族の潜在回帰を含むモデルに似た形となっていることに着目する。以下、評定値のように人の反応データを唯一の観測値とする項目反応モデルにおいて、潜在パラメタを反応データとは別の情報から回帰するモデルのことを説明的項目反応モデルという。
【0023】
まず、1パラメタのRS-GRMについて説明する。1パラメタのRS-GRMの基本形は次式で与えられる。
【数6】

ここで、iは評定項目を表すインデックス、jは評定者を表すインデックスである。また、bsは評定スコアパラメタb(ただし、b=(b1, …, bS-1)tはb1≦…≦bS-1を満たす)の第s要素である。なお、評定スコアパラメタbの第s要素bsは式(1)や式(2)におけるバイアスbsに相当する。
【0024】
式(3)の3つの項θj, βi, bsのすべてを回帰するRS-GRMは次式により表される。
【数7】

ここで、fは評定者に関する情報x(例えば、性別や年代などの評定者の属性情報や、心理質問紙を用いて測定した評定者の性格特性に関するスケールなどであり、以下、評定者情報という)を入力とし、評定者パラメタθを回帰するための関数である。gは評定項目に関する情報z(例えば、対象人物の画像、音声、映像などであり、以下、評定項目情報という)を入力とし、項目パラメタβを回帰するための関数である。hは評定スケールに関する情報v(例えば、スコアに付与された言語ラベル(例:「ややそう思う」や「どちらともいえない」などのラベル)や、選択肢の中におけるスコアのスケール内での相対位置(例:左端を「0%」、右端を「100%」とした座標軸における左端から30%の位置を示す座標)などであり、以下、評定スケール情報という)を入力とし、評定スコアパラメタbを回帰するための関数である。
【0025】
つまり、式(4)で表されるRS-GRMは、3つの情報x, z, vから3つの潜在パラメタθ, β, bをそれぞれ回帰する説明的RS-GRMである。
【0026】
関数f, g, hは任意の関数とすることができるが、説明的項目反応モデルでは一般的に興味の対象は評定項目にあるため、評定項目パラメタβのみをg(z)に置き換え、その際、解釈性を求めるため関数gを線形回帰といった簡単な関数とすることが多い。しかし、それではその回帰の部分で誤差が生じやすいため、全体として評定値の推定に誤差がのりやすくなる。ここでは、推定性能を高めるために、関数f, g, hに関する部分の解釈は難しくなるが、関数f, g, hのすべての関数について深層学習技術を用いることとする。
【0027】
最後に、CORALとの組合せに適した項目反応モデルがRS-GRM族であることについて確認する。項目反応理論では、項目反応モデルのうち、式(3)の左辺に隣接カテゴリロジットを用いる部分採点モデルPCM(Partial Credit Model)や、評定項目パラメタが評定項目に加え評定スケールにも依存する段階反応モデルGRM(Graded Response Model)がよく用いられる(図3参照)。図3において、βiは評定項目にのみ依存する評定項目パラメタ(拘束あり評定項目パラメタという)、βisは評定項目と評定スケールに依存する評定項目パラメタ(拘束なし評定項目パラメタという)を表す。
【0028】
CORALではリンク関数として累積ロジットを用いるため、図3の表のうち、CORALはリンク関数として隣接カテゴリロジットを用いるモデルとは整合しない。また、GRM族が評定項目パラメタβisの回帰において任意の評定項目について順序性を満たす(すなわち、ziからの回帰でβi(s-1)≦βisを満たす)ことを保証するためには、βis=g(zi)+bs’のような形に拘束せざるを得ず、この場合RS-GRM族と同じ形となる。
【0029】
よって、CORALとの組合せに適した項目反応モデルは、図3の表のうち、RS-GRMと1P-RS-GRM、すなわち、RS-GRM族となることがわかる。
【0030】
<<3:感情評定モデル>>
RS-GRM族をCORALと組み合わせることにより得られる感情評定モデルについて、評定者に対する課題(例えば、評定者による快/不快の判断や、興奮/鎮静の判断などのことであり、課題とは評定者が評定項目を判断する観点のことをいう)が1つの場合と2つ以上である場合に分けて説明する。
【0031】
図4は、課題が1つである場合の感情評定モデルの構造を示す。図4の感情評定モデルは、評定項目情報z、評定者情報x、評定スケール情報vを入力とし、評定値Yがsより大きい確率P(Y>s)(s=1, …, S-1)を出力する関数である。その際、感情評定モデルは、評定項目情報zから評定項目パラメタβを計算するニューラルネットワークとして構成される関数gと、評定者情報xから評定者パラメタθを計算するニューラルネットワークとして構成される関数fと、評定スケール情報vから評定スコアパラメタb(ただし、b=(b1, …, bS-1)tはb1≦…≦bS-1を満たす)を計算するニューラルネットワークとして構成される関数hと、次式により評定項目パラメタβ、評定者パラメタθ、評定スコアパラメタbから評定値Yがsより大きい確率P(Y>s)を計算する関数kとを用いて、確率P(Y>s)(s=1, …, S-1)を計算する。
【数8】

式(5)と等価な次式を用いてもよい。
【数9】

ここで、ニューラルネットワークとして構成される関数g, f, hは、次式の損失Lを用いて、学習が実行される。
【数10】

(ただし、評定項目iに関する評定項目情報zi(i=1, …, I)、評定者jに関する評定者情報xj(j=1, …, J)、評定スケールsに関する評定スケール情報vs(s=1, …, S-1)、評定項目iに関する評定者jによる評定値yi,j(i=1, …, I, j=1, …, J)は学習データである)
また、図5は、課題が2つである場合の感情評定モデルの構造を示す。ここで、/wはニューラルネットワークの入力層から最終層である出力層の直前の層を表す。以下、課題の数を表すNを2以上の整数とし、感情評定モデルについて説明する。感情評定モデルは、評定項目情報z、評定者情報x、評定スケール情報vを入力とし、課題nに対する評定値Ynがsより大きい確率P(Yn>s)(n=1, …, N, s=1, …, S-1)を出力する関数である。その際、感情評定モデルは、評定項目情報zから課題nに対する評定項目パラメタβnを計算するニューラルネットワークとして構成される関数gn(n=1, …, N)と、評定者情報xから課題nに対する評定者パラメタθnを計算するニューラルネットワークとして構成される関数fn(n=1, …, N)と、評定スケール情報vから課題nに対する評定スコアパラメタbn(ただし、bn=(b1 n, …, bS-1 n)tはb1 n≦…≦bS-1 nを満たす)を計算するニューラルネットワークとして構成される関数hn(n=1, …, N)と、次式により課題nに対する評定項目パラメタβn、課題nに対する評定者パラメタθn、課題nに対する評定スコアパラメタbnから課題nに対する評定値ynがsより大きい確率P(yn>s)を計算する関数kn(n=1, …, N)とを用いて、確率P(yn>s)(n=1, …, N, s=1, …, S-1)を計算する。
【数11】

式(7)と等価な次式を用いてもよい。
【数12】

なお、図5に示すように、関数gn(n=1, …, N)を構成するニューラルネットワークについては、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとすることができる。同様に、関数fn(n=1, …, N)を構成するニューラルネットワークについても、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとすることができるし、関数hn(n=1, …, N)を構成するニューラルネットワークについても、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとすることができる。
【0032】
ここで、ニューラルネットワークとして構成される関数gn(n=1, …, N), fn(n=1, …, N), hn(n=1, …, N)は、次式の損失Lを用いて、学習が実行される。
【数13】

【数14】

(ただし、評定項目iに関する評定項目情報zi(i=1, …, I)、評定者jに関する評定者情報xj(j=1, …, J)、評定スケールsに関する評定スケール情報vs(s=1, …, S-1)、評定項目iに関する評定者jによる課題nに対する評定値yi,j n(i=1, …, I, j=1, …, J)は学習データである)
感情評定モデルを用いると、心理学の観点から、評定項目にどのくらいの心的状態に関する情報が含まれるか、評定項目を評定する評定者の特性(能力)がどのくらいでその結果としてどのような評定をするかといった点について説明することが可能となる。そのため、モデルに対する再現性や信頼性が向上し、感情評定モデルを用いて対人インタラクションの支援、トレーニング、介入の効率化などのサービス、アプリケーションに導入が可能となる。また、その際の導入コストの軽減も可能となる。
【0033】
<第1実施形態>
<<感情評定モデル学習装置100>>
感情評定モデル学習装置100は、感情評定モデルを学習する。ここで、感情評定モデルとは、Sを2以上の整数とし、評定項目情報z、評定者情報x、評定スケール情報vを入力とし、評定項目情報zから評定項目パラメタβを計算するニューラルネットワークとして構成される関数gと、評定者情報xから評定者パラメタθを計算するニューラルネットワークとして構成される関数fと、評定スケール情報vから評定スコアパラメタb(ただし、b=(b1, …, bS-1)tはb1≦…≦bS-1を満たす)を計算するニューラルネットワークとして構成される関数hと、式(5)により評定項目パラメタβ、評定者パラメタθ、評定スコアパラメタbから評定値Yがsより大きい確率P(Y>s)を計算する関数kとを用いて、確率P(Y>s)(s=1, …, S-1)を計算し、出力する関数である。なお、式(5)の代わりに、式(5)と等価な式(6)を用いてもよい。また、評定項目情報、評定者情報、評定スケール情報とは、それぞれ評定項目に関する情報、評定者に関する情報、評定スケールに関する情報である。
【0034】
以下、図6図7を参照して感情評定モデル学習装置100を説明する。図6は、感情評定モデル学習装置100の構成を示すブロック図である。図7は、感情評定モデル学習装置100の動作を示すフローチャートである。図6に示すように感情評定モデル学習装置100は、学習部110と、記録部190を含む。記録部190は、感情評定モデル学習装置100の処理に必要な情報を適宜記録する構成部である。記録部190は、例えば、感情評定モデルのパラメタの初期値を予め記録しておく。また、記録部190は、感情評定モデルの学習に用いる学習データを外部から入力する代わりに予め記録しておいてもよい。
【0035】
図7に従い感情評定モデル学習装置100の動作について説明する。
【0036】
S110において、学習部110は、学習データを用いて、感情評定モデルを学習する。以下、図8図9を参照して学習部110を説明する。図8は、学習部110の構成を示すブロック図である。図9は、学習部110の動作を示すフローチャートである。図8に示すように学習部110は、初期化部111と、第1関数計算部112と、第2関数計算部113と、第3関数計算部114と、第4関数計算部115と、損失計算部116と、モデルパラメタ更新部117と、終了条件判定部118を含む。
【0037】
図9に従い学習部110の動作について説明する。
【0038】
S111において、初期化部111は、感情評定モデルのパラメタを初期化する。感情評定モデルのパラメタは、関数gを構成するニューラルネットワークのパラメタ、関数fを構成するニューラルネットワークのパラメタ、関数hを構成するニューラルネットワークのパラメタを含む。初期化部111は、記録部190に記録されている初期値を用いて、感情評定モデルのパラメタを初期化する。また、初期化部111は、例えば、乱数を用いて生成した初期値を用いて、感情評定モデルのパラメタを初期化してもよい。
【0039】
S112において、第1関数計算部111は、学習データである評定項目iに関する評定項目情報zi(i=1, …, I)から、βi=g(zi)により、評定項目パラメタβi(i=1, …, I)を計算する。ここで、関数gを構成するニューラルネットワークのパラメタは、学習中のものを用いる。
【0040】
S113において、第2関数計算部113は、学習データである評定者jに関する評定者情報xj(j=1, …, J)から、θj=f(xj)により、評定者パラメタθj(j=1, …, J)を計算する。ここで、関数fを構成するニューラルネットワークのパラメタは、学習中のものを用いる。
【0041】
S114において、第3関数計算部114は、学習データである評定スケールsに関する評定スケール情報vs(s=1, …, S-1)から、bs=h(vs)により、評定スコアパラメタb(ただし、b=(b1, …, bS-1)tはb1≦…≦bS-1を満たす)を計算する。ここで、関数hを構成するニューラルネットワークのパラメタは、学習中のものを用いる。
【0042】
S115において、第4関数計算部115は、S112で計算した評定項目パラメタβi(i=1, …, I)、S113で計算した評定者パラメタθj(j=1, …, J)、S114で計算した評定スコアパラメタbから、次式により、評定項目iに関する評定者jによる評定値Yijがsより大きい確率P(Yij>s)(i=1, …, I, j=1, …, J, s=1, …, S-1)を計算する。
【数15】

なお、第4関数計算部115は、上式と等価な次式により、確率P(Yij>s)(i=1, …, I, j=1, …, J, s=1, …, S-1)を計算してもよい。
【数16】

S116において、損失計算部116は、S115で計算した確率P(Yij>s)(i=1, …, I, j=1, …, J, s=1, …, S-1)、学習データである評定項目iに関する評定者jによる評定値yi,j(i=1, …, I, j=1, …, J)から、次式により、損失を計算する。
【数17】

S117において、モデルパラメタ更新部117は、S116で計算した損失を用いて、感情評定モデルのパラメタを更新する。モデルパラメタ更新部117は、例えば、Adamを用いて、パラメタを更新するとよい。
【0043】
S118において、終了条件判定部118は、事前に設定しているパラメタ更新に関する終了条件の真偽を判定し、終了条件が満たされる場合はS117で更新したパラメタを出力し、処理を終了する一方で、終了条件が満たされない場合はS112~S117の処理を繰り返す。終了条件は、例えばS112~S117の処理の実行回数が所定の回数(例えば、5000回)に達したか否かという条件とすることができる。
【0044】
<<感情評定値推定装置200>>
感情評定値推定装置200は、学習済みの感情評定モデルを用いて、入力情報から、当該入力情報の評定値を推定する。ここで、入力情報とは、入力評定項目情報~zと入力評定者情報~xと入力評定スケール情報~vの組のことである。また、学習済みの感情評定モデルとは、感情評定モデル学習装置100を用いて学習した感情評定モデルのことである。
【0045】
以下、図10図11を参照して感情評定値推定装置200を説明する。図10は、感情評定値推定装置200の構成を示すブロック図である。図11は、感情評定値推定装置200の動作を示すフローチャートである。図10に示すように感情評定値推定装置200は、第1関数計算部112と、第2関数計算部113と、第3関数計算部114と、第4関数計算部115と、評定値計算部220と、記録部290を含む。記録部290は、感情評定値推定装置200の処理に必要な情報を適宜記録する構成部である。記録部290は、例えば、学習済みの感情評定モデルのパラメタを予め記録しておく。
【0046】
図11に従い感情評定値推定装置200の動作について説明する。
【0047】
S112において、第1関数計算部111は、入力情報に含まれる入力評定項目情報~zから、~β=g(~z)により、評定項目パラメタ~βを計算する。ここで、gは感情評定モデル学習装置100を用いて学習した感情評定モデルに含まれる評定項目情報zから評定項目パラメタβを計算するニューラルネットワークとして構成される関数である。
【0048】
S113において、第2関数計算部113は、入力情報に含まれる入力評定者情報~xから、~θ=f(~x)により、評定者パラメタ~θを計算する。ここで、fは感情評定モデル学習装置100を用いて学習した感情評定モデルに含まれる評定者情報xから評定者パラメタθを計算するニューラルネットワークとして構成される関数である。
【0049】
S114において、第3関数計算部114は、入力情報に含まれる入力評定スケール情報~vから、~b=h(~v)により、評定スコアパラメタ~b(ただし、~b=(~b1, …, ~bS-1)tは~b1≦…≦~bS-1を満たす)を計算する。ここで、hは感情評定モデル学習装置100を用いて学習した感情評定モデルに含まれる評定スケール情報vから評定スコアパラメタb(ただし、b=(b1, …, bS-1)tはb1≦…≦bS-1を満たす)を計算するニューラルネットワークとして構成される関数である。
【0050】
S115において、第4関数計算部115は、S112で計算した評定項目パラメタ~β、S113で計算した評定者パラメタ~θ、S114で計算した評定スコアパラメタ~bから、次式により、評定値Yがsより大きい確率P(Y>s)(s=1, …, S-1)を計算する。
【数18】

なお、第4関数計算部115は、上式と等価な次式により、確率P(Y>s)(s=1, …, S-1)を計算してもよい。
【数19】

S220において、評定値計算部220は、S115で計算した確率P(Y>s)(s=1, …, S-1)から、入力情報の評定値~yを計算する。評定値計算部220は、例えば、P(Y=s)=P(Y>s-1)-P(Y>s)により、評定値Yがsとなる確率P(Y=s)(s=1, …, S)を計算し、~y=argmaxP(Y>s)により、評定値~yを計算するとよい。
【0051】
本発明の実施形態によれば、推定された評定値に対する解釈を与えることが可能となる。また、深層学習技術を用いて対象人物の状態に関する他者の評定に関するモデルを構築することにより、より正確に評定値を推定することが可能となる。
【0052】
<第2実施形態>
第1実施形態では、評定者が評定項目を判断する観点である課題が1つの場合の感情評定モデルについて説明したが、課題は2以上あってもよい。そこで、本実施形態では、課題が2以上の場合における感情評定モデルについて説明する。
【0053】
<<感情評定モデル学習装置100>>
感情評定モデル学習装置100は、感情評定モデルを学習する。ここで、感情評定モデルとは、Sを2以上の整数、Nを2以上の整数とし、評定項目情報z、評定者情報x、評定スケール情報vを入力とし、評定項目情報zから課題nに対する評定項目パラメタβnを計算するニューラルネットワークとして構成される関数gn(n=1, …, N)と、評定者情報xから課題nに対する評定者パラメタθnを計算するニューラルネットワークとして構成される関数fn(n=1, …, N)と、評定スケール情報vから課題nに対する評定スコアパラメタbn(ただし、bn=(b1 n, …, bS-1 n)tはb1 n≦…≦bS-1 nを満たす)を計算するニューラルネットワークとして構成される関数hn(n=1, …, N)と、式(7)により課題nに対する評定項目パラメタβn、課題nに対する評定者パラメタθn、課題nに対する評定スコアパラメタbnから課題nに対する評定値Ynがsより大きい確率P(Yn>s)を計算する関数kn(n=1, …, N)とを用いて、確率P(Yn>s)(n=1, …, N, s=1, …, S-1)を計算し、出力する関数である。なお、式(7)の代わりに、式(7)と等価な式(8)を用いてもよい。また、評定項目情報、評定者情報、評定スケール情報とは、それぞれ評定項目に関する情報、評定者に関する情報、評定スケールに関する情報である。
【0054】
以下、図6図7を参照して感情評定モデル学習装置100を説明する。図6は、感情評定モデル学習装置100の構成を示すブロック図である。図7は、感情評定モデル学習装置100の動作を示すフローチャートである。図6に示すように感情評定モデル学習装置100は、学習部110と、記録部190を含む。記録部190は、感情評定モデル学習装置100の処理に必要な情報を適宜記録する構成部である。記録部190は、例えば、感情評定モデルのパラメタの初期値を予め記録しておく。また、記録部190は、感情評定モデルの学習に用いる学習データを外部から入力する代わりに予め記録しておいてもよい。
【0055】
図7に従い感情評定モデル学習装置100の動作について説明する。
【0056】
S110において、学習部110は、学習データを用いて、感情評定モデルを学習する。以下、図8図9を参照して学習部110を説明する。図8は、学習部110の構成を示すブロック図である。図9は、学習部110の動作を示すフローチャートである。図8に示すように学習部110は、初期化部111と、第1関数計算部112と、第2関数計算部113と、第3関数計算部114と、第4関数計算部115と、損失計算部116と、モデルパラメタ更新部117と、終了条件判定部118を含む。
【0057】
図9に従い学習部110の動作について説明する。
【0058】
S111において、初期化部111は、感情評定モデルのパラメタを初期化する。感情評定モデルのパラメタは、関数gn(n=1, …, N)を構成するニューラルネットワークのパラメタ、関数fn(n=1, …, N)を構成するニューラルネットワークのパラメタ、関数hn(n=1, …, N)を構成するニューラルネットワークのパラメタを含む。初期化部111は、記録部190に記録されている初期値を用いて、感情評定モデルのパラメタを初期化する。また、初期化部111は、例えば、乱数を用いて生成した初期値を用いて、感情評定モデルのパラメタを初期化してもよい。
【0059】
S112において、第1関数計算部111は、学習データである評定項目iに関する評定項目情報zi(i=1, …, I)から、βi n=gn(zi)により、課題nに対する評定項目パラメタβi n(i=1, …, I)を計算する。ここで、関数gnを構成するニューラルネットワークのパラメタは、学習中のものを用いる。
【0060】
S113において、第2関数計算部113は、学習データである評定者jに関する評定者情報xj(j=1, …, J)から、θj n=fn(xj)により、課題nに対する評定者パラメタθj n(j=1, …, J)を計算する。ここで、関数fnを構成するニューラルネットワークのパラメタは、学習中のものを用いる。
【0061】
S114において、第3関数計算部114は、学習データである評定スケールsに関する評定スケール情報vs(s=1, …, S-1)から、bs n=hn(vs)により、課題nに対する評定スコアパラメタbn(ただし、bn=(b1 n, …, bS-1 n)tはb1 n≦…≦bS-1 nを満たす)を計算する。ここで、関数hnを構成するニューラルネットワークのパラメタは、学習中のものを用いる。
【0062】
S115において、第4関数計算部115は、S112で計算した評定項目パラメタβi n(i=1, …, I)、S113で計算した評定者パラメタθj n(j=1, …, J)、S114で計算した評定スコアパラメタb nから、次式により、評定項目iに関する評定者jによる課題nの評定値Yij nがsより大きい確率P(Yij n>s)(i=1, …, I, j=1, …, J, s=1, …, S-1)を計算する。
【数20】

なお、第4関数計算部115は、上式と等価な次式により、確率P(Yij>s)(i=1, …, I, j=1, …, J, s=1, …, S-1)を計算してもよい。
【数21】

S116において、損失計算部116は、S115で計算した確率P(Yij n>s)(i=1, …, I, j=1, …, J, s=1, …, S-1)、学習データである評定項目iに関する評定者jによる課題nに対する評定値yi,j n(i=1, …, I, j=1, …, J)から、次式により、損失を計算する。
【数22】

【数23】

S117において、モデルパラメタ更新部117は、S116で計算した損失を用いて、感情評定モデルのパラメタを更新する。モデルパラメタ更新部117は、例えば、Adamを用いて、パラメタを更新するとよい。
【0063】
S118において、終了条件判定部118は、事前に設定しているパラメタ更新に関する終了条件の真偽を判定し、終了条件が満たされる場合はS117で更新したパラメタを出力し、処理を終了する一方で、終了条件が満たされない場合はS112~S117の処理を繰り返す。終了条件は、例えばS112~S117の処理の実行回数が所定の回数(例えば、5000回)に達したか否かという条件とすることができる。
【0064】
なお、関数gn(n=1, …, N)を構成するニューラルネットワークについては、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとすることができる。同様に、関数fn(n=1, …, N)を構成するニューラルネットワークについても、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとすることができるし、関数hn(n=1, …, N)を構成するニューラルネットワークについても、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとすることができる。
【0065】
(変形例)
上記説明では、評定スケール情報の数を表すSをN個の課題の間で共通のものとして説明したが、評定スケール情報の数は、課題ごとに異なるものであってもよい。この場合、感情評定モデルは、S(n)(n=1, …, N、Nを2以上の整数)を2以上の整数とし、評定項目情報z、評定者情報x、課題nに対する評定スケール情報v(n)(n=1, …, N)を入力とし、評定項目情報zから課題nに対する評定項目パラメタβnを計算するニューラルネットワークとして構成される関数gn(n=1, …, N)と、評定者情報xから課題nに対する評定者パラメタθnを計算するニューラルネットワークとして構成される関数fn(n=1, …, N)と、課題nに対する評定スケール情報v(n)から課題nに対する評定スコアパラメタbn(ただし、bn=(b1 n, …, bS(n)-1 n)tはb1 n≦…≦bS(n)-1 nを満たす)を計算するニューラルネットワークとして構成される関数hn(n=1, …, N)と、式(7)により課題nに対する評定項目パラメタβn、課題nに対する評定者パラメタθn、課題nに対する評定スコアパラメタbnから課題nに対する評定値Ynがsより大きい確率P(Yn>s)を計算する関数kn(n=1, …, N)とを用いて、確率P(Yn>s)(n=1, …, N, s=1, …, S(n)-1)を計算し、出力する関数である。なお、式(7)の代わりに、式(7)と等価な式(8)を用いてもよい。この場合も、関数gn(n=1, …, N)を構成するニューラルネットワークと関数fn(n=1, …, N)を構成するニューラルネットワークについては、それぞれ、当該N個のニューラルネットワークの間で出力層の直前の層までの構造を共通のものとすることができる。
【0066】
<<感情評定値推定装置200>>
感情評定値推定装置200は、学習済みの感情評定モデルを用いて、入力情報から、当該入力情報の評定値を推定する。ここで、入力情報とは、入力評定項目情報~zと入力評定者情報~xと入力評定スケール情報~vの組のことである。また、学習済みの感情評定モデルとは、感情評定モデル学習装置100を用いて学習した感情評定モデルのことである。
【0067】
以下、図10図11を参照して感情評定値推定装置200を説明する。図10は、感情評定値推定装置200の構成を示すブロック図である。図11は、感情評定値推定装置200の動作を示すフローチャートである。図10に示すように感情評定値推定装置200は、第1関数計算部112と、第2関数計算部113と、第3関数計算部114と、第4関数計算部115と、評定値計算部220と、記録部290を含む。記録部290は、感情評定値推定装置200の処理に必要な情報を適宜記録する構成部である。記録部290は、例えば、学習済みの感情評定モデルのパラメタを予め記録しておく。
【0068】
図11に従い感情評定値推定装置200の動作について説明する。
【0069】
S112において、第1関数計算部111は、入力情報に含まれる入力評定項目情報~zから、~βn=gn(~z)により、課題nに対する評定項目パラメタ~βn(n=1, …, N)を計算する。ここで、gnは感情評定モデル学習装置100を用いて学習した感情評定モデルに含まれる評定項目情報zから課題nに対する評定項目パラメタβnを計算するニューラルネットワークとして構成される関数である。
【0070】
S113において、第2関数計算部113は、入力情報に含まれる入力評定者情報~xから、~θn=fn(~x)により、課題nに対する評定者パラメタ~θn(n=1, …, N)を計算する。ここで、fnは感情評定モデル学習装置100を用いて学習した感情評定モデルに含まれる評定者情報xから課題nに対する評定者パラメタθnを計算するニューラルネットワークとして構成される関数である。
【0071】
S114において、第3関数計算部114は、入力情報に含まれる入力評定スケール情報~vから、~bn=hn(~v)により、課題nに対する評定スコアパラメタ~bn(n=1, …, N、ただし、~bn=(~b1 n, …, ~bS-1 n)tは~b1 n≦…≦~bS-1 nを満たす)を計算する。ここで、hnは感情評定モデル学習装置100を用いて学習した感情評定モデルに含まれる評定スケール情報vから評定スコアパラメタbn(n=1, …, N、ただし、bn=(b1 n, …, bS-1 n)tはb1 n≦…≦bS-1 nを満たす)を計算するニューラルネットワークとして構成される関数である。
【0072】
S115において、第4関数計算部115は、S112で計算した評定項目パラメタ~βn(n=1, …, N)、S113で計算した評定者パラメタ~θn(n=1, …, N)、S114で計算した評定スコアパラメタ~bn(n=1, …, N)から、次式により、課題nに対する評定値Ynがsより大きい確率P(Yn>s)(n=1, …, N, s=1, …, S-1)を計算する。
【数24】

なお、第4関数計算部115は、上式と等価な次式により、確率P(Yn>s)(n=1, …, N, s=1, …, S-1)を計算してもよい。
【数25】

S220において、評定値計算部220は、S115で計算した確率P(Yn>s)(n=1, …, N, s=1, …, S-1)から、入力情報の課題nに対する評定値~ynを計算する。評定値計算部220は、例えば、P(Yn=s)=P(Yn>s-1)-P(Yn>s)により、評定値Ynがsとなる確率P(Yn=s)(s=1, …, S)を計算し、~yn=argmaxP(Yn>s)により、評定値~ynを計算するとよい。
【0073】
本発明の実施形態によれば、推定された評定値に対する解釈を与えることが可能となる。また、深層学習技術を用いて対象人物の状態に関する他者の評定に関するモデルを構築することにより、より正確に評定値を推定することが可能となる。
【0074】
<補記>
図12は、上述の各装置を実現するコンピュータ2000の機能構成の一例を示す図である。上述の各装置における処理は、記録部2020に、コンピュータ2000を上述の各装置として機能させるためのプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
【0075】
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD-ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
【0076】
ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。
【0077】
ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成部)を実現する。
【0078】
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
【0079】
既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。
【0080】
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD-RAM(Random Access Memory)、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP-ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
【0081】
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
【0082】
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
【0083】
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
【0084】
上述の本発明の実施形態の記載は、例証と記載の目的で提示されたものである。網羅的であるという意思はなく、開示された厳密な形式に発明を限定する意思もない。変形やバリエーションは上述の教示から可能である。実施形態は、本発明の原理の最も良い例証を提供するために、そして、この分野の当業者が、熟考された実際の使用に適するように本発明を色々な実施形態で、また、色々な変形を付加して利用できるようにするために、選ばれて表現されたものである。すべてのそのような変形やバリエーションは、公正に合法的に公平に与えられる幅にしたがって解釈された添付の請求項によって定められた本発明のスコープ内である。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12