IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通株式会社の特許一覧

特開2024-83128AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置
<>
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図1
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図2
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図3
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図4
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図5
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図6
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図7
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図8
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図9
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図10
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図11
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図12
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図13
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図14
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図15
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図16
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図17
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図18
  • 特開-AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置 図19
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024083128
(43)【公開日】2024-06-20
(54)【発明の名称】AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240613BHJP
   G06F 16/903 20190101ALI20240613BHJP
【FI】
G06N20/00
G06F16/903
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2022197473
(22)【出願日】2022-12-09
(71)【出願人】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】110003649
【氏名又は名称】弁理士法人真田特許事務所
(74)【代理人】
【識別番号】100189201
【弁理士】
【氏名又は名称】横田 功
(72)【発明者】
【氏名】山本 達也
(72)【発明者】
【氏名】新田 泉
(72)【発明者】
【氏名】大橋 恭子
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175HA01
(57)【要約】
【課題】AIシステムの開発者や提供者が、AIシステムの運用によって発生し得る倫理リスクを適切に認識し対処することを支援する。
【解決手段】Artificial Intelligence(AI)システム100の構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性を含む複数の関係情報を取得し、複数の関係情報のそれぞれがデータのマージに関連付いているか否かに基づいて、複数の関係情報の優先度を決定し、各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステム100のチェックリストとして出力する。
【選択図】図7
【特許請求の範囲】
【請求項1】
Artificial Intelligence(AI)システムの構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性をそれぞれが含む複数の関係情報を取得し、
前記複数の関係情報のそれぞれがデータのマージに関連付いているか否かに基づいて、前記複数の関係情報の優先度を決定し、
各属性と対応付けられた複数のチェック項目のうち、決定された前記優先度に基づいて選択された一又は複数のチェック項目を、前記AIシステムのチェックリストとして出力する、
処理をコンピュータに実行させる、AIシステムチェックプログラム。
【請求項2】
前記優先度を決定する処理は、前記複数の関係情報のうちデータのマージに関連付いた関係情報の優先度を高くする処理を含む、
請求項1に記載のAIシステムチェックプログラム。
【請求項3】
前記優先度を決定する処理は、データのマージが関連付いた関係情報について、マージの対象である第1のデータ及び第2のデータについて、前記第1のデータの要素が前記第2のデータの要素の包含関係にある場合に、前記第1のデータの要素と前記第2のデータの要素が同一の場合又は前記第1のデータの要素と前記第2のデータの要素とが全く重複しない場合よりも、優先度を高くすることによって実行される、
請求項1又は2に記載のAIシステムチェックプログラム。
【請求項4】
前記優先度を決定する処理は、データのマージが関連付いた前記関係情報について、前記第1のデータの要素と前記第2のデータの要素が同一の場合に、前記第1のデータの要素と前記第2のデータの要素とが全く重複しない場合よりも、優先度を高くすることによって実行される、
請求項3に記載のAIシステムチェックプログラム。
【請求項5】
前記優先度を決定する処理は、前記対象者の種別の属性に基づいて実行される、
請求項1又は2に記載のAIシステムチェックプログラム。
【請求項6】
Artificial Intelligence(AI)システムの構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性をそれぞれが含む複数の関係情報を取得し、
前記複数の関係情報のそれぞれがデータのマージに関連付いているか否かに基づいて、前記複数の関係情報の優先度を決定し、
各属性と対応付けられた複数のチェック項目のうち、決定された前記優先度に基づいて選択された一又は複数のチェック項目を、前記AIシステムのチェックリストとして出力する、
処理をコンピュータが実行する、AIシステムチェック方法。
【請求項7】
Artificial Intelligence(AI)システムの構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性をそれぞれが含む複数の関係情報を取得し、
前記複数の関係情報のそれぞれがデータのマージに関連付いているか否かに基づいて、前記複数の関係情報の優先度を決定し、
各属性と対応付けられた複数のチェック項目のうち、決定された前記優先度に基づいて選択された一又は複数のチェック項目を、前記AIシステムのチェックリストとして出力する、
プロセッサを備える、情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、AIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置に関する。
【背景技術】
【0002】
AI(Artificial Intelligence)システムにおいて、倫理的なリスクのアセスメントが行われることがある。
【0003】
さまざまな業種やタスクのAIシステムを利用することで、倫理上の問題が発生することがある。そのような問題が発生すると、AIシステムを提供した企業や組織だけでなく、AIシステムの利用者やその先にある社会に対する影響も大きい。
【0004】
そこで、AIを社会実装する上で、倫理上のリスクを認識し対処できるような取り組みが行われている。
【0005】
しかし、AIシステムが複数のステークホルダーを持ち、それらを取り巻く社会状況が変化することで、AIシステムの利用によってどのような倫理的な問題が発生するかを検知することは容易でない場合がある。
【0006】
そこで、AI倫理に関する原則やガイドラインが示すチェックリストそのものが、AIシステムやそのステークホルダーに当てはめられて分析されることがある。
【0007】
AI倫理に関する原則やガイドラインの例としては、「欧州High-Level Expert Group on AI (AI HLEG) “Ethics Guidelines for Trustworthy AI”」や「総務省 AI利活用ガイドライン」,「統合イノベーション戦略推進会議“人間中心のAI社会原則”」,「OECD “Recommendation of the Council on Artificial Intelligence”」が存在する。
【0008】
また、様々なAIサービス提供の形態の存在を踏まえつつ、AIサービス提供者が自らのAIサービスに係るリスクコントロール検討に資するモデルとして、「リスクチェーンモデル(Risk Chain Model: RCModel)」が提案されている。
【0009】
リスクチェーンモデルでは、以下の(1)~(3)によって、リスク構成要素の整理及び構造化が行われる。
【0010】
(1)AIシステムの技術的構成要素
(2)サービス提供者の行動規範(ユーザとのコミュニケーションを含む)に係る構成要素
(3)ユーザの理解・行動・利用環境に係る構成要素
【0011】
また、リスクチェーンモデルでは、リスクシナリオの識別及びリスク要因となる構成要素の特定と、リスクチェーンの可視化及びリスクコントロールの検討が行われる。リスクチェーンの可視化及びリスクコントロールの検討では、AIサービス提供者はリスクシナリオに関連する構成要素の関係性(リスクチェーン)を可視化することで、段階的なリスク低減の検討が可能になる。
【先行技術文献】
【特許文献】
【0012】
【特許文献1】国際公開第2021/199201号
【特許文献2】特開2021-057047号公報
【特許文献3】米国公開公報第2020/0097849号
【非特許文献】
【0013】
【非特許文献1】松本敬史,江間有沙,“AIサービスのリスク低減を検討するリスクチェーンモデルの提案”,2020年6月4日,インターネット<URL:ifi.u-tokyo.ac.jp/wp/wp-content/uploads/2020/06/policy_recommendation_tg_20200604.pdf>
【発明の概要】
【発明が解決しようとする課題】
【0014】
しかしながら、原則やガイドラインが示すチェックリストは、AIシステムのどの部分がどうあるべきかを具体的に示すものではなく、AIシステムの開発者や提供者が具体化する必要がある。この具体化作業は難易度が高く、工数の負担も大きい。
【0015】
また、リスクチェーンモデルはリスク構成要素が整理されているが、AIシステム提供者や開発者が、AIシステムのコンポーネントや個々のステークホルダーに対して実践すべき項目に落とし込む必要がある。
【0016】
更に、AIシステムの構成が更新された場合には、AIシステムの運用によって発生し得る倫理リスクも検討し直しとなり、倫理リスクの認識が効率的に行えないおそれがある。
【0017】
1つの側面では、AIシステムの開発者や提供者が、AIシステムの運用によって発生し得る倫理リスクを適切に認識し対処することを支援することを目的とする。
【課題を解決するための手段】
【0018】
1つの側面では、AIシステムチェックプログラムは、Artificial Intelligence(AI)システムの構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性を含む複数の関係情報を取得し、前記複数の関係情報のうちデータのマージによって生成された関係情報の有無に基づいて、前記複数の関係情報の優先度を決定し、各属性と対応付けられた複数のチェック項目のうち、決定された前記優先度に基づいて選択された一又は複数のチェック項目を、前記AIシステムのチェックリストとして出力する、処理をコンピュータに実行させる。
【発明の効果】
【0019】
1つの側面では、AIシステムの開発者や提供者が、AIシステムの運用によって発生し得る倫理リスクを適切に認識し対処することを支援することができる。
【図面の簡単な説明】
【0020】
図1】分析対象システム図の第1の例を示すブロック図である。
図2】関連例における分析シートからのグラフ構造の生成例を示す図である。
図3】関連例における情報処理装置のソフトウェア構成例を模式的に示すブロック図である。
図4】関連例における優先度付きチェックリストの出力処理を説明するフローチャートである。
図5】関連例におけるAI倫理チェックリストの生成処理の詳細を説明するフローチャートである。
図6】実施形態における優先度付きチェックリストの出力処理を説明するフローチャートである。
図7】実施形態におけるAI倫理に関わるリスクの変化の特徴の定性的特徴を説明する図である。
図8】実施形態におけるAI倫理に関わるリスクの変化の特徴の定量的特徴及び抽出を説明する図である。
図9】実施形態におけるデータインデックスを利用したAI倫理リスクの判定処理を説明する図である。
図10】実施形態におけるノード及びインタラクションの定義を説明する第1の図である。
図11】実施形態におけるノード及びインタラクションの定義を説明する第2の図である。
図12】実施形態における情報処理装置のソフトウェア構成例を模式的に示すブロック図である。
図13】実施形態におけるAI倫理チェックリストの生成処理の詳細を説明するフローチャートである。
図14】実施形態における分析シートからのグラフ構造の生成処理の第1の例を説明する図である。
図15】実施形態におけるインタラクションへのリスクの優先度付けの第1の例を説明する図である。
図16】分析対象システム図の第2の例を示すブロック図である。
図17】実施形態における分析シートからのグラフ構造の生成処理の第2の例を説明する図である。
図18】実施形態におけるインタラクションへのリスクの優先度付けの第2の例を説明する図である。
図19】実施形態における情報処理装置のハードウェア構成例を模式的に示すブロック図である。
【発明を実施するための形態】
【0021】
〔A〕関連例
図1は、分析対象システム図の第1の例を示すブロック図である。
【0022】
関連例では、AIシステム100が持つべき倫理的な特徴を、AIシステム100とステークホルダーとの関係に対応付けてチェックリスト化し、そのAI倫理チェックリストを用いて、AIシステム100の倫理リスクを分析する。これにより、AIサービス提供者10や開発者が、AIシステム100のコンポーネントや個々のステークホルダーに対して実践すべき項目に落とし込む作業を不要にする。
【0023】
また、AIシステム100の構成要素とステークホルダーとの関係をグラフ構造化し、グラフ構造の特徴に基づいてAI倫理チェック項目に優先度を付けたAI倫理チェックリストを自動生成する。これにより、重要なAI倫理チェック項目を優先的に分析することで効率化を実現する。
【0024】
図1に示すAIシステム100は、ローン審査AIのインタラクションを例示している。図2における矢印は、インタラクションを示す。インタラクションの両端(始点,終点)は、ステークホルダー,データ,AIシステムのコンポーネントのいずれかの要素となる。相互作用の始点,終点に対応する要素の役割(データ提供者20,30,利用者40,訓練データ101,ローン審査モデル103等)によりインタラクションの種類を規定する。各インタラクションに付されているSxxxはインタラクションIDを示す。
【0025】
AIシステム100は、AIサービスベンダ等のAIサービス提供者10と、信用調査機関等のデータ提供者20と、銀行等のデータ提供者30と、ローン申込者等の利用者40とによって使用される。
【0026】
訓練部110は、訓練データ101に対する機械学習によって、ローン審査モデル103(別言すれば、AIモデル)の訓練を実行するローン審査モデル訓練部102(別言すれば、機械学習部)を備える。訓練データ101は、データ提供者20からの信用スコアの入力や、データ提供者30からの取引データの入力によって、生成されてよい。
【0027】
予測部120は、ローン審査モデル103を用いて推論データ104に対する推論を行うことによって、審査結果106(別言すれば、推論結果)を出力する推論部105を備える。推論データ104は、データ提供者20からの信用スコアの入出力や、データ提供者30からの申込情報及び取引データの入出力、利用者40からの申込者情報の入力によって、生成されてよい。
【0028】
図2は、関連例における分析シートからのグラフ構造の生成例を示す図である。
【0029】
符号A1に示す分析シートには、インタラクションID毎に、ステークホルダーの種類,名称,役割説明,始点・終点の別や、データの種類,名称,始点・終点の別等が対応付けられている。
【0030】
例えば、インタラクションID「S101」には、ステークホルダーの種類「利用者」,名称「ローン申込者」,役割説明「申込者情報の提供」及び始点・終点の別「0(始点)」が対応付けられている。また、インタラクションID「S101」には、データの種類「推論結果」,データの名称「申込者情報(取引データ,信用スコア)」及び始点・終点の別「1(終点)」が対応付けられている。
【0031】
ここで、関連例におけるAI倫理リスクの分析処理について説明する。
【0032】
以下の(1)~(4)の手順で、リスク分析が実施される。
【0033】
(1)AIシステム100の構成要素、データ、ステークホルダー間の関係がシステム図(図1を参照)として作図され、インタラクションが抽出される。
【0034】
(2)分析シート(図2の符号A1を参照)にインタラクション毎の内訳が記載される。
【0035】
(3)AI倫理モデルに基づいて生成されるAI倫理チェックリスト(不図示)の各項目について、該当するインタラクションがそのチェック項目を満たさない状態から想定されるリスク(リスク事象・リスク要因)が抽出され、分析シートに記載される。なお、AI倫理モデルは、AI倫理に関する原則やガイドライン等を整理し、AIシステム100が満たすべきチェック項目のリストとして構成したものである。
【0036】
(4)分析シートのリスクが参照され、同内容のものが整理され、事象と要因との関係が記載される。可視化する場合はシステム図にリスク事象と要因とを追加した分析図(不図示)が作成される。
【0037】
すなわち、システム図、分析シート及び分析図が出力データとして出力される。
【0038】
上記のリスク分析の手順(3)において、AI倫理チェックリストの項目が多いため、すべてのチェックリストを検証するための工数が大きい。そこで、上記のリスク分析の手順(3)について、優先度付きのAI倫理チェックリスト生成処理が情報処理装置6(図3を用いて後述)によって実行される。
【0039】
AI倫理チェックリスト生成処理では、分析対象のAIシステム100とステークホルダーのいずれか2者間の関係(インタラクション)が情報処理装置6によってグラフ構造で表現される。そして、そのグラフ構造の特徴から、倫理的に注目すべき重要度の高い関係(インタラクション)がルールベースで抽出され、重要度の高い関係(インタラクション)と紐づいた、倫理的なリスクを抽出するためのチェック項目が、優先度付きのチェックリストとして情報処理装置6によって提示される。
【0040】
関連例における情報処理装置6は、AI倫理チェックリストの絞り込みを実施する。AI倫理チェックリストの絞り込みでは、「AIシステムの構成とステークホルダーとの関係」が持つ特徴が、インタラクションの集合から構成したグラフ構造の特徴として表現される。
【0041】
分析シートの表データは「インタラクション集合」のデータ形式になっているため、グラフ構造の自動生成が可能となる。グラフ構造の特徴として、例えば以下を自動抽出できる。
・ステークホルダーのノード数
・複数の役割を持つステークホルダーの数
・AIシステムと直接関わらないステークホルダーの数
【0042】
倫理的なリスクの発生が起こりやすいグラフ構造の特徴と、おさえておくべきAI倫理チェックリストの項目とが、あらかじめルールとして登録される。例えば、AIシステム100と直接関わらないステークホルダーの数が1つ以上ある場合は、そのステークホルダーが関わるインタラクションの優先度が上げられる。これは、AIシステム100の設計・開発において見落としがちな間接的なステークホルダーへの影響を把握するためである。
【0043】
グラフ構造の特徴から登録したルールに基づいて、重要度の高いAI倫理チェック項目が絞り込まれ、優先度付きのAI倫理チェックリストとして生成される。
【0044】
図2の符号A1に示す分析シートからは、符号A2に示すようなグラフ構造が生成されてよい。
【0045】
符号A2に示すグラフ構造では、丸印で示される各ノード間の矢印がインタラクションを表す。
【0046】
図2に示す例では、ローン申込者からの申込者情報の出力がS101で表され、申込者情報の銀行への入力がS102で表され、申込者情報の信用調査機関への入力がS103で表される。また、銀行からの申込者情報・取引データ・信用スコアの出力がS104で表され、信用調査機関からの申込者情報・取引データ・信用スコアの出力がS105で表される。更に、申込者情報・取引データ・信用スコアからローン審査推論部への入力がS106で表され、ローン審査推論部からの審査データの出力がS107で表される。
【0047】
符号A11に示すように、各ステークホルダーには、役割(ステークホルダーの種類)が登録され、符号A21に示すように、ローン申込者等の各ノードは、役割を持つ。
【0048】
ここで、注目すべき重要度の高いインタラクションの抽出は、以下の(1)~(3)の順に情報処理装置6(図3を用いて後述)によって行われる。
【0049】
(1)すべてのインタラクションの重要度が1点に設定される。
【0050】
(2)特定の特徴を持つインタラクションの重要度が加点される(特徴1つにつき1点加点されてよい)。
【0051】
(3)インタラクションが重要度で順位付される。
【0052】
上記の(2)における特定の特徴は、インタラクションの両端のノード(AIシステム100のコンポーネント、データ、ステークホルダー)の特徴と、接続関係の特徴とを含んでよい。インタラクションの両端のノードの特徴には、複数の役割(AIシステム提供者でデータ提供者)を持つステークホルダーと、利用者の役割を持つステークホルダーと、訓練データ提供者の役割を持つステークホルダーとが含まれてよい。接続関係の特徴には、AIシステム100の出力とつながらないステークホルダーのインタラクションと、訓練データあるいは推論データが複数のデータ提供者とつながるインタラクションとが含まれてよい。
【0053】
図3は、関連例における情報処理装置6のソフトウェア構成例を模式的に示すブロック図である。
【0054】
関連例における情報処理装置6は、グラフ生成部111,特徴抽出部112及びチェック項目抽出部113として機能する。
【0055】
グラフ生成部111は、AIシステム100の構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性を含む複数の関係情報(別言すれば、インタラクション)を取得する。グラフ生成部111は、分析対象のインタラクション集合141に基づき、関係情報を取得してよい。グラフ生成部111は、取得した関係情報に基づいて、図2に示したグラフ構造を生成してよい。
【0056】
特徴抽出部112は、対象者の種別の属性に基づいて、複数の関係情報の優先度を決定する。特徴抽出部112は、重要インタラクション抽出ルール142に基づいて、優先度を決定してよい。特徴抽出部112は、複数の関係情報のそれぞれに関係する特定の対象者の優先度を高くしてよい。特徴抽出部112は、複数の関係情報のうちの特定の関係情報の優先度を高くしてもよい。
【0057】
チェック項目抽出部113は、各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステム100の絞り込んだAI倫理チェックリスト114として出力する。
【0058】
関連例における優先度付きチェックリストの出力処理を、図4に示すフローチャート(ステップB1~B6)に従って説明する。
【0059】
グラフ生成部111は、図1に例示したAIシステム100のシステム図の入力を受け付ける(ステップB1)。AIシステム100のシステム図には、AIコンポーネントとステークホルダーのインタラクションとが記載される。
【0060】
グラフ生成部111は、チェックリストの入力を受け付ける(ステップB2)。チェックリストは、システム図から全インタラクションが抽出されることにより生成される。チェックリストは、インタラクション毎にリスクを抽出するためのリストであり、「AI倫理モデル」を用いて関連する「倫理観点」を自動抽出するものである。
【0061】
グラフ生成部111は、チェックリストに対して、AI倫理モデルによる役を付与する(ステップB3)。
【0062】
グラフ生成部111は、図2に例示したようにチェックリストをグラフ構造化する(ステップB4)。
【0063】
特徴抽出部112は、グラフ構造におけるノードの役割に応じて、インタラクションに優先度を付与する(ステップB5)。チェックリストのアイテム毎に、想起される「リスク要因/リスク事象」が抽出される。
【0064】
そして、チェック項目抽出部113は、優先度付きのチェックリストを出力する(ステップB6)。「リスク要因/リスク事象」をグルーピングし、整理したリスクがシステム図に描き込まれる。
【0065】
次に、関連例におけるAI倫理チェックリストの生成処理の詳細を、図5に示すフローチャート(ステップC1~C8)に従って説明する。
【0066】
グラフ生成部111は、重要インタラクション抽出ルール142と、AI倫理チェックリスト143と、分析対象のインタラクション集合141とを、入力データとして受け付ける(ステップC1~C3)。
【0067】
グラフ生成部111は、インタラクション集合141からグラフ構造を生成する(ステップC4)。
【0068】
特徴抽出部112は、グラフ構造から特徴を抽出する(ステップC5)。特徴の抽出は、例えば、ステークホルダーのノード数や、複数の役割を持つステークホルダーの数、AIシステム100と直接関わらないステークホルダーの数に基づいて実行されてよい。
【0069】
特徴抽出部112は、抽出した特徴から、重要インタラクション抽出ルール142に基づいて、注目すべきインタラクションを抽出する(ステップC6)。
【0070】
チェック項目抽出部113は、注目すべきインタラクションに対応するAI倫理チェックリスト143のチェック項目を抽出する(ステップC7)。
【0071】
チェック項目抽出部113は、重要な項目を絞り込んだAI倫理チェックリスト143を出力する(ステップC8)。そして、AI倫理チェックリスト143の生成処理は終了する。
【0072】
〔B〕実施形態
以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
【0073】
上述した関連例においては、AI倫理チェックリストの生成処理において、倫理リスクが発生しやすい重要インタラクションとされるグラフ構造の特徴(たとえば、ステークホルダーの役割に関する特徴など)のルールに応じて、インタラクションに優先度が付与され、AI倫理チェックリストが絞り込まれた。
【0074】
一方、実施形態においては、ステークホルダーの役割に加えて、データの特性変化に応じて、インタラクションに優先度が付与される。具体的には、チェックリストからグラフ構造が抽出され、ステークホルダーの役割と、AIシステム100に入力されるまでに至るデータの変化(例えば、データのインデックスの関係や、データそのもの)が観測されることでAI倫理リスクがスコアリングされ、チェックリストの優先度付けが行われる。
【0075】
実施形態における優先度付きチェックリストの出力処理を、図6に示すフローチャート(ステップD1~D6)に従って説明する。
【0076】
図1に例示したAIシステム100のシステム図が情報処理装置1(図19を用いて後述)に入力される(ステップD1)。AIシステム100のシステム図には、AIコンポーネントとステークホルダーのインタラクションとが記載される。
【0077】
情報処理装置1はチェックリストの入力を受け付ける(ステップD2)。チェックリストは、システム図から全インタラクションが抽出されることにより生成される。チェックリストは、インタラクション毎にリスクを抽出するためのリストであり、「AI倫理モデル」を用いて関連する「倫理観点」を自動抽出するものである。
【0078】
情報処理装置1は、チェックリストに対して、AI倫理モデルにより役割を付与する(ステップD3)。
【0079】
情報処理装置1は、図14等を用いて後述するように、チェックリストをグラフ構造化する(ステップD4)。
【0080】
情報処理装置1は、グラフ構造におけるノードの役割とデータの特性変化とに応じて、インタラクションに優先度を付与する(ステップD5)。チェックリストのアイテム毎に、想起される「リスク要因/リスク事象」が抽出される。
【0081】
そして、情報処理装置1は、優先度付きのチェックリストを出力する(ステップD6)。「リスク要因/リスク事象」をグルーピングし、整理したリスクがシステム図に描き込まれる。
【0082】
図1に示したAIシステム100のシステム図において、インタラクションによって授受されるデータにはそれぞれ所有者(別言すれば、オーナー)が存在する。図1に示した例では、データがAIサービス提供者10に直接渡っている。
【0083】
実施形態においては、受け渡し前後でデータの特徴が変化すると、AI倫理リスクの発生確率が上昇し、更にデータがステークホルダーを介すと変化しやすい、という性質に注目する。
【0084】
図7は、実施形態におけるAI倫理に関わるリスクの変化の特徴の定性的特徴を説明する図である。
【0085】
符号E1に示すように、複数のデータが直接データオーナーからAIシステム100へ入力される場合には、システム入力時にデータがマージされる。符号E1に示す例では、Data1及びData2が各データオーナーからそれぞれAIシステム100に入力された時にData1及びData2がマージされて、データの特徴が変化する。
【0086】
符号E2に示すように、複数のデータが複数のデータオーナーを通してAIシステム100へ入力される場合には、特定の意図を持ったステークホルダーを介しデータがマージされる。符号E2に示す例では、Data1が第1のステークホルダーから第2のステークホルダーへ渡され、第2のステークホルダーが受け取ったData1と自身が保持しているData2とをマージしてData3を生成してAIシステム100に入力することによりデータの特徴が変化する。符号E21に示すように、データの経路(別言すれば、シーケンス)とデータの変化とがAI倫理リスクに関連する。
【0087】
符号E2示す特定の意図を持ったステークホルダーを介しデータがマージされる例は、符号E1に示すシステム入力時にデータがマージされる例と比較して、符号E3に示すように定性的にAI倫理リスクが増大する。しかしながら、符号E31に示すように、符号E1に示す例と符号E2に示す例とで、どちらがリスクが高い(=別言すれば、優先度が高い)かは、上述した関連例では判断がつかない。
【0088】
図8は、実施形態におけるAI倫理に関わるリスクの変化の特徴の定量的特徴及び抽出を説明する図である。
【0089】
符号F1に示すように、複数のデータが直接データオーナーからAIシステム100へ入力される場合には、システム入力時にデータがマージされる。符号F1に示す例では、Data1及びData2が各データオーナーからそれぞれAIシステム100に入力された時にData1及びData2がマージされて、データの特徴が変化する。
【0090】
符号F2に示すように、複数のデータが複数のデータオーナーを通してAIシステム100へ入力される場合には、特定の意図を持ったステークホルダーを介しデータがマージされる。符号E2に示す例では、Data1が第1のステークホルダーから第2のステークホルダーへ渡される際にデータの特徴が変化する。更に、第2のステークホルダーが受け取ったData1と自身が保持しているData2とをマージしてData3を生成してAIシステム100に入力することによりデータの特徴が変化する。
【0091】
データの特徴の変化は、データのインデックスの関係や、データの分布・偏りの度合により、責任のリスクが測定されてよい。変化があるかどうか、変化の度合い(分散、中央値の変化など)については、指標を設定して判断されてよい。
【0092】
符号F2示す特定の意図を持ったステークホルダーを介しデータがマージされる例は、符号F1に示すシステム入力時にデータがマージされる例と比較して、符号F31に示すように定性的にAI倫理リスクが増大する。また、符号F2示す特定の意図を持ったステークホルダーを介しデータがマージされる例は、符号F1に示すシステム入力時にデータがマージされる例と比較して、符号F32に示すように、符号F2示す例における変化や偏りが大きいと仮定した場合には、定量的にAI倫理リスクが増大する。
【0093】
図9は、実施形態におけるデータインデックスを利用したAI倫理リスクの判定処理を説明する図である。
【0094】
図9の符号G1~G3において、上段のデータと下段のデータとは、それぞれマージ対象であることを示す。
【0095】
符号G1に示す例では、上段のデータが性別及び人種で構成されており、下段のデータが年齢及び職業で構成されており、上段のデータの要素と下段のデータの要素とは、全く重ならない。
【0096】
符号G2に示す例では、上段のデータが性別及び人種で構成されており、下段のデータも性別及び人種で構成されており、上段のデータの要素と下段のデータの要素とは、同一である。
【0097】
符号G3に示す例では、上段のデータが性別及び人種で構成されており、下段のデータが性別,人種及び年齢で構成されており、上段のデータは、下段のデータの包含関係にある。
【0098】
符号G2に示すデータが同一の場合は、符号G1に示すデータが全く重ならない場合よりもAI倫理リスクが高くなる。また、符号G3に示すデータが包含関係にある場合は、符号G2に示すデータが同一の場合よりもAI倫理リスクが高くなる。データが同一の場合よりも、データが包含関係にある場合の方がリスクが高い理由は、組み合わせのリスクがより発生する可能性があるためである。
【0099】
このように、マージするデータ間でのセンシティブ属性のインデックスの関係で、AI倫理リスクの大小を定性的に特徴づけることが可能となる。
【0100】
データにセンシティブ属性が含まれる場合には、センシティブ属性が含まれること自体がリスクを生じさせる。センシティブ属性の数にリスクは依存する。AI倫理の観点では、リスクがゼロということはなく、必ず1以上となる。リスクが単純に線形に比例するか、指数関数的になるかはデータに依存する。
【0101】
複数データ間をマージする場合のセンシティブ属性の扱いは、データ間における同種(別言すれば、同一)属性の有無によって変化する。同種(同一)属性を持つ場合にはAI倫理リスクが発生し、データ量が増えるだけでなくデータの質が変化するおそれがある。一方、同種(同一)属性を持たない場合にはAI倫理の観点ではリスクは低く、単にデータ量が増えるだけとなる。
【0102】
AIシステム100のシステム図のステークホルダーが持つデータが、AIシステム100に入力されるまでに特性が変化するほど、AI倫理リスク発生の確率は高くなる。データがマージされた場合のデータのセンシティブ属性に対する変化だけでなく、データ全体の傾向の変化が、公平性の偏りなどを引き起こす可能性がある。センシティブ属性の種類の変化や、センシティブ属性ごとのデータ量の変化が、データの特性変化を引き起こす可能性がある。
【0103】
ステークホルダーがデータ提供者である場合には、データの変化はよりAI倫理リスクと関係を生じさせる。
【0104】
データがステークホルダーを介す数が多いほど、AI倫理リスク発生の確率は高くなる。特定のステークホルダーにおいてデータを集約する場合には、集約方針に起因するリスクや、集約方法に起因するリスクが生じるおそれがある。
【0105】
図10は、実施形態におけるノード及びインタラクションの定義を説明する第1の図である。
【0106】
AIシステム100のシステム図のグラフ構造(別言すれば、トポロジ)及びデータを入力として、ノードの持つ役割と、シーケンスとしてのノード間のデータの変化とに基づいて優先度を定義する指標値が算出されてよい。データについては、テーブルのインデックスのみでも判定可能である。
【0107】
図10に示す例では、ノードV0からノードV1へのインタラクションがWiで表され、ノードV1からノードV2へのインタラクションがWi+1で表される。また、ノードV0, V1, V2に対応するステークホルダーのデータの属性数がそれぞれP0, P1, P2で表される。
【0108】
データ変化指標GNは、Nをシーケンス内のノード数とするとき、以下の(数式1)で表されてよい。第1項は個別インタラクションのデータ変化指標を表し、第2項はステークホルダーの役割を表し、第3項は補正項である。
【数1】
【0109】
また、ノードに対応するステークホルダーの判定Xiは、以下の(数式2)によって表されてよい。なお、γはインパクを考慮して決定される正の値である。
【数2】
【0110】
図11は、実施形態におけるノード及びインタラクションの定義を説明する第2の図である。
【0111】
図11に示す例では、ノードVbeforeからノードVafterへのインタラクションがWiで表される。また、ノードVbefore, Vafterに対応するステークホルダーのデータの属性数がそれぞれPbefore, Pafterで表される。
【0112】
1つのインタラクションWiに対する指標は、以下の(数式3)で表されてよい。なお、Siは統計量である。
【数3】
【0113】
インタラクションの判定は、以下(数式4)によって実施されてよい。なお、αはインパクトを考慮して決定される。
【数4】
【0114】
ノード間属性の種類(数)は、以下の(数式5)によって表されてよい。
【数5】
【0115】
ノード間での属性の包含関係は、以下の(数式6)によって表されてよい。
【数6】
【0116】
ノード間での統計量は、二値以外の場合には以下の(数式7)によって表され、二値(a0,b0), (a1,b1)の場合には以下の(数式8)によって表されてよい。なお、MはVbeforeにおける全体数でありM=a0+b0で表され、NはVafterにおける全体数でありでN=a1+b1表されてよい。
【数7】
【数8】
【0117】
二値以外の場合でのノード間の統計量において、Sbefore及びSafterは以下の(数式9)及び(数式10)によってそれぞれ表されてよい。
【数9】
【数10】
【0118】
上述した(数式7)では、前後のノードでの各分散の値の差分を指標としている。分散が同じ(=変化なし)の場合は1で差分が1の場合と同一になるが、現実は差分が1のことはほぼないため差分0のときは1としてよい。
【0119】
二値の場合でのノード間の統計量においては、AI倫理の観点で、1つのノードの持つ2つの要素の値が近いほど公平性であり、ノード間でこの値の変化が大きいと、リスクが高くなる。二値の場合には、単純に片方の値の全体に対する変化を見るだけでよい。
【0120】
例えば、a0が男性でb0が女性であり、before(a0,b0)=(2,12)でafter(a1,b1)=(8,23)の場合に、上述の(数式8)を適用すると、以下の(数式11)の値が計算される。
【数11】
【0121】
図12は、実施形態における情報処理装置1のソフトウェア構成例を模式的に示すブロック図である。
【0122】
実施形態における情報処理装置1は、グラフ生成部111,特徴抽出部112,チェック項目抽出部113及びデータ指標算出部115して機能する。
【0123】
グラフ生成部111は、AIシステム100の構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性を含む複数の関係情報(別言すれば、インタラクション)を取得する。グラフ生成部111は、取得した関係情報に基づいて、図14及び図17等を用いて後述するグラフ構造を生成してよい。
【0124】
データ指標算出部115は、ステークホルダーの持つデータ又はインデックス144に対して、データの特性変化に応じて指標値を算出する。
【0125】
特徴抽出部112は、グラフ構造からノードの役割及び指標値に応じた特徴を抽出し、抽出した特徴から重要インタラクション抽出ルール142に基づいて注目すべきインタラクションを抽出する。すなわち、特徴抽出部112は、複数の関係情報のそれぞれに関連付けられたデータのインデックス情報から、マージに関連する関係情報を特定し、優先度を高める。
【0126】
チェック項目抽出部113は、各属性と対応付けられた複数のAI倫理チェック項目のうち、特徴抽出部112によって決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステム100の絞り込んだ(別言すれば、優先度付けされた)AI倫理チェックリスト143として出力する。
【0127】
実施形態におけるAI倫理チェックリスト143の生成処理の詳細を、図13に示すフローチャート(ステップH1~H9)に従って説明する。
【0128】
グラフ生成部111は、重要インタラクション抽出ルール142と、AI倫理チェックリスト143と、分析対象のインタラクション集合141とを、入力データとして受け付ける(ステップH1~H3)。
【0129】
グラフ生成部111は、インタラクション集合141からグラフ構造を生成する(ステップH4)。
【0130】
特徴抽出部112は、グラフ構造から特徴を抽出する(ステップH5)。特徴の抽出は、例えば、ステークホルダーのノード数や、複数の役割を持つステークホルダーの数、AIシステム100と直接関わらないステークホルダーの数に基づいて実行されてよい。
【0131】
データ指標算出部115は、ステークホルダーの持つデータ又はインデックス144に対して指標値を算出する(ステップH6)。
【0132】
特徴抽出部112は、抽出した特徴から、重要インタラクション抽出ルール142に基づいて、注目すべきインタラクションを抽出する(ステップH7)。
【0133】
チェック項目抽出部113は、注目すべきインタラクションに対応するAI倫理チェックリスト143のチェック項目を抽出する(ステップH8)。
【0134】
チェック項目抽出部113は、重要な項目を絞り込んだAI倫理チェックリスト143を出力する(ステップH9)。そして、AI倫理チェックリスト143の生成処理は終了する。
【0135】
図14は、実施形態における分析シートからのグラフ構造の生成処理の第1の例を説明する図である。
【0136】
符号I1に示す分析シートは、図1に示したAIシステム100のシステム図から生成される。
【0137】
符号I1に示す分析シートには、インタラクションID毎に、ステークホルダーの種類,名称,役割説明,始点・終点の別や、データの種類,名称,始点・終点の別等が対応付けられている。
【0138】
例えば、インタラクションID「S101」には、ステークホルダーの種類「利用者」,名称「ローン申込者」及び役割説明「申込者情報の提供」が対応付けられている。また、インタラクションID「S101」には、データの種類「推論結果」及びデータの名称「申込者情報」が対応付けられている。
【0139】
符号I1に示す分析シート(別言すれば、AIシステム100のシステム図及びAI倫理モデル)からは、符号I2に示すようなグラフ構造が生成されてよい。
【0140】
符号I2に示すグラフ構造では、丸印で示される各ノード間の矢印がインタラクションを表す。
【0141】
図14に示す例では、ローン申込者からの申込者情報の出力がS101で表され、申込者情報の銀行への入力がS102で表され、申込者情報の信用調査機関への入力がS103で表される。また、銀行からの申込者情報・取引データ・信用スコアの出力がS104で表され、信用調査機関からの申込者情報・取引データ・信用スコアの出力がS105で表される。更に、申込者情報・取引データ・信用スコアからローン審査推論部への入力がS106で表され、ローン審査推論部からの審査データの出力がS107で表される。
【0142】
図15は、実施形態におけるインタラクションへのリスクの優先度付けの第1の例を説明する図である。
【0143】
符号I3には、図14の符号I2で示したグラフ構造のうち、銀行及び信用調査機関からAIシステム100への申込者情報・取引データ・信用スコアの入力であるインタラクションS104,S105が抽出されて示されている。
【0144】
符号I3において、銀行からAIシステム100へ入力される銀行データについてのデータ変化の指標値がXで表され、信用調査機関からAIシステム100へ入力される信用機関データについてのデータ変化の指標値がYで表されている。そして、銀行データと信用機関データとがマージされて、マージデータ(別言すれば、申込者情報・取引データ・信用スコア)となる。
【0145】
符号I4に示すように、X>Yが成り立つ場合にはインタラクションS105よりもインタラクションS104のリスクが高いと判定され、X<Yが成り立つ場合にはインタラクションS104よりもインタラクションS105のリスクが高いと判定される。
【0146】
なお、X=0且つY=0の場合には、データマージは単なる集約でありデータ特性の変化を含まないため、データに基づくリスクはないと判定される。
【0147】
このように、データ変化の指標値から、インタラクションに対するリスクの優先度付けが可能となる。
【0148】
図16は、実施形態における分析対象システム図の第2の例を示すブロック図である。
【0149】
図16に示すAIシステム100aは、図1に示したAIシステム100と同じくローン審査AIのインタラクションであるが、データの流れが異なる。
【0150】
図16に示すAIシステム100aでは、複数の信用調査機関(別言すれば、データ提供者20a,20b)を利用するため、信用情報のデータの提供元が複数あり、データマージが必要となる。取引データなどがいったん銀行で集約され、AIシステム100(別言すれば、AIサービスベンダ)へ提供される。銀行において、審査したい情報を追加したり、テスト用に情報を増やしたりしている可能性がある。
【0151】
信用情報の精度を高めるため情報元を増やした結果、信用情報を銀行で集約することになり、集約によるAI倫理リスクが高まるおそれがある。
【0152】
図17は、実施形態における分析シートからのグラフ構造の生成処理の第2の例を説明する図である。
【0153】
符号J1に示す分析シートは、図16に示したAIシステム100aのシステム図から生成される。
【0154】
符号J1に示す分析シート(別言すれば、AIシステム100aのシステム図及びAI倫理モデル)からは、符J2に示すようなグラフ構造が生成されてよい。
【0155】
図17に示す例では、ローン申込者からの申込者情報の出力がS101で表され、申込者情報の銀行への入力がS102で表され、申込者情報の信用調査機関#1への入力がS103で表され、申込者情報の信用調査機関#2への入力がS108で表される。また、信用調査機関#1から銀行への入力がS105で表され、信用調査機関#2から銀行への入力がS109で表される、銀行からの申込者情報・取引データ・信用スコアの出力がS104で表される。更に、申込者情報・取引データ・信用スコアからローン審査推論部への入力がS106で表され、ローン審査推論部からの審査データの出力がS107で表される。
【0156】
図18は、実施形態におけるインタラクションへのリスクの優先度付けの第2の例を説明する図である。
【0157】
符号J3には、図17の符号J2で示したグラフ構造のうち、信用調査機関#1,#2から銀行への入力及び銀行からAIシステム100への申込者情報・取引データ・信用スコアの入力であるインタラクションS104,S105,S109が抽出されて示されている。
【0158】
符号J3において、信用調査機関#1から銀行へ入力される信用機関データ#1についてのデータ変化の指標値がXで表され、信用調査機関#2から銀行へ入力される信用機関データ#2についてのデータ変化の指標値がYで表されている。また、銀行によって信用機関データ#1,#2から生成された銀行データについてのデータ変化の指標値がZで表されている。そして、銀行からAIシステム100aへ入力された銀行データがマージデータ(別言すれば、申込者情報・取引データ・信用スコア)となる。
【0159】
符号J4に示すように、X>Zが成り立つ場合にはインタラクションS104,S105,S109のうちインタラクションS104のリスクが高いと判定され、Y>Zが成り立つ場合にはインタラクションS104,S105,S109のうちインタラクションS109のリスクが高いと判定される。また、X<Z又はY<Zが成り立つ場合には、インタラクションS104,S105,S109のうちインタラクションS105のリスクが高いと判定される。
【0160】
なお、Z=0の場合には、データマージは単なる集約でありデータ特性の変化を含まないため、データに基づくリスクはないと判定される。
【0161】
符号J5に示すように、X>Yが成り立つ場合にはインタラクションS109よりもインタラクションS105のリスクが高いと判定され、X<Yが成り立つ場合にはインタラクションS105よりもインタラクションS109のリスクが高いと判定される。
【0162】
なお、指標値が同一の場合には源流のデータの優先度が高く設定されてよい。
【0163】
図19は、実施形態における情報処理装置1のハードウェア構成例を模式的に示すブロック図である。
【0164】
図19に示すように、情報処理装置1は、CPU(Central Processing Unit)11,メモリ部12,表示制御部13,記憶装置14,入力Interface(IF)15,外部記録媒体処理部16及び通信IF17を備える。
【0165】
メモリ部12は、記憶部の一例であり、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)などである。メモリ部12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ部12のソフトウェアプログラムは、CPU11に適宜に読み込まれて実行されてよい。また、メモリ部12のRAMは、一時記録メモリあるいはワーキングメモリとして利用されてよい。
【0166】
表示制御部13は、表示装置131と接続され、表示装置131を制御する。表示装置131は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。表示装置131は、入力装置と組み合わされたものでもよく、例えば、タッチパネルでもよい。表示装置131は、情報処理装置1のユーザに対する種々の情報を表示する。
【0167】
記憶装置14は、高IO性能の記憶装置であり、例えば、Dynamic Random Access Memory(DRAM)やSSD(Solid State Drive),Storage Class Memory(SCM),HDD(Hard Disk Drive)が用いられてよい。
【0168】
入力IF15は、マウス151やキーボード152等の入力装置と接続され、マウス151やキーボード152等の入力装置を制御してよい。マウス151やキーボード152は、入力装置の一例であり、これらの入力装置を介して、オペレータが各種の入力操作を行う。
【0169】
外部記録媒体処理部16は、記録媒体160が装着可能に構成される。外部記録媒体処理部16は、記録媒体160が装着された状態において、記録媒体160に記録されている情報を読み取り可能に構成される。本例では、記録媒体160は、可搬性を有する。例えば、記録媒体160は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。
【0170】
通信IF17は、外部装置との通信を可能にするためのインタフェースである。
【0171】
CPU11は、プロセッサの一例であり、種々の制御や演算を行う処理装置である。CPU11は、メモリ部12に読み込まれたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。なお、CPU11は、複数のCPUを含むマルチプロセッサであってもよいし、複数のCPUコアを有するマルチコアプロセッサであってもよく、或いは、マルチコアプロセッサを複数有する構成であってもよい。
【0172】
情報処理装置1全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGAのいずれか1つであってもよい。また、情報処理装置1全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD及びFPGAのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。
【0173】
〔C〕効果
上述した実施形態におけるAIシステムチェックプログラム,AIシステムチェック方法及び情報処理装置1によれば、例えば以下の作用効果を奏することができる。
【0174】
グラフ生成部111は、AIシステム100の構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性を含む複数の関係情報(別言すれば、インタラクション)を取得する。データ指標算出部115は、複数の関係情報のそれぞれがデータのマージに関連付いているか否かに基づいて、複数の関係情報の優先度を決定する。チェック項目抽出部113は、各属性と対応付けられた複数のチェック項目のうち、決定された優先度に基づいて選択された一又は複数のチェック項目を、AIシステム100の絞り込んだAI倫理チェックリスト114として出力する。
【0175】
これにより、AIシステム100の開発者や提供者が、AIシステム100の運用によって発生し得る倫理リスクを適切に認識し対処することを支援することができる。具体的には、AIシステム100の提供者や開発者が、AIシステム100のコンポーネントや個々のステークホルダーに対して実践すべき項目を落とし込む作業を不要にすることができる。また、約300項目のチェックリストを統計的に優先度付けし、重要な上位N個(例えば、N=20)を優先的に分析することで、重大なリスクを早期に認識し、AIシステム100のリスク対処の立案の効率を大幅に改善できる。
【0176】
〔D〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
【0177】
〔E〕付記
以上の実施形態に関し、更に以下の付記を開示する。
【0178】
(付記1)
Artificial Intelligence(AI)システムの構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性をそれぞれが含む複数の関係情報を取得し、
前記複数の関係情報のそれぞれがデータのマージに関連付いているか否かに基づいて、前記複数の関係情報の優先度を決定し、
各属性と対応付けられた複数のチェック項目のうち、決定された前記優先度に基づいて選択された一又は複数のチェック項目を、前記AIシステムのチェックリストとして出力する、
処理をコンピュータに実行させる、AIシステムチェックプログラム。
【0179】
(付記2)
前記優先度を決定する処理は、前記複数の関係情報のうちデータのマージに関連付いた関係情報の優先度を高くする処理を含む、
付記1に記載のAIシステムチェックプログラム。
【0180】
(付記3)
前記優先度を決定する処理は、データのマージが関連付いた関係情報について、マージの対象である第1のデータ及び第2のデータについて、前記第1のデータの要素が前記第2のデータの要素の包含関係にある場合に、前記第1のデータの要素と前記第2のデータの要素が同一の場合又は前記第1のデータの要素と前記第2のデータの要素とが全く重複しない場合よりも、優先度を高くすることによって実行される、
付記1又は2に記載のAIシステムチェックプログラム。
【0181】
(付記4)
前記優先度を決定する処理は、データのマージが関連付いた前記関係情報について、前記第1のデータの要素と前記第2のデータの要素が同一の場合に、前記第1のデータの要素と前記第2のデータの要素とが全く重複しない場合よりも、優先度を高くすることによって実行される、
付記3に記載のAIシステムチェックプログラム。
【0182】
(付記5)
前記優先度を決定する処理は、前記対象者の種別の属性に基づいて実行される、
付記1又は2に記載のAIシステムチェックプログラム。
【0183】
(付記6)
Artificial Intelligence(AI)システムの構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性をそれぞれが含む複数の関係情報を取得し、
前記複数の関係情報のそれぞれがデータのマージに関連付いているか否かに基づいて、前記複数の関係情報の優先度を決定し、
各属性と対応付けられた複数のチェック項目のうち、決定された前記優先度に基づいて選択された一又は複数のチェック項目を、前記AIシステムのチェックリストとして出力する、
処理をコンピュータが実行する、AIシステムチェック方法。
【0184】
(付記7)
前記優先度を決定する処理は、前記複数の関係情報のうちデータのマージに関連付いた関係情報の優先度を高くする処理を含む、
付記6に記載のAIシステムチェック方法。
【0185】
(付記8)
前記優先度を決定する処理は、データのマージが関連付いた関係情報について、マージの対象である第1のデータ及び第2のデータについて、前記第1のデータの要素が前記第2のデータの要素の包含関係にある場合に、前記第1のデータの要素と前記第2のデータの要素が同一の場合又は前記第1のデータの要素と前記第2のデータの要素とが全く重複しない場合よりも、優先度を高くすることによって実行される、
付記6又は7に記載のAIシステムチェック方法。
【0186】
(付記9)
前記優先度を決定する処理は、データのマージが関連付いた前記関係情報について、前記第1のデータの要素と前記第2のデータの要素が同一の場合に、前記第1のデータの要素と前記第2のデータの要素とが全く重複しない場合よりも、優先度を高くすることによって実行される、
付記8に記載のAIシステムチェック方法。
【0187】
(付記10)
前記優先度を決定する処理は、前記対象者の種別の属性に基づいて実行される、
付記6又は7に記載のAIシステムチェック方法。
【0188】
(付記11)
Artificial Intelligence(AI)システムの構成に基づいて定まる、対象者の種別の属性と処理の種別の属性とデータの種別の属性とのうち少なくとも2つの属性をそれぞれが含む複数の関係情報を取得し、
前記複数の関係情報のそれぞれがデータのマージに関連付いているか否かに基づいて、前記複数の関係情報の優先度を決定し、
各属性と対応付けられた複数のチェック項目のうち、決定された前記優先度に基づいて選択された一又は複数のチェック項目を、前記AIシステムのチェックリストとして出力する、
プロセッサを備える、情報処理装置。
【0189】
(付記12)
前記優先度を決定する処理は、前記複数の関係情報のうちデータのマージに関連付いた関係情報の優先度を高くする処理を含む、
付記11に記載の情報処理装置。
【0190】
(付記13)
前記優先度を決定する処理は、データのマージが関連付いた関係情報について、マージの対象である第1のデータ及び第2のデータについて、前記第1のデータの要素が前記第2のデータの要素の包含関係にある場合に、前記第1のデータの要素と前記第2のデータの要素が同一の場合又は前記第1のデータの要素と前記第2のデータの要素とが全く重複しない場合よりも、優先度を高くすることによって実行される、
付記11又は12に記載の情報処理装置。
【0191】
(付記14)
前記優先度を決定する処理は、データのマージが関連付いた前記関係情報について、前記第1のデータの要素と前記第2のデータの要素が同一の場合に、前記第1のデータの要素と前記第2のデータの要素とが全く重複しない場合よりも、優先度を高くすることによって実行される、
付記13に記載の情報処理装置。
【0192】
(付記15)
前記優先度を決定する処理は、前記対象者の種別の属性に基づいて実行される、
付記11又は12に記載の情報処理装置。
【符号の説明】
【0193】
1,6 :情報処理装置
10 :AIサービス提供者
11 :CPU
12 :メモリ部
13 :表示制御部
14 :記憶装置
15 :入力IF
16 :外部記録媒体処理部
17 :通信IF
20,20a,20b,30:データ提供者
40 :利用者
100,100a:AIシステム
101 :訓練データ
102 :ローン審査モデル訓練部
103 :ローン審査モデル
104 :推論データ
105 :推論部
106 :審査結果
110 :訓練部
111 :グラフ生成部
112 :特徴抽出部
113 :チェック項目抽出部
114 :AI倫理チェックリスト
115 :データ指標算出部
120 :予測部
131 :表示装置
141 :インタラクション集合
142 :重要インタラクション抽出ルール
143 :AI倫理チェックリスト
144 :ステークホルダーの持つデータ又はインデックス
151 :マウス
152 :キーボード
160 :記録媒体
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19