(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024124670
(43)【公開日】2024-09-13
(54)【発明の名称】評価支援プログラム、評価支援方法、および情報処理装置
(51)【国際特許分類】
G06F 16/28 20190101AFI20240906BHJP
G06F 16/904 20190101ALI20240906BHJP
【FI】
G06F16/28
G06F16/904
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2023032504
(22)【出願日】2023-03-03
(71)【出願人】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】110002918
【氏名又は名称】弁理士法人扶桑国際特許事務所
(72)【発明者】
【氏名】大橋 恭子
(72)【発明者】
【氏名】新田 泉
(72)【発明者】
【氏名】稲越 宏弥
【テーマコード(参考)】
5B175
【Fターム(参考)】
5B175JA02
5B175JC04
5B175KA12
(57)【要約】
【課題】AIシステムの運用に関するチェック項目の内容を容易に把握できるようにする。
【解決手段】情報処理装置10は、AIシステム1内の機能2a,2bと、管理対象データ3a,3b,3c,3dと、関係者4a,4b,4cとのうちの二者の間のデータ受け渡し関係を示す関係情報11aに基づいて、第1のパス6を特定する。第1のパス6は、機能2a,2bと管理対象データ3a,3b,3c,3dと関係者4a,4b,4cとのうちの1つを始点とし他の1つを終点としたときの始点から終点へデータ受け渡し関係を辿る経路を示す。情報処理装置10は、関係情報11aに示されるデータ受け渡し関係のいずれかに関連付けられた複数のチェック項目のうち、第1のパス6に示される経路上の第1のデータ受け渡し関係7に関連する第1のチェック項目を選択する。そして情報処理装置10は、第1のチェック項目の情報を表示させる。
【選択図】
図1
【特許請求の範囲】
【請求項1】
AI(Artificial Intelligence)システム内の機能と、前記AIシステムが管理する管理対象データと、前記AIシステムの運用に関わる関係者とのうちの二者の間のデータ受け渡し関係を示す関係情報に基づいて、前記機能と前記管理対象データと前記関係者とのうちの1つを始点とし他の1つを終点としたときの前記始点から前記終点へ前記データ受け渡し関係を辿る経路を示す第1のパスを特定し、
前記関係情報に示される前記データ受け渡し関係のいずれかに関連付けられた複数のチェック項目のうち、前記第1のパスに示される経路上の第1のデータ受け渡し関係に関連する第1のチェック項目を選択し、
前記第1のチェック項目の情報を表示させる、
処理をコンピュータに実行させることを特徴とする評価支援プログラム。
【請求項2】
前記第1のチェック項目が複数ある場合、前記複数のチェック項目それぞれが複数のグループのうちのどれに属するのかを示す分類情報に基づいて、複数の前記第1のチェック項目のうちの第1のグループに属する第2のチェック項目を選択する処理を、前記コンピュータにさらに実行させ、
前記第1のチェック項目の情報を表示させる処理では、複数の前記第1のチェック項目のうちから選択された前記第2のチェック項目の情報を表示させる、
請求項1記載の評価支援プログラム。
【請求項3】
前記第1のパスを特定する処理では、前記始点と前記終点との指定に加え、前記機能、前記管理対象データ、または前記関係者のうちの少なくとも1つが経由対象として指定されたパス情報に基づいて、前記データ受け渡し関係を前記始点から前記経由対象を経由して前記終点へ辿る経路を、前記第1のパスとして特定する、
請求項1または2記載の評価支援プログラム。
【請求項4】
前記複数のチェック項目それぞれには、関連する前記データ受け渡し関係で生じるリスクが示されており、
前記第1のチェック項目の情報を表示させる処理では、前記第1のチェック項目に対応する前記リスクを、前記第1のチェック項目に関連する前記データ受け渡し関係に関連付けて表示させる、
請求項1または2記載の評価支援プログラム。
【請求項5】
AI(Artificial Intelligence)システム内の機能と、前記AIシステムが管理する管理対象データと、前記AIシステムの運用に関わる関係者とのうちの二者の間のデータ受け渡し関係を示す関係情報に基づいて、前記機能と前記管理対象データと前記関係者とのうちの1つを始点とし他の1つを終点としたときの前記始点から前記終点へ前記データ受け渡し関係を辿る経路を示す第1のパスを特定し、
前記関係情報に示される前記データ受け渡し関係のいずれかに関連付けられた複数のチェック項目のうち、前記第1のパスに示される経路上の第1のデータ受け渡し関係に関連する第1のチェック項目を選択し、
前記第1のチェック項目の情報を表示させる、
処理をコンピュータが実行することを特徴とする評価支援方法。
【請求項6】
AI(Artificial Intelligence)システム内の機能と、前記AIシステムが管理する管理対象データと、前記AIシステムの運用に関わる関係者とのうちの二者の間のデータ受け渡し関係を示す関係情報に基づいて、前記機能と前記管理対象データと前記関係者とのうちの1つを始点とし他の1つを終点としたときの前記始点から前記終点へ前記データ受け渡し関係を辿る経路を示す第1のパスを特定し、前記関係情報に示される前記データ受け渡し関係のいずれかに関連付けられた複数のチェック項目のうち、前記第1のパスに示される経路上の第1のデータ受け渡し関係に関連する第1のチェック項目を選択し、前記第1のチェック項目の情報を表示させる処理部、
を有する情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、評価支援プログラム、評価支援方法、および情報処理装置に関する。
【背景技術】
【0002】
AI(Artificial Intelligence)システムにおいて、倫理的なリスクのアセスメントが行われることがある。
例えばさまざまな業種やタスクのAIシステムを利用することで、倫理上の問題が発生することがある。そのような問題が発生すると、AIシステムを提供した企業や組織だけでなく、AIシステムの利用者やその先にある社会に対する影響も大きい。そこで、AIを社会実装する上で、倫理上のリスクを認識し対処できるような取り組みが行われている。このような取り組みが、倫理的なリスクのアセスメントである。
【0003】
AIシステムは複数のステークホルダを持ち、ステークホルダを取り巻く社会状況が変化する。ステークホルダは、システムに関わる人または組織である。ステークホルダを取り巻く環境が変化するため、AIシステムの利用によってどのような倫理的な問題が発生するかを検知することは容易でない場合がある。そこで、AI倫理に関する原則やガイドラインが示す倫理的なリスクに関するチェックリストに基づいて、AIシステムやそのステークホルダに当てはめて、存在する倫理的なリスクの分析が行われることがある。
【0004】
AI倫理に関する原則やガイドラインの例としては、「欧州High-Level Expert Group on AI (AI HLEG) “Ethics Guidelines for Trustworthy AI”」や「総務省 AI利活用ガイドライン」、「統合イノベーション戦略推進会議“人間中心のAI社会原則”」、「OECD“Recommendation of the Council on Artificial Intelligence”」が存在する。
【0005】
また、さまざまなAIサービス提供の形態の存在を踏まえつつ、AIサービス提供者が自らのAIサービスに係るリスクコントロール検討に資するモデルとして、「リスクチェーンモデル(Risk Chain Model: RCModel)」が提案されている。
【0006】
リスクチェーンモデルでは、以下の(1)~(3)によって、リスク構成要素の整理及び構造化が行われる。
(1)AIシステムの技術的構成要素
(2)サービス提供者の行動規範(ユーザとのコミュニケーションを含む)に係る構成要素
(3)ユーザの理解・行動・利用環境に係る構成要素
また、リスクチェーンモデルでは、リスクシナリオの識別及びリスク要因となる構成要素の特定と、リスクチェーンの可視化及びリスクコントロールの検討が行われる。リスクチェーンの可視化及びリスクコントロールの検討では、AIサービス提供者はリスクシナリオに関連する構成要素の関係性(リスクチェーン)を可視化することで、段階的なリスク低減の検討が可能になる。
【先行技術文献】
【非特許文献】
【0007】
【非特許文献1】松本敬史,江間有沙,“AIサービスのリスク低減を検討するリスクチェーンモデルの提案”,2020年6月4日,インターネット<URL:ifi.u-tokyo.ac.jp/wp/wp-content/uploads/2020/06/policy_recommendation_tg_20200604.pdf>
【発明の概要】
【発明が解決しようとする課題】
【0008】
AIシステム運用時の倫理的なリスクに関するチェックリストには大量のチェック項目が含まれるが、互いの関連性は明確でない。また、倫理的な観点を詳細化したチェックリストであるために、同じ観点から詳細化された類似した内容のチェック項目が複数存在することがある。
【0009】
しかし、従来の倫理的なリスクのアセスメントでは、多数のチェック項目で示される個々のリスクを示すにとどまる。そのため、このチェックリストを用いて抽出されたリスクを関係者が理解し対策の検討を進める作業において、関係者は、似たようなリスクを何度も検討することになり、時間的および心理的な負担が大きい。そこでAIシステムが有する倫理的なリスクの把握に要する作業負担を軽減することが求められている。
【0010】
これまでAIシステムの倫理的なリスクの理解と対策に関する問題を説明したが、AIシステムの運用に関する他のリスク(例えば個人情報の不正利用のリスク)またはリスク以外のチェック項目の内容を理解する際にも同様の問題が生じる。
【0011】
1つの側面では、本発明は、AIシステムの運用に関するチェック項目の内容を容易に把握できるようにすることを目的とする。
【課題を解決するための手段】
【0012】
1つの案では、以下の処理をコンピュータに実行させることを特徴とする評価支援プログラムが提供される。
コンピュータは、AIシステム内の機能と、AIシステムが管理する管理対象データと、AIシステムの運用に関わる関係者とのうちの二者の間のデータ受け渡し関係を示す関係情報に基づいて、機能と管理対象データと関係者とのうちの1つを始点とし他の1つを終点としたときの始点から終点へデータ受け渡し関係を辿る経路を示す第1のパスを特定する。コンピュータは、関係情報に示されるデータ受け渡し関係のいずれかに関連付けられた複数のチェック項目のうち、第1のパスに示される経路上の第1のデータ受け渡し関係に関連する第1のチェック項目を選択する。そしてコンピュータは、第1のチェック項目の情報を表示させる。
【発明の効果】
【0013】
1態様によれば、AIシステムの運用に関するチェック項目の内容を容易に把握できるようにする。
【図面の簡単な説明】
【0014】
【
図1】第1の実施の形態に係る評価支援方法の一例を示す図である。
【
図2】AIシステムの倫理的なリスクアセスメントの一例を示す図である。
【
図3】AIシステムの開発とリスク分析に用いるコンピュータのハードウェアの一例を示す図である。
【
図4】AIシステム開発およびリスク分析のためのコンピュータの機能の一例を示すブロック図である。
【
図5】重要インタラクション抽出ルールの一例を示す図である。
【
図6】AIシステムの運用時に行われるインタラクションの一例を示す図である。
【
図7】AI倫理チェックリストの一例を示す図である。
【
図8】インタラクション集合の一例を示す図である。
【
図9】重要チェック項目の抽出処理の一例を示す図である。
【
図10】グラフ構造データで示されるインタラクションのグラフ構造の一例を示す図である。
【
図11】重要AI倫理チェックリストの一例を示す図である。
【
図12】すべてのリスクを含む分析図の一例を示す図である。
【
図13】関連リスクの可視化処理の一例を示す図である。
【
図14】関連リスク分析処理の手順の一例を示すフローチャートである。
【
図15】パス情報に応じて抽出されたパスの第1の例を示す図である。
【
図16】表示される分析図の第1の例を示す図である。
【
図17】パス情報に応じて抽出されたパスの第2の例を示す図である。
【
図18】表示される分析図の第2の例を示す図である。
【
図19】パス情報に応じて抽出されたパスの第3の例を示す図である。
【
図20】表示される分析図の第3の例を示す図である。
【発明を実施するための形態】
【0015】
以下、本実施の形態について図面を参照して説明する。なお各実施の形態は、矛盾のない範囲で複数の実施の形態を組み合わせて実施することができる。
〔第1の実施の形態〕
第1の実施の形態は、AIシステムの運用に関する多数のチェック項目のうち、所定の関係があるチェック項目を抽出して表示させることで、AIシステムの運用に関するチェック項目の評価を支援する評価支援方法である。
【0016】
図1は、第1の実施の形態に係る評価支援方法の一例を示す図である。
図1には、評価支援方法を実施する情報処理装置10が示されている。情報処理装置10は、例えば評価支援プログラムを実行することにより、評価支援方法を実施することができる。
【0017】
情報処理装置10は、記憶部11と処理部12とを有する。記憶部11は、例えば情報処理装置10が有するメモリまたはストレージ装置である。処理部12は、例えば情報処理装置10が有するプロセッサまたは演算回路である。
【0018】
記憶部11は、関係情報11aとチェックリスト11bとを記憶する。関係情報11aは、AIシステム1内の機能2a,2bと、AIシステム1が管理する管理対象データ3a,3b,3c,3dと、AIシステム1の運用に関わる関係者4a,4b,4cとのうちの二者の間のデータ受け渡し関係を示す。
【0019】
機能2a,2bは、例えばそれぞれAIモデルの訓練(または学習)を行う訓練部と、AIモデルを用いた推論を行う推論部である。管理対象データ3a,3b,3c,3dそれぞれは、例えば訓練用の訓練データ、訓練されたAIモデル、推論用の推論データ、推論結果である。
【0020】
関係者4a,4b,4cは、例えばAIシステム1へのデータの提供元またはAIシステム1のデータの利用先である。
図1の例では、関係者4a,4bは、例えば訓練データまたは推論データを提供する者(X,Y)である。また関係者4cは、推論データを提供して推論結果を利用する者(Z)である。
【0021】
チェックリスト11bは、データ受け渡し関係について生じるリスクなどの確認事項を示すチェック項目のリストである。チェックリスト11bには、例えばデータ受け渡し関係それぞれに付与されたID(R1,R2,・・・,R13)に対応付けて、そのIDで示されるデータ受け渡し関係に関するチェック項目の内容が登録されている。チェック項目の内容は、例えば対応するデータ受け渡し関係において生じる可能性がある倫理的なリスクである。
【0022】
処理部12は、記憶部11に格納された関係情報11aとチェックリスト11bを利用して、所定の関係があるチェック項目の抽出と、抽出したチェック項目の表示とを行う。例えば処理部12は、関係情報11aに基づいて第1のパス6を特定する。第1のパス6は、機能2a,2bと管理対象データ3a,3b,3c,3dと関係者4a,4b,4cとのうちの1つを始点とし他の1つを終点としたときの始点から終点へデータ受け渡し関係を辿る経路を示す。
【0023】
始点と終点とは、例えばパス情報5で指定される。例えばパス情報5は、AIシステム1の運用時に発生するリスクなどについて分析する分析者によって入力される。パス情報5では、経由対象を指定することもできる。その場合、パス情報5には始点と終点との指定に加え、機能2a,2b、管理対象データ3a,3b,3c,3d、または関係者4a,4b,4cのうちの少なくとも1つが経由対象として指定される。処理部12は、経由対象が指定された場合、データ受け渡し関係を始点から経由対象を経由して終点へ辿る経路を、第1のパス6として特定する。
【0024】
図1の例では、パス情報5において、始点として関係者4a(X)、終点として関係者4c(Z)が指定されている。また経由対象として、機能2a(訓練部)が指定されている。その結果、「X→訓練データ→訓練部→AIモデル→推論部→推論結果→Z」という第1のパス6が特定されている。
【0025】
処理部12は、関係情報11aに示されるデータ受け渡し関係のいずれかに関連付けられた複数のチェック項目のうち、第1のパス6に示される経路上の第1のデータ受け渡し関係7に関連する第1のチェック項目を選択する。
図1の例では、第1のパス6に示される経路上の第1のデータ受け渡し関係7は、ID「R1,R3,R4,R5,R12,R13」それぞれに対応するデータ受け渡し関係である。またチェックリスト11bには、ID「R1」のデータ受け渡し関係に対応付けて「リスクA」が登録されており、ID「R13」のデータ受け渡し関係に対応付けて「リスクC」が登録されている。そこで処理部12は、第1のチェック項目として、ID「R1」のデータ受け渡し関係に対応する「リスクA」とID「R13」のデータ受け渡し関係に対応する「リスクC」とを選択する。
【0026】
そして処理部12は、選択した第1のチェック項目の情報を、例えばモニタに表示させる。
図1の例では、処理部12は、選択した第1のチェック項目の情報を含む分析
図8を生成し、その分析
図8をモニタに表示させている。分析
図8には、例えば関係情報11aに示される、機能2a,2bと管理対象データ3a,3b,3c,3dと関係者4a,4b,4cとのうちの二者の間のデータ受け渡し関係が模式的な図で表されている。その図のデータ受け渡し関係にはIDが付与されている。そして分析
図8には、選択された第1のチェック項目が、対応するデータ受け渡し関係に関連付けて表示されている。
【0027】
このようにして、始点から終点までデータ受け渡し関係を辿った第1のパス6に関連するチェック項目の情報がまとめて表示される。第1のパス6に関連するチェック項目は、データ受け渡し関係によって何らかの依存関係を有するチェック項目であり、まとめて検討することにより、対策の立案などを効率的に行うことが可能となる。
【0028】
またパス情報5において経由対象を指定できることで、始点から終点までの経路が複数ある場合に、複数の経路の1つを指定して、第1のパス6とすることができる。その結果、同時に表示されるチェック項目数が多くなりすぎることが抑止され、関連するチェック項目についての一括した確認作業の効率が向上する。
【0029】
またチェック項目として、例えば倫理的な観点でのリスクが表示されることで、AIシステム1の運用に当たり、AIシステム1が倫理的に誤るリスク、または運用者がAIシステム1を倫理的に誤った方法で使用をするリスクを適切に判断することができる。
【0030】
またチェックリスト11bに予め登録されている複数のチェック項目を、複数のグループに分類しておくこともできる。例えばリスクとなる倫理的な観点の違いにより、複数のチェック項目が分類される。その場合、処理部12は、グループ単位でチェック項目を表示してもよい。
【0031】
例えば処理部12は、複数のチェック項目それぞれが複数のグループのうちのどれに属するのかを示す分類情報に基づいて、複数の第1のチェック項目のうちの第1のグループに属する第2のチェック項目を選択する。そして処理部12は、第1のチェック項目の情報を表示させる処理では、複数の第1のチェック項目のうちから選択された第2のチェック項目の情報を表示させる。これにより、例えば同一観点での倫理的なリスクをまとめて確認することが可能となる。
【0032】
〔第2の実施の形態〕
第2の実施の形態は、AIシステムの開発段階において、そのAIシステムが有する倫理的なリスクの分析を支援するコンピュータである。例えばコンピュータにより、AIシステムが有する可能性のあるリスクのAI倫理チェック項目をリストアップする。開発者は、例えばリストアップされたリスクの内容に応じて対策を検討し、AIシステムの利用に関するリスクアセスメント(リスクの評価)を行うことができる。
【0033】
図2は、AIシステムの倫理的なリスクアセスメントの一例を示す図である。AIシステムを開発する企業では、コンピュータ100を用いて、AIシステム開発と倫理的なリスク分析を行う。コンピュータ100は、倫理的なリスクの分析結果として、例えばAIシステムが有する倫理的なリスクのリストを表示する。開発企業担当者31は、分析結果により、存在する可能性のあるリスクを漏れなく確認し、その対策を予め立案する。そして開発企業担当者31は、AIシステムの導入を顧客32に勧める際、そのAIシステムが有する倫理的なリスクと、そのリスクに対して取り得る対策を説明する。これにより、顧客32がそのAIシステムを利用することで倫理的に問題のある行為をしてしまうことを抑止できる。
【0034】
図3は、AIシステムの開発とリスク分析に用いるコンピュータのハードウェアの一例を示す図である。コンピュータ100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス109を介してメモリ102と複数の周辺機器が接続されている。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、またはDSP(Digital Signal Processor)である。プロセッサ101がプログラムを実行することで実現する機能の少なくとも一部を、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現してもよい。
【0035】
メモリ102は、コンピュータ100の主記憶装置として使用される。メモリ102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、メモリ102には、プロセッサ101による処理に利用する各種データが格納される。メモリ102としては、例えばRAM(Random Access Memory)などの揮発性の半導体記憶装置が使用される。
【0036】
バス109に接続されている周辺機器としては、ストレージ装置103、GPU(Graphics Processing Unit)104、入力インタフェース105、光学ドライブ装置106、機器接続インタフェース107およびネットワークインタフェース108がある。
【0037】
ストレージ装置103は、内蔵した記録媒体に対して、電気的または磁気的にデータの書き込みおよび読み出しを行う。ストレージ装置103は、コンピュータ100の補助記憶装置として使用される。ストレージ装置103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、ストレージ装置103としては、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)を使用することができる。
【0038】
GPU104は画像処理を行う演算装置である。GPU104は、グラフィックコントローラの一例である。GPU104には、モニタ21が接続されている。GPU104は、プロセッサ101からの命令に従って、画像をモニタ21の画面に表示させる。モニタ21としては、有機EL(Electro Luminescence)を用いた表示装置や液晶表示装置などがある。
【0039】
入力インタフェース105には、キーボード22とマウス23とが接続されている。入力インタフェース105は、キーボード22やマウス23から送られてくる信号をプロセッサ101に送信する。なお、マウス23は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
【0040】
光学ドライブ装置106は、レーザ光などを利用して、光ディスク24に記録されたデータの読み取り、または光ディスク24へのデータの書き込みを行う。光ディスク24は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク24には、DVD(Digital Versatile Disc)、DVD-RAM、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)などがある。
【0041】
機器接続インタフェース107は、コンピュータ100に周辺機器を接続するための通信インタフェースである。例えば機器接続インタフェース107には、メモリ装置25やメモリリーダライタ26を接続することができる。メモリ装置25は、機器接続インタフェース107との通信機能を搭載した記録媒体である。メモリリーダライタ26は、メモリカード27へのデータの書き込み、またはメモリカード27からのデータの読み出しを行う装置である。メモリカード27は、カード型の記録媒体である。
【0042】
ネットワークインタフェース108は、ネットワーク20に接続されている。ネットワークインタフェース108は、ネットワーク20を介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。ネットワークインタフェース108は、例えばスイッチやルータなどの有線通信装置にケーブルで接続される有線通信インタフェースである。またネットワークインタフェース108は、基地局やアクセスポイントなどの無線通信装置に電波によって通信接続される無線通信インタフェースであってもよい。
【0043】
コンピュータ100は、以上のようなハードウェアによって、第2の実施の形態の処理機能を実現することができる。なお、第1の実施の形態に示した情報処理装置10も、
図3に示したコンピュータ100と同様のハードウェアにより実現することができる。
【0044】
コンピュータ100は、例えばコンピュータ読み取り可能な記録媒体に記録されたプログラムを実行することにより、第2の実施の形態の処理機能を実現する。コンピュータ100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。例えば、コンピュータ100に実行させるプログラムをストレージ装置103に格納しておくことができる。プロセッサ101は、ストレージ装置103内のプログラムの少なくとも一部をメモリ102にロードし、プログラムを実行する。またコンピュータ100に実行させるプログラムを、光ディスク24、メモリ装置25、メモリカード27などの可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えばプロセッサ101からの制御により、ストレージ装置103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。
【0045】
AIシステムを開発する企業は、コンピュータ100を利用して、AIシステムの開発とそのAIシステムの倫理的なリスクの分析とを行う。例えばコンピュータ100は、AIシステムが有するリスクを表示する。この際、表示されるリスクの数が多すぎると、すべてのリスクに関して対策を検討するのが困難となる。そこでコンピュータ100は、例えば重要なリスクを優先的に表示する。
【0046】
なお、リスクに優先度を付けた場合でも数十程度のAI倫理チェック項目が残ることがある。このとき、リスク間の関連性は明確でないと、まとめて検討すれば効率となる関連する複数のリスクについて個別に検討することとなり、分析者によるリスクの検討作業が非効率となる。また倫理的な観点を詳細化したチェックリストが表示された場合、同じ観点から詳細化された複数のAI倫理チェック項目が類似した内容になる傾向がある。このように、観点が同じAI倫理チェック項目があることを分析者が知ることができれば、検討作業の効率化が可能である。
【0047】
多数のAI倫理チェック項目が表示されたとき、例えば分析者がAI倫理チェック項目の内容を確認し、関連するAI倫理チェック項目をグルーピングすることも可能である。しかし、グルーピング作業は、分析者のスキルに依存し、だれでもできるものではない。そこでコンピュータ100は、倫理的なリスクに関する関連するAI倫理チェック項目をグルーピングし、グループに分けてリスクのAI倫理チェック項目を表示する。これにより、リスクの確認と対策の検討とを効率的に行うことができる。
【0048】
なおコンピュータ100では、AIシステムの倫理的なリスクの抽出に、AIシステムの検討すべきリスクをインタラクションごとにリストアップしたチェックリストを使用する。インタラクションは、AIシステムのコンポーネントまたはステークホルダのいずれかによる、AIシステムを用いたデータの受け渡し(データの提供または利用)である。
【0049】
AIシステムのコンポーネントとは、AIシステムの実現のために用いるソフトウェアモジュールである。1または複数のインタラクションにより、AIシステムのコンポーネントとステークホルダとの関係が表される。ステークホルダは、AIシステムの運用に関わる人または組織である。
【0050】
図4は、AIシステム開発およびリスク分析のためのコンピュータの機能の一例を示すブロック図である。コンピュータ100は、記憶部110、AI開発部120、重要チェック項目抽出部130、リスク設定部140、関連リスク分析部150、および分析図表示部160を有する。
【0051】
記憶部110は、重要インタラクション抽出ルール111、AI倫理チェックリスト112、AIソフトウェア113、インタラクション集合114、グラフ構造データ115、重要AI倫理チェックリスト116、および分析図群117を記憶する。
【0052】
重要インタラクション抽出ルール111とAI倫理チェックリスト112とは、AIシステムのリスク分析用に予め用意されるデータである。重要インタラクション抽出ルール111は、AIシステムの運用上の重要なインタラクションを抽出するためのルールである。AI倫理チェックリスト112は、インタラクションの特徴ごとの、その特徴を有するインタラクションに想定される倫理的なリスクのリストである。
【0053】
AIソフトウェア113とインタラクション集合114とは、AI開発部120を用いたAIシステムの開発結果として得られるデータである。AIソフトウェア113は、導入先のコンピュータをAIシステムとして機能させるためのソフトウェアである。インタラクション集合114は、AIソフトウェア113に基づいて実現されるAIシステムを運用する際に実施されるインタラクションを示すデータである。
【0054】
グラフ構造データ115と重要AI倫理チェックリスト116とは、重要チェック項目抽出部130による重要なリスクのAI倫理チェック項目の抽出処理によって生成されるデータである。グラフ構造データ115は、インタラクション集合によって表されるステークホルダ、システムコンポーネント、データの関係をグラフ化したデータである。重要AI倫理チェックリスト116は、AIソフトウェア113で実現されるAIシステムにおける倫理的なリスクのうちの重要と判断されたリスクのリストである。
【0055】
分析図群117は、関連リスク分析部150により関連すると判断された1または複数のリスクと、そのリスクを生じさせるインタラクションを表す1または複数の分析図である。
【0056】
AI開発部120は、AIシステムの開発の支援機能である。開発者は、AI開発部120を使用してAIシステムを実現するためのAIソフトウェア113を生成する。また開発者は、例えばAI開発部120を利用して、AIシステムの開発時には、そのAIシステムを運用する際に実施されるインタラクションを示すインタラクション集合114を生成する。
【0057】
重要チェック項目抽出部130は、AIソフトウェア113で実現されるAIシステムにおける倫理的なリスクのAI倫理チェック項目のうち、重要なAI倫理チェック項目を抽出し、重要AI倫理チェックリスト116を生成する。重要チェック項目抽出部130は、グラフ生成部131と特徴抽出部132とチェック項目抽出部133とを有する。
【0058】
グラフ生成部131は、インタラクション集合114に基づいてグラフ構造データ115を生成する。特徴抽出部132は、グラフ構造データ115に基づいて、重要インタラクション抽出ルールに従って、インタラクションの優先度を設定する。そして特徴抽出部132は、例えば優先度が高い方から所定数のインタラクションを、重要なインタラクションとして抽出する。チェック項目抽出部133は、AI倫理チェックリスト112に基づいて、抽出されたインタラクションが有する特徴に応じた倫理的なリスクのAI倫理チェック項目を抽出する。
【0059】
リスク設定部140は、重要AI倫理チェックリスト116に示されるAI倫理チェック項目についての具体的なリスクの入力を、分析者から受け付ける。リスク設定部140は、入力されたリスクを、重要AI倫理チェックリスト116に設定する。
【0060】
関連リスク分析部150は、重要AI倫理チェックリスト116に示されているリスク間の関連性を分析する。そして関連リスク分析部150は、関連するリスクと、それらのリスクを生じさせるインタラクションとを表す分析図を生成する。関連リスク分析部150は、互いに関連するリスクの組が複数生成された場合、複数の分析図を生成する。
【0061】
関連リスク分析部150は、パス抽出部151とリスク抽出部152とを有する。パス抽出部151は、グラフ構造データ115から、分析者から指定されたグラフ構造上のパスを抽出する。抽出されるパスは、そのパスに含まれるインタラクションの集合で表される。リスク抽出部152は、抽出されたパスに含まれるインタラクションに関するリスクを、重要AI倫理チェックリスト116から抽出する。そしてリスク抽出部152は、抽出したリスクとインタラクションとに基づいて分析図を生成する。
【0062】
分析図表示部160は、分析者からの指示に応じて、分析図群117に含まれる分析図をモニタ21に表示する。
なお
図4に示した各機能は、例えば、その要素に対応するプログラムモジュールをプロセッサ101に実行させることで実現することができる。
【0063】
図5は、重要インタラクション抽出ルールの一例を示す図である。重要インタラクション抽出ルール111には、倫理的なリスクの発生が起こりやすいグラフ構造の特徴と、抑えておくべきAI倫理チェックリストの項目が、あらかじめルールとして登録されている。例えば「AIシステムと直接関わらないステークホルダの数が1つ以上ある場合は、そのステークホルダが関わるインタラクションの優先度を上げる」というルールが登録される。AIシステムと直接関わらないステークホルダとは、例えばAIシステムに提供するデータを、他のステークホルダを介してAIシステムに提供するステークホルダである。
このルールは、AIシステムの設計・開発において見落としがちな間接的なステークホルダへの影響を把握するためのルールである。
【0064】
このような重要チェック項目抽出部130は、重要インタラクション抽出ルール111に基づいて、開発したAIシステムの運用において行われるインタラクションのうちの重要なインタラクションを抽出することができる。
【0065】
図6は、AIシステムの運用時に行われるインタラクションの一例を示す図である。
図6に示すAIシステム40は、ローン審査を行うためのAIシステムである。
図6における矢印は、インタラクションを示す。インタラクションの両端(始点,終点)は、ステークホルダ、データ、システムコンポーネントのいずれかの要素となる。
【0066】
AIシステム40におけるステークホルダは、AIサービスベンダ51、銀行52、信用調査機関53、およびローン申込者54である。AIサービスベンダ51は、ステークホルダの種類としてシステム提供者に分類される。銀行52は、ステークホルダの種類として、AIシステム利用者およびデータ提供者の両方に分類される。信用調査機関53は、ステークホルダの種類としてデータ提供者に分類される。ローン申込者54は、ステークホルダの種類として利用者に分類される。
【0067】
AIシステム40におけるコンポーネントは、訓練部41におけるローン審査モデル訓練部41aと予測部42におけるローン審査推論部42aである。AIシステム40においてステークホルダから受け取るデータは、種別が訓練データ55となる場合と、種別が推論データ57となる場合がある。またAIシステム40のコンポーネント間で受け渡されるデータとしてローン審査モデル56がある。またAIシステム40のコンポーネントからステークホルダに渡されるデータとして、例えば審査結果58がある。
【0068】
訓練部41のローン審査モデル訓練部41aは、訓練データ55を用いた機械学習によって、ローン審査モデル56の訓練を実行する。訓練データ55は、例えば信用調査機関53から所得した信用スコアや、銀行52から取得した取引データに基づいて生成される。
【0069】
予測部42のローン審査推論部42aは、学習済みのローン審査モデル56を用いて推論データ57に対する推論を行うことによって、審査結果58を出力する。推論データ57は、例えば信用調査機関53から取得した信用スコア、銀行52から取得した取引データ、ローン申込者54から取得した申込者情報に基づいて生成される。
【0070】
図6においてインタラクションを示す矢印の横の「Sxxx」は、インタラクションIDを示す。ローン申込者54から申込者情報を推論データ57に提供するインタラクションのインタラクションIDは、S101である。銀行52が申込者情報を推論データ57から受け取るインタラクションのインタラクションIDはS102である。信用調査機関53が申込者情報を推論データ57から受け取るインタラクションIDは、S103である。
【0071】
銀行52が推論データ57に取引データを提供するインタラクションのインタラクションIDは、S104である。信用調査機関53が推論データ57に信用スコアを提供するインタラクションのインタラクションIDは、S105である。推論データ57からローン審査推論部42aへ推論データを提供するインタラクションのインタラクションIDは、S106である。ローン審査推論部42aから審査結果58へローン審査モデルの出力データを提供するインタラクションIDのインタラクションIDは、S107である。
【0072】
訓練データ55からローン審査モデル訓練部41aへ訓練用の入力データと教師データを提供するインタラクションのインタラクションIDは、S108である。ローン審査モデル訓練部41aからローン審査モデル56へ訓練済みのモデルを示すデータ(例えばニューラルネットワークの重みパラメータの値)を提供するインタラクションのインタラクションIDは、S109である。
【0073】
銀行から訓練データ55に取引データを提供するインタラクションのインタラクションIDは、S111である。信用調査機関53から訓練データ55に信用スコアを提供するインタラクションのインタラクションIDは、S112である。AIサービスベンダ51からローン審査モデル訓練部41aに訓練アルゴリズムに関するパラメータなどのデータを提供するインタラクションのインタラクションIDは、S113である。ローン審査推論部42aがローン審査モデル56を受け取るインタラクションのインタラクションIDは、S114である。AIサービスベンダ51からローン審査推論部42aに推論アルゴリズムに関するパラメータなどのデータを提供するインタラクションのインタラクションIDは、S119である。
【0074】
なお
図6に示す各ステークホルダによりAIシステム40へのデータの提供、またはAIシステムのデータの利用は、端末またはサーバなどのコンピュータを用いて行われる。また
図6に示す各ステークホルダはAIシステムに直接関わっているが、AIシステムに直接関わらず、例えば他のステークホルダを介してAIシステムに関わるステークホルダも存在し得る。
【0075】
図7は、AI倫理チェックリストの一例を示す図である。AI倫理チェックリスト112には、AI倫理チェック項目ごとのレコードが登録されている。各レコードには、インタラクションの特徴、リスクの種類、AI倫理特性、概要、リスク例などのフィールドが含まれる。
【0076】
インタラクションの特徴のフィールドには、リスクが発生するインタラクションの特徴が設定される。例えば始点の種類と終点の種類との組合わせで、インタラクションの特徴が示される。始点の種類と終点の種類には、ステークホルダの種類、システムコンポーネントの種類、またはデータの種類が設定される。
【0077】
リスクの種類のフィールドには、対応する特徴のインタラクションで発生するリスクの種類が設定される。リスクの種類には、例えば事象と要因とがある。事象は、対応する特徴のインタラクションによって、リスクとなる事象が発現することを示す。要因は、対応する特徴のインタラクションが、リスクの発生要因となる可能性があることを示す。
【0078】
AI倫理特性のフィールドには、リスクとなる可能性がある倫理的な観念を示している。AI倫理特性は、複数の観点から分類されている。例えば「分類1」は、「プライバシーとデータガバナンス」、「技術的な頑健性と安全性」、「多様性,無差別,公平性」などに分類されている。「分類2」は、「プライバシーとデータ保護の尊重」、「攻撃への頑健性とセキュリティ」、「不公平な偏見の排除」などに分類されている。「分類3」は、「プライバシーやデータ保護問題の発生防止/影響軽減の対応の十分性」、「AIシステムの動作頑健性」、「AIモデルの妥当性」、「最終判断の妥当性」などに分類されている。「分類4」は、「データ取得方法の適切性」、「異常系テストの十分性」、「推論結果の独立性」、「集団公平性」などに分類されている。
【0079】
概要のフィールドには、対応する特徴のインタラクションで発生するリスクの概要が設定される。例えばAI倫理チェックリスト112の1つ目のAI倫理チェック項目の概要には「他者/他社から取得したデータを利用する場合に、そのデータの取得が適切に行われていること。例えば適切な手順を踏み、関係者に事前に許可を得ていること」と設定される。2つ目のAI倫理チェック項目の概要には「予期しない状況や環境でAIシステムが利用された場合、あるいは予測に使われる推論データがソフトウェア仕様で規定されている値域外の値が入力された場合のAIシステムの動作を確認していること」と設定される。3つ目のAI倫理チェック項目の概要には「AIモデルからの出力である推論結果の正解/不正解の割合が保護グループ間で一致していること」と設定される。4つ目のAI倫理チェック項目の概要には「「保護属性」によるグループ間で、AIによる推論結果の差が許容範囲内であること」と設定される。
【0080】
リスク例のフィールドには、対応する特徴のインタラクションで発生する具体的なリスクの例が設定される。例えばAI倫理チェックリスト112の1つ目のAI倫理チェック項目のリスク例には「人が写る可能性がある画像について、事前に許可を得ていない」と設定される。また2つ目のAI倫理チェック項目のリスク例には「推論データに、仕様で規定された範囲外の値が入力された場合のAIモデルの動作が確認されていない」と設定される。3つ目のAI倫理チェック項目のリスク例には「ビデオ面接の採用判定AIにおいて、求職者の評価モデルの推論結果が、障碍者にとって不利になる可能性がある」と設定される。4つ目のAI倫理チェック項目のリスク例には「ローン審査AIにおいて、AIモデルが女性や黒人の審査が通りにくい判定をする」と設定される。
【0081】
重要インタラクション抽出ルール111に基づいて重要であると判定されたインタラクションの特徴がAI倫理チェックリスト112のいずれかのAI倫理チェック項目におけるインタラクションの特徴と合致すると、該当するAI倫理チェック項目が抽出される。
【0082】
なおAIシステム40の運用時に生じるインタラクションは、インタラクション集合114に示されている。
図8は、インタラクション集合の一例を示す図である。インタラクション集合114には、インタラクションごとのレコードが登録されている。各レコードには、インタラクションID、ステークホルダ、システムコンポーネント、およびデータの種類のフィールドが設けられている。
【0083】
インタラクションIDのフィールドには、対応するインタラクションの識別子(インタラクションID)が設定される。
ステークホルダのフィールドには、ステークホルダが関係するインタラクションの場合における、そのステークホルダに関する情報が設定される。ステークホルダの情報としては、種類、名称、役割、始点・終点がある。種類は、ステークホルダの属性である。例えばステークホルダの種類としては、利用者、AIシステム提供者、データ提供者などがある。名称は、ステークホルダの一般名称である。例えばステークホルダの名称としては、ローン申込者、銀行、信用調査機関などがある。役割は、インタラクションにおけるステークホルダの役割を示す情報である。例えばステークホルダの役割としては、申込者情報提供、申込者情報受取、取引データ提供、信用スコア提供などがある。始点・終点は、ステークホルダがインタラクションの始点(インタラクションにおいてデータを与える側)に該当するのか、終点(インタラクションにおいてデータを受け取る側)に該当するのかを示す情報である。
【0084】
システムコンポーネントのフィールドには、システムコンポーネントの処理に対応するインタラクションの場合におけるそのシステムコンポーネントに関する情報が設定される。システムコンポーネントの情報としては、種類、名称、始点・終点がある。種類は、システムコンポーネントの属性である。例えばシステムコンポーネントの種類としては、AIモデルなどがある。名称は、システムコンポーネントの一般名称である。例えばシステムコンポーネントの名称としては、ローン審査推論などがある。始点・終点は、システムコンポーネントがインタラクションの始点に該当するのか、終点に該当するのかを示す情報である。
【0085】
データの種類のフィールドには、データを対象とする処理に対応するインタラクションの場合におけるそのデータの種類に関する情報が設定される。データの種類の情報としては、種類、名称、始点・終点がある。種類は、作業または処理の対象となるデータの種類である。例えばデータの種類としては、推論データなどがある。名称は、インタラクションの対象となるデータの名称である。例えばデータの名称としては、申込者情報、申込者の取引データ、申込者の信用スコア、審査データなどがある。インタラクションの対象となるデータとして名称の異なる複数のデータが含まれる場合、それらのデータの名称が、データの種類のフィールドにおける名称として設定される。始点・終点は、データの種類がインタラクションの始点に該当するのか、終点に該当するのかを示す情報である。
【0086】
なおインタラクション集合114の各レコードには、対応するインタラクションに対して直接関わらないが間接的に関わるステークホルダの情報(例えばそのステークホルダの数)を設定するフィールドを追加してもよい。
【0087】
重要チェック項目抽出部130は、開発したAIシステム40に対応するインタラクション集合114に基づいて、開発したAIシステム40に関する倫理的なリスクに関する重要なチェック項目を抽出することができる。
【0088】
図9は、重要チェック項目の抽出処理の一例を示す図である。例えばグラフ生成部131は、インタラクション集合114に基づいて、開発したAIシステム40のグラフ構造データ115を生成する。特徴抽出部132は、重要インタラクション抽出ルール111に基づいて、グラフ構造データ115に示される各インタラクションの優先度を計算し、優先度の高い方から所定数のインタラクションを抽出する。チェック項目抽出部133は、AI倫理チェックリスト112を参照し、抽出されたインタラクションが有する特徴に対応するAI倫理チェック項目を、そのインタラクションに対応付けて抽出する。そしてチェック項目抽出部133は、抽出したAI倫理チェック項目を含む重要AI倫理チェックリスト116を出力する。
【0089】
このように重要チェック項目抽出処理の結果として重要AI倫理チェックリスト116が生成される。また重要チェック項目抽出処理の過程で、グラフ構造データ115が生成される。生成されたグラフ構造データ115と重要AI倫理チェックリスト116とは、関連リスク分析部150による関連リスクの分析に利用される。
【0090】
図10は、グラフ構造データで示されるインタラクションのグラフ構造の一例を示す図である。インタラクションのグラフ構造60では、インタラクションの始点または終点となるステークホルダ、システムコンポーネント、またはデータが、ノード61~70で表されている。そしてインタラクションの始点となる要素に対応するノードと終点となる要素に対応するノードとが、インタラクションを表すエッジ(矢印)で接続されている。エッジは、始点から終点の方向を指している。インタラクションに対応するエッジの横には、そのインタラクションのインタラクションIDが示されている。
【0091】
なお重要AI倫理チェックリスト116は、関連リスクの分析に利用する前に、リスク設定部140により、分析者が判断したリスクが設定される。
図11は、重要AI倫理チェックリストの一例を示す図である。重要AI倫理チェックリスト116には、重要であると判断されたAI倫理チェック項目に対応するレコードが登録されている。各レコードには、インタラクションID、インタラクションの特徴、リスクの種類、AI倫理特性、概要、リスク例、およびリスクのフィールドが設けられている。
【0092】
インタラクションIDのフィールドには、グラフ構造データ115に示されるインタラクションのうち、重要インタラクション抽出ルール111に基づいて重要と判断されたインタラクションのインタラクションIDが設定される。インタラクションの特徴、リスクの種類、AI倫理特性、概要、およびリスク例のフィールドには、インタラクションIDで示されるインタラクションの特徴に対応付けてAI倫理チェックリスト112に設定されているAI倫理チェック項目の情報が設定される。リスクのフィールドには、インタラクションIDで示されるインタラクションのAI倫理チェック項目について発生する具体的なリスクが設定される。
【0093】
例えば分析者は、リスク設定部140を用いて、重要と判定されたAI倫理チェック項目について、AIシステム40において発生する可能性のある具体的なリスクを入力する。リスク設定部140は、分析者からの入力に基づいて、重要AI倫理チェックリスト116の各レコードにリスクを設定する。
図11の例では、重要AI倫理チェックリスト116の各AI倫理チェック項目のリスクフィールドには、以下のようなリスクが設定されている。
【0094】
1つ目のAI倫理チェック項目のリスクのフィールドには、「AIサービスプロバイダが、AIシステムで扱うデータに対し、ハッキングや不正なデータアクセスにより更新されていないことを確認していない」と設定されている。2つ目のAI倫理チェック項目のリスクのフィールドには、「推論データに、仕様で規定された範囲外の値が入力された場合のAIモデルの動作が確認されていない」と設定されている。3つ目のAI倫理チェック項目のリスクのフィールドには、「ローン審査AIが融資可と判定する比率が、保護グループ間で異なり、その差が許容できない大きさである」と設定されている。4つ目のAI倫理チェック項目のリスクのフィールドには、「AIモデルが、女性や黒人の審査が通りにくい判定をする」と設定されている。
【0095】
コンピュータ100は、重要AI倫理チェックリスト116に基づいて、リスクに対する対策の検討を要するAI倫理チェック項目を示す分析図を生成し、生成した分析図を表示することができる。ただし重要AI倫理チェックリスト116に含まれるAI倫理チェック項目は、数十程度となる場合があり、互いの関連性は明確でない。また、重要AI倫理チェックリスト116に示されるのは倫理的な観点を詳細化したAI倫理チェック項目であるために、同じ観点から詳細化された項目が類似した内容になる傾向がある。
【0096】
そのため、重要AI倫理チェックリスト116に含まれるAI倫理チェック項目に示されるリスク間の関連付けを考慮せずにすべてのAI倫理チェック項目を含む分析図は、個々のリスクを示すにとどまる。このようなすべてのAI倫理チェック項目を含む分析図を表示した場合、検討対象のリスクをすべて含む分析図に基づいてリスクの対策を検討する分析者は、似たようなリスクを何度も検討することになり、時間的および心理的な負担が大きい。
【0097】
図12は、すべてのリスクを含む分析図の一例を示す図である。分析
図90では、AIシステム40における重要なインタラクションそれぞれに対して、そのインタラクションに関連するAI倫理チェック項目が対応付けられている。また、各AI倫理チェック項目には、そのAI倫理チェック項目に関して、AIシステム40で生じる具体的なリスクが示されている。分析
図90では、各リスクは、種別ごとに異なる表示態様となっている。種別が要因のリスクは、破線の枠で囲まれている。種別が事象のリスクは、一点鎖線の枠で囲まれている。
【0098】
分析
図90では、インタラクションID「S111」のインタラクションに対してAI倫理チェック項目「データ属性の十分性」および「ラベルの妥当性」が対応付けられている。インタラクションID「S112」のインタラクションに対してAI倫理チェック項目「データ属性の十分性」が対応付けられている。インタラクションID「S113」のインタラクションに対してAI倫理チェック項目「推論結果の独立性」および「機械学習・統計解析の適切性」が対応付けられている。インタラクションID「S119」のインタラクションに対してAI倫理チェック項目「推論結果の制御性」が対応付けられている。インタラクションID「S110」のインタラクションに対してAI倫理チェック項目「集団公平性」および「推論結果の制御性」が対応付けられている。
【0099】
分析
図90に含まれているAI倫理チェック項目は8個であるが、多くの場合、少なくとも数十個のAI倫理チェック項目が含まれる。そのため、検討対象のすべてのAI倫理チェック項目を含む分析
図90をそのまま表示すると、分析者は、リスク間の関連性の把握が困難となる。
【0100】
例えばインタラクションID「S111」に対応付けられているAI倫理チェック項目「ラベルの妥当性」とインタラクションID「S112」に対応付けられているAI倫理チェック項目「データ属性の十分性」とは、内容が類似している。検討対象のすべてのAI倫理チェック項目を含む分析
図90では、内容の類似するAI倫理チェック項目が複数存在しても、分析者は、そのような類似性のある複数のAI倫理チェック項目の存在を見落とす可能性が高い。そのため分析者は、内容の類似する複数のAI倫理チェック項目を、個別に検討することとなり、作業負担の増大を招く。
【0101】
また分析
図90では、リスクを、リスク要因とリスク事象とに区別可能となっている。しかし、どのリスク要因がどのリスク事象に対する要因なのかという関連性が、分析
図90からは把握できない。そのため分析
図90では、分析者は、リスクの事象とその事象に関連する要因とをまとめて検討することが困難であり、検討作業に時間がかかってしまう。
【0102】
なお分析者が手作業で関連性の高いリスクをグルーピングすることも可能であるが、このグルーピング作業は分析者のスキルに依存する。そのため分析者の手作業でのグルーピングでは、グルーピングの精度が不十分な場合が発生し、作業時間の短縮効果が得られない可能性がある。
【0103】
そこで関連リスク分析部150は、グラフ構造データ115と重要AI倫理チェックリスト116とに基づいて、リスクのグルーピングを行う。例えば関連リスク分析部150は、グラフ構造におけるインタラクションの関係を辿ったパスごとのグルーピングを行う。パスは、グラフ構造60上のエッジの向きに従って、始点のノードから終点のノードに到達可能なエッジに対応するインタラクションの集合である。生成するパスは、パス情報として分析者によって指定される。パス情報では、パスに関する制約条件として、経由するノードを複数指定することもできる。
【0104】
また関連リスク分析部150は、リスクの倫理的な観点でのグルーピングを行うこともできる。
例えば関連リスク分析部150は、分析者からグラフ構造上のパスの指定を受け付ける。そして関連リスク分析部150は、指定されたパス上のインタラクションに対応するリスクがある場合、それらのリスクを同じグループにグルーピングする。また関連リスク分析部150は、指定されたパスに基づいて生成したグループ内のリスクを、倫理的な観点での共通性で、さらに細かなグルーピングをする。そして関連リスク分析部150は、指定されたパスと倫理的な観点の共通性とによるグルーピングで生成されたリスクのグループごとに分析図を生成する。
【0105】
分析図表示部160は、グループごとの分析図を含む分析図群117から、分析者から指定された倫理的な観点に対応する分析図を選択し、モニタ21に表示させる。このようにして、AIシステム40の運用により生じるリスクが、分析者からの指定に応じて分類して可視化される。
【0106】
図13は、関連リスクの可視化処理の一例を示す図である。例えば関連リスク分析部150は、分析者71からパス情報72の入力を受け付ける。パス情報72には、例えば1または複数のインタラクションを含むパスの、グラフ構造における始点ノード、終点ノードを示す情報が含まれる。また、パス情報72に、経由ノードを含めてもよい。
【0107】
関連リスク分析部150のパス抽出部151は、グラフ構造データ115に基づいて、パス情報72で指定されたパスを抽出する。リスク抽出部152は、重要AI倫理チェックリスト116から、抽出されたパスに含まれるインタラクションに対応するAI倫理チェック項目を抽出する。さらにリスク抽出部152は、所定の分類区分(AI倫理チェックリスト112の分類1、分類2、・・・)におけるAI倫理特性ごとの分析
図117a,117b,・・・を生成する。リスク抽出部152は、生成した分析
図117a,117b,・・・を、分析図群117として記憶部110に格納する。
【0108】
分析図表示部160は、分析者71から倫理観点情報73の入力を受け付ける。倫理観点情報73には、例えば所定の分類区分におけるAI倫理特性を指定する情報が含まれる。
【0109】
分析図表示部160は、分析図群117に含まれる分析
図117a,117b,・・・のなかから、倫理観点情報73に示されるAI倫理特性に対応する分析図を取得し、取得した分析図をモニタ21に表示させる。
【0110】
次に関連リスク分析処理の手順について詳細に説明する。
図14は、関連リスク分析処理の手順の一例を示すフローチャートである。以下、フローチャートに示す処理をステップ番号に沿って説明する。
【0111】
[ステップS11]パス抽出部151は、パス情報72に示される始点と終点とに基づいて、グラフ構造データ115に示されるグラフ構造の始点から終点に至るパス上のインタラクションを示すインタラクション集合を取得する。始点から終点に至る経路が複数ある場合、複数のインタラクション集合が取得される。
【0112】
なおパス抽出部151は、例えば始点ノード、終点ノードに基づいて、グラフ構造60上で始点のノードからエッジの矢印の方向に経路を探索することで、パス情報72に示される条件を満たすパスを特定する。またパス抽出部151に対して、始点のノードと終点のノードとの組ごとに、始点から終点までのエッジの順序を示す情報を予め設定しておくこともできる。
【0113】
[ステップS12]パス抽出部151は、パス情報72に経由ノードの指定があるか否かを判断する。パス抽出部151は、経由ノードの指定がある場合、処理をステップS14に進める。またパス抽出部151は、経由ノードの指定がなければ、処理をステップS13に進める。
【0114】
[ステップS13]パス抽出部151は、取得したインタラクション集合ごとに、そのインタラクション集合に含まれるインタラクションを繋げることで生成されるパスを抽出する。その後、パス抽出部151は、処理をステップS18に進める。
【0115】
[ステップS14]パス抽出部151は、取得したインタラクション集合のうち、未選択のインタラクション集合を1つ選択する。
[ステップS15]パス抽出部151は、選択したインタラクション集合に含まれるインタラクションを繋げることで生成されるパスに、指定された経由ノードが含まれるか否かを判断する。パス抽出部151は、経由ノードが含まれる場合、処理をステップS16に進める。またパス抽出部151は、経由ノードが含まれなければ、処理をステップS17に進める。
【0116】
[ステップS16]パス抽出部151は、選択したインタラクション集合に含まれるインタラクションを繋げることで生成されるパスを抽出する。
[ステップS17]パス抽出部151は、未選択のインタラクション集合があるか否かを判断する。パス抽出部151は、未選択のインタラクション集合があれば、処理をステップS14に進める。またパス抽出部151は、抽出したすべてのインタラクション集合が選択済みの場合、処理をステップS18に進める。
【0117】
[ステップS18]リスク抽出部152は、パス抽出部151が抽出したパスに含まれるインタラクションに関連するリスクを、重要AI倫理チェックリスト116から取得する。
【0118】
[ステップS19]リスク抽出部152は、取得したリスクを、所定の分類区分(AI倫理チェックリスト112に示す分類1、分類2、・・・)で示されるAI倫理特性で分類する。例えばリスク抽出部152は、AI倫理特性の4つの分類基準のうちの1つでリスクを分類する。
【0119】
[ステップS20]リスク抽出部152は、AI倫理特性ごとに分類されたグループごとに、そのグループに含まれるリスクを示す分析図を生成する。
このようにして、分析者71が指定したパス情報72に応じたパスに関連するAI倫理チェック項目に基づいて、AI倫理特性ごとの分析図が生成される。分析者71が任意のAI倫理特性を選択すると、選択されたAI倫理特性に対応する分析図が表示される。
【0120】
図15は、パス情報に応じて抽出されたパスの第1の例を示す図である。
図15には、パス情報72においてステークホルダ「銀行」が始点として指定され、ステークホルダ「ローン申込者」が終点として指定された場合に、グラフ構造60から抽出されるパス81を示している。
図15の例では、経由ノードとして、データ「訓練用データ」のノード62またはシステムコンポーネント「ローン審査モデル訓練部」のノード63が指定されている。
【0121】
この場合、「銀行」のノード61から「ローン申込者」のノード70に至るパス81が抽出される。このパス81は、「訓練用データ」のノード62、「ローン審査モデル訓練部」のノード63、「ローン審査モデル」のノード67、「ローン審査推論部」のノード68、および「審査結果」のノード69を経由している。パス81が抽出されると、パス81上のインタラクションに対応づくリスクが抽出され、抽出されたリスクがAI倫理特性に応じて分析図が生成される。
【0122】
分析者71がAI倫理特性を選択すると、選択したAI倫理特性に対応する分析図が表示される。
図16は、表示される分析図の第1の例を示す図である。
図16には、AI倫理特性として「公平性観点」が選択された場合の分析
図91が示されている。分析
図91では、パス情報72に応じて抽出されたパス81に含まれるインタラクションが、太線のエッジで示されている。そしてパス81に含まれるインタラクションに対応するAI倫理チェック項目のうち、公平性の観点でのAI倫理チェック項目91a~91cが、互いに関連するリスクとして表示されている。各AI倫理チェック項目91a~91cには、リスクの内容と、対応するインタラクションのインタラクションIDが示されている。
【0123】
分析者71は、分析
図91を参照することで、例えば銀行52から提供される取引データに基づくローン審査モデル56の生成、およびローン審査モデル56を用いた審査の過程に発生する公平性の観点でのリスクを漏らさず把握できる。また分析者71は、分析
図91に基づいて、リスク事象に関連するリスク要因を容易に判断することができる。その結果、分析者71は、これらのリスクについての統一した適切な対策を立案することが容易となる。
【0124】
図17は、パス情報に応じて抽出されたパスの第2の例を示す図である。
図17には、パス情報72においてステークホルダ「AIサービスベンダ」が始点として指定され、ステークホルダ「ローン申込者」が終点として指定された場合に、グラフ構造60から抽出されるパス82を示している。
図17の例では、経由ノードとして、システムコンポーネント「ローン審査モデル訓練部」のノード63が指定されている。
【0125】
この場合、「AIサービスベンダ」のノード64から「ローン申込者」のノード70に至るパス82が抽出される。パス82は、「ローン審査モデル訓練部」のノード63、「ローン審査モデル」のノード67、「ローン審査推論部」のノード68、および「審査結果」のノード69を経由している。パス82が抽出されると、パス82上のインタラクションに対応づくリスクが抽出され、抽出されたリスクがAI倫理特性に応じて分析図が生成される。
【0126】
そして分析者71がAI倫理特性を選択すると、選択したAI倫理特性に対応する分析図が表示される。
図18は、表示される分析図の第2の例を示す図である。
図18には、AI倫理特性として「公平性観点」が選択された場合の分析
図92が示されている。分析
図92では、パス情報72に応じて抽出されたパス82に含まれるインタラクションに対応するAI倫理チェック項目のうち、公平性観点でのAI倫理チェック項目92a~92cが、互いに関連するリスクとして表示されている。
【0127】
分析者71は、分析
図92を参照することで、例えばAIサービスベンダ51から提供される各種パラメータなどに基づくローン審査モデル56の生成、およびローン審査モデル56を用いた審査の過程に発生する公平性の観点でのリスクを漏らさず把握できる。その結果、分析者71は、これらのリスクについての統一した適切な対策を立案することが容易となる。
【0128】
図19は、パス情報に応じて抽出されたパスの第3の例を示す図である。
図19には、パス情報72においてステークホルダ「AIサービスベンダ」が始点として指定され、ステークホルダ「ローン申込者」が終点として指定された場合に、グラフ構造60から抽出されるパス83を示している。
図19の例では、経由ノードとして、「ローン審査推論部」のノード68と「審査結果」のノード69とが指定されている。
【0129】
この場合、「AIサービスベンダ」のノード64から、「ローン審査推論部」のノード68、および「審査結果」のノード69を経由して「ローン申込者」のノード70に至るパス83が抽出される。この場合、パス83上のインタラクションに対応づくリスクが抽出され、抽出されたリスクがAI倫理特性に応じて分析図が生成される。
【0130】
そして分析者71がAI倫理特性を選択すると、選択したAI倫理特性に対応する分析図が表示される。
図20は、表示される分析図の第3の例を示す図である。
図20には、AI倫理特性として「人間の自律とAIの監視」が選択された場合の分析
図93が示されている。分析
図93では、パス情報72に応じて抽出されたパス83に含まれるインタラクションに対応するAI倫理チェック項目のうち、「人間の自律とAIの監視」の観点でのAI倫理チェック項目93a~93bが、互いに関連するリスクとして表示されている。
【0131】
分析者71は、分析
図93を参照することで、例えばAIサービスベンダ51から提供される各種パラメータなどに基づくローン審査モデル56を用いた審査の過程に発生する公平性の観点でのリスクを漏らさず把握できる。その結果、分析者71は、これらのリスクについての統一した適切な対策を立案することが容易となる。
【0132】
以上説明したように、コンピュータ100はAIシステム40を利用するストーリをパスで表現している。コンピュータ100は、いくつかあるストーリのうち、特定のパスに関連するリスクに絞り込んで提示することで、リスクがなぜ発生するかを理解しやすく表示できる。しかも特定のパスに関連したリスクのみが提示がされるため、リスクが発生する経緯も理解しやすい。分析図中に表示されるリスク数が少ないため、関連するリスクの見落としが抑止される。またコンピュータ100は、特定の倫理観点に関連するリスクに限定して表示することができ、表示されるリスクの視点が統一される。そのため分析者は、類似する倫理観点に関する複数のリスクに対する統一した対策の検討が容易となる。
【0133】
〔その他の実施の形態〕
第2の実施の形態では、コンピュータ100は、分析者71の入力に基づいてパスの両端のステークホルダを選択し、パスを探索しているが、パス情報72の入力なしで、すべてのステークホルダの組合わせごとの分析図を生成してもよい。その場合、分析図を生成後、分析者71は、コンピュータ100に、ステークホルダの組合わせを示すパス情報72を入力する。コンピュータ100は、入力されたパス情報で指定されたステークホルダの組合わせに応じたパスに対応する分析図を表示する。
【0134】
またコンピュータ100は、ステークホルダ間を結ぶすべてのパスのうち、ノードとエッジの特徴に基づいて、優先的にリスクの検討を行うべきパスを決定することもできる。
パスの優先度の判定に用いるグラフ構造の特徴としては、例えばノード、エッジ、エッジの向きなどに関する特徴がある。ノードの特徴としては、ノードの種類(ステークホルダ、コンポーネント、データ)、入力エッジの数、出力エッジの数などの情報を用いることができる。エッジの特徴としては、始点ノードの特徴、終点ノードの特徴、関連付けられたリスクの数、リスクの文章、リスク重要度などの情報を用いることができる。
【0135】
コンピュータ100は、パスの優先度を、例えば機械学習モデルを用いて求めることができる。その場合、コンピュータ100は、パスの優先度を求める機械学習モデルの生成処理を行う。例えばコンピュータ100は、パスの優先度を決定する機械学習モデルの訓練データとして、過去の関連リスク分析結果に示される同一パスのリスクに対して、人手あるいはテキスト解析でリスクの高さなどの情報を関連付けたデータを用いることができる。またコンピュータ100は、過去の関連リスク分析の結果として得られたすべてのパスについて、関連づいたリスクの数で優先度を決定しそれを教師ラベルとすることもできる。そしてコンピュータ100は、パスの特徴から優先度を判定するモデルを学習する。
【0136】
コンピュータ100は、例えばパスごとの分析図が生成された場合に、学習済みのモデルに基づいて、パスの優先度を決定し、優先度の高いパスに対応する分析図から順にモニタ21に表示する。
【0137】
以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。さらに、前述した実施の形態のうちの任意の2以上の構成(特徴)を組み合わせたものであってもよい。
【符号の説明】
【0138】
1 AIシステム
2a,2b 機能
3a,3b,3c,3d 管理対象データ
4a,4b,4c 関係者
5 パス情報
6 第1のパス
7 第1のデータ受け渡し関係
8 分析図
10 情報処理装置
11 記憶部
11a 関係情報
11b チェックリスト
12 処理部