反実仮想説明の実用化に向けた研究
整理番号 | 2024a032 |
---|---|
種別 | 若手・学生研究-短期共同研究 |
研究計画題目 | 反実仮想説明の実用化に向けた研究 |
研究代表者 | 小林 健(東京科学大学 工学院・准教授) |
研究実施期間 |
2024年9月24日(火) ~
2024年9月27日(金) 2024年12月16日(月) ~ 2024年12月16日(月) |
研究分野のキーワード | 説明可能な機械学習,反実仮想説明,数理最適化 |
目的と期待される成果 |
深層学習をはじめとする機械学習技術の発展により,金融与信審査・医療診断・司法判断など社会における重大な意思決定に機械学習に基づく機械学習モデルが活用されるようになった.しかし,ニューラルネットワークなどの機械学習モデルは入出力の関係が複雑で人間に解釈することは難しい.そこで,機械学習の予測の信頼性を保証するために,予測根拠や判断基準など予測結果に関する追加情報を提示できる説明可能性の実現が重要視されており,機械学習分野における喫緊の課題となっている. 本研究では,機械学習モデルの説明性を高める技術の1つとして反実仮想説明に着目する.反実仮想説明法は,現在の予測結果を覆すような条件を説明として提示する説明手法である.望ましくない予測結果を覆す条件を「所望の予測結果を得るための行動(アクション)」として解釈することで,ユーザは予測結果に関してより建設的な説明を得ることができる. しかしながら,現在の反実仮想説明技術は実用上満たすべきいくつかの要件を無視した状況設定をしている. まず,予測性能のみを考慮して学習した機械学習モデルでは, 実現可能なアクションが常に存在するとは限らない.例えば,機械学習モデルの予測が性別などの変更不可能な特徴量に依拠している場合,ユーザが実際に実行できるアクションが存在しないことがある.また,実際の運用では機械学習モデルは定期的に再学習が行われるため, そのモデルは再学習に由来する不確実性をもつ.そのため,提示されるアクションを仮に実行したとしても, 必ずしも所望の出力を機械学習モデルから得られるとは限らない. そこで本研究では,より現実的な状況設定で適用可能な反実仮想説明技術を開発することを目的として, 次の 2 つの研究に取り組む: 1. アクションの実現可能性を保証する学習アルゴリズムの開発. 2. モデルの不確実性に対して頑健な反実仮想説明の実現. これらの研究項目を通じて, アクションに基づいた解釈性の高いデータ駆動型意思決定システムの基盤技術を構築する. |
組織委員(研究集会) 参加者(短期共同利用) |
金森 憲太朗(富士通株式会社・研究員) 髙木 拓也(富士通株式会社・プリンシパルリサーチャー) 池 祐一(九州大学 マス・フォア・インダストリ研究所・准教授) |