機械学習システムが現実世界に重大な影響を及ぼす意思決定にますます用いられるようになるにつれ、これらのシステムがどのように結論へ至ったのかを理解したいという要求が高まっている。説明は、監査や検証を可能にすることで意思決定への信頼を高める手段と見なされることが多く、望ましい結果を得るために現実世界の変数を操作するための指針を提供すると期待されている。また、潜在的なバイアスの検出、データ前処理における誤りの特定、意味のあるパターンとノイズの識別にも寄与すると考えられている。さらに、倫理的・規制的・運用上の課題に対処するための中核的要素として、説明可能性はしばしば位置付けられている。
しかし、こうした期待とは裏腹に、現在の説明可能性手法には深刻な限界が存在する。多くの場合、透明性を高めるどころか、新たな不確実性やリスク、曖昧さを生み出している。その結果、**説明可能AI(XAI)**の研究者の中には、その利用に対して強い懸念を表明する者もおり、少数ながらこれらの手法を完全に放棄すべきだと主張する声もある。公平性、透明性、安全性といったXAIの理想と、実際の能力との間には依然として大きな隔たりがある。
本論文は、既存の説明可能性手法が実証科学の基準を満たしておらず、リスクの高い意思決定を支援するには時期尚早であると主張する。また、信頼できる形で活用されるためには解決すべき根本的課題が存在するとし、それらを 意味(meaning)、解釈(interpretation)、行動可能性(actionability) という三つの相互に関連する次元に整理する。これらの基礎的課題が十分に解決されるまで、重大な結果を伴う場面において説明可能性手法に依存すべきではないと、本論文は結論づけている。
引用
TY - JOURAU - Gervais, NicolasPY - 2026/01/14SP - T1 - Explainable AI: An Idea that Badly Needs GroundworkVL - ER -

