
XAIを推進する開発パートナー選びのポイント
「XAI」というIT用語を聞いたことがありますか?「XAI」は英語表記でExplainable AIです。
和訳すると「説明可能なAI」と称されています。
または、Interpretabilityで、和訳しると「解釈可能性」と称されています。
「XAI」は今までのAIが不得意であった「どうしてこの予測結果を出したのか?」という結果に至るプロセスを説明可能にする技術・分野のことです。
近年、AI技術を導入した仕組みは、「XAI」の必要性が注目されています。
つまり、AI機能を導入して「予測結果」を得ることができます。
しかし、「予測結果」を出す過程がみえないため、その過程を解釈できるようする仕組みを示しています。
特にAI機能による医療診断や株価予測などは高いリスクがあります。
医師やファンドマネージャーの診断・予測と合致していることが求められるでしょう。
目次
1.XAIとは何か?
「XAI」とは、説明可能なAI(人工知能=Explainable AI)のことで、表記通りに「予測結果」「推定結果」に至るプロセスが、人々向けに説明可能になっているAI機器本体のことを示します。
または、「XAI」に関する技術・研究分野を含めて称することがあります。
「XAI」は、アメリカ合衆国の政府機関である国防高等研究計画局(DARPA=Defense Advanced Research Projects Agency)が主導する研究プロジェクトが発端で、社会的に広く使用されるIT用語になりました。
また、「XAI」は「人々向けに説明可能なAI」を示しますが、「解釈可能性(Interpretability)」という呼び方があります。
表記通りに「機械学習モデルが結果予測・結果推定を行ったプロセスを、人々が解釈可能であるかどうか」を指しています。
2.XAI開発の背景
これから「XAI」が開発されている背景を紹介します。
AI(人工知能)は、深層機械学習(ディープラーニングなどを示します。)によって作成される「結果予測」「結果推定」を導くための仕組みの解釈が難しい状況です。
そのため、「中身はブラックボックス」化されていると言われています。
「中身のブラックボックス」とは、内部が不明(または不透明)になっている箱のことを指します。
入力情報を基にして、AIという箱の内部で何かが行われてから、何らかの結果予測・結果推定を出力する仕掛けを持つ仕組みと説明されます。
現実社会で導入・運用が開始されると、「中身はブラックボックス」のものは安心・安全に活用できないという懸念が生じるようになりました。
一例では、AI機能による自動運転の自動車で、自動車事故が発生したケースがでは、事故発生の説明可能なAI機能でないと、原因を追究できない問題が生じます。
このことが、企業がAI機能を採用するときの最大のリスクと捉えられているのです。
上記の背景から、AI機能から作成される「結果予測」「結果推定」を導くための深層機械学習を「脱ブラックボックス化(=ホワイトボックス化)」する社会的な要求が高まっています。
近年では、説明可能性(Explanability)・解釈可能性(Interpretability)の研究が注視されて、「脱ブラックボックス化」の開発がすすんでいます。
3.XAIの手法や技術
「XAI」の実現を目標に多くの手法や技術が考案されています。
第1に「人々が行う説明方法を、AIに学習させる」方法があります。
従来の深層機械学習(ディープラーニング)は、設計した技術者が「結果予測」「結果推定」する要素を「コンピューターが物事を判断するために必要な情報」指令・命令していたため、人々がAI機能の中身を説明することは容易でした。
今後は、この説明方法そのものをAIに学習させようという手法が試行されています。
第2に、深層機械学習の内部で実行されるプロセスのステップを可視化して、物事を見抜く力を得られるようにする手法です。
第3にどの入力変数がどういった出力結果(「結果予測」「結果推定」)が人々に最も寄与するかを明示して説明が容易にする手法があります。
第4に「ブラックボックスなAIは信頼できない」ことを前提に可視化した深層機械学習結果を公表する手法があります。
4.XAI のメリット
「XAI」のメリットを紹介します。
「XAI」はAI機能から出力される「結果予測」「結果推定」のプロセス・判断に至る過程の検証や監査およびその説明をすることに限定するだけではありません。
利用者がAI機能を介して適切な判定をしていると信頼すれば「XAI」を活用する必要はありません。
「中がブラックボックス化」されていても、該当の製品やサービスを上手に利用しているケースは問題になりません。
「XAI」による処理過程の説明を通して、実空間・社会現象と、それに対する認識・評価・予測の関係性や構造が明らかになれば良いのです。
自然科学や社会科学における理論構築そのものの進歩に同調する可能性もあります。
5.XAI 実現のアプローチ
「XAI」実現のアプローチ方法を紹介します。次の3項目が「XAI」実現を目指す基本線となります。
- 高位なレベルの学習性能(予測精度)を持ちながら、説明可能なソリューションを生成することです。
- ロジックや合理性を明らかにして、長所と短所を示して、将来の展開を説明する能力を持つことです。
- 人々がそれを理解し、AIを効果的に管理できることです。
これら実現に向けて、初期段階のアプローチ方法を紹介していきます。
5-1.解釈可能性(Interpretability)を高める方向性
解釈可能性(Interpretability)を高める方向性を紹介します。
AI機能から出力される「結果予測」「結果推定」を導くときの特定するアプローチです。
一例ですが、AIを画像認識に導入するときは、認識対象となる画像の一部分を切り取り、認識させます。
続いて他の一部分を認識させていくことを繰り返します。
最終的に画像全体を認識したこととして結果を出力します。
認識対象となる画像情報のなかの、どの部分のどのような特徴に注目して予測・認識したかを明確にすることができるのです。
皆さんがご利用されている「LIME(特徴量とスコアを可視化する仕組みです。)」「SHAP(予測への貢献度を算出する仕組みです。)」がその手法に該当します。
5-2.AIが行うべきタスクを分割し、分散化したAIに実行させていくという方法です
AIが行うべきタスクを分割して、分散化したAIに実行させていくという方法です。
たとえば、エッジコンピューティングを導入して、分散化したシステム設計をすることで、安全性と信頼性の高いAI結果を得ることができます。
あるプリンタートナーを製造する大手メーカーの生産工場の一例です。
エッジコンピューティングを導入しています。
原材料をタンクから一次工程の生産ラインに移動するパイプラインにIoT機器センサーを設置します。
そのセンサーからエッジコンピューターに通過する原材料の量を通知します。
エッジコンピューターはAI機能を導入しており、既定の数値以外の原材料が通過すると警告を通知します。
この仕組みを「黒」「赤」「青」「黄色」の生産ラインごとに分割したエッジコンピューティングで異常を検知する仕組みを導入しています。
透明性をもち、その途中経過における説明も、事後による検証も可能にし、安全性と信頼性の高いAI機能による出力される「結果予測」「結果推定」としていきます。
6.XAIを推進する開発パートナー選びのポイント
これからは、日本国政府・公的機関・ITベンダー企業・利用者がAI機能をもつシステムに依存するようなるでしょう。
さらに、AIソリューションの出力結果である「結果予測」「結果推定」は、プロセスに透明性を持たせて明確な説明責任が求められるようになるでしょう。
アメリカ合衆国の保険業界では、AIソリューションによって顧客の属性や興味・趣味嗜好・行動にあわせた最適な情報やサービスを提供した保険サービスに関する料金や補償内容の決定について説明責任が求められています。
日本国政府は、3年前に総務省によって「AI利活用原則案」提起され、内閣府によって「人間中心のAI社会原則」が公告されています。
開発パートナー選びは「脱ブラックボックス化」されたAIソリューションを推進する大手ベンダー企業・大手IT企業を選択しましょう。
導入実績が多い「中身がブラックボックス」AIソリューションを販売する開発パートナーを選ぶと、買い替えのリスクがあります。
まとめ
AIソリューションに説明可能性を求める規制の動きは強化されるようです。
説明可能性が欠損したAIソリューションは、他のAIソリューションに代替していくという動きが始まっています。
システム開発のITパートナー探しをされるのであれば
システム開発のITパートナー探しをされるのであれば「システム開発コンシェルジュ」で是非ご相談いただければと思います。
以下のフォームより開発でご相談いただきたい内容などご相談ください。