技術経営ブログ

AIの判断根拠

2019年3月18日

技術ブログ

 第三次人工知能ブームは留まるところを知らない。様々な産業において今まで人間が行っていた作業を人工知能に代替させる動きが加速している。その中で特にその人工知能において現在求められていることは、意思決定の信頼性に加え、その判断根拠の説明力だ。つまり、AIが作業を行う上で様々な意思決定を自ら行うことになるが、AIがその意思決定をどのような思考プロセスで結論付けたのか、これが分からないとAIに意思決定を委ねてよいのかいろいろな疑念が生じてしまう。自動運転や医療行為といった人命にかかわる領域にもAIは進出してくるが、どのような思考プロセスで意思決定をしたのか分からないものに、その重要な意思決定を任せられないと思ってしまう人が殆どであろう。

 しかし、技術的な問題として、深層学習等の複雑な学習モデルでは、実は内部で情報をどのように処理をして意思決定を行ったのかがなかなか見えにくく、AIの専門家であっても説明がうまくできない場合が多々ある。但し、AIの専門家であれば意思決定の根拠となった一つ一つの情報を辿ることで、AIの判断根拠についてはある程度考察はできるかもしれない。BtoBビジネスにおいては、そのような専門家による対応は可能である。しかし、BtoCビジネスでは、AIに関する知識の乏しい一般ユーザが、AIの判断根拠を知らないまま、これに意思決定を委ねることになる。AIの意思決定に由来する何らかの事故があったときにユーザが不利益を被ったとき、事業者はAIの意思決定の根拠が当然求められるであろう。

 このような問題に対処するため、AIが解釈する根拠を整理、蓄積するインターフェースの開発が近年において進められているらしい(出典 日刊工業新聞 2019/1/24)。AIの判断根拠を説明することができれば、AIに対する信頼性が高まり、AIの普及が進み、またAIの学習のさせ方へのフィードバックにもつながり、良い循環を興すことが期待される。

お問い合わせ・ご依頼は
お気軽にご連絡ください。

受付時間/平日9:20~17:20