技術経営ブログ

AIに倫理指針(EU)その1

2018年11月6日

技術ブログ

 本日の日経の一面トップで、EUは人工知能(AI)の倫理指針を策定するニュースが掲載されていた。AIが人種や性別等に偏った分析や判断を拡大させる危険があり、差別的な分析が増えるという懸念があるのがその理由である。確かにAIが出力する探索解は、学習データにより大きく誘導される。学習データが差別的な偏見に満ちたものであれば、これを学習したAIが出力する探索解もそれに沿ったものに誘導されてしまう。これを放置しておけば、単なるミスリードどころか、AIをベースにした製品、サービスが更に出回ってきたときに重大な事故を引き起こす危険性もある。AIの倫理に関する本格的な議論が、今回のEUから始まり、これから各国においても一気に加速してくることは間違いないであろう。

 「AIの出す解は学習データにより大きく誘導される」ことについて、つい先週、私自身も気づかされたことがあった。当社の関連企業であるミノル国際特許事務所が共同開発している、あるAIのソフトウェアのデモのため、某社を訪問したときのことだ。デモが終わった後、参加者から「そのAIの出す探索解は、その読み込ませるデータにかなり誘導されているのでは?」という質問を受けた。つまり学習させる側の偏見や差別がなく、あくまでフェアな立場でデータを収集して学習させたつもりでも、その学習用データは本当の意味で学習させる側の意図やテイストが0といえるのか、という問題である。学習させる側の意図やテイストがデータに少しでも含まれていれば、AIの探索解もその意図やテイストが含まれたものに誘導されてしまうのである。実は本当の意味でフェアな立場で学習用データを集めるのは非常に難しい。AIの学習済みモデルを構築する過程においては、クライアントの意図に応えるような探索解を出せるようなデータセットをどうしても準備しようとしてしまう。それが学習させる側の意図となってしまい、AIによる探索解がその方向に誘導されてしまう。一方、100%フェアな立場で集めたデータを学習させると、クライアントの意図している解になかなかたどり着けない。これらのバランスをどのように調整するのか、倫理面に加えて実務面においても、検討しなければならないことは膨大だ。

 EU倫理指針においては、実際にAIに学習させるデータが差別的になっていないかを検証するために、判断にどんなデータを使ったか等の情報開示制度を設けるとのことである。この情報開示制度は、AI関連の特許についてある意味追い風なのか否か、明日のブログにてコメントをしたい。

お問い合わせ・ご依頼は
お気軽にご連絡ください。

受付時間/平日9:20~17:20