技術経営ブログ

AIに倫理指針(EU)その2

2018年11月7日

技術ブログ

 昨日のAIの倫理指針を策定するニュースの続きである。人種や性別等の偏ったデータをAIが読み込み、差別的な分析が増加する懸念があるため、欧州議会が委託した有識者会議により倫理指針の原案が策定された。その内容は大きく分類すると下記である。
 ① AIの判断過程を分かりやすく説明する責任を企業に課す。
 ② 判断にどのようなデータを使ったか等の情報開示制度を整える。
 ③ AIの仕組みや運用が倫理的か否か監査する機関を設ける。
 ④ 倫理的なAIの認証制度を設ける。

 このような①、②に示すような運用が行われることになれば、AIに学習させる学習用データに差別的なものが含まれているか否かをチェックすることができ、また判断過程に不公平さが無いかについてもチェックすることができる。その結果、例えば金融機関のAIが特定の人種の顧客に住宅ローンを拒んだり、人事採用のAIが性別やその他差別的な要因に基づいて採用判断に差をつけたりすることを防止できる。

 AIは内部のデータ分析の過程が複雑であり、いかなる指標に基づいて、どのような思考プロセスに基づいて判断を行ったのかが実は外部から分かりにくく、ブラックボックスになっている。これに対して上述のEUの倫理指針は、このようなAIのブラックボックス化される内容の透明化を進める方向であることは確かである。

 このような透明化を進める上で留意しなければならないのは、学習済みデータを構築する企業のノウハウや企業秘密の流出に尽きるであろう。学習済みデータを企業ごとが独自に構築する場合、その企業の持つノウハウや独自の情報等からなる知的資産、独自のテーストを盛り込むことで、解の探索力に差をつけて優位性を出そうとすることは当然である。ブラックボックスの透明化を図る上ではこのような学習済みモデルを構築する上で盛り込まれる企業独自の知的資産をどのように守るのか、検討する必要はあると思う。

 一方、特に①のAIの判断過程、②の学習用データの一部、でも開示できるような制度があれば、AIを活用したビジネスモデル特許を保有する特許権者にとっては好都合である。AIを活用したビジネスモデル特許は近年において増加の一途を辿る。しかし、これを実際に活用しようとする場合に、相手側の実施行為を特定する必要があるが、実はAIのビジネスはそれがなかなか外部から見えにくく、厄介な問題なのである。現実に私もAIビジネスの特許出願代理を数多く担当し、多くを特許権利化しているが、これを活用するケースになったときに肝心の相手側の実施行為を外部からなかなか特定できず、日々苦労をしている。

 しかし、今回のニュースのような判断過程のオープン化の機運が強まれば、その制度を少しでも利用させていただき、AIビジネス特許の活用性の向上につなげられるのではと思う次第である。

お問い合わせ・ご依頼は
お気軽にご連絡ください。

受付時間/平日9:20~17:20