「AIの判断、企業に説明責任 ルール作りへ政府7原則」で日本のAI技術は終わったかも

www.nikkei.com

この7原則は以下の通りらしい。

(1)説明責任の確保

(2)個人情報の慎重な管理

(3)公正な競争環境の確保

(4)人間の基本的人権を侵さない

(5)教育・リテラシーの充実

(6)セキュリティーの確保

(7)国境を越えたデータの相互利用

 これは日本のAI技術の発展を阻害するかもしれません。

現在、世の中で「AI技術」と呼ばれているものは、機械学習、深層学習を用いた機能のことが多いです。中には、単なるロジックで実現されている機能をAIと呼んでいて、つまり「自動化された機能=AI技術」と拡大解釈したものもありますが、ここでは、「機械学習を用いた機能=AI技術」とします。

機械学習を用いた機能は、その中の判断ロジックは不明です。なので、「(1)説明責任の確保」は論理的に無理でしょう。例えば機械学習を用いた人物判定機能が、ある人物をAと判定した場合、そのロジックを説明することは無理でしょう。これは、現状の機械学習の最大の弱点だと思います。

なので、Aと判定された結果、その人物が不利益を被ったとしても、それを説明することは出来ません。そうなると、機械学習を用いた機能では説明責任を確保することが出来ないので、機械学習を用いた機能は使えない、という結論になりかねません。

こんなことをしていたら、機械学習技術、AI技術の進展が阻害されてしまうかもしれません。日本にいたらAI技術が使えないということになれば、優れた頭脳は海外流出してしまうでしょう。日本の技術は残念な結果になってしまいます。恐ろしいです。

現在の機械学習は適材適所で使えば、従来よりも優れた結果が得られることが分かっています。今、政府がやるべきことは、新しいルール=規制を作るのではなく、自由な研究技術開発が出来る環境作りを先導することだと思います。

このままではヤバイかもよ、日本の技術は。