総務省が、人工知能(AI)の開発ガイドラインの策定に乗り出した。自動運転、チャットボット、マッチングなど分野を問わない共通の開発原則として、透明性や制御可能性、プライバシー保護などを企業に求める。 同省は、論点を整理した文章を2016年末に公開した。2017年1月31日まで広く意見を募集する。同年6月末に案を取りまとめる考えだ。 AIの開発指針を巡っては、欧米を中心に議論が進んでいる(表)。総務省は広く国内企業や専門家の意見を集めたうえで、経済協力開発機構(OECD)などに先進国共通のAI開発ガイドライン案として提案することで、国際的な議論を主導したい考えだ。 総務省が示す開発原則は、透明性、制御可能性、セキュリティ確保、安全保護、プライバシー保護、倫理、利用者支援、アカウンタビリティの八つだ。 透明性の原則では、AIの挙動を後から検証できるよう、入出力データやログの保存など、技術の特性に
![総務省がAI開発ガイドライン作成へ、透明性や制御可能性など求める](https://cdn-ak-scissors.b.st-hatena.com/image/square/b9d0700150d780f6c8e4f9f116728cea92dc8251/height=288;version=1;width=512/https%3A%2F%2Fxtech.nikkei.com%2Fit%2Fatcl%2Fcolumn%2F14%2F346926%2F011200764%2Ftopm.jpg%3F20220512)