一体、何を説明したら「説明責任」を果たすことになるのか。 政府が「人間中心のAI社会原則検討会議」で検討を進めるAI(人工知能)に関する基本原則の議論が大詰めを迎えている。7つの原則の1つに、「AIの判断について企業に説明責任を求める」との内容を盛り込むことが明らかになった。同会議はパブリックコメントを経て2019年3月に原則を公開する予定だ。 AI技術が普及するにつれ、一部技術については判断の根拠を理解するのが難しく、医療や金融、採用活動など、透明性や公平性が求められる分野に適用するのは難しい、との見方がある。安全性に関する問題のほか、患者や求職者によってはAIの判断に不満を抱いたり差別的だと感じたりする恐れがあるからだ。企業が果たすべき説明責任の原則が明らかになれば、利用者にとってAIの判断を受け入れる目安になり得る。 一方、AIを自社の事業に生かそうと考える企業にとって原則案は不安材
![政府がAI活用の7原則、悩ましい説明責任](https://cdn-ak-scissors.b.st-hatena.com/image/square/d26251ff10b3e600e42df11252e862c0808139bb/height=288;version=1;width=512/https%3A%2F%2Fxtech.nikkei.com%2Fatcl%2Fnxt%2Fcolumn%2F18%2F00001%2F01481%2Ftopm.jpg%3F20220512)