「説明責任」。記者にとっては、扱いが難しい言葉の1つである。 不祥事を起こした企業を追及する根拠として頻繁に使われる一方で、「何をどこまで説明する義務があるのか」に、明確なコンセンサスはない。案件ごとにコロコロと性質が変わる、鵺(ぬえ)のような存在だ。 内閣府は2018年12月27日、有識者会議の議論に基づき、人工知能(AI)の研究開発や利活用に当たって国や自治体をはじめとする社会が考慮すべき7つの基本原則「人間中心のAI社会原則」の原案を公開した。人間がAIに過度に依存したり、AIが人間の行動を制限したりするのではなく、人間が自身の能力を発揮するための道具としてAIを使いこなして、人間の尊厳が尊重される社会の構築を目指す。 パブリックコメントを経て、2019年3月までに正式決定する。政府はG7や経済協力開発機構(OECD)などの国際会合に提案し、グローバルな議論を先導したい考えだ。 この
![「AIの説明責任」って何だろう?](https://cdn-ak-scissors.b.st-hatena.com/image/square/f4461377f5948f6dc6f9f76c924b63e59ea7cdbd/height=288;version=1;width=512/https%3A%2F%2Fxtech.nikkei.com%2Fatcl%2Fnxt%2Fcolumn%2F18%2F00138%2F122500210%2Ftopm.jpg%3F20220512)