人工知能(AI)の「説明力」や「信頼性」が“売り”になろうとしている。ディープラーニング(深層学習)を中心にAIがどういう思考プロセスでその結論に達したのか分からないと、問題になる懸念が大きくなってきたからだ。日本や欧州でAIの公正や倫理に関する原則がまとめられる中、社会の要請としてAI開発者やサービス事業者に説明責任が生じる。ITベンダー各社は技術開発を急ぐ。 説明責任3段階 「突き詰めれば、人や社会の問題だ。(AIが理解できず)『AIは恐ろしい』とあおっても本質は見えない」とNECの江村克己最高技術責任者は嘆く。AIが「説明責任を果たしていない」と言われるのは詳しく見ると三つの段階がある。一つは技術的な問題。深層学習などの複雑な学習モデルは内部で情報をどう処理したのかわかりにくい。AIの専門家の間でも説明が容易ではないが、一つひとつの情報をたどることはできる。 二つ目は開発者からAIユ