[Tyler Cowen, “Will we understand why driverless cars do what they do?” Marginal Revolution, July 9, 2016] ニューラルネットワークは,物事をあれこれの範疇にわける方法を自力で提供するように設計できる.だが,その分類にかかわる数学的計算は複雑なので,ネットワークそのものをとりあげてどうやってその決定にいたったのかを理解しようとしても,一筋縄でいかない.そのため,意図せざる行動が予測しにくくなる.それに,もし過誤が生じても,そうなったワケを説明するのは困難かもしれない.たとえば,写真にうつってる物体をシステムが誤認識しても,その画像のどんな特徴のせいでエラーが起こったのかを知るのは(不可能ではないにしても)難しいかもしれない. この一節は,ウィル・ナイトから引用した.これを読んで,ぼくはコ
![タイラー・コーエン「自動運転車の挙動の理由は理解できる?」](https://cdn-ak-scissors.b.st-hatena.com/image/square/8d71ff5111e05619a10d29bb40d7aebaa75c8fbc/height=288;version=1;width=512/https%3A%2F%2Fs0.wp.com%2Fi%2Fblank.jpg)