【特集】「『予測』という名の欲望」全記事はこちらから読めます ■人間にはAIの考えが分からない? ――ディープラーニングは、大量の「教師データ」を読み込み、入力する変数と、出力する変数との間の関係を見つけ出します。その関係が分かれば、新たなデータを入力したとき、出力が予測できるというわけですが、なぜ人間はそのプロセスを理解できないのでしょうか? おもにふたつの要因があります。質的なものと、量的なものです。量的な問題は、すごくシンプルです。ディープラーニングの内部で動くパラメータ(母数:システムの内部で動く情報)が多すぎるので、その大量・複雑なデータを人間の直感につなげることが難しい、という話です。最近は、多いものでは1億個を超えるパラメータから出力を予測します。じゃあ、その1億個をざっと人間が見てなにか分かるのかといえば、分からない。これが基本的に起こることです。 ――大量の変数という意味
![人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+](https://cdn-ak-scissors.b.st-hatena.com/image/square/e3717fe2555ff8ebdf1fc74efff0323c18fb6980/height=288;version=1;width=512/https%3A%2F%2Fp.potaufeu.asahi.com%2Fc59b-p%2Fpicture%2F18836865%2F9cf1a8e13e20b93f25971338723fca5d.jpg)