米グーグルが2019年5月に発表した「EfficientNet」は、驚くべきニューラルネットである。ImageNetを対象にした画像分類タスクでトップ5精度が97.1%と現在の最高性能(SOTA:state of the art)に迫りながら、パラメータ数は1/8.4、推論速度は6.1倍になったという1)。 これだけの能力を実現できた鍵の1つが、ディープニューラルネット(DNN)の構造を自動設計する技術である。最先端のDNNの構造(アーキテクチャ)は、既に機械が考えているのだ。 ただし、これまでこのような自動設計技術を利用できるのは、グーグルのように膨大な計算能力を持つ企業に限られると見なされてきた。優れたDNNの構造を多くの候補の中から探し出すためには、多数のGPUを使って何日も計算する必要があったからである。 この常識を覆す技術を、筑波大学と横浜国立大学が2019年6月開催の国際会議「