dlshogiは昨年はほぼ定跡の自動生成しか行っておらず、モデルの改善は後回しにしていた。 定跡の自動生成については、手法がほぼ確立できたので、最近はモデルの改善を行っている。 学習データの質と量を増やして、モデルサイズを大きくすれば強くなっていくという考えで、モデル構造についてはこれまであまり注力していなかった。 しかし、直近の大会でRyfamateがモデル構造の工夫で強くすることに成功しており、モデル構造の工夫も重要と認識を改めた。 Ryfamateの方法 Ryfamateが採用しているモデル構造の工夫は、WCSC33のアピール文書によると、 1. 3x3のカーネルの代わりに、9x1と1x9のカーネルサイズの畳み込みを組み合わせる 2. 畳み込みのブロックの代わりに、セルフアテンション(Transformer)層を使う の2点である。 前者については、Xで詳細が公開されている。 【開発
![TadaoYamaokaの開発日記](https://cdn-ak-scissors.b.st-hatena.com/image/square/06a15c64ba0ceec233d86d71001ebb29a9dcbf5d/height=288;version=1;width=512/https%3A%2F%2Fcdn.blog.st-hatena.com%2Fimages%2Ftheme%2Fog-image-1500.png)