2017年1月6日のブックマーク (2件)

  • 2016年の深層学習を用いた画像認識モデル - Qiita

    実装 検証が終わっていないモデルの使用は気をつけてください cifar10の数値感覚 現時点で97%以上ではSoTAになると思います。僕が知っている限り、最高精度は96.69%です。そろそろcifar100か別のデータセットを評価の軸にするべきかもしれません。 最近の傾向 今年はResnetファミリーの年だったと思います。特徴的な点として、深さ=精度が終わった点です。googlenetなどは昔から主張していましたが、ある程度深いと、深さよりも幅を広くしたほうが精度が上がるということが、様々な論文の結果で今年は示されました。3月くらいから、Resnetの幅を広くしたほうが良いという結果は副次的にぞろぞろ出ていて、5月23日に出たWide Residual Netowrksで決定的になったような形だと思います。幅が大事といったことが、今年はっきりした点であるように思います。 論文を俯瞰してみる

    2016年の深層学習を用いた画像認識モデル - Qiita
    theflyingcat28
    theflyingcat28 2017/01/06
    “ 深くするのでなく、Resブロックの幅を増やしたら、精度が上がるよという論文です。全体のネットワークは以下の図のようになります。”
  • 2016年アニメ最も狂った回ランキング ベスト15 - 根室記念館

    去年このような記事を書きました。 2016年もたくさんのアニメを観たので、折角ですし今年も勝手に15作品選ばせて頂きました。要は好きなアニメの話を書きたいだけですね。 今回の記事での注意事項として、 ・第一に「僕が視聴できた範囲の2016年アニメ」です。残念ながら僕は昨年放送された全てのアニメを視聴はできていません。フォロワーには実際に毎年全てのアニメを視聴されている方が居るのでこれは僕の甘えです。その辺りは許して下さい。ツイッターのリプライ等で怒ってきたりしないで下さい。 ・今回の主旨は「展開が突飛で意外性の強い回」なので、「純粋に話として面白かった回」とは全く違います。その辺の真面目な話は真面目な方がやってくれるので任せます。僕にそのような実力はありません。 ・ランクインは「一作品につき一話」とさせて貰います。できるだけ多くのアニメを紹介した方が愉しいという単純な理由からです。もし無制

    2016年アニメ最も狂った回ランキング ベスト15 - 根室記念館