2016年12月5日のブックマーク (4件)

  • 「ゼロから作るDeep Learning」を読み終わった - 午睡二時四十分

    「ゼロから作るDeep Learning」を読み終わった。 ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 作者: 斎藤康毅出版社/メーカー: オライリージャパン発売日: 2016/09/24メディア: 単行(ソフトカバー)この商品を含むブログ (5件) を見る Pros: 1ニューロンのパーセプトロンを作るところから始めて、3層NN、誤差逆伝搬法、CNNまで手作りしていく。 理論と実践のバランスが良く、該当分野の入門書としてとてもお勧めできると感じた。 中でも誤差逆伝搬法の説明が懇切丁寧で、他のNeural Networkを読んで 「で、全結合層以外の誤差逆伝搬はどうやって考えればいいんだ..」と悩んでいた自分にはぴったりだった。 あと、NNへ学習を導入する流れについても => 学習するっていうのはつまりどういうことか => 微分とは何か、

    「ゼロから作るDeep Learning」を読み終わった - 午睡二時四十分
    t_f_m
    t_f_m 2016/12/05
    "(※ちなみに、入門用のもう一つのお勧めはオンラインテキスト "Neural networks and deep learning" 途中まで日本語版はこちら。" / http://neuralnetworksanddeeplearning.com/ http://nnadl-ja.github.io/nnadl_site_ja/index.html
  • Chainerでフォントを識別してみる (2) - 午睡二時四十分

    前回、二つのフォントをいい感じに識別できていたので、識別対象フォントを12に増やしてみた。 今回識別対象にしたフォントたち Helvetica Bodoni Futura Optima Clarendon GillSans Caslon Garamond Avenir Times New Roman American Typewriter Trajan 訓練データとテストデータの構成 訓練データは[a-mA-M]の64x64 グレースケール画像。画像ごとに位置はランダム テストデータは[n-zN-Z]の64x64 グレースケール画像。同じく画像ごとに位置はランダム化してある 実験 試行1: 3層多層パーセプトロン(隠れ層ニューロン数100) 前回使ったのと々、隠れ層2層、出力層1層の多層パーセプトロン。 => 87%程度で識別率が頭打ちになった。2クラスへの識別だけであれば、同条件で97%

    Chainerでフォントを識別してみる (2) - 午睡二時四十分
    t_f_m
    t_f_m 2016/12/05
  • https://qiita.com/advent-calendar/2016/free_zankoku

    t_f_m
    t_f_m 2016/12/05
    あとで
  • 珍しいSHA1ハッシュを追い求めて - プログラムモグモグ

    「SHA1ハッシュってあるだろう?」 放課後、いつものように情報処理室に行くと、高山先輩が嬉しそうな顔でそう言った。 「ええ、SHA1、ありますね」 「SHA1って何桁か覚えているかい?」 「えっと…」 一年下の後輩、岡村が口を開いた。 「50桁くらいはありましたっけ…?」 先輩はパソコンに向かって何かを打ちはじめた。 現在、情報部の部員は三人しかいない。部長の高山先輩と、二年の自分と、後輩の岡村だ。いや、正確に言うと、先輩の学年にはもう少しいたのだが、もうほとんど部室に来ることはなくなってしまった。無理もない、この季節になると先輩たちは受験勉強で忙しくなる。 「例えば、こういうふうに… 適当なSHA1の長さを…」 echo -n | openssl sha1 | awk '{print length}' 部長だけは今も部活に来てこうやって色々なことを教えてくれている。人曰く、普通に勉強

    珍しいSHA1ハッシュを追い求めて - プログラムモグモグ
    t_f_m
    t_f_m 2016/12/05
    あとで