機械学習に関するttrrのブックマーク (7)

  • 人工知能するとプログラムは小さくなる|山本一成🚗TURING

    「Ponanzaってどれくらいの大きさのプログラム何ですか?」たまに聞かれる質問です。「私が一万行くらいです」と答えると、意外と小さいプログラムと思って、結構皆さんがっかり😞した顔をされたりするんですね。 確かにPonanzaよりも昔の時代の将棋プログラムはだいたい数万行を超えて居たようです。それが現代になるに従ってどんどん行数が減って来ています。なぜでしょうか? 実はPonanzaのソースコードのどこを探しても将棋の囲いや戦法あるいは手筋の情報は見つけられません。せいぜい王手は注意した方がいいよみたいな極めて基礎的な情報しか書いてません。それではどうしてPonanzaは将棋がで合理的なプレイができるのでしょうか?それは将棋の知識はすべてPonanza自身が機械学習によって習得しているからです。そしてその機械学習の結果はすべて数値データとして500MBくらいのバイナリファイルに保存されて

    人工知能するとプログラムは小さくなる|山本一成🚗TURING
    ttrr
    ttrr 2018/02/09
    天然知能のプログラムの大きさはどれくらいなんでしょうかね。ハードウェアに作りこまれているので評価が難しそうですが。
  • TensorFlowを遊び倒す! 4-1. Convolutional Neural Networks - Platinum Data Blog by BrainPad

    記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 ※TensorFlowとは2015年11月9日にオープンソース化されたGoogle機械学習ライブラリです。 ブログでは、実際のTensorFlowの使い方を連載方式でご紹介しています。 皆様こんにちはテクノロジー&ソフトウェア開発部の佐藤貴海です。 今回のブログでは「4-1. Convolutional Neural Networks」についてご紹介します。 https://www.tensorflow.org/versions/master/tutorials/deep_cnn/index.html 今回から、いよいよ応用に寄った話に入っていきます。 Convolutional Neural Networks(以下CNN)とは、以前簡単にご紹介した畳み込みニューラルネットワークのこ

    TensorFlowを遊び倒す! 4-1. Convolutional Neural Networks - Platinum Data Blog by BrainPad
  • 10秒で設定可能なlibsvmで機械学習を行う - Y's note

    Support Vector Machines (Information Science and Statistics) 作者: Ingo Steinwart,Andreas Christmann出版社/メーカー: Springer発売日: 2008/08/29メディア: ハードカバー クリック: 17回この商品を含むブログを見る libsvm LIBSVM -- A Library for Support Vector Machines R言語でSVM(Support Vector Machine)による分類学習 - Yuta.Kikuchiの日記 前回RでのSVMを簡単に紹介しましたが、今日はlibsvmを利用したirisの分類学習を行いたいと思います。libsvmは導入がめちゃくちゃ簡単なところが売りだと思います。zipをlibsvmサイトからdownloadして展開してgmakeで

    10秒で設定可能なlibsvmで機械学習を行う - Y's note
  • Theano で Deep Learning <3> : 畳み込みニューラルネットワーク - StatsFragments

    Python Theano を使って Deep Learning の理論とアルゴリズムを学ぶ会、第三回。今回で教師あり学習の部分はひと段落。 目次 DeepLearning 0.1 について、対応する記事のリンクを記載。 第一回 MNIST データをロジスティック回帰で判別する 英 第二回 多層パーセプトロン 英 第三回 畳み込みニューラルネットワーク (今回) 英 第四回 Denoising オートエンコーダ 英 第五回 多層 Denoising オートエンコーダ 英 第六回の準備1 networkx でマルコフ確率場 / 確率伝搬法を実装する - 第六回の準備2 ホップフィールドネットワーク - 第六回 制約付きボルツマンマシン 英 Deep Belief Networks 英 Hybrid Monte-Carlo Sampling 英 Recurrent Neural Network

    Theano で Deep Learning <3> : 畳み込みニューラルネットワーク - StatsFragments
  • Dropoutの実装と重みの正則化 - もちもちしている

    この記事はMachine Learning Advent Calendar 2013 3日目の記事です. はじめに ニューラルネットワークの汎化性能を向上させるDropoutは, Deep Learningを実装する上で必須の技術だと思います. 日はDropoutとその実装方法について説明させていただきます. Dropoutとは ニューラルネットは複雑なモデルであるため過学習に陥りやすいです. これを回避するためにはL2ノルムで値の増加を防いだり, L1ノルムでスパースにしたりするのが一般的です. しかし正則化でもニューラルネットのような複雑なモデルに適切に制約を加えるのは困難です. そこでDropoutの考え方です. Dropoutは各訓練データに対して中間素子をランダムに50%(または任意の確率で)無視しながら学習を進めます. 推定時は素子の出力を半分にします. なぜこれだけで汎化性

    Dropoutの実装と重みの正則化 - もちもちしている
  • Convolutional Neural Networks (LeNet) — DeepLearning 0.1 documentation

    Note This section assumes the reader has already read through Classifying MNIST digits using Logistic Regression and Multilayer Perceptron. Additionally, it uses the following new Theano functions and concepts: T.tanh, shared variables, basic arithmetic ops, T.grad, floatX, pool , conv2d, dimshuffle. If you intend to run the code on GPU also read GPU. To run this example on a GPU, you need a good

    Convolutional Neural Networks (LeNet) — DeepLearning 0.1 documentation
  • Hiroshi Nakagawa

    つぶやかないでお説教ばかりツイートするという最も邪道なTwitterユーザです。twitterの連続したツイートをトギャリャいいものを、わざわざFB用に編集しなおしたりする時代遅れな人です。 プライバシー k-匿名化 プライバシー保護 人工知能 差分プライバシー ai 匿名化 人工知能倫理 privacy 個人情報保護 仮名化 秘密計算 個人情報 パーソナルデータ ai倫理 accountability artificial intelligence シンギュラリティ 自意識 privacy protection private information retrieval 準同型公開鍵暗号 匿名加工情報 pseudonym k-anonymity differential privacy データマイニング サンプリング パーソナルaiエージェント aiエージェント ai ethics アカ

  • 1