タグ

2010年4月21日のブックマーク (10件)

  • libevent: evhttp.h File Reference

    evhttp_cmd_type { EVHTTP_REQ_GET, EVHTTP_REQ_POST, EVHTTP_REQ_HEAD }

  • ニューラルネットワーク入門 〜目次〜

    ニューラルネットワーク入門 Copyright(c)1996 Akira Iwata & Toshiyuki Matubara (Iwata Laboratory Nagoya Institute of Technolgy) 0 はじめに 学習の進め方 1 神経細胞とニューラルネットワーク 神経細胞 ニューロンモデル ニューロンモデルの数式化 ネットワークモデル まとめ 2 階層型ネットワーク 2.1 パーセプトロン パーセプトロン パーセプトロンの動作と学習 パーセプトロン学習のシミュレーション パーセプトロンの限界 まとめ 2.2 バックプロパゲーション学習 最急降下法 前向き演算 後向き演算1(出力層から中間層) 後向き演算2(中間層から入力層) BPのシミュレーション BPシミュレータ まとめ 2.3 その他の階層型ネットワーク ネオ

    overlast
    overlast 2010/04/21
  • 確率的勾配降下法による行列分解を試してみた - のんびり読書日記

    前々回のNMF(Non-negative Matrix Factorization)に続いて行列分解ネタです。言語処理学会全国大会のチュートリアル「推薦システム -機械学習の視点から-」で紹介されていた、確率的勾配降下法による行列分解を試してみました。チュートリアルの資料は公開されていないようでしたので、元論文の方のリンクを張っておきます。実際には同じ著者の別の論文を引用されてましたが、僕には下の論文の方が分かりやすかったのでこっちで。 MATRIX FACTORIZATION TECHNIQUES FOR RECOMMENDER SYSTEMS, Yehuda Koren, Rovert Bell, Chris Volinsky, IEEE Computer, Volume 42, Issue 8, p.30-37, 2009 作成したコードは以下に置いてあります。行列演算にEigenを

    確率的勾配降下法による行列分解を試してみた - のんびり読書日記
  • SVMのおまけ(多項式カーネル) - EchizenBlog-Zwei

    昨日書いたSVMのカーネルは線形カーネル(というかただの内積)だったので、多項式カーネルにパワーアップ!させてみた。 参考: perlでSGD版SVMを書いてみた - EchizenBlog-Zwei といってもreturnをちょっといじっただけ。SVMは訓練データの影響がカーネル内で閉じているので、カーネルを色々置き換えるだけで様々な学習ができる。昨日の色分類の例ではRGB値の3次元で線形分離できてしまったので線形カーネルで十分だったのだが、折角なので多項式カーネルも用意してみた次第。さしあたり面白い適用例が見つからなかったのでカーネルのコードだけ置いておく。 sub kernel { my $x1 = shift; my $x2 = shift; my $p = shift; my $c = shift; my $k = 0; for (my $i = 0; $i < $d; $i++

    SVMのおまけ(多項式カーネル) - EchizenBlog-Zwei
  • perlでSGD版SVMを書いてみた - EchizenBlog-Zwei

    SVM(Support Vector Machine, サポートベクターマシン, サポートベクトルマシン)をperlで書いてみた。 実装が簡単という理由からSGDによるオンライン学習を行っている。カーネル行列(グラム行列)をメモリに持っておかないといけないので当の意味ではオンライン化されていないが、SVMを理解するためのサンプルとしてはSGDで実装するのは手頃ではないかと思う。 #!/usr/local/bin/perl # $Id$ use strict; use warnings; my $d = 3; # x ∈ R^3 my $n = 6; # number of training data my $t = 10; # iteration # label (warm color:1, cold color:-1) my @yy = (1, -1, -1, -1, 1, 1); #

    perlでSGD版SVMを書いてみた - EchizenBlog-Zwei
  • はてなグループの終了日を2020年1月31日(金)に決定しました - はてなの告知

    はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28

    はてなグループの終了日を2020年1月31日(金)に決定しました - はてなの告知
  • まるで魔法のようなストレージエンジン??VP for MySQLによる驚愕のテーブル操作テクニック。

    先日、SPIDERストレージエンジンについて2度に渡りブログで紹介した(その1:Not Only NoSQL!! 驚異的なまでにWRITE性能をスケールさせるSPIDERストレージエンジン、その2:快適スケールアウト生活への第一歩。SPIDERストレージエンジンを使ってみよう!)が、SPIDERの作者である斯波氏は、実はもう一つ驚くべきストレージエンジンを開発している。その名も、VPストレージエンジンだ。ちょっと地味な名前だが、VPとは、Vertical Partitioning(垂直パーティショニング)の略で、複数のテーブルの上にVPストレージエンジンを被せて、垂直パーティショニング(カラムごとにデータを格納する領域を分ける)を実現するというものだ。他のテーブルの上に被せるアーキテクチャをとっているという点では、VPとSPIDERの発想は同じである。以下は、VPストレージエンジンの動作

    まるで魔法のようなストレージエンジン??VP for MySQLによる驚愕のテーブル操作テクニック。
  • PRML 復習レーンが始まるよ、だって。 - 木曜不足

    この前の「パターン認識と機械学習(PRML)」読書会の後の懇親会で、「いや、機械学習は PRML が初めてで、読み始める前はガウス分布も共役事前分布も何それおいしいの? だったよ〜」と話して驚かれたことに驚いたのだが、でも当にその通りなのだ。 PRML 読書会初参加時のブログには、まだ右も左もわかっていないことを匂わせる初々しいことが書いてあり、妙にほほえましい(苦笑 PRML 読書会に参加し始めて結構経ったように感じていたけど、初参加は昨年の6月14日(第3回)なので、まだ10ヶ月しか経ってなかったのかー。 そんなスタートだったけど、SIG-DMSM #12 に ちょこんと座って、何を話しているのかならだいたいわかるくらいになってきた。 これはもうひとえに PRML と読書会のおかげ(大感謝)。 もちろん、ただ漫然と読書会の席を温めていただけではなく。 予習はもちろんきっちりやって行く

    PRML 復習レーンが始まるよ、だって。 - 木曜不足
  • Lecture "Frequent Pattern Mining"

    Frequent Pattern Mining comprises: Frequent Item Set Mining Frequent Sequence Mining Frequent Tree Mining Frequent Graph Mining More information: Lecture Bibliography Software

  • nanapiの初期バージョンに検索窓がなかった理由 : けんすう日記

    はじめに 【仕事における80:20の法則】個人・企業のパフォーマンスを最大限に高める方法 | [b] bizMode|世界のデジタルトレンドを読む というブログの中で nanapiというレシピサイトがありますが、c/o時は全然機能がなく、レシピを探せませんでした。果たして、カットオーバー時点において、レシピ検索機能は備え付けておく必要があったのでしょうか?また、個人ページにも全く機能性はありませんでしたが、今はどうでしょう?十分パワーアップしています。 そこに、多くの問題が発生したでしょうか?していません。 少しの問題は発生していましたが、プロダクト価値を脅かすものではありません。 徹底的に80%にこだわり、重要なポイントは、十分に抑えられていたと思います。 こんな記事で紹介してもらったので、ちょっと書いてみます。記事内では、最初は検索結果に対しての工数をさかずにあとで回した、というニュア