タグ

svmに関するmroriiのブックマーク (48)

  • SLOT88 SumoBet88: Situs Agen Judi Online Slot Gacor Online Terbaru 2023

    🎰Slot Gacor, ⚽️Sportsbook, ♠Live Casino, 🃏Poker Online, 🧮Togel Online, 🐠Tembak Ikan Sumobet88 merupakan salah satu pilihan situs judi Slot Online Indonesia resmi terpercaya dan bisa diandalkan. Kami juga dikenal sebagai salah satu pilihan situs Judi Online 24jam nonstop yang mampu memberikan layanan terbaik bagi seluruh membernya. Kehadiran situs ini tentu saja menjadi sebuah faktor terbaik ba

    SLOT88 SumoBet88: Situs Agen Judi Online Slot Gacor Online Terbaru 2023
    mrorii
    mrorii 2010/04/24
  • SVM-Light: Support Vector Machine

    SVMlight Support Vector Machine Author: Thorsten Joachims <thorsten@joachims.org> Cornell University Department of Computer Science Developed at: University of Dortmund, Informatik, AI-Unit Collaborative Research Center on 'Complexity Reduction in Multivariate Data' (SFB475) Version: 6.02 Date: 14.08.2008 Overview SVMlight is an implementation of Support Vector Machines (SVMs) in C. The main featu

    mrorii
    mrorii 2010/04/24
  • 線形サポートベクターマシン失敗 - きしだのHatena

    とりあえずの目標はサポートベクターマシンてことで、次のサイト参考に組んでみました。*1 http://www.neuro.sfc.keio.ac.jp/~masato/study/SVM/index.htm なんか、なぜかちゃんと角度的にはいい感じになってるけど、ぜんぜんマージン最大化していません。見てみたら、λは0以下にならないはずなのに、-4000とかになってるし。 で、よく考えたら、どうにか無理やり の条件にあてはめてやってたけどλ≧0っていう条件を考えていないし、といろいろ試行錯誤して、どうも単純な最急降下法でやるのがまずいんじゃないかなと思ったのです。 上記のサイトでは「それは考えてみてよ.」と軽く書いてあったけど、これって、研究分野になるじゃないの? 結局、そういうのをどうにかするために、SMO法とかSVMLightとかいう分割法があって、それを使わないといけないということまで

    mrorii
    mrorii 2010/04/23
  • はてなブログ | 無料ブログを作成しよう

    ハリイカの焼売と中華炒め ハリイカをよく、見かけるようになりましたよ。生け簀で、泳いでいたものを一杯購入しました 立派な大きな墨袋や肝は冷凍保存して 柔らかな身は季節のお豆、お野菜と合わせて中華の炒めものに。新鮮なにんにくの茎は刻み、香り高く欲そそられますね 下足はミンチにし…

    はてなブログ | 無料ブログを作成しよう
    mrorii
    mrorii 2010/04/23
  • SVMの学習用アルゴリズムSMOを実装してみる - きしだのHatena

    SVMは2次最適化問題になるので、それを勉強してみてはということだったのですが、SVMに特化したSMO(Sequential Minimal Optimisation)アルゴリズムがあるということなので、そちらをやってみました。 SVMの制約条件に というのがあって、yiは正例なら1、負例なら-1となる値なのですが、そうすると、ようするにこの条件は、正例のαの合計と負例のαの合計が等しくなるということを示してるわけです。 この条件をつかうと、ひとつαを操作したときには、ほかのαを操作して、正例と負例のバランスを取る必要があることがわかります。 で、このことを利用して、同時に2つのαを操作することにすると、解析的に一つ目のαが求められて、2つ目のαはそこから足し算引き算で求められてお徳かも、というのがSMOの考え方です。 問題は、いかに効率よく更新する2つのαを決めるかということになります。

  • Support Vector Machines

    Welcome to the website for the book Support Vector Machines. This is the first comprehensive introduction to Support Vector Machines (SVMs), a new generation learning system based on recent advances in statistical learning theory. SVMs deliver state-of-the-art performance in real-world applications such as text categorisation, hand-written character recognition, image classification, biosequences

  • Zinnia: 機械学習ベースのポータブルな手書き文字認識エンジン

    Zinnia: 機械学習ベースのポータブルなオンライン手書き文字認識エンジン [日語][英語] Zinniaは機械学習アルゴリズム SVM を用いたポータブルで汎用的な オンライン手書き文字認識エンジンです。Zinniaは組み込みの容易さと汎用性を高めるために、 文字のレンダリング機能は持っていません。Zinniaは文字のストローク情報を座標の連続として受け取り、 確からしい順にスコア付きでN文字の認識結果を返すだけに機能を限定しています。 また、認識エンジンは完全に機械学習ベースであるために、文字のみならずユーザの任意のマウス・ペンストロークに対して任意の文字列をマッピングするような認識エンジンを小コスト作成することができます。 主な特徴 機械学習アルゴリズムSVMによる高い認識精度 ポータブルでコンパクトな設計 -- POSIX/Windows (C++ STLのみに依存) リエント

  • perlでSGD版SVMを書いてみた - EchizenBlog-Zwei

    SVM(Support Vector Machine, サポートベクターマシン, サポートベクトルマシン)をperlで書いてみた。 実装が簡単という理由からSGDによるオンライン学習を行っている。カーネル行列(グラム行列)をメモリに持っておかないといけないので当の意味ではオンライン化されていないが、SVMを理解するためのサンプルとしてはSGDで実装するのは手頃ではないかと思う。 #!/usr/local/bin/perl # $Id$ use strict; use warnings; my $d = 3; # x ∈ R^3 my $n = 6; # number of training data my $t = 10; # iteration # label (warm color:1, cold color:-1) my @yy = (1, -1, -1, -1, 1, 1); #

    perlでSGD版SVMを書いてみた - EchizenBlog-Zwei
    mrorii
    mrorii 2010/04/20
    ほええええ、簡単に実装できるもんだな
  • SMO法でSVMの学習してみた - きちめも

    SMO法はPRMLに名前はあるけど詳細が無かったので、別の*1買ってきて読んで理解した気分になったのでコードを書いてみた。 コードはpythonで書いたのだが、アルゴリズム的に行列の計算が全く無かった。 実際に試した対象は学習データが200程度だったので、scipyとOpenOptで素直に2次計画問題を計算させた方が早かった気がしてもにょい。*2 データはPRMLのページからダウンロードしたものを使った。 今はRVMの節を読んでいる。まだ7章終わってない>ω<; #!/usr/bin/python # -*- coding: utf-8 -*- import sys import random from scipy import * from scipy.linalg import norm from scipy.io import read_array import matplotli

    SMO法でSVMの学習してみた - きちめも
  • OpenOpt使ってSVM書いた - きちめも

    追記(5/19):ガウスカーネル2乗してなかった。コード書き忘れ訂正--); ついでに画像も変更 SMO法使った前のエントリは、殆どpureにpythonでコード書いてたせいか、結構時間がかかっててイライラ。ということでOpenOptの二次計画のソルバー使って手抜きに疎な解を求めてみたの巻。 結果はテストデータ200個の↓の図だと200倍の差が…。scipy+OpenOptぱない コーディングもあっと言う間だし…その…何というか…一昨日の努力は…一体…。まぁデータ200個と少なきゃメモリにのるしね…。 以下適当に書いたpythonのコード。相変わらずグラフの描画とかのコードの筋が悪い気がしてもにょいぜ。 #!/usr/bin/python # -*- coding: utf-8 -*- from scipy import * from scipy.linalg import norm fr

    OpenOpt使ってSVM書いた - きちめも
  • SVMにおける損失と正則化 - 射撃しつつ前転 改

    前に書いたSVMの記事で、「L1とかL2というのは間違えたときのペナルティをどう定義するかを意味しており」と書いていたが、L1とかL2って正則化項の話なんじゃないの、と疑問に思った。1ヶ月ほど時間をおいてのセルフツッコミである。確認しようとしてカーネル多変量解析を読むと、やはり正則化項についてはL1とL2の両方の説明が書いてあるが、損失に関しては普通のHinge Loss(=L1 Loss)しか書いてない。 と言う訳で、ああ、間違えちゃったなぁ、と暗澹たる気持ちで"A dual coordinate descent method for large-scale linear SVM"を読み直してみたところ、やっぱりL1-SVMというのは損失が普通のHinge Lossで、L2-SVMというのはHinge Lossの2乗を損失とすると書いてあった。両方とも正則化項についてはL2正則化を使って

    SVMにおける損失と正則化 - 射撃しつつ前転 改
  • SVMソフトウェアの比較 - tsubosakaの日記

    オープンソースのSVMソフトウェアの基デフォルトの設定で比較などをしてみた。 利用データはLIBSVM Data: Classification, Regression, and Multi-labelのa9aとnews20.binaryを利用した。 データセットの詳細は以下のようになっている データセット名 訓練データ数 テストデータ数 データの次元 a9a 32561 16281 123 news20.binary 15000 4996 1355199 なお、news20.binaryでの訓練データとテストデータの作成については id:n_shuyoさんの記事を参考にした。 比較に用いたソフトウェアは以下の5つ LIBSVM リンク SVM-Light リンク TinySVM リンク SVM-perf リンク LIBLINEAR リンク 測定結果は以下のようになった。パラメータの設定

    SVMソフトウェアの比較 - tsubosakaの日記
  • データマイニング勉強会3

    SVM実践ガイド (A Practical Guide to Support Vector Classification)sleepy_yoshi

    データマイニング勉強会3
  • SVMの二次元プロット - atobirabon

    スーパーpre記法によるソースコードの色分けがR言語に対応していると聞いたので、早速ためしてみる。 ちなみに以下のRスクリプトは、Support Vector Machineによる2次元データ判別の様子をScholkopfのの表紙(ISBN:0262194759)みたいにカッコよくプロットしたいという理由から、かつて作成していたもの。右の画像はExample2の実行結果。大きい画像はここに。 Support Vectorは二重丸、クラス間境界は実線で、境界を基準としたdecision valueによって色づけがしてある。実行にはパッケージe1071が必要。学生が発表のときPowerPointに貼り付ける程度の画像作成用途に最適かと思われる。 ## Usage # ---- args ---- # x: 二次元の訓練データ(列が変数の行列) # label : 訓練データの行に対応するラベ

    SVMの二次元プロット - atobirabon
    mrorii
    mrorii 2010/04/17
  • サポートベクターマシン入門

    次へ: はじめに サポートベクターマシン入門 栗田 多喜夫 Takio Kurita 産業技術総合研究所 脳神経情報研究部門 Neurosceince Research Institute, National Institute of Advanced Indastrial Science and Technology takio-kurita@aist.go.jp visitors since Jul. 19, 2002. 概要: 最近、サポートベクターマシン(Support Vector Machine, SVM)と呼ばれるパター ン認識手法が注目されており、ちょっとしたブームになっている。カーネルトリッ クにより非線形の識別関数を構成できるように拡張したサポートベクターマシン は、現在知られている多くの手法の中でも最も認識性能の優れた学習モデルの一 つである。サポートベクターマ

  • R でサポートベクターマシン - RjpWiki

    RjpWiki はオープンソースの統計解析システム R に関する情報交換を目的とした Wiki ですパッケージ † kernlabパッケージのksvm 関数 e1071 パッケージ predict.svm サポートベクターマシンのPredict メソッド svm サポートベクターマシン(Support Vector Machine) klaR ・・・ SVMlight 用 R インターフェース svmpath svcR パッケージ クラスタリングにサポートベクターマシンを利用 ↑

    mrorii
    mrorii 2010/04/08
  • SVM-Tutorial using R (e1071-package)

    by Hannes Planatscher and Janko Dietzsch. R is a nice tool but like any other programming language, R has its pitfalls. This tutorial main goal is playing around with support vector machines. So do not hesitate to ask, whenever you have questions about R, or you get stuck working trough the different tasks. 0) Installation/Import of the package R provides a easy-to-use package managment. See bel

    mrorii
    mrorii 2010/04/07
  • 糞ネット弁慶

    糞ネット弁慶 日声優統計学会/声優統計についてはこちら

    mrorii
    mrorii 2010/04/06
  • やる夫で学ぶSVM with R

    [DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...Yusuke Iwasawa

    やる夫で学ぶSVM with R
  • Comparison of software for SVMs

    See also kernel-machines.org. List originally created by Vlad Magdin (UBC), 25 April 2005. Updated by Kevin Murphy, 15 December 2005.

    mrorii
    mrorii 2010/04/06