タグ

svmに関するyassのブックマーク (19)

  • カメリオで使われている機械学習 | カメリオ開発者ブログ

    はじめまして。白ヤギコーポレーションでエンジニアをしている谷田です。 カメリオでは、テーマに合ったニュース記事を提供するために、機械学習を応用した新しいアプローチを最近こっそり導入しました。この記事では、カメリオがどのようにニュース記事がテーマに合っていると判断しているのか、そのアルゴリズムの概要を解説してみたいと思います。 カメリオでは新しく入ってきたニュース記事を、何万もあるテーマの中から良く当てはまるものに自動的に振り分けています。これまでカメリオでは、記事があるテーマに振り分けられるためのさまざまな条件を半自動的に導出して、テーマと記事とのマッチングを行っていました。しかしこの従来の方法では、テーマ名の単語が記事中にたくさん出てきたりした場合に、実際にはあまりテーマに関係が無かったり、あるいはユーザの興味を引かないような記事が混ざってしまうことがありました。 新しく導入した機械学習

    カメリオで使われている機械学習 | カメリオ開発者ブログ
    yass
    yass 2016/07/16
    " 抽出された各単語はWord2Vecという単語の意味を表現する手法によってベクトルに変換します。変換された各単語ベクトルは全て足し合わされ、その結果得られたベクトルを記事のベクトルとします "
  • DMM.com - DMMのビッグデータ分析のご紹介 ~Sparkによるリアルタイムレコメンド~

    生tweet 解析結果 ラオウとトキも6個消しで3.75倍って考えると 悪くない ラオウ,トキ,消し,くない やってみて出来た事・ダメだった事 2 手作業で教師データ作成 => 文脈を全然考慮してくれない ⇒それでもゴミが多少乗ってしまう ⇒教師データの作成方法 Spark ハマりどころ 効率が悪い上、途中で心が折れそうだった。 Map#filterKeys and Map#mapValues not serializable Spark ハマりどころ Output Operations on DStreams DStreamのOutput

    DMM.com - DMMのビッグデータ分析のご紹介 ~Sparkによるリアルタイムレコメンド~
  • dfltweb1.onamae.com – このドメインはお名前.comで取得されています。

    このドメインは お名前.com から取得されました。 お名前.com は GMOインターネットグループ(株) が運営する国内シェアNo.1のドメイン登録サービスです。 ※表示価格は、全て税込です。 ※サービス品質維持のため、一時的に対象となる料金へ一定割合の「サービス維持調整費」を加算させていただきます。 ※1 「国内シェア」は、ICANN(インターネットのドメイン名などの資源を管理する非営利団体)の公表数値をもとに集計。gTLDが集計の対象。 日のドメイン登録業者(レジストラ)(「ICANNがレジストラとして認定した企業」一覧(InterNIC提供)内に「Japan」の記載があるもの)を対象。 レジストラ「GMO Internet Group, Inc. d/b/a Onamae.com」のシェア値を集計。 2023年5月時点の調査。

    dfltweb1.onamae.com – このドメインはお名前.comで取得されています。
  • Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築

    [DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP

    Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
  • 劣勾配法によるSVMの学習 - 油を売って怒りを買う.blog

    R, SVM, 読んだ劣勾配法によるSVMの学習と構造化SVMの解説が読みたかったので「日本語入力を支える技術」昨日買って来ました.日本語入力を支える技術 ?変わり続けるコンピュータと言葉の世界 (WEB+DB PRESS plus)作者: 徳永拓之出版社/メーカー: 技術評論社発売日: 2012/02/08メディア: 単行(ソフトカバー)購入: 12人 クリック: 303回この商品を含むブログ (24件) を見る 特に気になっていたのは劣勾配法で学習する場合にSMOなどと比べてどのようなメリットが存在するのかということ. 実際に組んでみて気付いたことを簡単に. メリット実装が楽(とか言いつつわからないところもあったので色々怪しいですが...)オンライン学習可能L2ノルム以外が採用できる(凸計画ならば何でも良く, 2次計画である必要がないため) よくわからなかったことパラメータの調整が

    yass
    yass 2013/04/29
  • 不均衡データのクラス分類

    「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京Koichi Hamada

    不均衡データのクラス分類
  • 統計的機械学習入門 | 中川研究室

    導入pdf 情報の変換過程のモデル化 ベイズ統計の意義 識別モデルと生成モデル 最尤推定、MAP推定 データの性質 情報理論の諸概念 (KL-divergenceなど) 距離あるいは類似度 数学のおさらいpdf 行列の微分 線形代数学の役立つ公式 多次元正規分布 条件付き正規分布 Bayes推論pdf Bayseによる確率分布推定の考え方 多項分布、ディリクレ分布 事前分布としてのディリクレ分布の意味<\li> 正規分布と事後分布 指数型分布族 自然共役事前分布の最尤推定 線形回帰および識別pdf 線形回帰のモデル 正則化項の導入 L2正則化 L1正則化 正則化項のBayes的解釈 線形識別 2乗誤差最小化の線形識別の問題点 生成モデルを利用した識別 学習データと予測性能pdf 過学習 損失関数と Bias,Variance, Noise K-Nearest Neighbor法への応用 b

  • データマイニングで使われるトップ10アルゴリズム - データサイエンティスト上がりのDX参謀・起業家

    2006年のデータマイニング学会、IEEE ICDMで選ばれた「データマイニングで使われるトップ10アルゴリズム」に沿って機械学習の手法を紹介します(この論文は@doryokujin君のポストで知りました、ありがとうございます!)。 必ずしも論文の内容には沿っておらず個人的な私見も入っていますので、詳細は原論文をご確認下さい。また、データマイニングの全体観をサーベイしたスライド資料がありますので、こちらも併せてご覧下さい。 データマイニングの基礎 View more presentations from Issei Kurahashi 1. C4.5 C4.5はCLSやID3といったアルゴリズムを改良してできたもので、決定木を使って分類器を作ります。決定木といえばCARTが良く使われますが、CARTとの違いは以下のとおりです。 CARTは2分岐しかできないがC4.5は3分岐以上もできる C

    データマイニングで使われるトップ10アルゴリズム - データサイエンティスト上がりのDX参謀・起業家
  • データマイニング2010 - データベース高度利用者養成

    レポート3について † ナイーブベイズでUSPSデータの予測をする問題は,現状のライブラリでは動かないことが判明しましたので,回答しなくて結構です. ↑ レポート4について † SVMのレポートの所,デフォルトでは回帰分類(regression)を行って数値予測をしてしまいます. 正しくクラス分類を行うために,モデルの作成の所は,以下の様に typeを追加してください. svm(training_data,training_class,type="C-classification", mode="〜") ↑

  • ソフトマージンSVM - 人工知能に関する断創録

    前回(2010/5/2)のハードマージンSVMでは、データに重なりがある場合、下のようにちゃんと分類境界を求められませんでした。今回は、重なりのあるクラス分布に対応できるように拡張してみます。このようなSVMはハードマージンSVMに対してソフトマージンSVMと呼ばれます。別名としてC-SVMとも呼ばれるようです。 PRMLの7.1.1にあるように、データの誤分類を許すようにSVMを修正します。ハードマージンSVMでは、データ点がマージン内(-1 < y < 1)に絶対に入らないことを前提にしていましたが、ソフトマージンSVMでは「入ってしまったものは仕方ない、だがペナルティを与える!」と少し条件を緩めます。 まず、スラック変数ζ(ゼータ)をデータごとに導入します。スラック変数は、データが正しく分類されかつマージン境界上または外側にある場合は0、正しく分類されているがマージン内に侵入してしま

    ソフトマージンSVM - 人工知能に関する断創録
  • Survey1

    Survey1 SVMを用いた固有表現抽出に関する論文のサーベイ 1.Support Vector Machineを用いた日語固有表現抽出 2.Support Vector Machineの多値分類問題への適用法について 3.SVMに基づく固有表現抽出の高速化 4.日語固有表現抽出における文節情報の利用 5.Stackingの効率的な学習方法と日語固有表現抽出での評価 6.非頻出語に対して頑健な日語固有表現の抽出 7.大域的情報を用いた日語固有表現認識 SVMを利用した日語固有表現抽出に関する論文が中心です. 固有表現タグを入力文の解析単位毎に正確に付与することが目的です. チャンカーは基的にYamCha 1.Support Vector Machineを用いた日語固有表現抽出 山田寛康 工藤拓 松裕治 奈良先端科学技術大学院大学情報科学研究科 概要

  • サポートベクターマシン (SVM)

    サポートベクターマシンについて,情報源に関するメモを纏めておきます。 ▼ 参考書 Marahon Match用に次の参考書籍を購入しました。 サポートベクターマシン入門 理論から実践(インプリ)まで一通り書かれていて良いだと思います。機械学習の基礎となるところから書かれていますので,機械学習の入門書としても良いように思います。 また,各章の最後に「さらなる文献と話題」の節が設けられ,参考文献の紹介が充実しています。 ▼ Web公開の資料 サポートベクターマシンは旬な技術なようで,数多くの資料が公開されています。(特に大学の研究室での公開資料が多いですね) 今回は,以下の資料を参考にさせて頂きました。 痛快!サポートベクトルマシン (CiNii)SVMの2次計画問題に関する解法の考察 (東京理科大学)Support Vector Machine を用いたカット点検出とそのシステムの構築 (

    サポートベクターマシン (SVM)
  • SVMソフトウェアの比較 - tsubosakaの日記

    オープンソースのSVMソフトウェアの基デフォルトの設定で比較などをしてみた。 利用データはLIBSVM Data: Classification, Regression, and Multi-labelのa9aとnews20.binaryを利用した。 データセットの詳細は以下のようになっている データセット名 訓練データ数 テストデータ数 データの次元 a9a 32561 16281 123 news20.binary 15000 4996 1355199 なお、news20.binaryでの訓練データとテストデータの作成については id:n_shuyoさんの記事を参考にした。 比較に用いたソフトウェアは以下の5つ LIBSVM リンク SVM-Light リンク TinySVM リンク SVM-perf リンク LIBLINEAR リンク 測定結果は以下のようになった。パラメータの設定

    SVMソフトウェアの比較 - tsubosakaの日記
  • 最大マージン kNN と SVM の関係: kNN も最近はがんばっています - 武蔵野日記

    先日書いた機械学習における距離学習の続き。 kNN (k-nearest neighbour: k 近傍法)は Wikipedia のエントリにも書いてある通り、教師あり学習の一つで、あるインスタンスのラベルを周辺 k 個のラベルから推定する手法。memory-based learning と呼ばれることもある。単純に多数決を取る場合もあれば(同点を解決する必要があるが)、近いインスタンスの重みを大きくする場合もあるのだが、いずれにせよかなり実装は単純なので、他の機械学習との比較(ベースライン)として使われることも多い。 簡単なアルゴリズムではあるが、1-NN の場合このアルゴリズムの誤り率はベイズ誤り率(達成可能な最小誤り率)の2倍以下となることが示されたり、理論的にもそれなりにクリアになってきているのではないかと思う。また、多クラス分類がちょっと一手間な SVM (pairwise に

  • しかしSVMも最近は速いらしい - 射撃しつつ前転 改

    Complement Naive BayesがSVMより速いよーと主張していたので、SVMもなんか最近は速くなってるらしいよ、という事を紹介してみたい。近年はSVMなどの学習を高速に行うという提案が行われており、実装が公開されているものもある。その中の一つにliblinearという機械学習ライブラリがある。ライブラリ名から推測できる通り、liblinearではカーネルを使うことが出来ない。しかし、その分速度が速く、大規模データに適用できるという利点がある。 liblinearを作っているのはlibsvmと同じ研究グループで、Chih-Jen Linがプロジェクトリーダーであるようだ。libsvmはかなり有名なライブラリで、liblinearにはそういった意味で安心感がある。(liblinearの方は公開されてしばらくは割とバグがあったらしいけど。) liblinearにはL1-SVM, L

    しかしSVMも最近は速いらしい - 射撃しつつ前転 改
  • やる夫で学ぶSVM with R

    [DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...

    やる夫で学ぶSVM with R
  • [機械学習]サポートベクターマシンの本 - 2008-07-15 - きしだのはてな

    うちにあるで、サポートベクターマシン(SVM)について書いてあるをあげてみます。 まずは、これ。機械学習ってなんなの?という人におすすめ。パーセプトロンからSVM、ニューラルネットワークときて、そうやってできた学習機械の評価方法についても書いてあります。 フリーソフトでつくる音声認識システム パターン認識・機械学習の初歩から対話システムまで 作者: 荒木雅弘出版社/メーカー: 森北出版発売日: 2007/10/01メディア: 単行(ソフトカバー)購入: 45人 クリック: 519回この商品を含むブログ (39件) を見る SVM・カーネルに関しては記述が軽く、これも機械学習の入門書。けど、学習機械を組み合わせるブースティングなどの話が書いてある。 パターン認識と学習の統計学―新しい概念と手法 (統計科学のフロンティア 6) 作者: 甘利俊一,麻生英樹,津田宏治,村田昇出版社/メーカー

  • LIBSVMの使いかたまとめ - k.kinukawaの日記

    LIBSVMとは LIBSVMはChih-Chung Chang とChih-Jen Lin によって作成された、サポートベクタマシンライブラリである。 現在はバージョン2.85がリリースされている。 LIBSVM は、サポートベクタ分類器(C-SVC、nu-SVC)、回帰分析(epsilon-SVR、nu-SVR)、分布評価(1クラスSVM)のための統合ソフトである。 マルチクラス分類もサポートしている。 様々なインターフェースが用意されているため、ライブラリとユーザープログラムを簡単に統合することが可能である。 以下のような機能、特徴を含んでいる。 異なったSVM の計算式が用意されている. 効率的なマルチクラス分類ができる. モデル選択のためのクロスバリデーション*1. 可能性予測. 偏ったデータのための、重みつきSVM. C++Java のソースコード. SVM 分類と回帰分析

  • http://www.bi.a.u-tokyo.ac.jp/~tak/index.html

  • 1