タグ

2019年3月27日のブックマーク (6件)

  • SVM(RBFカーネル)のハイパーパラメータを変えると何が起こるの? - Qiita

    #概要 SVM(Support Vector Machine)は分類精度の高い機械学習の手法として知られています. SVMでより高い分類精度を得るには, ハイパーパラメータを訓練データから決定する必要があります. この記事では, RBFカーネル(Gaussian カーネル)を用いたSVMのハイパーパラメータを調整することで, 決定境界がどのように変化するのかを解説します. #決めるべきハイパーパラメータ RBFカーネルを用いたSVMでは, 以下の2つのハイパーパラメータを調整します. コストパラメータ: $C$ RBFカーネルのパラメータ: $\gamma$ コストパラメータについて SVMは特徴空間に写像されたデータ点集合を分離する超平面を決定する手法です. しかし, 特徴空間上の点集合がいつも分離可能とは限りません. 例えば, 以下の図では二種類の記号を完璧に分割するような直線を引くこ

    SVM(RBFカーネル)のハイパーパラメータを変えると何が起こるの? - Qiita
    Syncrea
    Syncrea 2019/03/27
    rbfのgammaについて
  • ハイパーパラメータ調整の概要  |  AI Platform Training  |  Google Cloud

    ハイパーパラメータのスケーリング ハイパーパラメータに対して実行するスケーリングのタイプを指定できます。スケーリングが推奨されるのは、型が DOUBLE や INTEGER の場合です。使用可能なスケーリングのタイプは次のとおりです。 UNIT_LINEAR_SCALE UNIT_LOG_SCALE UNIT_REVERSE_LOG_SCALE 検索アルゴリズム HyperparameterSpec オブジェクトで検索アルゴリズムを指定できます。アルゴリズムを指定しない場合、デフォルトの AI Platform Training アルゴリズムが使用されます。このアルゴリズムは、パラメータ空間のより効果的な検索により、最適なソリューションを導き出します。 使用可能な値は次のとおりです。 ALGORITHM_UNSPECIFIED: 検索アルゴリズムを指定しない場合と同じ動作になります。AI

    ハイパーパラメータ調整の概要  |  AI Platform Training  |  Google Cloud
    Syncrea
    Syncrea 2019/03/27
    ハイパーパラメータをどう調整するかの話。
  • サポートベクトルマシンの考え方 | Logics of Blue

    予測には過去のデータを使います。しかし、外れ値のような余計なデータまで使ってしまうと、予測精度が下がるかもしれません。 そこで「当に予測に必要となる一部のデータ」だけを使います。 「当に予測に必要となる一部のデータ」のことをサポートベクトルと呼び、サポートベクトルを用いた機械学習法がサポートベクトルマシン(Sapport vector machine:SVM)です。 ここでは、分類・回帰に分けたサポートベクトルマシンの概要と、R言語を用いた実装方法について説明します。 ソースコードはこちらに置いてあります。 スポンサードリンク 目次 サポートベクトル分類の考え方 マージン最大化とサポートベクトル ハードマージンとソフトマージン Rによる計算例:線形データ 非線形データへの対応とカーネル関数 Rによる計算例:非線形データ 補足:パラメタ推定の工夫とカーネルトリック サポートベクトル回帰の

    Syncrea
    Syncrea 2019/03/27
    SVMの割とわかりやすい解説。
  • 機械学習の正則化とは何ですか?

    回答 (3件中の1件目) 漠然とした質問で答えづらいですが。 基的には、機械学習での正則化(regularization)というのは、過学習を防いだり、未知パラメータ数が方程式よりも多い不良設定問題を解いたりするために、パラメータに制約を課す手法全般を指す言葉です。 機械学習というのは、データからモデルの未知パラメータを推定する手法なわけですが、正則化というのは、未知パラメータについて事前に持っている知識(あるいは、こうなったいるべきだという要請)を勘案することです。 したがって、正則化というのは、ベイズ統計での事前分布に概念上も定式化の上でもほぼ対応しています。つまり、正則化な...

    Syncrea
    Syncrea 2019/03/27
  • 損失関数について、ざっくりと考える - Qiita

    あまり深く考えたくない性格なもので、出来ればざっくりと感覚的に理解したいと常々思っています。 そこで、この損失関数についても、直観的に理解できるように、ちょっと調べてみます。 損失関数ってなによ? そもそも損失関数ってなんでしょう? いろいろ調べるとやたら難しい説明が出てきますが、ようは2つの値の差が小さくなるような関数のことのようです。 Deep Learningの識別等では、学習時に、いかに答えに近い値になるように重みパラメータを調整するのかがメインとなるのですが、この「答えに近い値になるように」の部分を担うのが、この「損失関数」というわけです。 「値=損失」ということで、この損失をいかに少なくするのかということで「損失関数」となります。 損失関数の種類 では、損失関数にはどういった種類のものがあるのでしょうか。 ざっと調べてみても、結構な種類があります。 ヒンジ損失関数 ε許容誤差関

    損失関数について、ざっくりと考える - Qiita
    Syncrea
    Syncrea 2019/03/27
    よく理解してないので。
  • 政府、AI人材年25万人育成へ 全大学生に初級教育 - 日本経済新聞

    政府が策定する「AI戦略」の全容が分かった。人工知能AI)を使いこなす人材を年間25万人育てる新目標を掲げる。文系や理系を問わず全大学生がAIの初級教育を受けるよう大学に要請し、社会人向けの専門課程も大学に設置する。ビッグデータやロボットなど先端技術の急速な発達で、AI人材の不足が深刻化している。日の競争力強化に向け、政府が旗振り役を担う。【関連記事】運営費交付金、AI教育重視の国立大に重点配分 政府

    政府、AI人材年25万人育成へ 全大学生に初級教育 - 日本経済新聞
    Syncrea
    Syncrea 2019/03/27
    AIっていうかDLだよね?線形代数とか統計学の基礎があれば、あとはどの言語使うかなので専門の学科教材なんかは必要ないです。”使いこなす”だけであれば、どのLibraryをどのように使うかが分かれば人材になれる。