タグ

2015年12月25日のブックマーク (5件)

  • The Latest Fashion, Trending on Google (Published 2015)

    Normcore? So last year. String bikinis? Most definitely over. Even interest in skinny jeans may be waning, if six billion fashion-related queries by Google users are any indication of this year’s most popular trends. Instead, consumers are Googling tulle skirts, midi skirts, palazzo pants and jogger pants, according to the company, which plans to start issuing fashion trend reports based on user s

    The Latest Fashion, Trending on Google (Published 2015)
  • 脱初心者を目指すなら知っておきたい便利なVimコマンド25選 (Vimmerレベル診断付き) - Qiita

    はじめに: Vimならではの便利機能をマスターしよう! かれこれ数年前、僕がVim(というか、たぶんVi)と初対面したときは、「なんて使いにくいエディタなんだ!!」と最悪の印象でした。 しかし、周りのプログラマやネット上のエンジニアたちはみんな「Vim便利!」「Vim最高!」と言います。 なのでその言葉を信じ、僕も最悪の印象だったVimともう一度正面から向き合うことにしました。 そして、月日が過ぎ・・・僕もいつしか「Vim便利!」「Vim最高!」と叫ぶようになってしまいました!! これって洗脳? いやいや、洗脳じゃありませんw Vimにはメモ帳の延長線上にあるエディタでは実現できないような数々の便利な機能があります。 覚えるまでにはちょっと苦労しますが、覚えてしまえばメモ帳系のエディタでは追いつけないようなスピードでテキストを編集することができます。 とはいえ、そもそも覚える以前に「そんな

    脱初心者を目指すなら知っておきたい便利なVimコマンド25選 (Vimmerレベル診断付き) - Qiita
  • 特徴の選択と抽出

    9 特徴の選択と抽出 この章では、特徴の選択と抽出のマイニング機能について説明します。Oracle Data Miningでは、監視あり形式の特徴選択と監視なし形式の特徴抽出をサポートしています。 最適な属性の検出 情報量が多すぎると、データ・マイニングの有効性が低下してしまうことがあります。モデルの作成やテストのために集められたデータ属性の列が、そのモデルにとって意味のある情報とならない場合もあれば、実際にモデルの質や精度を落としてしまう場合もあります。 一例として、ある集団内で特定の病気が発生する可能性を予測する目的で、その集団に関するデータを大量に集めたとします。この情報の一部(おそらくその大部分)は、その病気に対する罹患率についてほとんどあるいはまったく影響を与えないと予想されます。1世帯当たりの車の所有台数といった属性は、おそらく何の影響も及ぼしません。 無関係な属性は、データに

  • 数量の正規化:方法の違いは何を意味するか? - jnobuyukiのブログ

    大量のデータをまとめて、視覚的に表現すると、データが持つ特徴を直感的に理解できることがあります。今回は、データを視覚化する際に施される「正規化」について考えます。wikipediaの正規化の定義は以下のようになっています。 正規化(せいきか、英: normalization)とは、データ等々を一定のルール(規則)に基づいて変形し、利用しやすくすること。 この定義は非常に抽象度が高いですね。その理由についてwikipediaは以下のように述べています。 非常に多くの分野で使われている言葉で、分野によって意味も大きく異なるため、頻度が高い分野についてそれぞれ個別に説明する。 今回は、数量の正規化に話を限定します。しかし、数量の正規化に絞るだけでは、まだその意味がはっきりしません。正規化する方法が沢山あるからです。私の専門の心理学では、行動データとして得たものを多変量解析にかける前に正規化するこ

  • 正則化 - Wikipedia

    数学・統計学・計算機科学において、特に機械学習と逆問題において、正則化(せいそくか、英: regularization)とは、不良設定問題を解いたり過学習を防いだりするために、情報を追加する手法である。モデルの複雑さに罰則を科すために導入され、なめらかでないことに罰則をかけたり、パラメータのノルムの大きさに罰則をかけたりする。 正則化の理論的正当化はオッカムの剃刀にある。ベイジアンの観点では、多くの正則化の手法は、モデルのパラメータの事前情報にあたる。 統計および機械学習において、正則化はモデルのパラメータの学習に使われ、特に過学習を防ぎ、汎化能力を高めるために使われる。 機械学習において最も一般的なのは L1 正則化 (p=1) と L2 正則化 (p=2) である。損失関数 の代わりに、 を使用する。 はパラメータのベクトルで、 は L1 ノルム (p=1) や L2 ノルム (p=2