タグ

ブックマーク / qiita.com/kenta1984 (2)

  • 交差エントロピー誤差をわかりやすく説明してみる - Qiita

    ※コメントで説明の一部に誤りを指摘頂いたので記事を修正しました(2020/3/30) 教師あり機械学習では必須の損失関数。 教師あり機械学習の場合、学習するというのは損失関数の値を小さくする事とほぼ同義になります。 損失関数について詳しく知りたい方は、最適化から見たディープラーニングの考え方という論文をご覧下さい。 損失関数に限らず、損失関数の最適化手法や活性化関数などについてもわかりやすく説明されています。 そして、損失関数には幾つもの種類がありますが、交差エントロピー誤差は有名な損失関数の一つです。 記事では、交差エントロピー誤差をわかりやすく説明してみます。 なお、英語では交差エントロピー誤差のことをCross-entropy Lossと言います。Cross-entropy Errorと表記している記事もありますが、英語の文献ではCross-entropy Lossと呼んでいる記事

    交差エントロピー誤差をわかりやすく説明してみる - Qiita
  • 【Python】Word2Vecの使い方 - Qiita

    はじめに 既に様々な場所で取り上げられているWord2Vecですが、改めてPythonを使ったWord2Vecの使い方を紹介します。 使い方と言っても特に難しい事はなく、コーパス(テキストや発話を大規模に集めてデータベース化した言語資料)からモデルを作成し、作成したモデルを様々な事例に活用するだけです。 Word2Vecとは? 名前の通り、単語をベクトル化する手法のことです。そして、このベクトル化したものを単語の分散表現と呼びます。 2013年にGoogleが開発&公開したもので、その仕組みについては書籍やネットなどで数多く発表されています。 最近では、朝日新聞社が自社の保有記事をコーパスとしたモデルを公開する1など、自然言語処理の分野では欠かせない技術の一つになっています。 基的には、同じような意味や使われ方をする単語は同じような文脈の中に登場するという考えのもと、単語をベクトル化して

    【Python】Word2Vecの使い方 - Qiita
  • 1