タグ

ブックマーク / hironsan.hatenablog.com (2)

  • Object2vecの新機能を使って文の分散表現を計算する - Ahogrammer

    前回の記事では、日語文の分散表現を計算するためのデータセットを作成した。 hironsan.hatenablog.com 今回は、先日、SageMakerのObject2vecに追加された機能を使って文の分散表現を計算する。追加された機能には、ネガティブサンプリングの自動化、重み共有、学習の高速化が含まれている。いったん分散表現を計算できると、それを使って文をクラスタリングしたり、分類や回帰といった下流のタスクで使うことができる。 ここで、Object2vecのアーキテクチャについて簡単に説明しておこう。AWSの公式ブログによると、Object2vecのアーキテクチャは以下のようになっている。 参照: https://aws.amazon.com/jp/blogs/machine-learning/introduction-to-amazon-sagemaker-object2vec/

    Object2vecの新機能を使って文の分散表現を計算する - Ahogrammer
    reboot_in
    reboot_in 2022/03/13
    “特徴的な点として、データを作成する際にポジティブサンプルだけ用意すれば済む点を挙げられる。以前はユーザ側でネガティブサンプルを用意してObject2vecに与えなければならなかったのだが、先日追加された機能によ
  • Keras の fit と fit_generator の速度を比較する - Ahogrammer

    Kerasでモデルを学習させるときによく使われるのが、fitメソッドとfit_generatorメソッドだ。 各メソッドについて簡単に説明すると、fitは訓練用データを一括で与えると内部でbatch_size分に分割して学習してくれる。 それに対し、fit_generatorではbatch_size分のデータを生成するgeneratorを自分で作成して与える必要がある。 ミニバッチごとに入力の前処理をしたい場合なんかはfit_generatorを使うことになる。 記事では、これらfitメソッドとfit_generatorメソッドを使って同じモデルを学習させ、学習時間を比較してみる。 なぜ比較するのかというと、「ひょっとして学習時間に差があるのでは?」と気になったからだ。 検証してはっきりさせておくことで、fitとfit_generatorの使い分けに役立てられればいいと思う。 検証は以下

    Keras の fit と fit_generator の速度を比較する - Ahogrammer
    reboot_in
    reboot_in 2020/07/04
    “fitは訓練用データを一括で与えると内部でbatch_size分に分割して学習してくれる。 それに対し、fit_generatorではbatch_size分のデータを生成するgeneratorを自分で作成して与える必要がある”
  • 1