エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
実装方法から読み解くファインチューニングと転移学習の違いとは - DATAFLUCT Tech Blog
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
実装方法から読み解くファインチューニングと転移学習の違いとは - DATAFLUCT Tech Blog
ファインチューニングとは 転移学習との違い 実装方法の違い 実装時の2つの注意点 1. 学習済みモデルの... ファインチューニングとは 転移学習との違い 実装方法の違い 実装時の2つの注意点 1. 学習済みモデルの全層を更新しない 2.学習率を小さな値にする ファインチューニングの実装 MobileNet V2を使ったファインチューニング 学習可能な層の比較 学習率の比較 まとめ 前回は「転移学習」について紹介し、転移学習を使えば少量のデータであっても高い精度を出せるかもしれないという話をしました。今回は転移学習よりもさらに高い精度を出せるかもしれない「ファインチューニング」について解説していきます。 ファインチューニングとは ファインチューニングを日本語に訳すと「微調整」という意味になります。このファインチューニングという言葉は古くから理論物理学や金融の分野で使用されてきました。 近年、特に機械学習の分野ではファインチューニングは「モデルのパラメータを微調整すること」という意味で用いられています