
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【MNIST】ImangeNetのモデルを利用してFineTuningやってみた【効率的な高精度モデルの構築】 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【MNIST】ImangeNetのモデルを利用してFineTuningやってみた【効率的な高精度モデルの構築】 - Qiita
①はじめに AIを勉強するにあたりFineTuningも勉強しておきたいと思います。今回は**ImageNet学習済みのD... ①はじめに AIを勉強するにあたりFineTuningも勉強しておきたいと思います。今回は**ImageNet学習済みのDenseNet121モデルを利用して、MNISTを実施してみたいと思います。ライブラリはkeras**を使用します。 ②ファインチューニングとは FineTuningとは和訳すると微調整という意味です。AIでのファインチューニングとは、既存のモデルの一部を再利用して、新しいモデルを構築する手法のことです。 ■ファインチューニングと転移学習の違い ファインチューニングに似たようなものとして、転移学習があります。ファインチューニングと転移学習が、いつもごっちゃになってしまうので、ここで整理します。 ファインチューニング ファインチューニングは、学習済みモデルの重みを初期値として、再度学習します。メリットは、既存モデルの重みを初期値として追加学習することで、より効率的に高精度