エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
pytorchで全結合層以外の重みを固定して学習し直す - yiskw note
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
pytorchで全結合層以外の重みを固定して学習し直す - yiskw note
概要 pytorchで転移学習を行う際に,全結合層以外の重みを固定するということをよくやるのですが,毎回... 概要 pytorchで転移学習を行う際に,全結合層以外の重みを固定するということをよくやるのですが,毎回やり方を忘れて調べていたので,備忘録としてこちらに残しておきます. 方法 モデルのパラメータのrequires_gradをFalseに指定するだけです. import torch import torch.nn as nn import torch.optim as optim from torchvision.models import resnet18 model = resnet18() # モデルの重みを固定 for param in model.parameters(): param.requires_grad = False # 新しいmoduleを定義した場合は,デフォルトで`requires_grad = True` # なので,model.fcのみが学習される mode