今回も PyTorch に関する記事です。 この記事では、requires_grad、zero_gradなどについて説明します。 私自身も勉強中ということもあり間違い等あるかもしれません。その際は Twitter などで教えてください。 requires_grad とは【学び直し】Pytorch の基本と MLP で MNIST の分類・可視化の実装までで紹介したように、requires_gradは自動微分を行うためのフラグです。 単純に tensor を定義した場合はデフォルトで False になっています。 x = torch.ones([3, 32, 32]) x.requires_grad # >>> False一方で、ネットワークを定義した場合のパラメータはデフォルトでrequires_grad=Trueです。 意外とこれを知らずにわざわざ学習時にrequires_grad=Tr
皆さんこんにちは お元気ですか。私は元気です。 暫くKaggleしかしていなかったせいか、今年のブログ投稿頻度がひどいことになっています(がんばります。。) それはさておき、本日はKaggleのCompetitonで便利なPyTorchのライブラリを紹介してきます。 昨年は、PyTorchの中でもAlbumentationのライブラリを紹介しました。 共通 Pytorchのモデルが容易になるライブラリ Ignite Catalist Lightning Apex NLP Transformers Image Processing Pretrained Pytorch EfficientNet-PyTorch segmentation-pytorch mmdetection Albumentation 最後に 共通 Pytorchのモデルが容易になるライブラリ PyTorchのモデルを書くに
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く