
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
PyTorchのシーケンスのpaddingとpackingを使い分ける - Qiita
0. はじめに PyTorchでRNN, LSTM, GRUなどの系列モデルを訓練するには, サンプルの系列としての長さが全... 0. はじめに PyTorchでRNN, LSTM, GRUなどの系列モデルを訓練するには, サンプルの系列としての長さが全て同じでなければなりません。 (ニューラルネットワークの仕組み的にはそんな必要はありませんが, 実際のコーディングでは系列長がバラバラだとエラーを吐いてしまいます) しかし, 訓練させたい文章サンプルが最初から全部同じ長さであることはまず無いでしょう。 このため, 短い文章の末尾にダミー単語を加えておく 長い文章の尻尾を切り取っておく などの工夫をして, 事前にサンプルの系列長を揃える処理をしておく必要があります。 ありがたいことに, PyTorchは系列長を揃えてくれるような関数を4つ用意してくれています: torch.nn.utils.rnn.pad_sequence torch.nn.utils.rnn.pack_sequence torch.nn.utils.
2024/01/28 リンク