お仕事でPyTorchを扱っているのですが、以下のような疑問がふつふつと湧いてきましたので、Tensorのデータが実際にはどうやって保持・管理されているのかを調べて整理しました。 image_tensor = minibatch_tensor[i, :, :, :]はメモリコピーが発生するのか? input_tensorをコピーして別々のネットワークにフォワードしたいのだけどどうすればいいのか? 効率的にメモリアクセスできるレイアウトになっているのか? この投稿ではPyTorch 1.1.0を使ってます。 import torch import numpy as np print(torch.__version__) # 1.1.0 Tensorでのデータの持ち方 Tensorはnumpyのビューとよく似ています。 メモリ上の実体はStorageオブジェクトが持つ Tensorのデータはメ