import torch x = torch.tensor([1., -1.]) w = torch.tensor([1.0, 0.5], requires_grad=True) loss = -torch.dot(x, w).sigmoid().log() loss.backward() print(loss.item()) print(w.grad)
![はじめに — 機械学習帳](https://cdn-ak-scissors.b.st-hatena.com/image/square/76e54bc4c04ddef2f1661d5d0b764794c14adcae/height=288;version=1;width=512/https%3A%2F%2Fchokkan.github.io%2Fmlnote%2F_static%2Fmlnote.png)
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く