Holy Cater @linear_pcm0153 機材にゴムコーティングを使うなの唄 機材にゴムコーティングを使うな ここは日本だ 機材にゴムコーティングを使うな 5年以内にベトベトだ 機材にゴムコーティングを使うな 溶けて溶けてねっちょねちょ 機材にゴムコーティングを使うな だから 機材にゴムコーティングを使うな 2022-02-12 20:57:52 Holy Cater @linear_pcm0153 同様に、スピーカにウレタンエッジを使うな、ってのもあります。 東南アジア圏だといずれも問題になりますが、基本的に乾燥している国では日本のように加水分解してしまう事は少ないそうです。 2022-02-12 21:16:17 Holy Cater @linear_pcm0153 ぼくは元々オーディオ屋で働いていましたが、JBLをはじめとする米国メーカのスピーカのエッジはウレタン製が多く
はじめに 最近ずっと悩んでいたのが、PyTorchで乱数の種を固定したつもりでも、結果が一定しない問題。環境はGoogle ColabのGPUです。 (2021-04-10) 対策もわかったので修正 (2021-07-06) 従来の方式でGoogle Colabでエラーになったので対策を追記 (2021-08-01) pytorchのバージョンアップに伴い、関数が変わったのでコード修正 どのような問題か 次のようなコードで定義したCNNモデルです。 CIFAR-10学習用に作ったモデルです。 class CNN_v2(nn.Module): def __init__(self, num_classes): super().__init__() self.conv1 = nn.Conv2d(3, 32, 3, padding=(1,1), padding_mode='replicate')
In this video, we give a step-by-step walkthrough of self-attention, the mechanism powering the deep learning model BERT, and other state-of-the-art transformer models for natural language processing (NLP). More on attention and BERT: https://bit.ly/38vpOyW How to solve a text classification problem with BERT with this tutorial: https://bit.ly/2Ij6tGa 0:00 Introduction of NLP 0:39 Text tokenizati
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く