サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
パリ五輪
twitter.com
twitter.com/hillbig
ANSは多くの圧縮で算術符号/ハフマン符号に代わって採用されているが、英語でも解説本は殆どなく、日本語解説もない。理解するためにはこのチュートリアルがおすすめ(Rangeバージョン)https://t.co/S2gdaxRsiw。… https://t.co/OcsnzHuSfZ
微分、積分、微分方程式などのシンボリックな数学方程式はNNで驚くほどの精度で解ける。方程式を木表現経由のポーランド記法で表し、Transformerを使ったseq2seqで教師あり学習する。MathematicaやMatlabを超… https://t.co/683D9aRLOT
RNNの時間遷移関数として、現在の状態と入力で定義されるODEの均衡点を返す関数を使うと、どれだけ遷移しても勾配が全く発散/消失せず、状態は均衡多様体上で安定して遷移できる。重要な問題を本質的に解決しておりRNNや深いNNのすごく… https://t.co/DlQjlclQKl
良質の40GBのテキストを使って学習したTransfomerベースで10億パラメータからなる言語モデルはZero-shotで様々な専門ドメインの言語モデルのSoTAを更新し、条件づけ生成で様々な質問応答や翻訳も専門モデルほどでない… https://t.co/952HJl2KQv
GANの作者であるGoodfellow がGANの論文たくさんあって何から追えばいいかわからない人向けに10個の論文を推薦しています。理論、符号化、差分プライバシー、高精細、多クラス、条件付けなど https://t.co/M3DhTqQbOL
画像のどこの見て分類の判断をしたかを可視化するには、損失の入力に関する勾配を計算し、勾配が大きいところを可視化すればよかったがノイズが大きかった 。代わりに入力にノイズを加えそれらの勾配の平均を使うと、とても鮮明になる https://t.co/YQrOmFz9sn
知識DBを全部Memory Networkに読ませて、質問応答タスクをさせる。質問データセットも公開。精度はまだ60%だが、一般人と比べたら知識の広さや深さは既に超え始めてるかも。http://t.co/uQ6uV1G7Do https://t.co/iqOLpeQpfX
Co-founder, and CER of Preferred Networks (PFN). CEO of PFCC. Interested in deep learning and AI, science, and business.
このページを最初にブックマークしてみませんか?
『Daisuke Okanohara / 岡野原 大輔 (@hillbig) | Twitter』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く