4. Friston K, Breakspear M, Deco G. Perception and self- organized instability. Front Comput Neurosci. 2012 Jul 6;6:44. FIg.1 (CC BY 3.0) http://www.frontiersin.org/files/Articles/ 23035/fncom-06-00044-r4/image_m/fncom-06-00044-g001.jpg 自由エネルギー最小化原理 5. FEPとはなにか: いかなる自己組織化されたシステムでも環境内で平衡 状態であるためには、そのシステムの(情報的)自由エ ネルギーを最小化しなくてはならない 適応的なシステムが無秩序へ向かう自然的な傾向に抗 して持続的に存在しつづけるために必要な条件 「意識についての理論」そのものではない 自
NLP コロキウム https://nlp-colloquium-jp.github.io/ で発表した際のスライドです。 論文: https://arxiv.org/abs/2205.01954 GitHub: https://github.com/joisino/wordtour 概要 単語埋め込みは現代の自然言語処理の中核技術のひとつで、文書分類や類似度測定をはじめとして、さまざまな場面で使用されていることは知っての通りです。しかし、ふつう埋め込み先は何百という高次元であり、使用する時には多くの時間やメモリを消費するうえに、高次元埋め込みを視覚的に表現できないため解釈が難しいことが問題です。そこで本研究では、【一次元】の単語埋め込みを教師なしで得る方法を提案します。とはいえ、単語のあらゆる側面を一次元で捉えるのは不可能であるので、本研究ではまず単語埋め込みが満たすべき性質を健全性と完
2. 自己紹介 ▪ プログラミング言語処理系の最先端実装技術 inliningとdevirtualization / Kazuaki Ishizaki 2 石崎 一明(いしざき かずあき) http://ibm.biz/ishizaki 1992年3月 早稲田大学理工学研究科修士課程電気工学専攻を修了。 1992年4月 日本アイ・ビー・エム(株)入社、東京基礎研究所勤務。以来、並列化コンパイラ、動的コン パイラ、アプリケーション最適化、などの研究に従事。最近は、AIプロセッサのソフトウェ アスタックの研究開発に従事。現在、同研究所シニア・テクニカル・スタッフ・メンバー 2002年12月 早稲田大学理工学研究科にて、博士(情報科学)を取得。 2008年から2009年まで、IBMワトソン研究所に滞在。 2004年に情報処理学会業績賞受賞。ACM Distinguished Member、情報処
1. Real World Azure RBAC 真壁 徹 日本マイクロソフト株式会社 クラウドソリューションアーキテクト 2020/02/12 あなたと仲間を 守るために 2. 自己紹介 apiVersion: selfIntroduction/v1 name: “真壁 徹(まかべ とおる)” company: name: “日本マイクロソフト株式会社” role: “クラウド ソリューションアーキテクト” career: - name: “大和総研” - name: ”HP Enterprise” cert : “CNCF Certified Kubernetes Admin.” education: “JAIST(社会人コース 在学中)” 4. Azure RBAC おさらい • 職務 = 役割(ロール) • Azure管理プレーン(*)を通じた Azureリソースへのアクセスを 制
Learn, build, and scale with elastic - realizing great programming experience...Shotaro Suzuki
2. Transformer の構造と本研究のまとめ • Transformer は Layer Normalization (LN) の位置で2種に⼤別される 2 Post-LN Pre-LN Residual 後に Layer Norm 本研究の貢献 ・Post-LN と Pre-LN の性能差を実験的に⽰す ・多層 Post-LN の学習が難しい原因を⽰す ・⾼い性能を維持しつつ多層化する⼿法を提案 性能 多層化 Post-LN ○ × Pre-LN × ○ B2T(提案⼿法) ○ ○ × N × N Layer Norm Attention FFN Layer Norm Layer Norm Attention FFN Layer Norm Layer Norm Attention × N × N Attention Layer Norm Layer Norm FFN Layer
4. NLPからVision and Language、CVへ 4 論文が最初に発表された年月 2017 2018 2019 2020 2021 Transformer 出現 事前学習モデ ルの提案 マルチモーダル化 CVタスクへの 応用 2017/06 Transformer 2018/06 GPT-1 2018/10 BERT 2019/08 ViLBERT LXMERT VLBERT 2020/05 DETR 2020/10 ViT 2021/02 TimeSformer 1 Transformer の躍進 5. NLPからVision and Language、CVへ 5 最近はCV、Vision and Languageへの応用が激化 サーベイ論文も立て続けに登場 2020/12/23 A Survey on Visual Transformer (2020) https://a
2. Table of Contents ● Problem : 金融時系列予測とその難しさについて ● Related work : それに対するいくつかの知見 ● Proposed method : 我々の結果について ● Future work : これからの方針 本発表を一言で: 金融時系列予測の難しさとそれを対処する上において有力な帰納バイアスの紹介 3. 本日お話する元論文について Kentaro Imajo, Kentaro Minami, Katsuya Ito, Kei Nakagawa: “Deep Portfolio Optimization via Distributional Prediction of Residual Factors”, 2020; arXiv:2012.07245. (AAAI 2021 accepted) Katsuya Ito, Kent
第70回 Machine Learning 15minutes! Broadcastというイベントでお話する内容です。 ジョブレコメンデーション系の論文とか実務でやっていることを色々共有します。Read less
2022年9月13日 株式会社メンバーズ ポップインサイトカンパニーでのウェビナーのスライドです。「ユーザーが欲しいと言った機能をつけたのに使われない!」という経験はありませんか。プロダクトをつくるとき「ユーザーの心理を理解しよう」とよく言われます。しかし、ユーザーに言われたままやることと、ユーザーが本当に望んでいることは異なります。「UXデザイン・UXリサーチ」は、ユーザーを理解するための専門技術です。ユーザーインタビューやユーザビリティテストを用いてファクトを集めることで、ユーザーの表面的な言葉に惑わされない、本当のインサイトにたどりつくことができます。かんたんなワークも交えながら、体系的に解説いたします。Read less
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く