2022年11月にMobilityTechnologiesで実施した社内勉強会の資料です。Read less
2. Transformer の構造と本研究のまとめ • Transformer は Layer Normalization (LN) の位置で2種に⼤別される 2 Post-LN Pre-LN Residual 後に Layer Norm 本研究の貢献 ・Post-LN と Pre-LN の性能差を実験的に⽰す ・多層 Post-LN の学習が難しい原因を⽰す ・⾼い性能を維持しつつ多層化する⼿法を提案 性能 多層化 Post-LN ○ × Pre-LN × ○ B2T(提案⼿法) ○ ○ × N × N Layer Norm Attention FFN Layer Norm Layer Norm Attention FFN Layer Norm Layer Norm Attention × N × N Attention Layer Norm Layer Norm FFN Layer
第1回Webインテリジェンスとインタラクションセミナー(いまさら訊けないシリーズ「言語処理技術」)での発表資料です。 https://www.sigwi2.org/next-sigRead less
2. 自己紹介 • 自然言語処理のなかの、特に自動要約など、テキストを計算機に吐かせる技術 (自然言語 生成) については (たぶん) 割と知見があります • 基本的なアイデアの考案から、研究開発、商用化まで一貫して携わっています • ここしばらくは組織の立ち上げや強化 (らしきもの) やどろどろとした開発を推進してい ます • お仕事探し中や人生お悩み中の方はぜひ hitoshi@nishikawa.name にご連絡をば…… 2021/03/19 bit.ly/hitoshini NLP 2021 Workshop 若手研究者交流のニューノーマルを考える 2 西川 仁(にしかわ ひとし) アスタミューゼ株式会社 データ・研究開発部 部長 3. 想定する聞き手 • 大企業の研究所にも大学にもベンチャー企業にも在籍した (している) 経験を鑑みると、 研究と呼ばれる行為に関するあまりよくな
4. 公開にあたって ●まえがきに代えて 本書は 株式会社 セガ にて行われた有志による勉強会用に用意された資料を一般に公開するもので す。勉強会の趣旨は いわゆる「大人の学び直し」であり、本書の場合は高校数学の超駆け足での復習 から始めて主に大学初年度で学ぶ線形代数の基礎の学び直し、および応用としての3次元回転の表現の 基礎の理解が目的となっています。広く知られていますように線形代数は微積分と並び理工系諸分野の 基礎となっており、だからこそ大学初年度において学ぶわけですが、大変残念なことに高校数学では微 積分と異なりベクトルや行列はどんどん隅に追いやられているのが実情です。 線形代数とは何かをひとことで言えば「線形(比例関係)な性質をもつ対象を代数の力で読み解く」 という体系であり、その最大の特徴は原理的に「解ける」ということにあります。現実の世界で起きて いる現象を表す方程式が線形な振
4. NLPからVision and Language、CVへ 4 論文が最初に発表された年月 2017 2018 2019 2020 2021 Transformer 出現 事前学習モデ ルの提案 マルチモーダル化 CVタスクへの 応用 2017/06 Transformer 2018/06 GPT-1 2018/10 BERT 2019/08 ViLBERT LXMERT VLBERT 2020/05 DETR 2020/10 ViT 2021/02 TimeSformer 1 Transformer の躍進 5. NLPからVision and Language、CVへ 5 最近はCV、Vision and Languageへの応用が激化 サーベイ論文も立て続けに登場 2020/12/23 A Survey on Visual Transformer (2020) https://a
cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有しています。 http://xpaperchallenge.org/cv/ 本資料はxpaper.challengeの2020年末ワークショップとしてプレゼンした、研究効率化Tipsです。10研究室、200ページ超にわたるノウハウ詰め合わせです。Read less
2. チュートリアル資料 https://yahoojapan.github.io/vespa-tutorial/ • 氏名 • 矢野 友貴 (やの ゆうき) • 所属 • ヤフー株式会社 D&S統括本部 • サイエンス的ななにか • 業務 • むかーしVespaのサービス運用してた • 検索モデリングとかチョットデキル • 最近はSolrに浮気中 自己紹介 Copyright (C) 2018 Yahoo Japan Corporation. All Rights Reserved. 無断引用・転載禁止 1 3. チュートリアル資料 https://yahoojapan.github.io/vespa-tutorial/ • Vespaの日本語向けのチュートリアル資料を以下に公開してます • 詳しい使い方はそちらを参照してください • この発表ではVespaの特徴的な機能をSolr/E
15. 追試は三角測量である S everal studies across many fields estimate that only around 40% of published findings can be replicated reliably. Various funders and communities are promoting ways for independent teams to routinely replicate the findings of others. Theseeffortsarelaudable,butinsufficient. If a study is skewed and replications recapitulate that approach, findings will be consistently incorrect or
日本ロボット学会 ロボット工学セミナー 第126回 ロボットのための画像処理技術 講演資料 https://www.rsj.or.jp/event/seminar/news/2020/s126.html 2012年の画像認識コンペティションILSVRCにおけるAlexNetの登場以降,画像認識においては深層学習,その中でも特に畳み込みニューラルネットワーク (CNN) を用いることがデファクトスタンダードとなった.CNNはクラス分類をはじめとして,物体検出やセグメンテーションなど様々なタスクを解くためのベースネットワークとして広く利用されてきている.本講演では,CNNの発展を振り返るとともに,エッジデバイスで動作させる際に重要となる高速化等,関連する深層学習技術の解説を行う. 1. クラス分類向けモデルについて 1.1. ILSVRCで振り返る進化の歴史 1.2. その他重要なモデル 1
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く