タグ

2021年5月31日のブックマーク (2件)

  • Attentionは不要!?Google BrainによるTransformer型モデルに対抗できるgMLPを詳細解説!

    Attentionは不要!?Google BrainによるTransformer型モデルに対抗できるgMLPを詳細解説! 2021.05.26 AI論文 学術研究, 画像処理, 自然言語処理 はじめに Google Brainが全結合層を基としたニューラルネットワークがTransformerと同程度の精度を出すことができることを研究で明らかにしました。この結果、NLP(自然言語処理)だけではなく、最近ではCV(画像処理)の分野でもデファクトスタンダードになりつつあったTransformerをベースとしたモデル構成に再考が求められることになります。 なお、今回利用した図はすべて下記論文(「Pay Attention to MLPs」)から引用しております。 ●Transformer系の解説記事 Facebookチームが開発した画像分類にTransformerを利用した効率モデルDeiTを紹

    Attentionは不要!?Google BrainによるTransformer型モデルに対抗できるgMLPを詳細解説!
  • 退職します2021 - たごもりすメモ

    TL;DR 現職のTreasure Dataを日を最終出社として退職します しばらくは休みをとりつつ次に何をやるかを考えるつもり 次は自分でビジネスを立ち上げるか、それともエンジニアリングチームを作るところにフォーカスするか、これから考える 技術顧問業もはじめます、が、メインにはしないつもり その他これからの活動にご期待ください 現職について 就職時にこのエントリを書いてから6年3ヶ月、当初思っていたより長く働いたなあという感じです。入ったときはUSと日で合計40人もいなかったくらいだったと思うけど、今では世界中に同僚がいて規模は約10倍くらいになりました。途中Armによる買収もあって、スタートアップから中規模企業までのビジネスと会社の成長を見てきました。自分もそれなりに貢献できてたんじゃないかなと思います。 いま見直すと就職エントリに書いていた3点、「技術ベンチャーであること」「ベン

    退職します2021 - たごもりすメモ
    t_43z
    t_43z 2021/05/31
    おおー、お疲れさま!!