タグ

2020年8月31日のブックマーク (2件)

  • そろそろ語ろうか(其の壱)|和田洋一

    2016年2月末、スクウェア・エニックスを離脱して数か月になり、これまで伝えられなかった事もお話しできる立場になりました。 証券時代16年、ゲーム時代16年と、気がつけば中々の古参。 改めて見渡すと、アーケードゲーム、家庭用ゲームPC、スマホゲームと全ての時代を経験し、かつグローバル展開を行っていた方がほとんどいらっしゃらない事に気づきました。 またこの間、経営者として、業界リーダーとして、数々の貴重な局面に立ち会っています。 事実を忘れてしまったり、自分の都合のいいように記憶を塗り替える前に、皆さんにお話しする意味があると思いました。 経営者は、その足跡について1ミリ単位で説明できなければならないというのが、私の持論です。 無論、その時々の事実認識には個体差はあるでしょう。また、戦略実行にあたっては、様々な方が関わりますから、各人の視点によって、同じ事実でも見え方は異なるでしょう。さら

    そろそろ語ろうか(其の壱)|和田洋一
    Makots
    Makots 2020/08/31
    めちゃくちゃおもしろい
  • Self-Attentionを全面的に使った新時代の画像認識モデルを解説! - Qiita

    08/31 (2020): 投稿 08/31 (2020): 「畳み込みを一切使わない」という記述に関して、ご指摘を受けましたので追記いたしました。線形変換においては「チャネル間の加重和である1x1畳み込み」を実装では用いています。 08/31 (2020): 論文で提案されているモデルの呼称に関して認識が誤っていたためタイトルおよび文章を一部修正しました。 言葉足らずの部分や勘違いをしている部分があるかと思いますが、ご指摘等をいただけますと大変ありがたいです。よろしくお願いします!(ツイッター:@omiita_atiimo) 近年の自然言語処理のブレイクスルーに大きく貢献したものといえば、やはりTransformerだと思います。そこからさらにBERTが生まれ、自然言語の認識能力などを測るGLUE Benchmarkではもはや人間が13位(2020/08現在)にまで落ちてしまっているほ

    Self-Attentionを全面的に使った新時代の画像認識モデルを解説! - Qiita