2020年8月31日のブックマーク (2件)

  • 安倍首相の憲法改正を挫折させた日本人の「古層」

    安倍首相の辞任について、世界中から多くの論評が寄せられている。彼の経済政策についての評価は高くないが、外交・防衛政策についての評価は高い。Economist誌の元編集長ビル・エモットはこう評している: 安倍首相は依然として弱い経済を残して去るが、防衛と外交の問題において日をより強く、独立した国にした。彼の後継者は誰になろうとその道を続ける可能性が高く、これは東アジア全体の平和とルールにもとづく国際秩序の支持者にとって朗報である。 私も同感である。日米同盟の前提だった集団的自衛権を明示的に法制化したことで、日米関係は世界の「ルールにもとづく国際秩序」の一環として位置づけられた。だが皮肉なことに、これで日米同盟との整合性という憲法改正の最大の根拠が失われ、安倍首相の宿願は達成できなかった。 憲法改正は、岸信介から受け継いだ安倍首相の遺伝子のようなものだ。それは右派とかタカ派とかいわれるような

    安倍首相の憲法改正を挫折させた日本人の「古層」
  • Self-Attentionを全面的に使った新時代の画像認識モデルを解説! - Qiita

    08/31 (2020): 投稿 08/31 (2020): 「畳み込みを一切使わない」という記述に関して、ご指摘を受けましたので追記いたしました。線形変換においては「チャネル間の加重和である1x1畳み込み」を実装では用いています。 08/31 (2020): 論文で提案されているモデルの呼称に関して認識が誤っていたためタイトルおよび文章を一部修正しました。 言葉足らずの部分や勘違いをしている部分があるかと思いますが、ご指摘等をいただけますと大変ありがたいです。よろしくお願いします!(ツイッター:@omiita_atiimo) 近年の自然言語処理のブレイクスルーに大きく貢献したものといえば、やはりTransformerだと思います。そこからさらにBERTが生まれ、自然言語の認識能力などを測るGLUE Benchmarkではもはや人間が13位(2020/08現在)にまで落ちてしまっているほ

    Self-Attentionを全面的に使った新時代の画像認識モデルを解説! - Qiita