はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

はてなブックマーク

  • はてなブックマークって?
  • アプリ・拡張の紹介
  • ユーザー登録
  • ログイン
  • Hatena

はてなブックマーク

トップへ戻る

  • 総合
    • 人気
    • 新着
    • IT
    • 最新ガジェット
    • 自然科学
    • 経済・金融
    • おもしろ
    • マンガ
    • ゲーム
    • はてなブログ(総合)
  • 一般
    • 人気
    • 新着
    • 社会ニュース
    • 地域
    • 国際
    • 天気
    • グルメ
    • 映画・音楽
    • スポーツ
    • はてな匿名ダイアリー
    • はてなブログ(一般)
  • 世の中
    • 人気
    • 新着
    • 新型コロナウイルス
    • 働き方
    • 生き方
    • 地域
    • 医療・ヘルス
    • 教育
    • はてな匿名ダイアリー
    • はてなブログ(世の中)
  • 政治と経済
    • 人気
    • 新着
    • 政治
    • 経済・金融
    • 企業
    • 仕事・就職
    • マーケット
    • 国際
    • はてなブログ(政治と経済)
  • 暮らし
    • 人気
    • 新着
    • カルチャー・ライフスタイル
    • ファッション
    • 運動・エクササイズ
    • 結婚・子育て
    • 住まい
    • グルメ
    • 相続
    • はてなブログ(暮らし)
    • 掃除・整理整頓
    • 雑貨
    • 買ってよかったもの
    • 旅行
    • アウトドア
    • 趣味
  • 学び
    • 人気
    • 新着
    • 人文科学
    • 社会科学
    • 自然科学
    • 語学
    • ビジネス・経営学
    • デザイン
    • 法律
    • 本・書評
    • 将棋・囲碁
    • はてなブログ(学び)
  • テクノロジー
    • 人気
    • 新着
    • IT
    • セキュリティ技術
    • はてなブログ(テクノロジー)
    • AI・機械学習
    • プログラミング
    • エンジニア
  • おもしろ
    • 人気
    • 新着
    • まとめ
    • ネタ
    • おもしろ
    • これはすごい
    • かわいい
    • 雑学
    • 癒やし
    • はてなブログ(おもしろ)
  • エンタメ
    • 人気
    • 新着
    • スポーツ
    • 映画
    • 音楽
    • アイドル
    • 芸能
    • お笑い
    • サッカー
    • 話題の動画
    • はてなブログ(エンタメ)
  • アニメとゲーム
    • 人気
    • 新着
    • マンガ
    • Webマンガ
    • ゲーム
    • 任天堂
    • PlayStation
    • アニメ
    • バーチャルYouTuber
    • オタクカルチャー
    • はてなブログ(アニメとゲーム)
    • はてなブログ(ゲーム)
  • おすすめ

    参議院選挙2025

『qiita.com』

  • 人気
  • 新着
  • すべて
  • Self-Attention(+MultiHead)を図・ベクトル(行列)の両方で整理してみた。 - Qiita

    4 users

    qiita.com/ta2bonn

    はじめに Source Target Attentionを前回整理したので、これを前提に次はSelf-Attentionを整理してみます。前回分はこちらです↓ので、見ていただけると嬉しいです。 「Attentionを理解するためにRNN、Word2Vec、LSTM、Seq2Seq、Attentionの順に整理してみた」https://qiita.com/ta2bonn/items/c645ecbcf9dabd0c4778 参考元 Self-Attentionを整理するに当たり、こちらのサイトを参考にさせていただきました。 https://towardsdatascience.com/illustrated-self-attention-2d627e33b20a Self-Attentionとは まずそもそも何者?から入ります。Source Target Attentionはエンコーダーとデ

    • テクノロジー
    • 2022/11/24 17:33
    • Attentionを理解するためにRNN、Word2Vec、LSTM、Seq2Seq、Attentionの順に整理してみた - Qiita

      4 users

      qiita.com/ta2bonn

      Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Attentionを理解するために、学習した事を整理します。 #参考文献 ①「深層学習による自然言語処理」 講談社  坪井祐太 海野裕也 鈴木潤 著 ②「ゼロから作るDeep Learning2 自然言語処理編」 オライリー 斎藤康毅 著 #■RNN(recurrent neural network) 文献①によると、再帰ニューラルネットワーク(RNN)は可変長の入力列を扱うことに優れたネットワーク構造で、前の時刻の隠れ状態ベクトルと現時刻の入力ベクトル(または下層の隠れ状態ベクトル)を使って、現在の隠れ状態ベクトルを更新するとのこと。

      • テクノロジー
      • 2020/08/03 10:06

      このページはまだ
      ブックマークされていません

      このページを最初にブックマークしてみませんか?

      『qiita.com』の新着エントリーを見る

      キーボードショートカット一覧

      j次のブックマーク

      k前のブックマーク

      lあとで読む

      eコメント一覧を開く

      oページを開く

      はてなブックマーク

      • 総合
      • 一般
      • 世の中
      • 政治と経済
      • 暮らし
      • 学び
      • テクノロジー
      • エンタメ
      • アニメとゲーム
      • おもしろ
      • アプリ・拡張機能
      • 開発ブログ
      • ヘルプ
      • お問い合わせ
      • ガイドライン
      • 利用規約
      • プライバシーポリシー
      • 利用者情報の外部送信について
      • ガイドライン
      • 利用規約
      • プライバシーポリシー
      • 利用者情報の外部送信について

      公式Twitter

      • 公式アカウント
      • ホットエントリー

      はてなのサービス

      • はてなブログ
      • はてなブログPro
      • 人力検索はてな
      • はてなブログ タグ
      • はてなニュース
      • ソレドコ
      • App Storeからダウンロード
      • Google Playで手に入れよう
      Copyright © 2005-2025 Hatena. All Rights Reserved.
      設定を変更しましたx