はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

はてなブックマーク

  • はてなブックマークって?
  • アプリ・拡張の紹介
  • ユーザー登録
  • ログイン
  • Hatena

はてなブックマーク

トップへ戻る

  • 総合
    • 人気
    • 新着
    • IT
    • 最新ガジェット
    • 自然科学
    • 経済・金融
    • おもしろ
    • マンガ
    • ゲーム
    • はてなブログ(総合)
  • 一般
    • 人気
    • 新着
    • 社会ニュース
    • 地域
    • 国際
    • 天気
    • グルメ
    • 映画・音楽
    • スポーツ
    • はてな匿名ダイアリー
    • はてなブログ(一般)
  • 世の中
    • 人気
    • 新着
    • 新型コロナウイルス
    • 働き方
    • 生き方
    • 地域
    • 医療・ヘルス
    • 教育
    • はてな匿名ダイアリー
    • はてなブログ(世の中)
  • 政治と経済
    • 人気
    • 新着
    • 政治
    • 経済・金融
    • 企業
    • 仕事・就職
    • マーケット
    • 国際
    • はてなブログ(政治と経済)
  • 暮らし
    • 人気
    • 新着
    • カルチャー・ライフスタイル
    • ファッション
    • 運動・エクササイズ
    • 結婚・子育て
    • 住まい
    • グルメ
    • 相続
    • はてなブログ(暮らし)
    • 掃除・整理整頓
    • 雑貨
    • 買ってよかったもの
    • 旅行
    • アウトドア
    • 趣味
  • 学び
    • 人気
    • 新着
    • 人文科学
    • 社会科学
    • 自然科学
    • 語学
    • ビジネス・経営学
    • デザイン
    • 法律
    • 本・書評
    • 将棋・囲碁
    • はてなブログ(学び)
  • テクノロジー
    • 人気
    • 新着
    • IT
    • セキュリティ技術
    • はてなブログ(テクノロジー)
    • AI・機械学習
    • プログラミング
    • エンジニア
  • おもしろ
    • 人気
    • 新着
    • まとめ
    • ネタ
    • おもしろ
    • これはすごい
    • かわいい
    • 雑学
    • 癒やし
    • はてなブログ(おもしろ)
  • エンタメ
    • 人気
    • 新着
    • スポーツ
    • 映画
    • 音楽
    • アイドル
    • 芸能
    • お笑い
    • サッカー
    • 話題の動画
    • はてなブログ(エンタメ)
  • アニメとゲーム
    • 人気
    • 新着
    • マンガ
    • Webマンガ
    • ゲーム
    • 任天堂
    • PlayStation
    • アニメ
    • バーチャルYouTuber
    • オタクカルチャー
    • はてなブログ(アニメとゲーム)
    • はてなブログ(ゲーム)
  • おすすめ

    大阪万博

『echizen-tm.hatenablog.com』

  • 人気
  • 新着
  • すべて
  • 「コーパスと自然言語処理」を読んだ - EchizenBlog-Drei

    89 users

    echizen-tm.hatenablog.com

    コーパスと自然言語処理を読みました。 これは記憶の失われを防ぐためのメモです。 概要 どういうコーパスが使えるの、っていう視点で自然言語処理の概要を説明した本。入門書としてもよさそう。手法に関してはあっさりめ 近年だと細かい手法は気にしなくても、深に入れて「はわわ〜っ」ていう感じでできちゃうのでこういう切り口の本はよさそう といいつつこの本には深の話題はほとんど出てこないけど・・・ メモ 第1章 コーパスと自然言語処理 前置き的なやつ 第2章 コーパスアノテーション基準 アノテーション間の互換性は大切 人間の読みやすさ、機械の読みやすさ、どちらも大切 XML形式、スタンドオフ形式(本文の外に本文の位置とアノテーションを書く) 短単位・長単位 主なコーパス:BCCWJ、京大コーパス、NAISTコーパス、GDAコーパス 第3章 形態素解析・品詞タグ付与・固有表現解析 コーパスっていうより一般的

    • テクノロジー
    • 2018/01/02 22:38
    • nlp
    • 自然言語処理
    • あとで読む
    • 形態素解析
    • 本
    • book
    • Collaborative Filtering for Implicit Feedback Datasetsを読んだ - EchizenBlog-Drei

      3 users

      echizen-tm.hatenablog.com

      SparkやMahoutで使えるALSというのがよくわかっていなかったので調べていたのですが、単にMatrix Factorization(MF)の学習法の名前でした。そういえば聞いたことある気がしてきた・・・。 それはそれとして、Sparkのドキュメントで紹介されていた、Collaborative Filtering for Implicit Feedback Datasetsという論文が面白そうだったので読んでみました。 Matrix Factorzationのようなレーティング予測よりも、普通の協調フィルタリングのようにレコメンドすべきかどうかを予測するほうが実用上重要だよね、という話。まさにそう思っていたので、読んでよかったと思える論文でした。 概要 MFはユーザによるレーティングが教師データとして与えられていて、これを予測します。このような問題設定をExplicit Feedba

      • テクノロジー
      • 2017/10/05 19:43
      • Zero-Shot Learning with Semantic Output Codesを読んだ - EchizenBlog-Drei

        15 users

        echizen-tm.hatenablog.com

        Zero-Shot LearningというのをNLPの論文タイトルで最近よく見かけるので、気になっていました。なので、以下の論文を読んでみました。 Zero-Shot Learning with Semantic Output Codes たぶんZero-Shot Learningという名前の初出がこれだと思います(違っていたらすみません)。 Zero-Shot Learningというのは訓練データが全部のクラスを網羅していないような場合に、訓練データにないクラスが正解であるようなテストデータもきちんと分類できるようにする手法のようです。 って言っても訓練データにないのにどうやって学習するの、という感じです。これをクラスをただのラベルではなく特徴ベクトルで表現することで実現しているようです。 こうやって、データが「クラスを表すラベル」ではなく「クラスを表す特徴ベクトル」を推定できるように学

        • テクノロジー
        • 2016/12/05 23:12
        • nlp
        • 機械学習
        • pdf
        • あとで読む
        • Storing a Sparse Table with O(1) Worst Case Access Timeを読んだ - EchizenBlog-Drei

          4 users

          echizen-tm.hatenablog.com

          タイトルのとおりです。以下の論文を読みました。 Storing a Sparse Table with O(1) Worst Case Access Time [1,m]の自然数の集合に対するサイズnの部分集合があった場合にqが部分集合に含まれるどうかを知りたい、という問題を考えます。この操作をmembership(q)と書きます。 単純に部分集合に含まれる数をソートして並べた場合、データサイズは数を入れる箱(セル)がn個あればよいです。しかしmembership(q)をやるには二分探索が必要なので時間計算量がO(log n)かかります。 これに対して提案手法はデータサイズが高々セル6n個になるかわりにO(1)でmembership(q)ができます。要素数nの部分集合に対して普通の(完全ではない)ハッシュ関数を用意して、衝突した数の集合に対して完全ハッシュを用意する。という仕組みです。 せ

          • テクノロジー
          • 2016/10/16 12:02
          • Algorithm
          • Factorization Machinesを今更読みました - EchizenBlog-Drei

            20 users

            echizen-tm.hatenablog.com

            前から気になっていたのですが、読んでいなかった Factorization Machines [S. Rendle, 2010] を読みました。 論点が明確で非常に読みやすい論文でした。それだけでなく手法自体もシンプルかつ効果的で極めて良いように思いました。私が好きなタイプの手法で、もっとはやく読んでおけばよかったという気持ちです。 提案から6年経っているので、もしかしたら今はもっと良い方法があるかもしれないのですが、自分の頭を整理する意味でもメモを書いておきます。 概要 Factorization Machines (以下FM) は、組み合わせ特徴量を扱う教師あり学習のモデルです。 特徴量ごとに 次元ベクトルの重みを持たせて、組み合わせ特徴量の重みを という内積で表現することで、組み合わせ特徴量の疎になりやすいという問題を解決しています。 学習はSGDなどのオンライン学習が利用でき、1回

            • 学び
            • 2016/09/11 08:14
            • 機械学習
            • あとで読む

            このページはまだ
            ブックマークされていません

            このページを最初にブックマークしてみませんか?

            『echizen-tm.hatenablog.com』の新着エントリーを見る

            キーボードショートカット一覧

            j次のブックマーク

            k前のブックマーク

            lあとで読む

            eコメント一覧を開く

            oページを開く

            はてなブックマーク

            • 総合
            • 一般
            • 世の中
            • 政治と経済
            • 暮らし
            • 学び
            • テクノロジー
            • エンタメ
            • アニメとゲーム
            • おもしろ
            • アプリ・拡張機能
            • 開発ブログ
            • ヘルプ
            • お問い合わせ
            • ガイドライン
            • 利用規約
            • プライバシーポリシー
            • 利用者情報の外部送信について
            • ガイドライン
            • 利用規約
            • プライバシーポリシー
            • 利用者情報の外部送信について

            公式Twitter

            • 公式アカウント
            • ホットエントリー

            はてなのサービス

            • はてなブログ
            • はてなブログPro
            • 人力検索はてな
            • はてなブログ タグ
            • はてなニュース
            • ソレドコ
            • App Storeからダウンロード
            • Google Playで手に入れよう
            Copyright © 2005-2025 Hatena. All Rights Reserved.
            設定を変更しましたx