タグ

&NaturalLanguageProcessingに関するlpm11のブックマーク (52)

  • Tutorial on how to use ACRF-GRMM tool

  • Experience with Factorie for CRFs with arbitrary structure? - MetaOptimize Q+A

    Do you have experience with Factorie? Is it scalable? What is its learning curve? How does it fare when compared to GRMM, for example? I'm the primary author of the FACTORIE library, so I may be biased, but let me try to answer your questions nonetheless. FACTORIE is still pre-1.0, so some fundamental capabilities are still in development, but already I know of people at three different institutio

  • 能動学習システムDUALISTを日本語テキストに適用する - 自然言語処理 on Mac

    機械学習手法に基づくテキスト分類は十分な学習データがあれば高い精度が期待できますが、分類ラベルを人手でつける作業に手間がかかります。そこで、効率的に分類器を学習させる手法として、効果的な分類対象を優先的にラベル付けさせる能動学習(active learning)というアプローチがあります。 DUALISTは、アノテータに対象のラベル付けと同時に、素性であるキーワードが適切かどうかの判定を委ねる能動学習システムで、7月に開催されるEMNLP 2011に採択された論文で提案されており、実装も公開されています。 Google Code Archive - Long-term storage for Google Code Project Hosting. DUALISTのインストールと実行は簡単です。システムはJavaで実装されていて、機械学習パッケージのMALLETが同梱されています。他に、W

    能動学習システムDUALISTを日本語テキストに適用する - 自然言語処理 on Mac
  • ノンパラベイズな言語モデルを試す - Negative/Positive Thinking

    はじめに 最近「言語モデル」がマイブームなので、最近有名になりつつあるというMCMC法を使ったベイズな言語モデルとして、「階層的Pitman-Yor言語モデル(HPYLM)」を試しにちょっと作ってみた。 とりあえず、文字bigramのHPYLMを試してみる。 毎度のことながら勉強用、実験用なのででかいデータはちょっとまずいと思う。。。 (追記3/17 22:30) コードで最終的な値に使う所がおかしいのを修正とdとθの収束についてを追加 コード #include <iostream> #include <sstream> #include <fstream> #include <vector> #include <deque> #include <map> #include <algorithm> #include <string> #include <cmath> #include <c

    ノンパラベイズな言語モデルを試す - Negative/Positive Thinking
  • 誤植.JP

    当サイトは印刷媒体の誤植(誤字・脱字・誤謬・DTPミスを含む)を書き留めるサイトです サイト内コンテンツの閲覧は一切自由です。 もし、自分でも誤植に気が付いて当サイトに書き留めたいという方は、左メニューの"新規登録"からメンバー登録をお願いいたします。 Presented by 誤植.JP

  • 自然言語処理 悪魔の辞典

    言い換え (paraphrase) 都合の悪いことを別の表現でごまかすこと。物は言い様。 例: 「わがまま→自分の意思をしっかり持っている人」 「不潔→ワイルド系」「くだらない研究→興味深い研究」 「役に立たない研究→基礎研究」 意味論 (semantics) 意味論の意味は意味論の意味論によって定義される。 SVM (support vector machine) ポスト決定木の最右翼。決定木を参照のこと。 エラー率 (error rate) 精度の向上が芳しくないときに用いる。精度が 0.01 % 上がりま した、と言わずに、エラー率が 5%下がりました、と言うとよい。 機械学習 (machine learning) 自己の学習をあきらめた人間の最後のよりどころ。 形態素解析 (morphological analysis) 文を形態素に分割すること。形態素が何であるかは永遠の謎。 決

  • overlasting.net

    overlasting.net 2019 Copyright. All Rights Reserved. The Sponsored Listings displayed above are served automatically by a third party. Neither the service provider nor the domain owner maintain any relationship with the advertisers. In case of trademark issues please contact the domain owner directly (contact information can be found in whois). Privacy Policy

  • http://www.phontron.com/nlptools.php

  • Python による日本語自然言語処理

    はじめに この文書は、 Steven Bird, Ewan Klein, Edward Loper 著 萩原 正人、中山 敬広、水野 貴明 訳 『入門 自然言語処理』 O'Reilly Japan, 2010. の第12章「Python による日語自然言語処理」を、原書 Natural Language Processing with Python と同じ Creative Commons Attribution Noncommercial No Derivative Works 3.0 US License の下で公開するものです。 原書では主に英語を対象とした自然言語処理を取り扱っています。内容や考え方の多くは言語に依存しないものではありますが、単語の分かち書きをしない点や統語構造等の違いから、日語を対象とする場合、いくつか気をつけなければいけない点があります。日語を扱う場合にも

  • latticelm

    English latticelmはノンパラメトリックベイズ法に基づくPitman-Yor言語モデルを用いた単語分割と言語モデルの教師なし学習ツールです。 ツールの特徴は、通常のテキストだけではなく、ラティスからも学習できることです。 ラティスから言語モデルを学習することによって、連続音声など、入力にノイズが存在する場合でもよりロバストに言語モデルが学習できます。 詳しくは以下の論文をご参照ください。 Graham Neubig, Masato Mimura, Shinsuke Mori, Tatsuya Kawahara Learning a Language Model from Continuous Speech In Proceedings of InterSpeech 2010 Graham Neubig, 三村 正人, 森 信介, 河原 達也 ベイズ推論を用いた連続音声からの言

  • 統計的機械学習セミナー (1) sequence memoizer - 木曜不足

    統計数理研究所にて行われた第2回統計的機械学習セミナーにのこのこ参加してきました。 http://groups.google.com/group/ibisml/browse_thread/thread/092f5fb3d45a91ea/8cae858cb8bfc00c 今回はノンパラメトリックベイズ特集ということでか、Yee Whye Teh さんが sequence memoizer を、持橋さんが教師無し&半教師分かち書きを話されたので、まずは sequence memoizer について自分のわかる範囲で書いてみよう。 まず、Pitman-Yor 過程については既知とする。ご存じない方は、「独断と偏見によるノンパラ入門」を読めばだいたいわか……んないか(苦笑)。 ええと、とりあえず今回必要な範囲で説明すると、G という単語の分布(ただし台は無限。つまり「独断と偏見〜」でいう「その他」

    統計的機械学習セミナー (1) sequence memoizer - 木曜不足
  • 独断と偏見によるノンパラ入門 - 木曜不足

    「ノンパラメトリック」って言うくらいだからパラメータ無いんかと思ってたら、パラメータめっちゃあるし。 機械学習のネーミングのひどさはこれに始まった話じゃあないけど、それにしたって。 ノンパラの一番素朴なやつ( K-means とか)は当にパラメータ無くてデータだけだから納得なんだけど、だんだん欲が出てパラメータ足しちゃったり派生させちゃったりしてるうちに、よくわかんなくなってきちゃったんだろうかねえ。まったく。 どれどれ、と英語Wikipedia の "Non-parametric statistics" を見たら、なんか意味が4種類くらい書いてあるし。じゃあ名前分けろよ。 en.wikipedia.org とりあえずここで言う「ノンパラ」とは、変数の個数決めなくていい「分布の分布」なメタっぽいやつのこと。つまりディリクレ過程とか、ディリクレ過程とか、そこらへん。 「あー、ノンパラベ

    独断と偏見によるノンパラ入門 - 木曜不足
  • 大規模テキストにおけるN-gram統計 - Negative/Positive Thinking

    はじめに 大規模なテキストデータでのN-gram統計を取る場合、特にNが大きい場合(N>=3)は、組み合わせの数が多くなり出てくるN-gramをすべてメモリに保持しながら個数をカウントするのが難しい。効率的な方法があるのを知ったのでちょっと試してみた。 大規模テキストにおけるN-gram統計の取り方 岩波講座ソフトウェア科学15「自然言語処理」 論文: http://ci.nii.ac.jp/naid/110002934647 手順 ngramを取りたい文章を1つの文として扱う この文をメモリに読み込み、各文字の先頭アドレスを保持する配列を作成 その先頭アドレスの場所の文字から文最後までの部分文字列を1つの単語とみる この単語を辞書順に並び替える(アドレス配列だけ) ソートした単語の順番で、次の単語と「先頭から共通している文字数」を保持する配列を作成 Ngramをカウントするときは、単語の

    大規模テキストにおけるN-gram統計 - Negative/Positive Thinking
  • twitterで自然言語処理 - Preferred Networks Research & Development

    勢い余ってスイカを買ったら、毎日べるハメになってしまいました。海野です。 どんな業界もそうだと思いますが、世の中の流行りものの論文が増えるという面が自然言語処理界隈にもあります。Web、blog、と来て、最近のトレンドはやはりtwitterに代表されるmicro blogでしょうか。今年の言語処理学会の年次大会でtwitterセッションは大盛況でしたが、国際会議でもtwitterを題材として発表が増えています。 数えてみたら、重要国際会議であるACLで6件、EMNLPでも3件、twitterをタイトルに含む発表が今年ありました。ちなみに2010年の会議では1件もありませんでした。そんなわけで、私も今日はそんな流行りに乗っかって、twitter言語処理関連の論文を3つ紹介します。 Cooooooooooooooollllllllllllll!!!!!!!!!!!!!! UsingWord

    twitterで自然言語処理 - Preferred Networks Research & Development
  • 書籍「アインシュタイン その生涯と宇宙 下」が機械翻訳だったため回収へ

    読者からのタレコミによると、株式会社武田ランダムハウスジャパンが2011年6月に発売した「アインシュタイン その生涯と宇宙」上下巻のうち、下巻の内容になんと機械翻訳された部分が含まれており、回収騒ぎになってしまったようです。しかもこの件に関わった翻訳者がAmazonのレビューで事情を詳しく説明しており、普段はあまり表沙汰になることのないトラブルの中身がわかるようになっています。 まず、これがお詫びの文章。 武田ランダムハウスジャパン - お詫びとお知らせ http://www.tkd-randomhouse.co.jp/news/index_0701.html 平素は小社刊行物をご愛読いただきまして、誠にありがとうございます。 この度、年6月に発売いたしました『アインシュタイン その生涯と宇宙』上下巻のうち、下巻の一部に校正・校閲の不十分な箇所がございました。読者の皆様には多大なるご迷惑

    書籍「アインシュタイン その生涯と宇宙 下」が機械翻訳だったため回収へ
  • [PDF]始めよう!ベイズ推定による データ解析

    lpm11
    lpm11 2011/05/25
    始めよう!ベイズ推定によるデータ解析
  • KH Coder: 計量テキスト分析・テキストマイニングのためのフリーソフトウェア

    概要と特長 KH Coderとは、計量テキスト分析またはテキストマイニングのためのフリーソフトウェア(自由ソフトウェア)です。 アンケートの自由記述・インタビュー記録・新聞記事など、さまざまなテキストの分析にお使いいただけます。 プログラミング不要、マウス操作で格的な分析 安心の分析プロセス完全公開、研究利用も多数 New! 機能紹介(スクリーンショット) スクリーンショット集 [旧ページ:言葉・文書・可視化・他] KH Coder 3 正式版の新機能 New! 機能追加プラグイン「文錦®」シリーズ New! ダウンロードと使い方 KH Coder 3 正式版ダウンロード (Version 3.01) 使い方を知るためのチュートリアル ヘルプ 質問&エラー報告用の掲示板 ※投稿にはGitHubへの登録が必要(無料)[旧掲示板] よくある質問(FAQ) 開発者が語る公式セミナー & サポー

  • KyTea (京都テキスト解析ツールキット)

    English 京都テキスト解析ツールキット(KyTea、「キューティー」)は、日語など、単語(または形態素)分割を必要とする言語のための一般的なテキスト解析器です。 特徴 ダウンロード・インストール プログラム仕様 解析:手法の詳細, 入出力の形式, API 学習:モデル学習, 入手可能なモデル KyTeaを使った分野適応 開発情報 特徴 KyTeaには以下の機能が揃っています: 単語分割:分かち書きされていないテキストを適当な単語または形態素に分割する。 読み推定・品詞推定:かな漢字変換や音声認識、音声生成のために単語の発音を推定することができ、品詞を推定することもできます。 線形SVMやロジスティック回帰などを用いてそれぞれの分割点や読みを個別に推定するため、部分的にアノテーションされたデータを利用してモデルを学習することも可能です。 分類器の学習にはLIBLINEARを使用してい

  • EMアルゴリズムによるスペル訂正エンジン - nokunoの日記

    以下の論文が面白かったので紹介したいと思います。Learning a Spelling Error Model from Search Query Logs Noisy Channel Modelによるスペル訂正エンジンスペル訂正には標準的なNoisy Channel Modelを使うことができます(最近は識別モデルも流行りのようです)。A Spelling Correction Program Based on a Noisy Channel ModelNoisy Channel Modelでは、入力が与えられたときの訂正候補の確率を以下のようにモデル化します。言語モデル はコーパスやクエリログから単語N-gram、文字N-gramなどを推定し、スムージングして利用することが一般的です。エラーモデル は入力と出力候補の編集距離をもとに計算することが多いです(他に共起頻度やクリックログを利

  • ネット上の情報を分析して信頼性の判断をサポートする「情報信頼性判断支援システム」が開発される

    何かについて調べるためにインターネット上で検索を行っても、大量の情報の中から正しい情報を分析するためには手間がかかってしまうわけですが、ある意見について、その判断の裏付けや参考となるような情報を複数の観点から表示することで情報信頼性の判断を支援する「情報信頼性判断支援システム」が開発されました。 また、実際に試作されたシステムが特設ページで公開されています。 詳細は以下から。 ネット上の情報を分析・整理し、信頼性判断を支援する技術を開発(2011年1月31日): プレスリリース | NEC NECのプレスリリースによると、同社は東北大学、奈良先端科学技術大学院大学、横浜国立大学、独立行政法人情報通信研究機構 情報信頼性プロジェクトの協力を得て、インターネット上の大量のテキスト情報を分析・整理し、ある意見について、その判断の裏付けや参考となるような情報を複数の観点から表示することで、情報信頼

    ネット上の情報を分析して信頼性の判断をサポートする「情報信頼性判断支援システム」が開発される
    lpm11
    lpm11 2011/02/02
    #nlp2010 で何か見た気がする