2016/04/13 @PFI 鶴岡研における ニューラルネット+NLP 橋本和真 (東京大学 鶴岡研) 2016/04/13 @PFI • 橋本 和真 (はしもと かずま) • 東京大学 鶴岡研 博士課程2年 – 2012 4月 – 10月 (卒論生) • 画像中の物体認識 – ちょうどこのころ、GPU + Deep Learningが猛 威を振るい始めていた危険な時期 – 2012 11月 • Richard Socherの講演を聞く (転機) – 2012 12月 – 現在 • NLP + ニューラルネットワーク系の研究に転向 自己紹介 2 / 26 2016/04/13 @PFI • 研究はニューラルネットやEmbedding関連 – C++とEigenで実装 • SocherのMATLABコードのC++への移植から開始 • 2014年からRNN翻訳が出現 – 卒論生とRNN翻訳に
Please see cs224n.stanford.edu for the current (Winter 2017) version of this class. Natural language processing (NLP) is one of the most important technologies of the information age. Understanding complex language utterances is also a crucial part of artificial intelligence. Applications of NLP are everywhere because people communicate most everything in language: web search, advertisement, email
CS224d(自然言語処理のための深層学習)はスタンフォード大のRichard Socherが2015年から教えている講義で、動画やスライドなどの講義資料と演習問題がウェブ上で無料で公開されています。 CS224d: Deep Learning for Natural Language Processing 会社の勉強会で週1回半年程度かけて講義動画と演習を終えたため、勉強したことを簡単にまとめてみたいと思います。 なぜ今なのか? 深層学習(Deep Learning)は2000年代後半のRBMやauto-encoderなどの教師なし学習から流行が始まりましたが、それらを教師あり学習の事前学習に使うアプローチは徐々に衰退し、2010年代前半には画像認識のための畳み込みネットワークがImageNetコンテストのおかげで爆発的に有名になりました。詳しくありませんが音声認識の分野でも既存の複雑な
Speech and Language Processing (3rd ed. draft) Dan Jurafsky and James H. Martin Here's our August 20, 2024 release! Individual chapters and updated slides are below; Here is a single pdf of Aug 20, 2024 book! Feel free to use the draft chapters and slides in your classes, print it out, whatever, the resulting feedback we get from you makes the book better! Typos and comments are very welcome (just
8月28日(日) (13:00-) ポスター・デモ発表 (1) 14:00-15:50 デモ発表D01 JukaiNLP: 深層学習によるリアルタイム言語解析システム 進藤裕之(NAIST) デモ発表D02 地理情報に対する実体験に焦点を当てた意見抽出に向けて 栗原理聡, 水本智也, 松田耕史,乾健太郎(東北大) ポスター発表P01 RoboCup @Home リーグにおける命令文章からの行動設計 土田崇弘(九工大) ポスター発表P02 ソーシャルメディアにおける発言位置特定とその匿名化 磯颯, 若宮翔子, 荒牧英治(NAIST) ポスター発表P03 レーティング予測によるフォントを基盤としたレビュー解析 外山洋太, 三輪誠, 佐々木裕(豊田工大) ポスター発表P04 学習者の振り返りから学習意欲を推定するタスクの提案 鈴木由衣, 小町守(首都大) ポスター発表P05 協調Web検索におけ
2 Approaches: Symbolic, statistical, neural networks
機械学習のツールとして、scikit-learnは非常に使いやすいPythonのパッケージとされています。 このパッケージには、例えば交差検定の評価を繰り返して、 分類器に良さそうなパラメータを「検索」してくれるGridSearchなど、 研究をスムーズに進行させるための便利な機能がたくさん搭載されています。 一方、言語処理におけるクラスタリングやクラス分類問題の手がかりとして、 文書にある単語がよく使われます。 これらの単語は、文書/文によって頻度分布に偏りがあるため、 単語頻度からなる素性ベクトルに対してtf-idfによる正規化を行うことが普通です。 scikit-learnでtf-idfを計算 scikit-learnでは、テキスト群に対してtf-idf値を計算する機能が用意されており、 TfidfVectorizerと呼ばれるクラスによりこの機能を簡単に実現できます。
久保です。 自然言語処理のStanford大学の講座シリーズの続きです。 前回はWord Tokenazionをやりました。 今回は『Word Normalization and Stemming』、単語の正規化(Normalization)と語幹化(Stemming)です。 講義の映像は下記から見られます。 Word Normalization and Stemming (11:47) Normalization 例えば情報検索(IR)においては、インデクシングされたものとクエリの単語が同じform(形式)である必要があるので、単語の正規化が必要になります。 今「USA」と「U.S.A」を考えてみると、対応の仕方として U.S.Aのピリオドを削除する 検索の単語を展開する(window -> window, windows) という方法があります。 Case folding 情報
Stop words are the words in a stop list (or stoplist or negative dictionary) which are filtered out (i.e. stopped) before or after processing of natural language data (text) because they are deemed insignificant.[1] There is no single universal list of stop words used by all natural language processing tools, nor any agreed upon rules for identifying stop words, and indeed not all tools even use s
会社名を明かせないが、業界大手のベンチャーキャピタルに所属している。 主な出資先は所謂ミドル、レイターと呼ばれる「成長、拡大期」のベンチャーである。 私自身も一回事業立ち上げ、売却した経験を持つ。 さて、そんな私も最近は起業前、もしくは新規事業を立ち上げようとしている方にアドバイスをすることが多い。 そしてその中でもここ1ヶ月は会う人の3割がチャットボット系のサービスのアイデアを語るのである。 「やめたほうが良い」と毎回アドバイスするのだが、毎回伝える3つの点についてここに記したい。 願わくばこの記事が広まり、浅はかな「対話型サービスの未来」を考えているベンチャーが断念し、より可能性の高いビジネスに切り替えて欲しい。 そしてこの記事を受けても尚、私の予測を上回り成功するチャットボットサービスが出てきてほしいとも思う。 前置きが長くなったが、以下3点がチャットボットが失敗する理由である。 1
PyData.Tokyoは「Python+Dataを通じて、世界のPyDataエクスパートとつながれるコミュニティーを作る」ことを目的として設立され、これまでに勉強会4回およびチュートリアル1回が開催されました。5回目の勉強会となる今回は「自然言語処理」をテーマに、ニューヨーク大学の関根聡さんとサイボウズ・ラボの中谷秀洋さん(@shuyo)のお二人にお話しいただきました。登壇者のレベルの高いご講演に加え、Preferred Networks、デンソーアイティーラボラトリ、クックパッド、Googleなど、第一線でご活躍されている非常に質の高い参加者にもご参加いただき大変充実した会になりました。 過去のイベントのリスト NLP Introduction based on Project Next NLP PyData.Tokyo オーガナイザーの山本(@kaita)です。 最初の講演は、ニュー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く