hjym_uのブックマーク (359)

  • 目次 | G-DEP

    「ゼロから始めるGPUコンピューティング」と題しまして、 ・これからGPUコンピューティングを始めよう!と思っている方 ・始めてみたはいいけどつまずいてしまった!という方 ・CUDAに興味があるけれど使い方が分からない!という方 に向けて、GPUコンピューティングおよびCUDAについてのコラムを書いてきます。筆者もGPUコンピューティングを勉強中の身であるため、より身近な目線で分かりやすい記事作りを目指していきたいと思います。 各コラムは順次更新していくつもりですので、長いお付きあいで見て頂けたら幸いです! (執筆 G-DEP Associate Research Engineer 東京大学大学院工学系研究科 岡安優)

    hjym_u
    hjym_u 2014/02/15
  • http://www.ar.media.kyoto-u.ac.jp/~kawahara/paper/KAW-slp14-1.pdf

    情報処理学会研究報告 IPSJ SIG Technical Report ⓒ2014 Information Processing Society of Japan 1 音声認識の方法論に関する考察 —世代交代に向けて— 河原達也†1 音声認識技術歴史的変遷を概観し、今後の展望について述べる。特に、音声認識の統計モデルの方法論に関して、 従来“常識”と考えられてきたことが徐々に変遷していることを説明する。まず、学習コーパスを人手で編纂すると いう方法論は限界に達し、自然に超大規模に集積するビッグデータパラダイムが近年の実用システム成功の鍵である ことを述べる。次に、HMM や N-gram などの生成モデルの最尤推定に代わって、最近研究コミュニティで主流になっ ている識別学習及び識別モデル、特に DNN について概観する。その上で、従来の通信路モデル(情報理論)に基づ く定式化が、より

    hjym_u
    hjym_u 2014/02/15
  • Amazon.co.jp: フリーソフトではじめる機械学習入門: 荒木雅弘: 本

    Amazon.co.jp: フリーソフトではじめる機械学習入門: 荒木雅弘: 本
    hjym_u
    hjym_u 2014/02/15
  • RNNLM

    2. 黒船到来 • 自然言語処理における Deep Learning の活用を紹介 • google の人が公開したword2vecというツールが話題 4. n-gram language model • 文に対する確率分布をモデル化 • 単語の条件付き確率の積で表す • 単語の条件付き確率はN-1個前までの単語で計 算できると仮定する 適切なn-gram確率をいかに求めるかがこれまでの焦点 コーパスに現れない低頻度なn-gramにも事前分布に従って正確な 確率を与えるという試みがなされてきた(スムージング) 5. n-gram lm の例 • HPYLM trigram の確率は… 観測したtrigram頻度を ディスカウントして… bigram確率でback-off “トヨタ/自動車” の確率は 0.5 “日産/自動車”の確率は0.4 Q: トヨタと日産の関係は? A: 知らない

    RNNLM
    hjym_u
    hjym_u 2014/02/15
  • ベイズ推定を知っているフリをするための知識

    最近はベイジアンが増えてきて、実用分野での利用も進んでいるようだ。話題としては知っておきたいが、世間一般には理解に混乱を生んでいるようだ。 ベイズ推定は入門レベルの統計学の教科書ではオマケ的な扱いがされており、実際に伝統的な統計手法を拡張している面が強い。そういう意味では、誤解や混乱があっても仕方が無い。 利用する必要があるのか無いのか良く分からない点も多いのだが、知らないと告白するのも気恥ずかしいかも知れない。自分ではベイズ推定で分析を行わない人が、ベイズ信者と話をあわせるために最低限知っておくべき事をまとめてみた。 1. ベイズ推定とは何か? ベイズ推定とは、ベイズの定理を応用した推定手法だ。端的に理解するためには、最尤法に事前確率を導入している事だけ覚えれば良い。これで哲学的議論を全て回避してベイズ推定を把握することができる。 下の(1)式ではπ(θ)が事前確率、π(θ|x)が事後確

    ベイズ推定を知っているフリをするための知識
    hjym_u
    hjym_u 2014/02/15
  • Rubyと機械学習の現状

    Ruby機械学習の現状 - Download as a PDF or view online for free

    Rubyと機械学習の現状
    hjym_u
    hjym_u 2014/02/15
  • 非公開サイト

    サイトの構築。作品の販売。ブログの投稿。この他にもさまざまな機能があります。 ログイン サイトをはじめよう 非公開サイト このサイトは現在プライベート設定になっています。

    非公開サイト
    hjym_u
    hjym_u 2014/02/15
  • GoogleとFacebookによるセマンティックウェブへの取り組み - SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ

    無料で資料をダウンロード SEOサービスのご案内 専門のコンサルタントが貴社サイトのご要望・課題整理から施策の立案を行い、検索エンジンからの流入数向上を支援いたします。 無料ダウンロードする >> セマンティックウェブやナレッジグラフにデータ構造化、そしてGoogleやFacebookの取り組みについて学べる記事を。基的なことが幅広く網羅されており概要を理解するのに最適です。 — SEO Japan 検索業界ではイノベーションが活発に行われている。その中でも、ナレッジグラフは、改善を続け、そして、ユビキタスな存在になりつつある。この点を考慮し、セマンティックウェブのコミュニティとSEOコミュニティは、頻繁且つオープンなコミュニケーションを一貫して行っている。 今後、SEOの取り組みを行い、この情報を検索マーケティングキャンペーンに活かすためには、、ナレッジグラフの仕組みを深く理解し、そし

    GoogleとFacebookによるセマンティックウェブへの取り組み - SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ
    hjym_u
    hjym_u 2014/02/15
  • 機械学習が変える「UI」の意味

    コンピュータの「ユーザーインターフェース(UI)」には、二つの用途があることにお気づきだろうか。一つはご存じの通り、我々人間がコンピュータを利用するための接点(インターフェース)である。もう一つは、コンピュータが人間を観察するための接点だ。 UIを通じて人間行動を「機械学習」したコンピュータが、人間のように行動できるプログラムを次々と生み出していく――。SFのような未来が、もうそこにまで迫っている。 「今後の機械学習の発展にとって最も重要なのは、UIの進化だ」。記者にそう教えてくれたのは、米IBMの「トーマス・J・ワトソン研究所(ワトソン研)」で人工知能Watson」の研究開発を進めているBrian Gaucher氏(写真1)である。記者は2013年11月、機械学習の最新動向を取材するために、IBMのワトソン研を訪問していた。

    機械学習が変える「UI」の意味
    hjym_u
    hjym_u 2014/02/15
  • 「機械学習CROSS」レポート | gihyo.jp

    2014年1月17日、「⁠エンジニアサポートCROSS 2014」が開催されました。イベントは、Webテクノロジーに関わる人々のCROSS(クロス・交流)を通し、以下を提供することを目的として、2012年から開催されています。 「技術」「⁠年代」「⁠個人・企業」を跨いだコミュニケーションの機会 広く深い見識を得る場 そして、「⁠技術」をCROSSする、広く見識を得るということを象徴するように、非常に多岐の分野に渡るプログラムでイベントは開催されました。 このうち、レポートでは機会学習のセッション「機械学習CROSS」の当日の様子をお届けします。 「機械学習CROSS」 このセッションでは、セッションオーナーである株式会社Preferred Infrastructureの比戸将平氏とともに、次のスピーカーが登壇しました。 ヤフー株式会社 田島玲氏 楽天株式会社 平手勇宇氏 株式会社AL

    「機械学習CROSS」レポート | gihyo.jp
    hjym_u
    hjym_u 2014/02/08
  • PPDB:Japanese - 日本語言い換えデータベース

    The Paraphrase Database : Japaneseは日英対訳コーパスから学習された日語の言い換えデータ集です。 ダウンロード 最新版:PPDB:Japanese 0.0.1 仕様情報 一行につき一つの言い換えを示す。 SOURCE:j ||| TARGET:j' ||| (FEATURE=VALUE)* ||| ALIGNMENT フレーズは形態素ごとに半角スペースで区切られ、また言い換え確率もそれぞれP(j'|j)とP(j|j')が半角スペース区切りで与えられます。 翻訳 さ れ た ||| 翻訳 ||| 0.0125435775455 0.00034585476357 ||| 37435 2 56 論文情報 以下の情報をご利用ください。 水上 雅博,Graham Neubig,Sakriani Sakti,戸田 智基,中村 哲. 日語言い換えデータベースの構築と

    hjym_u
    hjym_u 2014/02/08
  • Statistical Semantic入門 ~分布仮説からword2vecまで~

    1. The document discusses various statistical and neural network-based models for representing words and modeling semantics, including LSI, PLSI, LDA, word2vec, and neural network language models. 2. These models represent words based on their distributional properties and contexts using techniques like matrix factorization, probabilistic modeling, and neural networks to learn vector representatio

    Statistical Semantic入門 ~分布仮説からword2vecまで~
    hjym_u
    hjym_u 2014/02/08
  • はてなグループの終了日を2020年1月31日(金)に決定しました - はてなの告知

    はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28

    はてなグループの終了日を2020年1月31日(金)に決定しました - はてなの告知
    hjym_u
    hjym_u 2014/02/08
  • NIPS2013読み会を開催しました - Preferred Networks Research & Development

    もう花粉飛んでるらしいですね。比戸です。 昨年開いたICML2013読み会に続き、NIPS2013の論文を紹介する会を開きました。平日夜にも関わらず60名以上の申し込み、50名以上の参加があり、改めて機械学習への興味の高さを裏付けるものとなりました。会場提供にご協力頂いた東大の武田朗子先生、中川裕志先生、および発表者の皆さんありがとうございました。 ここで特筆したいのが、@mooopanさんが選んだ”Playing Atari with Deep Reinforcement Learning“です。 話題のDeep Neural Networkと強化学習を組み合わせて、テレビゲームで人間にも勝ったという、この日唯一のワークショップ論文紹介だったのですが、なんと著者の所属するDeepMind TechnologiesがGoogleに500億円以上で買収されたというニュースが3日前飛び込んでき

    NIPS2013読み会を開催しました - Preferred Networks Research & Development
    hjym_u
    hjym_u 2014/02/01
  • NIPS2013読み会でword2vec論文の紹介をしました

    先週、 @sla さん主催のNIPS2013読み会で、word2vec論文(正確には続報)の紹介をしました。 ちょっと解説を書きます。 このところの深層学習ブームは自然言語処理にも来ていて、それらのウチの1つと言われています(が、全然deepっぽさはない)。 最初のモチベーションがどういうところにあったかというのは、ちょっと色々だと思いますが(おそらく最初は言語モデルにおける低頻度語の確率をウマイことモデル化・推定したかったんではないかな)、何はともあれ単語の意味的なあるいは統語的な振る舞いをベクトル表現で表すという研究が流行っております。 ベクトル表現というのは、1つの単語wに対して、その単語を「表現」するようなベクトル v(w) を作ります。 そんなこといわれても、作れば?ということなんですが、できたベクトルに対して何かしら「都合のいい」性質ができることが真の目標です。 「都合のいい」

    hjym_u
    hjym_u 2014/01/25
  • PythonによるDeep Learningの実装(Restricted Boltzmann Machine 編) - Yusuke Sugomori's Blog

    機械学習の分野で最近話題になってきている Deep Learning。 Deep Learningでは、何層ものニューラルネットワークを用いて訓練・予測を行いますが、各層でそれぞれ学習を行い、段階的に特徴を抽出していくのがこれまでの機械学習手法と異なる点です。 最近の動向については、 Learning Deep Architectures for AI (Bengio 2009) で詳しくまとめられています。 今回は、Deep Learningにおける各層の学習で用いられている Restricted Boltzmann Machine (RBM, 制約付きボルツマンマシン)のコードを紹介します。 ソースは以下。 Referencesにも書いてあるように、RBMを含むDeep LearningのコードはDeepLearningTutorialsにあるのですが、theanoという特殊なpyth

    PythonによるDeep Learningの実装(Restricted Boltzmann Machine 編) - Yusuke Sugomori's Blog
    hjym_u
    hjym_u 2014/01/19
  • https://www.nttcom.co.jp/tera/tera58/pdf/p02_06.pdf

    hjym_u
    hjym_u 2014/01/12
  • サービス終了のお知らせ - NAVER まとめ

    サービス終了のお知らせ NAVERまとめは2020年9月30日をもちましてサービス終了いたしました。 約11年間、NAVERまとめをご利用・ご愛顧いただき誠にありがとうございました。

    hjym_u
    hjym_u 2014/01/09
  • 「機械学習」革命

    「自ら学習するマシンを生み出すことには、マイクロソフト10社分の価値がある」。 米マイクロソフトの創業者ビル・ゲイツ氏は今から10年前の2004年2月にこう語った。 その時は来た。 米グーグルや米アップル、米フェイスブックといった先進IT企業は今、コンピュータがデータの中から知識やルールを自動的に獲得する「機械学習」の技術を駆使し、様々なイノベーションを生み出し始めている。 これらは来たる機械学習革命の、ほんの序章に過ぎない。 機械学習質は、知性を実現する「アルゴリズム」を人間の行動パターンから自動生成することにある。 この事実が持つ意味は、果てしなく大きい。 今後、実社会における様々な領域で「人間の頭脳を持つプログラム」が登場する一方、データの中から知識やルールを見つけ出したり、プログラムを開発したりするデータサイエンティストやプログラマー仕事が、機械に置き換えられてしまうからだ。

    「機械学習」革命
    hjym_u
    hjym_u 2014/01/09
  • 書店員の2013ベスト5-紀伊國屋書店富山店 野坂美帆 - HONZ

    HONZメンバーの田中大輔から突然、12月末に年間ベストを書け、と言われた。ええ、私、12月のこれから売るの原稿を書いたばっかりだよ、と心中涙目だったのだが、なんとなく逆らえず、了解の旨伝えた。 そもそもある日田中が、ちょっとHONZってサイトに書いてくれない?と言ってきたときに、何も考えず、いいよーと返事をしてしまったのが迂闊だったのだ。その頃私は、理工書担当になってようやく1年がたつころで、何となく仕事の流れはわかってきたものの、相も変わらず複素関数って何?5Sって何?有機合成って何?と1つ1つわからない単語を調べながら、理工書の各ジャンルに向かい合っていたのだった。 高校時代、数学はいつも赤点で、大学に行けるのかこいつ、と危ぶまれたものだった。大学入試はセンター試験の結果と小論文だけで、お題が何だったかもう記憶はあいまいだが、赤味噌と消しゴムを題材にした気がする。今となっては自分の

    書店員の2013ベスト5-紀伊國屋書店富山店 野坂美帆 - HONZ
    hjym_u
    hjym_u 2014/01/05