タグ

あとで読むに関するyu4uのブックマーク (133)

  • たった2ヶ月でiPhoneアプリをリリースして世界を目指せる時代がやってきた

    Last Day.jpの管理人の、れいさんが書かれたです。短時間でiPhoneアプリケーション開発をモノにするためのノウハウを知ることができます。 C言語すら知らなかった私がたった2か月でiPhoneアプリをリリースするためにやったこと iPhoneアプリの舞台は世界です。広大な可能性を感じずには居られません。私も今すぐにiPhoneアプリの開発を始めたい衝動に駆られました。やってやりましょう! 2006 FIFA World Cup. Germany-Sweden.jpg / IsakAronsson iPhoneアプリは世界に通じている アップルストア全体における日製アプリのシェアは3%しかありません。逆に言うと、海外市場は97%もあるということです。もちろん簡単なことではありませんが、アイデア次第で、個人でも世界にインパクトを与えるアプリを生み出せる可能性を秘めているということで

    たった2ヶ月でiPhoneアプリをリリースして世界を目指せる時代がやってきた
  • 東京でしかできない88のこと - Time Out Tokyo(タイムアウト東京)

    🙌 Awesome, you're subscribed! Thanks for subscribing! Look out for your first newsletter in your inbox soon! Get us in your inbox Sign up to our newsletter for the latest and greatest from your city and beyond

    東京でしかできない88のこと - Time Out Tokyo(タイムアウト東京)
  • 51664458 - ブログ

    51664458 2011年02月22日 51664458

  • Mining of Massive Datasets

    The book has a new Web site www.mmds.org. This page will no longer be maintained. Your browser should be automatically redirected to the new site in 10 seconds. The book has now been published by Cambridge University Press. The publisher is offering a 20% discount to anyone who buys the hardcopy Here. By agreement with the publisher, you can still download it free from this page. Cambridge Press d

  • サービス終了のお知らせ

    サービス終了のお知らせ いつもYahoo! JAPANのサービスをご利用いただき誠にありがとうございます。 お客様がアクセスされたサービスは日までにサービスを終了いたしました。 今後ともYahoo! JAPANのサービスをご愛顧くださいますよう、よろしくお願いいたします。

    yu4u
    yu4u 2011/02/23
    社会人博士への道のり
  • Data Sets for Multiple Instance Learning

    The multiple-instance learning model is becoming increasingly important in machine learning. Unlike standard supervised learning in which each instance is labeled in the training data, here each example is a set (or bag) of instances which receives a single label equal to the maximum label among the instances in the bag. The individual instances are not given a label. The goal of the learner is to

  • NIPS 2010論文まとめのまとめ - nokunoの日記

    機械学習の分野で有名な学会にNIPS(Neural Information Processing System)があります。名前のとおりもとはニューラルネットワークの学会ですが、最近はやや脳科学から離れているとか。NIPS : NIPSそのNIPSの論文を読む会「NIPS2010読む会」がT-PRIMALの方々によって開催されたようです。平日だったので私はいかなかったのですが、スライドが公開されているので読んでみようと思います。【T-PRIMAL公開勉強会】NIPS2010読む会 個人的には岡野原さんのスライドが興味深かったです。LCCC2010:Learning on Cores, Clusters and Cloudsの解説併設された並列処理に関するワークショップから論文を紹介していて、非常に実用的です。 LCCC - NIPS 2010 Workshop on Learning on

  • Latent Dirichlet Allocations の Python 実装 - 木曜不足

    LDA とは "Latent Dirichlet Allocation"。文書中の単語の「トピック」を確率的に求める言語モデル。 「潜在的ディリクレ配分法」と訳されていることもあるが、その名前だと「それってなんだっけ?」という人のほうが多そうw。 各単語が「隠れトピック」(話題、カテゴリー)から生成されている、と想定して、そのトピックを文書集合から教師無しで推定することができる。特徴は、果物の apple音楽apple とコンピュータ関連の apple を区別することが出来る(ことが期待される)という点。そのために、どのトピックを生成しやすいかという分布を各文章も持つ。細かい話は略。 結果の見方としては、定量的にはパープレキシティを見るし(一般に小さいほどいい)、定性的には各トピックがどのような単語を生成するか、その確率上位のものを見てふむふむする。この「各トピックが生成する単語」

    Latent Dirichlet Allocations の Python 実装 - 木曜不足
  • Expired

    Expired:掲載期限切れです この記事は,産経デジタル との契約の掲載期限(6ヶ月間)を過ぎましたのでサーバから削除しました。 このページは20秒後にITmedia ニュース トップページに自動的に切り替わります。

  • Gmail優先トレイ論文メモ - kisa12012の日記

    元論文 “The Learning Behind Gmail Priority Inbox”, Douglas Aberdeen, Ondrey Pacovsky, Andrew Slater, LCCC : NIPS 2010 Workshop on Learning on Cores, Clusters and Clouds. http://research.google.com/pubs/archive/36955.pdf Gmail Priority InboxにはPAが利用されていると話題になっているので,読んでみました. 簡単にまとめ PA + transfer learning + logistic model ランキング学習では,thresholdが非常に重要な働きを持つ Gmail Priority Inboxはあなたのメール処理の時間を6%短縮してくれます 1.The

    Gmail優先トレイ論文メモ - kisa12012の日記
  • マンガで分かるAndroid開発環境構築方法 - Android Dev - CroCro

    2011/02/09 ページ作成 2011/02/09 最終更新 クロノス・クラウン合資会社 柳井政和 HP:http://crocro.com/ Twitter:http://twitter.com/ruten はじめに このマンガは、私が「2011/01/16のSwapSkillsの勉強会」用に作成した「Androidで動く HTMLJavaScriptで作る電子書籍アプリ」という資料が元ネタになっています。この資料から「Android開発環境構築」部分を抜き出して、16ページのマンガとして作成しました。切っ掛けは、窓の杜に「WebブラウザーからAndroid向け電子書籍を制作できるサービス“Androbook”」という記事を書いたことです。この記事を書く際に、「16ページのマンガが欲しい、それも『コミPo!』で」と提案されたので、技術資料のマンガ化に取り組みました。内容

  • TokyoNLP #4 を開催しました - nokunoの日記

    第4回 自然言語処理勉強会@東京 : ATND N-gram Language Model for Speech Recognition by @y_shindoh さん 音声認識の概要 音声データ(音声特徴量MFC,PLP)→音声認識エンジン(デコーダ)→音声認識結果 音響モデル+言語モデル 音声特徴量(MFC):LPCM→スペクトル→MFC フレーミング、ハミング窓、高域強調フィルタ、FFT 絶対値→聴覚フィルタ→対数化→DCT 階層モデル:単語→モーラ→音素 読みが複数ある場合は?→両方考える、確率を振ることもある音声認識のしくみ 高周波を落とした場合(電話など)は? →専用の音響モデルを作ったり、ローカルで特徴抽出したり 音声認識の種類:独立単語型、記述文法型(CFG)、ディクテーション型(N-gram) 音声認識では通常3-gramが用いられる。 単語N-gramの高精度化と0頻

  • 松尾ぐみの論文の書き方:英語論文 | 松尾 豊

    あー、やっぱりこの国際会議は難しいな。日人ほとんど通ってないしなぁ。結構頑張ったんだけどなぁ。でも査読者、なんか良く分からないことを言ってる。こいつ分かってないな。こんな査読者に当たるとは運が悪い。3人中1人はすごくいいコメントなのになぁ。ま、いいや、研究会論文でも書こう。 (※に戻る) 私も以前はこんな感じでした。主要な国際会議のレベルは高いと思ってました。今では、そうは思いません。何といっても、まずは完成度の問題です。 完成度を上げることの重要性 完成度を上げるとは、自分で修正するところがなくなるまで、修正を繰り返すことです。 上の例では、初稿の段階で投稿していますね。これで通せる人は誰もいません。ここで私がよく目安に使っている2つの経験則を紹介しましょう。 執筆時間の法則: 経験上、次のような法則があります。「書こう」と思ってから、初稿ができるまでの時間をa0とします。すると、第2

  • 松尾ぐみの論文の書き方 | 松尾 豊

    松尾ぐみの論文の書き方 論文を書くことは、研究を進める上で重要なプロセスのひとつです。 研究者の業績も論文によって評価されます。ここでは、松尾ぐみの学生と一緒に論文を書いていく中で、よく注意点として出てくることをまとめて整理してみました。なお、松尾ぐみのテーマに即していますので、違う分野の人は参考にならないかもしれません。 研究を論文にするということ 自分の研究をきれいな形に切り取る 論文は、自分の研究日記でも苦労日記でもありません。卒論や修論は、自分がやったことをできるだけ主張する、 苦労した点を伝えるという点で、 ある意味、研究日記でも構わないでしょう。しかし、ジャーナルの論文や国際会議の論文は違います。 こういった論文は、新しい知見を読者に伝えるためにあります。読者が必要としている情報、知りたい情報を、過不足なく書く必要があります。 自分の苦労話や、横道に入るような研究は書く必要はあ

  • アメリカ発の新しいサービスについて一気に調べてみた | 神泉で働くたまごのブログ

    Crunchies Awardが始まった。新しいサービスを考えるきっかけになればいいなと思って、載っているサービスについて少しずつ調べてみた。 Chartbeat 簡単にいうとGoogle Analyticsのリアルタイム版。特定の瞬間にどのようなユーザーが訪れているのかを調べてくれる。 アカウントを登録するときにクレジットカードの番号が必要なので、アカウントは作らなかったが、いまなら30日無料で使えるようだ。 Google Analyticsと違うところは、リアルタイム性と時間軸の細かさ。秒単位で分析が可能で、たとえばピークに達した瞬間のユーザーデータの分析などをできるようだ。 Chartbeat | CrunchBase Profile デモ画面:chartbeat – avc.com 各瞬間にChartbeatが同時並行的に調べているユーザサイトが200万を突破 ウェブサイトの

  • TechCrunch | Startup and Technology News

    It was a very busy week in the world of fintech, which certainly kept us on our toes. We covered a couple of notable M&A deals (including one of the biggest of the year so far), a different kind o

    TechCrunch | Startup and Technology News
  • 情報検索ことはじめ〜教科書編その2 (2011年決定版) 〜 - シリコンの谷のゾンビ

    しばらく情報検索に関わるブログ記事を書いていなかったけれど,「情報検索ことはじめ〜教科書編〜」から丸2年が経過し,Modern Information Retrievalの第二版が発売されたことで,2011年版を書いてみようと思ったので,ここ2年で発売された情報検索の教科書について書くことにする. あの頃は検索を勉強し始めて8ヶ月のペーペーだったけれど,そのまま加算すると,どうやら2年8ヶ月になるらしい.「まるで成長していない…」とか某安西先生につぶやかれそうな気がするけれど,自分のことは棚に上げて,この2年間に新たに出版された教科書を紹介したいと思う. さて,例によって若輩の主観と独断と偏見にまみれた記事になっています.誤りの指摘,違ったご意見があれば,コメント頂けると幸いです. 情報検索の教科書 この2年で出版された教科書的存在の文献は3冊.それぞれ紹介する.以下の3冊の共通点としては

    情報検索ことはじめ〜教科書編その2 (2011年決定版) 〜 - シリコンの谷のゾンビ
  • ごりゅご.com

    ごりゅご.com

  • Best Paper Awards in Computer Science

    Collection of best paper awards for 32 computer science conferences since 1996 This is a collection of best paper awards from conferences in each computer science subfield, starting from 1996. Originally, the broadest representative conference for each subfield were selected to be included. This data was entered by hand from sources found online (many of them no longer available), so please email

  • EMNLP 2010 の論文紹介 / 自然言語処理勉強会@東京 #3 - 木曜不足

    この記事は 第3回 自然言語処理勉強会@東京 での発表資料です。 EMNLP 2010 (The 2010 Conference on Empirical Methods on Natural Language Processing) の論文を4+5紹介しています。質より数で勝負。 論文を広く浅く読むススメ(仮) 「たまたま手近にあった方法論」に固執する可能性 by 持橋さん (IBIS 2010 のオープニングセッションにて) 例)関係ない、関心ない、難しくてわかるわけないから(読んでも|聞いても)ムダ 例)読めそうな、わかりそうな論文だけ読む 例)とりあえずナイーブベイズ、その枠内でどこまでも泥臭く 論文を手当たり次第に、広く浅く読んじゃおう 1あたり1〜2時間 目安は「twitter で2,3回つぶやけるくらい」(ぇ もちろんちゃんと読む論文はちゃんと読むんだけどね でも、まだ

    EMNLP 2010 の論文紹介 / 自然言語処理勉強会@東京 #3 - 木曜不足