タグ

2016年9月29日のブックマーク (15件)

  • GitHubのコード検索 : プログラマにとっての宝の山 | POSTD

    新しい言語やフレームワークを学ぶことは、時には苦闘になることがあります。従来のアプローチは、概念を説明し簡単な例を提供するドキュメントを読むことです。それで十分な場合もありますが、ドキュメントに高度な例や実際のプロジェクトでの使い方が書かれていない場合も多々あります。 ドキュメントに記載されていない問題に出くわすと、大抵の人はStack Overflowで解決策を探します(またはソースコードを丹念に調べます)。しかし、「使っているフレームワークが登場してから十分に期間が経っておらず、思い浮かぶ質問全てにStack Overflowが答えてくれない」ということもありえます。 今まで問題にはまって、こう考えたことはありませんか? 「誰かが既にこの問題を解決しているはずだ!では、なぜこの問題に対する答えがStack Overflowにないのだろうか?」 そのとおりです。恐らく誰かは既にそれを解決

    GitHubのコード検索 : プログラマにとっての宝の山 | POSTD
    stealthinu
    stealthinu 2016/09/29
    なるほど、言語とかファイル名とか拡張子とかで絞込できるのか。ちょっとした工夫でだいぶ探しやすくなるのだな。
  • フリーランスを休業して就職します - その後のその後

    2014年からフリーランスiOSプログラマとして活動を始めて2年と8ヶ月。フリーランスという働き方は自分には最高にしっくりきてて、毎日楽しくお仕事させていただいてたのですが、色々とタイミングが重なりまして、タイトルの通り、いったん休業して「会社員」になることにしました。 どこに就職するのかと言いますと、サンフランシスコにあるFyusionというスタートアップにジョインします。 無事H-1Bビザが通りまして、ちょうど昨日、スタンプの押されたパスポートが郵送されてきたところです。 フリーランスとしての実績もまとめたいところですが長くなるのでここでは省略して、ご報告の意味でも、自分の考えを整理しておく意味でも、就職することにした経緯や理由等を書いておこうと思います。 経緯 上述しましたが、僕はフリーランスという立場を100%楽しんでいましたし、海外企業も含めて「就職」したいという願望はありません

    フリーランスを休業して就職します - その後のその後
    stealthinu
    stealthinu 2016/09/29
    このスピード感で話が進んでさらに『CEO, CTO, その他ファウンダー陣全員が毎日ゴリッゴリにコードを書いている』とかもう向こうのスタートアップとの自分との温度差がすごすぎて…
  • TechCrunch | Startup and Technology News

    William A. Anders, the astronaut behind perhaps the single most iconic photo of our planet, has died at the age of 90. On Friday morning, Anders was piloting a small…

    TechCrunch | Startup and Technology News
    stealthinu
    stealthinu 2016/09/29
    ブ米でこれをみなが脅威と言っている感覚がわからん。すでに日本は皆ついてけてないのだから今後もある程度開かれた場で進化を見れるってだけでもこっちにとってはありがたい話では。
  • ボトムアップ組織のマネジメントとは何なのか

    いま所属している会社は、ボトムアップな会社ということになっている。正確にはボトムアップとトップダウンが混在していてたまにミスリーディングなのだが、だいたいはボトムアップな会社といえるだろう。 それで、たまに、学生と会ってくれといわれて、うちの会社がボトムアップの会社なんですよ〜、と話すことがある。だがこのボトムアップというやつ、採用活動では『いかに若いうちから活躍できるか』をぐいぐいアピールするための文句ではあるのだが、実際、現場でどういうコミュニケーションになっているのか、あまり説明されない。どういう会社が「良い」ボトムアップの会社なのか、わりとみんな意識していない。 とりあえず適当に若いのに丸投げてみたら、いつの間にかイケてる提案を持ってきた、なんてことは、ありえない。それを実現するためには、上司側の見えない努力がたくさん必要なのだ。 こんなマニアックな話をしている人は多くないと思うの

    stealthinu
    stealthinu 2016/09/29
    ボトムアップのプロジェクトの作り方。ボトムアップで一番大切なのは部下に対して「背景の意識すり合わせ」であとは交通整理と権限委譲をしっかりやること。
  • 2015年振り返り

    2015 年も残りわずか数時間です. 今年もおつかれさまでした. 個人的に今年を振り返りたいと思います. Deep Learning 個人的に一番大きかった出来事はやはり Chainer でした. Theano や Torch7 がつらくて,特に RNN をもっと直感的にかけないものかと社内で議論していて,そのうちにできる気がしてきて作りました. こんなに大事になるとは思っていませんでした. 見知らぬ人が使ってくれているのを見ると,すごいことになったなと思います. さて,Deep Learning の中身の話としても,今年もいろいろと進展がありました. 最もインパクトがあったのは,BatchNormalization ではないかと思います. もともと ImageNet のタスクで出てきた手法ですが,汎用性が高く,今までうまく最適化できなかったいろいろな NN がこれのおかげで成功し始めてい

    stealthinu
    stealthinu 2016/09/29
    2015年のディープラーニングによる画像生成手法の流れがまとめられてる。それを2016/10になろうとしてる時に読んでブクマしてる、というのもなんだが…
  • MNIST for ML Beginnersの数学的な意味合い - neuralnetな日記

    Tensor flowの初めの一歩のチュートリアルであるMNIST For ML Beginners について、数学的な意味合いを書いてみようと思います。 (ブログに不慣れなもので、修正/継ぎ足しながら公開していくことをお許しください) まず、このチュートリアルで実行していることは、 入力がn次元の配列 (は実数)が複数個あった時 、個々の出力 ()を得る写像を用意して、出力が 個々のに対する解 (あるz=1以外はz=0) に近い結果を得れるように、Fを最適化することです。 ここで、の各要素 は実数と書きましたが、これは概念上の話であり、プログラムの実装上ではfloatになります。以後、集合(つまり配列)の要素は数学上は実数ですが、プログラム上はfloatであると考えて下さい。は、となるm個の(実数の)集合です。また任意の要素は0以上であり、したがって、は0から1までの値をとることになりま

    MNIST for ML Beginnersの数学的な意味合い - neuralnetな日記
    stealthinu
    stealthinu 2016/09/29
    softmax関数のニューラルネットでの意味についての解説もあり3次元でのグラフ化したものもあって視覚的に理解が出来る
  • [DL]SoftmaxとCross Entropyって何? - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

    [DL]SoftmaxとCross Entropyって何? - Qiita
    stealthinu
    stealthinu 2016/09/29
    softmax関数のニューラルネットでの意味についての解説
  • G社のNMT論文を読んでみた

    1. Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation 中澤 敏明 2016年 黒橋・河原研 夏の勉強会 http://arxiv.org/abs/1609.08144 2. NMTの問題点 1. トレーニングも翻訳も(PBSMTに比べて)遅い 2. 低頻度語の翻訳が弱い – 既存手法はattentionに頼っているが、attentionは 信頼性が低い • Addressing the Rare Word Problem in Neural Machine Translation • On Using Very Large Target Vocabulary for Neural Machine Translation – 翻字(transl

    G社のNMT論文を読んでみた
    stealthinu
    stealthinu 2016/09/29
    Googleの新翻訳エンジンNMTの中身について。ディープラーニングで層を深くするためにresidual connectionの導入とかがあった。あとは莫大なデータと計算力。最後の結論の投げっぷりが良すぎたw
  • [Survey]Deep Residual Learning for Image Recognition - Qiita

    Deep Residual Learning for Image Recognition Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun ImageNetのCompetitionで1位になったMSRAの論文 ・network層をdeepにすることは性能向上に欠かせない。 ・しかし、Deepにすると性能が向上せずに悪くなることが知られている。(下のグラフ) ・これらはOverfittingによるものではなく、勾配が0になったり、発散したりするため。 これを解決しようというのがこの論文の趣旨 Residual Network 普通のNetwork $H(x)$が所望するmapping(求めたい変換) 2 weight layerをH(x)になるように学習する Residual Network ・$x$をshortcutして足し合わせると$H(

    [Survey]Deep Residual Learning for Image Recognition - Qiita
    stealthinu
    stealthinu 2016/09/29
    residual connectionというひとつ前の層の入力を出力層にそのまま足し合わせて学習する方法。入力から最適な出力学習するという問題を残差を学習するという問題に置き換えることで最適化しやすくする。
  • IIBMP2016 深層生成モデルによる表現学習

    IIBMP2016(第五回生命医薬情報学連合大会)での招待講演の内容です。深層学習を生成過程の問題としてとらえて、なぜ表現を学習できるのかを説明した後に,深層生成モデル(VAE, GAN, 少しだけ自己回帰モデル, エネルギーモデル, モーメントマッチングモデルを紹介します。Read less

    IIBMP2016 深層生成モデルによる表現学習
    stealthinu
    stealthinu 2016/09/29
    VAEと敵対的生成GANの話がすごくおもしろい。ディープラーニングまわりはほんとどんどん新しいアイデアが出て進んできてる。特にデータ生成関連が伸びてる感じ。
  • THE PAGE(ザ・ページ) | 気になるニュースをわかりやすく

    stealthinu
    stealthinu 2016/09/29
    こないだ隊長がシェアしてた白馬でフリーライドの大会するやつの記事。てっきりパーク系のかと思ってたのだがBC系の方の大会なのか。すごく良いと思うのだけどただやはり事故は心配だな。
  • Google翻訳、深層学習による新システムで人に迫る自然で正確な翻訳を実現

    Googleは9月27日(現地時間)、ディープラーニング技術を活用した新しい翻訳システム「Google Neural Machine Translation (GNMT)」の開発を公表した。いくつかの言語ペアでは人間の翻訳に近い自然な表現で正確な翻訳を実現する。同社はすでにGoogle翻訳の中国語-英語でGNMTを用いたサービスの提供を開始しており、数カ月をかけて他の言語にも拡大していく。 Google翻訳にはサービス開始からフレーズベースのマシン翻訳(PBMT)技術が用いられてきたが、PBMTでは入力されるセンテンスが単語とフレーズに分けられてバラバラに訳される。Googleの研究者は2014年から、リカレントニューラルネットワーク(RNN)を用いて入力言語のセンテンスと出力される翻訳された言語のセンテンスを直接マッピングする研究を進めてきた。NMTは入力センテンス全体を1つのユニット

    Google翻訳、深層学習による新システムで人に迫る自然で正確な翻訳を実現
    stealthinu
    stealthinu 2016/09/29
    このレベルでの10%とかの進歩ってものすごい進化のはず。スペイン語やフランス語だとほぼ人間の翻訳者レベル。今後は超えるのでは。中国語もきっとこれからまだまだ伸びるはず。日本語がグラフにないのが悲しい…
  • 「人口減を悔やむ発想から早く飛び出せ」 自民・小泉氏:朝日新聞デジタル

    小泉進次郎・自民党農林部会長 人口減少は不可避です。仮に明日、出生率が人口を維持できるという2・07にいきなりなったとしても、日の人口減は当面止まりません。だとしたら、今我々が持つべき発想はなんでしょうか。 皆さんは将来に悲観的な1億2千万人の国と、未来に楽観的で自信を持つ6千万人の国だったら、どちらの方が未来があると思いますか。極端な例かもしれませんが、私は悲観的な1億2千万人の国より楽観と自信を持った6千万人の国の方がよっぽど強いと思う。 最大の日の課題は、人口減少と少子化にある。その打開策は、毎年減り続けることを悔やむ発想から早く飛び出して、減る中でもやっていけるという成功例を生み、人口減少でも大丈夫だという楽観と自信を生むこと。それが結果として将来、人口が下げ止まる環境を作り、新たな日の発展への道を描く。私はそういう考えでいます。(東京都港区での講演で)

    「人口減を悔やむ発想から早く飛び出せ」 自民・小泉氏:朝日新聞デジタル
    stealthinu
    stealthinu 2016/09/29
    批判ブ米の言いたいことはわかるのだが後ろ向きにばっか考えててもなんともならんので前向きにも考えようという意見には同意したい。
  • TensorFlowによるアイドル顔識別器の話 - 2016.9.28 TensorFlow勉強会 - Qiita

    自己紹介 すぎゃーん (id:sugyan) Web系エンジニア ドルヲタ歴5年ちょい TensorFlowで機械学習に入門 (2015.11〜) はてなブログ書いてます すぎゃーんメモ http://memo.sugyan.com/ アジェンダ アイドル顔識別について 学習用データセットの収集・作成 モデルの評価と実験 収集したデータを使った顔画像生成 アイドル顔識別について 問題設定 「入力した画像に対し、写っているのが『どのアイドル(人物)か』を機械学習により自動判定する」 画像内の顔領域検出 こちらは別タスク (Cloud Vision APIなど) 抽出した顔部分の分類 この分類器を作っている、という話 Deep Learning による画像分類 TensorFlowチュートリアルの最初の例 畳み込みニューラルネットワークを使った CIFAR-10 などの画像分類 学習には大量の

    TensorFlowによるアイドル顔識別器の話 - 2016.9.28 TensorFlow勉強会 - Qiita
    stealthinu
    stealthinu 2016/09/29
    すぎゃーんさんのアイドル顔識別のTensorFlow勉強会での発表資料。これまでのブログ記事のまとめ的内容。やっぱデータを集めるところが一番大変、という。
  • 20160928-meganeco

    「TensorFlowで趣味の画像収集サーバーを作る9月特大号」 TensorFlowによる認識処理の高速化と新データセットでの訓練・評価検証

    20160928-meganeco
    stealthinu
    stealthinu 2016/09/29
    アニメ顔画像認識の実際のこと。この事例からでもニューラルネットワークの性能も大事だろうが多数のデータを準備することの重要性がわかる。