タグ

2017年5月11日のブックマーク (7件)

  • Deep Learning Virtual Machine - AWS Deep Learning AMIs - AWS

    Scale distributed machine learning (ML) training to thousands of accelerated instances and seamlessly deploy models for inference in production. Develop on accelerators—including AWS Trainium, AWS Inferentia, and NVIDIA GPUs—with the newest drivers, frameworks, libraries, and tools.

    Deep Learning Virtual Machine - AWS Deep Learning AMIs - AWS
    tsu-nera
    tsu-nera 2017/05/11
    良さげ
  • 人工知能のコア技術を持つベンチャーはなぜ富士通とタッグを組んだのか - 週刊アスキー

    ベンチャーと大企業での理想的なイノベーションはどのようにして起こるか。「富士通アクセラレータプログラム」を題材に、参加ベンチャーの声をもとに協業現場の最前線を聞いてみた。 4月18日、ベンチャーと富士通AIサービスの共同開発で協業するリリースが発表された。富士通によるオープンイノベーション取り組みの一環である、「MetaArc(メタアーク)ベンチャープログラム」の第3期における成果の1つとして、株式会社GRID(グリッド)との新サービスの共同開発を行うというものだ。 グリッドは太陽光発電を中心とした再生エネルギー開発をメインに据えて、2009年に創業したベンチャーだ。太陽光パネルメーカーとしてビジネスをスタートしたが、現在では太陽光発電での発電所開発やマネジメント事業などを行なっており、ミドルステージと言える規模となっている。 そのようなクリーンエネルギー事業と並行して同社が力を入れてい

    人工知能のコア技術を持つベンチャーはなぜ富士通とタッグを組んだのか - 週刊アスキー
    tsu-nera
    tsu-nera 2017/05/11
  • EmacsでJava開発をする @ 2017 - たごもりすメモ

    仕事でそれなりにまとまったJavaのコードを書くので、ちょっと真面目に手元の環境をアップデートしようと思ったらいろいろあったので、メモを兼ねてまとめる。なお手元の環境のアップデートにともない、次のエントリを大きく参考にさせていただきました。多謝。 qiita.com なおそれまでの環境は EmacsでJavaを書く - nekop's blog を元にだいぶ前に整備したもので malabar-mode をずっと使ってたんだけど、Java8 Lambdaでインデントが崩れるとかいろいろあってちょっとストレスフルだったのが主なアップデート動機。 環境は OS X El Capitan *1 + Emacs 25.2 で、全面的に MELPA をつかってパッケージ管理やっている。 結論 最終的には ENSIME (の ENJINEモード) を使っている。これでコンパイルエラーを出すとかメソッド

    EmacsでJava開発をする @ 2017 - たごもりすメモ
    tsu-nera
    tsu-nera 2017/05/11
  • 絵で理解するWord2vecの仕組み - Qiita

    皆さん、Word2vec の仕組みはご存知ですか? Word2vec は gensim や TensorFlow で簡単に試せるので使ったことのある方は多いと思います。しかし、仕組みまで理解している方はそう多くないのではないでしょうか。そもそも家の論文でも内部の詳細については詳しく解説しておらず、解説論文が書かれているくらいです。 記事では Word2vec のモデルの一つである Skip-Gram について絵を用いて説明し、概要を理解することを目指します。まずは Skip-Gram がどのようなモデルなのかについて説明します。 ※ 対象読者はニューラルネットワークの基礎を理解しているものとします。 どのようなモデルなのか? Skip-Gram はニューラルネットワークのモデルの一つです。Skip-Gram は2層のニューラルネットワークであり隠れ層は一つだけです。隣接する層のユニット

    絵で理解するWord2vecの仕組み - Qiita
  • Word2Vec Tutorial - The Skip-Gram Model · Chris McCormick

    This tutorial covers the skip gram neural network architecture for Word2Vec. My intention with this tutorial was to skip over the usual introductory and abstract insights about Word2Vec, and get into more of the details. Specifically here I’m diving into the skip gram neural network model. The Model The skip-gram neural network model is actually surprisingly simple in its most basic form; I think

    Word2Vec Tutorial - The Skip-Gram Model · Chris McCormick
  • Emacs から Atom に乗り換えた - an odd fellow

    エディタを Emacs から Atom に乗り換えた。 最近は jupyter notebook でざっと書いて Python スクリプトに清書することが多いんだけど、効率的が悪いし何か良い方法は無いかと色々探していたところ Atom に hydrogen という良いプラグインを見つけたので良い機会だったし Emacs から Atom に乗り換えた。 正確には Spacemacs から Atom に乗り換えた。Spacemacs は良かった。良かったがゆえに最初からきちんともろもろ使い良く揃っているエディタの良さにも気づいてしまった…。 atom.io この GIF が全てを物語ってる。jupyter のセルでやってることをピュアな Python スクリプト内で出来るのでコピペの手間が無くなった。 .atom の管理 当然エディタの設定は git で管理して他の環境でも使えるように git

  • 雑記: 交差エントロピーって何 - クッキーの日記

    機械学習をしているとよく交差エントロピーを最小化させられると思います。 でも冷静に考えると交差エントロピーが何かよくわかりませんでした。むしろエントロピーがわかりませんでした。 以下の記事を読み、もっと無理がない例で短くまとめたかったのですが、やはり例に無理があり、長くなってしまいました。参考文献 情報理論を視覚的に理解する (1/4) | コンピュータサイエンス | POSTD 情報理論を視覚的に理解する (2/4) | コンピュータサイエンス | POSTD 情報理論を視覚的に理解する (3/4) | コンピュータサイエンス | POSTD 情報理論を視覚的に理解する (4/4) | コンピュータサイエンス | POSTD ニューラルネットワークと深層学習 以下はこれら記事の劣化アレンジです。 A国、B国、C国があります。 A国では、一日の天気は25%ずつの確率で晴れ、曇り、雨、雪にな

    雑記: 交差エントロピーって何 - クッキーの日記
    tsu-nera
    tsu-nera 2017/05/11