NVIDIA が世界中の AI を強化。そして、あなたの AI も。 NVIDIA GeForce RTX™ GPU を使用して高度な AI にアップグレードし、ゲーム、クリエイティブ制作、開発を高速化します。
2018/12/16追記 いつの間にかOSXのGPU公式サポートはなくなったみたいなので、それでもGPU使いたい方はこちらのドキュメントが参考になるかもしれません。 Tensorflow 1.6 on macOS High Sierra 10.13.3 with GPU Acceleration (without disabling SIP) 2017/2/17追記 Tensorflow 1.0.0から簡単にインストールできるようになったので公式ドキュメントに従うことをおすすめします。 https://www.tensorflow.org/install/install_mac #cuda8.0 $ brew upgrade $ brew install coreutils $ brew cask install cuda #cuDNN v5.1 Library for OSXをダウンロー
by Alex Chen, Justin Basilico, and Xavier Amatriain As we have described previously on this blog, at Netflix we are constantly innovating by looking for better ways to find the best movies and TV shows for our members. When a new algorithmic technique such as Deep Learning shows promising results in other domains (e.g. Image Recognition, Neuro-imaging, Language Models, and Speech Recognition), it
TL;DR← 下記の2記事を読めば終わり。 EC2でCUDAを使いたい GPUインスタンス上でDocker使ってCaffeしたい はじめに どうも、情弱太郎です。 最近、ディープラーニングという言葉は持て囃されていますね。 昔のビックデータのそれを思い出しました。 その辺のオジサン(sucks)が部下に『ほら、最近パソコンがネコ分かるようになった、あー、あれ、ドープラーニングだっけ?アレでなんかできないの?』って言われたときに対応できるようにしておきたくなったので、ディープラーニングしてみることにしました。 ディープラーニング、いろいろ実装があるみたいです。 最近だと https://github.com/NervanaSystems/neon これも良さげですが、使い方が全く分からないです。 なんだかんだでCaffeってのがドキュメントちゃんとしてる風なので、Caffeをやってみることに
Sometimes awesome things happen in deep rabbit holes. Or not. Using a pre-built public AMI Based on the instructions in this blog post, I’ve created an AMI and shared it publicly. So the easiest thing to do is just use that pre-built AMI: Image: ami-2cbf3e44 for US-East or ami-c38babf3 for US-West (Ubuntu Server 14.04 LTS (HVM) – CUDA 6.5) Instance type: g2.2xlarge (if you skip this step, you won’
Torch7やTheano、CaffeといったライブラリをGPU上で実行するために必要となるCUDA環境の構築について基本的な情報と、よくひっかかる点やその解決方法を示します。 注意:GPU環境構築は、環境(ハード構成等)によっては、Linuxの専門的な知識を要する場合があります。 Deep Learning研究において、GPUを利用した計算ができることはほぼ必須だと言っても過言ではありません。これは、GPUを使う場合と使わない場合では数倍から10倍程度、計算時間に差がでるためです。大量のデータを訓練データとして利用することが多いDeep Learningの研究においてこの差は致命的になることが多いです。 GPUの計算環境といっても、いくつかの実装があります。代表的なGPGPU用のライブラリとしては、OpenCLやCUDAが挙げられます。Torch7やPylearn2、Caffeといったメ
データセンター向けの取り組みを進めているNVIDIAが、機械学習の効率を高めるよう設計された新しいプラットフォームを発表した。 NVIDIAがハイパースケールデータセンター向けのエンドツーエンドプラットフォームを手がける目的は2つある。 第1の目的は、開発者に対し、人工知能の技術をベースとしたディープラーニング(深層学習)ネットワークの構築とスマートアプリの開発を促すことだ。これは複数のデータセンターにまたがるディープニューラルネットワークを構築するための新しいアクセラレータの提供という、第2の目的につながっている。 NVIDIAの最高経営責任者(CEO)で共同創業者のJen-Hsun Huang氏は、自動車から医療まで、さまざまな利用機会があることを示唆した上で、機械学習について、「われわれの世代にとって最大のコンピューティング上のチャレンジだ」とまで述べている。 NVIDIAは、このよ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く