Unlike Light’s older phones, the Light III sports a larger OLED display and an NFC chip to make way for future payment tools, as well as a camera.
Unlike Light’s older phones, the Light III sports a larger OLED display and an NFC chip to make way for future payment tools, as well as a camera.
機械学習のAIシステムは多くの場合、どのような判断に基づいて結論を導き出したのかを説明できない。信頼のおけないテクノロジーを、医学や金融、軍事などの重要な分野に適用してよいのだろうか。 by Will Knight2017.06.29 102 24 10 0 半導体チップ・メーカーのエヌビディア(Nvidia)は、どのような仕組みで動いているのかがわかる自動運転の人工知能(AI)システムを開発している。 最近のカバーストーリー、「人類に残された、AIを信用しない、使わない、という選択肢」で説明したように、最も強力な機械学習手法で作られたソフトウェアは、多くの場合、なぜそう判断したのかを本質的に説明できず、開発したエンジニア自身にさえもわからない。AIは今後、医学から製造業にいたるまであらゆる分野に革命的な変化をもたらす可能性のあるテクノロジーだ。AIがどのような仕組みで動いているのかを調べ
NVIDIAは、Deep Learning Institute(DLI)を通じて10万人の開発者を教育する計画を発表した。 NVIDIAにとって、機械学習と人工知能(AI)の分野で開発者をトレーニングする取り組みであるDLIは、これらの専門家を養成する手段であり、いずれはGPUの売り上げ増加につながる可能性がある。 NVIDIAが賭けに出る背景には、調査会社IDCの推計がある。IDCによると、2020年までに、あらゆるアプリケーションのうち80%がAIをコンポーネントとして組み込むようになるという。 NVIDIAのDLIは1年前に設立された組織で、学術機関、企業、政府機関でトレーニングイベントを開催している。DLIはこれまで、Amazon Web Services(AWS)のGPUインスタンス「Amazon Elastic Compute Cloud(Amazon EC2)P2」を利用して
こちらは、「NVIDIA® Deep Learning (深層学習)」を開発するPC(ワークステーション、サーバー)に必要な開発環境を構築する方法の概略や、構築に参考となる情報を集めたページとなります。 各々の情報のサイト・リンク情報、NVIDIA® CUDA、CUDA GUP ドライバー、NVIDIA® DIGITS、cuDNN、フレームワーク(Caffe、theano、torch、BIDMach)などをダウンロード、インストールする方法の概略情報があります。 既に Deep Learning の開発環境をお持ちの方も、また、これから導入を考えておられる方にも、何かのご参考になれば幸いです。 インテル® Xeon® プロセッサや、Xeon® Phi™ x200 プロセッサ(Knights Landing)を使用した場合の Deep Learning 開発に関しての情報はこちらをご覧くださ
Researchers from Adobe, the Beckman Institute for Advanced Science and Technology, and University of Illinois at Urbana-Champaign have developed a deep learning-based method called "Deep Image Matting" that can automatically remove objects from photos and videos.The "Deep Image Matting" method works by learning the structure of the color channel in an image that contains transparency information,
最近の株式市場もAIブーム。その中で最も注目されている銘柄が米半導体メーカーNVIDIA(エヌビディア)。同社の株価もすごいことになっているが、最近では同社と提携する企業の株価も高騰する傾向にある(関連記事:AI相場“中核”、NVIDIA関連の「神通力」)。 果たしてNVIDIAは、このままAI時代の覇者として逃げ切ることになるのだろうか。日本法人のDeep Learning部長の井崎武士さんにお話を聞いた。(ITジャーナリスト・湯川鶴章) 2000個のCPUの計算を12個のGPUで実現 そもそもNVIDIAって、いつAI企業になったのだろう。ゲーム用半導体のメーカーと認識していたのは僕だけじゃないはず。 世界中のAIの研究者がNVIDIAのGPU(Graphics Processing Unit)に注目したのは2012年といわれる。Googleが2000個のCPU(Central Pro
2021-03-292016-06-02 NVIDIA、「GTC 2016 ディープラーニング最新情報(画像認識、音声認識)」レポート 先日行われた「NVIDIA Deep Learning Day 2016 Spring」で発表された、「GTC 2016 ディープラーニング最新情報について」、エヌビディア合同会社 エンタープライズビジネス事業部DL ビジネスデベロップメント シニアマネージャー 井﨑 武士氏より発表があった。 エヌビディア合同会社 エンタープライズビジネス事業部DL ビジネスデベロップメント シニアマネージャー 井﨑 武士氏 この記事では画像認識、音声認識についての内容をお届けする。 アリババグループによるディープラーニングを使った画像サーチ アリババが提供するサービスの中で、カメラで撮った写真を元に商品を検索するサービスがあるそうだが、これまでの商品の特長抽出は難しかっ
NVIDIA RTX 6000Ada と RTX PRO 6000 Blackwell Max-Qを用いて、 画像生成における推論速度を比較 NVIDIAのBlackwell世代では、4ビット浮動小数点(FP4)精度の量子化対応が正式にサポートされ、従来よりもはるかに低い精度での高速かつ効率的な推論が可能となりました。 これにより、特に画像生成タスクにおける処理速度と精度が著しく向上しました。 システム要件 ベンチマーク機種:DeepLearningBOXⅢ GPU:GPUはそれぞれ1基 CPU:1x Intel Xeon w7-3565X マザーボード:ASUS-PRO/WS/W790E-SAGE/SE (Intel W790 チップセット) MEM:128GB DDR5-4800 ECC ストレージ:M.2 NVMe SSD 1TB 電源:HX1500i × 2 NVIDIA RTX
NVIDIA DGX-1はサーバー250台分のスループットを実現し、人工知能で求められる大量コンピューティングに対応 米国カリフォルニア州サンノゼ—GPUテクノロジ・カンファレンス—2016年4月5日― NVIDIA(本社:米国カリフォルニア州サンタクララ、社長兼CEO:ジェンスン・フアン(Jen-Hsun Huang)、Nasdaq:NVDA)は本日、人工知能(AI)で要求される無制限のコンピューティングに対応する世界初のディープ・ラーニング・スーパーコンピュータ、NVIDIA® DGX-1™を初公開しました。 NVIDIA DGX-1は、ディープ・ラーニングに特化して設計された初のシステムで、ハードウェア、ディープ・ラーニング・ソフトウェア、および開発ツールを余すところなく統合し、開発を迅速かつ容易にします。このシステムはすぐに稼働可能な状態で提供され、新世代のGPUアクセラレータを搭
Nvidiaが2016年 GPUテクノロジーカンファレンスで、DGX-1 Deep Learning System を発表した。このシステムはNvidia最新のTesla GP100グラフィックカードを使い、半浮 動小数点でのパフォーマンスは170TFlopに至るという。 多くのPCファンにとってはどうでもいいことのようにも思えるが、市場に出ている中では 一番高価でハイパフォーマンスであるNvidia Titan Xと比べて、性能は12倍にもなる。 Tesla GP100はTSMC 16nm FinFETの製造工程で造られ、High Bandwidth Memory(HBM2)が初めて使われる製品でもある。両方を同時に使ったものを出すのは Nvidiaが最初だ。Samsungは16nmプロセスを2015年から使ってはいるが。 新しい製造プロセスによってGPUをスリム化する代わりに、Nvid
2021-09-072016-04-07 NVIDIA、ディープ・ラーニング・スーパーコンピュータを発売 NVIDIAは、人工知能(AI)で要求される無制限のコンピューティングに対応するディープ・ラーニング・スーパーコンピュータ、NVIDIA® DGX-1™を初公開した。 NVIDIA DGX-1は、ディープ・ラーニングに特化して設計されたシステムで、ハードウェア、ディープ・ラーニング・ソフトウェア、および開発ツールを余すところなく統合し、開発を迅速かつ容易にする。このシステムはすぐに稼働可能な状態で提供され、新世代のGPUアクセラレータを搭載し、x86サーバー250台分のスループットを実現する。 DGX-1ディープ・ラーニング・システムにより、研究者やデータ科学者は、GPUで加速された計算機能をたやすく活用して、人間のように世界を学び、理解し、知覚する、新たなクラスのインテリジェント・マ
cuDNNはNVIDIAが公開しているDeep Learning用のライブラリである。このライブラリを使うとCaffeやChainerなどのDeep Learning用のソフトウェアの速度が向上する。 この速度向上に寄与している最も大きな部分がConvolutionの高速化である。 個人的には、CPUでどこまで高速にConvolutionが実現できるのかに興味がある。本記事は、その準備段階として、どういう高速化戦略がありえるのかを調べたものである。 ConvolutionとはConvolutionは、日本語では畳み込みと呼ばれる操作である。畳み込み操作自体は何次元のデータ構造に対しても定義できるが、以下では、画像処理でよく使われる、二次元のConvolutionのみを考える。 何も考えずに普通にConvolutionを実装すると、以下の擬似コードのようになるだろう。ただし、簡単のため、境界
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く