![【後藤弘茂のWeekly海外ニュース】 NVIDIAが99ドルでNintendo Switch同等の開発キットを発売](https://cdn-ak-scissors.b.st-hatena.com/image/square/ba025e205eee554abb264514186e156f87aed6e9/height=288;version=1;width=512/https%3A%2F%2Fpc.watch.impress.co.jp%2Fimg%2Fpcw%2Flist%2F1175%2F482%2F1.jpg)
エッジ推論を意識、組み込みプロセッサ「i.MX 8M Nano」:14nm FinFETを採用した第2弾(1/2 ページ) NXP Semiconductorsは、組み込み技術の展示会「embedded world 2019」で、14nm FinFETプロセスを採用した第2弾組み込みプロセッサ「i.MX 8M Nano」や、車載用ゲートウェイに向けたチップセットを発表した。 NXP Semiconductors(以下、NXP)は組み込み技術の国際展示会「embedded world 2019」(2019年2月26~28日、ドイツ・ニュルンベルク)で、組み込み向けのマルチコアアプリケーションプロセッサ「i.MX 8Mファミリー」として、「i.MX 8M Nano」を発表した。 i.MX 8M Nanoは、2018年に発表した「i.MX 8M Mini」に続き、14nm FinFETプロセスを
AIはFPGAのスイートスポット、Xilinxがエッジ推論をデモ:最新ネットワークへの対応が速い(1/2 ページ) Xilinxは、組み込み技術の国際展示会「embedded world 2019」(2019年2月26~28日、ドイツ・ニュルンベルク)で、自動車や監視カメラなどでの推論、いわゆるエッジデバイスでの推論をイメージしたデモを展示した。 Xilinxは、組み込み技術の国際展示会「embedded world 2019」(2019年2月26~28日、ドイツ・ニュルンベルク)で、自動車や監視カメラなどでの推論、いわゆるエッジデバイスでの推論をイメージしたデモを展示した。 機械学習/深層学習は、学習と推論に分けられるが、Xilinxが注力するのは推論のみである。現在、NVIDIAやIntelなどが開発を加速させ、激しい競争を繰り広げている「AI(人工知能)向けチップ」は、基本的に学習向
Armは、「Arm Cortex-M」シリーズ向けのMプロファイルベクトル拡張機能(MVE)「Arm Helium」テクノロジーを発表した。最新の「Armv8.1-M」アーキテクチャの演算能力を強化し、次世代のArm Cortex-Mプロセッサの機械学習性能を最大15倍向上させる。 Armは2019年2月14日、「Arm Cortex-M」シリーズ向けのMプロファイルベクトル拡張機能(MVE)「Arm Helium」テクノロジーを発表した。最新の「Armv8.1-M」アーキテクチャの演算能力を強化し、次世代のArm Cortex-MプロセッサのML(機械学習)性能を最大15倍、DSP(信号処理)性能を最大5倍向上させることができる。 Heliumは、ハードウェアベースのセキュリティ技術「TrustZone」と連携し、Platform Security Architecture(PSA)仕様
(左)手書き数字画像10クラスの「MNIST」という画像データセットにおいて、4層の全結合ネットワークを用いた実験の結果。コンパクト化なしのネットワークから認識精度0.02%の低下で、パラメータ数を83.7%削減可能であることを確認した。(右)一般物体認識のベンチマークとしてよく使われている「CIFAR-10」という画像データセットにおいて、16層の畳み込みニューラルネットワークを用いた実験の結果。認識精度の低下が約1%以内の範囲では、正則化強度を変更することでネットワークのパラメータ数を30~70%程度削減でき、DNNのサイズを柔軟に変更できることを確認した(クリックで拡大) 出典:東芝 スパース化現象が起こる学習条件は3つある。1つ目は、DNNの表現力を高めるために一般的に導入される非線形関数ReLU(Rectified linear unit)を活性化関数として用いる場合だ。2つ目は
1時間6.5ドルでAIを開発できる時代へ――TPUをクラウドで提供したGoogleの真意:画像認識や音声認識にすぐ使える「リファレンスモデル」も公開(1/2 ページ) Googleは2018年6月27日、「Cloud TPU」の本番公開に踏み切った。これは、同社の機械学習用ライブラリ「TensorFlow」の処理を高速化するプロセッサ「TPU」のクラウド版だ。「TPUは外販しない。あくまでクラウドで提供する」と同社が強調する理由とは一体何か。 「従来あった『大規模な投資ができる企業でないと、AIは使えない』というイメージを変えたい。だからこそ、TPUの外部向け販売はせず、顧客にとってメリットの大きいクラウドの形式で提供する」――グーグルでGoogle Cloudのデベロッパーアドボケイトを務める佐藤一憲氏は、2018年7月6日に同社が開いたメディアセミナーに登壇し、そう語った。 Googl
GoogleのTPUって結局どんなもの? 日本法人が分かりやすく説明:CPU、GPUとの違いとは? 機械学習に特化したGoogleの自社開発プロセッサ、「TPU(Tensor Processing Unit)」。Google自身は「Google Search」「Google Translate」「Google Photos」といったサービスで活用している。日本法人がこれについて分かりやすく説明した。 機械学習に特化したGoogleの自社開発プロセッサ、「TPU(Tensor Processing Unit)」。2018年7月6日、日本法人がこれについて分かりやすく説明した。 TPUは、ディープラーニングを高速化するため、Googleが開発したプロセッサ。Google自身は「Google Search」「Google Translate」「Google Photos」といったサービスで活用し
リリース当初と比べてコンテナ数が3倍以上に――NVIDIAが「NVIDIA GPU Cloud(NGC)」で利用できるHPCコンテナを拡充:GPUアクセラレーテッドHPCおよびAIのデプロイのスピードアップを支援 NVIDIAのGPU対応クラウドプラットフォーム「NVIDIA GPU Cloud(NGC)」で利用できるディープラーニングやHPC、可視化といった分野のソフトウェアコンテナ数が、NGCのリリース当初と比べて3倍以上の35個に増えた。 NVIDIAは2018年6月25日(米国時間)、ドイツのフランクフルトで開催された「International Supercomputing Conference」で、同社のGPU対応クラウドプラットフォーム「NVIDIA GPU Cloud(NGC)」で利用できるディープラーニングやハイパフォーマンスコンピューティング(HPC)、可視化といった分
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く