Deep neural networks (DNNs) are currently widely used for many artificial intelligence (AI) applications including computer vision, speech recognition, and robotics. While DNNs deliver state-of-the-art accuracy on many AI tasks, it comes at the cost of high computational complexity. Accordingly, techniques that enable efficient processing of DNNs to improve energy efficiency and throughput without
TL;DR reference が充実している点、3,4章のブラケット記法の導入、5章のサンプリングの説明、は良かった 7章以降の物理への応用に関しては、お話的な内容だったりどのくらい嬉しいことなのかぱっと見で判断できないものも多かった 物理の言葉や例で説明されている部分も多く、物理を学んでいる(た)人がディープラーニングを学ぶときに読んでみる本、という印象 \[\def\bra#1{\mathinner{\left\langle{#1}\right|}} \def\ket#1{\mathinner{\left|{#1}\right\rangle}} \def\braket#1#2{\mathinner{\left\langle{#1}\middle|#2\right\rangle}}\] 理論物理の研究者が書いた「ディープラーニングと物理学」が出版されたという話を目にしたので、一通り読ん
理数系ネタ、パソコン、フランス語の話が中心。 量子テレポーテーションや超弦理論の理解を目指して勉強を続けています! 「ディープラーニングと物理学 原理がわかる、応用ができる:田中章詞、富谷昭夫、橋本幸士」(Kindle版)(参考書籍) 内容紹介: 人工知能技術の中枢をなす深層学習と物理学との繋がりを俯瞰する。物理学者ならではの視点で原理から応用までを説く、空前の入門書。物理は機械学習に役立つ!機械学習は物理に役立つ! 2019年6月22日刊行、286ページ。 著者について: 田中章詞: 研究者情報、arXiv.org論文 博士(理学)。2014年大阪大学大学院理学研究科物理学専攻博士後期課程修了。現在、理化学研究所特別研究員(革新知能統合研究センター/数理創造プログラム) 富谷昭夫: ホームページ、Twitter: @TomiyaAkio、arXiv.org論文 博士(理学)。2014年大
はじめに 深層強化学習の分野では日進月歩で新たなアルゴリズムが提案されています. それらを学ぶ上で基礎となるアルゴリズム(というより概念に近い?)はQ学習, SARSA, 方策勾配法, Actor-Criticの4つだと思われるので, これらを軸としてまとめてみたいと思います. 以下の4点はあらかじめご了承ください. コードは書いていません. 概念のみの説明です 他のアルゴリズムの基礎となりうる重要な概念については詳しく書きました. その他については簡潔に書きました 深層学習についてはある程度理解している読者を想定しています 書いているうちに規模がどんどん大きくなってしまったので, どこかに必ず間違いや不足があります. 「この式がおかしい!」「このアルゴリズムも追加するべき!」などコメントがあればぜひお願いします 全体像 扱うアルゴリズムを相関図にしてみました(私のイメージです). まず,
はじめに:Optunaとは 使い方 インストール 最適化問題の例 問題設定 最適化 最適化の結果 ニューラルネットワークのハイパーパラメータチューニング 問題設定 実装 ハイパーパラメータを引数に取り、ニューラルネットワークを構成する関数 ハイパーパラメータを引数にとり、最適化手法を返す関数 ハイパーパラメータを引数に取り、学習済のモデルを返す関数 ハイパーパラメータを引数に取り、最小化したい値を返す目的関数 いざ最適化 はじめに:Optunaとは OptunaとはPFNが世に送り出した最適化枝刈りライブラリです。 Pythonのコードとして機械学習のコードのどこにでも入れることができ、非常に使いやすいAPIとなっています。大体、結構丁寧なサンプル・解説が公式ドキュメントに既にあるので、分かる方は此方を読むのが一番早いでしょう。 Welcome to Optuna’s documentat
昨日試したhyperoptと同じことをoptunaで試してみた。 探索する関数の形 hyperoptで試したものと同じ、2つの説明変数で、極大値が複数ある関数 Z = 10**(-(X-0.1)**2)*10**(-Y**2)*np.sin(5*X)*np.sin(3*Y) optunaによる最適化 optunaでは以下のようにしてパラメータの最適化を行う。 import numpy as np import optuna def objective(trial): x = trial.suggest_uniform('x', -1, 1) y = trial.suggest_uniform('y', -1, 1) return -10**(-(x-0.1)**2)*10**(-y**2)*np.sin(5*x)*np.sin(3*y) study = optuna.create_stud
2018年10月19日金曜日、LeapMindの主要技術である低消費電力FPGA上でディープラーニングを実現するソフトウェアスタック「Blueoil」をオープンソース(OSS)化しました。 Deep Learningをあらゆるモノに適用する「Deep Learning of Things (DoT)」の世界を加速させることを目指す弊社としては、目標とする未来にまた一歩近づいたのではと思っております。 これを機に、多くの人に組込みDeep Learningを導入していただき、私たちの生活にDeep Learningがどんどん浸透していくことを望んでいる次第です。 で、 クローズドソースをオープンソースにするには、いろいろな山を越え、野を駆け、川を渡り、海に沈むなど様々な壁をのりこえる必要が 特にないです。 いや、もちろん、コーディングやOSSに到るまでには考えるのも億劫になるレベルの苦悩や乗
前置き • Deep Learning における, 学習済みモデルの推論のみを扱います • 入力として有向グラフと多次元配列 (画像など) が与えられる • ノード: なんらかの演算を表す (畳み込み, 行列積, シンプルな要素ごとの演算 etc) • エッジ: 演算間のデータフローを表す. 多次元配列 (Tensor) が流れていくイメージ GoogleNet, from Going Deeper with Convolutions 計算グラフ ( Computational Graph) 本日のテーマ Root から各ノードの演算を実行し, 出力を得る. これをとにかく速くやりたい DL 用途に特化した (広い意味での) 最適化コンパイラ → • 内部でどのような処理をしているかをざっくり紹介 • TVM をどのように使うか, などの説明は最小限 高速化のポイント ・各ノードに対応する
Xilinxが買収したディープラーニングのスタートアップ DeePhi Tech(深鉴科技)は清華大学とスタンフォード大学の研究者が、2016年に北京に設立したディープラーニング技術を開発するスタートアップである。コンピュータアーキテクチャ関係のトップクラスの学会である2016年のISCAで最優秀論文賞を受賞するなど、高い技術力を誇る。 DeePhi Techは、その将来性からSamsungやMediaTekなども出資していたが、2018年7月に出資先の1つであったXilinxが買収し、現在はXilinxの一部になっている。DeePhi TechはXilinxのFPGAをディープラーニングのエンジンとして使っており、資本関係だけでなく、研究開発でも両者の関係は深かった。 Hot Chips 30でマシンラーニングプラットフォームについて発表するDeePhi TechのSong Yao CE
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く