本記事ではウェットで属人的なモデルの作成・学習プロセスをサポートする各種ツールに焦点をあてて整理してみたいと思います。目指せモデルの学習作業のバージョンアップ。 なお、本記事はABEJA Platform Advent Calendar 2018の21日目の記事ですが、本記事ではABEJA Platform自体の解説などは行いません。今回のサーベイ結果を参考に、ABEJA Platformをさらに便利にしていけたらと思って書きました。 本記事で対象とするツール群: 実験管理ツール sacred, artemis, MLflow ハイパーパラメータ最適化ツール hyperopt, SMAC ハイパーパラメータ最適化+実験管理ツール test-tube, randopt, optuna 良いツールが続々と出てきているので、使わない手はないですよ! Tl;dr ツールを使って無作為的な探索実験は
News¶ 2019/12/06: 講義資料Ver 1.1を公開(2019年度版) 2018/12/17: 講義資料Ver 1.0を公開(2018年度版) 本講義資料について¶ 本ページは 日本メディカルAI学会公認資格:メディカルAI専門コースのオンライン講義資料(以下本資料) です. 本講料を読むことで,医療で人工知能技術を使う際に最低限必要な知識や実践方法を学ぶことができます.本資料は全てGoogle Colaboratoryというサービスを用いて執筆されており,各章はJupyter notebook (iPython notebook)の形式(.ipynb)で以下のリポジトリにて配布されています(notebooksディレクトリ以下に全ての.ipynbファイルが入っています): japan-medical-ai/medical-ai-course-materials 想定受講者¶ 受
My twin brother Afshine and I created this set of illustrated Machine Learning cheatsheets covering the content of the CS 229 class, which I TA-ed in Fall 2018 at Stanford. They can (hopefully!) be useful to all future students of this course as well as to anyone else interested in Machine Learning. Cheatsheet • Loss function, gradient descent, likelihood • Linear models, Support Vector Machines,
まいど、大阪の市田です。 本記事は、現在開催中のAWS Summit 2018 Tokyoで行われた事例セッション「【ABEJA 様ご登壇事例】Deep Learning プラットフォームを支える技術」のレポートです。 セッション概要 ABEJA は多くの AWS サービスを活用し、10,000 コンテナ、4,000 を超える IoT エンドポイントを運用しています。このセッションでは、Deep Learning プラットフォーム「 ABEJA Platform 」を支える技術についてご説明します。kubernetes や GPU に加え、Python / Elixir / Go などの多様な言語で実装されたマイクロサービスであるプラットフォームを構築してわかった、AWS をおいしく活用するノウハウをバッドノウハウも含めてお伝えします。 株式会社ABEJA Platform Develop
ABCIシステムは、960基のNVIDIA A100 GPUアクセラレーターを備えた120台の計算ノード(A)、4,352基のNVIDIA V100 GPUアクセラレーターを備えた1,088台の計算ノード(V)、合算で約47PBの容量を有する共有ファイルシステム及びABCIクラウドストレージ、これらを相互接続する高速なInfiniBandネットワーク、ファイアウォールなどからなります。 □ ABCIシステム概要 特 長 □ 計算ノード(A) 計算ノード(A)は、8基のNVIDIA A100 GPUアクセラレーターと2基の第3世代Intel Xeonスケーラブルプロセッサー(開発コード: Ice Lake) 、NVMe SSD 2基、512GiB DDR4メモリを備えます。 計算ノード(A)の単体性能は、2506 AI-TFLOPSで人工知能研究の機械学習に必要とされる半精度浮動小数点の演算
本記事について 本記事では、Deep Learningを用いた学習の要となる学習率の決め方、また学習率更新関数の決め方ご説明します。 これから説明する方法は、米国で数多の機械学習エンジニアを輩出している学習講座 fast.ai に取り入れられている手法で、その手法はDeep Learningフレームワークに導入、または導入検討されているものです。 この学習率決定法・更新関数は導入が簡単な割に、精度が数%上昇したり既存の精度までに到達する学習時間(Epoch数)が半分以下なるため、取り入れないのはもったいないと思いから記事にしました。 この記事は fast.ai 及び 論文『Cyclical Learning Rates for Training Neural Networks』を参考しにしています。 初期学習率の決め方: LR range test LR range testとは 初期学習
Recent hardware developments have dramatically increased the scale of data parallelism available for neural network training. Among the simplest ways to harness next-generation hardware is to increase the batch size in standard mini-batch neural network training algorithms. In this work, we aim to experimentally characterize the effects of increasing the batch size on training time, as measured by
人工知能技術戦略会議等主催 第1回AIチャレンジコンテスト 表彰式 プレゼンター(敬称略、五十音順) 2 安西 祐一郎 人工知能技術戦略会議 議長、独立行政法人日本学術振興会 理事長 大崎 真孝 エヌビディア合同会社 日本代表 兼 米国本社副社長 大渕 栄作 株式会社ディジタルメディアプロフェッショナル 常務取締役開発統括部長 齊藤 秀 株式会社オプト 最高解析責任者CAOデータサイエンスラボ代表 成田 一生 クックパッド株式会社 最高技術責任者 宮内 淑子 株式会社ワイ・ネット 代表取締役社長 AIチャレンジコンテスト 概要 ■趣旨 国内の学生・社会人を幅広く対象として、先端的な人工知能技術の開発とビ ッグデータ活用の能力を競う場として、「AIチャレンジコンテスト」を開催。 人工知能技術を開発し活用できる人材の発掘や、実際的な課題・データを対 象とした研究開発や優れた参加者の技術・アイデ
ついにPascalが正式に発表されました。 単精度8.5〜9TFOPS・メモリ8GB・180Wで価格は$599、北米発売は5/27です。 980Ti(5.6)はもちろんTitanX(6.2)よりもTFLOPS上回ってきました。しかも省電力。 これで$599は安いですね。 日本での実売は85,000〜90,000円ぐらいからでしょうか。 最近の円高を反映してもっと安くしてくれると嬉しいです。 ただ、一番気になっていた半精度のアクセラレーションについての発表は無い模様。 もしこれがついてて半精度18TLOPSとかだったら家にある全GPUを処分して買い替えたんですが…(対応していた模様 下に追記あり)。 ちなみに1070も同時に発表されて6.5TLOPSで$379と、これですらTitanXを上回っています。 現世代のGPUは中古市場でも一気に値崩れを起こしそう。 噂通りのハイスペックで登場したP
This document summarizes recent developments in action recognition using deep learning techniques. It discusses early approaches using improved dense trajectories and two-stream convolutional neural networks. It then focuses on advances using 3D convolutional networks, enabled by large video datasets like Kinetics. State-of-the-art results are achieved using inflated 3D convolutional networks and
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く