最終更新日: 2017年7月3日 こんばんは!AINOW編集長のかめきちです。 先週開催された、全脳アーキテクチャ若手の会主催によるカジュアルトーク Vol20の模様をお届けしたいと思います。 今回のテーマは「自然言語処理」。 日本のAI界における永遠のテーマでしょうか… 難易度の高いこの分野の最新研究を聞くことが出来ましたので、まとめていきます。 ・イベントの詳細はコチラ https://wbawakate.connpass.com/event/48610/presentation/
米サンフランシスコで開催された「Deep Learning Summit 2017」にて、PFN は Chainer のマルチノードでの分散学習対応への取り組みについて発表しました。本記事では、その発表について詳しく説明していきます。 分散深層学習の重要性と現状 GPU の性能は継続的に向上していますが、より大きなデータを活用してより精度の高いモデルを実現するために、深層学習で使われるモデルのパラメータ数や計算量も増大しています。そのため、現在でも、Chainer を含む一般的なフレームワークを用いた標準的な学習では 1 週間以上かかってしまうようなユースケースが少なくありません。より大規模なデータを扱ったり、試行錯誤のイテレーションを効率化するために、複数の GPU を連携させ学習を高速化させることは重要な課題です。そこで、我々は Chainer にマルチノードでの分散学習の機能を追加す
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く