タグ

ブックマーク / www.preferred.jp (2)

  • Preferred Networks、深層学習の研究開発基盤をPyTorchに移行 - 株式会社Preferred Networks

    PyTorch開発チームおよびオープンソースコミュニティと連携し、フレームワーク開発、MN-CoreプロセッサのPyTorchサポートなどを推進 株式会社Preferred Networks(社:東京都千代田区、代表取締役社長:西川徹、プリファードネットワークス、以下、PFN)は、研究開発の基盤技術である深層学習フレームワークを、自社開発のChainer™から、PyTorchに順次移行します。同時に、PyTorchを開発する米FacebookおよびPyTorchの開発者コミュニティと連携し、PyTorchの開発に参加します。なお、Chainerは、日公開されたメジャーバージョンアップとなる最新版v7をもってメンテナンスフェーズに移行します。Chainerユーザー向けには、PyTorchへの移行を支援するドキュメントおよびライブラリを提供します。 PFN 代表取締役社長 西川徹は、今回の

    Preferred Networks、深層学習の研究開発基盤をPyTorchに移行 - 株式会社Preferred Networks
    stealthinu
    stealthinu 2019/12/05
    ChainerやめてPyTorchへ移行と。残念だけどまあ仕方ないというか賢明な判断だと思う。PyTorchが元々Chainerのフォークから始まったはずだから移行はそれほど大変ではないのだろうし。
  • Preferred Networks、深層学習の学習速度において世界最速を実現 - 株式会社Preferred Networks

    大規模な並列コンピュータを活用し、分散学習パッケージChainerMNでImageNetの学習を15分で完了 株式会社Preferred Networks(社:東京都千代田区、代表取締役社長:西川徹、プリファードネットワークス、以下、PFN)は、大規模な並列コンピュータ「MN-1※1」を活用し、深層学習(ディープラーニング)の学習速度において世界最速を実現しました。 深層学習モデルの精度を向上させるため、学習データのサイズやモデルのパラメータ数が増加し、それにともなって計算時間も増大しています。1回の学習に数週間かかることも稀ではありません。複数のコンピュータを連携させて学習を高速化することは、新たなアイディアの試行錯誤や検証に要する時間を圧縮し、素早く研究成果をあげていくために非常に重要です。 一方で、複数のコンピュータを使った並列分散学習においては、通常、GPU数を増やすほどバッチサ

    Preferred Networks、深層学習の学習速度において世界最速を実現 - 株式会社Preferred Networks
    stealthinu
    stealthinu 2017/11/11
    ResNetから2年で120倍の高速化か。さすがにずっとこの勢いは無理だろうが思ってたよりもハードの高速化技術進歩が早い。
  • 1