タグ

ブックマーク / tech.preferred.jp (9)

  • 1兆 (1T) パラメータ規模のLLMの事前学習検証 - Preferred Networks Research & Development

    Preferred Networksの子会社のPreferred Elements(以下PFE)では7月から約1ヶ月の間、1兆 (1T) パラメータ規模のLLMの事前学習について検証を行っていました。今回の記事ではこの取り組みとその結果について紹介します。 この検証は経済産業省が主導する国内の生成AIの開発力を強化するためのプロジェクト「GENIAC(Generative AI Accelerator Challenge)」のもと、NEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)の助成事業に採択され、計算資源の提供支援を受けて実施しました。 超巨大モデル学習の目的 今回の取り組みは、超巨大な (1Tクラスの) DNNモデルを学習できるかを確認することを目的としています。そもそもなぜこの検証をしたのかについての説明から始めようと思います。 LLMの事前学習では、学習に利用したデ

    1兆 (1T) パラメータ規模のLLMの事前学習検証 - Preferred Networks Research & Development
    stealthinu
    stealthinu 2024/08/21
    1Tパラメータ規模のLLMはだいぶいろんなこと考えても色々と問題が起きるのだねえ… MoEではなく単一の巨大モデルのほうがよい?という可能性もあるとのこと。
  • 【ICLR2020採択論文】GANのなめらかさと安定性 - Preferred Networks Research & Development

    リサーチャーの南です。機械学習のトップ会議のひとつであるICLR2020に、2019年度PFN夏季インターンのCasey Chuさん、PFN技術顧問の福水健次教授と共同で書いた論文が採択されました。 Casey Chu, Kentaro Minami and Kenji Fukumizu. Smoothness and Stability in GANs. In International Conference on Learning Representations (ICLR), 2020, to appear. 論文リンク 記事では、上記論文の内容を簡単に紹介します。 背景: GANと安定化技術 周知のとおり、敵対的生成ネットワーク (GAN, [1]) はとても強力な生成モデルです。例えば、GANによって自然な高解像度画像を生成できることが知られています。下記は高解像度画像生成にお

    【ICLR2020採択論文】GANのなめらかさと安定性 - Preferred Networks Research & Development
    stealthinu
    stealthinu 2020/01/06
    GANがそもそも目的関数が平滑でないため安定しないこと、そしてそれがspectral normalizationとgradient penaltyによって改善されることが理論的に示されてるとのこと。これインターンだって…
  • プログラミング教育推進月間の教材について - Preferred Networks Research & Development

    PFNフェローの丸山です。2月18日に、PFNは文部科学省、総務省及び経済産業省の「未来の学び プログラミング教育推進月間」に協力して、小学校向けのプログラミング教材を作成することを発表しました。この教材は、今年の9月に一部の小学校で、総合学習の一環として利用されることを目指しています(指導案のページはこちらです)。この記事では、私達PFNがなぜこのような活動をしているかをお話ししたいと思います。 PFNは若い会社です。多くの若い社員が次々に家庭を持ち、子どもを育て始めています。社長の西川をはじめ皆、次の世代が活躍し、よりよい社会を作っていくことを強く願っています。これからの社会を考えたとき、マーク・アンドリーセンが「ソフトウェアが世界を侵する」(Software is eating the world) と言ったことに象徴されるように、社会の価値の多くが情報技術、特にソフトウェアから得

    stealthinu
    stealthinu 2019/02/19
    『例示によるプログラミング』という考え方。機械学習と従来のプログラミングのハイブリッドになっていくのでは、という予測。
  • DNN推論用ライブラリ「Menoh」リリースについて - Preferred Networks Research & Development

    Python以外も使いたくないですか?  特にDeepLearning界隈で. Menoh開発者の岡田です.この記事ではMenohの紹介と開発に至った動機について説明します. Menohのレポジトリ: https://github.com/pfnet-research/menoh Menoh(メノウ)は学習済みのDNNモデルをONNX形式から読み込んで動作させる推論専用のライブラリです.実装はC++で書きましたが,C言語のインターフェースを持たせて,他の言語用からもその機能を呼び出しやすくしてあります.リリース時点でC++版ラッパーとC#版ラッパー,Haskell版ラッパーがあり,Ruby版ラッパーとNodeJS版ラッパー,Java(JVM)版ラッパーが開発中です.バックエンドにはIntelの開発しているMKL-DNNを採用し,GPUが無くてもIntel CPUが使える環境で高速にモデルの

    DNN推論用ライブラリ「Menoh」リリースについて - Preferred Networks Research & Development
    stealthinu
    stealthinu 2018/06/21
    めのうはいくつかの鉱石が混じり合ってるからこの名前なのかな。
  • ニューラルネットの逆襲から5年後 | Preferred Research

    私が2012年にニューラルネットの逆襲(当時のコメント)というのをブログに書いてからちょうど5年が経ちました。当時はまだDeep Learningという言葉が広まっておらず、AIという言葉を使うのが憚られるような時代でした。私達が、Preferred Networks(PFN)を立ち上げIoT、AIにフォーカスするのはそれから1年半後のことです。 この5年を振り返る良いタイミングだと思うので考えてみたいと思います。 1. Deep Learning Tsunami 多くの分野がこの5年間でDeep Learningの大きな影響を受け、分野特化の手法がDeep Learningベースの手法に置き換わることになりました。NLP(自然言語処理)の重鎮であるChris Manning教授もNLPで起きた現象を「Deep Learning Tsunami」[link] とよびその衝撃の大きさを表して

    ニューラルネットの逆襲から5年後 | Preferred Research
    stealthinu
    stealthinu 2017/11/28
    ディープラーニングが注目されだしてからもう5年。この5年の進化はほんとすごかった。あと5年先を考えてもまだ冬の時代が来るとは考えられない。教師なし学習のブレークスルーは夢だな…
  • 画風を変換するアルゴリズム - Preferred Networks Research & Development

    Deep Neural Networkを使って画像を好きな画風に変換できるプログラムをChainerで実装し、公開しました。 https://github.com/mattya/chainer-gogh こんにちは、PFNリサーチャーの松元です。ブログの1行目はbotに持って行かれやすいので、3行目で挨拶してみました。 今回実装したのは”A Neural Algorithm of Artistic Style”(元論文)というアルゴリズムです。生成される画像の美しさと、画像認識のタスクで予め訓練したニューラルネットをそのまま流用できるというお手軽さから、世界中で話題になっています。このアルゴリズムの仕組みなどを説明したいと思います。 概要 2枚の画像を入力します。片方を「コンテンツ画像」、もう片方を「スタイル画像」としましょう。 このプログラムは、コンテンツ画像に書かれた物体の配置をそのま

    画風を変換するアルゴリズム - Preferred Networks Research & Development
    stealthinu
    stealthinu 2016/06/29
    ディープラーニングによる画風変換アルゴリズムの解説。画風を学習した中間層だけを置換えてその後ネットワークを固定して出力から入力の方を生成するみたいな感じ。最後の徐々に絵が浮き上がる感じがすげえ。
  • 巨人たちが語るディープラーニングの未来(翻訳記事) - Preferred Networks Research & Development

    比戸です。スムージーの美味しい季節ですね。 今回は「ディープラーニングの未来」というパネルディスカッションに関するブログの翻訳をお送りします。この業界の有名人が多数参加していて、とても興味深い内容だったため、日のコミュニティでも共有できたらと思ったのです。 それは2015年7月に開かれた機械学習の国際会議・ICML内のDeep Learning Workshopの企画でした。元記事はワークショップ主催者のKyunghyun Cho氏のBrief Summary of the Panel Discussion at DL Workshop @ICML 2015です。ご人の許可を得られたので、以下に日語訳を掲載します。なるべく原文に忠実に訳したつもりですが、分かりづらい部分は意訳が入っているため、もし誤りがあればご指摘下さい。 — ここから翻訳 <はじめに> ICML 2015で開かれた

    巨人たちが語るディープラーニングの未来(翻訳記事) - Preferred Networks Research & Development
    stealthinu
    stealthinu 2015/08/13
    ディープラーニングというか人工知能の今後の展望について。『我々はインテリジェンスとその性格を区別するよう注意すべきだ』まさに。シンギュラリティ危険視はこれが根底にある。相手を人間と同じに見るから怖い。
  • ウェーブレット木の世界 - Preferred Networks Research & Development

    岡野原です。ウェーブレット木の解説を統数研チャンネルにて行いました。 統数研チャンネル(プレミアム会員ならしばらくタイムシフト視聴可能)。 ウェーブレット木は万能のデータ構造であり、系列データ、全文検索、グラフ、二次元情報、フィンガープリントなど様々なデータに対して多くの操作をサポートします。 解説では大規模データの背景、ウェーブレット木の作り方、使い方、様々なデータへの適用、最前線(ウェーブレット行列)などを紹介しています。解説は拙著「高速文字列解析の世界」とあわせてみていただけたらと思います。

    ウェーブレット木の世界 - Preferred Networks Research & Development
    stealthinu
    stealthinu 2013/01/10
    ウェーブレット木というデータ構造。大規模データの扱いを定数時間で高速で扱うことが出来るとのこと。構造の作り方はなんとなくわかったがとても身につくとこまでいけそうにない。
  • ニューラルネットの逆襲 - Preferred Networks Research & Development

    岡野原です。Deep Learningが各分野のコンペティションで優勝し話題になっています。Deep Learningは7、8段と深いニューラルネットを使う学習手法です。すでに、画像認識、音声認識、最も最近では化合物の活性予測で優勝したり、既存データ・セットでの最高精度を達成しています。以下に幾つか例をあげます。 画像認識 LSVRC 2012 [html]  優勝チームスライド [pdf], まとめスライド[pdf] Googleによる巨大なNeuralNetを利用した画像認識(認識として有名)[paper][slide][日語解説] また、各分野のトップカンファレンスでDeep Learningのチュートリアルが行われ、サーベイ論文もいくつか出ました。おそらく来年以降こうした話が増えてくることが考えられます。 ICML 2012 [pdf] ACL 2012 [pdf] CVPR

    ニューラルネットの逆襲 - Preferred Networks Research & Development
    stealthinu
    stealthinu 2012/11/02
    Deep Learning→10段近い層のニューラルネットワークが成果上げてる。多階層学習が発散する問題は教師なし学習で一層づつ学習させることで解決するらしい。Dropoutというランダムに入力を減らす手法で過学習を抑制。試す!
  • 1