タグ

ブックマーク / joisino.hatenablog.com (7)

  • 『深層ニューラルネットワークの高速化』を上梓しました。 - ジョイジョイジョイ

    深層ニューラルネットワークの高速化 ML Systems 作者:佐藤 竜馬技術評論社Amazon 技術評論社より『深層ニューラルネットワークの高速化(ML Systems)』を上梓しました。 (※ ML Systems というのは書が一作目となる技術評論社の新しいシリーズで、今後も機械学習 × エンジニアリングのが刊行予定のようです。乞うご期待!) 深層ニューラルネットワークは画像、言語、音声などさまざまな領域で活躍を見せていますが、標準的なモデルサイズは年々増加の一途をたどっており、使用するのが難しくなっています。書は深層ニューラルネットワークを高速化することでこの問題に対処する方法を紹介します。高速化により、同じハードウェアでもより大きなモデルを利用できるようになる(= 精度が高くなる)ほか、同じモデルで比較するとより安価なハードウェアに配備できるようになり、コストを削減できます

    『深層ニューラルネットワークの高速化』を上梓しました。 - ジョイジョイジョイ
    xiangze
    xiangze 2024/08/28
  • GNN の最新動向 (ICLR 2024) - ジョイジョイジョイ

    拙著『グラフニューラルネットワーク』が重版して第 3 刷となりました。皆さまありがとうございます! 拡散モデルと最適輸送でもやりましたが、漫画家さんやイラストレーターさんが重版したときに重版感謝の描き下ろしイラストを投稿しているのを見ていいなと思ったので、僕も専門書が重版したときに重版感謝の書き下ろし専門記事を投稿します。 稿では、ICLR 2024(5/7 - 5/11 @ウィーン)で発表されたグラフニューラルネットワーク (GNN) 関連の研究動向を紹介します。 ICLR 2024 で発表された GNN 関連の論文は全部で 170 です。凄まじい量ですね。ICLR 2024 では全て合わせて 2296 の論文が採択されたので、7.4 パーセントが GNN 関連ということになります。この分量からも、GNN が活気ある研究対象であることが伺えます。 以下では、代表的なトピックについて

    GNN の最新動向 (ICLR 2024) - ジョイジョイジョイ
    xiangze
    xiangze 2024/05/15
  • 拡散モデルと最適輸送 - ジョイジョイジョイ

    『最適輸送の理論とアルゴリズム』が重版して第 5 刷となりました。皆さまありがとうございます! 漫画家さんやイラストレーターさんが重版したときに重版感謝の描き下ろしイラストを投稿しているのを見ていいなと思ったので、僕も専門書が重版したときに重版感謝の書き下ろし専門記事を投稿します。 稿では、最近話題の拡散モデルと最適輸送の関係を直観的に解説します。 拡散モデルは画像の生成によく用いられる生成モデルです。モデルはノイズ入りの画像を受け取り、ノイズを除去することを目指します。生成時には、完全なノイズ画像からはじめて、モデルによりノイズを除去することと、微小なノイズを加えることを繰り返して洗練させていき、自然画像を得ます。 拡散モデルの動作の図示 このように、ノイズ から自然画像 までゆらぎながら変化する過程をブラウン橋 (Brownian bridge) と言います。ブラウン運動 (Brow

    拡散モデルと最適輸送 - ジョイジョイジョイ
    xiangze
    xiangze 2024/03/09
  • モデルパラメータの算術 - ジョイジョイジョイ

    深層モデルのパラメータを一列に並べてベクトルにします。このベクトルは大規模なモデルであれば何十億次元にもなります。一見、意味のない数値の羅列のようですが、このベクトルはベクトルとして深い意味があることが分かってきています。例えば、 と を異なるパラメータベクトルとすると、 や をパラメータとして持つモデルはちゃんと機能します。稿では、このようなモデルパラメータの算術を用いた手法とその背後にある理論について解説します。 追記: 拙著『深層ニューラルネットワークの高速化』にて稿の内容を大幅に増補しました。稿に興味を持った方はこちらも参照いただけると嬉しいです。 深層ニューラルネットワークの高速化 ML Systems 作者:佐藤 竜馬技術評論社Amazon 追記ここまで 目次 目次 モデルスープ タスクベクトル モデルパラメータとニューラルタンジェントカーネル おわりに モデルスープ

    モデルパラメータの算術 - ジョイジョイジョイ
    xiangze
    xiangze 2024/01/11
  • 君たちはどう研究するか - ジョイジョイジョイ

    IBIS 2023 のパネルディスカッション「君たちはどう研究するか」にて研究の取り組み方についてお話しました。この記事はそこでお話した内容を編集したものです。 🔍研究テーマの決め方について 📆 研究プロジェクトの進め方 😵‍💫 研究がうまくいかないときの対処法 📝 論文の書き方 おわりに 🔍研究テーマの決め方について 僕は研究テーマ選びはあまり重要ではないと考えています。どういうテーマにめぐり合うかは運なので、そこで思いつめても仕方がありません。なので、僕は自分から積極的にテーマを探しにいくということはしていません。それよりも、テーマを決めたあとの掘り下げ方という自分でコントロールする部分に集中して研究に取り組んでいます。 その人の地力によって、テーマとして成立させられるストライクゾーンが決まってくると考えています。初心者うちは、王道のテーマで王道のストーリーでしか成立させら

    君たちはどう研究するか - ジョイジョイジョイ
  • 論文読みの日課について - ジョイジョイジョイ

    かれこれ三年以上ほぼ毎朝論文を読んでいます。 ほぼ毎朝、というのは当にほぼ毎朝です。この三年のうち読まなかった日はワクチンの副反応でダウンしている日など、あわせて 10 ~ 20 日ほどでしかありません。この日課だけでも 1000 以上は論文を読んだことになります。 論文読みの日課についての知見が溜まってきたのでこの記事で共有します。 主な想定読者は研究者と学生の皆さんですが、それ以外の論文読みに興味のある皆さんにも有用な情報が詰まっているはずです。 日課の流れ Readable について 🧐 論文の選び方 自分の研究内容と直接関係あるものを読む(特におすすめ) 完全にランダムに選ぶ 被引用数の多い順に選ぶ(特におすすめ) トピックごとに重要な論文を読んでいく 研究者ごとに論文を読んでいく 📝 論文メモの書き方 ⏳ 時間を計測する 🤗 論文メモを公開する 📜 表現集の作成 🔨

    論文読みの日課について - ジョイジョイジョイ
    xiangze
    xiangze 2023/04/10
  • Dilated Convolution - ジョイジョイジョイ

    Dilated Convolution を chainer で実装しました。 Dilated Convolution の説明 Dilated Convolution は、フィルターとの積を取る相手の間隔をあける畳み込みのことです。 例えば、以下のような画像において、 12 を中心に 3 x 3 の普通の畳み込みフィルターを適用すると、 6, 7, 8, 11, 12, 13, 16, 17, 18 との積を取って和を取ると思います。 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 3 x 3 の dilate = 2 の Dilated Convolution フィルターを 12 を中心に適用すると、0, 2, 4, 10, 12, 14, 20, 22, 24 と 1 つおきに取ってきて、それらに 3 x

    Dilated Convolution - ジョイジョイジョイ
    xiangze
    xiangze 2018/04/02
  • 1