タグ

mlに関するWindymeltのブックマーク (8)

  • 驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z

    昨日話題になった「BitNet」という1ビットで推論するLLMがどうしても試したくなったので早速試してみた。 BitNetというのは、1ビット(-1,0,1の三状態を持つ)まで情報を削ぎ落とすことで高速に推論するというアルゴリズム。だから正確には0か1かではなく、-1か0か1ということ。 この手法の行き着くところは、GPUが不要になり新しいハードウェアが出現する世界であると予言されている。マジかよ。 https://arxiv.org/pdf/2402.17764.pdf ということで早速試してみることにした。 オフィシャルの実装は公開されていないが、そもそも1ビット(と言っていいのかわからない,-1,0,1の三状態を持つからだ。 論文著者はlog2(3)で1.58ビットという主張をしている)量子化のアルゴリズム自体の研究の歴史は古いので、BitNetによるTransformerの野良実装

    驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z
  • 何でも微分する

    IBIS 2023 企画セッション『最適輸送』 https://ibisml.org/ibis2023/os/#os3 で発表した内容です。 講演概要: 最適輸送が機械学習コミュニティーで人気を博している要因として、最適輸送には微分可能な変種が存在することが挙げられる。微分可能な最適輸送は様々な機械学習モデルに構成要素として簡単に組み入れることができる点が便利である。講演では、最適輸送の微分可能な変種とその求め方であるシンクホーンアルゴリズムを紹介する。また、この考え方を応用し、ソーティングなどの操作や他の最適化問題を微分可能にする方法を紹介するとともに、これらの微分可能な操作が機械学習においてどのように役立つかを議論する。 シンクホーンアルゴリズムのソースコード:https://colab.research.google.com/drive/1RrQhsS52B-Q8ZvBeo57vK

    何でも微分する
  • Scala(JVM) で機械学習(NLP, Deep Learning, Neural Net, etc)

    BERT 周りの知識 tokenize (日語向け)BERT では, 分かち書き(word segmentation) + subword 分割した後でトークナイズ処理をする. 分かち書き + subword 分割 の部分は pre-tokenize と呼ぶことがある. 入力テキストを subword まで分割して辞書(語彙)に含まれる tokenid にマッピングする処理をトークナイズと呼ぶ. subword 分割とトークナイズ処理は model の vocabulary に依存する. vocabularyファイルがサブワード分割の学習の結果生成され*5、サブワード分割を行う際に必要になる。 BERT派生のモデルでは従来の単語分かち書きだけでなく、さらに細かい分かち書き単位であるサブワード分割という処理が適用される。 モデル的にはこの処理は必須というわけではないものの、報告されているタ

    Scala(JVM) で機械学習(NLP, Deep Learning, Neural Net, etc)
  • SQLiteでベクトル検索ができる拡張sqlite-vssを試す|mah_lab / 西見 公宏

    SQLiteでベクトル検索を可能にするsqlite-vssそんなポータブルで便利なSQLiteですが、そのSQLiteでベクトル検索ができるとなるとより夢が広がります。 SQLite自体はファイルベースなので、あらかじめベクトルデータを設定したSQLiteデータベースファイルをアプリに組み込んで配布しても良いわけです。そうすればデータベースサーバを用意しなくて済む分コストも圧縮されますし、組み込みなのでアプリからは軽量に動作します。 ホスティングする場合でもFly.ioのようにボリュームイメージを利用できるPaaSを利用すれば、問題なく運用が可能です。 前置きが長くなりましたが、このような夢を叶えてくれる拡張がsqlite-vssです。ベクトル検索はFaissベースで実装されています。 とっても良さげではあるのですが、実際に組み込んでみた場合のコード例が見つからなかったので、手を動かして試

    SQLiteでベクトル検索ができる拡張sqlite-vssを試す|mah_lab / 西見 公宏
    Windymelt
    Windymelt 2023/06/08
    へー面白い。写真の特徴量をなんらかの方法で(deepbooruみたいな)ベクトル化しておいたら、手元で簡易的な画像類似検索みたいなものを実装できるね。
  • Kerasでword2vecを実装して日本語版Wikipediaを学習してみる - Qiita

    参考にしたもの 主に以下の書籍やブログ、ソースコードを参考にさせて頂きました。 ゼロから作るDeep Learning 2 自然言語処理編 言わずと知れた名著です。機械学習のフレームワークに頼らず自分で実装するスタイルの解説なので深く理解できます。 abaheti95氏 Deep-Learning word2vec KerasとCNTKでword2vec(cbow)を実装している方がいらっしゃいました。今回は主にこちらを参考にさせていただき、CNTKバックエンドのKerasで実装してみました。 Adventure Machine Learning - A Word2Vec Keras tutorial こちらもKerasでの実装を例としたチュートリアルです。skip-gramです。このブログは機械学習に関する解説がわかりやすいです。比較的読みやすい英語で書かれており、英語が苦手な方にもオス

    Kerasでword2vecを実装して日本語版Wikipediaを学習してみる - Qiita
    Windymelt
    Windymelt 2023/06/05
    word2vecで構成・訓練したCBOWをONNXで保存することはできるみたい
  • Machine Learning  |  Google for Developers

    基礎コースでは、機械学習の基礎と核となるコンセプトについて説明します。 下記の順序に沿って更新することをおすすめします。

    Machine Learning  |  Google for Developers
    Windymelt
    Windymelt 2023/04/26
    MLについて1から学べるGoogle製の便利なやつ
  • 【決定版】スーパーわかりやすい最適化アルゴリズム -損失関数からAdamとニュートン法- - Qiita

    オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 深層学習を知るにあたって、最適化アルゴリズム(Optimizer)の理解は避けて通れません。 ただ最適化アルゴリズムを理解しようとすると数式が出て来てしかも勾配降下法やらモーメンタムやらAdamやら、種類が多くあり複雑に見えてしまいます。 実は、これらが作られたのにはしっかりとした流れがあり、それを理解すれば 簡単に最適化アルゴリズムを理解することができます 。 ここではそもそもの最適化アルゴリズムと損失関数の意味から入り、最急降下法から最適化アルゴリズムの大定番のAdamそして二階微分のニュートン法まで順を追って 図をふんだんに使いながら丁寧に解説 していきます。 それでは早速最適化アルゴリズムとは何

    【決定版】スーパーわかりやすい最適化アルゴリズム -損失関数からAdamとニュートン法- - Qiita
    Windymelt
    Windymelt 2022/12/31
    良い
  • 推薦システムにおいて線形モデルがまだまだ有用な話 | CyberAgent Developers Blog

    記事は、CyberAgent Advent Calendar 2022 19日目の記事です。 目次 はじめに 問題設定 協調フィルタリングのための線形モデル iALS EASE 関連する非線形モデル 実務活用 おわりに はじめに メディア DSC所属の機械学習エンジニアで、タップルの推薦システムを担当している橋爪 (@runnlp)です。 最近、推薦システムを触り始めました。推薦手法は、協調フィルタリング、コンテンツベース、ハイブリッドなど様々ですが、今回は昔から今に至るまで長く使われている協調フィルタリングについてです。 協調フィルタリングではDeep系のモデルがたくさん出る中で、RecSys2022で発表された論文では10年以上前から使用されている線形モデル(iALS)がDeep系のモデルに匹敵する結果であると報告されており興味深いです。また、推薦システムを開発するにあたって、問題設

    推薦システムにおいて線形モデルがまだまだ有用な話 | CyberAgent Developers Blog
    Windymelt
    Windymelt 2022/12/20
    面白い
  • 1