タグ

2024年5月24日のブックマーク (2件)

  • Team「たぬき」開発振り返りメモ2: Scaling lawの壁は高かったという話

    はじめに チームリーダーの畠山です。開発が終盤に差し掛かってきたので、備忘録として開発の振り返りメモを書いていきます。 前回の記事では、限られたリソースで高性能なモデルを作るために、3つの点に注目しました。 モデルアーキテクチャの最適化 事前学習用データセットの準備 ファインチューニング用データセットの準備 今回は、それぞれのアプローチを試した結果について説明します。タイトルにもあるように、Scaling lawの壁は高く、簡単にはうまくいきませんでした。むしろ、うまくいかない条件がわかったという知見が多く得られました[1]。 モデルアーキテクチャの工夫: Branch-Train-Merge (BTM)もどきを試す BRTもどき戦略はうまくいったのか? チームでは、事前学習の際にランダムにシャッフルしたデータを使う代わりに、以下のようなカリキュラムを設定しました。 各ステージの内容: S

    Team「たぬき」開発振り返りメモ2: Scaling lawの壁は高かったという話
    stealthinu
    stealthinu 2024/05/24
    すっごく面白かった。Llamaベースの8Bモデルで日本語学習されてるがまず良質な学習データを揃えるところが実はだいぶ本質的問題で難しさがあることがわかる。すごく勉強になる。
  • AI を活用したソフトウェア開発のための個人的ガイド - Sun wood AI labs.2

    はじめに 私は個人プロジェクトでコードを書く際、特に自動化のためのものを書く際には、AI を活用しています。この点について、人によって意見が分かれるようです。同じように AI を使っている人もいれば、AI が良いコードを書くことは不可能だと考える人もいます。私の分野の専門家の間でも同様の考え方に遭遇し、AI の使い方が人によって異なるのかもしれないと気づきました。 私自身のバックグラウンドですが、私は開発マネージャーであり、業界で長年の経験を積み、大学院でもソフトウェア開発を学んできました。ですので、このガイドは素人ではなく、大規模システムの構築と運用に関するかなりの経験を持つ者の視点から書かれていることをご理解ください。 また、「なぜこんなことをするのか、AI にコードを求めればそれで十分だ」と思われるかもしれません。このガイドは、クリーンで保守性が高く、あなたが書けるベストなコードを使

    AI を活用したソフトウェア開発のための個人的ガイド - Sun wood AI labs.2
    stealthinu
    stealthinu 2024/05/24
    「AIはコンテキストが大きくなると品質が低下するためコンテキストを低く保つ」「コードレビューさせる場合はそのコードを書いたのは別のAIだと伝える」このあたりは参考になった