タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

AIとllmに関するendo_5501のブックマーク (2)

  • 東大発スタートアップ、67億パラメーターの日本語LLMをOSSで公開

    東京大学発のスタートアップ企業であるLightblue(ライトブルー)は、公開モデルとしては国内最大規模の67億パラメーターの日語大規模言語モデルを開発し、オープンソース・ソフトウェアとして公開した。ライセンスはApache 2.0。 東京大学発のスタートアップ企業であるLightblue(ライトブルー)は、公開モデルとしては国内最大規模の67億パラメーターの日語大規模言語モデルを開発し、オープンソース・ソフトウェアとして公開した。ライセンスはApache 2.0。 この言語モデルは、米モザイクML (MosaicML)が公開した多言語大規模言語モデル「MPT-7B」を基にしたもの。グーグルが開発した多言語データセット「MC4」をアレン人工知能研究所(Allen Institute for AI)がそれぞれの言語ごとに利用可能にしたサブセットの日語部分を使って追加学習した。 Ligh

    東大発スタートアップ、67億パラメーターの日本語LLMをOSSで公開
  • 無料・商用利用可なオープンソースの大規模言語モデル Dolly 2.0(dolly-v2-12b) を試してみた - Qiita

    概要 大規模言語モデル Dolly 2.0 を試してみました。 公式ブログ に詳しく書いてありますが、 Alpaca、Koala、GPT4All、Vicuna など最近話題のモデルたちは 商用利用 にハードルがあったが、Dolly 2.0 は自社で準備した 15000件のデータで学習させたデータを使っているためそのハードルがなくなったようです。 ありがたいですね。さっそく試してみました。 2023/04/18 コード更新 Dolly 2.0モデルの独自パイプライン処理が稿公開時(2023/04/13)から変更されているため、それに対応するよう稿ソースコードも修正しました。 該当コード(変更後)

    無料・商用利用可なオープンソースの大規模言語モデル Dolly 2.0(dolly-v2-12b) を試してみた - Qiita
  • 1