サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Wikipedia
rinna.co.jp
Llama 3の高いテキスト生成能力を日本語にいち早く導入 rinna株式会社 (本社:東京都渋谷区/代表取締役:宋 珠憲、以下rinna) は、Llama 3 8Bに対して日本語データで継続事前学習を行った「Llama 3 Youko 8B」を開発し、Meta Llama 3 Community Licenseで公開したことを発表します。 ■ rinnaのモデル公開活動 最近のAI技術は、世界中の研究・開発者が切磋琢磨し、成果を共有・公開することで劇的に進化を遂げています。rinnaも、日本語のタスクに適したGPT・BERT・HuBERT・CLIP・Stable Diffusionなど、テキスト・音声・画像に関する事前学習済み基盤モデルを公開してきました。2021年4月からHugging Faceに公開してきたrinnaのモデルは累計560万ダウンロード・1000 Likesを超え、多く
Llama 2の性能を日本語に引き継いだモデルシリーズによりLLMの活用が容易に rinna株式会社(本社:東京都渋谷区/代表取締役:ジャン"クリフ"チェン、以下rinna)は、Llama 2に日本語の学習データで継続事前学習を行った「Youri 7B」シリーズを開発し、LLAMA 2 Community Licenseで公開したことを発表します。 ■ rinnaのモデル公開活動 OpenAI社が開発した大規模言語モデル (Large Language Model; LLM) であるChatGPTのサービスは、世界中の多くのユーザーが利用するサービスへと発展しました。ChatGPTに匹敵するLLMを開発するために世界中の研究・開発者が切磋琢磨し、その成果を共有・公開しています。rinnaも、研究成果を積極的に発表・公開しており、これまでに日本語に特化したGPT・BERT・HuBERT・CL
rinna株式会社(本社:東京都渋谷区/代表取締役:ジャン"クリフ"チェン、以下rinna)は、日本語と英語のバイリンガル大規模言語モデルを開発し、商用利用可能なライセンス*1でオープンソースとして公開したことを発表します。さらに、対話形式のテキストを生成する対話言語モデル*1、テキストと画像のマルチモーダル入力を実現する画像対話モデル、長いテキストの入力を可能とする長期コンテキスト言語モデルも開発し、公開しました。 ■ rinnaのオープンソース活動 OpenAI社から提案された大規模言語モデル (Large Language Model; LLM) であるGPT (Generative Pre-trained Transformer) シリーズは、大量のデータから高速かつ高精度に大規模モデルが学習できるTransformerとテキストデータから自己教師あり学習を可能とする枠組みを採用し
日本語に特化した強化学習済み対話GPT言語モデルをオープンソースで公開 rinna株式会社(本社:東京都渋谷区、代表取締役:ジャン"クリフ"チェン、以下rinna)は、ChatGPTの学習に利用されている、人間の評価を利用したGPT言語モデルの強化学習に成功しました。そして強化学習済みの日本語に特化した対話GPT言語モデルを、オープンソースで公開したことを発表いたします。 ■ 背景 rinnaは「人とAIの共創世界」をビジョンに掲げ、人と人との間にAIが介在することによる豊かなコミュニケーションを通して、すべての人が自分らしい創造性を発揮できる社会の実現を目指しています。このビジョンの実現に向けて、AIりんなをはじめとしたAIキャラクターと人のテキスト・音声・画像を介した新しいコミュニケーションの形を提供してきました。また、誰もが気軽にAIを使える世界を目指す「AIの民主化」という考え方に
汎用言語モデルと対話言語モデルのオープンソース化で利用の幅を拡大 rinna株式会社(本社:東京都渋谷区、代表取締役:ジャン"クリフ"チェン、以下rinna)は、日本語に特化した36億パラメータを持つ汎用言語モデルと対話言語モデルの2種類のGPT言語モデルをオープンソースで公開したことを発表いたします。 ■ 背景 rinnaは「人とAIの共創世界」をビジョンに掲げ、人と人との間にAIが介在することによる豊かなコミュニケーションを通して、すべての人が自分らしい創造性を発揮できる社会の実現を目指しています。このビジョンの実現に向けて、AIりんなをはじめとしたAIキャラクターと人のテキスト・音声・画像を介した新しいコミュニケーションの形を提供してきました。また、誰もが気軽にAIを使える世界を目指す「AIの民主化」という考え方に共感し、研究成果を積極的に発表・公開してきました。これまでに日本語に特
rinnaが開発した日本語の音声に特化した事前学習モデルHuBERT (Hidden Unit Bidirectional Encoder Representations from Transformers) を、商用利用可能なApache-2.0 ライセンスで公開したことをお知らせします。 rinnaはこれまでに日本語に特化した言語モデルGPT・BERTや言語画像モデルCLIP・Japanese Stable Diffusionなどを公開し、Hugging Faceでのモデルダウンロード数は累計150万を超え、多くの研究・開発者にご利用いただいています。この度、Metaから提案されたHuBERTのモデル構造とレアゾン・ホールディングスが公開した日本語音声コーパスReazonSpeechを用いて、日本語の音声に特化したHuBERTを学習し、Apache-2.0 ライセンスでHugging
~商用利用可能なライセンスで日本語のNLPコミュニティに貢献~ rinna株式会社(本社:東京都渋谷区/代表取締役:ジャン"クリフ"チェン、以下rinna社)は、日本語に特化した13億パラメータのGPT言語モデルを開発し、公開しました。 ■背景 rinna社はこれまでに、日本語の自然言語処理 (NLP) に特化したGPT (3.3億パラメータ) やBERT (1.1億パラメータ) の事前学習モデルを公開し、多くの研究・開発者にご利用いただいています。最近のNLPに関する研究では、モデルのパラメータ数が多いほど高い性能であることが知られています。 そこでrinna社は、これまでに公開してきたモデルより大規模な13億パラメータを持つ日本語に特化したGPT言語モデルを開発し、日本語のNLPコミュニティに貢献するために、この言語モデルをNLPモデルライブラリ Hugging Face に商用利用可
弊社ではCookieを使用してWebサイトのトラフィックを分析し、Webサイトでのお客様の体験を最適化しています。弊社によるCookieの使用に同意されると、お客様のデータは他のすべてのユーザーデータと共に集計されます。
多彩なソリューションを展開する テクノロジーパートナーとして、 rinnaはみなさまと共に 現在と未来のAIを創ります。
このページを最初にブックマークしてみませんか?
『rinna株式会社|あなたらしい創造力をAIキャラクターと共に引き出し、世界をカラフ...』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く