米メタが人工知能(AI)向けのIT(情報技術)インフラ投資を再拡大し始めた。リストラのため2023年は設備投資などの資本的支出(CAPEX)を減らしていたが、24年は再び増やして300億〜370億ドル(約4.4兆〜5.5兆円)を投じる。マーク・ザッカーバーグ最高経営責任者(CEO)は「完全な汎用知能の実現を目指す」と明言している。前年よりも減ったものの、設備投資自体は23年も巨額だった。同社が
![メタが桁違いのAIインフラ構築 「完全な汎用知能」へ - 日本経済新聞](https://cdn-ak-scissors.b.st-hatena.com/image/square/be6e5bbae4a5fbd1d83a65279fde4b9a68042db7/height=288;version=1;width=512/https%3A%2F%2Farticle-image-ix.nikkei.com%2Fhttps%253A%252F%252Fimgix-proxy.n8s.jp%252FDSXZQO4462338015022024000000-1.jpg%3Fixlib%3Djs-3.8.0%26auto%3Dformat%252Ccompress%26fit%3Dcrop%26bg%3DFFFFFF%26w%3D1200%26h%3D630%26fp-x%3D0.5%26fp-y%3D0.5%26fp-z%3D1%26crop%3Dfocalpoint%26s%3D4f2ba569a7ee2575be0ee2b92718e1fa)
The purpose of this package is to offer a convenient question-answering (RAG) system with a simple YAML-based configuration that enables interaction with multiple collections of local documents. Special attention is given to improvements in various components of the system in addition to basic LLN based RAGs - better document parsing, hybrid search, HyDE enabled search, chat history, deep linking,
🎉 Berkeley Function Calling Leaderboard How do models stack up for function calling? 🎯 Releasing the Berkeley Function Calling Leaderboard. Read more in our Release Blog. 🏆 Gorilla OpenFunctions v2 Sets new SoTA for open-source LLMs 💪 On-par with GPT-4 🙌 Supports more languages 👌 Blog. 🔥 Gorilla OpenFunctions is a drop-in alternative for function calling! Release Blog 🟢 Gorilla is Apache 2
東京大学発のスタートアップ企業であるLightblue(ライトブルー)は、公開モデルとしては国内最大規模の67億パラメーターの日本語大規模言語モデルを開発し、オープンソース・ソフトウェアとして公開した。ライセンスはApache 2.0。 この言語モデルは、米モザイクML (MosaicML)が公開した多言語大規模言語モデル「MPT-7B」を基にしたもの。グーグルが開発した多言語データセット「MC4」をアレン人工知能研究所(Allen Institute for AI)がそれぞれの言語ごとに利用可能にしたサブセットの日本語部分を使って追加学習した。 Lightblueは、今回公開したモデルを法人向けに提供する。業界用語や部署特有の専門用語、慣習などに合わせて訓練・調整することで、企業や部署によって異なる要望に応じるという。加えて、自社サービスの提供も予定しているとのことだ。 (笹田) 6人気
OpenLLM is an open-source platform designed to facilitate the deployment and operation of large language models (LLMs) in real-world applications. With OpenLLM, you can run inference on any open-source LLM, deploy them on the cloud or on-premises, and build powerful AI applications. Key features include: 🚂 State-of-the-art LLMs: Integrated support for a wide range of open-source LLMs and model ru
Meta’s LLaMa 2 license is not Open Source OSI is pleased to see that Meta is lowering barriers for access to powerful AI systems. Unfortunately, the tech giant has created the misunderstanding that LLaMa 2 is “open source” – it is not. Even assuming the term can be validly applied to a large language model comprising several resources of different kinds, Meta is confusing “open source” with “resou
はじめまして、sonesuke( https://twitter.com/sonesuke ) です。 LLMのニュースを追っかけ続けたので、これからキャッチアップする人用にまとめておきます。 各手法の説明を読む前に、「これだけは知っとけ用語」を読んでおくと意味がわかります。知っている人は飛ばしてください。 これだけは知っとけ用語 Retriever LLMの入力として含められる情報には上限があります。GPT-3.5で4k トークン。GPT-4でも、8K, 32Kトークンです。十分大きくなったとはいえ、本一冊分とかは無理なわけです。これをうまくチャンクに分けて、質問から、チャンク化された文章を検索できるようにしたものを、Retriverと言います。 詳しくは、下記のページが参考になります。 埋め込み(Embeddings) 簡単にいうと、LLMを使って、入力を固定長のベクトル表現にすること
アラブ首長国連邦の首都アブダビに拠点を置く研究機関「Technology Innovation Institute」がオープンソースの大規模言語モデル「Falcon」をリリースし、機械学習関連のデータ共有サイト「Hugging Face」にてモデルを公開しました。 Falcon LLM - Home https://falconllm.tii.ae/ The Falcon has landed in the Hugging Face ecosystem https://huggingface.co/blog/falcon tiiuae/falcon-40b · Hugging Face https://huggingface.co/tiiuae/falcon-40b Falconモデルは400億個のパラメーターをもつ「Falcon-40B」モデルと、70億個のパラメーターをもつ「Falco
グーグルのシニアソフトウェアエンジニアによる文書によれば、同社の人工知能(AI)開発がオープンソースコミュニティによって脅かされている。このエンジニアによれば、オープンソース技術の独立した研究者たちがAI技術で急速かつ予測できない進歩を遂げていると主張している。 4月初旬に、ソフトウェアエンジニアのルーク・セルナウ氏が社内システムで文書を公開した。その文書は、その後数週間でGoogleの従業員の間で広く共有され、その文書は何千回も回覧されたという。木曜日には、コンサルティング会社SemiAnalysisがその文書を公開し、シリコンバレーで流通し始めた。 セルナウ氏の評価によれば、グーグルとOpenAIとの競争にばかり注意が向けられており、オープンソース技術の急速な進歩が見過ごされている。彼の文書では、GoogleはOpenAIの進歩を監視することに過度に重点を置いていたと書いている。両社が
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く