Dead simple way to run LLaMA on your computer
米スタートアップのOpenAIが開発した、自然な対話や文章作成ができる対話型AI「ChatGPT」が世界に衝撃を与えている。 米国でチャットAIをけん引している企業にはMicrosoftとGoogleがあるが、中国でも大きな変革のうねりに乗り遅れまいとお祭り騒ぎで、カオスっぽくなっている。しかし中国の反応は、日本のそれとはベクトルが異なる。 関連記事 AIの権威による「ChatGPT」の説明が分かりやすい! 東大松尾教授の資料が話題 米OpenAIの「ChatGPT」が注目を集める中、自民党の「AIの進化と実装に関するプロジェクトチーム」に東京大学の松尾豊教授が提出した資料が「分かりやすい」と話題になっている。 ChatGPTを学生が利用すると“質の良い論文”が書ける? 医学生18人を調査 クロアチアの研究者が発表 クロアチアのスプリット大学に所属する研究者らは、ChatGPTを利用して論
We introduce Voyager, the first LLM-powered embodied lifelong learning agent in Minecraft that continuously explores the world, acquires diverse skills, and makes novel discoveries without human intervention. Voyager consists of three key components: 1) an automatic curriculum that maximizes exploration, 2) an ever-growing skill library of executable code for storing and retrieving complex behavio
生成AIChatGPTをはじめとするGenerativeAI(生成AI)は、テレビや新聞で見ない日はないくらいに話題になっています。YouTubeでも芸人さんがChatGPTを紹介する動画が多数出ています。(個人的に、芸人かまいたちの「ChatGPTに漫才を作ってもらう」という動画が好きです。) 企業でも、ソフトバンクやNTTなどの大企業が、会社を上げて生成AIの開発・活用をしていくと発表しています。行政においても、横須賀市やつくば市が生成AIを積極的に業務に取り入れようとしています。今後ますます多くの企業・行政・個人が生成AIを活用していくと思います。 このブログ記事では、AI×医療のベンチャー企業Ubieでの生成AI活用の試行錯誤してきた取り組み事例をご紹介します。今後の生成AI活用に少しでもご参考になれば幸いです。(プロダクトへの活用はまだ検証中なため、生成AIによる社内生産性向上の
Amazon Bedrock は、AI21 Labs、Anthropic、Cohere、Meta、Stability AI、Amazon などの大手 AI 企業が提供する高性能な基盤モデル (FM) を単一の API で選択できるフルマネージド型サービスです。また、生成 AI アプリケーションの構築に必要な幅広い機能も備えているため、プライバシーとセキュリティを維持しながら開発を簡素化できます。Amazon Bedrock を使用すると、ユースケースに最適な FM を簡単に試して評価したり、微調整や検索拡張生成 (RAG) などの手法を使用してデータに合わせてカスタマイズしたり、エンタープライズシステムとデータソースを使用してタスクを実行するエージェントを構築したりできます。Amazon Bedrock はサーバーレスであるため、インフラストラクチャを管理する必要がありません。また、使い慣
LlamaIndex (GPT Index) is a data framework for your LLM application. Building with LlamaIndex typically involves working with LlamaIndex core and a chosen set of integrations (or plugins). There are two ways to start building with LlamaIndex in Python: Starter: llama-index (https://pypi.org/project/llama-index/). A starter Python package that includes core LlamaIndex as well as a selection of inte
Our integrations include utilities such as Data Loaders, Agent Tools, Llama Packs, and Llama Datasets. We make it extremely easy to connect large language models to a large variety of knowledge & data sources. Use these utilities with a framework of your choice such as LlamaIndex, LangChain, and more. Learn More
まえがき 2023年も終わりなので「2023年 一番星はてのコメント10選」みたいな記事を書こうと思い、とりあえずスター数の多かったコメントを集計していました。 集計自体はすぐ終わったのですが、はての以外の人でもこれ知りたいなあと思い、サービスとして公開することにしました。 というわけで、ブックマークについたスターを眺められるサイト「はてなギャラクシー(β版)」をリリースしました。 はてな★ギャラクシー どういうサイトなのか サイト自体を見てもらった方が早いので、一番星はてののページを見てみます。 一番星はてののブックマーク firststar_hateno - はてな★ギャラクシー 一番星はてののはてのギャラクシーのページ ユーザーの全ブックマークを取得し、スター数の降順に並べます。 あとはキーワードと日付によるブックマークの絞り込みができます。 キーワードはブックマークコメントとブック
This package provides an implementation of the inference pipeline of AlphaFold v2. For simplicity, we refer to this model as AlphaFold throughout the rest of this document. We also provide: An implementation of AlphaFold-Multimer. This represents a work in progress and AlphaFold-Multimer isn't expected to be as stable as our monomer AlphaFold system. Read the guide for how to upgrade and update co
February 14, 2023 Replicate ChatGPT Training Quickly and Affordable with Open Source Colossal-AI We recently released new open source code for Colossal-AI, which enables you to use it as a framework for replicating the training process of OpenAI’s popular ChatGPT application optimized for speed and efficiency. With Colossal-AI's efficient implementation of RLHF (Reinforcement Learning with Human F
こんにちは、nadareです。 機械学習エンジニアで、普段はレコメンド・検索関連のお仕事をしています。いろんな競技プログラミングが好きです。 最近はRetrieval-based-Voice-Conversion(以下RVC)という技術に関心を持ち、本家Retrieval-based-Voice-Conversion-WebUIやddPn08さん版RVC-WebUI、VC ClientにPR投げつつ勉強しています。 本記事では、RVCのモデルで綺麗な日本語に変換するための学習テクニックを紹介します。 2023/05/24 追記 続・RVCのモデルを日本語向けに事前学習するを公開しました。最新の内容にアップデートしたので、こちらもご参照ください。 2023/05/14 16:20追記 これまではITAコーパス読み上げ音声を10~30epoch学習させたもので比較していて、その時点では事前学習
To deepen the public conversation about how AI models should behave, we’re sharing the Model Spec, our approach to shaping desired model behavior. We are sharing a first draft of the Model Spec, a new document that specifies how we want our models to behave in the OpenAI API and ChatGPT. We’re doing this because we think it’s important for people to be able to understand and discuss the practical
1.4/50 Summilux ASPH, Leica M10P, RAW (これは次のblog postの続編です。) kaz-ataka.hatenablog.com 機械学習ベースのAIの生み出す結果について問題提起的な議論を聞くことが多い。 〇〇についてしらべると 極端に男性に偏っている 極端にヨーロッパ系の人たちに偏っている 極端にリベラル(英語圏の意味の左派)よりである 豊かな人達に向けた議論があまりにも多い 体型や容姿に恵まれた人への極端な偏りを感じる などなどだ。 気持ちは大いにわかるが、機械学習というものの特質を考えると致し方ないところは多い。機械学習ベースのAIは7-8年前にHarvard Business Reviewで整理したとおり、相当の計算環境に、テキスト処理や機械学習を含むアルゴリズムを実装し、大量の経験値を与えて特定の目的に向けて訓練したものだからだ。 安宅
Transformer モデルは、文章に含まれる単語のように、 連続したデータの関係を追跡することによって、文脈ひいては意味を学習するニューラルネットワークです。 来るべき AI のビッグウェーブに乗りたいなら、Transformer は押さえておくべきです。と言っても、テレビでよく見る変形するおもちゃのロボットでも、電柱の上に取り付けられたごみ箱大の容器でもありません。 Transformer モデルとは? Transformer モデルは、この文章に含まれる単語のように、連続したデータの関係を追跡することによって、文脈ひいては意味を学習するニューラルネットワークです。 Transformer モデルは、進化する一連の数学的手法 (アテンションまたはセルフアテンションと呼ばれます) を適用して、同じ系内にある隔たったデータ要素間の微妙な相互影響や相互依存関係を見つけます。 Google
Dr. すきとほる, MPH, PhD | 疫学専門家このブログのモットーは『研究ライフをほんのり豊かに』。研究者のための副業や転職、便利ツール、SNS運用などお役立ち情報をお届けします |【所属】大手外資製薬のGlobalチーム管理職&国立大学研究職 |【経歴】貧乏学生 ▶︎ 社畜 ▶︎ 研究職へキャリアチェンジ ▶︎ 3年で年収10倍に |【専門】薬剤疫学と医療大規模データベース研究 | ※発言は個人の見解で組織を代表しません
はじめに お疲れ様です。yuki_inkです。 AWS re:Invent 2023 に参加しています。 今回の最大のアップデートと目される「Amazon Q」。 本記事は、Qに関する情報をまとめ、また実際にマネコンから触ってみることで、Qの理解を深めようという趣旨のものです。 Amazon Q とは 生成AIを活用した、エンタープライズ向けアシスタントサービスです。 re:Invent 2023 のCEO Keynoteで発表されました。 セキュリティを最優先事項とするAWSらしく、セキュリティ、そしてプライバシーにも配慮されており、企業のポリシーやデータアクセス制限に適合するように設計されています。 「Amazon Qは、その内部のモデルのトレーニングためにお客様の情報を一切使用しない」と明言されているため、今まで生成AIの活用に躊躇していた企業も安心して利用が可能です。 Qの立ち位置
▼テーマ Transformer や BERT で爆発的な利用を獲得した Attention の祖となるネットワーク RNNsearch について解説します。 Attention は自然言語で GPT-3 の化け物的な精度を出したのみならず、画像や生成モデルなど、超広い領域に応用されています。 今の Deep Learning を語る上では外せない要素! 要チェック! ▼関連プレイリスト Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP 自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR ▼目次 (後で追加します。暫くお待ちください)
Run time and cost This model runs on Nvidia A100 (40GB) GPU hardware. Predictions typically complete within 85 seconds. The predict time for this model varies significantly based on the inputs. A watermark-free Modelscope-based video model optimized for producing high-quality 16:9 compositions and a smooth video output. This model was trained using 9,923 clips and 29,769 tagged frames at 24 frames
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く