並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 6 件 / 6件

新着順 人気順

"neural network"の検索結果1 - 6 件 / 6件

  • Transformer Explainer: LLM Transformer Model Visually Explained

    What is a Transformer? Transformer is a neural network architecture that has fundamentally changed the approach to Artificial Intelligence. Transformer was first introduced in the seminal paper "Attention is All You Need" in 2017 and has since become the go-to architecture for deep learning models, powering text-generative models like OpenAI's GPT, Meta's Llama, and Google's Gemini. Beyond text, T

      Transformer Explainer: LLM Transformer Model Visually Explained
    • 「生成AI」と「LLM」を混同してはいけない“4つの理由”

      関連キーワード 人工知能 | 機械学習 テキストや画像を生成する人工知能(AI)技術である「生成AI」と聞いて、「GPT」をはじめとする「大規模言語モデル」(LLM)を思い浮かべる人がいる。それは間違った考え方ではないが、生成AIとLLMは同じではない。生成AIのベースとなる基盤モデルのさまざまな種類を踏まえて、生成AIとLLMを混同してはいけない理由を4つの視点で解説する。 「生成AI」と「LLM」を混同してはいけない4つの理由 併せて読みたいお薦め記事 連載:押さえておきたいLLMの基礎 前編:GAN、VAE、Transformerとは? 生成AIがよく分かる「深層学習モデル」5選 中編:「ELIZA」から「GPT-4」に至る、知られざる“LLM進化の歴史” LLMの関連記事 生成AIからデータが盗まれていることも……? LLMの10大脅威 「Gemini 1.5 Pro」の“マルチな

        「生成AI」と「LLM」を混同してはいけない“4つの理由”
      • 人間よりいいぜ!と思ってAI科学者を使ったら、人間より日給が高かった|shi3z

        世の中そんなに甘くない。 SakanaAIの「AI科学者(AI Scientist)」を使ったら爆発的に研究が捗る!と思ったのも束の間、人間並、いや下手すると人間より日給が高くなる可能性があることがわかった。 この二日間、好き放題にAI科学者に研究させた結果がこのザマ 二日で300ドルを突破する勢いで、これはちょっと遊びでやるレベルを超えてる。 また、指示の出し方(seed_ideas.json)によっては、実験が失敗する可能性もある。 昨日はMNISTと進化計算をテーマに7つの研究をしたみたいだが、5本は失敗し、2本だけ論文が得られた。 まあ一晩で2本も論文書けるレベルの人間の日当はもっと遥かに高いと思うが、個人で抱えるにはリッチすぎる。 というのも、デフォルトでClaud-3.5-SonnetやGPT-4oを使うようになっているからだ。そこで激安になったGPT-4o-miniをデフォル

          人間よりいいぜ!と思ってAI科学者を使ったら、人間より日給が高かった|shi3z
        • Everything a developer needs to know about Generative AI for SaaS

          Everything a developer needs to know about Generative AI for SaaS Few months ago, I knew almost nothing about AI. I used ChatGPT and Co-Pilot (I'm civilized, after all), but a lot of the content around AI was Greek to me. Terms like models, transformers, training, inference, RAG, attention, and agents were unfamiliar. Last week, I have completed my first end-to-end AI-based product: AI Code Assist

            Everything a developer needs to know about Generative AI for SaaS
          • Google内の謎の組織が研究する「計算生命」とは、7月のAI注目論文

            生成AI(人工知能)を含む最新のAI研究動向を知るため、世界中の研究者やエンジニアが参照しているのが、論文速報サイト「arXiv(アーカイブ)」である。そんなarXivの投稿論文から、2024年7月(1日~31日)にSNSのX(旧Twitter)で多く言及されたAI分野の注目論文を紹介する。 調査には米Meltwater(メルトウォーター)のSNS分析ツールを利用した。対象はXの全世界のオリジナル投稿、コメント、再投稿、引用投稿である。調査は、日経BPが2024年1月に新設したAI・データラボの活動の一環として実施した。 今回注目したのが、米Google(グーグル)と米シカゴ大学の研究チームが共同で発表した論文「Computational Life: How Well-formed, Self-replicating Programs Emerge from Simple Interact

              Google内の謎の組織が研究する「計算生命」とは、7月のAI注目論文
            • 1兆8000億。  それはそれとしてGPT4oのパラメータ数はどのくらいなんだろう。MOE,,,,, - Qiita

              Nvidia の偉い人 がGPT4o のトレーニングについてリークしたみたいですね。MOE なんとか が何とかといってたそうですね。 それはそれとして Manba モデルでシーケンス長を大きくした場合の生成テキストの違いを検証します。 シーケンス長 10, 20, 100, 200 ,300, 500 で比較してみます。 Seq 長さ 10、深さ 4: 将来、AI の力が社会の隅々に浸透しています。 ビジョン。 翻訳、および中国の伝統と入力データ。 興奮に魅了されます。 彼の方法は、数学と西洋の AI の謎を解き明かし、さらに多くの課題に取り組みます。 宇宙で。 アレックスの洞察力とエネルギー効率の共通の目標は、彼の仕事です。 アレックスの最新のテクノロジーは、計算の助けになります。 ある夜、アレックスのテーマは日本語に翻訳されました。 予想よりもはるかに速く、信じられないほど速く完成しま

                1兆8000億。  それはそれとしてGPT4oのパラメータ数はどのくらいなんだろう。MOE,,,,, - Qiita
              1